Philippe M¨ullhaupt
Introduction `a l’Analyse et `a la Commande des Syst`emes Non Lin´eaires 12 juin 2007
Avant-propo...
202 downloads
911 Views
5MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
Philippe M¨ullhaupt
Introduction `a l’Analyse et `a la Commande des Syst`emes Non Lin´eaires 12 juin 2007
Avant-propos
L’objectif de ce livre est de pr´esenter les fondements de l’analyse et de la synth`ese de loi de commande pour les syst`emes non lin´eaires. Le terme de syst`eme apparaˆıt de plus en plus pour d´esigner une multitudes de choses, par exemple pour un ensemble organis´e de concepts, d’arrangements, d’assemblage, de composition d’id´ees et d’objets concrets. Nous entendrons par syst`eme, une repr´esentation math´ematique par des ´equations diff´erentielles ordinaires non lin´eaires d’une r´ealit´e physique pouvant provenir de plusieurs disciplines diff´erentes : biologie, g´enie m´ecanique, ´electrique, chimique, physique, etc. Ainsi, nous nous d´emarquons `a la fois du sens biologique classique qui entend par syst`eme, un ensemple structur´e d’´el´ements naturels de mˆeme esp`ece ou de mˆeme fonction, et du sens m´ecaniste qui entend par syst`eme, un appareil ou dispositif form´e par une r´eunion d’organes, d’´el´ements analogues. Toutefois, la nature de structure est clairement pr´esente dans notre d´efinition de syst`eme, et nous mettons clairement la notion d’universalit´e d’application des th´eories d´evelopp´ees, pour autant qu’elles puissent donner une ad´equation a la fois avec l’observation des ph´enom`enes et avec la pr´edicabilit´e de ceux-ci. ` Finalement, la provenance des ´equations d´ecrivants un mod`ele de la r´ealit´e disparaˆıt lorsque l’on ´etudie, par voie math´ematique, son comportement. La compr´ehension de ce comportement fera l’objet de la premi`ere partie intitul´ee ”Analyse”, et sa modification, l’objet de la seconde partie intitul´ee ”Synth`ese”. Le comportement est ici `a comprendre dans son sens large, `a savoir non seulement l’´evolution temporelle des solutions de l’ensemble des ´equations diff´erentielles ordinaires d´ecrivant le mod`ele, mais ´egalement certaines propri´et´es topologiques caract´eristiques de cet ensemble : par exemple, type et qualit´e des points singuliers (c.-`a-d, la classification des points d’´equilibre stables ou instables), l’existence de cycle limite, la d´elimitation du bassin d’attraction des points d’´equilibre stables, etc.
VI
Avant-propos
Une grande partie du livre est consacr´e `a d´efinir convenablement le concept de stabilit´e et de donner des outils permettant de d´eterminer avec un nombre d’op´eration r´eduit cette propri´et´e. Nous verrons ´egalement que le comportement peut ˆetre modifi´e par le concept de r´etroaction (ou loi de commande). En modifiant certaines variables apparaissants dans le syst`eme d’´equations diff´erentielles (que l’on d´esigne par le nom d’entr´ee) en utilisant l’information de certaines autres variables de cet ensemble (appel´ee sortie) de telle sorte que les variables d’entr´ees soient mises en correspondance avec les variables de sortie, le concept de boucle de r´etroaction fait son entr´ee, et permet de modifier radicalement le comportement de l’ensemble des ´equations diff´erentielles. Ainsi, un syst`eme initialement instable peut devenir stable. Il est alors n´ecessaire d’exploiter la d´efinition de la stabilit´e et de ces caract´erisations pour ´elaborer les correspondances entre entr´ees et sorties (les lois de commande) de telle sorte de parvenir `a ces fins. Ce livre est issu d’un enseignement `a des ´etudiants en fin d’´etudes d’ing´enieur en g´enies ´electrique, microtechnique, et m´ecanique. La mati`ere est couverte ` a raison de deux heures par semaines sur une dur´ee d’un semestre. Je conseille vivement d’intercaller des s´eances `a l’ordinateur permettant aux ´etudiants d’ˆetre confront´es eux-mˆemes aux probl`emes, ce qui rend le contenu de la mati`ere plus concr`ete et plus facilement assimilable. Je remercie les nombreuses vol´ees d’´etudiants qui m’ont permis d’affiner l’ouvrage propos´e et surtout ma compr´ehension du sujet. J’esp`ere ´egalement avoir pu leur transmettre les connaissances de cette discipline et transmis un peu de mon enthousiasme pour cette mati`ere parfois d’aspect superficiellement aride. Ce texte est une introduction au sujet et l’objectif est de permettre, dans un volume compact, l’acc`es `a une litt´erature difficile `a un large spectre de lecteurs de formation scientifique et technique diverse. Les pr´erequis ne sont pas excessifs ; de bonnes notions sur les ´equations diff´erentielles et les repr´esentations associ´ees comme la transform´ee de Laplace et la notion de fonction de transfert sont requises ; il est n´ecessaire ´egalement de connaˆıtre les concepts de repr´esentation d’´etat lin´eaire, de commandabilit´e et d’observabilit´e. Malheureusement, le traitement propos´e dans cet ouvrage ne couvre que les syst`emes ayant une seule entr´ee et ne d´ependant pas du temps. Le concept d’observateur non lin´eaire n’est pas abord´e et le concept de gouvernabilit´e non lin´eaire n’est pas trait´e dans toute sa complexit´e. L’accent est mis sur l’accessibilit´e, pr´esent´ee comme condition n´ecessaire `a la lin´earisation d’´etat. Les concepts qui ne sont pas trait´es peuvent ˆetre abord´es sereinement une fois que la mati`ere de ce cours est assimil´ee. Leur exposition correspond mieux `a un cours au niveau doctoral.
Avant-propos
VII
Une bibliographie se trouve `a la fin de l’ouvrage qui contient exclusivement des r´ef´erences ` a des livres complets. C’est un choix personnel dict´e par la difficult´e de faire une bibliographie pertinente au niveau introductif sans l´eser les auteurs d’´eminentes publications qui seraient laiss´es de cˆ ot´e, non pas par manque d’int´erˆet, mais par soucis de compacit´e. Une solution aurait ´et´e de faire une bibliographie exhaustive mais elle demanderait une liste ´enorme. Par exemple, les r´ef´erences ` a la litt´erature (essentiellement russe) se trouvant dans l’ouvrage [BS70] couvre d´ej` a plus de 35 pages. J’invite donc le lecteur de se r´ef´erer aux bibliographies d´etaill´ees des ouvrages cit´es ` a la fin de cet ouvrage. Le premier de ceux-ci qui m’a transmis l’enthousiasme de la discipline est [SL91]. Il n’est pas ´etonant que le pr´esent ouvrage en est fortement inspir´e pour la r´edaction de plusieurs chapitres, en particulier pour la s´eparation en deux parties, analyse et synth`ese. Egalement dans cette mˆeme optique, l’ouvrage incontournable de [Kha02], longtemps utilis´e comme support au cours (avec l’ouvrage de [SL91] pr´ec´edemment mentionn´e), m’a ´egalement fortement inspir´e `a plusieurs reprises. Je f´elicite l’auteur pour son ouvrage, un mod`ele de rigueur et un excellent point d’entr´ee pour quiconque voulant approfondir au del` a du pr´esent contenu. Le chapitre g´eom´etrie est inspir´e de [Isi89], [NvdS90], [KN63],[Car71] et [For59], en particulier j’attire l’attention sur ces deux derni`eres r´ef´erences pour la notion des 1-formes, du calcul ext´erieur et de la d´eriv´ee ext´erieure. J’invite ´egalement le lecteur int´eress´e `a consulter l’excellent [Mor01]. La commande par les m´ethodes de Lyapunov est inspir´ee par plusieurs passages dans [SJK97] et j’en remercie les auteurs. Cet ouvrage est ´egalement le fruit de mes nombreuses interactions avec mes doctorants que je remercie vivement, sans qui l’exposition de la mati`ere serait plus opaque. C’est ainsi que je t´emoigne ma sinc`ere gratitude `a Davide Buccieri, Jean-Yves Favez, Basile Graf, Yvan Michellod, Thierry Prud’homme et Christophe Salzmann. Le premier professeur m’ayant transmis les notions essentielles de commande d’´etat est le professeur Roland Longchamp dont la p´edagogie et le goˆ ut pour la science m’ont pouss´e `a m’orienter vers l’automatique durant mes ´etudes. Je le remercie vivement pour cela, mais surtout j’aimerais le remercier particuli`erement pour avoir encourag´e la r´ealisation de cet ouvrage, ainsi que pour son soutient sans faille tout au long de la r´edaction de celui-ci. Ensuite, j’aimerais chaleureusement remercier le professeur Jean L´evine qui m’a permis de me sp´ecialiser en commande non lin´eaire, me transmettant les connaissances indispensables durant mon s´ejour au Centre Automatique et Syst`emes de l’Ecole des Mines de Paris `a Fontainebleau. Je remercie ´egalement le professeur Laurent Praly avec qui j’ai pu discut´e de mani`ere quotidienne lors du repas de midi. J’aimerais ´egalement remercier le professeur Zhong-Ping Jiang pour l’excellent travail en commun effectu´e `a Lausanne et `a New York. Son aisance
VIII
Avant-propos
avec les in´egalit´es math´ematiques est impressionnante. J’ai r´esum´e quelques unes de ces techniques dans le pr´esent ouvrage, et je le remercie vivement pour m’avoir transmis cette connaissance. J’aimerais ´egalement remercier les professeurs Dominique Bonvin, Sebastian Dormido, Balint Kiss, Balasubrahmanyan Srinivasan, ainsi que le Dr. Denis Gillet pour le tr`es bon travail scientifique effectu´e en commun aboutissant ` a des publications internationales.
Lausanne, Juin 2007
Philippe M¨ ullhaupt
Table des mati` eres
Partie I Analyse 1
D´ efinition et propri´ et´ es des syst` emes non lin´ eaires . . . . . . . . . 1.1 Principe de superposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Classe de syst`emes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 R´eponse indicielle disym´etrique . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4 Termes d’ordre sup´erieur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.5 Points d’´equilibre isol´es multiples . . . . . . . . . . . . . . . . . . . . . . . . . . 1.6 Explosion en temps fini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.7 R´eponse harmonique multiple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.8 Orbites chaotiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3 3 4 4 6 7 8 8 8
2
Diagramme de phase . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1 Plan de phase pour les syst`eme du second ordre . . . . . . . . . . . . . 2.1.1 Syst`eme masse-ressort . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Techniques de graphe du plan de phase . . . . . . . . . . . . . . . . . . . . . 2.3 Syst`emes lin´eaires du second ordre . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.1 Solutions num´eriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.2 Graphe des pentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.3 Elimination du temps explicitement . . . . . . . . . . . . . . . . . . 2.3.4 Elimination du temps implicitement . . . . . . . . . . . . . . . . . 2.3.5 M´ethode des isoclines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.6 Exemple : oscillateur de van der Pol . . . . . . . . . . . . . . . . . 2.4 Cycles limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4.1 Classification des cycles limites . . . . . . . . . . . . . . . . . . . . . .
11 11 12 12 13 14 14 15 15 16 17 19 20
X
3
Table des mati`eres
2.5 Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5.1 Type de points d’´equilibre . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5.2 Classification des points d’´equilibre . . . . . . . . . . . . . . . . . . 2.5.3 Th´eor`eme de l’index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5.4 Th´eor`eme de Bendixson . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6 Impossibilit´e du chaos planaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6.1 Th´eor`eme de Poincar´e-Bendixson . . . . . . . . . . . . . . . . . . . . 2.7 Exemple : dynamique de populations . . . . . . . . . . . . . . . . . . . . . . . 2.7.1 Comp´etition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.7.2 Pr´edateur-proie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
20 22 22 23 24 24 25 25 26 28 30
M´ ethode du premier harmonique . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1 Syst`eme lin´eaire et non-lin´earit´e statique . . . . . . . . . . . . . . . . . . . 3.1.1 Excitation sinuso¨ıdale en boucle ouverte . . . . . . . . . . . . . . 3.1.2 Caract´eristique passe-bas du syst`eme lin´eaire G(s) . . . . . 3.1.3 Gain complexe ´equivalent . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Premier harmonique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.1 D´ecomposition en harmoniques . . . . . . . . . . . . . . . . . . . . . . 3.2.2 Equivalent du premier harmonique . . . . . . . . . . . . . . . . . . 3.2.3 Calcul de l’´equivalent du premier harmonique . . . . . . . . . 3.3 Non-lin´earit´es communes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.1 Saturation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.2 Zone morte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.3 Relais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.4 Hyst´er`ese . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.5 Non-lin´earit´es sym´etriques, continues par morceaux . . . . 3.4 Syst`eme en r´etroaction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4.1 Repr´esentation graphique . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4.2 Double int´egrateur et oscillateurs lin´eaires . . . . . . . . . . . . 3.4.3 Th´eor`eme de Nyquist . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5 Crit`ere de stabilit´e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5.1 Cycle limite stable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5.2 Cycle limite instable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6 Fiabilit´e de l’analyse par le premier harmonique . . . . . . . . . . . . . 3.7 Oscillateur de Van der Pol revisit´e . . . . . . . . . . . . . . . . . . . . . . . . .
31 32 33 33 35 37 37 37 38 42 43 44 45 45 46 47 49 50 52 58 58 59 61 61
Table des mati`eres
4
Stabilit´ e au sens de Lyapunov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1 Point d’´equilibre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Rappel de la notion de stabilit´e pour les syst`emes lin´eaires . . . . 4.3 Notion intuitive de la stabilit´e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4 D´efinition math´ematique pr´ecise de la stabilit´e . . . . . . . . . . . . . . 4.4.1 Notion de distance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.2 Stabilit´e : d´efinition formelle . . . . . . . . . . . . . . . . . . . . . . . . 4.4.3 Illustration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.4 Stabilit´e asymptotique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.5 D´esavantages de la d´efinition . . . . . . . . . . . . . . . . . . . . . . . . 4.5 M´ethode directe de Lyapunov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5.1 Candidat de Lyapunov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5.2 Fonction de Lyapunov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6 Exemple : robot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6.1 Loi de commande . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6.2 Lois de la m´ecanique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6.3 Candidat Lyapunov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6.4 Fonction de Lyapunov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.7 Th´eor`eme de stabilit´e locale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.7.1 Preuve (stabilit´e locale) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.7.2 Preuve de stabilit´e locale asymptotique . . . . . . . . . . . . . . 4.8 Stabilit´e exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.8.1 Exemple : Dynamique des populations . . . . . . . . . . . . . . . 4.9 Stabilit´e globale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.10 Fonction de Lyapunov pour les syst`emes lin´eaires . . . . . . . . . . . . 4.11 Stabilit´e locale et lin´earisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.11.1 Inconv´enients de la m´ethode indirecte . . . . . . . . . . . . . . . . 4.12 Stabilit´e exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.13 Th´eor`eme d’invariance de LaSalle . . . . . . . . . . . . . . . . . . . . . . . . . . 4.13.1 Ensemble invariant M . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.13.2 Ensemble d’annulation de la d´eriv´ee de la fonction de Lyapunov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.13.3 Exemple : le pendule simple . . . . . . . . . . . . . . . . . . . . . . . . 4.14 M´ethodes de construction des fonctions de Lyapunov . . . . . . . . . 4.14.1 M´ethode de Krasovskii . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.15 M´ethode du gradient variable . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
XI
65 65 65 66 66 66 67 70 70 70 71 71 72 73 73 73 74 74 75 75 77 79 79 79 81 82 84 84 85 85 86 87 91 92 92
XII
Table des mati`eres
4.16 4.17 4.18 4.19
R´esultat d’instabilit´e 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 R´esultat d’instabilit´e 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 R´esultat d’instabilit´e 3 : th. de Chetaev . . . . . . . . . . . . . . . . . . . . 96 Techniques de comparaison et majoration . . . . . . . . . . . . . . . . . . . 97 4.19.1 Les formes quadratiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 4.19.2 Inflation et d´eflation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 4.19.3 Le d´eveloppement limit´e . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 4.19.4 La r´eintroduction de V . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 4.19.5 L’´equation int´egrale associ´ee . . . . . . . . . . . . . . . . . . . . . . . . 101 4.19.6 Quelques in´egalit´es standards . . . . . . . . . . . . . . . . . . . . . . . 103 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
5
Passivit´ e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 5.1 Notion intuitive . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 5.2 Exemple de syst`eme statique passif . . . . . . . . . . . . . . . . . . . . . . . . 108 5.3 Syst`eme statique passif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 5.4 Exemple de syst`eme dynamique passif . . . . . . . . . . . . . . . . . . . . . . 109 5.5 D´efinition diff´erentielle de la passivit´e . . . . . . . . . . . . . . . . . . . . . . 111 5.6 Propri´et´es . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 5.6.1 Connexion parall`ele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112 5.6.2 Connexion par r´etroaction . . . . . . . . . . . . . . . . . . . . . . . . . . 113 5.6.3 D´efinition int´egrale de la passivit´e . . . . . . . . . . . . . . . . . . . 114 5.7 Passivit´e des syst`emes lin´eaires SISO . . . . . . . . . . . . . . . . . . . . . . . 114 5.7.1 Preuve du lien entre passivit´e et r´eponse harmonique positive r´eelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 5.8 Syst`eme r´eel positif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 5.8.1 Degr´e relatif et minimum de phase . . . . . . . . . . . . . . . . . . 119 5.8.2 Lien entre Lyapunov et syst`eme RP . . . . . . . . . . . . . . . . . 122 5.9 Stabilit´e absolue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128 5.9.1 Non-lin´earit´e statique de secteur . . . . . . . . . . . . . . . . . . . . 128 5.9.2 D´efinition de la stabilit´e absolue . . . . . . . . . . . . . . . . . . . . . 128 5.9.3 Conjecture de M. A. Aizerman . . . . . . . . . . . . . . . . . . . . . . 130 5.9.4 Crit`ere du cercle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130 5.9.5 Crit`ere de Popov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
Table des mati`eres
XIII
Partie II Synth` ese 6
Elements de G´ eom´ etrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 6.2 Vari´et´e, Cartes et Atlas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146 6.2.1 Diff´eomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149 6.3 Solution de l’´equation diff´erentielle . . . . . . . . . . . . . . . . . . . . . . . . 150 6.4 Champ de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150 6.5 Espace dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151 6.6 Produit tensoriel et forme multilin´eaire . . . . . . . . . . . . . . . . . . . . . 152 6.7 Produit scalaire et produit ext´erieur en dimension deux . . . . . . 153 6.7.1 forme bilin´eaire sym´etrique . . . . . . . . . . . . . . . . . . . . . . . . . 154 6.7.2 forme bilin´eaire antisym´etrique (altern´ee) . . . . . . . . . . . . . 154 6.7.3 Produit ext´erieur de deux formes lin´eaires . . . . . . . . . . . . 155 6.8 Forme multilin´eaire altern´ee . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156 6.9 Cotangent et les 1-forme diff´erentielles . . . . . . . . . . . . . . . . . . . . . 157 6.10 Le gradient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158 6.11 D´eriv´ee de Lie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159 6.12 Crochet de Lie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161 6.12.1 Propri´et´es du crochet de Lie . . . . . . . . . . . . . . . . . . . . . . . . 162 6.13 Diff´erentiation ext´erieure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163 6.13.1 Diff´erentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164 6.13.2 D´erivation ext´erieure d’une 1-forme . . . . . . . . . . . . . . . . . . 165 6.13.3 D´erivation ext´erieure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166 6.13.4 Th´eor`eme de Stokes g´en´eralis´e . . . . . . . . . . . . . . . . . . . . . . 167 6.14 Int´egrabilit´e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168 6.15 Diff´erence entre une 1-forme exacte et int´egrable. . . . . . . . . . . . . 170 6.16 Diff´erentielles et d´erivation ext´erieure . . . . . . . . . . . . . . . . . . . . . . 171 6.17 Propri´et´es de la diff´erentielle ext´erieure . . . . . . . . . . . . . . . . . . . . . 173 6.18 Condition d’exactitude et d’int´egrabilit´e . . . . . . . . . . . . . . . . . . . . 174 6.19 Interpr´etation g´eom´etrique de l’int´egrabilit´e et de la non-int´egrabilit´e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 6.20 Les deux formes du th´eor`eme de Frobenius . . . . . . . . . . . . . . . . . 184
7
Commande par lin´ earisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191 7.1 Lin´earisation locale et stabilisation . . . . . . . . . . . . . . . . . . . . . . . . 192 7.1.1 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
XIV
Table des mati`eres
7.2 Lin´earisation exacte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195 7.3 Equation d’erreur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197 7.3.1 Fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198 7.3.2 Equation diff´erentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198 7.3.3 Placement de pˆ oles et ´equation d’erreur . . . . . . . . . . . . . . 201 7.4 Syst`emes lin´eaires SISO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202 7.4.1 Sortie sp´ecifi´ee . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202 7.4.2 Sortie non sp´ecifi´ee, formule d’Ackermann . . . . . . . . . . . . 212 7.5 Lin´earisation entr´ee-sortie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214 7.6 Lin´earisation exacte entr´ee-´etat . . . . . . . . . . . . . . . . . . . . . . . . . . . 216 7.6.1 Conditions pour la sortie plate . . . . . . . . . . . . . . . . . . . . . . 217 7.6.2 Exemple : Robot avec joint flexible . . . . . . . . . . . . . . . . . . 220 7.6.3 Exemple : Bille roulant sur une barre . . . . . . . . . . . . . . . . 224 7.7 Commande d’une chaˆıne d’int´egrateurs . . . . . . . . . . . . . . . . . . . . . 226 7.7.1 Stabilisation et poursuite . . . . . . . . . . . . . . . . . . . . . . . . . . . 227 7.7.2 Transit en temps fini avec commande a priori . . . . . . . . . 227 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229 8
Commande par les m´ ethodes de Lyapunov . . . . . . . . . . . . . . . . . 233 8.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233 8.2 Fonction de Lyapunov de Commande . . . . . . . . . . . . . . . . . . . . . . 234 8.3 Structure cascade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234 8.3.1 Restriction de la croissance du terme de couplage . . . . . . 237 8.4 Passivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242 8.5 Ph´enom`ene du peaking . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246 8.6 Backstepping . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248 8.6.1 Fonction de Lyapunov r´eduite . . . . . . . . . . . . . . . . . . . . . . . 248 8.6.2 Fonction de Lyapunov compl`ete . . . . . . . . . . . . . . . . . . . . . 249 8.6.3 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250
Litt´ erature . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253 Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
Partie I
Analyse
1 D´ efinition et propri´ et´ es des syst` emes non lin´ eaires
La notion de syst`eme non lin´eaire est fond´ee sur le non respect du principe de superposition. Les syst`emes n’ob´eissant pas au principe de superposition sont tr`es nombreux. Nous pr´esenterons une sous-classe de tels syst`emes pour lesquels les ´equations diff´erentielles ordinaires sont suffisantes `a leur description. Cette classe sera ´etudi´ee tout au long de cet ouvrage. Finalement, plusieurs propri´et´es propres ` a cette classe sont illustr´ees `a travers divers exemple.
1.1 Principe de superposition Un syst`eme lin´eaire pourvu d’une entr´ee u et d’une sortie y ob´eit au principe de superposition. D´ efinition 1.1. (Prinicipe de superposition). Soit deux signaux d’entr´ees u1 et u2 engendrants deux signaux de sorties y1 y2 . La r´eponse a ` la somme des entr´ees u = u1 + u2 est la somme des r´eponses individuelles, i.e. y = y1 + y2 . Une cons´equence directe de ceci est : Caract´eristique 1.2. Pour tout syst`eme ob´eissant au principe de superposition, la r´eponse ` a une amplification du signal par un facteur α engendre une amplification de la sortie par un mˆeme facteur α. En d’autres termes si y corrspond a u alors la r´eponse ` ` a αu est αy. Ce principe est ` a l’origine mˆeme de la d´efinition d’un syst`eme lin´eaire. D´ efinition 1.3. Tout syst`eme ob´eissant au principe de superposition est un syst`eme lin´eaire. Par cons´equent tout syst`eme qui n’ob´eit plus au principe de superposition est un syst`eme non-lin´eaire, l’objet de ce livre.
4
1 D´efinition et propri´et´es des syst`emes non lin´eaires
1.2 Classe de syst` emes La classe de syst`eme qui sera ´etudi´ee dans ce texte est celle d´ecrivant les mod`eles de syst`emes physiques qui peuvent se repr´esenter par un ensemble d’´equations diff´erentielles ordinaires. Le mod`ele math´ematique du syst`eme physique s’´ecrit x˙ = f (x, u),
(1.1)
T de dimension n et o` u x repr´esente le vecteur d’´etat x = x1 x2 . . . xn T u un vecteur de grandeur d’entr´ee u = u1 , u2 , . . . um avec m grandeurs de commandes ui ∈ R, i = 1, . . . , m. Tout au long de cet ouvrage, nous supposerons que f (x, u) apparaissant dans (1.1) est une fonction continue de ces deux arguments. De plus cette continuit´e sera telle que la solution de (1.1) est unique pour des conditions initiales x0 et une commande uo d´etermin´ees. La condition sur cette continuit´e est que f (x, u) soit Lipschitz continue (en chaque point l’´evolution infinit´esimale locale de f (x, u) doit ˆetre born´ee). D´ efinition 1.4. La fonction f (x, u) est appel´ee Lipschitz continue selon ces deux arguments x et u lorsque, d’une part, elle est continue selon ses deux arguments x et u et, d’autre part, lorsqu’il existe deux constantes c1 ∈ R et c2 ∈ R telles que pour toute valeur de x1 et x2 , (resp. u1 et u2 ), kf (x1 , u) − f (x2 , u)k ≤ c1 kx1 − x2 k, resp. kf (x, u1 ) − f (x, u2 )k ≤ c2 ku1 − u2 k. Le lecteur int´eress´e par la n´ecessit´e et la suffisance de cette condition est invit´e ` a consulter [Kha02]. Cependant, nous n’expliquerons pas compl`etement comment obtenir un tel mod`ele, ´etant donn´e qu’il serait alors n´ecessaire de couvrir un tr`es grand nombres de disciplines connexes : chimie, physique, m´ecanique du solide, electrotechnique, etc., chacune ayant une th´eorie de la mod´elisation propre conduisant ` a des ´equations diff´erentielles ordinaires susmentionn´ees. Avant d’entrer dans le vif du sujet, mentionnons que les syst`emes non lin´eaires poss`edent des particularit´es singuli`eres qui sont compl`etement absente des syst`emes lin´eaires. Certaines de ces propri´et´es sont pr´esent´ees ciapr`es.
1.3 R´ eponse indicielle disym´ etrique Consid´erons le syst`eme lin´eaire simple
1.3 R´eponse indicielle disym´etrique
5
x˙ = −x + u. Un signal d’entr´ee sym´etrique et carr´e entre 0 et +1 lui est appliqu´e. Le signal de sortie x(t) associ´e suit le signal d’entr´ee, mais avec une inertie. Les phases de mont´ees alternent avec les phases de descentes de mani`ere sym´etrique. Le diagramme de gauche de la figure 1.1 illustre le r´esultat. Par contre, le syst`eme non-lin´eaire simple x˙ = −|x|x + u exhibe un comportement disym´etrique. En effet, la phase de mont´ee est plus rapide que la phase de descente (` a droite de la figure 1.1). 3
2
2 1
1
0 0
0
20
40
0
20
40
Fig. 1.1. A gauche, les phases de mont´ee et de descente sont sym´etriques dans le cas de l’´equation x˙ = −x+u, o` u u est un signal carr´e entre +1 et 0. A droite, lorsque x˙ = −[x[x + u, ce n’est plus le cas.
Remarque 1.5. Dans le cas du syst`eme non lin´eaire x˙ = |x|x + u, le terme |x|x peut ˆetre localement interpr´et´e comme le membre de droite ax d’un syst`eme lin´eaire x˙ = ax, o` u l’inverse de la constante de temps, d´enot´ee a, correspond a |x|. Ainsi, autour de la valeur maximale de x, correspondant au r´egime ` permanent lorsque l’entr´ee vaut 1, le syst`eme est rapide. Par contre, autour de la valeur de x nulle, la constante de temps est grande, et le syst`eme lent. A la mont´ee, seul l’entr´ee u = +1 force rapidement le syst`eme `a se d´eplacer, bien que la constante de temps soit grande (syst`eme lent). L’effet de x est n´egligeable par rapport ` a l’entr´ee dans la phase de mont´ee. A la descente, par contre, mˆeme si la constante de temps est initialement grande, l’entr´ee est nulle, et la valeur x se modifie en fonction d’elle mˆeme, sans ˆetre aid´ee par la contribution de l’entr´ee. Initialement rapide, le syst`eme ralentit vite, `a cause de la diminution de x.
6
1 D´efinition et propri´et´es des syst`emes non lin´eaires
1.4 Termes d’ordre sup´ erieur Lorsque la solution d’un syst`eme non lin´eaire s’´eloigne suffisamment d’un point d’´equilibre, les termes d’ordre sup´erieur du d´evelopement en s´erie (autour de ce point d’´equilibre) contribuent de mani`ere croissante `a l’influence sur la d´eriv´ee. Il se peut tr`es bien que ces termes pr´esentent un effet d´estabilisant sur le comportement global. Par exemple, le syst`eme x˙ = −x + x2 ,
(1.2)
ne comporte pas d’entr´ee et poss`ede un point d’´equilibre `a l’origine. Plusieurs conditions initiales sont consid´er´ees, certaines inf´erieures en valeur absolue ` a l’unit´e, et d’autres sup´erieures. Elles sont choisies sym´etriques par rapport ` a l’origine, au sens o` u, si une simulation est effectu´ee pour x(0) = x0 , alors une autre l’est ´egalement pour x(0) = −x0 . Les solutions de l’´equation diff´erentielle associ´ees aux conditions initiales sont repr´esent´ees a la figure 1.2. ` x
3
2
1
0
-1
t 0
2
4
Fig. 1.2. Les solutions de x˙ = −x+x2 sont repr´esent´ees pour les conditions initiales x(0 suivantes : ±0.2, ±0.4, ±0.6, ±0.8, ±1.01, ±1.1. L’instabilit´e apparaˆıt d`es que x(0) > 1.
La premi`ere constatation est que le comportement n’est pas sym´etrique par rapport au signe des conditions initiales. La seconde, et la plus importante, est qu’il y a, ` a la fois des conditions initiales pour lesquelles la solution s’´eloigne de plus en plus du point d’´equilibre au fur et `a mesure que le temps progresse, et d’autres pour lequel la solution converge vers la valeur d’´equilibre x = 0. La s´eparation se produit lorsque la condition initiale x(0) est sup´erieure `a 1. Remarque 1.6. Contrairement au syst`emes lin´eaires, la stabilit´e peut d´ependre des conditions intiales.
1.5 Points d’´equilibre isol´es multiples
7
Pour mieux comprendre le ph´enom`ene, les fonctions x et x2 sont repr´esent´ees a la figure 1.3 ` x2 1.5
x 1
0.5
x
0 0
0.5
1
Fig. 1.3. La stabilit´e de x˙ = −x + x2 est d´etermin´e par le signe du membre de droite. La figure repr´esente les deux fonctions x et x2 . On constate que x2 devient plus grand que x lorsque x > 1. Le signe du membre de droite change et conduit ` a l’instabilit´e.
Remarque 1.7. Le signe devant le terme x ou x2 est fondamental. En effet, x˙ = x est un syst`eme instable, car la solution x(t) = et diverge lorsque t → ∞. Par contre x˙ = −x est stable ; la solution x(t) = e−t converge vers 0 lorsque t → ∞. Ainsi, dans l’´equation diff´erentielle, le terme x2 a une tendance `a d´estabiliser le syst`eme, et −x `a le stabiliser. La stabilit´e est garantie pour autant que le terme −x domine x2 pour x positif, ce qui est le cas lorsque x < 1.
1.5 Points d’´ equilibre isol´ es multiples En examinant l’´equation (1.2) de l’exemple pr´ec´edent, une particularit´e suppl´ementaire peut ˆetre remarqu´ee. Bien que x = 0 soit un point d’´equilibre, car x˙ = 0, il n’est pas unique. En effet, Il existe d’autres points d’´equilibre qui sont obtenus en r´esolvant −x + x2 = 0 par factorisation, conduisant `a x(x − 1) = 0, et un nouveau point d’´equilibre x = 1 apparait.. Ceci est ` a mettre en perspective avec le cadres des syst`emes lin´eaires, pour lesquels, lorsque le point d’´equilibre est isol´e, alors il est unique. En effet, la condition d’´equilibre pour un syst`eme x˙ = Ax est 0 = A¯ x. Lorsque A est invertible (i.e. |A| = 6 0) le point d’´equilibre est unique et correspond `a x ¯ = 0. Lorsque A est singuli`ere alors le noyau est un sous-espace vectoriel et donc les points d’´equilibre multiples sont connect´es. Ainsi dans ce cas, si x ¯ 6= 0 et x ¯ ∈ {x | Ax = 0} alors λ¯ x 6= 0 est aussi un point d’´equilbre ∀λ ∈ R∗ .
8
1 D´efinition et propri´et´es des syst`emes non lin´eaires
1.6 Explosion en temps fini Dans le cas lin´eaire, l’instabilit´e est toujours born´ee par une exponentielle. Par exemple x˙ = 3x tend vers l’infini sans jamais d´epasser une exponentielle x(t) < x0 e3.01t . La raison de ceci tient au fait que l’expression de la d´eriv´ee peut ˆetre born´ee par une quantit´e proportionnelle `a la valeur de l’´etat. La constante de proportionalit´e donne la vitesse de l’exponentielle. Dans le cas non lin´eaire des surprises peuvent se produire. Par exemple, pour le syst`eme (1.2), la divergence vers l’infini est beaucoup plus rapide que dans le cas lin´eaire. La solutions analytique de cette ´equation est
x(t) =
x0 e−t 1 − x0 + x0 e−t .
La solution devient de plus en plus grande lorsque t → 1. Ainsi, elle diverge vers l’infini en un temps fini.
1.7 R´ eponse harmonique multiple Un autre ph´enom`ene tr`es int´eressant est la r´eponse polyharmonique d’un syst`eme non lin´eaire ` a une excitation ne contenant qu’une seule harmonique. Cet aspect sera pr´esent´e dans le contexte de la m´ethode du premier harmonique au chapitre 3
1.8 Orbites chaotiques On consid`ere le syst`eme x¨ + 0.1x˙ + x5 = u = 6 sin(t)
(1.3)
Deux trajectoires sont repr´esent´ees, l’une correspondant `a la condition T T intiale x0 = 0.1 0.2 et l’autre `a x0 = 0.105 0.2 . On constate que mˆeme si les deux conditions initiales sont tr`es proches l’une de l’autre, les trajectoires r´esultantes sont rapidement tr`es diff´erentes, sans pour autant devenir non born´ees (les valeurs de la position x demeurent dans un interval ferm´e et born´e). Cette hypersensibilit´e aux conditions intiales et l’aspect presque impr´evisible du r´esultat donne l’impression que le syst`eme est soumis `a des perturbations al´eatoires. Mais il n’en n’est rien. Le syst`eme est parfaitement d´eterministe. Un tel comportement est appel´e ”chaos”. Comme exemple suppl´ementaire, consid´erons l’oscillateur de Lorenz,
1.8 Orbites chaotiques
x
9
2
1
0
-1
-2
t 0
10
20
30
40
50
60
Fig. 1.4. Les solutions de l’´equations diff´erentielle (1.3) sont repr´esent´ees pour deux conditions initiales proches (x(0) = 0.1, et x(0) = 0.105 ; x(0) ˙ = 0.2 pour les deux cas). Bien que les trajectoires r´esultantes sont proches dans la premi`ere portion horizontale, elles deviennent tr`es diff´erentes dans la deuxi`eme portion horizontale du graphique.
x˙ = −σx + σy y˙ = rx − y − zx z˙ = −bz + xy,
o` u seuls les deux termes en bleu, zx d’une part, et xy d’autre part, chacun produits de deux ´etats, sont responsables de la nature non lin´eaire de la dynamique. Les param`etres σ, b, r sont fixes. Un exemple de trajectoire est repr´esent´e ` a la figure 1.5. 20 10 0 -10 -20 40
30
20
10 -10 0 10
Fig. 1.5. Orbite chaotique de l’oscillateur de Lorenz pour σ = 10, b = 38 , r = 28.
10
1 D´efinition et propri´et´es des syst`emes non lin´eaires
On constate plusieurs ph´enom`enes int´eressants : – Une trajectoire solution ne repasse jamais par le mˆeme point. – Il n’y a pas de solution p´eriodique. – Il existe des voisinages tels que pour toute condition initiale comprise dans ce voisinage, la solution repasse une infinit´e de fois dans le voisinage. De plus ce voisinage peut ˆetre pris arbitrairement. Autrement dit, en d´efinissant V0 (x0 ∈ V0 ), il existe une infinit´e d’instant temporels t0 < t1 < t2 < . . . t∞ pour lesquels x(ti ) ∈ V0 pour i ∈ N. – Les solutions demeurent dans un cube (un ensemble ferm´e et born´e, ou autrement dit un ensemble compact). – Pour deux conditions intiales arbitrairement proches, les solutions respectives finissent par diverger l’une de l’autre pour finalement plus se ressembler du tout.
2 Diagramme de phase
Pour les syst`emes m´ecaniques, la mod´elisation en utilisant les coordonn´ees g´en´eralis´ees (m´ecanique analytique) conduit `a un mod`ele comportant des d´eriv´ees secondes des coordonn´ees g´en´eralis´ees exprim´ees en fonction des coordonn´ees g´en´eralis´ees ainsi que de leur premi`ere d´eriv´ee. Pour simuler de tels syst`emes, il est n´ecessaire de connaˆıtre les conditions initiales, c’est-`a-dire l’ensemble des coordonn´ees g´en´eralis´ees ainsi que leurs premi`eres d´eriv´ees. Ainsi, une solution du syst`eme d’´equations est un ensemble de fonctions du temps, une pour chacune des coordonn´ees g´en´eralis´ees et une pour la premi`ere d´eriv´ee (vitesse) correspondante. Les variables de phase forment un tel ensemble de grandeurs. De mani`ere plus g´en´erale, le formalisme d’Hamilton permet d’associer aux coordonn´ees g´en´eralis´ees q1 , . . . , qn , des variables vitesses particuli`eres, appel´ees moments g´en´eralis´es p1 , . . . , pn . L’espace de phase est l’ensemble des 2n grandeurs q1 , . . . , qn et p1 , . . . pn . Cet ensemble constitue donc T les grandeurs d’´etat du syst`eme, `a savoir x = q1 . . . qn p1 . . . pn . Cependant nous s´eparons ces grandeurs d’´etat en deux groupes. Dans ce chapitre, les syst`emes de seond ordre, o` u l’espace de phase est l’ensemble q, et q, ˙ seront ´etudi´es. De plus, ces syst`eme ne proviendrons pas forc´ement du domaine m´ecanique.
2.1 Plan de phase pour les syst` eme du second ordre Pour les syst`emes du second ordre donn´es par q¨ = f (q, q), ˙
(2.1)
on d´esignera par q ∈ R et q˙ ∈ R les variables de phases. Maintenant le plan de phase n’est rien d’autre que le plan o` u l’on repr´esente dans l’axe horizontal, la variable q et selon l’axe vertical, la variable q. ˙ Une
12
2 Diagramme de phase
solution ` a l’´equation (2.1) sera donn´e par deux fonctions du temps q = φq (t) q˙ = φq˙ (t) telles que
dφq˙ = f (φq˙ , φq ) dt
Maintenant, en faisant varier le temps, q et q˙ sont obtenus par substitution. Une courbe param´etr´ee est alors d´ecrite dans le plan de phase par les deux coordonn´ees x = φq (t) et y = φq˙ (t). Il est important de remarquer que le temps n’apparaˆıt pas explicitement. 2.1.1 Syst` eme masse-ressort Afin d’illustrer les techniques de trac´es des orbites dans le plan de phase, le syst`eme simple suivant est utilis´e : q¨ + q = 0. C’est l’´equation dynamique d’un syst`eme m´ecanique comportant un ressort parfait ` a l’extrˆemit´e duquel se situe une masse. L’ensemble forme un oscillateur m´ecanique. Les param`etres sont normalis´es `a l’unit´e. La repr´esentation sch´ematique est donn´ee ` a la figure 2.1.
k=1
m=1
Fig. 2.1. Syst`eme masse ressort.
2.2 Techniques de graphe du plan de phase Plusieurs techniques sont disponibles pour repr´esenter les orbites des trajectoires d’un syst`eme dynamique `a deux ´etats. Certaines consistent a
2.3 Syst`emes lin´eaires du second ordre
13
repr´esenter exactement le trac´e d’autres `a n’obtenir qu’une information partielle concernant celles-ci, par exemple en ne repr´esentant que l’information concernant la direction de la tangente en plusieurs points du plan de phase. Les m´ethodes suivantes seront d´etaill´ees : 1. M´ethodes informatiques – Solutions num´eriques pour diverses conditions initiales – Graphe des pentes 2. M´ethodes papier crayon – Solution explicite des ´equations a) en ´eliminant le temps explicitement b) en ´eliminant le temps implicitement 3. M´ethodes mixtes – M´ethode des isoclines
2.3 Syst` emes lin´ eaires du second ordre Un syst`eme lin´eaire autonome du second ordre ne comporte pas d’entr´ee et est repr´esentable par un mod`ele d’´etat comportant deux ´etats.
x˙ 1 = a11 x1 + a12 x2 x˙ 2 = a12 x2 + a22 x2 que l’on peut repr´esenter matriciellement sous la forme x˙ = Ax avec
A=
a11 a12 a21 a22
Les trajectoires d’un tel syst`emes peuvent ˆetre repr´esent´ees dans la plan par des courbes param´etr´ees par le temps
Fig. 2.2. Figure repr´esentant une trajectoire d’un syst`eme lin´eaire du second ordre
Les trajectoires possibles qui varient en fonction de la valeur num´eriques des param`etres aij peuvent ˆetre regroup´ees en cat´egories en fonction de la nature des valeurs propres de la matrice A. Soit λ1 et λ2 les deux valeurs propres obtenues en r´esolvant | A − λI |= 0. Quatre cas sont ` a distinguer, ainsi les valeurs propres sont :
14
2 Diagramme de phase
1. toutes deux r´eelles de mˆeme signe. C’est un foyer stable. 2. r´eelles mais de signe oppos´e. C’est un point scelle. 3. purement imaginaire. C’est un centre. 4. complexes conjugu´ees. C’est un foyer. 2.3.1 Solutions num´ eriques Les logiciels d’aide au calcul diff´erentiels qu’ils soient orient´es vers le calcul formel (Maple, Mathematica, Reduce) ou vers le calcul num´erique (Matlab, SysQuake, LME, Scilab) poss`edent un solveur d’´equations diff´erentielles ordinaire. Il est alors tr`es ais´e d’obtenir les solutions d’un syst`eme dynamique planaire en y changeant les conditions initiales d’une simulation `a l’autre rendant ainsi la possibilit´e d’y r´ev´eler la nature des orbites sous-jacentes. Dans le cas du syst`eme masse ressort pr´ec´edemment d´ecrit nous pourrions obtenir la repr´esentation donn´ee ` a la figure suivante :
3
2
1
-3
-2
-1
1
2
3
-1
-2
-3
Fig. 2.3. Trajectoires simul´ees du syst`eme masse-ressort.
2.3.2 Graphe des pentes Autrefois, l’ordinateur faisait d´efaut et la d´etermination de solutions ne pouvaient pas proc´eder par une m´ethode inductive comme celle de RungeKutta ´etant donn´e le nombre d’op´erations prohibitif que cela impliquerait. Ainsi il ´etait plus commode de ne calculer qu’un certain nombre de pentes en des points pr´ed´etermin´es du plan de phase. Les pentes sont obtenues en ´evaluant f1 (x1 , x2 ) et f2 (x1 , x2 ), puis en repr´esentant un petit segment de droite ayant une d´enivel´ee f2 (x1 , x2 ) sur une distance horizontale f1 (x1 , x2 ) au point (x1 , x2 ). La longueur du segment peut soit ˆetre proportionel `a la norme de f o` u fix´e ` a une longueur unitaire arbitraire. Ironiquement, l’ordinateur
2.3 Syst`emes lin´eaires du second ordre
15
est ici aussi d’une grande aide. En prenant une grille equidistribu´ee selon les deux axes x1 et x2 , on obtient une repr´esentation donn´ee `a la figure 2.4 pour le syst`eme masse-ressort. ´T ` x = x1 x2
f (x) =
« „ f1 (x1 , x2 ) f2 (x1 , x2 )
Fig. 2.4. Graphique des ´el´ements de pente pour le syst`eme masse-ressort.
2.3.3 Elimination du temps explicitement Lorsque le syst`eme dynamique est relativement simple comme c’est le cas du syst`eme masse ressort, il est envisageable d’obtenir la solution de mani`ere explicite ` a l’´equation diff´erentielle d´ecrivant la dynamique. x(t) = x0 cos t + x˙ 0 sin t x(t) ˙ = −x0 sin t + x˙ 0 cos t Cependant il est n´ecessaire de se d´ebarasser de la param´etrisation du temps afin de repr´esenter l’orbite. En utilisant l’identiti´e cos2 t + sin2 t = 1, il est possible d’exprimer la relation x2 + x˙ 2 = x20 + x˙ 20 , qui repr´esente un cercle centr´e en (0, 0) de rayon
p x20 + x˙ 20 .
2.3.4 Elimination du temps implicitement Remarquons que dans l’exemple pr´ec´edent le temps est ´elimin´e apr`es l’int´egration de l’´equation diff´erentielle. Il est tout a fait possible d’en faire l’´elimination lorsque celui-ci apparaˆıt encore `a l’´etat de diff´erentielle :
16
2 Diagramme de phase
dx1 dt dx2 x˙ 2 = −x1 = dt
x˙ 1 = x2 =
dx2 dx1 =− = dt x2 x1 L’int´egration se fait alors sans faire intervenir le temps et revˆet dans le cas du syst`eme masse un caract`ere plus simple que l’obtention de la solution explicite. Z
x2 dx2 = −
Z
x1 dx1
x21 + x22 = c = x210 + x220 Remarque 2.1. La relation avec le param´etrage temporel est perdue. graphique de x2 + x˙ 2 = x20 + x˙ 20
Fig. 2.5. Graphique associ´ee ` a l’´equation x2 + x˙ 2 = 1 = x20 + x˙ 20 .
2.3.5 M´ ethode des isoclines Le m´ethode du graphique des pentes a proc´ed´e par l’´evaluation sur une grille donn´ee a priori et de g´eom´etrie arbitraire. Il est int´eressant de se demander s’il y a une possibilit´e de trouver un lieu de points, le long duquel il
x˙
2.3 Syst`emes lin´eaires du second ordre
17
serait plus int´eressant de calculer les pentes. Par exemple, afin de minimiser le nombre d’´evaluation, il serait int´eressant de calculer l’ensemble de points auquel le champ de vecteur de la dynamique ait une pente commune. En variant la pente, il est alors possible d’obtenir un ensemble de lieux. f2 (x1 , x2 ) dx2 =α= dx1 f1 (x1 , x2 ) x¨ + x = 0 −x1 α= x2 1 x2 = − x1 α α = 1, x2 = −x1
Fig. 2.6. La m´ethode des isoclines consiste ` a choisir un ´el´ement de pente et de repr´esenter le lieu des points comportant la mˆeme pente.
application syst´ematique pour diff´erentes valeurs de α 2.3.6 Exemple : oscillateur de van der Pol x ¨ + ǫ(x2 − 1)x˙ + x = 0 ǫ = 0.5
x0 = x˙ 0 = 1
Graphe des pentes et trajectoires
Droite d’isocline α
x˙
18
2 Diagramme de phase
Fig. 2.7. Lorsque la m´ethode des isoclines est utilis´ee pour repr´esenter les ´el´ements de pentes identiques, ces derniers sont trac´es en respectant la sym´etrie du cercle et donne un aspect plus naturel que lorsqu’une grille uniform´ement espac´ee est utilis´ee.
2
1
-2
-1
1
2
-1
-2
Fig. 2.8. Une trajectoire de l’oscillateur de van der pol est repr´esent´ee pour la condition intiale x1 (0) = 1 et x2 (0) = 1 et pour la valeur du param`etre ǫ = 0.5.
x ¨ + ǫ(x2 − 1)x˙ + x = 0 α=
x ¨ x = −ǫ(x2 − 1) − x˙ x˙
avec droites d’isoclines
2.4 Cycles limites
19
3
2
1
-3
-2
-1
1
2
3
x0 = x˙ 0 = 1 -1
-2
-3
Fig. 2.9. Superposition du graphe des pentes et d’une trajectoire dans le cas de l’oscillateur de van der Pol (ǫ = 0.5, x10 = 1, x20 = 1).
Fig. 2.10. M´ethode des isoclines appliqu´ee ` a l’oscillateur de van der Pol.
2.4 Cycles limites Un cycle limite est une trajectoire ferm´ee solution du syst`eme. D´ efinition 2.2. Un syst`eme x˙ = f (x) poss`edent un cycle limite C s’il existe un interval de temps [t0 ; t0 + T [ et un point de d´epart x0 ∈ C, tel que en d´esignant par Φ(t) la solution de syst`eme avec pour condition initiale x(t0 ) = x0 = Φ(t0 ) on ait : – Φ(t) ∈ C ∀t ∈ [t0 ; t0 + T [,
20
2 Diagramme de phase
– Φ(T ) = x0 . 2.4.1 Classification des cycles limites D´ efinition 2.3. Soit C un cycle limite 1. stable : toutes les trajectoires dans un voisinage du cycle → C. 2. instable : toutes les trajectoires divergent de C.
3. semi-stable : certaines trajectoires convergent vers C.
2.5 Index L’index est une propri´et´e topologique des syst`emes en rapport avec une r´egion d´etermin´ee du plan de phase. Elle est invariante pour des petites perturbations continues du syst`eme consid´er´e. Cette propri´et´e permet, entre autres, d’´etablir des conditions n´ecessaires pour l’existence de cycles limites. D´ efinition 2.4. (Index en un point du plan de phase). Trois choix sont effectu´es : 1. Une courbe autour du point auquel l’index est ´evalu´e. Cette courbe est choisie de mani`ere arbitraire, mais comprise dans un disque de taille suffisamment petite. Th´eoriquement, le disque est de taille infinit´esimale. 2. Une param´etrisation de la courbe dans le sens trigonom´etrique positif. 3. Une suite arbitraire de points de la courbe dans le sens de la param´etrisation. Les points sont alors num´erot´es selon cette progression (xi , i = 1, . . . , n). Le dernier point xn correspond au point initial x1 (x1 = xn ). En chacun des points choisis xi , i = 1, . . . n, le vecteur f (xi ), correspondant au syst`eme x˙ = f (x), est ´evalu´e. On obtient ainsi une suite de vecteurs fi = f (xi ). num´erot´es de i = 1 a ` i = n. Les vecteurs sont ensuite report´es sur un autre espace de telle sorte que leurs origines se confondent. L’index mesure alors l’angle modulo 2π que l’extr´emit´e des vecteurs fi parcourent dans le sens trigonom´etrique positif. L’index est ind´ependant a ` la fois de la courbe choisie (pour autant quelle soit comprise dans un disque de taille suffisamment petite), des points choisis xi et de leur nombre n.
2.5 Index
Exemple 2.5. Soit un contour et un syst`eme tel que :
3
3
4
4
2
2
5
5 6
1
1
6
8
7
8 7
alors l’index vaut : +1. Exemple 2.6. Soit un contour et un syst`eme tel que :
3
7 2
8
6
1 4 5
8
5 6
alors l’index vaut : −1.
7
1
4
2 3
21
22
2 Diagramme de phase
Exemple 2.7. Soit un contour et un syst`eme tel que :
5
4
6
3
357 6
2 1
7
248 1
8
alors l’index vaut : 0. 2.5.1 Type de points d’´ equilibre Les points d’´equilibre peuvent ˆetre classifi´es selon leur index. Par exemple, les points d’´equilibre rencontr´es lors de l’analyse des syst`emes lin´eaires du deuxi`eme ordre peuvent ˆetre regroup´es en fonction de leur caract´eristique exprim´ee par la position des valeurs propres. Ils peuvent ´egalement ˆetre classifi´es en fonction de leur index. Ceci donne : 1. 2. 3. 4.
point selle (S) index : −1 noeud (N) index : +1 foyer (N) index : +1 centre (N) index : +1
Caract´eristique 2.8. Les index sont ind´ependants de la stabilit´e. Pour illustrer la validit´e de cette propri´et´e, il suffit de renverser le sens des vecteurs dans les trois exemples pr´ec´edents. Il est alors ains´e de v´erifier que l’index ne change pas. Le fait de renverser le sens des vecteurs a comme cons´equence de changer la stabilit´e du point d’´equilibre lorsque ce dernier est compris dans la courbe de taille infinit´esimale. Les consid´erations de stabilit´e seront abord´es dans le prochain chapitre. Il y sera question d’un traitement rigoureux de la question. 2.5.2 Classification des points d’´ equilibre Il est possible de classifier les points d’´equilibre x¯ d’un syst`eme non lin´eaire x˙ = f (x) en fonction du type de point d’´equilibre du syst`eme lin´earis´e x˙ = ∂f x x = Ax. Ainsi on parlera d’un ∂x |x=¯
2.5 Index
23
1. point selle (S) 2. noeud (N) 3. foyer (N) 4. centre (N) en fonction des valeurs propres de A conform´ement `a l’´etude des syst`emes lin´eaires planaires. 2.5.3 Th´ eor` eme de l’index La d´efinition 2.4 d´etermine l’index d’un point particulier de l’espace de phase. De mani`ere analogue, il est possible de d´efinir un index pour une courbe quelconque. D´ efinition 2.9. L’index d’une courbe est obtenu de mani`ere analogue a ` celle de l’index d’un point du plan de phase. Seul la restriction a ` une courbe comprise dans un disque de taille suffisamment petite est relax´ee. Ainsi, l’index d’une courbe d´epend de la courbe choisie contrairement au cas de la d´efintion 2.4. A l’aide de cette d´efinition, il est possible d’´evaluer l’index d’un cycle limite, ´etant donn´e que ce dernier est une courbe particuli`ere. Le r´esultat suivant est important. Th´ eor` eme 2.10. (Th. de l’index de Poincar´e) Soit N le nombre de noeuds, centres et de foyers et S le nombre de points selles. Si un cycle limite existe, les points singuliers que le cycle encercle sont tels que N = S + 1. Par contraposition au principe susmentionn´e, il est possible d’´etablir la non existence d’un cycle limite en fonction du non respect de la condition de ce th´eor`eme. La d´emonstration d´ecoule d’une propri´et´e simple d’addition des index des points d’´equilibre compris dans une courbe particuli`ere. Caract´eristique 2.11. Soit une courbe particuli`ere donn´ee. L’index de cette courbe est la somme des index de tous les points d’´equilibre compris `a l’int´erieur de cette courbe. Comme un cycle limite est une solution du syst`eme dynamique, les vecteurs y sont en tout point tangent. Il est donc ais´e, en reportant ces vecteurs en un point donn´e d’un nouvel espace, de constater que leur extrˆemit´e parcourt un tour complet dans le sens identique au sens de parcours du cycle. Ainsi, l’index du cycle est +1. Par cons´equent, il doit y avoir n´ecessairement un exc`es de 1, des points d’´equilibre (compris `a l’int´erieur du cycle) dont l’index est +1 par rapport ` a ceux dont l’index vaut −1, ce qui donne les conditions du th´eor`eme 2.10.
24
2 Diagramme de phase
2.5.4 Th´ eor` eme de Bendixson Soit x˙ 1 = f1 (x1 , x2 ) x˙ 2 = f2 (x1 , x2 ) Th´ eor` eme 2.12. Pour un tel syst`eme, aucun cycle limite ne peut exister dans ∂f2 ∂f1 + ∂x ne s’annule pas ni ne une r´egion Ω du plan de phase dans laquelle ∂x 1 2 change de signe. 1 Preuve. C’est une cons´equence du th´eor`eme de Stokes. En posant dx dt = f1 dx2 et dt = f2 , la diff´erentielle du temps est ´elimin´ee pour obtenir l’expression f1 f2 dt = dx = dx , d’o` u l’on d´eduit que la 1-forme ω = −f1 dx1 + f2 dx2 s’an1 2 nule le long du cycle. D’autre part, le long du cycle, cette mˆeme 1-forme ω = −f1 dx1 + f2 dx2 peut ˆetre int´egr´ee. Cette int´egrale de chemin doit ˆetre ´egale ` a l’int´egrale de surface, sur l’aire comprise H R`a Rl’int´erieur du cycle, de la diff´erentielle ext´erieure de cette 1-forme : ω = dω.
0=
I
−f1 dx1 + f2 dx2 = ∂f1 ∂f1 dx1 ∧ dx1 − dx2 ∧ dx1 ∂x1 ∂x2 ∂f2 ∂f2 + dx1 ∧ dx2 + dx2 ∧ dx2 ∂x1 ∂x2 Z Z ∂f2 ∂f1 dx1 ∧ dx2 + = ∂x2 ∂x1 Z Z
−
Par cons´equent, le seul moyen d’annuler cette int´egrale de surface est (i) que l’int´egrant, s’il est non nul, puisse changer de signe a` l’int´erieur de la surface ou (ii) que l’int´egrant soit nul en tout point. V´erifier que l’int´egrant ne s’annule pas et ne change pas de signe garantit donc la non existence d’un cycle limite autour de la surface consid´er´ee.
2.6 Impossibilit´ e du chaos planaire Dans le chapitre introductif, un exemple tridimensionel (trois ´etats) a ´et´e construit exhibant une trajectoire particuli`ere. Cette trajectoire restait comprise dans un ensemble ferm´e et born´e (un compact repr´esent´e par un cube). Elle exhibait de surcroit la particularit´e de ne jamais passer par le mˆeme point. La trajectoire n’´etait donc pas p´eriodique bien qu’un mouvement d’apparence cyclique y ´etait le th´eaˆtre. Le prochain th´eor`eme d´emontre, entre autre, l’impossibilit´e qu’un tel ph´enom`ene puisse avoir lieu pour des syst`emes dont l’´etat est de dimension 2.
2.7 Exemple : dynamique de populations
25
2.6.1 Th´ eor` eme de Poincar´ e-Bendixson Syst`eme du second ordre uniquement. Th´ eor` eme 2.13. Si une trajectoire demeure dans une r´egion finie Ω alors une des trois propositions suivantes est vraie : 1. La trajectoire va vers un ´equilibre. 2. La trajectoire tend asymptotiquement vers un cycle limite. 3. La trajectoire est elle mˆeme un cycle limite. La d´emonstration de ce th´eor`eme est fort int´eressante. On peut la trouver dans [GH83]. Pour l’illustrer de mani`ere ludique, il suffit de prendre une plume et une feuille de papier et de tracer une courbe continue qui ne passe jamais par le mˆeme point. On aboutira sans trop de difficult´es aux cons´equences donn´ees par le th´eor`eme.
2.7 Exemple : dynamique de populations Pour illustrer les concepts introduits dans ce chapitre, nous pr´esentons deux exemples tr`es simplifi´es de dynamique de populations. Nous envisageons a la fois les mod`eles math´ematiques de deux esp`eces en comp´etition pour une ` ressource unique, ainsi que la dynamique pr´edateur-proie, o` u deux esp`eces distinctes s’affrontent, l’une jouant le rˆole de proie, et l’autre celui de pr´edateur. Les hypoth`eses simplificatrices suivantes sont adopt´ees : – La densit´e de l’esp`ece, c.-`a-d. le nombre d’individus par unit´e d’aire, est repr´esent´ee par une variable unique, la diff´erence d’age de sexe et de g´enotype sont ignor´es. – L’effet de surpeuplement affecte le groupe dans son entier. Tous les membres de la population sont touch´es de mani`ere similaire. Bien que ceci soit peu probable lorsque les membres se repartissent en sousgroupes, de telle sorte qu’ils ne soient pas uniform´ement distribu´es dans tout l’ensemble du territoire consid´er´e, nous faisons n´eanmoins cette hypoth`ese. – Les effets des interactions au sein de la mˆeme esp`ece et avec des esp`eces diff´erentes sont instantan´es. Il n’y a pas de d´elai lors d’action prise par un individu. – Les facteurs abiotiques environnementaux (c.-`a-d. l’influence du nonvivant sur le vivant) sont suffisamment constants. – La croissance du taux de la population est d´ependante de la densit´e, mˆeme lors de tr`es faibles densit´es. – Les femelles trouvent toujours `a s’accoupler, mˆeme lorsque la densit´e est basse. Ces hypoth`eses, tr`es simplificatrices, se justifient essentiellement par le fait qu’il y aura n´ecessairement un effet limitant par le manque de ressources.
26
2 Diagramme de phase
2.7.1 Comp´ etition Deux populations distinctes sont en comp´etition pour une mˆeme ressource qui se trouve en quantit´e limit´ee. s1 d´esigne la population de la premi`ere esp`ece et x2 celle de la seconde. Un mod`ele d’´evolution diff´erentielle est obtenu en consid´erant une croissance exponentielle en absence d’effet inhibitif. Deux coefficients positifs a1 et a2 sont introduits pour repr´esenter les taux de croissances instantan´es. Les populations agissent alors de mani`ere ind´ependante. Cependant, les ressources ne sont pas infinies et la pr´esence d’une densit´e croissante aura tendance ` a inhiber la croissance des populations respectives. Ainsi, nous distinguons les coefficients d’auto-inhibition b11 et b22 (deux quantit´es positives, cr´ees par la pr´esence d’un comp´etiteur de mˆeme esp`ece), de ceux des coefficients d’inhibition crois´ee b12 et b21 (´egalement deux nombres r´eels positifs mais dus cette fois-ci `a la pr´esence d’un comp´etiteur de l’autre esp`ece). En cons´equence, nous posons comme mod`ele d’´evolution
x˙ 1 = x1 (a1 − b11 x1 − b12 x2 ) x˙ 2 = x2 (a2 − b21 x1 − b22 x2 ). Notons, en r´esolvant x˙ 1 = x˙ 2 = 0, la pr´esence de plusieurs points d’´equilibre. Lorsque b11 b22 − b12 b21 6= 0, il y a quatre points d’´equilibre isol´es distincts : (i) x¯1 (ii) x¯1 (iii) x¯1 (iv) x¯1
=0 = ba111 12 −a1 b22 = ba112 bb22 −b12 b21 =0
x ¯2 x ¯2 x ¯2 x ¯2
=0 =0 −a2 b11 = ba111 bb21 22 −b12 b21 a2 = b22
Ils correspondent respectivement `a (i) l’extinction des deux esp`eces ; (ii) l’extinction de la seconde esp`ece au profit de la premi`ere ; (iii) la survie des deux esp`eces en ´equilibre ; (iv) l’extinction de la premi`ere au profit de la seconde. Lorsque b11 b22 −b12 b21 = 0, outre le point d’´equilibre `a l’origine, la pr´esence d’une droite continue de points d’´equilibre est constat´ee. En effet, en prenant pour valeur num´erique a1 = a2 = 2 et b11 = b12 = b21 = b22 = 2, on obtient les deux ´equations d´efinissant les points d’´equilibres 2x1 − x1 x2 − x21 = 0 et 2x2 − x1 x2 − x22 = 0. En soustrayant ces deux ´equations, l’expression (x2 − x1 )(x2 + x1 − 2) = 0 est obtenue faisant apparaˆıtre la droite x2 = 2 − x1 comme un lieu continu de points d’´equilibre. Le syst`eme non lin´eaire x˙ = f (x) peut s’estimer par le premier terme du d´eveloppement en s´erie de Fourier. Ceci donne x˙ = A(¯ x)(x − x ¯) o` u x¯ d´esigne le point d’´equilibre o` u l’on d´eveloppe f (x). La matrice A s’´ecrit
2.7 Exemple : dynamique de populations
a1 − 2b11 x¯1 − b12 x¯2 −b12 x¯1 A= −b21 x¯2 a2 − b21 x¯1 − 2b22 x¯2
27
(2.2)
et d´epend des valeurs x¯1 et x¯2 du point d’´equilibre.
Fig. 2.11. Plan de phase et points d’´equilibre pour deux population en comp´etition pour une ressource unique. a1 = a2 = 2 et b11 = b22 = 1. Dans les trois cas, l’origine un foyer instable. A gauche, (i) b12 = b21 = 2. L’inhibition crois´ee est plus grande que l’auto-inhibition et cel` a conduit une population ` a survivre au d´etriment de l’autre ; la population survivante d´epend des conditions initiales et les densit´es convergent soit vers (2 0)T ou (0 2)T . Le point d’´equilibre central (2/3 2/3)T est un point selle. Au centre, (ii) b12 = b21 = 1. L’inhibition crois´ee est identique ` a l’auto-inhibition, ce qui conduit les deux populations ` a vivre avec des rapport qui d´ependent des conditions initiales. A droite, (iii) b12 = b21 = 21 . L’auto-inhibition est plus grande que l’inhibition crois´ee, et les deux populations finissent au point d’´equilibre ( 43 43 ) pour presque toutes les conditions initiales.
Le plan de phase est repr´esent´e `a la figure 2.11 pour trois choix de valeurs num´eriques. Les facteurs de croissance sont fix´es `a a1 = a2 = 2. Dans le premier cas, les facteurs inhibitifs crois´es sont plus importants que les facteurs auto-inhibitifs (b11 = b22 = 1 et b12 = b22 = 2). Le point d’´equilibre (0 0)T est localement instable puisque les valeurs propres de la matrice A sont toutes deux ´egales `a +2. Les points d’´equilibres (2 0)T et (0 2)T sont des points stables (les valeurs propres sont toutes deux ´egales a −2). Le point d’´equilibre ( 32 23 )T est un point selle dont une des valeurs ` propres vaut −2 et l’autre + 32 . Ainsi, trois points d’´equilibre d’index +1 et un d’index −1 sont obtenus, pour donner un index global de +2. L’index global s’obtient en consid´erant une courbe ferm´ee quelconque englobant tous les points d’´equilibre. Dans le second cas, lorsque l’auto-inhibition est identique `a l’inhibition crois´ee, on constate une vie mutuelle des deux esp`eces et une convergence vers des points d’´equilibre qui d´epend des conditions initiales. Dans le troisi`eme cas, c.-`a-d. lorsque l’inhibition crois´ee est moins forte que l’auto-inhibition, il y a ´egalement une survie mutuelle des deux esp`eces,
28
2 Diagramme de phase
mais toujours avec la mˆeme densit´e. Le point d’´equilibre ( 43 43 )T est stable avec pour valeur propre de la matrice A, −2 et − 32 . Le point d’´equilibre (0 0)T est instable (les valeurs propres de A sont toutes deux ´egales `a +2). Les deux points d’´equilibres restants (0 2)T et (2 0)T sont des points selles avec comme valeurs propres −2 et +1. Il est int´eressant de constater que le passage de l’index global +2 `a celui de 0 c’est fait par l’interm´ediaire de l’apparition d’un lieu continu de points d’´equilibre. On constate ´egalement qu’il n’y a pas de cycle limite. 2.7.2 Pr´ edateur-proie Dans ce mod`ele, x1 repr´esente la densit´e de population des proies, et x2 celle des pr´edateurs. L’´equation de l’´evolution de x1 est identique au cas des populations en comp´etition de la section pr´ec´edente. En effet, les proies croissent de mani`ere exponentielle en l’absence de pr´edateur (coefficient a1 positif). Leur croissance est limit´ee par les ressources (effet auto-inhibitif, b11 ) et par la pr´esence de pr´edateurs (effet d’inhibition crois´e, b12 ). Par contre, l’´evolution des pr´edateurs x2 est fonci`erement diff´erente. En l’absence de proie, les pr´edateurs disparaissent progressivement de mani`ere exponentielle, et le signe devant le coeffcient a2 est cette fois-ci n´egatif. De plus, la pr´esence des proies n’a pas un effet inhibitif, mais bien au contraire, un effet de croissance : le signe devant le facteur b21 est positif. Il n’y a pas d’effet auto-inhibitif ce qui implique l’annulation du coefficient b22 = 0. Sous ses hypoth`eses, les deux ´equations diff´erentielles qui gouvernent l’´evolution des populations sont : x˙ 1 = x1 (a1 − b11 x1 − b12 x2 ) x˙ 2 = x2 (−a2 + b21 x1 ) Ce syst`eme comporte trois points d’´equilibre : (i) x ¯1 = 0 (ii) x ¯1 = ba111 (iii) x ¯1 = ba212
x ¯2 = 0 x ¯2 = 0 2 b11 x ¯2 = a1 bb2112−a b21
Le premier point d’´equilibre est l’extinction mutuelle des deux esp`eces. Le second correspond uniquement `a la survie des proies ; il y a absence de pr´edateurs. Le troisi`eme correspond `a une survie mutuelle. Lorsque a1 b21 < a2 b11 , les pr´edateurs meurent par manque de facteur de reproduction des proies (coefficient a1 ) par rapport au besoin de nourriture des pr´edateur (coefficient a2 ). La condition de survie mutuelle pond`ere les
2.7 Exemple : dynamique de populations
29
deux facteurs a1 et a2 par la qualit´e de satisfaction ´energ´etique de la proie pour un pr´edateur b21 et du taux d’auto-inhibition des proies b11 . En effet, l’auto-inhibition des proies rend la reproduction et la survie des pr´edateurs difficiles. La figure 2.12 repr´esente le plan de phase pour les valeurs num´eriques a1 = a2 = b21 = 2,
b11 = b12 = 1.
Deux courbes solution de l’´equation diff´erentielle sont ´egalement repr´esent´ees, une pour la condition initiale x1 (0) = x2 (0) = 0.2 et une autre pour la condition initiale x1 (0) = 1.7 et x2 (0) = 1.4. On constate que dans les deux cas, la solution correspondante converge vers le point d’´equilibre de survie mutuelle x ¯1 = x¯2 = 1. Pour la premi`ere courbe, la densit´e des pr´edateurs commence l´eg`erement a diminuer puis demeure relativement modeste `a cause du faible nombre de ` proies disponibles. Toutefois, ces derni`eres se reproduisent en pr´esence de la faible densit´e des pr´edateurs. Lorsqu’une taille critique est atteinte, `a partir de laquelle les pr´edateurs peuvent mieux se d´evelopper, la tendance s’inverse, et les pr´edateurs augmentent au d´etriment des proies. De mani`ere g´en´erale, le taux de pr´edateurs par rapport a` celui des proies oscille jusqu’` a atteindre l’´equilibre de survie mutuelle.
Fig. 2.12. Plan de phase et points d’´equilibre pour le mod`ele pr´edateur-proie. La variable x1 repr´esente la densit´e des proies (axe horizontal) et la variable x2 repr´esente la densit´e des pr´edateurs (axe vertical). Les valeurs num´eriques choisies sont a1 = a2 = 2 = b21 = 2 et b11 = b12 = 1. Deux trajectoires sont ´egalement repr´esent´ees pour x1 (0) = x2 (0) = 0.2 et pour x1 (0) = 1.7, x2 (0) = 1.4. Trois points d’´equilibre sont constat´es : (i) l’origine x ¯1 = x ¯2 = 0 (en bas, ` a gauche), (ii) la survie des proies et l’extinction des pr´edateurs x ¯1 = 2, x ¯2 = 0 (en bas, ` a droite), et finalement (iii) la survie mutuelle x ¯1 = x ¯2 = 1 (au centre).
30
2 Diagramme de phase
Exercice 2.1. Saturation et syst` eme lin´ eaire. Soit le syst`eme lin´eaire x˙ 1 = x1 + u x˙ 2 = −x2 + u avec u = sat(v), o` u 1 sat v v −1
v>1 −1 ≤ v ≤ 1. v < −1
(2.3)
On applique ´egalement un bouclage stabilisant v = −k1 x1 − k2 x2 . (i) Choisir les gains afin d’avoir deux pˆ ole en −1 et −1 dans la partie lin´eaire. (ii) Trouver tous les points d’´equilibre. (iii) Dessiner le plan de phase avec le champ de vecteur associ´e. Tracer plusieurs trajectoires pour diff´erentes conditions initiales (il faut simuler les ´equations diff´erentielles). (iv) D´eterminer la nature du bassin d’attraction en simulant le syst`eme en temps r´etrograde, i.e. x˙ 1 = −x1 − u et x˙ 2 = +x2 − u, la commande u demeurant identique. Il faut prendre plusieurs conditions initiales r´eparties sur un petit cercle centr´e sur l’origine. (v) R´ep´eter l’op´eration en (iv) en changeant la position des pˆ oles, en les ralentissant (p. ex − 21 et − 21 ) et en les rendant plus rapides (p. ex. −2 et −2). (vi) Est-ce que la position des points d’´equilibre joue-t-il un rˆole ?
3 M´ ethode du premier harmonique
Dans les deux pr´ec´edents chapitres, un syst`eme ´etait donn´e par un ensemble d’´equations diff´erentielles ordinaires de la forme x˙ = f (x). Certaines de ses caract´eristiques comme la pr´esence de plusieurs points d’´equilibre, l’existence de cycles limites ou d’orbites chaotiques ont ´et´e pr´esent´ees, ainsi que des crit`eres permettant de d´eterminer de telles propri´et´es (th´eor`eme de l’index, crit`ere de Poincar´e-Bendixson, etc.). Toutefois, la notion de syst`eme en boucle ferm´ee n’a pas ´et´e mentionn´ee de mani`ere explicite. En effet, x˙ = f (x) pouvait `a la fois repr´esenter un syst`eme en tant que tel, ou provenir de l’association en boucle ferm´ee de deux syst`emes interconnect´es entre eux. Par exemple, w˙ = g1 (w, u) et z˙ = g2 (z) avec dim u = dim z donnent lieu lorsque u = z `a un syst`eme x˙ = f (x) avec T x = wT z T . Nous allons rendre ainsi la pr´esence d’une telle configuration en boucle ferm´ee plus explicite dans le cours du pr´esent chapitre. L’objectif ´etant d’exposer une m´ethode d’analyse approximative d’une classe relativement restreinte de syst`emes, mais apparaissant tr`es fr´equemment en pratique. Il s’agit de la combinaison en r´etroaction d’un syst`eme lin´eaire ayant une seule entr´ee et une seule sortie, boucl´e par un ´el´ement non lin´eaire. Ce dernier ´el´ement ne poss`ede pas de dynamique et correspond `a une fonction statique arbitraire. L’importance de cette classe de syst`eme provient du fait, qu’en pratique, beaucoup de syst`emes poss`edent des imprfections qui ne disparaissent pas apr`es lin´earisation locale. De telles imperfections proviennent par exemple d’une zone morte pour certains syst`emes m´ecaniques, d’hyst´er`ese pour les pi´ezo´electriques et les mat´eriaux magn´etiques, ainsi que la saturation pour presque tous les types d’actioneurs. En effet, on ne peut pas `a proprement parler ´eliminer un jeu dans un engrenage, si ce n’est recourir `a le changer ou `a le r´eparer. Tout au plus, nous
32
3 M´ethode du premier harmonique
pouvons esp´erer compenser son effet n´efaste par la mani`ere dont le syst`eme comportant cet ´el´ement est command´e. De plus, de tels ph´enom`enes ont la particularit´e de pouvoir se s´eparer entre un effet non-lin´eaire purement statique (le jeu et la saturation, par exemple, font intervernir leur effet de mani`ere instantan´ee sans ph´enom`ene de m´emoire) et un effet dynamique propre au syst`eme dans son ensemble (par exemple, les inerties et les frottements d’un r´educteur comportant le jeu susmentionn´e constituent alors la partie lin´eaire du mod`ele du syst`eme). Ainsi, bien que la majeure partie du syst`eme se comporte de mani`ere lin´eaire, il peut y avoir une non-lin´earit´e statique qui subsiste. Celle-ci peut ˆetre isol´ee du reste du comportement lin´eaire pour aboutir au sch´ema que l’on va analyser. L’objectif de cette analyse est de d´etecter et caract´eriser la pr´esence d’´eventuels cycles limites. Il s’agit de d´eterminer `a la fois la propri´et´e de se maintenir apr`es une l´eg`ere perturbation (stabilit´e) et de trouver les param`etres repr´esentatifs tels que l’amplitude et la fr´equence du cycle limite.
3.1 Syst` eme lin´ eaire et non-lin´ earit´ e statique Consid´erons la mise en s´erie, en boucle ouverte, d’un premier bloc, dont le comportement est non-lin´eaire, et d’une simple fonction de transfert qui constitue le second bloc (Figure 3.1). Chacun des blocs comporte une entr´ee unique et une sortie unique. L’entr´ee de la non-lin´earit´e est not´ee u et sa sortie y. L’entr´ee de la fonction de tranfert est alors y (attention ` a ne pas confondre avec u) et sa sortie est z. Il est important d’insister sur cette convention.
u
N.L.
y
G(s)
z
Fig. 3.1. Association d’un bloc non-lin´eaire statique N.L. et d’une fonction de transfert G(s).
La non-lin´earit´e du premier bloc est clairement s´epar´ee du comportement lin´eaire de la fonction de transfert. La contre-r´eaction du second bloc sur le premier est momentan´ement absente. Nous ´etudierons les cons´equences de la boucle ferm´ee (u = −z) ult´erieurement.
3.1 Syst`eme lin´eaire et non-lin´earit´e statique
33
De plus, nous ne consid´ererons qu’une relation non-lin´eaire statique du premier bloc. Ainsi, ` a chaque instant t, la sortie y(t) est une simple fonction de son entr´ee u(t), c.-`a-d. y(t) = φ(u(t)). Il y a donc absence d’´etat pour le comportement du premier bloc. Les ´etats ne sont n´ecessaires que pour r´ealiser la fonction de transfert. 3.1.1 Excitation sinuso¨ıdale en boucle ouverte Pour illustrer le principe, une saturation constituera le premier bloc. La combinaison en s´erie des deux blocs est soumise `a une excitation sinuso¨ıdale d’amplitude A et de pulsation ω : u(t) = A sin(ωt) La saturation est d´ecrite par la fonction u(t) > a ka ˆ −a ≤ u(t) ≤ a φ(u(t)) = ku(t) −ka u(t) < −a
(3.1)
(3.2)
o` u k d´efinit le gain de la partie non-satur´ee et le param`etre a correspond `a la valeur d’entr´ee ` a partir de laquelle la saturation est active. La figure 3.2 illustre le ph´enom`ene pour un choix particulier des param`etres. u(t)
y(t)
4
4
2
2
0
0
-2
-2
-4
-4
Fig. 3.2. Repr´esentation graphique de l’entr´ee u(t) et de la sortie y(t) de la saturation pour les valeurs A = 2, ω = 5, k = 2 et a = 1.
3.1.2 Caract´ eristique passe-bas du syst` eme lin´ eaire G(s) En examinant la figure 3.2, nous constatons que le signal sinuso¨ıdal est fortement transform´e par la saturation. Il ne correspond plus `a une courbe
34
3 M´ethode du premier harmonique
lisse et de mˆeme nature que la sinuso¨ıde de d´epart. Il n’est pas possible de superposer une seule sinuso¨ıde, mˆeme lorsque celle-ci est d´ephas´ee et amoidrie de facteurs appropri´es. Par contre, le constat peut ˆetre diff´erent `a la sortie du syst`eme G(s), puisque ce dernier agit comme un filtre suppl´ementaire. Par exemple, consid´erons un syst`eme G(s) du second ordre avec un param`etre b unique permettant de d´eterminer sa bande passante. Son gain statique est fix´e ´egal ` a l’unit´e. Le param`etre b correspond `a la valeur r´eelle o` u se trouve la paire de pˆ oles sur l’axe r´eel n´egatif.
G(s) =
b2 s2 + 2bs + b2
(3.3)
Le syst`eme est stable pour autant que b soit strictement positif. Un gand b d´etermine un syst`eme rapide qui filtre peu, et un petit b correspond `a un syst`eme de nature passe-bas qui filtre les hautes fr´equences. La figure 3.3 illustre le r´esultat du filtrage lorsque b = 3 et b = 30. z(t)
z(t)
4
4
2
2
0
0
-2
-2
-4
-4
Fig. 3.3. Repr´esentation graphique de la sortie du syst`eme lin´eaire lorsque A = 2, ω = 5, k = 2 et a = 1 pour deux valeurs du param`etre b de la fonction de transfert (3.3). A gauche b = 3 et ` a droitre b = 30.
Dans les deux cas, un r´egime transitoire est constat´e. Celui-ci d´ecoule du fait que les conditions initiales de G(s) ne sont pas compatibles avec le r´egime forc´e que tend ` a imposer l’entr´ee u(t). Ce r´egime transitoire disparaˆıt rapidement pour laisser place `a un r´egime forc´e de nature diff´erente en fonction de la valeur de b. Lorsque le syst`eme filtre peu (b = 30), le signal z(t) est tr`es proche de la sortie de la non-lin´earit´e y(t). Par contre, en examinant le premier r´esultat (b = 3), l’effet conjoint de la saturation φˆ et du syst`eme lin´eaire G(s) revient simplement ` a d´ephaser et ` a att´enuer la sinuso¨ıde d’origine, un peu comme le ferait un syst`eme lin´eaire. La non-lin´earit´e a en quelque sorte disparu, ou
3.1 Syst`eme lin´eaire et non-lin´earit´e statique
35
de mani`ere plus rigoureuse, elle a ´et´e englob´ee pour constituer avec G(s) une sorte de nouvelle fonction de transfert. 3.1.3 Gain complexe ´ equivalent Pardoxalement, nous avions initialement clairement s´epar´e le comportement non lin´eaire du comportement lin´eaire, et voil`a que le dernier r´esultat de la section pr´ec´edente revient `a simplement d´ephaser et amoindrir le signal d’origine. Le comportement global de la mise en s´erie des deux ´el´ements montre qu’il est peu commode de le s´eparer en une partie purement non-lin´eaire caract´erisable et une partie lin´eaire. En effet, il n’est pas ais´e en examinant le signal z(t) (b = 3) de d´etecter la pr´esence d’une saturation. Cependant, il est possible de substituer `a la non-lin´earit´e, un nombre complexe N , permettant de caract´eriser celle-ci sans perdre trop de qualit´e dans la r´eponse z(t). Ceci est rendu possible par la nature passe-bas du syst`eme lin´eaire. Clairement, z(t) pour b = 30 ne permet pas une telle simplification. En cons´equence, lorsque le syst`eme lin´eaire poss`ede des propri´et´es passe-bas marqu´ees, le sch´ema de la figure 3.1 peut ˆetre remplac´e par l’approximation repr´esent´ee ` a la figure 3.4.
u
N
y
G(s)
z
Fig. 3.4. La non-lin´earit´e statique N.L. est remplac´ee par un gain ´equivalent complexe N .
Pour d´eterminer le gain N , nous proc´edons par essais/erreurs et il est relativement ais´e de trouver la sinuso¨ıde 0.329A sin(ωt − 2.00) qui se superpose tr`es bien avec le signal z(t). Ceci est repr´esent´e `a la figure 3.5. Cette d´etermination repose sur le caract`ere du r´egime permanent sinuso¨ıdal. Le signal d’excitation est multipli´e par N puis par G(jω) avec ω = 5. Pour d´eterminer N , il suffit donc de diviser la repr´esentation fr´equentielle de la sortie par G(j5) et ensuite de comparer le r´esultat avec le signal d’entr´ee. Une mani`ere similaire de proc´eder est de d´ephaser et d’amplifier les signaux
36
3 M´ethode du premier harmonique z(t) 4 2 0 -2 -4
Fig. 3.5. Repr´esentation graphique de la sortie du syst`eme lin´eaire lorsque A = 2, ω = 5, k = 2, a = 1 et b = 3. Une sinuso¨ıde 0.329A sin(ωt − 2.00) y est superpos´ee.
temporels par respectivement la phase et l’amplitude des nombre complexes correspondants. On d´eduit sans peine que N ≈ 1.2. C’est un nombre purement r´eel. Le d´ephasage est donc caus´e exclusivement par G(j5) = 9(30j − 14)−1 . Il est important ` a ce stade d’insister sur le fait que le gain N d´epend en g´en´eral de l’amplitude et de la pulsation ω du signal d’entr´ee. C’est l`a que r´eside la diff´erence essentielle entre un comportement purement lin´eaire (repr´esentable par une fonction de transfert `a part enti`ere) et l’approximation de la non-lin´earit´e par un gain ´equivalent N . En prenant une autre amplitude pour le signal d’entr´ee, nous aurions trouv´e une autre valeur pour le gain N . C’est la raison pour laquelle il est not´e soit N (A) ou N (A, ω), selon son type de d´ependance. Ceci n’est pas surprenant pour la saturation par exemple, car lorsque l’amplitude du signal est faible, de telle sorte que la saturation n’est pas active, le signal de sortie est amplifi´e par le gain k de la saturation. Par contre, lorsque le signal est tr`es grand, il est fortement limit´e par la saturation, et le gain ´equivalent peut devenir bien inf´erieur `a l’unit´e. Il faut ´egalement faire attention `a ne pas confondre le param`etre d’amplitude A et la valeur instantan´ee u(t) du signal `a l’entr´ee de l’´el´ement approxim´e par N (A). Ce sont deux choses diff´erentes. L’amplitude A correspond `a la valeur maximale d’une sinuso¨ıde unique pouvant ˆetre appliqu´ee `a l’entr´ee de la non-lin´earit´e, auquel cas cette mˆeme entr´ee sera amplifi´ee d’un facteur N (A) o` u A est l’amplitude fixe de la sinuso¨ıde A sin(ωt). Ce n’est pas la valeur de A sin(ωt) ` a un instant t donn´e. C’est la raison pour laquelle lorsque le signal n’est pas proche d’une sinuso¨ıde unique (de pulsation ω), il est difficile de donner une interpr´etation ` a A, et de surcroit `a N (A).
3.2 Premier harmonique
37
3.2 Premier harmonique Il est fastidieux de d´eterminer le nombre complexe N en fonction des deux param`etres A et ω par une succession de simulations du type que nous avons expos´e ` a la section pr´ec´edente. Il est plus efficace de trouver une expression analytique du gain ´equivalent N (A, ω). 3.2.1 D´ ecomposition en harmoniques Comme la non-lin´earit´e est d´epourvue de dynamique, lorsque le signal u(t) = A sin(ωt) est appliqu´e ` a l’entr´ee de la non-lin´earit´e statique φ, le signal `a la sortie de la non-linarit´e y(t) est p´eriodique et de mˆeme p´eriode T = 2π ω que le signal d’entr´ee. Ceci implique que le signal de sortie y(t) puisse ˆetre d´ecompos´e en s´erie de Fourier : y(t) =
∞
a0 X + [al cos(lωt) + bl sin(lωt)] 2
(3.4)
l=1
Z 1 π y(t)d(ωt) π −π Z 1 π y(t) cos(lωt)d(ωt) al = π −π Z 1 π y(t) sin(lωt)d(ωt) bl = π −π
a0 =
(3.5) (3.6) (3.7)
La s´erie (3.4) donne une d´ecomposition exacte de y(t). Les coeffcients a0 , al , bl , (l = 1, . . . , ∞) caract´erisent alors le type de non-lin´earit´e φ. Le seul incov´enient de cette d´ecomposition (et non le moindre) est qu’il n´ecessite une infinit´e d’´evaluations d’int´egrales le long d’une p´eriode. En effet, les coefficients al et bl doivent ˆetre d´etermin´es d’une mani`ere ou d’une autre en utilisant les d´efinitions (3.6) et (3.7). Il est important d’insister `a nouveau sur le fait que chaque coefficient a0 , al et bl d´epend de l’amplitude A et de la pulsation ω. Formellement, on devrait ´ecrire a0 (A, ω), al (A, ω) et bl (A, ω), les int´egrales (3.5), (3.6) et (3.7) conduisant alors ` a une formule respective. Nous n’insisterons pas sur cette pr´ecision de notation, sauf lorsque cela est vraiement indispensable. 3.2.2 Equivalent du premier harmonique Bien que tous les termes de la s´erie soient n´ecessaires pour repr´esenter exactement la sortie y(t), ceux associ´es aux hautes harmoniques n’ont pas
38
3 M´ethode du premier harmonique
beucoup d’impact sur la sortie z(t) de la fonction de transfert G(s), ´etant donn´e le caract`ere passe-bas de cette derni`ere. Il est par cons´equent possible de tronquer la s´erie et de ne retenir que quelques termes. Puisque a0 , a1 et b1 sont suffisants pour d´efinir un nombre complexe, nous retenons de la s´erie (3.4) que le terme constant et ceux associ´es `a la fondamentale. Ceci constitue l’approximation du premier harmonique cherch´ee et permet de d´eterminer le gain ´equivalent N . En effet, en approximant y(t) ≈ a0 + a1 cos(ωt) + b1 sin(ωt) = a0 + M sin(ωt + α), l’amplitude M et la phase α s’obtiennent `a partir des coefficient a1 et b1 par q M = a21 + b21 α(A, ω) = arctan(a1 /b1 ).
Ainsi, lorsque la non-lin´earit´e est parfaitement sym´etrique, a0 = 0, et le gain ´equivalent s’exprime comme N (A, ω) = M
M jα 1 ejωt+α = e = (b1 + ja1 ). jωt Ae A A
(3.8)
3.2.3 Calcul de l’´ equivalent du premier harmonique Certes, la troncation de la s´erie de Fourier fournit une mani`ere ´el´egante d’exprimer le gain ´equivalent `a partir des param`etres a0 , a1 et b1 (formule (3.8) dans le cas sym´etrique). Il reste toutefois `a determiner une proc´edure de calcul permettant d’´evaluer les int´egrales Z 1 π y(t)d(ωt) (3.9) a0 = π −π Z 1 π a1 = y(t) cos(ωt)d(ωt) (3.10) π −π Z 1 π y(t) sin(ωt)d(ωt), (3.11) b1 = π −π ` partir desquelles seront issues les formules explicites des deux param`etres A a et ω. Deux m´ethodes sont pr´esent´ees ci-apr`es pour une telle ´evaluation. La premi`ere est un calcul analytique et la seconde repose sur des techniques num´eriques. Int´egration analytique La m´ethode la plus directe consiste `a calculer analytiquement les int´egrales exprimant les coefficients a0 , a1 et b1 .
3.2 Premier harmonique
39
Le cas de la saturation est trait´e dans son int´egralit´e. Nous donnerons `a la section suivante d’autres types de non-lin´earit´es avec les gains ´equivalents respectifs. En reprenant l’expression φˆ de la saturation (3.2), la sortie y(t) est exprim´ee en fonction de l’entr´ee u(t) = A sin(ωt). Cependant, une diff´erence fondamentale entre le cas o` u l’amplitude A est inf´erieure `a a (absence de saturation), et lorsque celle-ci est sup´erieure `a a, existe. Lorsque A > a, la sortie se d´ecompose en une partie non satur´ee et en une partie satur´ee. En ne consid´erant qu’un quart de p´eriode (0 ≤ ωt ≤ π2 , les autres quarts se d´eduisant par sym´etrie), nous pouvons exprimer A≤a
y(t) = kA sin(ωt)
A>a
y(t) =
kA sin ωt 0 ≤ ωt ≤ γ ka γ < ωt ≤ π2
γ = arcsin(a/A)
o` u γ est une variable temporaire d´efinissant l’angle `a partir duquel la saturation commence ` a faire son effet. ˆ ˆ Etant donn´e que Rla saturation est sym´etrique, c.-`a-d. φ(−u) = φ(u), on 1 π d´eduit que a0 = π −π y(t)d(ωt) = 0 (absence de composante continue). D’autre part, et ´egalement par raison de sym´etrie, la premi`ere demi-p´eriode compense la seconde dans (3.10) de telle sorte que a1 = 0. Par contre, b1 est diff´erent de z´ero, et seul le deuxi`eme cas A > a, n´ecessite une attention particuli`ere. Sur un quart de p´eriode, l’identit´e " # r Z Z π2 a2 a 1 kA 1 γ 2 γ+ A sin (ωt)dωt + ka sin(ωt)dωt = 1− 2 π 0 π γ 2π A A est valable et, apr`es multiplication par quatre (pour tenir compte de la sym´etrie des quarts de p´eriodes mentionn´ee pr´ec´edemment), on d´eduit le gain ´equivalent k A≤a q N (A) = 2k . a a a2 A>a +A 1− A π arcsin A 2
En reportant les valeurs num´eriques A = 2, k = 2 et a = 1, nous obtenons N (A) = 1.218, justifiant ainsi, par des moyens analytiques, les r´esultats empiriques de la section 3.1. De plus, en repr´esentant le gain ´equivalent sous forme graphique `a la figure 3.6, la constation de la fin de cette section, `a savoir la diminution du gain ´equivalent lorsque l’amplitude du signal d’entr´ee augmente, est ´egalement confirm´ee.
40
3 M´ethode du premier harmonique 2
1.5
1
0.5
k = 2, a = 1
5
10
15
20
25
30
A a
Fig. 3.6. Gain ´equivalent purement r´eel de la saturation. Il diminue en fonction de l’amplitude.
Int´egration num´erique Les trois int´egrales (3.5), (3.10) et (3.11) peuvent ˆetre ´evalu´ees apr`es discr´etisation du signal temporel y(t) de t = − ωπ `a t = ωπ en une suite finie de n points y( ω1 (−π + 2π nk )), k = 0 . . . n − 1. Afin de simplifier la notation, nous introduisons 1 k yk = y( (−π + 2π )). ω n Ceci permet d’approximer les coefficients a0 , a1 et b1 par a0 ≈ a ˆ0,n =
n−1 2X yk n
a1 ≈ a ˆ1,n =
2 n
b1 ≈ ˆb1,n =
2 n
k=0 n−1 X
k=0 n−1 X k=0
(3.12)
k yk cos(−π + 2π ) n
(3.13)
k yk sin(−π + 2π ) n
(3.14)
et nous avons une convergence de a ˆ0,n , a ˆ1,n et ˆb1,n vers respectivement a0 , a1 et b1 lorsque n → ∞. Comme a ˆ0,n est une moyenne, elle ne n´ecessite qu’une seule multiplication et n − 1 additions. Par contre, le coˆ ut en multiplications est important pour a ˆ1,n et ˆb1,n . En ´ecrivant n−1 k 2j X ˆ = 1 j(ˆ N a1,n − jˆb1,n ) = − yk e−j2π n A An
(3.15)
k=0
nous constatons qu’une seule s´erie complexe finie est n´ecessaire. Cette propri´et´e peut donc ˆetre exploit´ee pour r´eduire le nombre d’op´eration. De plus, ˆ est une approximation du gain ´equivalent N qui s’obl’expresssion de N tient par tranform´ee Fourier discr`ete du signal ´echantillonn´e y( ω1 (−π + 2π nk )), k = 0 . . . n − 1.
3.2 Premier harmonique
41
En effet, (3.15) exprime l’approximation du gain ´equivalent par le premier 2j . Notons que terme de la transform´ee de Fourier discr`ete multipli´e par − An cette transform´ee peut ˆetre obtenue par un algorithme de transformation de Fourier rapide en choisissant un nombre de points d’´echantillonnage ´egal `a une puissance enti`ere de 2, c.-`a-d. n = 2m avec m ∈ N. Cependant, un tel algorithme fournit trop d’information ´etant donn´e que les harmoniques sup´erieures sont simplement ignor´ees. Il est n´eanmoins possible de r´eduire substantiellement le nombre de multiplications apparaissant dans (3.13) et (3.14) en utilisant les sym´etries des points complexes k e−j2π n . Le concept est d’abord pr´esent´e en consid´erant le cas particulier d’un ´echantillonnage de 8 = 23 points. La formule (3.15) devient 1
2
3
ˆ = y0 + y1 e−j2π 8 + y2 e−j2π 8 + y3 e−j3π 8 j4N 5 6 7 4 +y4 e−j2π 8 + y5 e−j2π 8 + y6 e−j2π 8 + y7 e−j2π 8
(3.16)
En utilisant le fait que pour chaque point complexe e−jα , il existe un point complexe e−jα−jπ de signe contraire, nous pouvons regrouper des termes de telle sorte que le membre de droite de (3.16) s’´ecrit π
π
(y0 − y4 ) + (y1 − y5 )e−j 4 + (y2 − y6 )e−j 2 + (y3 − y7 )e−j
3π 4
.
(3.17)
Le nombre de multiplications est ainsi r´eduit d’un facteur de deux. En utilisant π le sym´etrie d’un quart de tour (−j = e−j 2 ), (3.17) devient π
(y0 − y4 ) − j(y2 − y6 ) + [(y1 − y5 ) − j(y3 − y7 )]e−j 4 .
(3.18)
En recourant, d’une part ` a l’isomorphisme (not´e ∼ =) des nombres complexes T ∼ avec les points d’un plan a + jb = a b , ainsi qu’`a la propri´et´e que √ cos − π4 = sin − π4 = − 22 , l’expression (3.18) prend la forme √ 2 1 −1 y1 − y5 y0 − y4 , − y3 − y7 y2 − y6 2 1 1
(3.19)
et nous avons grandement simplifi´e le r´esultat par rapport aux formules brutes ˆ = 1 (ˆb1,8 + a ˆ1,8 et ˆb1,8 donn´ees par (3.13) et (3.14) (n = 8) `a partir desquel N A jˆ a2,8 ) ´etait directement exprimable. Etant donn´e que la m´ethode pr´esent´ee est une m´ethode approximative, il est ´egalement possible d’estimer √ 2 5 ≈ 2 7 avec une erreur de 7.17 10−3 . 2π En g´en´eral, la matrice de rotation correspondant `a e−j n ne peut pas se mettre sous une forme aussi ´el´egante qu’en (3.19), mais la premi`ere partie des simplifications est applicable. Par cons´equent, `a partir de (3.15), nous avons
42
3 M´ethode du premier harmonique n/2−1 2j X k ˆ N =− (yk − yk+ n2 )e−j2π n An k=0
=
2 An
n/4−1
X
k=0
k (yk − yk+ n2 + y n2 −k − yn−k ) sin(2π ) n
n/4−1 k 2j X (yk − yk+ n2 − y n2 −k + yn−k ) cos(2π ), − An n k=0
et le nombre de multiplications est r´eduit d’un facteur quatre. De plus, le nombre d’´evaluations des sinus et consinus peut encore ˆetre diminu´e de moiti´e afin d’utiliser uniquement sin(2π nk ) et cos(2π nk ) pour k = 1, . . . , n4 − 1. Il suffit de recourir aux deux propri´et´es cos(α) = sin( π2 − α) et sin(α) = cos( π2 − α) valables pour 0 > α > π2 . Cependant le nombre de multiplications, en tant que tel, ne peut pas ˆetre r´eduit d’avantage en utilisant les sym´etries du cercle unit´e qui conservent l’axe des ordonn´ees et l’axe des abscisses. Mis ` a part le gain en nombre d’op´erations, le r´esultat pr´ec´edent montre que les ´echantillons sont redondants en ce qui concerne leur impact sur le prermier harmonique. Certains situ´es loin les uns des autres se regroupent en classe d’´equivalence selon leur apparition devant la fonction de base sin(2π nk ) ou cos(2π nk ), k = 0, . . . , n4 − 1.
3.3 Non-lin´ earit´ es communes Dans cette section, nous pr´esentons les r´esultats du calcul analytique de quatres non-lin´earit´es communes. Ces r´esultats sont pr´esent´es sous forme condens´ee, car ils s’obtiennent ais´ement `a partir de la saturation. En effet, par sommation entre une saturation et un gain dont les signes et les valeurs sont convenablement choisis, toutes les non-lin´earit´es de cette section sont exprimables. Nous reportons, pour commencer, les r´esultats associ´es `a la saturation, par soucis de compl´etude.
3.3 Non-lin´earit´es communes
43
3.3.1 Saturation La saturation correspond `a une mod´elisation de la limitation de beaucoup d’actionneur. Tant que l’actionneur op`ere dans sa plage de fonctionnement, sa sortie y(t) est proportionnelle `a la valeur d´esir´ee de sa sortie u(t), c.-`ad. y(t) = ku(t). Par contre, si la valeur d´esir´ee est irr´ealisable (u(t) > a par exemple), l’actionneur ne peut que fournir le maximum possible (u(t) = ka) et il n’y a plus de proportionnalit´e entre la grandeur d´esir´ee et la sortie effective. Symbole et fonction φ
ˆ φ(u(t)) =
Gain ´equivalent N (A)
Graphique
k N (A) = 2k π arcsin
ka ku(t) −ka
a
A
u(t) > a −a ≤ u(t) ≤ a u(t) < −a
q a +A 1−
a2 A2
(3.20)
A≤a A>a
2
1.5
1
0.5
k = 2, a = 1
5
10
15
20
25
30
A a
Fig. 3.7. Gain ´equivalent purement r´eel de la saturation. Il diminue en fonction de l’amplitude.
44
3 M´ethode du premier harmonique
3.3.2 Zone morte La zone morte correspond `a la perte de transmission entre la grandeur d’entr´ee u(t) et celle de la sortie y(t) pour des valeurs proches de z´ero. Ainsi, tant que la grandeur d´esir´ee n’a pas atteint un seuil δ, la grandeur de sortie y(t) est nulle. D`es que la grandeur d’entr´ee d´epasse ce seuil, la sortie correspond a la diff´erence entre l’entr´ee et le seuil multipli´e par un gain k. ` Symbole et fonction φ La fonction φ correspondant `a la zone morte est not´ee φˇ :
Gain ´equivalent
k(u(t) − δ) ˇ 0 φ(u(t)) = −k(u(t) + δ)
u(t) > δ −δ ≤ u(t) ≤ δ u(t) < −δ
(3.21)
Pour obtenir le gain ´equivalent de la zone morte, il suffit de remarquer que celle-ci peut se fabriquer tr`es facilement `a partir d’une saturation. En effet, en posant a = δ et en d´esignant la fonction de la saturation par φˆ et celle de la ˇ un montage sommateur entre un gain k et l’oppos´e d’une zone morte par φ, ˆ et ainsi saturation donne la zone morte, autrement dit φˇ = k − φ, 0 A≤δ q N (A) = 2k π δ2 δ δ π 2 − arcsin( A ) − A 1 − A2 A > δ R´eciproquement, il est facile de construire une saturation `a partir d’une ˇ zone morte, car une fois pos´e δ = a, la saturation s’exprime comme φˆ = k − φ. Graphique
1.5
1
0.5
k = 2, δ = 1
2
4
6
8
10
12
14
A
Fig. 3.8. Gain ´equivalent purement r´eel de la zone morte. Il augmente en fonction de l’amplitude.
3.3 Non-lin´earit´es communes
45
3.3.3 Relais Le relais correspond ` a la commutation tout ou rien en fonction du signe de la valeur d’entr´ee. Lorsque celle-ci est positive, la sortie du relais prend la valeur fixe +M . Elle prend la valeur contraire pour des valeurs n´egatives de l’entr´ee. Symbole et fonction φ ¯ Nous noterons la fonction φ associ´ee au relais par φ. +M ¯ 0 φ(u(t)) = −M
u(t) > 0 u(t) = 0 u(t) < 0
(3.22)
Gain ´equivalent N (A) Pour calculer le gain ´equivalent, il suffit de remarquer que la fonction φ¯ ˆ en posant k = a , et en peut ˆetre exprimer ` a partir de celle la saturation φ, M passant ` a la limite lima→0 . Ainsi ˆ k = a , u(t)), ¯ φ(u(t)) = lim φ(a, a→0 M et donc en utilisant le fait que sin(x) = x+o(x) (c.-`a-d. arcsin(x) = 1/x+o(x)) N (A) =
4M πA
3.3.4 Hyst´ er` ese L’hyst´er`ese peut mod´eliser une transmission comportant deux engrenages. Lorsqu’un premier engrenage commence `a tourner, durant un angle de δ, il n’y a pas d’effet sur la rotation du second engrenage. Un fois cet angle parcouru, le seond engrenage commence `a tourner et il tourne alors d’un angle correspondant ` a celui du premier. Lorsque le mouvement est invers´e, il est n´ecessaire au premier engrenage de parcourir un diff´erence d’angle de 2δ dans le sens inverse sans qu’il y ait d’effet sur le second engrenage. Ce dernier commence alors ` a tourner dans le sens contraire.
46
3 M´ethode du premier harmonique
a1 =
4kb b ( − 1) π A
s 2 2b 2b 2b Ak π − arcsin −1 − −1 −1 1− b1 = π 2 A A A q 1 kN (A)k = a21 + b21 A a1 arg(N (A)) = arctan b1 3.3.5 Non-lin´ earit´ es sym´ etriques, continues par morceaux Nous avons vu que la saturation permet de synth´etiser une zone morte et un relais. En outre, comme nous allons le voir dans cette section, elle peut ´egalement fabriquer un ensemble tr`es grand de non-lin´earit´es statiques. Nous allons montrer comment, `a partir de zones mortes (et donc `a l’aide de saturations), il est possible de constituer n’importe quelle non-lin´earit´e statique sym´etrique constante par morceaux, par simple principe de superposition (c.-` a-d. en utilisant des sommes et des multiplications par des gains constants). La figure 3.9 illustre le principe. φ(u)
φˇ4
40
20
φˇ2 0
φˇ1
-20
φˇ3 -40 -10
10
u
Fig. 3.9. Le trait en solide repr´esente une non-lin´earit´e statique sym´etrique, et continue par morceaux. Elle est ´egale ` a la somme des quatres zones mortes φˇ1 , φˇ2 , φˇ3 , et φˇ4 , avec δ1 < δ2 < δ3 < δ4 . Les zones mortes sont repr´esent´ees en traits hachur´es. La non-lin´earit´e peut donc s’exprimer comme une combinaison de saturations φˆi avec des param`etres ai et ki judicieusements choisis.
Comme la non-lin´earit´e est sym´etrique, il suffit de consid´erer le cas u ≥ 0. φ est alors d´etermin´e par des valeurs en un nombre fini m de points. Soit u1 < u2 < u3 < . . . < um , les valeurs de u pour lesquelles φ vaut φ1 = φ(u1 ), φ2 = φ(u2 ), . . ., φm = φ(um ), avec φi ∈ R, i = 1, . . . , m.
3.4 Syst`eme en r´etroaction
47
Ceci ´etant donn´e, nous pouvons exprimer φ `a l’aide de φˇi (ki , δi ). Pour trouver ces expressions, il suffit de fixer δi = u i ,
i = 1. . . . , m
et de constater que les zones mortes i, i + 1, . . ., m n’influencent pas le comportement pour u ∈ [0; ui [. Les gains ki s’expriment donc inductivement par ki =
φ(ui+1 ) − φ(ui ) −
Pi−1 Pl l=1
n=1
ui+1 − ui
kn ul
Comme ` a travers cette construction φ=
m X
ˇ i , δi ), φ(k
i=1
le gain ´equivalent de la fonction φ s’´ecrit alors par superposition des gains ´equivalents des zones mortes respectives ! r m π δi δi 2X δi2 ki ǫ(A − δi ) − arcsin( ) − N (A) = 1− 2 , π i=1 2 A A A o` u ǫ(.) d´esigne la fonction (de R dans R) x → ǫ(x) qui vaut +1 lorsque x > 0 et 0 sinon.
3.4 Syst` eme en r´ etroaction Jusqu’` a pr´esent, nous n’avons pas consid´er´e le syst`eme en boucle ferm´ee. Le but essentiel de la m´ethode du premier harmonique est de d´eterminer une estimation des param`etres d’un syst`eme oscillant (p´eriode et amplitude) lorsque ce dernier oscille ` a cause d’une r´etroaction du signal de sortie sur son entr´ee. Ceci est repr´esent´e ` a la figure 3.10. La boucle est ferm´ee en for¸cant u(t) = −z(t) . Pour qu’un cycle limite puisse se maintenir dans un tel arrangement, il faut que les signaux respectent les ´equations y(t) = φ(u(t)) Z t z(t) = y(τ )g(t − τ )dτ
(3.23) (3.24)
0
u(t) = −z(t),
(3.25)
48
3 M´ethode du premier harmonique u
y N.L.
−
z G(s)
Fig. 3.10. La boucle de r´etroaction est ferm´ee par le signal de sortie de telle sorte que u(t) = −z(t).
o` u g(.) repr´esente la r´eponse impulsionnelle de G(s). Ceci correspond ` a d´eterminer la nature du point fixe z(.) solution de l’´equation int´egrale non-lin´eaire Z T z(t) = φ(−z(τ ))g(t − τ )dτ (3.26) 0
Evidemment, trouver une solution `a cette ´equation sur toute la dur´ee [0; T ] donne une solution exacte du probl`eme. Cependant, la caract´eristique passe-bas de G(s) permet d’approximer la solution en rempla¸cant la fonction non-lin´eaire φ par le gain ´equivalent N (A, ω). Ceci est repr´esent´e ` a la figure 3.11.
u −
y N (A, ω)
z G(s)
Fig. 3.11. Le syst`eme en boucle ferm´ee est approxim´e par le sch´ema ci-dessus, o` u la non-lin´earit´e statique φ est consid´er´ee comme un gain ´equivalent N (A, ω).
La non-lin´earit´e se borne `a modifier le gain en fonction de l’amplitude A et ´eventuellement de la pulsation ω. Par cons´equent, un cycle limite existe lorsque les signaux respectent les conditions fr´equentielles Y (jω) = N (A, ω)U (jω)
(3.27)
Z(jω) = G(jω)Y (jω) U (jω) = −Z(jω).
(3.28) (3.29)
Ces trois conditions conduisent `a une ´equation unique pour Z(jω) : Z(jω) = −G(jω)N (A, ω)Z(jω)
(3.30)
3.4 Syst`eme en r´etroaction
49
Cette ´equation (3.30) correspond `a une approximation de l’´equation int´egrale (3.26). Le fait de consid´erer uniquement le premier harmonique permet de factoriser Z(jω) de telle sorte que ce facteur se simplifie dans (3.30). Une simplification analogue est impossible dans l’´equation exacte (3.26). Ainsi, selon le crit`ere du premier harmonique, une estimation possible de l’amplitude A et de la pulsation ω du cycle limite ´eventuel correspond aux solutions de l’´equation 1 = −G(jω)N (A, ω). (3.31) Il peut exister une solution, plusieurs solutions, ou aucune solution `a cette ´equation. Une solution est repr´esent´ee par un couple A, ω. 3.4.1 Repr´ esentation graphique Pour repr´esenter les solutions de l’´equation (3.31), nous utilisons le diagramme de Nyquist. Il s’agit de repr´esenter un nombre complexe correspondant ` a une r´eponse harmonique (ou au gain ´equivalent) dans un plan o` u l’axe horizontal repr´esente la partie r´eelle de ce nombre et l’axe vertical, la partie complexe.
Im
G(jω)
1 − N(A)
Re
Fig. 3.12. Repr´esentation de la r´eponse harmonique et du gain ´equivalent dans le plan complexe (diagramme de Nyquist). Le point de croisement y est ´egalament repr´esent´e. Le cycle limite aura les param`etres A et ω donn´e par ce point de croisement.
Pour obtenir une repr´esentation correspondant `a la r´eponse harmonique G(jω). la pulsation ω est augment´ee de mani`ere continue afin qu’une courbe associ´ee aux nombres complexes G(jω) soit repr´esent´ee dans ce plan. Cette courbe est orient´ee dans le sens des pulsations croissantes.
50
3 M´ethode du premier harmonique
Nous pouvons ´egalement repr´esenter une courbe associ´ee au gain ´equivalent N (A). Dans ce cas, l’amplitude A (et non la pulsation) est graduellement et continument augment´ee de telle sorte que les points complexes −1/N (A) d´ecrivent une courbe dans le plan. Elle est ´egalement orient´ee dans le sens croissant des amplitudes. Un exemple de diagramme de Nyquist comprenant G(jω) et −1/N (A) est donn´e ` a la figure 3.12. Lorsque le gain ´equivalent d´epend `a la fois de l’amplitude et de la pulsation (c.-` a-d. N (A, ω)), il est n´ecessaire de discr´etiser la pulsation en un ensemble fini de valeurs ω1 , ω2 , . . ., ωp . Ensuite, chaque gain ´equivalent N (A, ωi ), i = 1, . . . , p est consid´er´e comme un gain d´ependant de l’amplitude et il est trait´e comme pr´ec´edemment. En cons´equence, un ensemble de p courbes distinctes est obtenue o` u chaque courbe est un lieu de points complexes −1/N (A, ωi ), i = 1, . . . , p param´etr´e par l’amplitude A. Un cycle limite potentiel, solution de (3.31), correspond a` un point d’intersection entre la r´eponse harmonique G(jω) et une des courbes repr´esent´ees par −1/N (A) ou −1/N (A, ωi ). 3.4.2 Double int´ egrateur et oscillateurs lin´ eaires Les consid´erations de la section pr´ec´edente prennent une caract´erisation pr´ecise lorsque le gain N est un simple nombre r´eel. En partant d’un double int´egrateur G(s) =
1 , s2
et en effectuant une contre-r´eaction n´egative avec un gain unit´e N = 1, on se place dans une configuration particuli`ere du diagramme 3.11. Comme le syst`eme est lin´eaire, la boucle ferm´ee correspond `a une fonction de transfert ¯ G(s) = N G(s)/(1 + N G(s)), c.-`a-d.
1 +1 et on constate que le syst`eme oscille car ses deux pˆ oles valent s1 = +j et s2 = −j. ¯ G(s) =
s2
Remarque 3.1. Les consid´erations pr´ec´edentes admettent une interpr´etation physique en consid´erant la sortie z(t) du double int´egrateur G(s) comme une position. Son entr´ee est alors une acc´el´eration. Le sch´ema de la figure 3.11
3.4 Syst`eme en r´etroaction
51
signifie qu’une acc´el´eration proportionnelle, mais de signe contraire `a la position de sortie, est appliqu´ee. Le syst`eme se comporte donc comme une masse unitaire soumise ` a une force ´elastique de constante ´egale `a l’unit´e, et nous retrouvons l’oscillateur du chapitre pr´ec´edent sous un angle nouveau. Comme nous l’avons vu, l’amplitude de l’oscillation est fonction des conditions initiales. C’est l`a une propri´et´e universelle des oscillateurs lin´eaires. L’information nouvelle est la possibilit´e de repr´esenter l’apparition de l’oscillation par une particularit´e du diagramme de Nyquist. En reportant la courbe G(jω) = − ω12 dans ce diagramme, nous constatons que cette courbe coupe le point −1 exactement `a la pulsation d’oscillation ω = 1. En modifiant le gain N nous obtenons une autre fonction √ de transfert N/(s2 + N ) dont les deux pˆ oles sont purement imaginaires ±j N . L’oscillateur change de fr´equence. A nouveau, le diagramme de Nyquist donne une int´erpr´etation similaire, puisque N G(jω) coupe `a nouveau le point −1 exac√ tement ` a la pulsation ω = N , ou autrement dit lorsque G(jω) intersecte le point −1/N (Figure 3.13). Im
ω
G(jω)
− N1
−1
Re
Fig. 3.13. Digramme de Nyquist d’un double int´egrateur G(s) = s12 . Le lieu G(jω) = − ω12 intersecte tous les points sur l’axe r´eel n´egatif. Par cons´equent, chaque a un gain N d’une contre-r´eaction permettant de point d’intersection − N1 correspond ` √ forcer une oscillation ` a la pulsation ω = N . Lorsque N = 1, l’oscillateur correspond au syst`eme masse ressort unitaire du chapitre pr´ec´edent.
Ainsi, puisque tout syst`eme lin´eaire oscillant poss`ede des pˆ ole imaginaires complexes conjugu´es, ces pˆ oles annulent le d´enominateur de la fonction de transfert en boucle ferm´ee, conduisant naturellement `a ce que la r´eponse harmonique en boucle ouverte N G(jω) passe par le point −1. Notons que dans le cas lin´eaire (N constant par exemple), une caract´eristique passe-bas de la fonction de transfert n’est absolument pas n´ecessaire pour l’existence d’une paire de pˆ oles complexes conjugu´es d´eterminant la possibilit´e d’avoir une oscillation `a la pulsation correspondante.
52
3 M´ethode du premier harmonique
N´eanmoins, une difficult´e provient de la garantie d’existence de l’oscillation qui ne peut ˆetre d´etermin´ee qu’en consid´erant les pˆ oles et z´eros suppl´ementaire aux paires de pˆ oles complexes conjugu´es solutions de l’´equation 1 + N G(jω) = 0. 3.4.3 Th´ eor` eme de Nyquist Le diagramme de Nyquist correspond `a effectuer une transformation conforme entre le plan de repr´esentation des pˆ ole et z´eros du syst`eme en boucle ferm´ee vers un nouveau plan o` u tous les pˆ oles en questions sont envoy´es au point unique −1. Pour d´efinir cette transformation conforme, on prend l’axe imaginaire ±jω en ´evitant soigneusement tous les pˆ oles et zeros sur cet axe en effectuant un arc de demi-cercle situ´e dans le demi-plan droit et de rayon infiniment faible, chaque fois qu’un pˆ ole ou z´ero est rencontr´e. On utilise alors l’application des nombres complexes a + jb → G(a + jb) (avec a, b ∈ R) qui transforme l’axe imaginaire jω du premier plan en une courbe G(jω) dans le second plan. En rejoignant par une courbe situ´ee dans le demi-plan droit du plan de d´epart, une valeur imaginaire pure choisie arbitrairement et se trouvant sur la partie positive de l’axe imaginaire vers celle de signe contraire situ´ee sur l’axe imaginaire n´egatif, une courbe de Jordan est obtenue englobant une partie du demi-plan droit du plan complexe initial. De plus, lorsque la courbe est parcourue dans le sens des pulsations croissantes pour le demi-axe imaginaire positif (et dans le sens des pulsations d´ecroissantes pour le demi-axe imaginaire pur n´egatif), la partie en question est toujours laiss´ee a` droite de la courbe. En augmentant d’avantage la valeur imaginaire pure choisie, tout en maintenant le module aussi grand que possible des points complexes constituants la courbe qui rejoint les deux points de l’axe imaginaire choisis, une grande partie du demi-plan droit du plan complexe est englob´ee. En continuant le processus, il est possible de consid´er´erer l’ensemble de l’axe imaginaire en tant que tel et d’imaginer que l’extr´emit´e infinie positive de celui-ci est referm´ee `a l’infini vers la partie imaginaire infinie n´egative par une courbe de Jordan de module infini. La totalit´e du demi-plan droit est ainsi syst`ematiquement laiss´ee sur la droite de la courbe de Jordan de d´epart. Ce demi-plan droit est alors transform´e par l’application susmentionn´ee a + jb → G(a + jb) en la partie du plan complexe laiss´ee ` a droite par la courbe G(jω) dans le plan d’arriv´ee. Ces consid´erations sont illustr´ees aux figures 3.14 et 3.15, pour la fonction e N = 1. La en boucle ouverte G(s) = s3 +2ss−1 2 +3s+9 , et avec un gain unit´ fonction de transfert en boucle ferm´ee poss`ede une paire de pˆ oles complexes conjugu´es (±2j) ainsi qu’un pˆ ole r´eel n´egatif (−2), tous trois sont envoy´es au point −1 par la transformation a + jb → G(a + jb). La transformation de l’axe imaginaire (en vert) est ´egalement illustr´ee.
3.4 Syst`eme en r´etroaction
53
a + jb → G(a + jb)
−1
Fig. 3.14. La fonction de transfert en boucle ferm´ee 1/(1+G) = (s−1)/(s3 +2s2 + 4s + 8) correspond ` a la fonction de tranfert en boucle ouverte G(s) = (s − 1)/(s3 + 2 2s + 3s + 9). A gauche, les pˆ oles et z´ero de la boucle ferm´ee sont repr´esent´es. A droite, le plan de Nyquist et l’image de l’axe imaginaire du plan de gauche est trac´e. Les trois pˆ oles (une paire complexe conjugu´ee et un pˆ ole r´eel n´egatif) du plan de gauche sont tous envoy´e au point −1 du plan de droite.
Deux courbes de Jordan d´elimit´ees par des demi-arcs de cercle ainsi que leurs images respectives sont repr´esent´ees `a la figure 3.15. Le demi-disque du plan droit limit´e par un rayon tr`es l´eg`erement (i.e. infinit´esiment) inf´erieur ` a deux est enti`erement transform´e dans une tr`es grande r´egion du plan droit. L’application est clairement surjective, car certains points situ´es dans le demi-anneau de rayon 1.8 < r < 2 et ceux situ´es dans le demi-anneau de rayon 2 < r < 3 sont envoy´es vers des points identiques. Cette surjectivit´e provient du fait que le degr´e du d´enominateur est sup´erieur ` a un, de telle sorte qu’il poss`ede plus qu’un seul pˆ ole, impliquant que le point −1 de l’image poss`ede ´egalement plusieurs points sources (les pˆ oles en question). Par continuit´e, il existe donc des points diff´erents de −1 du plan image auxquels correspondent plusieurs points distincts du plan source, c.-`a-d. G(s1 ) = G(s2 ) 6= −1, s1 6= s2 avec s1 , s2 ∈ C. On remarque ´egalement que le recouvrement se produit essentiellement lorsque les pˆ oles complexes conjugu´es, imaginaires purs, et responsables de l’oscillation, sont rencontr´es. De plus, il y a une extrˆeme sensibilit´e entre les points de d´epart situ´es autour de ces pˆ oles et les points d’arriv´ee. (Un petit d´eplacement des points dans le plan source implique un grand d´eplacement de leurs images.) Une simulation du syst`eme pr´ec´edent confirme qu’il oscille bien `a la pulsation ω = 2. Cette oscillation est stable au sens o` u, bien qu’il y ait pr´esence d’un r´egime transitoire conditionn´e par la pr´esence du pˆ ole r´eel −2, il disparaˆıt rapidement pour laisser place `a l’oscillation. Tout comme dans le cas
54
3 M´ethode du premier harmonique 1.8
1
3
2
3 1.8
0
0
-2 -1
-2
0
2
-1
-0.5
0
0.5
Fig. 3.15. Illustration des courbes de Jordan lorsque les courbes rejoignants les deux points de l’axe imaginaire sont des demi-cercles de rayon 1.8 et 3. Le syst`eme est identique ` a celui de la figure 3.14. Lorsque le rayon d´epasse la valeur 2, plus ce rayon est grand, plus petite est la courbe image dans le diagramme de Nyquist.
du double int´egrateur en r´etroaction, l’amplitude de l’oscillation est fonction des conditions initiales. Cependant, une diff´erence essentielle existe entre le double int´egrateur et le syst`eme G(s) que l’on vient de pr´esenter. Dans ce dernier cas, lorsque le gain de contre-r´eaction N change, la r´eponse harmonique ne peut plus couper le point −1/N , contrairement au cas du double int´egrateur. Par cons´equent, la paire de pˆ oles complexes conjugu´es, imaginaires purs, disparaˆıt. Nous pouvons n´eanmoins pr´edire o` u doivent se trouver les deux pˆ oles manquants lorsque le gain augmente ou diminue, en utilisant `a la fois la propri´et´e de s´eparation de l’axe imaginaire (s´eparant le plan complexe initial en deux), et la nature de la transformation utilis´ee (` a savoir conforme). Sans perte de g´en´eralit´e, consid´erons une diminution du gain, disons N = 0.9. Le point −1/N = −10/9 se d´eplace alors sur la gauche du point −1 du diagramme de droite de la figure 3.14. Ceci signifie que, lorsqu’on se d´eplace sur la courbe verte solide du diagramme de droite, dans le sens croissant des pulsations, nous laissons le point −10/9 sur la droite. En cons´equence, les pˆ oles associ´es ` a ce point doivent se situer ´egalement sur la droite de la courbe verte solide du diagramme de gauche de la figure 3.14. C’est la raison pour laquelle les pˆ oles correspondants appartiennent au demi-plan droit du diagramme de gauche et poss`edent des parties r´eelles positives. Le signal de sortie est instable et l’oscillation d’amplitude constante ne se maintient pas. L’amplitude explose. A l’inverse, lorsque le gain est augment´e, les pˆ oles du diagramme de gauche se d´eplace sur la gauche, le signal de sortie est asymptotiquement stable, (il tend vers z´eros quels que soient les conditions intiales, lorsque le temps tend vers l’infini), et l’oscillation d’amplitude constante ne se maintient pas. Elle s’´evanouit progressivement.
3.4 Syst`eme en r´etroaction
55
Ceci est confirm´e en simulation en prenant N = 0.9 et N = 1.1 dont les r´esultats sont donn´es ` a la figure 3.16.
Resultats
Resultats
4
4
2
2
0
0
-2
-2
-4
-4 0
20
40
0
20
40
Fig. 3.16. Illustration de l’effet de la modification du gain dans le cas du syst`eme G(s) des figures 3.14 et 3.15. A gauche, le gain est diminu´e ` a N = 0.9, l’oscillation s’amplifie. A droite, le gain est augment´e ` a N = 1.1, et l’oscillation s’´evanouit.
Par cons´equent, la condition de stabilit´e (absence de pˆ oles `a partie r´eelle positive) est profond´ement li´ee `a la mani`ere dont le point −1 est laiss´e `a droite ou ` a gauche de l’image de l’axe imaginaire par la fonction de transfert N G(s). Pour ˆetre plus pr´ecis, la stabilit´e d´epend de la fa¸con dont la r´eponse harmonique G(jω) entoure le point −1/N . La conclusion suit une application directe du crit`ere de l’argument de Cauchy appliqu´e ` a la courbe de Jordan particuli`ere. Th´ eor` eme des r´ esidus et principe de l’argument de Cauchy Le principe de l’argument de Cauchy stipule que la somme des r´esidus associ´es ` a des singularit´es de la transformation ´equivaut aux nombre de tours que la courbe doit parcourir autour de l’image de la singularit´e. C’est un corolaire du th´eor`eme des r´esidus que nous donnons ci-apr`es. Le corolaire en question suit pour finalement pr´esenter le r´esultat qui nous int´eresse. Pour commencer nous donnons la d´efinition exacte d’un r´esidu. Elle se fonde sur un d´eveloppement en s´erie de la fonction analytique f (z). D´ Pe∞finition 3.2.kSoit f (z) une fonction complexe que nous exprimons f (z) = −∞ Ck (z − z0 ) dans un voisinage de z0 en excluant z0 . Le nombre C−1 est appel´e le r´esidu de f au point z0 . Nous notons Res (f ; z0 ) = C−1
56
3 M´ethode du premier harmonique
Nous donnons ´egalement la d´efinition du nombre d’entourement : D´ efinition 3.3. Soit γ une courbe ferm´ee et a un point qui n’appartient pas a ` cette courbe (a 6∈ γ). Alors Z dz 1 n(γ; a) = 2πj γ z − a est le nombre d’entourement. Pour illustrer cette derni`ere d´efinition, lorsque γ est un cercle, n(γ; z) = 1, si a est ` a l’int´erieur du cercle et lorsque a est `a l’ext´erieur, n(γ; z) = 0. Le th´eor`eme des r´esidus de Cauchy s’´enonce alors Th´ eor` eme 3.4. Supposons f analytique dans un domaine simplement connexe, si ce n’est pour un ensemble fini isol´es de singularit´es z1 , z2 , . . . , zm . Soit γ une courbe ferm´ee qui ne passe par aucune des singularit´es. Alors Z
f = 2πj
γ
m X
n(γ; zk )Res (f ; zk ).
k=1
ℑ
ℑ E(s)
X
O X
O
X
ℜ
X X O
ℜ
X P=6
Z=3
N = -3
Fig. 3.17. Illustration du th´eor`eme des r´esidus dans le cas particulier o` u f est une fraction rationnelle E(s). A gauche, le plan s est repr´esent´e avec les z´eros repr´esent´es par O et au nombre de Z = 3, ainsi que les pˆ oles repr´esent´es par X, et au nombre de P = 6. Une courbe de Jordan quelconque dans le sens des aiguilles d’une montre est choisie. Le th´eor`eme des r´esidues indique que le nombre d’encerclements N de l’orgine, effectu´e par l’image de la courbe de Jordan par l’application E(s), est ´egal ` a N = Z − P = −3. La courbe encercle bien trois fois l’origine dans le sens contraire du sens de la courbe initiale.
En somme, lorsque une courbe ferm´ee est parcourue, seules les singularit´es contribuent au nombre d’entourement de la courbe, Chaque contribution des
3.4 Syst`eme en r´etroaction
57
singularit´es est proportionnelle `a leur r´esidu et `a leur nombre d’entourement propre. Les singularit´es se somment en quelque sorte. On comprend donc que lorsque une courbe est transform´ee en une autre, conservant les singularit´es avant et apr`es transformation, c.-`a-d. sans modifier ni le r´esidu ni le nombre d’entourement correspondant, le nombre d’entourement global doit demeurer identique. Crit` ere de Nyquist En appliquant le th´eor`eme des r´esidus `a la courbe de Jordan particuli`ere correspondant ` a prendre l”axe imaginaire (tout en ´evitant les pˆ oles et z´eros se situant sur l’axe imaginaire en effectuant un ´ecart infinit´esimal) et d’inclure tout le demi plan droite du plan complexe en refermant la courbe `a l’infini, on aboutit au crit`ere de Nyquist g´en´eralis´e. En effet, en prenant pour E(s) l’expression 1 + G(s)H(s) on obtient le th´eor`eme suivant : Th´ eor` eme 3.5. 1. On prend l’axe imaginaire du plan s, c.-` a-d. jω, ω ∈ [−∞; ∞]. 2. On prend son image par G(s)H(s)
3. N = nbr de fois que G(jω)H(jω) encercle −1 (sens trig. −).
4. P = nbr de pˆ oles de G(s)H(s) instables (≡ pˆ oles instables de 1+G(s)H(s)) Z = N + P = nbr de pˆ oles inst. de la boucle ferm´ee (z´eros inst. de 1 + G(s)H(s)) Remarquons que les pˆ ole de 1 + G(s)H(s) sont ´egalement les pˆ oles de la boucle ouverte G(s)H(s) (la sommation de 1 ne change pas la stabilit´e de 1 + G(s)H(s)). De plus, consid´erer que l’image de la courbe de Jordan par 1 + G(s)H(s) encercle l’origine est identique `a tester le nombre de fois que l’image de cette courbe par G(s)H(s) encercle le point −1. Le pr´ec´edent th´eor`eme peut ˆetre l´eg`erement modifi´e pour tenir compte du gain N suppl´ementaire : Th´ eor` eme 3.6. 1. On prend l’axe imaginaire du plan s, c.-` a-d. jω, ω ∈ [−∞; ∞]. 2. On prend son image par G(s)H(s)
3. N = nbr de fois que G(jω)H(jω) encercle −1/K (sens trig. −) 4. P = nbr de pˆ oles instables de la boucle ouverte
Z = N + P = nbr de pˆ oles instables de la boucle ferm´ee
58
3 M´ethode du premier harmonique
3.5 Crit` ere de stabilit´ e Dans le cas d’une contre-r´eaction lin´eaire, il n’est pas possible de maintenir une oscillation avec la mˆeme fr´equence d’oscillation lorsque le gain est augment´e ou diminu´e. Pour une majeure partie des cas (sauf pour le double int´egrateur, par exemple), l’oscillation `a tendance a imm´ediatement s’´evanouir ou ` a s’amplifier. De plus, mˆeme lorsque l’oscillation se maitient parfaitement, il est tr`es difficile de garantir une amplitude bien d´efinie, ´etant donn´e que cette derni`ere d´epend des conditions initiales qui ne sont pas maˆıtrisables. Cependant, lors de l’ajout d’une non-lin´earit´e, l’oscillation peut se maintenir ` a une amplitude bien d´efinie. Ceci est illustr´e en rempla¸cant le gain constant dans l’exemple des figures 3.14 et 3.15 par un ´el´ement non-lin´eaire. L’id´ee est de garantir l’intersection avec le lieu du gain ´equivalent mˆeme lorsque le gain statique de G(s) est modifi´e. Ainsi, le crit`ere d’existence d’un cycle limite est satisfait. Nous prendrons deux types de non-lin´earit´es, i) la saturation et ii) la zone morte. Toutes deux permettent de constituer un lieu pour lequel l’intersection avec la r´eponse harmonique G(jω) existe. Remarque 3.7. Les deux figures 3.18 et 3.19 correspondent `a des syst`emes n’ayant pas de z´eros instables. Ainsi le crit`ere de Nyquist simplifi´e s’applique. La stabilit´e est donn´ee lorsque la r´eponse harmonique laisse le point de stabilit´e ` a gauche. L’instabilit´e a lieu lorsque ce dernier est laiss´e `a droite. 3.5.1 Cycle limite stable La pr´evision d’un cycle limite stable a lieue lorsque le gain ´equivalent, param´etr´e par l’amplitue A, croise la r´eponse harmonique, param´etr´ee par ω, selon la figure 3.18. Pour s’en convaincre, il suffit de consid´erer le point de croisement, apr`es une l´eg`ere perturbation, comme un point de stabilit´e. La perturbation est effectu´ee en augmentant ou diminuant l’amplitude A. La figure 3.18 repr´esente le cas o` u l’amplitude est augment´ee. Le point de croisement est alors d´eplac´e sur la gauche. Lorsque la r´eponse harmonique est parcourue dans le sens des pulsations croissantes, elle laisse ce point ´egalement sur la gauche. Ainsi, lorsque ce point est consid´er´e comme un point de stabilit´e, la r´eponse harmonique d´ecrit une situation stable. Le syst`eme aura donc tendance ` a diminuer l’amplitude par la pr´esence de cette stabilit´e. Par cons´equent, le point hypoth´etique aura tendance `a revenir vers le point de croisement. De mani`ere similaire, l’attraction du point de croisement est d´eduit en consid´erant une diminution de l’amplitude. Le point de croisement est alors d´eplac´e sur la droite, de telle sorte qu’il correspond `a un point instable par rapport ` a la r´eponse harmonique. L’amplitude aura donc tendance `a s’accroˆıtre
3.5 Crit`ere de stabilit´e
59
lorsqu’elle est amoindrie par la perturbation. Ainsi le point hypoth´etique aura tendance ` a revenir ´egalement au point de croisement. Le point de croisement est donc bien stable dans ce cas de figure.
ω
A
1 −K
Fig. 3.18. Illustration d’une pr´evision de la pr´esence d’un cycle limite stable.
3.5.2 Cycle limite instable La pr´evision d’un cycle limite instable a lieu lorsque le croisement entre le gain ´equivalent, param´etr´e par l’amplitude A, croise la r´eponse harmonique, param´etr´ee par ω, selon la figure 3.19. De mani`ere similaire au cas de la stabilit´e de la section 3.5.1, le comportement r´esulte de l’interpr´etation apr`es une l´eg`ere perturbation. La figure repr´esente le cas o` u, apr`es augmentation de l’amplitude par perturbation, le point de stabilit´e devient instable. Ceci refl`ete une tendance ` a ce que l’amplitude augmente d’avantage. Le cycle ne peut donc pas se maintenir. Afin d’illustrer les consid´erations ci-dessus, nous revenons `a l’exemple des figure 3.14 et 3.15. La fonction de transfert G(s) admet la r´ealisation en repr´esentation d’´etat suivante x˙ 1 = x2 x˙ 2 = x3 x˙ 3 = −2x3 − 3x2 − 9x1 + u y = x2 − x1
60
3 M´ethode du premier harmonique
ω
1 −K
A
Fig. 3.19. Illustration d’une pr´evision de la pr´esence d’un cycle limite instable.
Deux conditions initiales diff´erentes, sont choisies, `a savoir x10,a = x1 (0) = 2 et x10,b = x1 (0) = 3, x2 (0) = −2 et x3 (0) = 0 pour les deux choix de conditions initiales. La premi`ere simulation consiste `a simplement boucl´e l’entr´ee sur la sortie avec un gain unit´e, c.-`a-d. u = −y. Le r´esultat est report´e `a gauche dans la figure 3.20. L’amplitude d´epend des conditions initiales.
Resultats
Resultats
5
5
0
0
-5
-5
0
10
20
0
10
20
Fig. 3.20. Illustration de l’effet des conditions initiales lorsque l’oscillateur est cr´ee avec une r´etroaction lin´eaire (figure de gauche, gain unit´e) et lorsque le gain est produit par une zone morte (figure de droite, k = 4.2 et δ = 0.9). Le syst`eme en boucle ouverte est le mˆeme que celui des figure 3.14 et 3.15.
A droite de la figure est repr´esent´e le r´esulta lorsque une zone morte remplace le gain unit´e, avec k = 4.2 et δ = 0.9. On constate que l’amplitude de l’oscillation ne d´epend pas des conditions initiales.
3.7 Oscillateur de Van der Pol revisit´e
61
Par cons´equent, lorsque la non-lin´earit´e est une zone morte, l’oscillation correspond ` a un point de stabilit´e. Pour le v´erifier, appliquons le crit`ere de stabilit´e en utilisant la r´eponse harmonique G(jω) et le gain ´equivalent −1/N (A) de la zone morte. G(jω) coupe l’axe r´eel n´egatif lorsque ω = 2. exactement au point −1. On calcule ´egalement facilement que A = 1.39 pour les param`etres δ = 0.9 et k = 4.2. Cette valeur d’amplitude est l´eg`erement plus grande que la valeur d’amplitude constat´ee, mais le r´esultat donne une bonne estim´ee ´etant donn´e la nature approximative de la m´ethode.
3.6 Fiabilit´ e de l’analyse par le premier harmonique – amplitude et fr´equence pr´edites ne sont pas exactes – un cycle limite pr´evu ne se produit pas – un cycle limite existant n’est pas pr´edit
3.7 Oscillateur de Van der Pol revisit´ e Bien que sous l’hypoth`ese passe bas de la partie lin´eaire, la m´ethode du premier harmonique s’applique `a la contre-r´eaction par un ´el´ement non-linaire statique, cette m´ethode permet ´egalement de traiter d’autres types de nonlin´earit´e. Dans cette section, nous reprenons l’oscillateur de Van der Pol et nous allons voir, dans quelle mesure, la m´ethode de ce chapitre s’applique. La premi`ere chose essentielle est de constater que l’oscillateur oscille `a une fr´equence fondamentale. C’est une constation, certes, triviale, mais c’est la cl´e de l’application correcte de la m´ethode du premier harmonique dans ce contexte. A partir de l’oscillation fondamentale (pulsation et amplitude), il est possible d’approximer celle-ci par une onde sinuso¨ıdale unique. En passant en variable complexe, le d´ephasage correspond au rapport entre partie r´eelle et imaginaire. En partant de l’´equation de l’oscillateur, x ¨ + ǫ(x2 − 1)x˙ + x = 0 il est possible d’isoler les termes lin´eaires de ceux non lin´eaires. C’est une proc´edure similaire ` a ce qui est entrepris lors de la pr´esence d’une non-lin´earit´e statique. x¨ − ǫx˙ + x = −ǫx2 x. ˙
(3.32)
62
3 M´ethode du premier harmonique
Ainsi le terme non lin´eaire est isol´e au membre de droite et il constitue alors le bloc non lin´eaire : u(t) = −x2 x. ˙ Toutefois, ce terme ne peut pas ˆetre transform´e par un bloc `a une seule sortie et une seule sortie statique. En effet, bien que statique, la pr´esence de plusieurs entr´ees (x et x) ˙ pour une seule sortie (u) n’est pas exactement similaire ` a ce qui ` a ´et´e vu pr´ec´edemment. N´eanmoins, l’oscillation ` a la sortie du montage (x(t)) est assum´ee contenir que la fondamentale (une sinuso¨ıde de premi`ere harmonique). Par cons´equent, les deux signaux d’entr´ee de la non-lin´earit´e sont en fin de comptes param´etr´es par la phase et le rapport d’amplitude des signaux d’entr´ee. Il est donc possible de repr´esent´e la non-lin´earit´e par son effet d’amplification et de d´ephasage de la sortie par rapport ` a l’effet combin´e des deux entr´ees. Il est alors naturel d’introduire un nombre complexe constituant le gain multivariable ´equivalent de mani`ere similaire au cas mono-entr´ee mono-sortie trait´e pr´ec´edemment. En utilisant la tranform´ee de Laplace sur la partie lin´eaire des ´equations (3.32), nous obtenons (s2 − ǫs + 1)X(s) = ǫU (s). Comme seule la fondamentale est consid´er´ee x(t¯) = Asin(ω t¯ + φ). A cause du d´ephasage, nous changeons la variable temporelle pour s’en d´ebarasser t¯ → t ω t¯ + φ = ωt.
x(t) = A sin ωt x(t) ˙ = Aω cos ωt En examinant l’effet de la non-lin´earit´e sur le premier harmonique
3.7 Oscillateur de Van der Pol revisit´e
63
−xx ˙ 2 = −(Aω cos(ωt))(A2 sin2 ωt) = −A3 ω cos(ωt) (1 − cos2 (ωt)) 1 = −A3 ω cos(ωt) (1 − cos(2 ωt)) 2 31 = −A ω(cos(ωt) − cos(ωt) cos(2ωt)) 2 1 31 = −A ω(cos(ωt) − (cos(ωt) + cos(3ωt))) 2 2 1 = −A2 (Aω cos(ωt) − Aω cos(3ωt)) 4 u≡
A3 A2 d ω cos ωt = (−A sin ωt) 4 4 dt
De la pr´ec´edente expression d´ecoule le gain ´equivalent N (A, ω) =
A2 jω 4
L’oscillateur de van der Pol peut donc ˆetre approxim´e par la mise en contre-r´eaction n´egative de l’´el´ement approximant ci-dessus avec le syst`eme lin´eaire α s2 − αs + 1, qui peut ˆetre interpr´et´e comme un un filtre passe-bas. Une approximation des param`etres de l’oscillation est obtenue en cherchant les solutions de 1 + G(jω)N (A, ω) = 0 On trouve ais´ement A=2 ω=1
4 Stabilit´ e au sens de Lyapunov
Le chapitre pr´ec´edent a fait appel `a la notion de la stabilit´e, sans pour autant en donner une d´efinition formelle et des r´esultats rigoureux relatifs `a cette question. En effet, la stabilit´e de cycle limite, bien que pr´esent´ee `a l’aide du concept de stabilit´e BIBO issue de l’interpr´etation fr´equentielle donn´ee par le crit`ere de Nyquist, et ´etendue aux cycles limites par une m´ethode approximative, demeure une notion intuitive d´epourvue d’une axiomatique pr´ecise. La stabilit´e y ´etait consid´er´ee comme la capacit´e du cycle limite de se maintenir mˆeme apr`es perturbation de celui-ci. Ce type de stabilit´e sera appel´e asymptotique. Le pr´esent chapitre donne les nuances entre les types de stabilit´e ainsi qu’un traitement approfondi du concept, et des r´esultats relatifs. Il ne s’occupera que de l’analyse d’un point d’´equilibre. Les concepts pourront alors ˆetre ´etendus `a la notion de cycle limite sans trop de difficult´e.
4.1 Point d’´ equilibre Soit donc un syst`eme, x˙ = f (x) et un point d’´equilibre x de telle sorte que,
x˙ = 0 = f (x).
4.2 Rappel de la notion de stabilit´ e pour les syst` emes lin´ eaires Consid´erons un syst`eme lin´eaire avec entr´ee x˙ = Ax + Bu suivi d’un bouclage u = −Kx : de telle sorte que le syst`eme en boucle ferm´ee s’´ecrive
66
4 Stabilit´e au sens de Lyapunov
˜ x˙ = (A − BK)x = Ax
(4.1)
Ce syst`eme poss`ede un point d’´equilibre unique, `a condition que la matrice A˜ ne sois pas singuli`ere, auquel cas l’´equilibre est x = 0. Lorsque toutes les valeurs propres de la matrice A˜ sont `a parties r´eelles ˜ < 0) alors le syst`eme (4.1) est asympstrictement n´egative (c.-` a-d. Re λ(A) totiquement stable. Remarque 4.1. La caract´erisation de la stabilit´e par les valeurs propres, bien que tout ` a fait satisfaisante en lin´eaire, ´etant donn´e sa connexion `a d’autres types de stabilit´e dans ce contexte, notamment la stabilit´e entr´ee-sortie BIBO (c.-` a-d. ` a une entr´ee born´ee, la sortie doit demeurer born´ee), elle n’est pas du tout adapt´ee au contexte non lin´eaire, principalement `a cause de l’impossibilit´e de trouver un ´equivalent universel du concept de valeur propre associ´e au syst`eme dynamique x˙ = f (x). En cons´equence, il faut remonter aux sources du concept de stabilit´e afin de trouver une d´efinition ad´equate.
4.3 Notion intuitive de la stabilit´ e D´ efinition 4.2. Si le syst`eme est initialement ”l´eg`erement” perturb´e de son point d’´equilibre le syst`eme reste ”proche” de ce point d’´equilibre.
stable
instable
Fig. 4.1. Illustration de la d´efinition intuitive de la stabilit´e.
4.4 D´ efinition math´ ematique pr´ ecise de la stabilit´ e 4.4.1 Notion de distance Il faut rendre pr´ecis ”proche” et ”l´eg`erement” Un espace vectoriel V est dit norm´e lorsqu’il existe une fonction x → kxk de V dans R avec les propri´et´es suivantes :
4.4 D´efinition math´ematique pr´ecise de la stabilit´e
67
1. kxk ≥ 0, ∀x ∈ V ; et kxk = 0 seulement lorsque x = 0. 2. kcxk =| c | kxk, ∀c ∈ R et ∀x ∈ V.
3. kx + yk ≤ kxk + kyk, ∀x, y ∈ V.
4.4.2 Stabilit´ e : d´ efinition formelle D´ efinition 4.3. Un syst`eme est stable au sens de Lyapunov, si ∀R > 0, ∃r > 0 tel que kx0 k < r implique kx(t)k < R. Cette d´efinition signifie que, quelle que soit la boule d’exigence de taille R, il est toujours possible de choisir une certaine sous-boule de taille r telle que, pour toutes les conditions initiales comprises dans cette sous-boule, les trajectoires r´esultantes seront, en tout temps, comprises dans la boule d’exigence de taille R. Lorsque le syst`eme est stable, il est toujours possible de trouver une telle sous-boule, mˆeme lorsque le rayon R de la boule d’exigence est diminu´e de mani`ere ` a le rendre arbitrairement petit, augmentant ainsi les contraintes sur les conditions initiales.
(i)
(ii)
(iii)
Fig. 4.2. Illustration de la d´efinition formelle de la stabilit´e. (i) Pour tout choix de la boule d’exigence kxk < R, il doit ˆetre possible de construire (ii) une sous boule de conditions initiales kx0 k < r, telle que (iii) pour toute condition initiale appartenant ` a cette sous boule, la trajectoire r´esultante reste emprisonn´ee dans la grande boule de taille R.
Ceci corrobore la d´efinition intuitive de la stabilit´e. En effet, en consid´erant la bille captive dans un bol, une hauteur de r´ef´erence arbitraire de la bille peut ˆetre consid´er´ee comme ´etant une mesure de la boule d’exigence R. Maintenant, s’il existe toujours une certaine hauteur suffisamment petite (correspondant `a r), de telle sorte que, si la bille est lach´ee `a n’importe quelle hauteur comprise dans l’interval d´efini par cette hauteur (associ´ee `a r), elle ne pourra jamais d´epasser la hauteur d’exigence de r´ef´erence (associ´ee `a R), alors la bille sera stable au sens de Lyapunov. Ceci ne signifie pas pour autant que la bille revienne asymptotiquement `a son point d’´equilibre.
68
4 Stabilit´e au sens de Lyapunov
Ainsi, la bille est stable dans le cas d’un bol concave et instable lorsque le bol est convexe.
Fig. 4.3. Lorsque le syst`eme est instable (` a gauche), quel que soit le choix de la boule de conditions intiales de rayon r, certaines trajectoires r´esultantes ressortent toujours de la boule d’exigence de rayon R. Ceci n’est pas le cas pour le syst`eme stable (` a droite).
Fig. 4.4. Lorsque l’axe du temps est utilis´e pour repr´esenter les solutions de l’´equation diff´erentielle x˙ = f (x), la boule d’exigence devient un cylindre. On constate alors clairement que lors de l’instabilit´e, il n’est pas possible de confiner toutes les trajectoires ` a l’int´erieur du cylindre pour toute boule de conditions initiales ` a l’int´erieur de celui-ci.
Les figures 4.3 et 4.4 repr´esentent les trajectoires du syst`eme x˙ 1 = 4x2 + 0.2x1 x˙ 2 = −6 sin(x1 ) + b(0.9 − cos(6t)) Lorsque b = −0.4, le syst`eme est stable. La condition initiale est choisie en x1 (0) = x2 (0) = 0.5 et le temps d’arrˆet de la simulation est fix´e `a T = 10 (` a droite dans les figures 4.3 et 4.4). Lorsque b = 0.1, le syst`eme est instable. Les conditions initiales sont choisies arbitrairement, par exemple x1 (0) = x2 (0) = 0.2, et le temps d’arrˆet de la simulation est fix´e T = 9 (` a gauche dans les figures 4.3 et 4.4).
4.4 D´efinition math´ematique pr´ecise de la stabilit´e
69
L’instabilit´e est d´efinie d`es lors que la stabilit´e n’a pas lieu. D´ efinition 4.4. Un syst`eme est instable au sens de Lyapunov lorsque il n’est pas stable au sens de la d´efinition 4.3. Ceci semble ˆetre une tautologie. Cependant l’importance de cette d´efinition provient du fait que l’instabilit´e ne signifie pas n´ecessairement une forme d’explosion ou de divergence `a l’infini. En effet, il existe des syst`emes qui convergent asymptotiquement vers un point d’´equilibre quelles que soient les conditions initiales, sans pour autant que ces syst`emes puissent ˆetre consid´er´es comme stables. Ceci provient du fait qu’il est impossible de dominer le comportement transitoire des trajectoires r´esultantes, mˆeme en rapprochant les conditions initiales de l’origine. Les excursions des trajectoires sont toujours born´ees inf´erieurement par une boule de taille fixe, t´emoignant ainsi de l’instabilit´e au sens du non respect de la d´efinition 4.3. L’exemple suivant illustre le ph´enom`ene.
0.8
0.6
0.4
0.2
0.1
0.2
0.3
0.4
0.5
0.6
0.7
Fig. 4.5. Exemple d’un syst`eme convergent mais instable.
Exemple 4.5. Soit le syst`eme planaire, x21 (x2 − x1 ) + x52 (x21 + x22 )[1 + (x21 + x22 )2 ] x22 (x2 − 2x1 ) x˙ 2 = 2 . (x1 + x22 )[1 + (x21 + x22 )2 ]
x˙ 1 =
Plusieurs solutions pour diff´erentes conditions initiales sont repr´esent´ees ` la figure 4.5. Les trajectoires, bien que commen¸cant pr`es de l’origine, s’en a ´ecartent pour finir par y revenir le long de l’axe horizontal. Il s’agit donc bien d’une convergence asymptotique. Cependant, le syst`eme est instable ´etant
70
4 Stabilit´e au sens de Lyapunov
donn´e que les trajectoires ne peuvent pas ˆetre contraintes `a demeurer dans une boule de taille suffisamment petite, quel que soit la proximit´e des conditions initiales de l’origine. 4.4.3 Illustration
sans frottement
avec frottement
Fig. 4.6. Deux cas pour lesquels la bille est stable.
4.4.4 Stabilit´ e asymptotique La stabilit´e asymptotique exige l’existence d’une voisinage de l’´equilibre tel que toute trajectoire ayant pour condition initiale un point de ce voisinage converge vers le point d’´equilibre. En somme, on aimerait que le syst`eme revienne et s’arrˆete au point d’´equilibre lorsqu’il en est l´eg`erement perturb´e. D´ efinition 4.6. Le point d’´equilibre x ¯ = 0 de x˙ = f (x) est asymptotiquement stable a ` condition 1. qu’il soit stable au sens de Lyapunov 2. qu’il existe une boule de de condition initiales kx0 k < r0 telles que les solutions r´esultantes soient telles que x(t) → 0 lorsque t → ∞. 4.4.5 D´ esavantages de la d´ efinition La d´efinition de stabilit´e pr´esente certains d´esavantages importants : – Il est n´ecessaire de pouvoir calculer de mani`ere explicite chaque solution correspondant ` a chacune des conditions initiales. – Le maniement de la d´efinition est fastidieux. Par cons´equent, des r´esultats permettant de d´eterminer la stabilit´e sans devoir int´egrer les ´equations dynamiques seraient les bienvenus.
4.5 M´ethode directe de Lyapunov
71
∃r0
Fig. 4.7. Condition pour la stabilit´e asymptotique.
4.5 M´ ethode directe de Lyapunov Lorsque la bille est examin´ee selon un point de vue diff´erent, on constate que le comportement stable ou instable de celle-ci est reli´e `a la fois `a la caract´eristique et ` a l’´evolution de sa fonction d’´energie. La pr´esence d’un maximum ou minimum d’´energie potentielle poss`ede une influence critique. De plus, la pr´esence de frottement est responsable de la d´ecroissance de l’´energie compl`ete (cin´etique et potentielle) et influence donc la stabilit´e. La bille poss`ede donc une fonction d’´energie E qui comporte une part d’´energie potentielle Ep et une part d’´energie cin´etique Ec . On a E = Ec + Ep . – Le comportement est stable lorsque : – L’´energie E diminue et est minimum au point d’´equilibre. – L’´energie E est conserv´ee et E est minimum `a l’´equilibre – Par contre, le comportement est instable lorsque : – L’´energie E augmente. – L’´energie E est conserv´ee mais elle ne correspond pas `a un minimum a l’´equilibre. ` La th´eorie de Lyapunov et en particulier la deuxi`eme m´ethode de Lyapunov (dite aussi m´ethode directe) g´en´eralise cette constatation `a une classe plus large de fonctions. Ces fonctions sont not´ees V . 4.5.1 Candidat de Lyapunov La fonction d’´energie poss`ede deux propri´et´es essentielles. La premi`ere est la qualit´e d’extremum au point d’´equilibre, `a savoir s’il s’agit d’un maximum ou d’un minimum. Le point d’´equilibre `a tendance `a ˆetre stable lorsque cet extremum est un minimum. Le candidat Lyapunov est une fonction qui pr´esente ce type de particularit´e. Afin de forcer la pr´esence d’un minimum au point d’´equilibre, la fonction sera contrainte `a ˆetre positive pour toute valeur diff´erente de l’origine. Elle ne pourra s’annuler qu’`a l’origine.
72
4 Stabilit´e au sens de Lyapunov
D´ efinition 4.7. (Fonction d´efinie positive) Une fonction d´efinie positive est une fonction f (x) : RN → R telle que f (x) > 0, ∀x 6= 0 et f (x) = 0 lorsque x = 0. De plus, cette fonction sera continue. On aboutit donc `a la d´efinition du candidat de Lyapunov. D´ efinition 4.8. (Candidat de Lyapunov) Une fonction d´efinie positive continue, not´ee V (x), est un candidat de Lyapunov. 4.5.2 Fonction de Lyapunov La deuxi`eme particularit´e de la fonction d’´energie lors de la pr´esence d’un syst`eme stable, est d’avoir tendance `a diminuer ou d’ˆetre conserv´e lors de l’´evolution du syst`eme. En cons´equence, on exigera en plus du candidat de Lyapunov que la d´eriv´ee de celui-ci soit n´egative. La d´eriv´ee s’´ecrit, T ∂V f (x) V˙ (x) = ∂x Remarque 4.9. La notation V˙ (x) est utilis´ee. Toutefois, ceci n’est pas tr`es rigoureux. Nous verrons dans le chapitre 7, qu’il est possible de d´efinir le concept de d´eriv´ee temporelle projet´ee le long du syst`eme qui sera appel´ee d´eriv´ee de Lie et not´ee Lf V (x). Par cons´equent, la notation Lf V (x) est plus pr´ecise que V˙ (x). Lorsque ceci ne prˆete pas `a confusion, la notation V˙ (x) sera pr´ef´er´ee dans ce chapitre, de part le caract`ere simple et suggestif de cette notation. D´ efinition 4.10. (Fonction de Lyapunov) Une fonction de Lyapunov est un candidat de Lyapunov, a ` savoir une fonction continue V (x) telle que V (x) > 0
∀x 6= 0,
V (x) = 0
x = 0,
∀x 6= 0,
V˙ (x) = 0
x = 0.
ayant en plus la propri´et´e V˙ (x) ≤ 0
Le th´eor`eme de stabilit´e fondamental de la th´eorie de Lyapunov peut maintenant ˆetre ´enonc´e. Th´ eor` eme 4.11. (Seconde m´ethode de Lyapunov, dite aussi m´ethode directe) Si une fonction de Lyapunov existe pour un syst`eme donn´e alors ce syst`eme est stable. Si la fonction de Lyapunov est strictement d´ecroissante, c’est-` a-dire que V˙ (x) < 0, ∀x 6= 0, alors la stabilit´e est en plus asymptotique.
4.6 Exemple : robot
73
4.6 Exemple : robot Un exemple simple illustrera l’avantage de la fonction de Lyapunov sur le simple concept d’´energie. Il s’agit d’un robot ayant un nombre arbitraire n mais fini de degr´es de libert´e. Chacun des degr´es de libert´e est associ´e un actuateur responsable d’un mouvement le long de la coordonn´ee correspondante. Une repr´esentation possible est donn´ee `a la figure 4.8.
q2 τ 2
τ1
q1
Fig. 4.8. Robot planaire comportant un actuateur ind´ependant pour chacune des coordonn´ees.
4.6.1 Loi de commande Pour beaucoup de syst`emes de la th´eorie de la commande lin´eaire, les lois de type proportionelle (P), proportionelle et d´eriv´ee (PD), et prportionnelle et d´eriv´ee avec terme int´egral (PID) suffissent pour un tr`es grand nombre d’application. C’est pourquoi nous prendrons, comme choix initial de loi de commande, une loi de type proportionnelle-d´eriv´ee (PD) de la forme : τ = −Kd q˙ − Kp (q − q).
(4.2)
Il s’agit maintenant de justifier ce choix `a l’aide des techniques de Lyapunov. 4.6.2 Lois de la m´ ecanique Afin d’obtenir un mod`ele suffisant pour ´etablir la preuve de stabilit´e de la loi de commande envisag´ee, nous appliquerons le simple bilan des puissances. L’ ´energie cin´etique peut s’exprimer comme
74
4 Stabilit´e au sens de Lyapunov
Ec =
1 T q˙ M (q)q. ˙ 2
Le bilan de puissance s’´ecrit d Ec = P dt d 1/2 q˙T M (q)q˙ = q˙T τ. dt 4.6.3 Candidat Lyapunov La souplesse du candidat de Lyapunov permet d’envisager des expressions qui a priori n’ont pas une expression physique sp´eciale. Par exemple, nous envisagerons une modification de la fonction d’´energie cin´etique faisant intervenir un terme aditionel qui n’a pas d’interpr´etation physique imm´ediate, puisqu’il ne correspond pas au robot en tant que tel : 1 1 V = (q − q)T Kp (q − q) + q˙T M (q)q. ˙ (4.3) 2 2 On constate bien que cette fonction est d´efinie positive au sens o` u V (q) > 0, ∀q 6= q et V (q) = 0. 4.6.4 Fonction de Lyapunov Afin de v´erifier que le candidat de Lyapunov est bien une fonction de Lyapunov, il est n´ecessaire de tester la d´ecroissance de cette fonction. V˙ = q˙T Kp (q − q) + q˙T τ En introduisant la loi de commande (4.2), V˙ = q˙T Kp (q − q) + q˙T (−Kd q˙ − Kp (q − q)) = −q˙T Kp q˙ ≤ 0,
et le robot est donc bien rendu stable par l’adjonction de la loi de commande de type PD. En effet les deux conditions sur la fonction de Lyapunov sont satisfaitent. V > 0 ∀x 6= 0 provient de la structure de la fonction de Lyapunov (4.3) Remarque 4.12. L’aspect abstrait de la fonction de Lyapunov (abstrait au sens que cette fonction est une notion purement math´ematique et non physique), peut maintenant ˆetre exploit´ee en revenant en arri`ere dans l’interpr´etation de cette fonction. En examinant la structure de l’´equation (4.3), on constate que le terme que l’on a ajout´e poss`ede la structure d’´energie potentielle ´elastique, bien qu’il n’y a pas de pr´esence de ressort physiquement dans le syst`eme. C’est la loi de r´etroaction qui agit comme si, au lieu d’appliquer une loi de commande, le syst`eme ´etait muni de ressorts responsables de la g´en´eration d’une force proportionnelle lorsque le robot quitte son point d’´equilibre.
4.7 Th´eor`eme de stabilit´e locale
75
4.7 Th´ eor` eme de stabilit´ e locale Le premier r´esultat en relation avec la fonction de Lyapunov est le r´esultat de stabilit´e locale autour du point d’´equilibre. Nous ´enon¸cons le th´eor`eme avec pr´ecision : Th´ eor` eme 4.13. ∃ BR0 telle que – V (x) > 0 (∀x 6= 0 dans BR0 ) et V (0) = 0 – ddt V (x) ≤ 0 (dans BR0 ) alors le point d’´equilibre x = 0 est stable. Si en plus, alors il y pr´esence d’une stabilit´ e asymptotique
d dt V
(x) < 0 ∀x 6= 0,
Nous allons ´egalement proc´eder `a sa d´emonstration. L’objectif est de connecter les concepts contenus dans ce th´eor`eme avec la d´efintion relativement difficile ` a manier examin´ee au d´ebut de ce chapitre (d´efinition 4.3). 4.7.1 Preuve (stabilit´ e locale) Tout au long de la d´emonstration, la distinction entre sph`ere et boule sera effectu´ee. Une sph`ere est la partie la plus `a l’ext´erieur d’une boule pleine (en quelque sorte ceci correspond `a l’´ecorce d’´epaisseur infinit´esimale d’une orange) et la boule est la boule pleine prise dans son ensemble (l’orange enti`ere). La d´efinition suivante pr´ecise ces deux notions au niveau math´ematique : D´ efinition 4.14. Une sph`ere de rayon r est not´ee Sr et une boule de mˆeme rayon est not´ee Br , et sont d´efinies par Sr = {x | kxk = r} Br = {x | kxk ≤ r}.
S
B
Fig. 4.9. Diff´erence entre sph`ere S et boule B
La proposition ` a d´emontrer consiste `a v´erifier que quel que soit la grande boule d’exigence ∀BR , il est toujours possible de trouver une sous-boule de conditions initales ∃Br tel que si le syst`eme commence `a l’int´erieur de cette
76
4 Stabilit´e au sens de Lyapunov
x(t)
BR
Br
Fig. 4.10. Trajectoire dans le cas d’un syst`eme stable.
sous-boule, x0 ∈ Br , alors x(t) ∈ BR . La trajectoire doit rester comprise dans la boule de grand rayon comme l’illustre la figure 4.10 Pour d´ebuter la d´emonstration, un rayon R est choisi de mani`ere quelconque. On examine alors la fonction de Lyapunov V (x) sur la sph`ere de rayon R et on d´efinit son minimum m sur cette sph`ere SR . m = min V (x). x∈SR
SR
V =m
Br
Fig. 4.11. m repr´esente le minimum de V (x) lorsque x parcourt la sph`ere SR .
Etant donn´e que V (x) est une fonction de Lyapunov, elle poss`ede la propri´et´e d’ˆetre continue et de s’annuler `a l’origine. Par cons´equent, il existe un rayon r, suffisamment petit, pour lequel, quel que soit x compris dans la boule Br , la fonction de Lyapunov V (x) (vue comme simple fonction du point x consid´er´e) demeure inf´erieure `a m. En d’autres termes, en se rapprochant de l’origine, il est toujours possible de trouver une petite r´egion telle que, la valeur de la fonction soit tr`es petite, et donc plus petite que la valeur m. En effet, la fonction de Lyapunov ne peut pas changer de mani`ere brutale, en se d´epla¸cant de la sorte, parce que la fonction de Lyapunov est continue. La petitesse de V provient alors de son annulation `a l’´equilibre. Afin de satisfaire ces deux contraintes, la valeur maximum de V , dans une r´egion donn´ee comprenant le point d’´equilibre, d´ecroit n´ecessairement de plus en plus, au fur et `a
4.7 Th´eor`eme de stabilit´e locale
77
mesure que cette r´egion se r´etr´ecit. Une coupe verticale illustre le ph´enom`ene a la figure 4.12. ` V (x) SR
m
0 Br Fig. 4.12. Coupe verticale de la cons´equence de la continuit´e de la fonction de Lyapunov et de son annulation au point d’´equilibre.
La stabilit´e d´ecoule alors de mani`ere tr`es naturelle, ´etant donn´e que la d V (x) ≤ 0, implique condition de d´ecroissance de la fonction de Lyapunov, dt que V (x(t)) < m, puisque son maximum dans la boule BR est celui sur la sph`ere SR et donc correspond `a m. La trajectoire ne peut donc pas traverser SR . Elle demeure dans la boule BR , pour les conditions initiales ∀x0 ∈ Br . La stabilit´e est donc bien d´emontr´ee. 4.7.2 Preuve de stabilit´ e locale asymptotique La stabilit´e asymptotique est plus difficile `a ´etablir. La fonction de Lyapunov est suppos´ee strictement d´ecroissante, c’est-`a-dire que V˙ (x) < 0, ∀x 6= 0 et V˙ (0) = 0. Comme V ≥ 0 et V d´ecroit, la fonction de Lyapunov tend vers une limite L qui est sup´erieure ou ´egale ` a z´ero (V → L, L ≥ 0). Deux cas seront envisag´es, (a) L = 0 et (b) L > 0. (a) Si L = 0 alors x(t) doit n´ecessairement converger vers z´ero. Ceci provient du fait que la fonction de Lyapunov s’annule seulement `a l’origine. La stabilit´e asymptotique est dans ce cas d´emontr´ee. (b) L > 0 Comme V (0) = 0 et V est continue, il est possible de trouver une petite boule Br0 telle que, pour tout point compris `a l’int´erieure de celle-ci, V est inf´erieur ` a L (se r´ef´erer ` a l’explication donn´ee dans le cas de la stabilit´e, avec m au lieu de L). Ceci est repr´esent´e `a la figure 4.13. Consid´erons W = BR \ Br0 . Ceci revient `a enlever un noyau de taille r0 de la boule de taille R. Cette r´egion est repr´esent´ee en vert `a la figure 4.14. L’hypoth`ese que V → L implique que la trajectoire reste `a l’int´erieur de cette r´egion.
78
4 Stabilit´e au sens de Lyapunov V
L x Br0 a L. Fig. 4.13. Pour tout point dans Br0 , V est garantit inf´erieur `
ˇ V =L
W
d V dt
= −L1
Fig. 4.14. Une boule de taille r0 est extraite de la boule de taille R. On y d´efninit ˇ et la d´ecroissance la plus lente de V . le minimum de V = L
¯ il est ´evident que 0 6∈ W ¯ et que W ¯ est En se restreignant ` a la fermuture W, un compact (ensemble ferm´e et born´e). De part la compacit´e, il doit exister ˇ un minimum de V not´e L, ˇ = min V (x), L ¯ x∈W
ˇ < L), (0 < L
¯ De plus, V < 0 pour tout point de W et de atteind en un point de W. ¯ W. Par cons´equent une d´ecroissance minimum de V est atteinte en un point ¯ i.e. particulier de W, d L1 = min − V (x) . ¯ dt x∈W En proc´edant ` a quelques calculs, on obtient Z t V˙ (x(t))dt = V (x(t)) − V (x(0)) 0
V (x(t)) =
Z
t
V˙ (x(t))dt + V (x(0))
0
Il est maintenant possible de borner l’´evolution de V en se pla¸cant dans le sc´enario le plus d´efavorable, c’est-`a-dire en supposant qu’en chaque instant la Rt d V > L1 . Par , 0 V˙ (x(t))dt < −L1 t et d´ecroissance soit minimum : − dt
4.9 Stabilit´e globale
79
V (x(t)) < V (x(0)) − L1 t. ˇ Mais ceci contredit le fait Il existe donc un instant fini t1 tel que V (x(t1 )) < L. que la trajectoire reste dans W par hypoth`ese, impliquant ainsi n´ecessairement que L = 0. La stabilit´e asymptotique d´ecoule d`es lors du cas (a).
4.8 Stabilit´ e exponentielle Nous connaissons la stabilit´e asymptotique : x(t) → 0 lorsque t → ∞ Cependant on veut garantir plus : D´ efinition 4.15. x = 0 est un point d’´equilibre localement exponentiellement stable si ∃α > 0 et ∃λ > 0, ∃r > 0 tel que, ∀t > 0,
kx(t)k ≤ αkx(0)ke−λt ,
∀x ∈ Br .
4.8.1 Exemple : Dynamique des populations
4.9 Stabilit´ e globale Pour l’instant, nous avons exclusivement trait´e de propri´et´es locales, dans le sens que la conclusion du th´eor`eme de Lyapunov ne conclut que la stabilit´e en relation avec des conditions initiales comprises dans un voisinage du point. Par cons´equent, le simple fait que V soit d´efini positif et que V˙ soit n´egatif dans tout l’ensemble d’´etat, ne garantit pas n´ecessairement que le syst`eme soit globalement stable. En d’autres termes, la stabilit´e locale signifie la stabilit´e pour ∀x0 ∈ BR0 et la stabilit´e globale celle pour ∀x0 ∈ Rn . La question est de savoir s’il suffit de remplacer BR0 par Rn et de v´erifier les hypoth`eses du th´eor`eme de Lyapunov afin de conclure sur la stabilit´e globale du syst`eme. La r´eponse est non comme va l’illustrer l’exemple suivant :
x˙ 1 = 2x1 x˙ 2 = −x2 dont un candidat de Lyapunov est, V =
x21 + x22 . 1 + x21
Les courbes de niveau de cette fonction de Lyapunov sont repr´esent´ees `a la figure 4.15. Pour autant que V est inf´erieure `a l’unit´e les courbe de niveau sont ferm´ees et encerclent une r´egion compacte. D`es que la valeur d´epasse 1,
80
4 Stabilit´e au sens de Lyapunov 1.5
1
V = 1.4
0.5
V = 1.1
V = 0.9 -5
-10
5
10
-0.5
-1
-1.5 Fig. 4.15. Courbe de niveau de la fonction de Lyapunov V =
.
x2 1 1+x2 1
+ x22
les courbes de niveau ne croisent plus l’axe horizontal et ne sont donc plus ferm´ees. Les solutions explicites du syst`eme sont, x1 (t) = x10 e2t x2 (t) = x20 e−t . Apr`es elimination du temps, √ −1 x2 = x20 x10 x1 2 . En prenant une condition intiale particuli`ere, √ −1 x2 = x20 x10 x1 2 x10 = 1.5 √ x20 = 2/ 1.5 ≈ 1.633, on obtient une trajectoire rouge qui est repr´esent´ee en surimpression sur les courbes de niveau pr´ec´edemment obtenues (figure 4.16). En outre, la courbe repr´esent´ee continue ind´efiniment sur la droite sans jamais sortir du premier quadrant ! Le syst`eme glisse donc vers l’infini bien que la valeur de la fonction de Lyapunov diminue `a chaque instant. Elle diminue et tend asymptotiquemen vers un, mais sans jamais y parvenir. Le probl`eme provient du fait que V = cte n’est pas une courbe ferm´ee, c’est-` a-dire que la fonction V n’est pas radialement non born´ee. Par cons´equent il faut une condition suppl´ementaire, Th´ eor` eme 4.16. Pour que l’on puisse garantir que le th´eor`eme de Lyapunov concluse sur la stabilit´e globale d’un syst`eme, il faut d’une part que toutes
4.10 Fonction de Lyapunov pour les syst`emes lin´eaires
81
1.5
1
0.5
-5
-10
5
10
-0.5
-1
-1.5
Fig. 4.16. Une solution particuli`ere montre que V d´ecroit ` a chaque instant le long de cette solution.
les hypoth`eses de ce th´eor`eme soient satisfaites, mais il faut ´egalement que la condition de bornitude radiale existe, c’est-` a-dire que V (x) → ∞
lorsque
kxk → ∞.
Le th´eor`eme suivant r´ecapitule les conditions : Th´ eor` eme 4.17. S’il existe une fonction V telle que – V (x) > 0, ∀x 6= 0 et V (0) = 0 – kxk → ∞ ⇒ V (x) → ∞ d – dt V (x) < 0, ∀x 6= 0 alors x = 0 est globalement asymptototiquement stable.
4.10 Fonction de Lyapunov pour les syst` emes lin´ eaires La th´eorie de Lyapunov est une th´eorie tr`es g´en´erale s’appliquant aussi bien aux syst`emes non lin´eaires que lin´eaires. Il est int´eressant d’interpr´eter sa signification en termes de repr´esentation d’´etat des syst`emes lin´eaires. Th´ eor` eme 4.18. Soit x˙ = Ax tel que ∀λ, ℜe(λ) < 0 (syst`eme stable au sens strict) alors ∀Q > 0, ∃P > 0 tel que AT P + P A = −Q
(4.4)
Preuve. Comme toutes les valeurs propres de la matrice A sont stables, eAt est une fonction d´ecroissante telle que keAt k → 0, lorsque t → ∞. En choisissant Q > 0 (une matrice d´efinie positive) nous allons construire une matrice P satisfaisant l’´equation (4.4). Comme A et AT ont toutes les deux des valeurs propres ` a partie r´eelle strictement n´egative (matrices de Hurwitz),
82
4 Stabilit´e au sens de Lyapunov T
ketA QetA k ≤ ckQke2λt , pour tout t ≥ 0, o` u λ ≤ 0 est n’importe quel nombre r´eel tel que les valeurs propres de AT et A ont une partie r´eelle plus petite que λ. Ainsi, Z ∞ T etA QetA dt (4.5) P =− 0
est bien d´efinie. De plus, AT P + P A = − =−
Z
∞
0
Z
0
∞
T T AT etA QetA + etA QetA A dt T
d(etA QetA ) dt dt T
= Q − lim etA QetA t→∞
=Q Remarque 4.19. Le th´eor`eme pr´ec´edant permet de tester si une matrice est Hurwitz sans devoir calculer ses valeurs propres. Soit une matrice A r´eelle donn´ee. Fabriquons l’´equation AT X + XA = −I, et r´esolvons l`a pour une matrice sym´etrique X. Ceci est une ´equations lin´eaire et donc l’´elimination de Gauss doit aboutir `a un r´esultat. En testant alors les mineurs principaux de X on peut conclure sur la stabilit´e de A. Ils doivent tous ˆetre strictement positif pour que la matrice A soit Hurwitz.
4.11 Stabilit´ e locale et lin´ earisation Une approximation locale de la dynamique du syst`eme autour du point d’´equilibre permet, dans certains cas, de d´eduire la stabilit´e locale du syst`eme complet. Il s’agit de la m´ethode indirecte de Lyapunov. L’approximation au premier ordre du d´eveloppement en s´erie de Taylor de la dynamique est calcul´e, et seul le premier ordre du d´eveloppement est retenu. Lorsque la dynamique est donn´ee par un champ de vecteurs (cf. chapitre 7) f (x), une matrice est obtenue pour caract´eriser le premier ordre. Son expression est donn´ee par, ∂f . A= ∂x x=0
Cette matrice poss`ede des valeurs propres qui permettent de d´eduire la stabilit´e du syst`eme x˙ = Ax. La question est de savoir si elles peuvent ´egalement induire une conclusion sur la stabilit´e du syst`eme non lin´eaire x˙ = f (x).
4.11 Stabilit´e locale et lin´earisation
83
Le th´eor`eme suivant donne les r´esultats que l’on peut garantir. Seul le cas o` u toutes les valeurs propres ont une partie r´eelle n´egative ou nulle avec certaines d’entre elles ayant une partie strictement nulle, n’est pas conclusif. Seul les termes d’ordre sup´erieur peuvent nous renseigner sur la stabilit´e du syst`eme non lin´eaire. Par contre, pour tous les autres cas, le premier ordre est suffisant. Th´ eor` eme 4.20. Soit x˙ = f (x), et on pose A = ∂f ∂x avec 0
Λ = λ(A)
– ∀λ ∈ Λ, Re(λ) < 0 ⇒ x = 0 est asymptotiquement stable. – ∃λ ∈ Λ, Re(λ) > 0 ⇒ x = 0 est instable. – ∀λ ∈ Λ, Re(λ) ≤ 0 et ∃λ1 Re(λ1 ) = 0 on ne peut pas conclure. Montrons ∀λ ∈ Λ, Re(λ) < 0 ⇒ x = 0 est localement asymptotiquement stable. Preuve.
∂f x + g(x) = Ax + g(x) x˙ = f (x) = ∂x x=0
Ceci n’est qu’une r´e´ecriture de x˙ = f (x) en isolant le terme de d´ependance lin´eaire dans Ax et les termes d’ordre sup´erieur dans g(x). Comme les termes qui d´ependent de mani`ere lin´eaire de x sont isol´es dans Ax, kg(x)k d´ecroit plus vite que kxk : limx→0 kg(x)k kxk = 0. k g(x)k
γ3 kxk γ2 kxk γ1 kxk
r1
r2
r3
Fig. 4.17. Illustration de la dominance du terme lin´eaire Ax sur le terme non lin´eaire g(x).
Ceci signifie que pour tout γi > 0, il existe ri tel que pour tout x tel que kxk < ri ⇒ kg(x)k < γi kxk. Comme A est stable ∀Q > 0, ∃P > 0 AT P + P A = −Q
84
4 Stabilit´e au sens de Lyapunov
et donc en posant V = xT P x, avec x˙ = f (x) = Ax + g(x) V˙ = x˙ T P x + xT P x˙ = (Ax + g(x))T P x + xT P (Ax + g(x)) = xT (AT P + P A)x + g(x)T P x + xT P g(x) = −xT Qx + 2xT P g(x) De l’in´egalit´e du produit scalaire : kaT bk ≤ kakkbk on d´eduit V˙ ≤ −xT Qx + kxkkP kkg(x)k Comme limx→0 kg(x)k/kxk = 0, ∀γ > 0, ∃r, ∀x ≤ r ⇒ kg(x)k < γkxk. V˙ < −xT Qx + γkP kkxk2 Sachant que −xT Qx ≤ −λmin kxk2 on a donc V˙ < −(λmin − γkP k)kxk2 Il suffit de choisir γ suffisamment petit afin que (λmin − γkP k) > 0. Ainsi pour le r associ´e au γ choisi, V˙ < 0, ∀x, kxk < r. Par cons´equent, le syst`eme x˙ = f (x) est localement asymptotiquement stable. Les autres cas peuvent ˆetre ´egalement d´emontr´es. Nous renvoyons le lecteur aux r´ef´erences [Vid93], [Kha02] et les r´ef´erences s’y trouvant. 4.11.1 Inconv´ enients de la m´ ethode indirecte La m´ethode indirecte de Lyapunov poss`ede deux inconv´enients principaux. Le premier est le caract`ere local du r´esultat. La stabilit´e que l’on peut conclure n’est valable que dans un voisinage du point d’´equilibre. On ne peut pas garantir r tr`es grand. Le second inconv´enient est que la m´ethode est non conclusive lors de la pr´esence de valeur(s) propre(s) `a partie r´eelle nulle. Ces inconv´enient n’apparaissent pas dans la m´ethode directe de Lyapunov. Le prix a payer est ka d´etermination de la fonction compl´ementaire V (x) poss´edant ` les bonnes propri´et´es.
4.12 Stabilit´ e exponentielle La stabilit´e asymptotique garantit que le syst`eme converge vers le point d’´equilibre, lorsque le temps tend vers l’infini. Pourtant, nous avons aucun
4.13 Th´eor`eme d’invariance de LaSalle
85
moyen de quantifier la qualit´e de cette convergence, en particulier sa vitesse de convergence. Afin d’obtenir plus que la simple convergence asymptotique, il est possible d’introduire un concept plus exigeant que la simple stabilit´e asymptotique. Si l’´etat du syst`eme, lors de sa convergence, est compris dans une enveloppe qui d´ecrois de mani`ere exponentielle, la stabilit´e est qualifi´ee d’exponentielle. D´ efinition 4.21. x = 0 est un point d’´equilibre localement exponentiellement stable si ∃α > 0 ∃λ > 0, ∃r > 0, α, λ, r ∈ R tels que, ∀t > 0,
kx(t)k ≤ αkx(0)ke−λt ,
∀x ∈ Br .
4.13 Th´ eor` eme d’invariance de LaSalle Bien que certains syst`emes ont la caract´eristique d’avoir une fonction de Lyapunov d´ecroissante, mais pas pour autant strictement d´ecroissante, (c’esta-dire V˙ ≤ 0 au lieu de V˙ < 0, x 6= 0), ils sont n´eanmoins asymptotiquement ` stable. L’objet de cette section est de pr´esenter les conditions suppl´ementaires sur la fonction V et sa d´eriv´ee dans le temps pour garantir la stabilit´e asymptotique. De plus, l’outil qui sera pr´esent´e permet de traiter ´egalement la convergence vers un cycle limite. Nous verrons ´egalement que le caract`ere positif d´efini de V peut tr`es bien ˆetre relax´e. Le th´eor`eme ne donnera pas une preuve de stabilit´e au sens de Lyapunov, mais un crit`ere de convergence asymptotique ; ceci valant autant pour les points d’´equilibre que pour les cycles limites. 4.13.1 Ensemble invariant M Avant de pr´esenter le r´esultat `a proprement parler, le concept d’ensemble invariant est expos´e. Comme son nom l’indique, il s’agit avant tout d’un ensemble donn´e par la r´eunion de points de l’espace d’´etat. Le deuxi`eme ´el´ement est le terme ”invariant”, et ici l’´equation x˙ = f (x) prend toute son importance. Un ensemble invariant est un ensemble de points de l’espace d’´etat tel que toute trajectoire du syst`eme x˙ = f (x), ayant pour condition initiale un point de cet ensemble, reste ind´efiniement `a l’int´erieur de cet ensemble. Ainsi, l’ensemble est constitu´e par un sous ensemble de conditions initiales telles que toutes les trajectoires issues de ces conditions intiales restent dans l’ensemble en question. D´ efinition 4.22. (flot) La solution du syst`eme x˙ = f (x) ayant comme condition initiale x(0) = x0 sera not´ee Φ(x0 , t) :
86
4 Stabilit´e au sens de Lyapunov
d Φ(x0 , t) = f (Φ(x0 , t)). dt Φ(x0 , t) signifie, qu’une fois la condition initiale x0 donn´ee, l’´etat x devient une fonction uniquement du temps Φ(x0 , t). On peut donc d´eriver cette fonction par rapport au temps, et cette d´eriv´ee doit correspondre `a la dynamique a ce point f (Φ(x0 , t)). ` D´ efinition 4.23. (ensemble invariant) Un ensemble invariant M, pour un syst`eme dynamique x˙ = f (x), est d´efini comme un ensemble de conditions initiales, tels que la solution Φ(x0 , t) reste dans l’ensemble M ∀t, c.-` a-d. M = {x | x0 ∈ M ⇒ Φ(x, t) ∈ M
∀t ≥ 0}
M x0 Φ(x0 , t)
Fig. 4.18. Ensemble invariant M
4.13.2 Ensemble d’annulation de la d´ eriv´ ee de la fonction de Lyapunov Parall`element ` a la notion d’ensemble invariant, celui des points pour lesquels V˙ s’annule est de premi`ere importance. Ceci n’a rien de surprenant, car un des objets de cette analyse est d’´etendre la conclusion de la stabilit´e asymptotique au cas o` u V˙ ≤ 0 au lie de V˙ < 0 ; la diff´erence entre les deux cas se situent dans la possibilit´e que V˙ = 0. L’ensemble en question est not´e R et correspond math´ematiquement `a R = {x | V˙ (x) = 0} et il est repr´esent´e ` a la figure 4.19. Le th´eor`eme de Lasalle peut maintenant ˆetre ´enonc´e. C’est un r´esultat de nature locale au sens o` u il n´ecessite la connaissance d’un ensemble compact pour toutes les conditions initiales. Th´ eor` eme 4.24. (Th´eor`eme d’invariance de LaSalle) Soit l > 0, et Ωl = {x | V (x) ≤ l} :
4.13 Th´eor`eme d’invariance de LaSalle
87
R = {x | V˙ (x) = 0}
Fig. 4.19. Ensemble R. C’est l’ensemble de points pour lesquels V˙ = 0.
– Ωl ferm´e et born´e – ∀x ∈ Ωl on a V˙ ≤ 0 – R ⊂ Ωl et R = {x | V˙ (x) = 0} – M le plus grand ensemble invariant, M ⊂ R ⇒ ∀x0 ∈ Ωl , X (x0 , t) → M lorsque t → ∞. Remarque 4.25. Il est important de mentionner deux aspects important : 1. Il n’y est pas question de stabilit´e, mais uniquement de convergence. 2. La fonction V (x) n’est pas n´ecessairement d´efinie positive. Le th´eor`eme de LaSalle donne la stabilit´e asymptotique d’un point d’´equilibre lorsque la condtion V > 0, x 6= 0 et V (0) = 0 est explicitement ajout´ee. Ce th´eor`eme poss`ede l’avantage de s’appliquer `a l’analyse de la convergence asymptotique vers un cycle comme l’illustre la figure 4.20 Ωl
cycle limite
Ωl
R
R
M
M point d’´ equilibre
Fig. 4.20. Le th´eor`eme d’invariance s’applique aussi bien aux points d’´equilibre qu’aux cycles limites.
4.13.3 Exemple : le pendule simple On consid`ere un simple pendule qui consiste en une masse m reli´ee par une tige de longueur unitaire ` a son axe de rotation. Il est soumis `a un frottement visqueux proportionnel ` a la vitesse du pendule autour de son axe.
88
4 Stabilit´e au sens de Lyapunov
La position du centre de masse est donn´ee par x = sin θ et y = cos θ de telle sorte que son ´energie cin´etique s’´ecrit Ecin = 1/2m(x˙ 2 + y˙ 2 ) = 1/2mθ˙ 2 . On suppose ´egalement que la gravit´e agit dans le sens perpendiculaire `a l’axe de rotation. Par cons´equent, l’´energie potentielle s’exprime Epot = mg(1 − cos θ). A l’aide de ces deux quantit´es, nous pouvons ´etablir la repr´esentation d’´etat du mod`ele dynamique en appliquant le formalisme de Lagrange. Une seule coordonn´ee g´en´eralis´ee est dans ce cas n´ecessaire (` a savoir θ). Le lagrangien est donn´e par L = Ecin − Epot . De plus, une force g´en´eralis´ee Fθ = −bθ˙ s’applique ´egalement, o` u b ∈ R est un param`etre positif (b > 0) correspondant au coefficient de frottement. La formule de m´ecanique analytique d dt
∂L ∂ θ˙
−
∂L = Fθ ∂θ
conduit ` a ˙ mθ¨ + mg sin θ = −bθ. C’est une ´equation diff´erentielle du second ordre qui se met sous la forme ˙ : d’´etat (avec x1 = θ et x2 = θ)
x˙ 1 = x2 x˙ 2 = −g sin x1 −
b x2 m
On aimerait maintenant obtenir une conclusion quand `a la stabilit´e asymptotique de ce pendule en consid´erant une fonction de Lyapunov qui ne soit pas strictement d´ecroissante. Consid´erons, par exemple, la fonction d’´energie compl`ete du pendule V = Ecin + Epot =
1 ˙2 mθ + mg(1 − cos θ). 2
Cette fonction est positive pour autant que θ˙ et le second terme ne s’annulent pas simultan´ement. Par cons´equent, V est nul pour θ 0 + 2kπ avec k ∈ Z. x= ˙ = 0 θ
4.13 Th´eor`eme d’invariance de LaSalle
89
Le syst`eme dynamique s’´ecrit x˙ = f (x) avec f1 (x) = θ˙ ˙ f2 (x) = −g sin θ − b/mθ, de telle sorte que ∂V ˙ ˙ − mg sin θθ˙ = −bθ˙ 2 ≤ 0. f = mθ(−g sin θ − b/mθ) V˙ (x) = ∂x Il faut insister sur le fait que l’in´egalit´e ci-dessus n’est pas stricte ´etant donn´e que θ˙2 ne p´enalise qu’une partie de l’´etat, `a savoir θ˙ ; θ n’apparaˆıt pas a gauche de l’in´egalit´e. ` Par cons´equent, dans un voisinage de l’origine, les conditions de stabilit´es 1. V (x) = 0, x = 0 2. V (x) > 0, x 6= 0 3. V˙ ≤ 0 sont satisfaites. Le syst`eme est donc localement stable. Toutefois, le th´eor`eme de Lyapunov n’est pas conclusif quant `a la stabilit´e locale asymptotique, ´etant donn´e que V n’est pas strictement d´ecroissante et que V ne s’annule pas uniquement au point 0, 0. Toutefois, nous pouvons examiner l’ensemble R pour lequel V˙ = 0. Comme ˙ V = −bθ˙2 = −bx22 , l’ensemble R = { x1 , x2 | x2 = 0 } est une droite horizontale passant par l’origine. Afin d’obtenir le plus grand ensemble invariant M contenu dans R, il est n´ecessaire et suffisant que le vecteur f (x) d´efinissant la dynamique soit tangent ou nul ` a cet axe horizontal. En d’autres termes, la seconde composante de f (x), c.-`a-d f2 (x), doit ˆetre nulle. On obtient la condition g sin x1 = 0, conduisant a une multitudes de points isol´e θ˙ = 0, θ = kπ avec k ∈ Z. ` La figure 4.21 repr´esente les courbes de niveau de la fonction de Lyapunov, ainsi que les solutions pour deux valeurs du coefficient de frottement (b = 0 et b = 1). La masse est m = 1 et la gravit´e est ´egale `a g = 10. L’axe horizontal R est repr´esent´e, lequel contient les points constituant l’ensemble invariant M inclut dans R. Ces points sont s´epar´es en deux classes. Les points associ´es au minimum de V sont repr´esent´es en blanc et correspondent aux ´equilibres stables ; ceux repr´esent´es en noir sont associ´es aux points selles de la fonction V , et correspondent `a des points d’´equilibre instable. En effet, le gradient ∇V = mg sin(θ) mθ˙ , s’annule aux points θ = kπ, k ∈ Z, θ˙ = 0. Localement, autour de ces points, V est approxim´e par
90
4 Stabilit´e au sens de Lyapunov
10
10
5
5
0
0
-5
-5
-10
-10 -10
-5
0
5
10
-10
-5
0
5
10
Fig. 4.21. Plan de phase (θ selon l’axe horizontal et θ˙ selon la verticale), et lignes de contour de la fonction de Lyapunov pour le pendule. A gauche, le frottement est non nul. L’ensemble R pour lequle V˙ = 0 est repr´esent´e en jaune et le plus grand invariant M correspond aux points blancs (minimum de V ), et aux points noirs (extremum de V , points selle). A droite, le frottement est nul. Des solutions pour des choix de conditions initiales diff´erentes sont ´egalement repr´esent´ees.
¯ V ≈ (θ˙ − θ)
θ˙
T
¯ = (θ˙ − θ)
θ˙
T
∂∇V ¯ θ=0 ˙ ∂θ θ=θ, θ ∂∇V ¯˙ ∂ θ˙ θ=θ, θ=0
− θ¯ θ˙
θ − θ¯ mg cos θ¯ 0 . 0 m θ˙
(4.6)
Aux valeurs θ¯ = 2kπ, la matrice dans l’expression (4.6) est l’identit´e et les deux valeurs propres sont ´egales `a 1 ; c’est un minimum (points blancs). Aux valeurs θ¯ = 2kπ + π, la matrice `a une valeur propre n´egative −1 et une valeur propre positive +1 ; c’est un point selle (points noirs). Dans la partie droite de la figure 4.21, le frottement est nul de telle sorte que V˙ = 0. Dans ce cas, chaque courbe de niveau de V est invariante. Etant donn´e que certaines de ces courbes de niveau ne sont pas ferm´ees, le syst`eme n’est pas globalement stable. N´eanmoins, l’origine est localement stable (mais pas asymptotiquement). En effet, dans un voisinage de l’origine, les courbes de niveau sont ferm´ees et constituent des cycles. Pour V˙ ≤ 0 (frottement non nul, partie de gauche de la figure 4.21), le th´eor`eme d’invariance est appliqu´e en consid´erant divers ensembles compacts Ωl (ferm´es et born´es) pour lesquels V est inf´erieur ou ´egal `a la quantit´e l. Lorsque V est sup´erieur ` a la valeur atteinte `a un des points selles, les ensembles Ωl ne sont plus compacts. Le bord de Ωl est alors constitu´e par les courbes de niveau non ferm´ees de V . Par contre, en prenant l < mg, par exemple
4.14 M´ethodes de construction des fonctions de Lyapunov
91
l = mg − ǫ, l’ensemble ˙ (θ, θ) ˙ ≤ mg − ǫ, θ ∈] − π, π[} Ωmg−ǫ = {θ, θ|V est compact, invariant (parce que V˙ ≤ 0), et l’ensemble R ∩ Ωmg−ǫ ne comporte qu’un seul point qui est l’origine 0. L’origine est stable par rapport `a cet ensemble de conditions initiales, mais elle n’est pas globalement stable, ´etant donn´e que lorsque la condition initiale n’appartient pas `a cet ensemble, il n’est pas possible de connaˆıtre a priori vers quel point d’´equilibre le syst`eme convergera, en se fondant uniquement sur la fonction de Lyapunov et ses propri´et´es. Toutefois, il est garantit que, globalement, le syst`eme converge vers un des points d’´equilibre. En effet, lorsque θ0 et θ˙0 sont des valeurs initiales quelconques, un ensemble invariant compact contenant cette condition initiale peut ˆetre construit. Cet ensemble contient alors plusieurs points d’´equilibre, et la conclusion suit du th´eor`eme d’invariance. En effet, le fait que V s’annule en plusieurs points d’´equilibre n’a pas de cons´equence, ´etant donn´e que V n’est pas exig´e ˆetre positif d´efini. Seule la condition de bornitude est n´ecessaire, ce qui est le cas dans un compact donn´e (c.-`a-d. ∃c > 0, c ∈ R tel que V < c). Cet argument inductif concernant la stabilit´e globale permet ´egalement de s’affranchir du fait fˆ acheux que la fonction V n’est pas born´ee radialement comme le constat de l’existence de courbes de niveau non ferm´ees nous l’a d´emontr´e.
4.14 M´ ethodes de construction des fonctions de Lyapunov La pr´esente section pr´esente trois m´ethodes de construction de fonctions de Lyapunov. Le trait commun de ces m´ethodes (et du reste de toutes les m´ethodes de construction de fontion de Lyapunov) est de proc´eder par construction/correction et essais/erreurs. En d’autres termes, il n’y pas de m´ethode constructive directe `a proprement dit. Il s’agit de proc´eder de mani`ere it´erative en alternant entre, d’une part, imposer la premi`ere condition de positivit´e de la fonction de Lyapunov, et, d’autre part, imposer la seconde condition concernant la d´ecroissance le long des solutions de la fonction de Lyapunov.
92
4 Stabilit´e au sens de Lyapunov
4.14.1 M´ ethode de Krasovskii La premi`ere m´ethode est celle de Krasovskii. Th´ eor` eme 4.26. Soit x˙ = f (x) tel que f (0) = 0. D´efinissons : A(x) =
∂f . ∂x
S’il existe un ouvert Ω ⊆ RN contenant l’origine 0 ∈ Ω, et que la matrice F (x) = A(x) + A(x)T < 0 est d´efinie n´egative dans l’ouvert Ω (c.-` a-d. xT F (x)x < 0, ∀x 6= 0, x ∈ Ω) alors la fonction V (x) = f (x)T f (x). est une fonction de Lyapunov et l’origine 0 est localement asymptotiquement stable. Si de plus Ω = Rn et V (x) → ∞ lorsque kxk → ∞, alors x = 0 est globalement asymptotiquement stable. Ce th´eor`eme admet une certaine g´en´eralisation en consid´erant une ´equation de Lypaunov pour la matrice F (x). Th´ eor` eme 4.27. S’il existe un ouvert Ω ⊆ Rn , ainsi que deux matrices d´efinies positive P > 0 et ∃Q > 0 telles que ∀x 6= 0, x ∈ Ω il est vrai que F (x) = A(x)T P + P A(x) + Q < 0 est une matrice d´efinie n´egative, alors V (x) = f (x)T P f (x) est une fonction de Lyapunov, et 0 est localement asymptotiquement stable.. Si de plus Ω = Rn et V (x) → ∞ lorsque kxk → ∞, l’origine 0 est globalement asymptotiquement stable.
4.15 M´ ethode du gradient variable Si l’on connaˆıt ` a la foir le gradient de la fonction de Lyapunov et la fonction de Lyapunov ` a proprement dit, la relation V (x) =
Z
0
x
∇V (ξ)dξ
est valable entre ces deux quantit´es. Nous verrons dans le chapitre 6, que le gradient est une 1-forme que l’on ´ecrit ´egalement sous la forme dV o` u la param´etrisation ξ n’est pas explicitment mention´ee. Ainsi,
4.15 M´ethode du gradient variable
V =
Z
93
dV,
ce qui devient une notation tout `a fait explicite. Toutefois, tout vecteur ligne ne peut provenir d’un gradient. Nous distinguerons (i) un vecteur ligne qui est issu directement d’une fonction par d´erivation (1-forme exacte) ; (ii) un vecteur ligne qui, une fois multipli´e par une fonction arbitraire, devient une 1-forme exacte (1-forme int´egrable) ; et finalement (iii) un vecteur ligne quelconque (une 1-forme quelconque). Par cons´equent, il faut que les composantes respectent certaines conditions entre elles pour pouvoir provenir d’un gradient. Ce sont les conditions d’exactitude. Ainsi, on commence par param´etriser ∇V plutˆ ot que V , ∇V = [∇V1 , ∇V2 ]T . (dV plutˆ ot que V ). ∇V1 = a11 (x1 , x2 )x1 + a12 (x1 , x2 )x2 ∇V2 = a21 (x1 , x2 )x1 + a22 (x1 , x2 )x2 Ensuite, il faut respecter les conditions d’int´egrabilit´e (ddV ∧ dV = 0, voir le chapitre 6) qui s’´ecrit dans notre cas ∂∇Vj ∂∇Vi = ∂xj ∂xi
(∗)
Tout en respectant ces conditions, on choisit la param´etrisation pour rendre n´egatif la d´eriv´ee de la fonction de Lyapunov V˙ < 0. Ensuite, on remonte ` a la fonction de Lyapunov en int´egrant le grandient ∇V le long d’un contour quelconque. Comme la 1-forme est une diff´erentielle exacte (voir chapitre 6), le processus d’in´egration ne d´epend pas du chemin d’int´egration choisit (en effet, la fonction ne change pas de valeur selon le chemin emprunt´e, seul compte le point d’arriv´ee qui d´etermine la valeur de celle-ci). En cons´equence, il est possible de figer certaines quantit´es `a z´ero en choisissant un chemin d’int´egration particulier
V (x) =
Z
x1
Z0 x2 0
∇V1 (ξ1 , 0, . . . , 0)dξ1 + ∇V2 (x1 , ξ2 , 0, . . . , 0)dξ2 +
... + ...+ Z xn ∇Vn (x1 , x2 , . . . , ξn )dξn 0
94
4 Stabilit´e au sens de Lyapunov
Finalement, la nature d´efinie positive de la fonction V est v´erifi´ee (c.-`a-d. V > 0). Exemple 4.28. Soit le syst`eme dynamique
x˙ 1 = x2 x˙ 2 = −x21 − x2 Pour obtenir une fonction de Lyapunov, nous commen¸cons par param´etrer son gradient. Pour simplifier quelque peu la tˆ ache, nous choisissons des combinaisons lin´eaires de l’´etat pour chacune des deux composantes du gradient. Par cons´equent, ∇V = a11 x1 + a12 x2
a21 x1 + a22 x2 .
La condition d’exactitude (int´egrabilit´e ”renforc´ee”, voir le chapitre sur la g´eom´etrie) s’´ecrit ∂∇V2 ∂∇V1 = x2 x1 a12 = a21 . Maintenant, la n´egativit´e de la d´eriv´ee de la fonction de Lyapunov (la deuxi`eme condition) est impos´ee : V˙ = ∇V f = a11 x1 x2 + a12 x22 + (a12 x1 + a22 x2 )(−x21 − x2 ) = −(a22 − a12 )x22 − (a12 + a22 x22 )x21 + a11 x1 x2 − a12 x1 x2 En choisissant a12 < a22 et a22 > 0, le terme r´esultant en x22 est n´egatif. Toutefois, il demeure deux termes dont le signe est ind´efini, `a savoir a11 x1 x2 − a12 x1 x2 . En for¸cant l’´egalit´e a11 = a12 , ils ne contribuent plus `a la d´eriv´ee. Il ne reste plus qu’`a discuter du signe du coefficient devant x21 . Ce facteur (a12 + a22 x22 ) doit ˆetre positif. Ceci est garantit pour autant que a12 > 0. En r´esum´e nous avons les conditions a11 = a12 = a21 , a22 > 0, a12 > 0 et a12 < a22 ; la fonction de Lyapunov devenant apr`es int´egration et `a un facteur 1/2 pr`es : V = a12 x21 + 2a12 x1 x2 + a22 x22 . Il ne reste plus qu’`a forcer la premi`ere condition, c.-`a-d. la positivit´e de V . La fonction V est factoris´ee pour faire apparaˆıtre une matrice sym´etrique a12 a12 x1 x x . V = 1 2 x2 a12 a22
Pour garantir que la matrice centrale soit d´efinie positive, il suffit que ses deux mineurs soient plus grand que z´ero. Le premier est a12 qui est plus grand que
4.17 R´esultat d’instabilit´e 2
95
z´ero. Le second a12 a22 − a212 = a12 (a22 − a12 ) > 0 conduit `a ce que a22 > a12 , condition d´ej` a rencontr´ee pour forcer la premi`ere condition. V est donc bien une fonction de Lyapunov car elle satisfait simultan´ement aux deux conditions V > 0, x 6= 0 et V˙ < 0.
4.16 R´ esultat d’instabilit´ e1 D´eterminer l’instabilit´e peut ˆetre aussi important que d’´etablir la stabilit´e. Cependant, la tˆ ache est parfois plus simple ´etant donn´e qu’il suffit d’exhiber une condition initiale qui conduit `a une trajectoire qui sort de la boule d’exigence de rayon R, plutˆ ot que de garantir que toutes les trajectoires demeurent dans la boule R pour une sous-boule (de rayon r) de conditions initiales, comme cela ´etait le cas pour la stabilit´e. Nous pr´esenterons trois r´esultats permettant d’identifier si un syst`eme est instable. Le premier consiste `a v´erifier que V croit, quelles que soient les conditions initiales. Th´ eor` eme 4.29. – ∃Ω ⊆ Rn , 0 ∈ Ω, V (0) ≥ 0 et V (x) > 0 ∀x ∈ Ω, x 6= 0 d V (x) > 0, ∀x ∈ Ω, x 6= 0 – dt ⇒ 0 est instable
La premi`ere condition (V (x) > 0) est de garantir la positivit´e de la fonction de test, et la seconde consiste `a v´erifier que cette fonction croit le long des solutions (V˙ > 0).
4.17 R´ esultat d’instabilit´ e2 Le second r´esultat particularise quelque peu les conditions et permet de d´etecter une plus large classe de syst`emes instables que le premier r´esultat. Th´ eor` eme 4.30. – ∃Ω ⊆ Rn , 0 ∈ Ω, V (0) ≥ 0 et V (x) > 0 ∀x ∈ Ω\{0} d – ∃λ > 0, dt V (x) − λV (x) ≥ 0, ∀x ∈ Ω ⇒
0 est instable La seconde condition introduit un test indirect qui consiste `a exprimer la d´eriv´ee en utilisant la fonction V elle-mˆeme. Comme cette fonction est scalaire, on aboutit ` a une ´equation diff´erentielle avec un seul ´etat V . Si le facteur de proportionnalit´e λ est plus grand que z´ero, cela conduit `a une croissance de V et donc ` a une instabilit´e.
96
4 Stabilit´e au sens de Lyapunov
4.18 R´ esultat d’instabilit´ e 3 : th. de Chetaev Comme mentionn´e plus haut, la condition de stabilit´e exige que quel que soit la condition initiale x0 appartenant `a la boule Br la trajectoire r´esultante reste comprise dans la boule d’exigence BR et ce, quel que soit la boule d’exigence choisie. Par cons´equent, il suffit d’exhiber une seule condition initiale par boule Br de taille suffisamment petite, pour laquelle la trajectoire du syst`eme sorte d’une certaine boule d’exigence BR . Le th´eor`eme de Chetaev permet d’aborder l’instabilit´e selon cet angle. L’id´ee consiste ` a envisager une r´egion ressemblant `a une sorte de tranche de gateau Ωl pour laquelle le candidat de Lyapunov V (on devrait dire le candidat de la fonction Chetaev) s’annule sur la partie de la tranche de gateau qui est coup´ee (V (x) = 0 pour x ∈ ∂Ωl ) ; et qui est croissante dans cette r´egion (V˙ > 0). Pour les syst`emes dont la dimention de l’´etat est plus grande que deux, une image de ”cone” g´en´eralise la notion de ”tranche de gateau”. La figure 4.22 illustre le concept. Th´ eor` eme 4.31. (Chetaev) ∃Ω ⊆ Rn et ∃Ωl ⊂ Ω – V (x) > 0, ∀x ∈ Ωl d V (x) > 0, ∀x ∈ Ωl – dt – 0 ∈ ∂Ωl – V (x) = 0, ∀x ∈ ∂Ωl ⇒ 0 est instable x2 Ω ∂Ωl Ωl 0
x1
Fig. 4.22. Figure illustrant le th´eor`eme de Chetaev
Preuve. L’explication consiste `a remarquer que, d’une part, par le fait que V est forc´e de s’annuler sur les cˆ ot´es de la tranche de gateau (V (x) = 0
4.19 Techniques de comparaison et majoration
97
∀x ∈ ∂Ωl ) et, d’autre part, comme la fonction V est croissante par hypoth`ese sur l’ensemble de la tranche (V˙ > 0, ∀x ∈ Ωl ), il est impossible que les trajectoires du syst`eme (celles commen¸cant `a l’int´erieure de la tranche Ωl ) sortent de la r´egion bleue par les cˆ ot´es ∂Ωl (en rouge). Pourtant, il se pourrait qu’elles restent pi´eg´ees `a l’int´erieure de la r´egion bleue Ωl . Nous allons n´eanmoins montrer qu’il existe une certaine boule d’exigence suffisamment petite BR pour laquelle les trajectoires issues de l’intersection Ωl ∩ BR sortent de la boule BR . En chosissant le rayon R suffisamment petit (ce qui n’est nullement interdit et n’impose aucune condition suppl´ementaire), V est garantie born´ee sup´erieurement `a l’int´erieure de la r´egion Ωl ∩ BR , i.e ∃v ∈ R, 0 < v < ∞, V (x) < v, ∀x ∈ Ωl ∩ BR . Ceci est rendu possible par le fait que la fonction V est continue et s’annule `a l’origine par hypoth`ese. D’autre part, et ´egalement par hypoth`ese, V est strictement croissante dans cette r´egion le long des solutions du syst`eme. Ainsi, en supposant que les trajectoires ne sortent pas de BR , la fonction V ´evalu´ee le long de ces trajectoires (´etant strictement croissante) finirait par d´epasser la borne v en question, conduisant ` a une contradiction. En cons´equence, toute trajectoire commen¸cant dans la r´egion Ωl ∩ BR , (et en particulier pour une condition initiale arbitrairement proche du point d’´equilibre), finit par quitter la boule d’exigence BR , exhibant de la sorte l’instabilit´e.
4.19 Techniques de comparaison et majoration Nous pr´esentons dans cette section diverses techniques directes et indirectes de majoration permettant de d´eduire la deuxi`eme condition V˙ ≤ 0 du th´eor`eme de stabilit´e de Lyapunov. Certaines de ces techniques, comme l’utilisation d’in´egalit´es classiques ou le d´eveloppement limit´e, rendent ´egalement possible la v´erification de la nature d´efinie positive du candidat de Lyapunov V (x), c.-`a-d. la premi`ere condition de la d´efnition 4.10, au moins dans un voisinage. De plus, en renversant les in´egalit´es, les r´esultats sont ´egalement applicables pour tester l’instabilit´e. D´eterminer la stabilit´e par l’entremise d’un candidat de Lyapunov n´ecessite de tester la d´ecroissance de la fonction V : V˙ ≤ 0
(4.7)
En effet, la deuxi`eme condition de la d´efinition 4.10 impose de v´erifier cette in´egalit´e. Malgr´e l’apparente simplicit´e de cette condition, un calcul direct `a partir de la fonction V (x) et de la dynamique f˙(x) conduit `a une ´egalit´e V˙ = m(x), o` u m(x) est une certaine fonction non-lin´eaire de x, ne permettant pas toujours d’´etablir facilement ce r´esultat.
98
4 Stabilit´e au sens de Lyapunov
Afin de v´erifier m(x) ≤ 0,
(4.8)
la fonction m(x) est alors major´ee par une nouvelle quantit´e m(x) ¯ > m(x), dont l’expression, plus simple, permet de d´eduire m(x) ¯ ≤ 0, et donc ´egalement (4.8) et (4.7). 4.19.1 Les formes quadratiques Pour les syst`emes lin´eaires x˙ = Ax, nous avons vu `a la section ?? que, , la fonction de Lyapunov, ainsi que sa d´eriv´ee, admettent une forme quadratique V = xT P x et V˙ = −xT Qx, o` u P et Q sont des matrices r´eelles sym´etriques d´efinies positives. Cependant, l’utilisation des matrices d´efinies positives est ´egalement applicable au cas non lin´eaire x˙ = f (x) `a la fois pour estimer la fonction de Lyapunov V et sa d´eriv´ee. En effet, nous verrons qu’un d´eveloppement limit´e caract´erise localement ces fonctions par la pr´esence de formes quadratiques d´efinies positives et semi-d´efinies positives. Nous rappelons quelque propri´et´es des matrices r´eelles sym´etriques d´efinies positives et semi-d´efinies positives. D´ efinition 4.32. Une matrice P dont les coefficients sont r´eels est dite strictement r´eelle sym´etrique positive d´efinie lorsque les deux conditions 1. P = P T 2. xT P x > 0, ∀x 6= 0. sont satisfaites. Dans le cas d’une in´egalit´e faible xT P x ≥ 0, la matrice P est dite positive semi-d´efinie. Lemme 4.33. Les valeurs propres λ1 , . . ., λn d’une matrice sym´etrique d´efinie (respectivement semi-d´efinie) positive P sont toutes r´eelles λi ∈ R, i = 1, . . . , n, et positives 0 < λ1 ≤ λ2 ≤ . . . ≤ λn (resp. non n´egatives, 0 ≤ λ1 ≤ λ2 ≤ . . . ≤ λn ). Preuve. Soit v un vecteur propre de norme unit´e associ´e `a une des valeurs propres que l’on notera λ. Comme par d´efinition la matrice P est sym´etrique d´efinie (resp. semi-d´efinie) positive, la valeur xT P x est un nombre r´eel positif (resp. non n´egatif). Ceci est en particulier vrai pour x = v. Par cons´equent, comme v T P v = v T (λP )v = λv T v = λ, toutes les valeurs propres λ sont r´eelles et positives (resp. r´eelles et non n´egatives).
4.19 Techniques de comparaison et majoration
99
Lemme 4.34. Si les valeurs propres λi et λj sont distinctes (λi 6= λj ), alors les vecteurs propres vi et vj associ´es a ` ces valeurs propres (P vi = λi vi et P vj = λj vj ) sont orthogonaux : viT vj = 0
i 6= j,
λi 6= λj .
Preuve. Supposons que viT vj 6= 0 et λi 6= λj . Comme vj est associ´e `a λj viT vj =
1 T 1 T v (λj vj ) = v (P vj ). λj i λj i
(4.9)
1 T T (v P )vj . λi i
(4.10)
Comme vi est associ´e ` a λi , viT vj =
Etant donn´e que P est sym´etrique, les deux ´egalit´es (4.9) et (4.10) entraˆınent λi = λj , conduit ` a une contradiction ce qui implique viT vj = 0 d`es lors que λi 6= λj . 4.19.2 Inflation et d´ eflation Les deux lemmes 4.33 et 4.34 conduisent alors `a une repr´esentation mentale d’une matrice d´efinie positive par une sorte de ”ballon de rugby” `a ndimensions. En cons´equence, il est possible d’englober le ballon de rugby par un ballon homog`ene (en consid´erant l’axe le plus grand du ballon de rugby), et ´egalement d’y inscrire un ballon homog`ene `a l’int´erieur du ballon de rugby (en consid´erant l’axe le plus petit du ballon de rugby). Lemme 4.35. Soit P > 0 une matrice r´eelle sym´etrique d´efinie positive. Il existe deux constantes r´eelles c, C ∈ R telle que cxT x ≤ xT P x ≤ CxT x. De plus, c = λ1 (la plus petite valeur propre de P ) et C = λn (la plus grande valeur propre de P ). Preuve. Le lemme 4.34 garantit l’existence d’une base orthonorm´ ee de vecP teurs propres vi ` a partir de laquelle la d´ecomposition de x = ni=1 αi vi conduit a ` n n X X αi vi ) αi vi )T P ( xT P x = ( i=1
i=1
n n X X λi αi vi ). αi vi )T ( =( i=1
i=1
100
4 Stabilit´e au sens de Lyapunov
En tenant compte de l’orthonormalit´e des vecteurs propres choisis (viT vj = 0, i 6= j et kvi k = 1), n X xT P x = λi α2i , (4.11) i=1
Pn
2 i=1 αi
T
et en remarquant = x x, la propri´et´e 0 < λ1 ≤ λi ≤ λn , garantie par le lemme 4.33, d´emontre les in´egalit´es `a partir de (4.11). Remarque 4.36. Le fait que les vecteurs propres sont orthogonaux permet d’´eliminer les produits crois´es viT vj , i 6= j. De plus, le plus grand axe du ballon de rugby correspond ` a la plus petite valeur propre λ1 . En effet, 1/c = 1/λ1 correspond au rayon du grand ballon homog`ene xT x = λ11 englobant le ballon de rugby xT P x = 1. De mˆeme, 1/C = 1/λn correspond au rayon du petit ballon homog`ene xT x = λ1n inscrit `a l’int´erieur du ballon de rugby xT P x = 1. 4.19.3 Le d´ eveloppement limit´ e Lorsque la fonction V˙ admet un d´eveloppement en s´erie, il est possible d’exprimer V˙ = −
n X n X
aij xi xj + R3 (x) + R4 (x) + . . . + Rn (x) + . . .
(4.12)
i=1 j=1
o` u les monˆ omes du second ordre ont ´et´e mis en ´evidence par rapport `a ceux d’ordres sup´erieurs regroup´es dans Ri , i = 1, . . . , ∞. Par convention, les degr´es des de tous les monˆ omes de Ri sont de degr´e exactement ´egal ` a i (do Ri = i). Les techniques de d´eveloppement se fondent alors sur le fait que si la matrice A = (aij ) est d´efinie positive, alors il existe une certaine constante c > 0, c ∈ R, telle que V˙ < 0
∀kxk ≤ c.
En effet, les termes pouvant changer le signe de V˙ sont tous dans un des facteurs Ri . A cause du degr´e, tous les monˆ omes associ´es disons c¯xi xj xk . . . xl peuvent ˆetre factoris´es sous la forme c¯(xi xj )xk . . . xl avec xi xj un des monˆ ome apparaissant dans la forme quadratique xT Ax. En choisissant kxk suffisament petit le facteur c¯xk . . . xl devient alors n´egligeable par rapport au coefficient aij T de P telle sorte que le terme x Ax domine par rapport au terme de perturbation i Ri . 4.19.4 La r´ eintroduction de V
Le r´esultat d’instabilit´e 2 (th´eor`eme 4.30) est fond´e sur la comparaison entre la fonction V˙ et V elle-mˆeme. Si la d´eriv´ee de la quantit´e V est pro-
4.19 Techniques de comparaison et majoration
101
portionnelle (avec un facteur positif) `a cette quantit´e V , alors cette quantit´e augmente exponentiellement. Il est ainsi int´eressant, une fois le calcul de V˙ = m(x) effectu´e, d’essayer de r´eintroduire l’expression de V dans m(x). Si cela est possible, alors, en fonction du coefficient devant la fonction de V , cette quantit´e peut d´ecroˆıtre au cours du temps. Lemme 4.37. Soit V une fonction d´efinie positive quelconque (V (x) > 0, ∀x 6= 0, V (0) = 0) telle que ∂V f (x) = αV, V˙ = ∂x avec α ∈ R, alors
V (t) = V0 eαt .
Si α < 0, le syst`eme x˙ = f (x) est asymptotiquement stable. Preuve. En d´erivant par rapport au temps V (t) = V0 eαt , l’expression V˙ = αV est v´erifi´ee. L’expression V0 eαt conduit `a ce que, lorsque α < 0, V (x(t)) → 0, et donc que x(t) → 0 lorsque t → ∞. 4.19.5 L’´ equation int´ egrale associ´ ee Sous certaines conditions de continuit´e (que nous avons admises dans l’introduction), l’´equation diff´erentielle ordinaire x˙ = f (x),
x(0) = x0 ,
donne lieu ` a une repr´esentation ´equivalente sous forme d’´equation int´egrale Z t x(t) = f (τ )dτ τ =0
x(0) = x0 .
Par cons´equent, des in´egalit´es et des majorations sont applicables `a l’int´egrale, afin d’estimer les solutions de l’´equation diff´erentielle. Ce proc´ed´e s’applique ´egalement aux in´egalit´es diff´erentielles, lorsque la fonction V apparaˆıt de part et d’autre de l’in´egalit´e. Elle est alors convertie en in´egalit´e, o` u la diff´erentielle disparaˆıt au profit de l’int´egrale. Par exemple, en consid´erant une fonction V , V˙ ≤ αV devient
102
4 Stabilit´e au sens de Lyapunov
V (t) ≤ V (0) + α quel que soit le signe de α ∈ R. De mˆeme
Z
t
V (τ )dτ,
(4.13)
g(V (τ ))dτ.
(4.14)
0
V˙ ≤ g(V )
devient V (t) ≤ V (0) +
Z
t
0
Ce type de conversion permet alors d’utiliser les propri´et´es des in´egalit´es int´egrales du genre (4.13) et (4.14) afin de trouver des estimations pour la fonction V . En particulier, l’apparition de V `a la fois `a gauche de (4.13) et `a droite, sous le signe d’int´egration, rend l’estimation difficile. C’est pourquoi l’isolation de V d’un seul cˆ ot´e de l’in´egalit´e est tr`es commode. Lemme 4.38. Soit m(.) et v(.) des fonctions continues non n´egatives de R+ dans R+ , et c ∈ R un nombre r´eel non n´egatif c ≥ 0. Si Z t
m(t) ≤ c +
v(τ )m(τ )dτ,
t ≥ 0,
(4.15)
.
(4.16)
0
alors
m(t) ≤ c exp
Z
t
v(τ )dτ 0
Remarque 4.39. Ce lemme permet d’isoler m(.), apparaissant des deux cˆ ot´e de l’in´egalit´e, dans le membre de gauche de l’in´egalit´e, et sans le symbole d’int´egration. Ce lemme et ceux de cette section sont appel´es lemmes de (type) Bellman-Gronwall. Preuve. En multipliant (4.15) par la valeur non n´egative v(t) de part et d’autre de l’in´egalit´e, l’in´egalit´e ne change pas de sens Z t m(t)v(t) ≤ v(t) c + v(τ )m(τ )dτ , 0
Lorsque c > 0, le facteur entre crochets est strictement positif, de telle sorte qu’en divisant des deux cˆ ot´es par cette expression non nulle, l’in´egalit´e ne change ´egalement pas de sens m(t)v(t) ≤ v(t), Rt c + 0 v(τ )m(τ )dτ
Maintenant, une int´egration directe conduit `a
(4.17)
4.19 Techniques de comparaison et majoration
Z Z t v(τ )m(τ )dτ − log c ≤ log c +
103
T
v(τ )dτ
0
0
entraˆınant (4.16). Pour le cas c = 0, nous pouvons appliquer le r´esultat valable pour c > 0 en choisissant une suite d´ecroissante de nombre positif ǫi > 0 en posant successivement c = ǫi de telle sorte que (4.15) est valable pour tous ces choix. En passant ` a la limite ǫ → 0, nous obtenons m(.) = 0 identiquement, ce qui d´emontre le lemme. Lorsque le nombre c d´epend explicitement du temps, le lemme devient Lemme 4.40. Soit m(.), v(.) et h(.) des fonctions continues non n´egative de R+ dans R+ , Si Z t m(t) ≤ h(t) + v(τ )m(τ )dτ, t≥0 (4.18) 0
alors
m(t) ≤ h(t) +
Z
t
v(τ )h(τ ) exp
0
Z
τ
t
v(ξ)dξ dτ.
(4.19)
De plus si h(.) est d´erivable, Z t Z t Z t m(t) ≤ h(0) exp v(τ )dτ + h′ (τ ) exp v(ξ)dξ dτ. 0
0
s
Pour une d´emonstration, le lecteur est invit´e `a consulter [LLM89]. Tout comme dans [LL69], on y trouvera ´egalement d’autres in´egalit´es de ce type. 4.19.6 Quelques in´ egalit´ es standards Etant donn´e que des in´egalit´es souvent complexes doivent ˆetre manipul´ees, faisant intervenir des op´erateurs diff´erentiels et int´egraux, il est utile d’utiliser des r´esultats classiques afin de majorer (ou minorer selon le cas) les in´egalit´es plus compliqu´ees ` a l’aide de celles utilisant des expressions arithm´etiques simples. C’est pourquoi nous pr´esentons essentiellement trois types d’in´egalit´es apparaissant tr`es souvent en pratique pour ´etablir des r´esultats de stabilit´e en commande non lin´eaire. In´ egalit´ e de Cauchy-Schwarz Cette in´egalit´e d´ecoule du produit scalaire existant dans un espace vectoriel et provient du fait que | sin(α) |≤ 1 pour tout α ∈ R.
104
4 Stabilit´e au sens de Lyapunov
Lemme 4.41. Soit x = x1 x2 . . . xn √ En d´efinissant, kxk = xT x, alors
n
un vecteur d’un espace vectoriel V .
| xT y |≤ kxkkyk. In´ egalit´ e du triangle C’est la g´en´eralisation en dimension n de la propri´et´e que la somme des longueurs des cˆ ot´es adjacents d’un triangle est toujours plus grande que la longeur du cˆ ot´e restant. A nouveau, nous nous pla¸cons dans un espace vectoriel quelconque. Lemme 4.42. Soit x et y deux vecteurs non nuls d’un espace vectoriel V . Nous avons kxk + kyk ≥ k ± x ± y k. Les signes devant les vecteurs x et y n’ont pas d’importance dans le membre de droite. In´ egalit´ e arithm´ etique-g´ eom´ etrique La moyenne arithm´etique n1 (x1 + x1 + . . . + xn ), est toujours au moins √ ´egale ` a la moyenne g´eom´etrique n x1 · x2 · . . . · xn : Lemme 4.43. Soit xi ∈ R∗+ , i = 1, . . . , n, une suite finie de nombre r´eels non n´egatifs. v un n uY 1X n xi . (4.20) xi ≥ t n i=1 i=1 Les deux moyennes, g´eom´etrique et arithm´etique, sont des cas particuliers de moyenne Mf associ´ee ` a une fonction f (x) dont on connaˆıt la fonction r´eciproque f −1 (x) : Mf = f −1
! n 1X f (xi ) . n i=1
Ainsi avec f (x) = x, Mx est la moyenne arithm´etique, et avec f (x) = log(x), Mlog est la moyenne g´eom´etrique. L’in´egalit´e (4.20) s’´ecrit donc aussi Mx ≥ Mlog .
4.19 Techniques de comparaison et majoration
105
Exercices 4.1. Th´ eor` eme de Krasovskii, D´emontrer les th´eor`emes 4.26 et 4.27 4.2. Grue ` a portique 2D1 On consid`ere une grue planaire `a portique. Le chariot comporte une poulie guidant le cˆ able principal qui relie le moteur de treuillage (moteur principal fix´e sur la structure fixe) ` a la charge. Le chariot sup´erieur peut ´egalement se d´eplacer sous l’action d’un autre cˆ able reliant le chariot au moteur secondaire (ce dernier est ´egalement mont´e sur la structure fixe). La charge peut ainsi se d´eplacer dans le plan. La longueur du cˆ able de treuillage est R et celui du cˆ able secondaire L. (i) Dessiner le syst`eme. Consid´erer tous les param`etres comme des valeurs normalis´ees ` a un. (ii) Etablir le mod`ele dynamique en se fondant sur l’hypoth`ese que les cˆ ables sont infiniment rigides et qu’ils peuvent transmettre `a la fois les forces n´egatives et positives (en r´ealit´e un cˆ able ne peut que transmettre la force dans un seul sens, l’autre conduirait le cˆ able `a ˆetre d´etendu). Les deux moteurs sont suppos´es id´eaux et transmettent chacun un couple pur instantan´ement. L’entr´ee du premier moteur est le couple τ1 et celle du moteur secondaire τ2 . (iii) Poser comme loi de commande ¯ − R) τ1 = 1 − 2R˙ + (R ˙ ¯ τ2 = 1 − 2L + (L − L) ¯ L ¯ ∈ R sont des nombre r´eels fixes. Le terme 1 est n´ecessaire pour o` u R, compenser la force due ` a la gravit´e (toutes les constantes sont normalis´ee en particulier g = 1 et m = 1, ainsi que les rayons des poulies). (iv) Trouver le point d’´equilibre naturel. En existe-t-il d’autres ? (v) D´emontrer en lin´earisant par la m´ethode du d´eveloppement de Taylor (cf. chapitre sur la lin´earisation si n´ecessaire) que le syst`eme est localement exponentiellement stable. (vi) Pour augementer le domaine de stabilit´e, consid´erer la fonction ¯ 2 + (L − L) ¯ 2 + R + L, V = Ec + Ep + (R − R) o` u Ec est l’´energie cin´etique du syst`eme et Ep est l’´energie potentielle. Est-ce que cette fonction est positive `a l’ext´erieur du point d’´equilibre ? (vii) Montrer que V˙ ≤ 0. 1
Ce probl`eme est une adaptation de l’article de B. Kiss, J. L´evine, J. et Ph. Mullhaupt A Simple Output Feedback PD Controller for Nonlinear Cranes, Proc. 39th IEEE Conference on Decision and Control, Sydney, Australia, December 2000, pp. 5097-5101.
106
4 Stabilit´e au sens de Lyapunov
(viii) D´eterminer l’ensemble V˙ = 0. (ix) D´eterminer le plus grand ensemble invariant compris dans cet ensemble. (x) En d´eduire les propri´et´es de stabilit´e globale, en particulier est-ce que la fonction V est radialement non born´ee ? Envisager divers compacts invariants Ω et v´erifier que V est bien born´e inf´erieurement sur ces compacts. En particulier est-ce que V (x) ≤ l est-il un ensemble compact ? (xi) Illustrer l’ensemble des r´esultats obtenus `a l’aide de simulations.
5 Passivit´ e
Le chapitre pr´ec´edent a d´efini la stabilit´e de mani`ere formelle. Pourtant, l’application directe de la d´efinition pr´esentait des difficult´es. La nature mˆeme de celle-ci rendait son traitement difficile ; mais surtout le besoin de connaˆıtre de mani`ere explicite la solution des ´equations diff´erentielles repr´esentant le syst`eme, a contraint de proc´eder par l’entremise d’une fonction suppl´ementaire (seconde m´ethode de Lyapunov). L’orgine de la r´eflexion ´etait li´ee `a la fonction d’´energie. Un syst`eme ´etait stable lorsque, d’une part, la fonction d’´energie repr´esente un minimum ` a l’´equilibre et, d’autre part que cette fonction soit, soit conserv´ee ou d´ecroissante dans le temps. La stabilit´e asymptotique ne pouvant pas d´ecouler lorsque la fonction est conserv´ee uniquement. Le pr´esent chapitre consiste, en quelque sorte, `a ´etendre le concept d’´energie ` a une plus large classe de syst`eme. Au chapitre pr´ec´edent, seules les dynamiques d´epourvues d’entr´ee ont fait l’objet d’une ´etude d´etaill´ee. Il s’agit ici d’envisager la pr´esence d’une entr´ee u suppl´ementaire, x˙ = f (x, u). La pr´esence, ` a la fois d’une entr´ee et d’une sortie de dimension compatible, complique cependant les interpr´etations. En effet, bien que l’´energie puisse avoir une tendance `a d´ecroˆıtre au cours du temps, il serait tout `a fait possible, en utilisant la nouvelle entr´ee `a disposition, de l’augmenter de mani`ere arbitraire. Par exemple, lors d’une connexion entre syst`emes, l’´energie peu passer d’un syst`eme ` a un autre suivant une sorte de r´esonance, bien que chaque syst`eme pris isol´ement fasse d´ecroitre son ´energie propre lorsque la connexion est rompue. Toutefois, il existe une classe de syst`eme pour lesquels bons nombres de choses se passent bien, en particulier un certain type de comportement se trouve maintenu quelles que soient les connexions. Cette particularit´e est remarquable, mais impose des restrictions importantes. Ce sont d’une part, la d´efinition de cette classe de syst`emes, ainsi que leurs propri´et´es et restrictions, qui seront maintenant ´etudi´ees.
108
5 Passivit´e Lyapunov d V dt
Syst`eme sans entr´ee : x˙ = f (x)
≤0
Passivit´e Syst`eme entr´ee-sortie :
x˙ = f (x, u)
d V dt
y = h(x)
≤ Puissance Fournie
Tableau 5.1. Tableau distinctif pour la stabilit´e et la passivit´e.
5.1 Notion intuitive Le syst`eme x˙ = f (x, u) y = h(x, u) poss`ede ` a la fois une entr´ee u et une sortie y = h(x, u). L’entr´ee est utilis´ee pour injecter ou soutirer de la puissance. Un syst`eme est passif si lorsque de la puissance est soutir´ee, le soutirage se fait au d´etriment du stock interne d’´energie. Ainsi il ne peut pas y avoir de g´en´eration interne de puissance. Ce stock est en quel que sorte l’analogue de la fonction de Lyapunov du chapitre pr´ec´edent. On le notera ´egalement V .
5.2 Exemple de syst` eme statique passif Les syst`emes passifs les plus simples sont ceux qui ne comportent pas de dynamique. La sortie est directement fonction de la valeur de la grandeur d’entr´ee. Pour simplifier encore d’avantage la pr´esentation, l’exemple consid´er´e comporte une entr´ee d’une seule dimension et une sortie d’une seule dimension. Ainsi, pour que la puissance soit dissip´ee, il faut que le produit entr´ee sortie, c’est-` a-dire ui soit positif, afin que la puissance soit consomm´ee et dissip´ee `a chaque instant dans le syst`eme statique. L’exemple simple de la r´esistance ´electrique u = Ri
5.4 Exemple de syst`eme dynamique passif
109
est donn´e ` a la figure 5.1 et illustre parfaitement ce cas de syst`eme. Etant donn´e que le syst`eme est statique, la puissance est dissip´ee instantan´ement. Il n’y a pas la notion de stock interne de puissance. La fonction V est absente dans ce cas.
i i
u
u
Fig. 5.1. La r´esistance ´electrique est un syst`eme statique passif
Un simple calcul donne ais´ement ui = Ri2 et confirme que la puissance instantan´ee est effectivement instantan´ement dissip´ee dans la r´esistance ´electrique.
5.3 Syst` eme statique passif L’exemple de la simple r´esistance ´electrique peut s’´etendre par analogie ` une plus large classe de syst`emes. L’extension doit cependant prendre en a compte la n´ecessit´e de dissiper instantan´ement la puissance que donne le couple entr´ee-sortie. En cons´equence, il est imp´eratif que uy = g,
g>0
lors de la pr´esence d’un syst`eme statique passif. Ceci signifie que la caract´eristique statique doit n´ecessairement se trouver dans le premier et le troisi`eme quadrant, conform´ement `a ce qui est repr´esent´e a la figure 5.2. `
5.4 Exemple de syst` eme dynamique passif Lorsque le syst`eme comporte une partie dynamique, certaines variables d’´etat sont associ´ees au syst`eme. Le produit de l’entr´ee par la sortie uT y, ne suffit plus pour caract´eriser la passivit´e.
110
5 Passivit´e y
u
Fig. 5.2. Repr´esentation graphique d’un syst`eme passif statique : La caract´eristique doit appartenir au secteur rerp´esent´e en vert solide.
En effet, la puissance peut ˆetre emaganis´ee dans les ´el´ements dynamiques. Elle peut ´egalement ˆetre restitu´ee `a l’entr´ee du syst`eme. Pour mieux comprendre le ph´enom`ene, ´etudions un circuit ´electrique comportant que des r´esistances, inductances et capacit´es. Le circuit est repr´esent´e a la figure 5.3. `
il
R1
u
L
uc
C
R2
Fig. 5.3. Un circuit ´electrique RLC est un syst`eme dynamique passif.
Ce circuit peut recevoir de la puissance par l’entremise du couple entr´eesortie u et i. Cette puissance est alors dissip´ee partiellement dans les r´esistances et stock´ee dans les deux ´el´ements C (capacit´e) et L (inductance). Le circuit peut ´egalement fournir de la puissance en entr´ee en diminuant sont stock interne d’´energie, en diminuant soit la charge dans la capacit´e soit le champ magn´etique dans la bobine. Soit donc la fonction de stockage V =
1 2 1 2 Cu + Li 2 c 2 l
La dynamique du syst`eme est : dil + uc dt 1 duc + uc i=C dt R2
u = R1 il + L
5.6 Propri´et´es
111
En posant x1 = il et x2 = uc on arrive `a la repr´esentation d’´etat R1 1 1 u− x1 − x2 L L L 1 1 x2 x˙ 2 = x1 − C R2 C x˙ 1 =
On peut donc calculer l’´evolution du stockage dans le temps : V˙ = Lx1 x˙ 1 + Cx2 x˙ 2 = ux1 − R2 x21 − x1 x2 + x2 x1 − = ux1 − R2 x21 −
1 2 x R2 2
1 2 x R2 2
En consid´erant la sortie y = il = x1 : V˙ = uy − g(x), avec g(x) = R2 x21 + R12 x22 Ainsi la puissance en entr´ee est – soit stock´ee – soit dissip´ee
5.5 D´ efinition diff´ erentielle de la passivit´ e L’exemple pr´ec´edent rend possible une extension math´ematique de la notion de passivit´e, tout comme cela a ´et´e le cas lors de la g´en´eralisation de la r´esistance ´electrique ` a une plus large classe de syst`emes. D´ efinition 5.1. Soit le syst`eme, x˙ = f (x, u) y = h(x) S’il existe γ > −∞, V > γ, et, V˙ = uT y − g avec g ≥ 0, alors le syst`eme est passif.
5.6 Propri´ et´ es L’immense avantage des syst`emes passifs est leur plasticit´e lors de connexion en tout genre. En effet, ces syst`emes se comportent tr`es bien lors de connexion
112
5 Passivit´e
en s´erie, car les syst`emes agissent en quelque sorte ind´ependammant de leur connexion. Mais ils se comportent ´egalement tr`es bien lors de connexion `a la fois en parall`ele et en r´etroaction. Ce dernier cas est important lors d’association de sous-syst`emes passif en retour de sortie. 5.6.1 Connexion parall` ele Lors d’une connexion parall`ele, u1
y1 V1 ,
g1 +
u
y
+
u2
V2 ,
g2
y2
chacun des deux syst`emes comporte une fonction de stockage interne V1 et V2 respectivement et ob´eit `a la d´efinition 5.1. Ceci donne, V˙ 1 = uT1 y1 − g1 V˙ 2 = uT2 y2 − g2 V˙ = V˙ 1 + V˙ 2 = uT1 y1 + uT2 y2 − g1 − g2 = u T y1 + u T y2 − g1 − g2 = uT (y1 + y2 ) − g1 − g2 V˙ = uT y − g,
o` u l’on a fait l’usage de la particularit´e de la connexion parall`ele. Le calcul montre donc que, si l’on consid`ere V = V1 +V2 comme fonction de stockage associ´e ` a l’assemblage constitu´e par la connexion en parall`ele des deux syst`emes individuels, alors cet assemblage r´epond encore `a la mˆeme d´efinition 5.1, en utilisant cette fois-ci V = V1 + V2 et g = g1 + g2 . La passivit´e est donc maintenue !
5.6 Propri´et´es
113
5.6.2 Connexion par r´ etroaction La connexion par r´etroaction est plus pernicieuse ´etant donn´e que les deux syst`emes interagissent d’amont en aval et ceci `a l’infini. Soit donc la connexion par r´etroaction n´egative, u1
u -
y2
V1 ,
g1
V2 ,
g2
y1
y
u2
pour laquelle chacun des sous-syst`emes constitutifs ob´eit `a la d´efinition 5.1. En tenant compte de la particularit´e de la connexion, V˙ 1 = uT1 y1 − g1 V˙ 2 = uT2 y2 − g2 V˙ = V˙ 1 + V˙ 2 = uT1 y1 + uT2 y2 − g1 − g2 = (uT − y2T )y1 + uT2 y2 − g1 − g2
= (uT − y2T )y1 + y1T y2 − g1 − g2 = uT y1 − y2T y1 + y1T y2 − g1 − g2
= u T y1 − g1 − g2 V˙ = uT y − g.
Et la mˆeme constatation que dans le cas de la connexion parall`ele est d´eduite : Le syst`eme est passif avec comme fonction de stockage V = V1 + V2 et terme de dissipation g = g1 + g2 . Remarque 5.2. La propri´et´e de maintenir la passivit´e apr`es connexion par r´etro-action negative de deux syst`eme passifs est extrˆemement utile pour synth´etiser des lois de commande. En effet, il est possible d’identifier des sous-syst`emes passifs dans un syst`eme `a commander. Lorsque ceci n’est pas directement le cas, un bouclage partiel peut transformer une sous-partie en une sous-partie passive. Lorsque le syst`eme complet admet (apr`es bouclage) une d´ecomposition en syst`emes passifs (chaque sous-syst`eme est connect´e aux autres par connexion parall`ele, s´erie ou par r´etroaction n´egative) la stabilit´e sera garantie par les propri´et´es de connexion ´elabor´ees ci-dessus. Ceci permet de constituer une fonction de Lyapunov compliqu´ee `a partir de fonctions plus simples associ´ees aux sous-parties passives. Nous examinerons de telles techniques dans la section consacr´ee `a la synth`ese.
114
5 Passivit´e
5.6.3 D´ efinition int´ egrale de la passivit´ e Il est ´egalement possible de donner une d´efinition ´equivalente de la passivit´e sous forme int´egrale ne faisant pas intervenir de notion diff´erentielle. D´ efinition 5.3. S’il existe γ ∈ R, γ > −∞, V > γ et g ≥ 0 tel que si V˙ = uT y − g ceci implique ∃α ∈ R, α > −∞ Z ∞
u(τ )T y(τ )dτ > α
0
alors le syst`eme est passif. Remarque 5.4. Pour voir la correspondance entre les deux d´efinitions, (il suffit de prendre g ≡ 0). En fait, la d´efinition int´egrale signifie qu’il est impossible en jouant sur l’entr´ee de rendre arbitrairement petit le stock interne d’´energie. Ce stock est born´e inf´erieurement. Cette d´efinition sera utilis´ee pour d´emontrer un lien important entre la propri´et´e de passivit´e et la caract´eristique fr´equentielle associ´ee aux syst`emes lin´eaires par l’entremise de l’identit´e de Perseval.
5.7 Passivit´ e des syst` emes lin´ eaires SISO Les deux d´efinitions de la passivit´e (d´efinition 5.1 et 5.3), s’appliquent aussi bien aux syst`emes lin´eaires que non-lin´eaires. Pour les syst`emes lin´eaires, cette propri´et´e peut se caract´eriser en fonction de la caract´eristique fr´equentielle. Soit une fonction de transfert donn´ee comme une fraction rationnelle en variable de Laplace s. G(s) =
bm sm + bm−1 sm−1 + . . . + b1 s + b0 sn + an−1 sn−1 + . . . + a1 s + a0
Il est possible de caract´eriser la propri´et´e de passivit´e en fonction de la r´eponse harmonique du syst`eme. Th´ eor` eme 5.5. Le syst`eme G(s) =
Y (s) U(s)
est passif
⇔ ℜe[G(jω)] ≥ 0
5.7 Passivit´e des syst`emes lin´eaires SISO
115
Remarque 5.6. Le r´esultat du th´eor`eme pr´ec´edent n’a rien de surprenant si l’on consid`ere un circuit ´electrique RLC, car le d´ephasage induit par un quelconque assemblage de tels ´el´ements ne pourra jamais sortir de l’interval [− π2 ; π2 ]. Le plus ´etonant est que ceci soit le cas, quel que soit le syst`eme passif. Mentionnons, par ailleurs, que le probl`eme inverse est encore plus int´eressant : Remarque 5.7. La synth`ese d’un syst`eme passif lin´eaire quelconque `a l’aide d’un r´eseau ´electrique comportant uniquement des ´el´ements R, L ou C est d’une complexit´e consid´erable. Ce probl`eme a occup´e le centre de la sc`ene de la recherche dans le domaine au cours des trois premiers quarts de si`ecles du si`ecle dernier.
ℑ
ℜ G(jω)
Fig. 5.4. Diagramme de Nyquist d’un syst`eme lin´eaire SISO passif.
Exemple 5.8. Afin de confirmer la pr´ec´edente remarque, le circuit ´el´ectrique RLC est reconsid´er´e. La fonction de transfert est G(s) =
I(s) R2 Cs + 1 = U (s) R2 CLs2 + (R1 R2 C + L)s + R1 + R2
Les valeurs num´eriques suivantes sont choisies : R1 = 1, R2 = 10, C = 2.4, L = 1.2. Il est alors ais´e de constater que la partie r´eelle de la r´eponse harmonique est ` a partie r´eelle positive, exhibant ainsi rien d’autre que la propri´et´e des signaux p´eriodiques de nature sinuso¨ıdale d’ˆetre d´ephas´e d’un angle de valeur absolue toujours inf´erieure ou ´egale `a π2 .
116
5 Passivit´e
Nyquist Diagrams
0.5 0.4 0.3
Imaginary Axis
0.2 0.1 0 -0.1 -0.2 -0.3 -0.4
G(jω)
-0.5 -1
-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
0.8
Real Axis
Fig. 5.5. Diagramme de Nyquist pour un exemple particulier de circuit ´electrique passif.
5.7.1 Preuve du lien entre passivit´ e et r´ eponse harmonique positive r´ eelle Pour d´emontrer le lien, consid´erons les signaux repr´esent´es `a la figure 5.6.
Preuve.
u
y τ
t
G(s)
τ
Fig. 5.6. Illustration pour la d´emonstration de la passivit´e
Le syst`eme est soumis ` a un signal d’entr´ee non nul sur un horizon temporel de o ` a τ . L’entr´ee est nulle avant le temps initial t = 0 et ensuite abruptement arrˆet´e pour tout instant t sup´erieur `a τ . La sortie par contre n’a aucune raison de revenir ` a zero pour tout instant sup´erieur `a τ . La cl´e de la d´emonstration r´eside dans le fait que le bilan de puissance sur tout l’horizon temporel est ´egal au bilan sur tout le spectre. Le c´el`ebre th´eor`eme de Perseval est donc utilis´e.
5.7 Passivit´e des syst`emes lin´eaires SISO
Z
∞
u(τ )y(τ )dτ =
0
Z
∞
117
y(τ )u(τ )dτ
−∞
Z ∞ 1 Y (jω)U ∗ (jω)dω (Perseval) 2π −∞ Z ∞ 1 G(jω) | U (jω) |2 dω = 2π −∞ Z 0 Z ∞ 1 1 2 = G(jω) | U (jω) | dω + G(jω) | U (jω) |2 dω 2π −∞ 2π 0 Z 0 Z ∞ 1 1 =− G(−j ω ¯ ) | U (−j ω ¯ ) |2 d¯ ω+ G(jω) | U (jω) |2 dω 2π ∞ 2π 0 =
u(t) r´eel → U (jω) = U ∗ (−jω) | U (−jω) | = U (−jω)U ∗ (−jω) = U ∗ (jω)U (jω) =| U (jω) |2 2
donc
Z ∞ Z ∞ 1 1 G(−jω) | U (jω) |2 dω + G(jω) | U (jω) |2 dω 2π 2π 0 0 Z 0 1 ∞ G(−jω) + G(jω) 2 = | U (jω) | dω π 0 2 Z 1 ∞ = ℜe[G(jω)] | U (jω) |2 dω π 0 R∞ ℜe[G(jω)] ≥ 0, ∀ω > 0 ⇒ 0 u(τ )T y(τ )dτ > α, α > −∞ La d´emonstration proc`ede maintenant par l’absurde, c’est-`a-dire que l’on suppose que dans le syst`eme viole le principe que la partie r´eelle de la r´eponse harmonique puisse avoir une partie r´eelle n´egative. Ainsi supposons que dans la plage de fr´equence ∃ω1 , ∃ω2 → ℜe[G(jω)] < 0} ∀ω ∈ (ω1 ; ω2 ). Ce cas de figure est repr´esent´e ` a la figure 5.7.
Z
∞
u(τ )y(τ )dτ =
ℜe[G(jω)]
ω1
ω2
ω
Fig. 5.7. La partie r´eelle est n´egative pour dans la plage fr´equentielle ]ω1 ; ω2 [.
Il se pourrait, d`es lors, que de l’´energie soit inject´ee dans cette bande de fr´equence. Pire encore, nous pourrions arbitrairement augmenter cette ´energie en jouant explicitement sur la fr´equence du signal d’excitation. Ceci est repr´esent´e ` a la figure 5.8.
118
5 Passivit´e
| U (jω) |2
ω1
ω2
ω
Fig. 5.8. L’´energie dans la plage de fr´equence ]ω1 ; ω2 [ est augment´ee de mani`ere arbitraire
En ´ecrivant ceci de mani`ere calculatoire, Z ∞ Z 1 ω1 u(τ )y(τ )dτ = ℜe[G(jω)] | U (jω) |2 dω (≥ 0) π 0 0 Z 1 ω2 + ℜe[G(jω)] | U (jω) |2 dω (< 0) ⇓ π ω1 Z 1 ∞ + ℜe[G(jω)] | U (jω) |2 dω (≥ 0). π ω2 De part le fait que la partie r´eelle est n´egative seulement dans la plage ]ω1 ; ω2 [, seul le terme du centre peut ˆetre rendu n´egatif. Toutefois, ce terme peut ˆetre rendu arbitrairement n´egatif et donc l’int´egrale peut ˆetre rendue aussi n´egative que d´esir´ee. En cons´equence, si ∃ω1 , ∃ω2 → ℜe{G(jω) < 0} ∀ω ∈ (ω1 ; ω2 ) on a, ∀α > −∞, ∃u(t) tel que, Z
∞
u(τ )y(τ )dτ < α.
0
En utilisantR la contrapos´ee, (A ⇒ B ≡ A ⇐ B), ℜe{G(jω)} ≥ 0, ∀ω > 0 ∞ T a la conclusion 0 u(τ ) y(τ )dτ > α, (∀u(t)), et nous arrivons ` de la proposition, en utilisant la d´efinition int´egrale de la passivit´e ??
⇐∃α > −∞,
5.8 Syst` eme r´ eel positif Le th´eor`eme pr´ec´edent conduit naturellement `a d´efinir une classe de syst`emes lin´eaires en fonction de la partie r´elle de leur r´eponse harmonique.
5.8 Syst`eme r´eel positif
119
D´ efinition 5.9. G(s) est r´eelle positive (RP) si, ℜe [G(s)] ≥ 0, ∀ℜe[s] ≥ 0; et strictement r´eelle positive (SRP) si, ∃ǫ > 0 tel que G(s − ǫ) est (RP). Th´ eor` eme 5.10. Une fonction de transfert G(s) est (SRP) ⇔ 1. G(s) est strictement stable (sans pˆ ole sur l’axe imaginaire) 2. ∀ω ≥ 0 ⇒ ℜe [G(jω)] > 0 Une d´emonstration de ce th´eor`eme peut ˆetre trouv´ee dans [Kha02]. 5.8.1 Degr´ e relatif et minimum de phase Quelques crit`eres simples sont `a disposition pour d´etecter les syst`emes positifs r´eels, ou plus exactement pour rejeter ceux qui ne le sont pas. La fonction de transfert peut ˆetre mise sous forme de fraction rationnelle de polynˆ omes factoris´es de telle sorte que les z´eros et les pˆ oles apparaissent de mani`ere explicite. Qm (s − zi ) Q G(s) = ni=0 (s − pi ) i=0
C’est en fonction de la caract´eristique de ces pˆ oles et z´eros qu’il est possible d’´etablir des crit`eres de n´ecessit´e pour que la r´eponse harmonique ait la propri´et´e de la d´efinition 5.9. Deux notions jouent un rˆole fondamental dans cette analyse. Il s’agit du concept de degr´e relatif et de minimum de phase. Le premier est d´efini comme la diff´erence entre le nombre de pˆ oles et le nombre de z´eros. D´ efinition 5.11. (degr´e relatif ) Le degr´e relatif not´e do r est d´efini comme la diff´erence do r = n − m o` u n est le nombre de pˆ oles de la fonction de transfert et m, le nombre de z´eros. Etant donn´e qu’un syst`eme physique est causal, cette diff´erence sera toujours consid´er´ee positive ou nulle. Caract´eristique 5.12. Pour un syst`eme physique, le degr´e relatif est toujours positif ou nul, i.e. do r. ≥ 0.
120
5 Passivit´e
La deuxi`eme notion est celle de minimum de phase. Elle joue ´egalement un rˆole majeur lors de la commande de syst`eme par lin´earisation entr´ee-sortie et sera abord´ee au chapitre 7. Cette propri´et´e est li´ee `a la position des z´eros dans le plan complexe. D´ efinition 5.13. (minimum de phase) Un syst`eme lin´eaire est dit a ` minimum de phase si tous ces z´eros ont une partie r´eelle strictement n´egative. i.e. Re(zi ) < 0, i = 1, . . . , m. Remarque 5.14. La d´efinition pr´ec´edente de la notion de syst`eme `a minimum de phase est valable pour les syst`emes lin´eaires uniquement. Une d´efinition plus g´en´erale, ne faisant pas appel `a la notion de fonction de transfert, existe et elle sera donn´ee au chapitre 7. Les quatre exemples qui suivent permettent, d’une part de se familiariser avec ces notions et, d’autre part, d’illustrer les conditions n´ecessaires pour la pr´esence d’un syst`eme r´eel positif. Ces quatres exemples pr´esentent chacun une fonction de transfert type. Les r´eponses harmoniques sont repr´esent´ees a la fois dans le diagramme de Nyquist et dans le diagramme de Bode. Le ` diagramme de Bode comporte un graphique pour l’amplitude et un pour la phase. Exemple 5.15. Le premier exemple correspond `a la fonction de transfert, G(s) =
1 , (s + 1)(s + 1)
dont la r´eponse harmonique est repr´esent´ee `a la figure 5.9. En examinant les notions introduites `a la section pr´ec´edente, on constate que le degr´e relatif vaut deux et ne comporte pas de z´ero. Il est donc `a phase minimale. Le syst`eme est ´egalement stable. Cependant la partie r´eelle de la r´eponse harmonique comporte toujours une partie r´elle n´egative, comme le montre le diagramme de Nyquist et la phase du diagramme de Bode. Exemple 5.16. Le deuxi`eme exemple, G(s) =
s+2 , (s + 1)(s − 1)
est de degr´e relatif 1, mais il comporte cette fois un z´ero dont la partie r´eelle est n´egative. Un coup d’oeil sur les pˆ oles montre que le syst`eme est cependant instable, puisqu’un de ceux-ci se trouve en +1. La partie r´eelle de la r´eponse harmonique devient n´egative `a partir d’une certaine pulsation comme l’illustre la figure 5.10. Ceci est logique ´etant donn´e que l’instabilit´e n´ecessite d’encercler le point −1. La r´eponse harmonique doit donc n´ecessairement entrer dans le deuxi`eme ou troisi`eme quadrant.
5.8 Syst`eme r´eel positif Bode de (s+2)/[(s+1)(s-1)] :-(
121
Nyquist Diagrams :-( 0.5
5 0.4
-5
0.3
-10
0.2
-15
Imaginary Axis
Phase (deg); Magnitude (dB)
0
-20 -100
-120
0.1 0 -0.1 -0.2
-140
-0.3
-160
-0.4 -0.5 -1
10
0
1
10
10
-2
-1.5
Frequency (rad/sec)
-1
-0.5
Real Axis
Fig. 5.9. Toute la r´eponse harmonique poss`ede une partie r´eelle n´egative. Le degr´e relatif est do r = 2. Bode de 1/[(s+1)(s+1)] :-(
Nyquist Diagrams :-(
0
0.6
-10 0.4
0.2
-30 Imaginary Axis
Phase (deg); Magnitude (dB)
-20
-40
0
-0.2
-50
-0.4
-100
-150
-0.6 -1
10
0
1
10
10
-1
Frequency (rad/sec)
-0.5
0
0.5
1
Real Axis
Fig. 5.10. Une partie de la r´eponse harmonique poss`ede une partie r´eelle n´egative. Le degr´e relatif est do r = 1, mais le syst`eme est instable.
Exemple 5.17. Le troisi`eme exemple, G(s) =
s−2 , (s + 1)(s + 1)
est stable et de degr´e relatif 1. Mais il comporte un z´ero situ´e `a 2, c’est-`a-dire dans le demi plan complexe correspondant `a une partie r´eelle positive. Le syst`eme n’est donc pas ` a phase minimale.
122
5 Passivit´e Bode de (s-2)/[(s+1)(s+1)]:-(
Nyquist Diagrams :-( 1.5
5 0 1
-10 0.5 -15
Imaginary Axis
Phase (deg); Magnitude (dB)
-5
-20
150
0
-0.5
100 50
-1 0 -50
-1.5 -1
10
0
10
1
10
-2
Frequency (rad/sec)
-1
0
Real Axis
Fig. 5.11. Une partie de la r´eponse harmonique poss`ede une partie r´eelle n´egative. Le degr´e relatif est do r = 1. Le syst`eme est stable, mais il n’est pas ` a phase minimale.
La r´eponse harmonique est repr´esent´ee `a la figure 5.11 et d´emontre, comme dans le cas de l’exemple pr´ec´edent, que le syst`eme n’est pas r´eel positif. Exemple 5.18. Le dernier exemple G(s) =
s+2 , (s + 1)(s + 1)
est stable, de degr´e relatif 1. La fonction de transfert comporte un z´ero dans le demi plan complexe gauche et donc repr´esente un syst`eme `a phase minimale. De plus, les deux pˆ oles ont une partie r´eelle strictement n´egative correspondant ` a syst`eme est stable. La r´eponse harmonique est repr´esent´ee `a la figure 5.12 et est `a partie r´eelle positive sur tout l’ensemble des fr´equence. Le syst`eme est donc positif r´eel. 5.8.2 Lien entre Lyapunov et syst` eme RP Les quatre exemples pr´ec´edents sugg`ere que les crit`eres suivants sont n´ecessaires pour que le syst`eme soit r´eel positif. Caract´eristique 5.19. Si la fonction de transfert est positive r´eelle, c.-`a-d. ℜe [G(jω)] ≥ 0, ∀ω, alors 1. le degr´es relatif est nulle ou ´egal `a 1 ;
5.8 Syst`eme r´eel positif Bode de (s+2)/[(s+1)(s+1)] :-)
5
1
0
0.8
-5
0.6
-10
0.4
-15
Imaginary Axis
Phase (deg); Magnitude (dB)
123
Nyquist Diagrams :-)
-20
0.2 0 -0.2
-20 -0.4 -40 -0.6 -60
-0.8
-80
-1 -1
0
10
10
Frequency (rad/sec)
1
10
-1
0
1
2
Real Axis
Fig. 5.12. La r´eponse harmonique est ` a partie r´eelle positive. Le degr´e relatif est do r = 1. Le syst`eme est stable. Il est ´egalement ` a phase minimale.
2. il n’y a pas de z´ero ` a partie r´eelle positive (G(s) est `a phase minimale) ; 3. le syst`eme est stable ; Il est alors int´eressant de s’interroger sur la structure de la repr´esentation d’´etat d’un syst`eme lin´eaire passif. Comme le syst`eme est n´ecessairement stable, l’´equation de Lyapunov pour le syst`eme lin´eaire AT P + P A = −Q admet toujours une solution P > 0 pour tout choix de matrice Q > 0. La passivit´e est alors impos´ee par la relation entre l’entr´ee u et la sortie y en relation avec la solution P obtenue lors de la r´esolution de l’´equation de Lyapunov. Une diff´erence essentielle r´eside dans le fait quee choix de Q ne peut plus se faire compl`etement arbitrairement. Remarque 5.20. Le th´eor`eme et la preuve qui vont ˆetre pr´esent´es ci-apr`es vont ˆetre simplifi´e quelque peu pour ne consid´erer que les syst`emes lin´eaires qui, dans la repr´esentation d’´etat, ne contiennent pas d’influence instantan´ee de l’entr´ee sur la sortie (c.-` a-d. D = 0 pour l’´equation de sortie y = Cx + Du). Lemme 5.21. (Kalman-Yakubovich-Popov) Soit G(s) = C(sI − A)−1 B une matrice de transfert m × m avec m ∈ R correspondant a ` un syst`eme qui est a ` la fois commandable, rang B AB . . . An−1 B = n.
et observable,
rang C T AT C T . . . (AT )n−1 C T = n.
124
5 Passivit´e
Sous ces hypoth`eses, la fonction de transfert G(s) est strictement r´eelle positive si, et seulement si, il existe deux matrices sym´etriques d´efinies positives P et Q telles que AT P + P A = −Q et P B = CT . La d´emonstration de ce lemme est assez compliqu´ee (cf. par exemple [Kha02] et [Vid93] ainsi que les r´ef´erences ci trouvant). Toutefois, nous donnons quelques indications sur la d´emonstration. Preuve. (suffisance : ⇐) Par hypoth`ese il existe une matrice P sym´etrique d´efinie positive (P = P T > 0) satisfaisant AT P + P A = −Q pour un certain Q > 0 (´egalement sym´etrique). Etant donn´e que cette ´equation de Lyapunov est respect´ee, l’origine de x˙ = Ax est asymptotiquement stable. Par cons´equent, A n’a pas de valeur propre ` a partie r´eelle strictement positive. Posons Φ(s) = (sI − A)−1 de telle sorte que G(s) + GT (−s) = CΦ(s)B + B T Φ(−s)C T . En utilisant le fait que P B = C T (par hypoth`ese), G(s) + GT (−s) = B T P Φ(s)B + B T ΦT (−s)P B = B T Φ(−s)T (ΦT (−s))−1 P + P (Φ(s))−1 Φ(s)B = B T Φ(−s)T ((−sI − A)T P + P (sI − A) Φ(s)B = B T ΦT (−s) −AT P − P A) Φ(s)B = B T ΦT (−s)QΦ(s)B,
o` u pour la derni`ere ´egalit´e, la propri´et´e AT P + P A = −Q a ´et´e utilis´ee. On conclut ainsi que G(s + GT (−s) ≥ 0 pour autant que ℜ(s) ≥ 0. Le syst`eme est donc bien positif r´eel. (n´ecessit´e : ⇒) Comme la matrice de fonctions de transfert G(s) est connue, il est possible de la factoriser sous la forme G(s) + GT (−s) = T (s)T T (−s) par l’interm´ediaire du lemme suivant : Lemme 5.22. Si une matrice V (.) est rationnelle propre de dimension m×m de telle sorte que V (s) = V T (−s) et V (jω) > 0, ∀ω, alors il existe une matrice stable rationnelle T (.) de dimension m × m telle que V (s) = T T (s)T (s), avec en plus rang T (jω) = m, ∀ω.
5.8 Syst`eme r´eel positif
125
(Une preuve de ce lemme se trouve dans Anderson, B. D. O. and Moore, J. B. Optimal Filtering, Prentice-Hall, 1979 ; une illustration dans le cas monovariable est donn´ee ` a la remarque 5.23, apr`es la d´emonstration.) Comme une r´ealisation de G(s) est suppos´ee, par hypoth`ese, commandable et observable, ces deux propri´et´es sont ´egalement vraies pour T (s), de telle ¯ + Bu, ¯ sorte que la matrice T (s) admet une r´ealisation minimale x˙ = Ax −1 ¯ ¯ ¯ ¯ y = Cu avec T (s) = C(sI − A) B. ¯ ¯ −1 , Maintenant, en posant Φ(s) = (sI − A) ¯ T Φ¯T (−s)C¯ T C¯ Φ(s) ¯ B. ¯ T T (−s)T (s) = −B
(5.1)
Comme la r´ealisation est observable, il existe une matrice sym´etrique d´efinie ¯ > 0 telle que positive R ¯+R ¯ A¯ = −C¯ T C. ¯ A¯T R De plus,
¯+R ¯ A¯ = (sI + A¯T )R ¯ − R(sI ¯ ¯ −C¯ T C¯ = A¯T R − A).
(5.2)
¯ En substituant cette expression dans (5.1), on obtient en utilisant Φ(s) = −1 ¯ (sI − A) : = = = =
T T (−s)T (s) ¯T Φ ¯T (−s) (sI + A¯T )R ¯ − R(sI ¯ ¯ Φ(s) ¯ B ¯ −B − A) ¯ T ((−sI − A) ¯ −1 )T −(−sI − A) ¯ TR ¯ − R(sI ¯ ¯ (sI − A) ¯ −1 B ¯ −B − A) T T −1 T −1 ¯ R ¯+B ¯ ((−sI − A) ¯ ) R(sI ¯ ¯ (sI − A) ¯ B ¯ B − A) T −1 T −1 T ¯ R(sI ¯ ¯ B ¯ +B ¯ ((−sI − A) ¯ ) R ¯B ¯ B − A)
¯T R ¯ Φ(s) ¯ B ¯ +B ¯T Φ ¯T (−s)R ¯ B. ¯ =B
(5.3)
D’un autre cˆ ot´e, en consid´erant une r´ealisation de G(s) (au lieu de celle de T (s)) donn´ee par x˙ = Ax+Bu, y = Cx avec G(s) = C(sI −A)−1 B, le produit T T (−s)T (s) s’´ecrit ´egalement sous la forme T T (−s)T (s) = G(s) + GT (s) = C(sI − A)−1 B + B T (−sI − AT )−1 C T (5.4) Comme toutes les valeurs propres des r´ealisations de G(s) et T (s) ont une partie r´eelle n´egative (les pˆ oles sont tous `a partie r´eelle strictement plus petite que z´ero de telle sorte que les valeurs propres de A et A¯ le sont ´egalement), il est possible d’identifier terme `a terme les expressions (5.3) et (5.4). Le terme de gauche correspond ` a un syst`eme compl`etement stable, et celui de droite `a un syst`eme ”sym´etrique” compl`etement instable. Les stables et les instables doivent donc ˆetre ´egaux ; on ne peut pas croiser les valeurs propres. On obtient par cons´equent ¯ T R(sI ¯ ¯ −1 B ¯ = C(sI − A)−1 B. B − A)
(5.5)
126
5 Passivit´e
Finalement, en se souvenant que si deux r´ealisations minimales ´equivalentes ˜ B, ˜ C)) ˜ donnent la mˆeme matrice de transfert, alors il (disons (A, B, C) et (A, ˜ , existe une matrice de changement de coordonn´ee M telle que A = M −1 AM −1 ˜ ˜ B = M B et C = CM . L’expression (5.5) signifie qu’il existe une cer¯ , C = B ¯ T RM ¯ ¯ En taine matrice M telle que A = M −1 AM et B = M −1 B. −1 ¯ T ¯T ¯ cons´equence, P B = P M B = M R B de telle sorte qu’avec ¯T M P = MT R l’´equation P B = CT est respect´ee. En ce qui concerne la derni`ere propri´et´e, `a savoir ´etablir AT P + P A = −Q avec Q une matrice d´efinie positive, on consid`ere une petite perturbation de la fonction de transfert G(s). En fait on utilise non pas G(s) directement mais G(s − µ) avec µ variant entre 0 et un petit param`etre δ > 0. Comme δ est choisi petit, G(s − µ) demeure strictement r´eel positif. Ceci revient ` a consid´erer ǫ Aǫ = A + I 2 pour un petit param`etre ǫ > 0 qui continue `a satisfaire toutes les hypoth`eses. En utilisant Aǫ au lieu de A dans le raisonnement ci-dessus, et en adaptant les quantit´es M , R, A¯ en tenant compte du changement de A vers Aǫ , nous avons ¯ ǫT Mǫ + MǫT R ¯ ǫT Mǫ Aǫ ATǫ P + P Aǫ = ATǫ MǫT R −1 ¯ T T ¯T ¯ T Mǫ (M −1 A¯ǫ Mǫ ) = (Mǫ Aǫ Mǫ ) Mǫ Rǫ Mǫ + MǫT R ǫ ǫ ¯ǫ + R ¯ ǫ A¯ǫ )Mǫ = MǫT (A¯Tǫ R = −M T C¯ T C¯ǫ Mǫ ǫ
ǫ
Finalement, en revenant vers A, ǫ ǫ (A + I)T P + P (A + I) = −MǫT C¯ǫT C¯ǫ Mǫ 2 2 AT P + P A = −MǫT C¯ǫT C¯ǫ Mǫ − ǫP = −Q, et comme Q est visiblement d´efinie positive, le r´esultat est d´emontr´e. Remarque 5.23. Pour illustrer la factorisation polynomiale utilis´ee dans la par1 tie de la suffisance, prenons le cas monovariable G(s) = s+a avec a > 0. La factorisation T (s) est obtenue en consid´erant √ √ 1 2a 2a 1 T + = = T (s)T T (−s). G(s) + G (−s) = s+a a−s s+aa−s Le lemme 5.22 indique que cette factorisation a ´egalement lieue en multivariable.
5.8 Syst`eme r´eel positif
127
Remarque 5.24. La preuve du lemme montre la n´ecessit´e de la commandabilit´e et l’observabilit´e du syst`eme lin´eaire (A, B, C). Ces hypoth`eses sont utilis´ees a deux reprises. Premi`erement pour garantir l’existence des r´ealisations mi` nimales de G(s) et T (s) permettant l’existence de la matrice de passage M , ¯+R ¯ A¯ = −C¯ T C¯ o` mais ´egalement lors de l’identit´e A¯T R u l’observabilit´e de la r´ealisation de T (s) est utilis´ee (d´ecoulant de celle de la r´ealisation de G(s)). Le th´eor`eme 5.25 (pr´esent´e ci-apr`es) montre que la positivit´e r´eelle implique la passivit´e. Dans une certaine mesure, les hypoth`eses de commandabilit´e et d’observabilit´e sont alors clairement n´ecessaires. En effet, si ce n’´etait pas le cas, une combinaison d’´etat non observable ne pourrait pas avoir d’impact sur la sortie, ce qui permettrait en utilisant l’entr´ee u(t) de rendre arbitrairement R∞ petit l’int´egrale −∞ uT (τ )y(τ )dτ en injectant de l’´energie dans la direction non observable, impliquant ainsi la non passivit´e selon la d´efinition int´egrale. Ces ´el´ements seront abord´es dans les exercices ? ?. Th´ eor` eme 5.25. Si un syst`eme lin´eaire x˙ = Ax + Bu, y = Cx admet deux matrices sym´etriques d´efinies positives P et Q qui satisfont les deux ´equations AT P + P A = −Q P B = CT
alors le syst`eme est passif avec comme fonction de stockage interne V =
1 T x Px 2
g=
1 T x Qx. 2
et comme terme de dissipation
Preuve. Comme mentionn´e plus haut, la matrice A est stable, et l’´equation de Lyapunov AT P + P A = −Q admet une solution P > 0 quel que soit le choix de la matrice Q > 0. Posons V (x) = 12 xT P x et calculons sa d´eriv´ee 1 T x˙ P x + xT P x˙ V˙ (x) = 2 1 (Ax + bu)T P x + xT P (Ax + bu) = 2 1 = xT (AT P + P A)x + ubT P x 2 1 = − xT Qx + ubT P x. 2 En cons´equence, lorsque y = bT P x = cT x,
128
5 Passivit´e
on obtient 1 V˙ = − xT Qx + uy 2 = uy − g, de telle sorte que le syst`eme respecte bien la d´efinition de passivit´e avec V =
1 T x Px 2
et g =
1 T x Qx. 2
Remarque 5.26. Plusieurs P sont n´ecessairement obtenus par r´esolution de la fonction de Lyapunov AT P +P A = −Q. Seule une sera telle que P b = c. D’un autre cˆ ot´e, en consid´erant uniquement l’´equation P b = c, plusieurs possibilit´es existent, mais elles conduisent `a de mauvais choix, ´etant donn´e qu’elles ne satisfont pas n´ecessairement AT P + P A = −Q. Par exemple, la sym´etrie de P n’a aucune raison d’ˆetre satisfaite.
5.9 Stabilit´ e absolue La stabilit´e trait´ee dans cette section apparaˆıt lorsqu’un syst`eme lin´eaire est boucl´e par une non-lin´earit´e statique. Cette classe de syst`eme a d´ej` a fait l’objet de l’´etude par la m´ethode du premier harmonique dans le chapitre 3. Trois diff´erences essentielles vont apparaˆıtre entre les deux traitements. 1. La non-lin´earit´e appartient `a un secteur. 2. La stabilit´e d’un point d’´equilibre sera exclusivement trait´ee. 3. Les r´esultats ne seront pas approximatifs mais exacts. Nous commencerons pas d´efinir le type de non-lin´earit´e, puis nous donnerons une d´efinition de ce type de stabilit´e. 5.9.1 Non-lin´ earit´ e statique de secteur D´ efinition 5.27. Une non-lin´earit´e φ est une non-lin´earit´e de type secteur [k1 ; k2 ] ∀y 6= 0 ⇒ k1 y ≤ φ(y) ≤ k2 y 5.9.2 D´ efinition de la stabilit´ e absolue Un syst`eme lin´eaire en repr´esentation d’´etat est boucl´e par une nonlin´earit´e statique u = −φ(y), o` u y est la sortie du syst`eme lin´eaire et u son entr´ee :
5.9 Stabilit´e absolue
129
φ(y) k2 y
k1 y y
Fig. 5.13. Un secteur d´elimite la r´egion dans laquelle la non-lin´earit´e statique peut se trouver.
x˙ = Ax − bφ(y)
(5.6)
y = cT x
La question de la stabili´e que l’on va traiter s’´enonce de la mani`ere suivante. D´ efinition 5.28. Un syst`eme lin´eaire x˙ = Ax + bu avec y = cT x est dit stable de mani`ere absolue vis-` a-vis de la non-lin´earit´e φ de secteur [k1 ; k2 ], si le syst`eme (5.6) est stable quel que soit la valeur de la fonction statique comprise dans le secteur [k1 ; k2 ].
u
x˙ = Ax + bu
y = cT x
-
φ
Fig. 5.14. Diagramme de blocs repr´esentant le syst`eme lin´eaire boucl´e par une non-lin´earit´e statique.
130
5 Passivit´e
5.9.3 Conjecture de M. A. Aizerman Le secteur d´efinit un lieu de points `a l’int´erieur duquel la caract´erstique statique non lin´eaire doit se situer. Si le secteur se r´etr´ecit de telle sorte qu’il se confonde avec une droite lorsque k1 → k2 , la caract´eristique statique devient un simple gain. Lorsque k1 6= k2 , le secteur est suffisamment large de telle sorte que plusieurs pentes k diff´erentes peuvent y ˆetre inclues. Ainsi, la question est de savoir si ces divers gains, compris entre k1 et k2 , assurent la stabilit´e du syst`eme en boucle ferm´ee. Etant donn´e que dans ce cas, l’ensemble est lin´eaire, l’analyse s’en trouve alors facilit´ee. Par cons´equent, il se peut tr`es bien que, pour tout gain fixe compris entre k1 et k2 , le syst`eme lin´eaire boucl´e soit stable. Peut-on alors en d´eduire, apr`es remplacement des gains fixes par une caract´eristique statique quelconque comprise dans ce secteur, la stabilit´e du syst`eme boucl´e ? Force est de constater que ceci n’est pas le cas, bien que cette conjecture soit tr`es s´eduisante. Hypoth`ese 5.29. Si pour tout choix de gain k compris dans l’interval k ∈ [k1 ; k2 ], la matrice A − bcT k est Hurwitz, c.-`a-d. que la partie r´eelle de chacune de ses valeurs propres est strictement n´egative, alors le syst`eme lin´eaire x˙ = Ax + bu, y = cT x boucl´e par une non-lin´earit´e secteur u = −φ(y) avec φ(y) appartenant au secteur [k1 ; k2 ] est stable. Cette conjecture est fausse comme il le sera illustr´e dans les exercices. Les restrictions sur le syst`eme lin´eaire doivent ˆetre plus s´ev`eres afin d’aboutir ` a une conclusion satisfaisante. Ceci fait l’objet du crit`ere du cercle et du crit`ere de Popov. 5.9.4 Crit` ere du cercle Bien que la conjecture d’Aizerman soit fausse, elle ´evoque une certaine v´erit´e, ` a condition d’en modifier quelque peu l’´enonc´e. Il est n´ecessaire de d´efinir un crit`ere de stabilit´e de Nyquist plus exigeant. Le crit`ere du cercle est une approche. L’id´ee est de repr´esenter, non plus un point unique en −1, mais un cercle dont les param`etres sont fonctions des deux gains d´elimitant le secteur. En fonction du signe de ces gains, la r´eponse harmonique doit laisser le cercle `a un certain endroit par rapport `a lui. Th´ eor` eme 5.30. Un syst`eme entr´ee-sortie dont la r´eponse harmonique est d´efinie par G(jω), boucl´e par une non-lin´earit´e statique de secteur [k1 , k2 ], est stable au sens absolu lorsque la r´eponse harmonique et le cercle D(k1 , k2 ) respectent certaines propri´et´es g´eom´etriques l’un par rapport a ` l’autre. En d´esignant par Card[{λ|ℜe[λ] > 0}] = ρ le nombre de valeurs propres a ` partie strictement positive associ´ee a ` la fonction de transfert G(s), nous pouvons distinguer trois cas de figure :
5.9 Stabilit´e absolue
131
1. Si 0 < k1 < k2 et G(jω) ne rentre pas dans le disque D(k1 , k2 ) et G(jω) encercle ρ fois dans le sens dans le sens trigonom´etrique positif, alors le syst`eme est stable au sens absolu.
G(jω)
D(k1 , k2 )
− k11
− k12
Fig. 5.15. Crit`ere du cercle lorsque k1 > 0 et k2 > 0.
2. Si 0 = k1 < k2 G(s) et que tous les pˆ oles de G(s) ont une partie r´eelle strictement n´egative et que le r´eponse harmonique G(jω) se trouve a ` droite de la droite verticale d´efine passant par − k12 alors le syst`eme est stable au sens absolu.
G(jω)
− k11
Fig. 5.16. Crit`ere du cercle lorsque k1 > 0 et k2 = 0.
3. Finalement, si k1 < 0 < k2 et que tous les pˆ oles de G(s) sont a ` partie r´eelle strictement n´egative et que G(jω) est enti`erement inscrit a ` l’int´erieur du cercle D(k1 , k2 ), alors le syst`eme est stable au sens absolu. Pour comprendre le crit`ere du cercle, et ainsi en ´etablir sa d´emonstration, il est important d’abord de comprendre le cas particulier du secteur φ ∈ [0, +∞]. On se situe dans le cas 2. o` u le cercle d´eg´en`ere en une droite verticale. Le crit`ere exige simplement que G(s) soit positif r´eel. Il s’agit alors de d´emontrer
132
5 Passivit´e
G(jω)
− k11
− k12
Fig. 5.17. Crit`ere du cercle lorsque k1 < 0 et k2 > 0.
que sous ces conditions, le syst`eme est localement asymptotiquement stable au sens de Lyapunov. On commence par ´etablir une repr´esentation d’´etat `a partir de la fonction de transfert G(s) = C(sI − A)−1 B. Dans le cas k1 = 0 et k2 = +∞, le cercle d´eg´en`ere en l’axe imaginaire. Le crit`ere du cercle exige de laisser le cercle `a gauche. Par cons´equent, ceci revient a admettre que G(s) est ` ` a partie r´eelle positive. On peut donc appliquer le th´eor`eme de Kalman-Yakubovich-Popov garantissant l’existence d’une fonction pouvant jouer le rˆole d’une fonction de Lyapunov. Pour ˆetre plus pr´ecis, sous la condition que la partie r´elle de la r´eponse harmonique est sup´erieure a z´ero, il existe une certaine matrice d´efinie positive P satisfaisant simul` tan´ement AT P + P A = −Q P B = CT . Il est important de noter que le choix de cette matrice est li´ee aux propri´et´es entr´ee-sortie donn´e par les matrices B et C. Pour aboutir ` a la stabilit´e dans le sch´ema boucl´e ci-dessus, on consid`ere la relation u = −φ(u) et la fonction de Lyapunov associ´ee `a P , c.-`a-d. V = dont la d´eriv´ee temporelle
1 T x P x, 2
5.9 Stabilit´e absolue
u
G(s)
133
y = cT x
-
φ ∈ [0; +∞]
Fig. 5.18. Diagramme de blocs de la cascade entre un syst`eme lin´eaire et une non-lin´earit´e de secteur compris entre 0 et ∞.
1 1 V˙ = xT P x˙ + x˙ T P x 2 2 1 T T = x (A P + P A)x + xT P Bu 2 1 = − xT Qx + xT C T u 2 1 = − xT Qx − y T φ(u) 2 montre que sous la condition φ ∈ [0; +∞] (de telle sorte que y T φ(y) ≥ 0) la d´eriv´ee de la fontion de Lyapunov est strictement plus petite que z´ero V˙ < 0
x 6= 0.
En cons´equence, le th´eor`eme de Lyapunov assure la stabilit´e en boucle ferm´ee quel que soit la non-lin´earit´e statique compris dans le secteur d´elimit´e par k1 = 0 et k2 = ∞. Pour traiter le cas g´en´eral, il suffit de construire des bouclages artificiels autour du sch´ema, afin de transformer la non-lin´earit´e secteur [k1 ; k2 ] en une non-lin´earit´e secteur [0; +∞]. Commen¸cons par modifier la non-lin´earit´e φ de secteur [k1 , k2 ] en une nouvelle non-lin´earit´e de secteur [0; k2 − k1 ]. Il suffit d’additionner en parall`ele a φ un gain n´egatif de −k1 , c.-`a-d. φ(u) − k1 u. Maintenant, l’inverse de la non` 1 lin´earit´e ainsi obtenue conduit `a une nouvelle, mais de secteur [ k2 −k ; +∞]. 1 1 Finalement, le redressement est op´er´e par addition en parall`ele du gain − k2 −k 1 conduisant ` a une non-lin´earit´e de secteur [0; +∞]. Les ´etapes pr´ec´edentes sont r´esum´ee en un calcul, o` u l’on note [φ] pour l’op´erateur entr´ee-sortie associ´e `a la fonction φ(.) : 1 1 − [φ] − k1 k2 − k1
134
5 Passivit´e
En inversant cette expression, on obtient toujours une non-lin´earit´e secteur [0; +∞], 1 [φ]−k1
1 −
1 k2 −k1
=
[φ] − k1 , 1 ([φ] − k1 ) 1 − k2 −k 1
mais qui se met sous la forme d’un bouclage repr´esent´e `a la figure 5.19
1 k2 −k1
+ +
φ
+
-
k1
Fig. 5.19. Bouclages permettant de modifier une non-lin´earit´e de secteur [k1 ; k2 ] en une non-lin´earit´e de secteur [0; +∞].
En renversant le sens des bouclages et en les appliquants `a la fonction de transfert G(s), tous les bouclages introduits se compensent parfaitement. En fin de compte, nous n’avons rien modifi´e (figure 5.20). Remarque 5.31. La cl´e consiste `a introduire des bouclages sur la non-lin´earit´e φ et des bouclages sur la partie lin´eaire G(s) dans le sens oppos´e, de telle sorte que la relation u = −y annule l’effet des bouclages. (Dans le bouclage initial, u est l’entr´ee de la non-lin´earit´e φ et y la sortie du syst`eme lin´eaire G(s).) Les bouclages ne sont donc qu’artificiels et ne modifient en rien le comportement global du sch´ema initial. Toutefois, en red´efinissant les ´el´ements φ et G(s) autour des bouclages nouvellement constitu´es, de nouveaux ´el´ements φ¯ et ¯ G(s) font leur apparition. Ceci transforme G(s) en une nouvelle fonction de ¯ transfert G(s), entraˆınant de la sorte une nouvelle condition sur G(s). Ainsi, en examinant la figure 5.20 et en isolant la non-lin´earit´e transform´ee par les bouclages, conform´ement `a la figure 5.19, un nouveau syst`eme lin´eaire ¯ G(s) est identifi´e ¯ G(s) =
G(s) 1 = + 1 + k1 G(s) k2 − k1
1 k2 1 k1
+ G(s) + G(s)
k2 1 k1 k2 − k1
.
(5.7)
D´emontrons le premier cas du crit`ere du cercle o` u k1 > 0 et k2 > 0. Comme, d’une part, k2 > k1 (propri´et´e de la d´efinition du secteur), le second
5.9 Stabilit´e absolue 1 k2 −k1
1 k2 −k1
φ
G(s)
+
135
+
-
+
-
+ -
k1
+
k1
Fig. 5.20. Les bouclages introduits se compensent parfaitement conduisant le sch´ema ci-dessus ` a ˆetre identique au bouclage de G(s) par la non-lin´earit´e φ.
¯ facteur du dernier membre de (5.7) est toujours positif, et, d’autre part, G(s) doit ˆetre strictement positif r´eel, nous aboutissons `a la condition # " 1 k2 + G(jω) >0 ∀ω ∈ R. (5.8) Re 1 k1 + G(jω) 5.9.5 Crit` ere de Popov Le crit`ere de Popov est, tout comme le crit`ere du cercle, une exploitation de la propri´et´e de passivit´e lors de l’interconnexion d’un syst`eme lin´eaire et d’une non-lin´earit´e de type secteur. Nous donnons le r´esultat sans d´emonstration. L’utilisation du crit`ere revient `a tracer une droite dans un plan convenable et de garantir que la r´eponse harmonique G(jω) demeure du bon cˆ ot´e de la droite. Le plan consiste `a repr´esenter en abscissee la partie r´eelle de la r´eponse harmonique Re G(jω) et l’ordonn´ee la partie imaginaire multipli´ee par la pulsation ωIm G(jω). La droite passe par le point − k1 et poss`ede une pente de α1 . ǫ repr´esente la marge avant de toucher la droite. Th´ eor` eme 5.32. – ∀λ ℜe[λ(A)] > 0 et (A, B) commandable – Non-lin´earit´e φ de type secteur – ∃α > 0 tel que ∀ω ≥ 0, ℜ[(1 + jαω)G(jω)] + k1 ≥ ǫ pour une certaine valeur ǫ > 0 ⇒ 0 est globalement asymptotiquement stable
136
5 Passivit´e
Exercices 5.1. Crit` ere du cercle. D´emontrer `a partir de la formule (5.8), le crit`ere du cercle dans le cas 0 < k1 < k2 . D´eterminer une formule analogue pour les autres cas, et montrer que ces formules admettent l’interpr´etation correspondant ` a l’´enonc´e du crit`ere du cercle. 5.2. N´ ecessit´ e de l’observabilit´ e. Supposons qu’il ne soit pas possible de discriminer la sortie nulle de l’´etat nul pour un syst`eme lin´eaire ayant une r´eponse harmonique dans la partie droite du plan complexe. En somme, en for¸cant la sortie du syst`eme `a z´ero, il existe une trajectoire non nulle associ´ee a une combinaison des ´etats qui n’est pas identiquement nulle. Montrer que ` le syst`eme n’est pas passif dans ce cas. 5.3. N´ ecessit´ e de la commandabilit´ e. Discuter du cas o` u le syst`eme `a commander (en repr´esentation d’´etat) n’est pas commandable mais poss`ede une sortie pour laquelle la fonction de transfert associ´ee donne lieu `a une r´eponse harmonique qui se situe dans le plan droit du plan complexe. Est-ce que le syst`eme ob´eit ` a la d´efinition de la passivit´e ? 5.4. Crit` ere de Popov. D´emontrer le crit`ere de Popov. 5.5. La conjecture d’Aizerman est fausse1 . Consid´erer la fonction de transfert s(s + a) G(s) = ][(s + b)2 + 1.12 ] [(s + b)2 + 0.92 boucl´ee par une contre r´eaction n´egative sur une zone morte d’´equation (u = φ(y) avec u l’entr´ee de G et y sa sortie). y>1 y − 1 0 −1 ≤ y ≤ 1 φ(y) = y + 1 y < −1
(i) Obtenir une r´ealisation d’´etat de la fonction de transfert G(s), et simuler l’ensemble en boucle ferm´ee. Les valeurs nominales des param`etres sont k = 10, a = 0, et b = 0.01. (ii) V´erifier th´eoriquement que pour un gain constant compris entre 0 et 1 le syst`eme est stable. (iii) Remplacer la non-lin´earit´e par un gain 0 et 1 et v´erifier par simulation le r´esultat. (iv) En utilisant la non-lin´earit´e en contre-r´eaction comme d´ecrit plus haut et en faisant varier les param`etres suivant le tableau 1
Selon l’article de R. E. Fitts Two Counterexamples to Aizerman’s Conjecture, IEEE Trans. on Automatic Control, 1966, pp. 553-556.
5.9 Stabilit´e absolue
137
a b k 0.1 ≤ k ≤ 1000 0 0.01 10 0 ≤ a ≤ 0.02 0.01 10 0 0.01 ≤ b ≤ 0.75 montrer par simulation que le syst`eme dynamique n’est pas stable et qu’il y a pr´esence de cycles limites.
Partie II
Synth` ese
141
La partie pr´ec´edente a ´et´e consacr´ee `a l’analyse d’un syst`eme dynamique non lin´eaire. L’existence d’un bouclage y ´etait admis sans savoir pr´ecis´ement comment il est obtenu. Dans ce chapitre et les suivants, la construction de la loi de commande sera examin´ee. L’objectif est d’am´eliorer le syst`eme `a commander en performance (p. ex. suivi pr´ecis et rapide d’une trajectoire) ou en robustesse (p. ex. rejet de perturbations). Pour commencer, nous disinguerons principalement les probl`emes de r´egulation et de poursuite. La r´egulation consiste ` a ramener le syst`eme vers un point d’´equilibre. La poursuite consiste a suivre une trajectoire pr´ed´efinie avec une erreure asymptotique nulle. En` suite, l’approche de lin´earisation sera envisag´ee. Il s’agira de transformer le syst`eme initial en un ensemble de chaˆınes d’int´egrateurs ind´ependants. Ainsi, la solution compl`ete sera obtenue lorsque ces chaˆınes d’int´egrateurs seront stabilis´ees. Nous avons donc un syst`eme donn´e comme un ensemble d’´equations diff´erentielles ordinaires du premier ordre x˙ = f (x). Lorsqu’on a ` a disposition, dans cet ensemble d’´equations diff´erentielles ordinaires, une variable xl que l’on peut instantan´ement modifier, on peut la d´esigner comme ´etant une entr´ee u. Bien entendu, nous devons faire attention `a ce que la modification de cette variable puisse ˆetre physiquement r´ealis´ee dans la r´ealit´e. En effet, les ´equations diff´erentielles ne sont qu’un mod`ele, et cette modification de l’entr´ee potentielle est sujette parfois `a des hypoth`eses suppl´ementaires qui n’ont pas ´et´e prises en comptes pour ´elaborer le mod`ele. Si tel s’av`ere ˆetre le cas, il faut alors compl´eter les ´equations diff´erentielles par les conditions n´eglig´ees correspondantes et consid´erer l’entr´ee comme un ´etat. (Il y aura donc des ´equations diff´erentielles suppl´ementaires.) Une fois les entr´ees d´esigne´ees, nous pouvons ´egalement choisir des sorties particuli`eres du syst`eme. Ce sont des fonctions de l’´etat correspondant le plus souvent ` a une grandeur particuli`ere d’int´erˆet et mesurable dans la r´ealit´e. Mais il peut ´egalement s’agir d’une sortie ”artificielle”, au sens o` u l’objet de la r´ealit´e ne poss`ede pas n´ecessairement les capteurs n´ecessaires pour mesurer cette grandeur. Nous verrons qu’il est possible de constituer de telles sorties et qu’elles sont tr`es pratiques pour ´elaborer un mouvement d’ensemble de l’´etat par simple assignation de valeurs successives particuli`eres `a cette sortie. Bien qu’elle puisse ne pas ˆetre mesur´ee, il est possible au moyen d’une simple commande a priori d’assigner un tel historique `a cette sortie et donc `a l’ensemble de l’´etat. En cons´equence, une fois les grandeurs d’entr´ee et de sortie d´esign´ees, les ´equations diffl´erentielles x˙ = f (x) s’´ecrivent avec les entr´ees ui , i = 1, . . . , m et et les sorties y1 , . . . yp comme :
142
x˙ = f (x, u1 , . . . , um ) y1 = h1 (x) .. .. . . yp = hp (x) Nous allons montrer dans le cours des chapitres de cette seconde partie comment nous pouvons fabriquer un nouvel ensemble d’´equations diff´erentielles ordinaires du premier ordre, non-lin´eaires qui constituera la loi de commande : z˙ = f¯(z, v1 , . . . , vp ) ¯ 1 (x) w1 = h .. . wm
.. . ¯ m (x). =h
Il est important de remarque que cet ensemble est purement artificiel et ne correspond pas n´ecessairement `a une repr´esentation d’un ph´enom`ene observable existant (contrairement au mod`ele de d´epart). Il pourra ˆetre r´ealiser dans un calculateur, ou par des module de synth`ese analogiques ou biologiques, par construction de m´ecanismes particulier, etc. Afin que le controleur interagisse avec le syst`eme de d´epart, les entr´ees du syst`eme de d´epart seront assign´ees aux sorties du controleurs et r´eciproquement : u1 = w1 .. .. . . um = wm v1 = y1 .. .. . . vp = yp , ou de mani`ere plus condens´ee : v = h(x) ¯ u = h(z). Nous avons comme cas particulier, i) l’assignation d’une trajectoire temporelle p(t) ` a l’entr´ee u (puisque pouvant instantan´ement ˆetre modifi´ee). Cette entr´ee est alors d´efinie de mani`ere univoque `a chaque instant du temps u = p(t). Nous avons ´egalment le cas particulier ii) o` u le controleur est d´epourvu de dynamique de telle sorte que v = x :
143
¯ u = h(x). Dans le premier cas i) on parlera de commande en boucle ouverte, ou de commande a priori, en fonction du contexte. Dans le second cas ii), il s’agit d’une loi de commande statique en boucle ferm´ee (ou en contre-r´eaction). Dans le cas g´en´eral la commande sera qualifi´ee de dynamique. Dans les deux cas, les solutions du syst`eme d’´equations diff´erentielles ordinaires non lin´eaires est modifi´e entre le cas o` u les entr´ees stont forc´ees `a z´ero et le cas o` u elles suivent une de ces lois de commande. Toute la question r´eside alors dans la mani`ere d’´elaborer cette commande afin d’atteindre un objectif, un but d´etermin´e. Pour l’instant, nous n’avons pas mentionn´e ce que nous entendons par but ou objectif. Contrairement `a l’analyse, o` u le syst`eme est en quelque sorte fig´e, la possibilit´e de d´efinir plusieurs objectifs potentiels, chacun n´ecessitant une commande diff´erente, conduit `a l’existence d’une multitude de syst`emes. Cette non fixit´e du syst`eme r´esultant rend la tˆ ache paradoxalement difficile et facile ` a la fois : difficile, car l’objectif est souvent tr`es contraignant `a cause de la complexit´e du syst`eme de d´epart ; facile, car la pr´esence de plusieurs choix de commande augmente n´ecessairement les possibilit´es de synth`ese. Il est important de souligner que la solution en fonction de l’objectif choisit n’est pas n´ecessairement unique. L’objectif est li´e ` a ce que d´esire l’utilisateur de la repr´esentation de la r´ealit´e qu’il a obtenu en d´efinissant son syst`eme de d´epart. Ceci signifie que mˆeme lorsque le probl`eme math´ematique est r´esolut, et que la grandeur de commande est assign´ee sur le syst`eme r´eel selon la loi obtenue, il n’est pas garantit que l’´evolution du vrai syst`eme mesur´e et observ´e sur la r´ealit´e soit conforme avec les d´esirs du concepteur. Les raisons sont nombreuses et sont toutes essentiellement li´ees `a la validit´e et l’applicabilit´e des ´equations diff´erentielles utilis´ees pour repr´esenter le ph´enom`ene. Ce que l’on peut dire n´eanmoins, c’est que la commande ´elabor´ee doit en quelque sorte am´eliorer le comportement du syst`eme math´ematique, que cel` a soit la qualit´e de l’´evolution temporelle des solutions, la structure des solutions, ou les caract´eristiques du syst`eme transform´e, comme par exemple, la nature et le nombre de points d’´equilibres nouvellement form´es ou d´etruits, la cr´eation de cycle limite avec des param`etres bien d´efinis. Dans le cas oˆ u le mod`ele initial correspond fid`element `a l’observation de la r´ealit´e il y alors de grandes chances de succ`es, au sens o` u la modification, en suivant la loi de commande ´etablie, de la grandeur r´eelle correspondant a l’entr´ee, conduise ` ` a l’observation du comportement d´esir´e sur la r´ealit´e. Toutefois, il est important d’insister sur une r´eserve, une prudence qu’il faut observer.
144
En effet le mod`ele n’est qu’une repr´esentation de la r´ealit´e sous les conditions d’exp´erimentation effectu´ees pour l’´elaborer. Lorsque le controleur est activ´e, il se peut qu’il pousse le syst`eme r´eel au del` a des conditions dans lesquelles le mod`ele initial a ´et´e ´etablit, conduisant `a une catastrophe potentielle. Il est donc tr`es important d’ˆetre prudent lors de la phase d’implantation. Il faut bien se rendre compte qu’il n’y a absolument aucun moyen d’´eviter cette difficult´e. Dans le cours des chapitres L’objectif sera un de ceux donn´es ci-apr´es : 1. forcer les trajectoires des ´etats `a converger de mani`ere stable vers un point d’´equilibre bien d´efini (c.-`a-d. en pr´esence de perturbations potentielles) ; 2. forcer une sortie pr´e´etablie (fonction particuli`ere des ´etats) `a suivre une trajectoire choisie ` a l’avance pour un certain choix de conditions initiales et en absence de perturbation ; 3. mˆeme objectif que le pr´ec´edent, mais en exigeant que ceci se produise quelque soit les conditions intiales et en pr´esence de perturbation ; 4. amener le syst`eme d’un point de d´epart (´etat initial) vers un point d’arriv´ee final (´etat terminal), en l’absence de perturbation, et sans condition sur l’´evolution de l’´etat durant la transition ; 5. amener le syst`eme d’un point de d´epart (´etat initial) vers un point d’arriv´ee final (´etat terminal), en pr´esence de perturbations, et avec des conditions sur l’´evolution de l’´etat durant la transition.
6 Elements de G´ eom´ etrie
6.1 Introduction Contrairement aux pr´ec´edents chapitres, il ne sera pas question de syst`eme dynamique ` a proprement parl´e. Le point de vue sera d’abandonner momentan´ement la conception du temps en tant que variable particuli`ere (sauf mention explicite du contraire dans certains cas rares). L’id´ee est d’introduire des outils de formulation des conditions d’int´egrabilit´e apparaissant `a la fois dans le chapitre sur le probl`eme de la lin´earisation par bouclage et de celui concernant la construction de fonction de Lyapunov. Dans ces deux cas, la difficult´e essentielle est de remonter `a partir d’un vecteur ligne correspondant a un certain gradient vers la fonction dont le gradient est issu. La construction ` de la fonction n’est pas toujours possible et il est important d’avoir des outils permettant de d´eterminer la possibilit´e ou non de la construire. Le cadre math´ematique ad´equat est la g´eom´etrie diff´erentielle. Cette discipline ´etudie les surfaces (vari´et´es) selon un point de vue infinit´esimal. Localement, une vari´et´e ressemble `a un espace euclidien, au sens o` u une correspondance entre un point de la vari´et´e et un point d’un espace euclidien existe. La correspondance doit ˆetre continue et diff´erentiable. L’inverse de la correspondance doit ´egalement ˆetre continue et diff´erentiable. Toutefois, l’ensemble complet (consistant en la r´eunion des ensembles localement euclidien) ne poss`ede plus la propri´et´e euclidienne. Un exemple trivial est la surface d’une sph`ere. Il est en effet possible de repr´esenter (moyennant distortion) la surface de la sph`ere par une carte plane. Chaque point de la sph`ere peut ˆetre mis en correspondance avec un point de la carte. Les m´eridiens et les parall`eles sont alors perpendiculaires sur la carte (espace euclidien) bien que ceux-ci se coupent sur la sph`ere (espace non euclidien). De plus, il est impossible de repr´esenter de mani`ere continue l’ensemble de d´epart par une seule carte.
146
6 Elements de G´eom´etrie
En effet, il faut d´ecider quelles en seront les limites et on se heurte au probl`eme suivant. Supposons une carte unique, de telle sorte qu’un point se trouvant ` a l’extr´emit´e droite d’une carte poss`ede un voisinage dans la vari´et´e qui n’est plus un ensemble connexe sur cette carte. Par exemple, si l’on prend une carte traditionnelle du monde, un voisinage de la taille de deux m´eridiens de large de l’atole de Funafuti un peu au dessus du dixi`eme parall`ele tout `a droite de la carte se retrouve ´egalement partiellement repr´esent´e 40’ooo km `a gauche sur la carte (ceci en faisant confiance `a l’´echelle de la carte) ! Pour garantir la continuit´e dans la lecture de la carte, il est n´ecessaire d’avoir recours a plusieurs cartes chacune pour une r´egion particuli`ere d’int´erˆet. En g´eom´etrie ` diff´erentielle, tout comme en cartographie, un tel ensemble est appel´e un atlas. Maintenant, si l’on consid`ere la trajectoire d’un avion ´evoluant au dessus de la surface de la terre, on peut le repr´esenter par une trajectoire sur la sph`ere (l’altitude de l’avion n’est pas consid´er´ee). Il y correspond ´egalement une trajectoire plane sur la carte. Une notion cl´e de la g´eom´etrie diff´erentielle est que les vitesses d’un objet le long d’une trajectoire d’une vari´ete appartiennent toujours ` a un espace euclidien ! La courbure est en quelque sorte absente lorsqu’on consid`ere les espaces des vitesses en un point de la vari´et´e. Si l’on consid`ere un instant sp´ecifique, l’orientation du vecteur de vitesse peut a priori prendre n’importe quelle orientation dans un certain plan dit plan tan` gent de la vari´et´e au point en question (on consid`ere que l’on ne connait pas a priori la trajectoire avant l’instant et apr`es l’instant sp´ecifique lorsqu’on examine le point en question). De plus, le vecteur vitesse peut ´egalement prendre n’importe quel module (pour autant que l’ a´erodynamique le permette). En somme, c’est r´eellement un vecteur appartenant `a un espace euclidien propre aux vitesses. La difficult´e est que cet espace euclidien change de point en point le long de la trajectoire. Nous verrons comment un syst`eme dynamique x˙ = f (x, u) est repr´esent´e a l’aide des outils g´eom´etriques de la g´eom´etrie diff´erentielle. Il sera alors ` question de la vari´et´e dans laquelle l’´etat ´evolue, un peu comme les positions de l’avion sur la surface de la sph`ere, et des vecteurs de vitesses associ´es `a cette repr´esentation.
6.2 Vari´ et´ e, Cartes et Atlas Une vari´et´e M est un objet math´ematique qui localement est repr´esentable par un espace euclidien Rn . Une vari´et´e consiste en l’espace M avec une ensemble d’applications inversibles φi : Rn → M
(6.1)
6.2 Vari´et´e, Cartes et Atlas
147
o` u n repr´esente la dimension de la vari´et´e. Ces cartes permettent de repr´esenter un point de la vari´et´e m ∈ M par un ensemble de coordonn´ees de Rn . Un atlas Φ consiste en la r´eunion de toutes les cartes Φ = ∪i φi Par exemple, dans le cas d’une sph`ere S 2 , il est possible de repr´esenter une courbe plane sur la surface de la sph`ere par une repr´esentation bidimensionnelle ` a l’aide d’une carte. En effet, une courbe plane d´efinie par x = sin t + 2 cos t y = cos t(1 − sin t) + 2 sin(2t) pour t ∈ [0; 2π[, est repr´esent´ee `a la figure 6.1. y 3 2 1
x -2
-1
1
2
-1 -2 -3
Fig. 6.1. Courbe param´etr´ee dans le plan.
Selon la mani`ere de repr´esenter la vari´et´e S 2 , il existe plusieurs repr´esentations possibles de la carte φ1 . Si l’on consid`ere la sph`ere comme plong´ee dans R3 , de telle sorte qu’un point est d´efini par trois coordonn´ees x ¯, y¯ et z¯ soumisent a la contrainte ` x ¯2 + y¯2 + z¯2 = 1, nous avons la repr´esentation (6.2) o` u x et y sont les coordonn´ees sur la carte. cos( y6 ) cos( x3 ) x φ1 : → cos( y6 ) sin( x3 ) y sin( y6 )
(6.2)
Cependant, il est ´egalement possible d’utiliser les angles de latitude φ et de longitude ψ pour repr´esenter un point de S 2 . Dans ce cas, la carte devient
148
6 Elements de G´eom´etrie
φ1 :
x φ = x/3 → y θ = y/6
(6.3)
Dans les deux cas, la figure correspondant `a celle 6.1 est donn´ee `a la figure 6.2.
Fig. 6.2. Repr´esentation dans la vari´et´e S 2 de la courbe planaire de la figure 6.1, donn´ee localement dans une carte de l’atlas.
La vari´et´e ne peut en g´en´eral pas ˆetre d´ecrite par carte unique, sauf lorsqu’elle peut se mettre en correspondance bijective avec un espace Rn . En effet, il est exig´e de pouvoir garantir l’existence d’un voisinage inclut dans la carte. Par exemple, la sph`ere n´ecessite trois cartes, afin que chaque point poss`ede au moins une carte dans laquelle le point en question admette un voisinage inclut dans la carte. (Ceci ´evite ainsi le probl`eme de l’ˆıle de Funafuti d´ecrit dans l’introduction du pr´esent chapitre, ou plus pr´ecis´ement le probl`eme des points qui sont repr´esent´es par les bords verticaux de cette carte unique.) Ceci entraˆıne ´egalement que plusieurs points de la vari´et´e admettent plusieurs repr´esentants, au plus un par carte. (Ce probl`eme est absent sur une carte traditionnelle unique du monde, si ce n’est pour les pˆ oles qui sont repr´esent´es par les lignes sup´erieure et inf´erieure d´elimitant respectivement le haut et le bas de la carte.) Il faut, par cons´equent, que les cartes satisfassent des hypoth`ese de compatibilit´e. Lorsqu’une carte particuli`ere est utilis´ee pour d´ecrire un mouvement sur la vari´et´e, il doit ˆetre ´egalement possible, sur les zones de recouvrement entre les deux cartes, de le repr´esenter `a l’aide de la carte qui n’est pas utilis´ee. Ainsi, si φi et φj admettent chacune un repr´esentant du mˆeme point m ∈ M, disons respectivement xi et xj , alors il doit exister deux voisinages Vi et
6.2 Vari´et´e, Cartes et Atlas
149
Vj de xi et xj qui peuvent se mettre en correspondance `a l’aide des carte φi et φj . Plus pr´ecis´ement, φ−1 j (φi (Vi )) = Vj
φ−1 i (φj (Vj )) = Vi . Un ensemble de carte φi constituant un atlas ayant ces propri´et´es de compatibilit´e d´efinit compl`etement la vari´et´e M. 6.2.1 Diff´ eomorphisme Les cartes correspondent `a des applications entre un espace euclidien et la vari´et´e M. En composant une carte par l’inverse d’une autre, nous obtenons, sur les zones de recouvrement, un changement de coordonn´ee. Les cartes se composent de mani`ere univoque `a condition que les changements de coordonn´ees soient bien d´efinis. Nous aurons ´egalement besoin de changements de coordonn´ees dans le chapitre consacr´e `a la lin´earisation. Il seront motiv´es ´egalement par la volont´e de compenser les courbures inh´erentes `a la repr´esentation du syst`eme initial, un peu comme les cartes d’un atlas classique rem´edie quelque peu ` a la courbure intrins`eque de la surface de la terre. Une trajectoire rectiligne et plate sur la carte correspond `a une trajectoire courbe dans l’espace d’origine, dans l’espace de la vari´et´e M. De mani`ere g´en´erale, la notion de changement de coordonn´ees est rendue math´ematiquement pr´ecise par la d´efinition suivante : D´ efinition 6.1. (Diff´eomorphisme) Une fonction Φ : Rn → Rn d´efinie dans ∂Φ ∂Φ , . . . ∂x existent et si Φ−1 une r´egion Ω est appel´ee diff´eomorphisme si ∂x 1 n −1 existe. De plus Φ et Φ doivent ˆetre d´erivables. Si Ω = Rn alors c’est un diff´eomorphisme global. Lemme 6.2. Soit Φ(x) une fonction r´eguli`ere de Ω ⊆ Rn → Rn . Si ∂Φ ∂x est non singuli`ere en x0 alors Φ(x) est un diff´eomorphisme dans une sous r´egion de Ω contenant x0 . Exemple 6.3. Soit l’application de R2 dans R2 donn´ee par 2x1 + 5x1 x22 Φ(x) = 3 sin x2 de telle sorte que sa matrice Jacobienne ∂Φ 2 + 5x22 10x1 x2 = 03 cos x2 ∂x
150
6 Elements de G´eom´etrie
devienne au point (0, 0)T ∂Φ = ⇒ ∂x
20 . 03
Comme cette matrice est plein rang au point consid´er´e, Φ respecte les conditions de la d´efinition de diff´eomorphisme dans un voisinage du point (0, 0)T consid´er´e. On peut ´egalement d´emontrer que ce voisinage est contenu dans l’ensemble Ω = { (x1 , x2 ), | x2 |< φ2 }.
6.3 Solution de l’´ equation diff´ erentielle L’´equation initiale x˙ = f (x, u) admet l’interpr´etation g´eom´etrique suivante. L’´etat x est assimil´e `a un point d’une vari´et´e. Le plus souvent, cette vari´et´e est consid´er´ee comme l’espace euclidien Rn . Comme cas particulier de l’´equation d´efinissant la dynamique du syst`eme, consid´erons x˙ = f (x). Une solution `a cette ´equation diff´erentielle ordinaire est une courbe param´etr´ee par le temps x(t) = Φ(xo , t) telle que Φ(x0 , t0 ) = x0 etre t. Ainsi, et dφ dt (x, t) = f (Φ(x0 , t)) pour chaque point valeur du param` on peut attacher en chacun des points de la courbe param´etr´ee Φ(x0 , t) un vecteur tangent ` a cette courbe f (x0 , t). Trouver la solution de l’´equation diff´erentielle ordinaire x˙ = f (x) revient donc ` a trouver une trajectoire dans la vari´et´e d`es lors que f (x) est donn´e. Cette trajectoire est une courbe param´etr´ee Φ(x0 , t) associ´ee `a une certaine condition initiale x0 . La donn´ee du syst`eme d’origine f (x) est interpr´et´ee g´eom´etriquement comme un ensemble de vecteurs de vitesse d´efinit sur la vari´et´e. Il existe un vecteur f (x) et un seul pour chacun des points x de la vari´et´e. Trouver la solution `a l’´equation diff´erentielle ordinaire consiste `a trouver une courbe param´etr´ee Φ(x0 , t) (c.-`a-d. une trajectoire) passant par x0 ` a l’instant t0 et telle que la vitesse le long de la trajectoire dΦ dt (Φ(x0 , t)) soit ´egale au vecteur de vitesse en ce point f (Φ(xo , t)). Le param`etre t permettant d’identifier le point sur la trajectoire.
6.4 Champ de vecteurs Lors de l’´etude des syst`emes dans le plan de phase, l’interpr´etation de la dynamique f (x) fait apparaˆıtre l’importance de repr´esenter l’´el´ement de droite de pente correspondant au rapport entre f2 (x1 , x2 ) sur f1 (x1 , x2 ) en un maximum de nombre de points x. Plus l’ensemble est grand et plus le nombre d’´el´ements de droite est ´egalement important, meilleure est l’interpr´etation des trajectoires r´esultantes. Dans le plan de phase il y a deux ´etats x1 et x2 et la dynamique s’´ecrit
6.5 Espace dual
x˙ 1 = f1 (x1 , x2 ) x˙ 2 = f2 (x1 , x2 )
151
(6.4)
Math´ematiquement on peut consid´erer x1 et x2 comme les coordonn´ees d’un point, et f1 (x1 , x2 ) et f2 (x1 , x2 ) comme la composante d’un vecteur d´efinit en ce point. De mani`ere plus g´en´erale, et quel que soit la dimension de la vari´et´e (espace), f (x) repr´esente un vecteur en un point donn´e de cette vari´et´e. Si maintenant on consid`ere la vari´et´e dans son entier, il est possible de se constituer une image visuelle d’une infinit´e de vecteurs, chaque vecteur f (x) ´etant attach´e au point x. Ce concept est un champ de vecteurs. D´ efinition 6.4. On appelle champ de vecteur une fonction f : Rn → Rn x1 f1 (x1 , x2 , . . . .xn ) x2 f2 (x1 , x2 , . . . , xn ) .. → .. . .
xn
fn (x1 , x2 , . . . , xn )
D´ efinition 6.5. Un champ de vecteur est dit r´egulier si existent en tout point d´efini par x1 , x2 ,
∂f1 ∂x1 (x1 , x2 )
et
∂f2 ∂x2 (x1 , x2 )
6.5 Espace dual En chaque point de la vari´et´e, un espace vectoriel existe contenant les vecteurs tangents ` a la vari´et´e. Il est donc naturel de constituer l’espace dual de cet espace vectoriel. Nous rappelons bri`evement, dans cette section, la notion d’espace dual ` a un espace vectoriel quelconque. En alg`ebre lin´eaire, il est possible d’associer un ensemble d’applications associ´ees ` a un espace vectoriel arbitraire V . Chaque application prend comme argument un vecteur et retourne un nombre scalaire. D´ efinition 6.6. (Espace vectoriel dual V ∗ ) L’ensemble des applications Φ:V →R et lin´eaire en l’argument x, a ` savoir quel que soit α, β ∈ R Φ(αx1 + βx2 ) = αΦ(x1 ) + βΦ(x2 ), constitue l’ensemble des vecteurs d’un espace vectoriel. Cet espace vectoriel appel´e le dual de l’espace V , et il est not´e V ∗ .
152
6 Elements de G´eom´etrie
La propri´et´e de lin´earit´e implique que ces applications constituent ´egalement un espace vectoriel que l’on d´esigne par V ∗ . En effet, en consid´erant une base orthonorm´ee e1 , e2 , . . ., en de l’espace vectoriel V , une application lin´eaire f de V ∗ agit sur les vecteurs de bases pour fournir n nombres r´eels f (e1 ), f (e2 ), . . ., f (en ). Il est alors possible de repr´esenter f , non plus comme une application lin´eaire en tant que telle, mais sous la forme d’un vecteur ligne f (e1 ) f (e2 ) . . . f (en ) . (6.5)
La valeur de l’application f pour un vecteur x de V est alors donn´ee par le produit scalaire entre le vecteur ligne (6.5) et le vecteur x. Par cons´equent, f est ´equivalent ` a un vecteur ligne, ce qui prouve que V ∗ est bien un espace vectoriel.
6.6 Produit tensoriel et forme multilin´ eaire L’espace des formes lin´eaires d’un seul argument (appartenant `a un espace vectoriel V ) forme donc un espace vectoriel `a part enti`ere, not´e V ∗ . En effet, `a chaque forme lin´eaire, un vecteur ligne est associ´e, et r´eciproquement, comme cel` a a ´et´e vu ` a la section pr´ec´edente. En r´esum´e, D´ efinition 6.7. Une forme lin´eaire est donn´ee par un application de V dans R: ΦV → R, qui est lin´eaire : ∀α, β ∈ R,
∀v1 , v2 ∈ V,
Φ(αv1 + βv2 ) = αΦ(v1 ) + βΦ(v2 ). A partir de deux espaces vectoriels identiques V , un nouvel espace vectoriel, not´e V ⊗ V , est form´e, appel´e le produit vectoriel entre V et V . Un vecteur de V ⊗ V est alors donn´e par la r´eunion de deux vecteurs de V , disons v1 et v2 que l’on note v1 ⊗ v2 . Il est facile de g´en´eraliser ceci au produit d’un nombre d´enombrable d’´el´ements de V . D´ efinition 6.8. A partir d’un espace vectoriel V , un nouvel espace vectoriel est constitu´e n O V = V ⊗ V ⊗ . . . ⊗ V, i=1
appel´e le produit tensoriel entre espaces vectoriels V , pour i = 1 a ` n.
Remarque 6.9. Lorsqu’un produit tensoriel contient une infinit´e de copies de l’espace vectoriel V , il est d’usage de distinguer la somme directe
6.7 Produit scalaire et produit ext´erieur en dimension deux ∞ X
V = V ⊗ V ⊗ ... ⊗ V
∞ Y
V = V ⊗ V ⊗ . . . ⊗ V.
i=1
du produit direct
i=1
153
P∞ Dans le premier, i=1 V , seul un nombre fini de vecteurs est non nul. Dans Q∞ le second, i=1 V , un nombre d´enombrable (infini) d’´el´ements non nuls est admis. Etant donn´e que seul un nombre fini de V est n´ecessaire dans ce qui suit, nous ne ferons pas cette distinction. D´ efinition 6.10. Une forme multilin´eaire est donn´ee comme une application d’un nombre fini de copies de V dans R : Φ:
n O i=1
V → R,
satisfaisant la lin´earit´e, c.-` a-d. ∀α, β ∈ R, ∀vi ∈ V , i = 1, . . . , n, ∀w1 , w2 ∈ V , ∀r ∈ {1, 2, . . . , n}, Φ(v1 , . . . , vr−1 , αw1 + βw2 , vr+1 , . . . , vn ) = αΦ(v1 , . . . , vr−1 , w1 , vr+1 , . . . , vn ) + βΦ(v1 , . . . , vr−1 , w2 , vr+1 , . . . , vn ).
6.7 Produit scalaire et produit ext´ erieur en dimension deux Le produit ext´erieur est utilis´e en association avec l’espace dual. Il est fond´e sur l’usage de d´eterminants. Consid´erons pour commencer un espace vectoriel de dimension deux. A T T du plan, il est chaque couple de vecteurs v1 = v11 v12 , v2 = v21 v22 possible d’associer un nombre r´eel correspondant `a leur produit scalaire : v1T v2 = v11 v21 + v12 v22 = v T Iv. L’´ecriture ci-dessus met en ´evidence la matrice identit´e. Il est ´egalement possible de d´efinir un produit `a partir d’une matrice d´efinie positive Q > 0 quelconque : (v1 , v2 ) = v1T Qv2 .
(6.6)
On remarque alors, qu’`a toute forme lin´eaire sym´etrique et d´efinie positive, il existe une certain matrice Q qui lui est associ´e. Ceci se g´en´eralise en dimension plus grande que deux (section ??).
154
6 Elements de G´eom´etrie
Au lieu de consid´erer des formes d´efinies positives et sym´etriques (donnant naissance ` a des produits scalaires) il est possible de consid´erer des formes antisym´etriques, c.-`a-d. des formes dont le signe alterne lorsque les arguments sont permut´es. Elles donnent naissance `a des produits ext´erieurs. En dimension deux, le produit ext´erieur entre deux vecteurs v1 et v2 est d´efini comme le d´eterminant constitu´e des composantes des vecteurs : v v v1 ∧ v2 = 11 21 = v11 v22 − v12 v21 v12 v22
(6.7)
o` u l’on reporte les composantes en vertical dans le d´eterminant. Ce produit est bien anti-sym´etrique v2 ∧ v1 = v12 v21 − v11 v22 = −v1 ∧ v2 .
(6.8)
6.7.1 forme bilin´ eaire sym´ etrique Une forme bilin´eaire sym´etrique `a deux s´eries de variables u1 , u2 , . . ., un et v1 , v2 , . . ., vn s’´ecrit f (u, v) = f (u1 , u2 , . . . , un , v1 , v2 , . . . , vn ) =
XX i
pij ui uj ,
j
avec pij ∈ R des coefficients fixes. Pour que la forme bilin´eaire f (u, v) soit sym´etrique, il faut que les coefficients aij soient tels que f (u, v) = f (v, u) et donc pij = pji . Elle peut donc s’exprimer `a l’aide d’une matrice sym´etrique P = (pij ) : f (u, v) = uT P v. 6.7.2 forme bilin´ eaire antisym´ etrique (altern´ ee) La forme f (u, v) est antisym´etrique lorsque f (u, v) = −f (v, u). Cette propri´et´e entraˆıne que f (u, v) s’´ecrit sous la forme XX aij (ui vj − uj vi ). f (u, v) = i
j
On constate alors que les termes sous le signe sommation sont des d´eterminants :
6.7 Produit scalaire et produit ext´erieur en dimension deux
XX u u X X aij ui ∧ uj . aij i j = f (u, v) = vi vj i
i
j
155
(6.9)
j
La derni`ere ´egalit´e est obtenue en ne reportant que les variables de la premi`ere ligne du d´eterminant (` a savoir ui et uj ) intercal´es du signe ∧ correspondant au produit ext´erieur. Nous verrons la justification de cette notation au prochain paragraphe. 6.7.3 Produit ext´ erieur de deux formes lin´ eaires D´ efinition 6.11. Lorsque deux formes lin´eaires sont donn´ees, disons f (u) et f¯(u), leur produit ext´erieur est d´efinit comme la forme bilin´eaire antisym´etrique associ´ee au d´eterminant f (u) f¯(u) ¯ . f (u) ∧ f (u) = (6.10) f (v) f¯(v) En utilisant les formes explicites
f (u) = a1 u1 + a2 u2 + . . . + an un f¯(u) = a ¯1 u1 + a ¯ 2 u2 + . . . + a ¯n un
(6.11) (6.12)
le produit (6.10) s’´ecrit ` a partir des d´eterminants des variables comme f (u) ∧ f¯(u) =
XX i
j
ui uj X X = ai a ¯j ai a ¯ j ui ∧ uj vi vj i
(6.13)
j
Remarque 6.12. En introduisant explicitement l’expression de f et f¯ donn´ees par (6.11) et (6.12) , on obtient XX ai a ¯j ui ∧ uj (6.14) (a1 u1 + . . . + an un ) ∧ (¯ a1 u 1 + . . . + a ¯ n un ) = i
j
et l’on constate que ce r´esultat aurait pu ˆetre obtenu directement en consid´erant le produit ∧ avec la propri´et´e distributivit´e par rapport `a l’addition et la propri´et´e d’antisym´etrie : – a∧a=0 – a ∧ b = −b ∧ a (6.15) – a ∧ (b + c) = a ∧ b + a ∧ c
(6.16)
Il comporte ´egalement d’autre propri´et´es en relation avec la multiplication par une fonction Υ (.) de Rn → R.
156
6 Elements de G´eom´etrie
Υ (x)(ω1 ∧ ω2 ) = ω1 ∧ (Υ (x)ω2 ) = (Υ (x)ω1 ) ∧ ω2
(6.17)
Ceci justifie ´egalement la notation f (u) ∧ f¯(u), o` u seul u apparaˆıt, ainsi que celle du paragraphe pr´ec´edent (6.9).
6.8 Forme multilin´ eaire altern´ ee En ajoutant des s´eries de variables, nous aboutissons `a une forme multilin´eaire altern´ee f (u, v, . . . , w) qui est telle qu’apr`es ´echange de deux s´eries de variables, le signe change. En utilisant le produit ∧ nous pouvons constituer une forme multilin´eaire `a partir d’un nombre fini de formes lin´eaires en suivant (6.14) et en utilisant les propri´et´es de non-commutativit´e et distributivit´e du produit ∧. Par induction, il est alors ´egalement possible de construire le produit ext´erieur de plusieurs formes ext´erieures de degr´e quelconque. Nous donnons maintenant une construction alg´ebrique des formes multilin´eaires altern´ees en utilisant la d´efinition des formes multilin´eaires donn´ees a la section (6.6). ` L’id´ee consiste ` a remarquer qu’une forme multilin´eaire Φ est altern´ee lorsque elle annule un ´el´ement v1 ⊗ v2 ⊗ . . . ⊗ vn pour lequel deux vecteurs, disons vi et vj , i 6= j, sont identiques. Ceci est notamment le cas pour une forme bilin´eaire altern´ee, car f (u, u) = −f (u, u) implique f (u, u) = 0. D´ efinition 6.13. L’ensemble des ´el´ements annulateurs a est a = {v1 ⊗ v2 ⊗ . . . ⊗ vn | ∃i, j i 6= j vi = vj }. Nn a constitue un module de l’espace vectoriel i=1 V . C’est un sous ensemble de l’espace vectoriel qui est ferm´e pour l’addition vectorielle et qui est ´egalement ferm´e pour le produit de l’espace vectoriel. Le produit ext´erieur de n copies de l’espace vectoriel V est alors donn´e par le quotient n ^
i=1
V =
n O i=1
V
!
/a
Nn Vn ce qui a pour effet d’envoyer tous les ´el´ements de a de i=1 V vers 0 dans ole d’´el´ement absorbant. i=1 V . a joue en quelque sorte le rˆ Nn D´ efinition 6.14. Une forme Vnmultilin´eaire altern´ee Φ de i=1 V dans R est une forme multilin´eaire de i=1 V dans R.
6.9 Cotangent et les 1-forme diff´erentielles
157
6.9 Cotangent et les 1-forme diff´ erentielles Les vecteurs tangents en un point donn´e x de la vari´et´e appartiennent `a un espace vectoriel Tx . Cet espace est un cas particulier d’espace vectoriel V . Il est alors naturel de construire son espace dual Tx∗ . Les vecteurs de cet espace dual sont des applications lin´eaires ayant comme argument un des vecteurs tangent ` a la vari´et´e au point x et retournant un nombre r´eel. Une telle application lin´eaire est appel´ee un covecteur tangent ou une 1forme diff´erentielle. Tout comme dans le cas de V , elle peut ´egalement se repr´esenter sous la forme d’un vecteur ligne en choisissant une base orthonorm´ee quelconque de Tx . L’espace vectoriel associ´e Tx∗ est appel´e espace vectoriel cotangent, ou plus simplement cotangent. Exemple 6.15. Dans le chapitre sur le plan de phase, l’´elimination de la variable temporelle s’est fait de deux mani`eres diff´erentes. D’une part, le syst`eme d’´equations diff´erentielles du premier ordre x˙ 1 = f1 (x1 , x2 ) x˙ 2 = f2 (x1 , x2 )
(6.18) (6.19)
a conduit ` a deux solutions x1 (t) = Φ1 (t) et x2 (t) = Φ2 (t) d´ecrivant une courbe Φ(x1 , x2 ) apr`es ´elimination de la variable temporelle t. D’autre part, la diff´erentielle dt a ´et´e ´elimin´ee et l’expression r´esultante directement int´egr´ee. Ces deux techniques sont maintenant r´eexamin´ees selon l’angle du champ de vecteur f (x) de du covecteur associ´e. Dans la premi`ere technique, lorsque le temps est ´elimin´e apr`es int´egration du syst`eme d’´equation (6.18) et (6.19), une courbe trajectoire dans le plan de phase est obtenue. Pour le syst`eme masse-ressort nous avons obtenu un cercle Φ(x1 , x2 ) = x21 + x22 − x1 (0)2 − x2 (0)2 . Par cons´equent, l’int´egration des ´equations diff´erentielles (6.18) et (6.19) T d´efinies par un champ de vecteur f (x) = f1 f2 et ´elimination de la variable ind´ependante t engendre une courbe solution. Cette courbe solution est ´egalement obtenue en envisageant le dual du champ de vecteur f (x). Le vecteur ligne f2 (x1 , x2 ) −f1 (x1 , x2 ) annule le champ de vecteur f (x) : f1 (x1 , x2 ) f2 (x1 , x2 ) −f1 (x1 , x2 ) = 0. (6.20) f2 (x1 , x2 ) Le vecteur ligne repr´esente une contrainte sur les accroissements dx1 et dx2 pour que le d´eplacement infinit´esimal correspondant soit dans le sens de la solution de l’´equation diff´erentielle.
158
6 Elements de G´eom´etrie
Le produit scalaire (6.20) permet donc d’associer `a un vecteur ligne, une forme lin´eaire dont l’argument est un vecteur du champ de vecteur appartenant ` a Tx . La ligne en question est un vecteur cotangent appartenant a` Tx∗ que l’on note f2 (x1 , x2 )dx1 − f1 (x1 , x2 )dx2 . (6.21) On obtient une expression diff´erentielle qui peut ˆetre directement int´egr´ee 1 conduisant ` a la courbe solution. En effet, apr`es substitution de f1 = dx dt et dx2 f2 = dt la somme des quantiti´es (6.20) reste nulle et la diff´erentielle dt est ´elimin´ee : Z f2 (x1 , x2 )dx1 − f1 (x1 , x2 )dx2 = 0 conduisant ` a la courbe solution apr`es int´egration. Pour l’oscillateur masse ressort o` u f1 (x1 , x2 ) = x2 et f2 (x1 , x2 ) = −x1 , l’expression diff´erentielle en question est −x1 dx1 − x2 dx2 qui conduit apr`es int´egration ` a l’´equation du cercle − 21 x21 − 21 x22 = C, o` u C est une constante d’int´egration sp´ecifi´ee par les conditions initiales C = − 21 (x1 (0)2 + x2 (0)2 ). L’expression (6.21) est appel´ee une 1-forme diff´erentielle.
D´ efinition 6.16. Le dual de l’espace tangent en un point x, not´e Tx∗ , est appel´e le cotangent au point x. C’est un espace vectoriel dont les ´el´ements sont les applications lin´eaires de Tx dans R. Un vecteur correspondant est appel´e une 1-forme diff´erentielle et not´e a1 (x)dx1 + a2 (x)dx2 + . . . + an (x)dxn , o` u ai (x), i = 1, . . . n, sont des fonctions des n variables x1 , x2 , . . ., xn .
6.10 Le gradient L’exemple pr´ec´edent montre que la correspondance entre un vecteur ligne et une application lin´eaire peut proc´eder dans le sens contraire. A partir d’un vecteur ligne quelconque, une application lin´eaire est d´efinie par le produit scalaire entre cette ligne et le vecteur auquel l’application lin´eaire est appliqu´ee. Dans le cas d’une fonction scalaire de h(x1 , x2 , . . . , xn ) : Rn → R les d´eriv´ees partielles par rapport `a chacune des variables sont rassembl´ees dans un vecteur ligne d´efinissant une forme lin´eaire par association de cette ligne avec l’application correspondante. Un tel vecteur ligne est appel´e le gradient et not´e ∂h ∂h ∂h . . . ∂x . ∇h = ∂x 1 ∂x2 n Par cons´equent, nous pouvons ´egalement interpr´eter le gradient comme un vecteur (covecteur) du cotangent Tx∗ en un point x.
6.11 D´eriv´ee de Lie
159
Remarque 6.17. Jusqu’` a pr´esent, les notations rendent indispensable l’utilisation des coordonn´ees x1 , x2 , . . ., xn . En somme, nous devons toujours utiliser une carte locale pour exprimer le gradient ou une autre forme diff´erentielle. Toutefois, en ´ecrivant dh =
∂h ∂h ∂h dx1 + dx2 + . . . + dxn , ∂x1 ∂x2 ∂x n
tout en conservant la relation avec les coordonn´ees x1 , . . ., xn dans le membre de droite, nous nous en d´ebarrassons dans le membre de gauche en ne faisant apparaˆıtre que dh. Ce dh peut ˆetre d´efinit, `a travers la compatibilit´e des cartes, sur l’ensemble de la vari´et´e M. C’est l`a un avantage de la notation dh. Exemple 6.18. Le gradient d’un candidat de Lyapunov s’obtient `a partir de l’expression de V (x) en prenant les d´eriv´ees partielles en fonction des coordonn´ees x1 , x2 , . . ., xn : ∂V ∂V ∂V . . . ∂x ∇V (x) = ∂x . (6.22) 1 ∂x2 n La 1-forme dV repr´esente ´egalement ce gradient sous la forme dV =
∂V ∂V ∂V dx1 + dx2 + . . . + dxn ∂x1 ∂x2 ∂xn
(6.23)
rendant possible la d´efinition de dV ind´ependamment des cartes locales utilis´ees. Le gradient en tant que champ de co-vecteurs se marie naturellement avec un champ de vecteurs, comme nous le verrons `a la section suivante.
6.11 D´ eriv´ ee de Lie Au chapitre 4, nous avons vu que la deuxi`eme condition du th´eor`eme de stabilit´e de Lyapunov exige que V˙ ≤ 0 afin que le syst`eme dynamique x˙ = f (x) soit stable. G´eom´etriquement, la notation V˙ (x) n’est pas convaincante car la propri´et´e de d´ecroissance de la fonction V est de nature g´eom´etrique et la r´ef´erence a variable temporelle n’est pas vraiment n´ecessaire. En effet, une fois f (x) ` assimil´e ` a un champ de vecteur, la condition V˙ ≤ 0 signifie simplement que le vecteur f (x), en chaque point x de la vari´et´e, assure que le syst`eme ´evolue vers des courbes de niveau V = cte inf´erieures ou ´egales `a celle sur laquelle il se trouve ` a l’instant consid´er´e. En d’autres termes, lorsque V˙ ≤ 0, f (x) forme un angle inf´erieur ou ´egal π a 2 par rapport au gradient ∇V en chaque point de l’´etat. En effet, `
160
6 Elements de G´eom´etrie
∂V ∂V d V = x˙ = f dt ∂x ∂x =
∂V ∂V ∂x1 ∂x2
f1 f2 ∂V . . . ∂x . n .. fn
= ∇V f
(6.24)
Par cons´equent, et de mani`ere g´en´erale, si `a la fois un champ de vecteur f (x) est donn´e ainsi qu’une fonction scalaire h(x), alors il est possible de d´efinir une nouvelle fonction scalaire, not´ee Lf h, appel´ee d´eriv´ee de Lie de h le long de f , ´egale au produit scalaire entre le gradient de cette fonction et le champ de vecteur. Cette d´eriv´ee repr´esente le taux d’´evolution de la fonction le long du champ de vecteur f (x). Remarque 6.19. Notons que la d´eriv´ee de Lie Lf h est l’association naturelle par dualit´e, en chacun des points x, entre le co-vecteur dh(x) du cotangent Tx∗ et le vecteur f (x) du tangent Tx . Cette fonction scalaire pourrait tout aussi bien s’´ecrire Lf h = dhf, mettant en exergue l’interpr´etation `a l’aide des espaces Tx∗ et Tx . Fondamentalement, le gradient n’appartient pas au mˆeme espace vectoriel que le vecteur f (x). Par abus, nous repr´esentons souvent les deux dans le mˆeme plan (en particulier lors de l’utilisation du plan de phase). Cependant, il est important de souligner cette diff´erence pour ´eviter une confusion des concepts. D´ efinition 6.20. Soit h une fonction et f un champ de vecteurs. La d´eriv´ee de Lie de la fonction h(x) le long du champ d’un champ de vecteur f (x) est d´efinie par Lf h(x) = ∇h f = =
∂h ∂h ∂x1 ∂x2
∂h f ∂x
f1 f2 ∂h . . . ∂x .. n . fn
Comme le r´esultat est ` a nouveau une fonction scalaire, il est possible de d´eriver successivement : L0f h = 0 i−1 Lif h = Lf (Li−1 f h) = d(Lf h)f
i = 1, 2, . . .
6.12 Crochet de Lie
161
6.12 Crochet de Lie Dans le courant de ce chapitre et le suivant, il sera question de manipuler des champs de vecteurs et de v´erifier des propri´et´es particuli`eres de ceux-ci. Bien que ses propri´et´es soient essentiellement intrins`eques aux champs de vecteurs que l’on va consid´erer, il est n´eanmoins utile d’avoir `a disposition des moyens de manipulation et de formulation qui permettent une ´ecriture compacte des conditions relatives `a leurs propri´et´es. En particulier, il sera question de la question d’int´egrabilit´e de ceux-ci, a savoir la possibilit´e qu’un ensemble de champ de vecteurs donn´es soient ` en relation ´etroite avec une surface courbe. Plus pr´ecis´ement, le champ sera dit int´egrable lorsqu’il est possible de construire une surface (courbe) pour laquelle en tout point de la surface il est garantit que l’espace tangent `a cette surface soit engendr´e par les vecteurs du champ en ce point. Bien que cette propri´et´e est de nature essentiellement globale, elle admet une caract´erisation locale, par des propri´et´es des crochets de champs de vecteurs. En effet, deux champs de vecteurs f1 et f2 peuvent ˆetre compos´es pour constituer un nouveau champ de vecteur [f1 , f2 ], appel´e le crochet de Lie, comme suit : D´ efinition 6.21. (Crochet de Lie) Soit deux champs de vecteurs f1 et f2 . La d´eriv´ee de Lie des champs de vecteur f et g est donn´ee par [f, g] =
∂f ∂g f− g ∂x ∂x
L’inconv´enient de cette notation est qu’elle devient lourde lorsqu’il est n´ecessaire d’it´erer le crochet par rapport `a un mˆeme champ de vecteur. Par exemple, pour noter le r´esultat des op´erations [f, [f, g]] et [f, [f, [f, g]]], et ainsi de suite. Pour y rem´edier, nous introduisons la notation adjointe suivante [f, g] = adf g qui s’applique inductivement ad0f g = g adf g = [f, g] .. .. . . adif g = [f, adi−1 f g] = [f, . . . , [f, g]]. A l’aide de cette nouvelle notation, les deux champs de vecteurs [f, [f, g]] et [f, [f, [f, g]]] s’expriment respectivement comme ad2f g et ad3f g. L’exposant indique le nombre de fois que le champ f apparaˆıt `a l’int´erieur des crochets imbriqu´es.
162
6 Elements de G´eom´etrie
Remarque 6.22. L’expression f f f g est parfois ´egalement utilis´ee pour d´esigner le champ de vecteur [f, [f, [f, g]]]. Cependant, cette notation est d´econseill´ee, ´etant donn´e la possible fausse interpr´etation. En effet, cette expression pourrait signifier [[f, f ], [f, g]] ou [f, [f, [f, g]]]. La premi`ere expression est nulle car [f, f ] = 0 par application directe de la d´efinition. La seconde n’a pas de raison a priori d’ˆetre nulle. Lorsque f f f g est employ´e, il est d’usage de lui associer un ordre de crochetage particulier, devenant n´eanmoins ainsi un moyen commode de noter le champ de vecteur correspondant. Exemple 6.23. Soit les deux champs de vecteurs f (x) et g(x) d´efinis par −2x1 + ax2 + sin x1 0 f (x) = g(x) = . cos(2x1 ) −x2 cos x1 Un calcul des Jacobiens multipli´es par le champ compl´ementaire donne ∂g 0 0 −2x1 + ax2 + sin x1 f = −x2 cos x1 −2 sin(2x1 ) 0 ∂x ∂f 0 −2 + cos x1 a g= cos(2x1 ) x2 sin x1 − cos x1 ∂x de telle sorte que le crochet s’exprime finalement par a cos(2x1 ) [f, g] = 2 sin(2x1 )(2x1 − ax2 − sin x1 ) + cos x1 cos(2x1 ) 6.12.1 Propri´ et´ es du crochet de Lie Le crochet de Lie comporte plusieurs propri´et´es utiles pour les calculs et qui peuvent ˆetre ´etablies directement `a partir de la d´efinition du crochet. 1. Distributivit´e par rapport `a l’addition : Soit deux nombres r´eels α1 , α2 ∈ R, alors [α1 f1 + α2 f2 , g] = α1 [f1 , g] + α2 [f2 , g] [f, α1 g1 + α2 g1 ] = α1 [f, g1 ] + α2 [f, g2 ] 2. Anti-commutativit´e : [f, g] = −[g, f ]
6.13 Diff´erentiation ext´erieure
163
3. Identit´e de Jacobi : Soit trois champs de vecteurs f , g, et h [f, [g, h]] + [g, [h, f ]] + [h, [f, g]] = 0. 4. D´eriv´ee de Lie le long d’un crochet : L[f,g] h = Lf Lg h − Lg Lf h La propri´et´e 4. engendre inductivement de nouvelles relations. En particulier, L[f,[f,g]] h = L2f Lg h − 2Lf Lg Lf h − Lg L2f h
6.13 Diff´ erentiation ext´ erieure Pour l’instant, seul les formes diff´erentielles de degr´e un ont ´et´e envisag´ees. Le gradient est un exemple. D’un autre cˆ ot´e, les vecteurs de l’espace tangents peuvent ˆetre compos´es par diff´erentiation sp´eciale provoqu´ee par le crochet en de nouveaux vecteurs. Ainsi, les champs de vecteurs se composent pour engendrer de nouveaux champs de vecteurs. Chaque nouveau vecteur en un point x demeure dans l’espace tangent Tx . Au paragraphe suivant, nous nous interesserons `a la construction d’une surface ` a partir d’un ensemble de champ de vecteurs (distribution) de telle sorte qu’en chacun point de la surface l’espace tangent est engendr´ee par les vecteurs de la distribution. Cette surface, si elle existe, est alors d´ecrite par une ´equation. Cette ´equation d´efinit ainsi un scalaire qui, lorsqu’il est nul, correspond ` a la surface. Nous verrons que l’existence de cette surface est intimement li´ee ` a la propri´et´e des crochets des champs de vecteurs. Toutefois, ´etablir cette condition directement est difficile. Par contre, en prenant le gradient de cette fonction, une forme diff´erentielle de degr´e un est obtenue. Ceci conduit alors `a une interpr´etation `a l’aide du dual Tx∗ de la surface int´egrale. Pour que la surface soit tangente au champ de vecteurs, le gradient doit ˆetre normal `a l’ensemble des vecteurs. En effet, si la surface est tangente aux champs de vecteurs, la d´eriv´ee de Lie de la fonction selon chaque champ de vecteur est nul, la quantit´e en question ne pouvant pas changer lors d’un d´eplacement le long d’un des champs de vecteurs. Cependant le calcul par crochets (valable sur l’espace tangent en consid´erant les champs de vecteur) n’est plus disponible en tant que tel dans l’espace cotangent. Il est n´ecessaire d’introduire un nouveau calcul permettant de trouver une condition d’int´egrabilit´e exprimable `a partir de celui-ci. L’avantage est que l’obtention de cette condition est plus simple et plus directe que lors de l’utilisation des crochets. Au lieu de crocheter les champs de vecteurs en restant dans l’espace vectoriel Tx , nous construisons des formes diff´erentielles de degr´e sup´erieur par
164
6 Elements de G´eom´etrie
une op´eration que l’on appelle diff´erentiation ext´erieure. En partant de Tx∗ on grimpe dans le produit tensoriel Tx∗ ⊗ Tx∗ et ainsi de suite Tx∗ ⊗ Tx∗ ⊗ . . . ⊗ Tx∗ . Cette op´eration est ´egalement `a l’origine de la g´en´eralisation du th´eor`eme de Stokes. (Rappelons que nous avons utilis´e ce th´eor`eme pour ´etablir une condition d’existence de cycle limite dans le chapitre consacr´e au plan de phase : la condition de Bendixson.) Il admet une g´en´eralisation en dimension quelconque et s’´enonce en utilisant la diff´erentiation ext´erieure. Pour introduire cette nouvelle op´eration, nous commen¸cons par revoir la notion de diff´erentielle. Celle-ci n’est pas unique et repose sur des choix. Puis nous montrons que deux syst`emes de diff´erentielles se combinent pour former des expressions altern´ees exactement comme deux ensembles de variables engendrent des formes altern´ees. La principale raison de l’alternance est li´ee `a l’int´egration. Il est important d’associer ` a un ´el´ement de surface (ou volume) infinit´esimal un sens positif ou n´egatif en fonction de son orientation. Ensuite nous introduisons l’op´eration de diff´erentiation ext´erieure permettant de passer d’une int´egrale sur l’enveloppe d’un espace donn´e (int´egrale de contour le long d’un hyper-espace) vers une int´egrale de l’espace consid´er´e (int´egrale de volume). C’est la g´en´eralisation du th´eor`eme de Stokes. La raison de l’introduction de cette nouvelle op´eration ne provient pas du lien entre ces deux types d’int´egration, mais plutˆ ot par le lien entre cette op´eration et la propri´et´e d’int´egrabilit´e qui alors abord´ee en d´etail. 6.13.1 Diff´ erentielles Lorsqu’on exprime la diff´erentielle d’une fonction, on entend par l`a son accroissement infinit´esimal. Il est exprim´e par la relation dΥ =
∂Υ ∂Υ ∂Υ dx1 + dx2 + dx3 ∂x1 ∂x2 ∂x3
(6.25)
o` u les diff´erentielles dx1 , dx2 et dx3 forment un syst`eme de diff´erentielles, et correspondent g´en´eralement `a l’accroissement infinit´esimal des quantit´es g´eom´etriques x1 , x2 et x3 . Cependant, et en toute g´en´eralit´e, ces expressions dx1 , dx2 et dx3 peuvent ˆetre vues que comme des fonctions des coordonn´ees x1 , x2 , x3 et d’un nombre arbitraire de nouvelles fonctions. C’est ainsi que nous pouvons consid´erer un autre syst`eme de diff´erentielles, disons δx1 , δx2 et δx3 , qui sont ´egalement des fonctions (mais diff´erentes) de x1 , x2 et x3 et d’un autre ensemble de variables. Supposons que nous adoptions comme variables ind´ependantes (` a la place de x1 , x2 et x3 ), trois fonctions ind´ependantes y1 , y2 et y3 de x1 , x2 et x3 . Nous conviendrons de continuer `a leur associer les mˆemes diff´erentielles
6.13 Diff´erentiation ext´erieure
dyi =
165
∂yi ∂yi ∂yi dx1 + dx2 + dx3 . ∂x1 ∂x2 ∂x3
On d´eduit de la r`egle de diff´erentiation des fonctions de fonctions que, grˆace `a cette convention, dΥ est une quantit´e qui ne d´epend pas du choix des variables ind´ependantes. Cette invariance de dΥ au cours d’un changement de variables r´esume les r`egles qui indiquent comment un changement de varibles transforme les d´eriv´ees d’une fonction. Apr`es le choix d’un autre syst`eme de diff´erentielles, il est possible de prendre δΥ au lieu de dΥ . Il est aussi important de pouvoir consid´erer `a la fois δdΥ et dδΥ . Ainsi, il est possible de d´efinir les diff´erentielles δi , i = 1, 2, 3 des variables autres que x1 , x2 et x3 dont d´ependent les dx1 , dx2 et dx3 dont d´ependent δx1 , δx2 et δx3 . Nous supposerons toujours qu’il soit possible de choisir les diff´erentielles de telles sortent que δdxi = dδxi ,
i = 1, 2, 3.
(6.26)
Par exemple si dxi = ξi (x1 , x2 , x3 ), δxi = ηi (x1 , x2 , x3 ), i = 1, 2, 3, alors (6.41) s’´ecrit 3 X ∂ηi ∂ξi i = 1, 2, 3. ηk − ξk ∂xk ∂xk k=1
Quand cette relation est v´erifi´ee, les symboles d et δ sont dits ´echangeables. De plus, si les symboles sont ´echangeables, ils le sont ´egalement apr`es changement de variables. Normalement, le choix du syst`eme de diff´erentielles est effectu´e en fonction de l’interpr´etation naturelle (g´eom´etrique et analytique), `a savoir que si dxi , i = 1, 2, 3, sont des accroissements infiniments petits, dΥ est la partie principale de l’accroissement correspondant de Υ . 6.13.2 D´ erivation ext´ erieure d’une 1-forme Soit la 1-forme ω = ω1 dx1 + ω2 dx2 + ω3 Et calculons la diff´erence dω − δω : dω − δω =
3 X
dωk δxk − δωk dxk
k=1 3 X 3 X
∂ωk (dx1 δxk − δxi dxk ) ∂xi i=1 k=1 X ∂ωk ∂ωi = (dx1 δxk − δxi dxk ) − ∂xi ∂xk
=
1≤i≤k≤3
(6.27)
166
6 Elements de G´eom´etrie
On d´efinit la d´eriv´ee ext´erieure ω ′ = dω − δω
(6.28)
On peut noter de fa¸con abr´eg´ee la diff´erence dxi δxj − δxi dxj sous la forme dxi ∧ dxj . P Le ωk dxk avec une autre 1-forme Pproduit ext´erieur d’une 1-forme ω = ω ¯= ω ¯ k dxk est donn´e par ω∧ω ¯=
X i,j
ωi ω ¯ j dxi ∧ dxj
X
=
1≤i≤j≤3
(ωi ω ¯ j − ωj ω ¯ i )dxi ∧ dxj
Ainsi en d´enotant dω au lieu de ω ′ :
X
dω =
1≤i≤j≤3
∂ωi ∂ωj − ∂xi ∂xj
dxi ∧ dxj
(6.29)
Nous avons la propri´et´e suivante, o` u ω est une 1-forme et Υ une fonction : d(Υ ω) = dΥ ∧ ω + Υ dω
(6.30)
6.13.3 D´ erivation ext´ erieure Pour une fonction Υ , nous avons l’expression (6.40). Pour une 1-forme ω = P dx + Qdy + Rdz, en appliquant (6.45) sur chacun des termes, et en tenant compte de (6.40), nous obtenons ∂P ∂P ∂P dx + dy + dz) ∧ dx ∂x ∂y ∂z ∂Q ∂Q ∂Q dx + dy + dz) ∧ dy +( ∂x ∂y ∂z ∂R ∂R ∂R +( dx + dy + dz) ∧ dz ∂x ∂y ∂z
dω = (
(6.31)
Comme dxi ∧ dxi = dxi δxi − δxi dxi = 0 et dxi ∧ dxj = dxi δxj − δxi dxj = −(dxj δxi −δxj dxi ) = −dxj ∧dxi , nous retombons bien sur l’expression (6.44). Par cons´equent, avec Υ une fonction arbitraire des variables x1 , x2 , . . ., xn , on peut d´efinir de mani`ere inductive la diff´erentielle ext´erieure d’une forme de degr´e quelconque en partant d’une forme monˆ ome
6.13 Diff´erentiation ext´erieure
167
α = Υ dx1 ∧ dx2 ∧ dx3 ∧ . . . ∧ dxn , par dα = (dΥ ) ∧ dx1 ∧ dx2 ∧ dx3 ∧ . . . ∧ dxn .
(6.32)
Cette op´eration d´efinie pareillement est la seule qui poss`ede les propri´et´es suivantes : 1. distributivit´e par rapport `a l’addition : d(ω + ν) = dω + dν;
(6.33)
2. r`egle de Leibniz en tenant compte de l’anti-sym´etrie : d(ω ∧ ν) = dω ∧ ν + (−1)p ω ∧ dnu
o` u ω est une p-forme;
(6.34)
3. d est l’op´erateur de diff´erentiation usuel sur les 0-formes (le gradient sur les fonctions) ; 4. d(df ) = 0 sur les fonctions f ; La d´efinition ci-dessus montre que cette op´eration est ind´ependante du choix des coordonn´ees et se d´efinit de mani`ere globale sur la vari´et´e. Toutefois, en utilisant des coordonn´ees locales, nous avons la d´efinition de la diff´erentielle ext´erieure d’une 1-forme arbitraire suivante : D´ efinition 6.24. La diff´erentielle ext´erieure d’une forme arbitraire ω = P n ee par j=1 αj dxj est donn´ dω =
n n X X ∂αj j=1
i=1
∂xi
dxi
!
∧ dxj .
6.13.4 Th´ eor` eme de Stokes g´ en´ eralis´ e A l’aide de cette nouvelle propri´et´e de diff´erentiation, et en partant d’une 1-forme ω quelconque en dimension n, il est possible d’int´egrer cette 1-forme sur une hyper-surface, sous-vari´et´e δΓ englobant un certain volume, la vari´et´e Γ . Quel que soit la dimension n, il est toujours vrai que I
∂Γ
ω=
Z Z
dω.
Γ
La d´emonstration se trouve dans bon nombre de livres sur la g´eom´etrie diff´erentielle et nous invitons le lecteur `a consulter par exemple [Boo75].
168
6 Elements de G´eom´etrie
6.14 Int´ egrabilit´ e Nous allons maintenant montrer sous quelles conditions il est possible de construire une hypersurface perpendiculaire `a une 1-forme unique. Cette derni`ere repr´esente un champ de normales `a partir de laquelle la surface est construite. Remarquons que ceci revient au mˆeme que d’´etablir sous quelles conditions un ensemble de champ de vecteur (constituant de la sorte une distribution) engendre, en tout point l’espace, l’espace tangeant `a l’hypersurface mentionn´ee pr´ec´edemment. Une hypersurface dans l’espace est repr´esent´ee comme une seule ´equation de tous les ´etats : C = Υ (x1 , x2 , x3 , . . . , xn ),
(6.35)
avec une certaine constante C ∈ R. Cette hypersurface est une surface de dimension n−1 plong´ee dans l’espace de dimension n. Nous n’envisagerons dans ce qui suit que le caract`ere local de cette hypersurface, au sens o` u on ne s’int´eressera pas de savoir si cette surface est d´efinie partout dans l’espace. Nous reviendrons sur le caract`ere local des r´esultats par la suite. La figure 6.3 repr´esente la surface ellipso¨ıdale 4x21 + x22 + 2x23 = 1.
(6.36)
0.5
0
-0.5
-1 -0.5
-0.5 -0.25
0 0 0.25
0.5 1 0.5
Fig. 6.3. Illustration de l’ellipse d´efinie par l’´equation 4x21 + x22 + 2x23 = 1
6.14 Int´egrabilit´e
169
Si l’on se place en un point p de cette surface, il est possible de se d´eplacer de mani`ere infinit´esimale dans l’espace d’´etat. Par exemple, si l’on se d´eplace le long de l’axe x1 , et uniquement le long de cet axe, on peut consid´erer dx1 = ǫ > 0, dx2 = dx3 = 0 comme repr´esentant un tr`es petit d´eplacement parall`ele ` a l’axe x1 et n’ayant aucune contribution le long des axes x2 et x3 . Toutefois, en consid´erant un tel d´eplacement, on quitte instantan´ement la surface d´efinie par (6.36). Par contre, rien n’empˆeche de prendre un autre d´eplacement infinit´esimal associ´e ` a une valeur particuli`ere des quantit´es dx1 = α1 , dx2 = α2 et dx3 = α3 . Quelle est alors la condition sur les d´eplacements infinit´esimaux (choix de α1 , α2 et α3 ) afin que l’on demeure sur la surface correspondant `a l’´equation de l’ellipso¨ıde (6.36) ? Si l’on reste sur la surface, la valeur correspondant au membre de gauche de (6.36) ne doit pas changer apr`es le d´eplacement et continuer de valoir un. Ainsi, en d´efinissant Υ = 4x21 + x22 + 2x23 , la condition sur les accroissements est ∂Υ ∂Υ ∂Υ dx1 + dx2 + dx3 ∂x1 ∂x2 ∂x3 = 8x1 dx1 + 2x2 dx2 + 4x3 dx3 = 0.
dΥ =
(6.37)
Les valeurs αi , i = 1, 2, 3 sont choisies afin de satisfaire cette ´equation, condition qui peut s’´ecrire comme l’annulation du prpduit scalaire : dx1 8x1 2x2 4x3 dx2 = 0. dx3 Par cons´equent, le vecteur 8x1 2x2 4x3 repr´esente une normale `a la surface. En effet, un d´eplacement infinit´esimal, choisi afin de rester sur la surface Υ = C, respecte la condition (6.37). Les consid´erations ci-dessus montrent ´egalement que l’on peut mettre en correspondance (isomorphisme) entre les deux entit´es : (6.38) 8x1 dx1 + 2x2 dx2 + 4x3 dx3 ↔ 8x1 2x2 4x3 .
La quantit´e de gauche est appel´ee une 1-forme et le vecteur de droite un co-vecteur gradient ou co-vecteur normal selon les circonstances (et par abus de langage vecteur gradient ou vecteur normal, bien que cette quantit´e d´ecrit a proprement parl´e un champ d’´el´ements qui est dans le dual d’un champ de ` vecteurs, au sens ou chacun des ´el´ements en question est un dual d’un vecteur, lui-mˆeme ´el´ement d’un champ de vecteurs).
170
6 Elements de G´eom´etrie
Fig. 6.4. Repr´esentation du champ de normales correspondant ` a la 1-forme 8x1 dx1 + 2x2 dx2 + 4x3 dx3 . Seule une partie de l’ellipse d’´equation 4x21 + x22 + 2x23 = 1 est repr´esent´ee.
6.15 Diff´ erence entre une 1-forme exacte et int´ egrable. La section pr´ec´edente montre l’existence d’un champ de co-vecteurs normaux ` a une surface. Etant donn´e une surface, il existe toujours un champ normal. La question est de savoir si la r´eciproque est vraie, c’est-`a-dire ´etant donn´e un champ de co-vecteurs quelconques, exite-t-il une surface pour laquelle la normale ` a cette surface correspond au champ en question ? Soit donc une fonction Υ de trois coordonn´ees x1 , x2 , x3 . Il est possible de constituer une 1-forme en prenant la diff´erentielle totale de la fontion Υ :
dΥ =
∂Υ ∂Υ ∂Υ dx1 + dx2 + dx3 . ∂x1 ∂x2 ∂x3
On constate que les coefficients devant dx1 , dx2 , dx3 sont des fonctions de x1 , x2 , x3 . De plus, ces coefficients ne sont pas arbitraires, puisqu’il sont issus de la fonction Υ , par d´eriv´ees partielles. On peut alors s’interroger sur la r´eciproque, `a savoir, ´etant donn´e trois fonctions arbitraires de x1 , x2 et x3 (disons ω1 (x1 , x2 , x3 ), ω2 (x1 , x2 , x3 ) et ω3 (x1 , x2 , x3 )), existe-t-il une fonction Ψ qui est en relation ´etroite avec la 1-forme ω = ω1 dx1 + ω2 dx2 + ω3 dx3 .
Trois cas de figure se pr´esentent :
(6.39)
6.16 Diff´erentielles et d´erivation ext´erieure
171
1. Il existe une fonction Ψ (x1 , x2 , x3 ) pour laquelle ωi =
∂Ψ ∂xi
i = 1, 2, 3,
de telle sorte que dΨ = ω. La 1-forme (6.39) est dite exacte dans ce cas et nous avons la r´eciproque exacte de l’assertion ci-dessus. 2. Il existe une fonction Ψ (x1 , x2 , x3 ) et une autre fonction η(x1 , x2 , x3 ) telles que ∂Ψ i = 1, 2, 3. η(x1 , x2 , x3 )ωi = ∂xi Dans ce cas, la 1-forme est dite int´egrable. Il s’agit donc de trouver un facteur qui multiplie toutes les composantes de la 1-forme afin que la 1forme r´esultante devienne exacte, le facteur variant d’un point `a l’autre de l’espace d’´etat. La difficult´e de l’int´egration provient de la n´ecessit´e de d´eterminer deux quantit´es η(x1 , x2 , x3 ) et Ψ (x1 , x2 , x3 ). Nous avons une sorte de r´eciproque partielle de l’assertion ci-dessus. 3. La 1-forme (6.39) n’est reli´ee `a aucune fonction Ψ des trois coordonn´ees x1 , x2 , et x3 ; elle est alors dite non-int´egrable. La r´eciproque de l’assertion ci-dessus n’existe pas dans ce cas. On constate donc qu’une 1-forme exacte est n´ecessairement int´egrable. Par contre, il existe des 1-formes int´egrables qui ne sont pas pour autant exactes. Il nous reste donc ` a trouver les conditions pour discriminer entre les trois cas possibles. Pour se faire, il est n´ecessaire de d´eveloper un calcul infinit´esimal particuler, appel´e calcul diff´erentiel ext´erieur.
6.16 Diff´ erentielles et d´ erivation ext´ erieure Diff´ erentielles Les diff´erentielles dx1 , dx2 et dx3 forment un syst`eme de diff´erentielles. Ce sont des fonctions des coordonn´ees x1 , x2 , x3 et d’un nombre arbitraire de nouvelles fonctions. Consid´erons un autre syst`eme de diff´erentielles, disons δx1 , δx2 et δx3 , qui sont ´egalement des fonctions (mais diff´erentes) de x1 , x2 et x3 et d’un autre ensemble de variables. La diff´erentielle d’une fonction Υ (x1 , x2 , x3 ) est par d´efinition
dΥ =
∂Υ ∂Υ ∂Υ dx1 + dx2 + dx3 ∂x1 ∂x2 ∂x3
(6.40)
Supposons que nous adoptions comme variables ind´ependantes (` a la place de x1 , x2 et x3 ), trois fonctions ind´ependantes y1 , y2 et y3 de x1 , x2 et x3 . Nous conviendrons de continuer `a leur associer les mˆemes diff´erentielles
172
6 Elements de G´eom´etrie
dyi =
∂yi ∂yi ∂yi dx1 + dx2 + dx3 . ∂x1 ∂x2 ∂x3
On d´eduit de la r`egle de diff´erentiation des fonctions de fonctions que, grˆace `a cette convention, dΥ est une quantit´e qui ne d´epend pas du choix des variables ind´ependantes. Cette invariance de dΥ au cours d’un changement de variables r´esume les r`egles qui indiquent comment un changement de varibles transforme les d´eriv´ees d’une fonction. Apr`es le choix d’un autre syst`eme de diff´erentielles, il est possible de prendre δΥ au lieu de dΥ . Il est aussi important de pouvoir consid´erer `a la fois δdΥ et dδΥ . Ainsi, il est possible de d´efinir les diff´erentielles δi , i = 1, 2, 3 des variables autres que x1 , x2 et x3 dont d´ependent les dx1 , dx2 et dx3 dont d´ependent δx1 , δx2 et δx3 . Nous supposerons toujours qu’il soit possible de choisir les diff´erentielles de telles sortent que δdxi = dδxi ,
i = 1, 2, 3.
(6.41)
Par exemple si dxi = ξi (x1 , x2 , x3 ), δxi = ηi (x1 , x2 , x3 ), i = 1, 2, 3, alors (6.41) s’´ecrit 3 X ∂ηi ∂ξi ηk − ξk i = 1, 2, 3. ∂xk ∂xk k=1
Quand cette relation est v´erifi´ee, les symboles d et δ sont dits ´echangeables. De plus, si les symboles sont ´echangeables, ils le sont ´egalement apr`es changement de variables. Normalement, le choix du syst`eme de diff´erentielles est effectu´e en fonction de l’interpr´etation naturelle (g´eom´etrique et analytique), `a savoir que si dxi , i = 1, 2, 3, sont des accroissements infiniments petits, dΥ est la partie principale de l’accroissement correspondant de Υ . Toutefois, les consid´erations ci-dessus montrent qu’il est possible de d´efinir des diff´erentielles ”abstraites” (disons δxi ) pour autant qu’elles soient compatibles avec un calcul diff´erentiel appropri´e. D´ erivation ext´ erieure Soit la 1-forme ω = ω1 dx1 + ω2 dx2 + ω3 Et calculons la diff´erence dω − δω :
6.17 Propri´et´es de la diff´erentielle ext´erieure
dω − δω =
3 X
dωk δxk − δωk dxk
k=1 3 X 3 X
∂ωk (dx1 δxk − δxi dxk ) ∂xi i=1 k=1 X ∂ωk ∂ωi = (dx1 δxk − δxi dxk ) − ∂xi ∂xk
=
173
(6.42)
1≤i≤k≤3
On d´efinit la d´eriv´ee ext´erieure
ω ′ = dω − δω
(6.43)
On peut noter de fa¸con abr´eg´ee la diff´erence dxi δxj − δxi dxj sous la forme dxi ∧ dxj . P Le ωk dxk avec une autre 1-forme Pproduit ext´erieur d’une 1-forme ω = ω ¯= ω ¯ k dxk est donn´e par ω∧ω ¯=
X i,j
ωi ω ¯ j dxi ∧ dxj
X
=
1≤i≤j≤3
(ωi ω ¯ j − ωj ω ¯ i )dxi ∧ dxj
Ainsi en d´enotant dω au lieu de ω ′ :
dω =
X
1≤i≤j≤3
∂ωj ∂ωi − ∂xi ∂xj
dxi ∧ dxj
(6.44)
Nous avons la propri´et´e suivante, o` u ω est une 1-forme et Υ une fonction : d(Υ ω) = dΥ ∧ ω + Υ dω
(6.45)
6.17 Propri´ et´ es de la diff´ erentielle ext´ erieure Pour une fonction Υ , nous avons l’expression (6.40). Pour une 1-forme ω = P dx + Qdy + Rdz, en appliquant (6.45) sur chacun des termes, et en tenant compte de (6.40), nous obtenons
174
6 Elements de G´eom´etrie
∂P ∂P ∂P dx + dy + dz) ∧ dx ∂x ∂y ∂z ∂Q ∂Q ∂Q dx + dy + dz) ∧ dy +( ∂x ∂y ∂z ∂R ∂R ∂R +( dx + dy + dz) ∧ dz ∂x ∂y ∂z
dω = (
(6.46)
Comme dxi ∧ dxi = dxi δxi − δxi dxi = 0 et dxi ∧ dxj = dxi δxj − δxi dxj = −(dxj δxi −δxj dxi ) = −dxj ∧dxi , nous retombons bien sur l’expression (6.44). Par cons´equent, avec Υ une fonction arbitraire des variables x1 , x2 , . . ., xn , on peut d´efinir de mani`ere inductive la diff´erentielle ext´erieure d’une forme de degr´e quelconque en partant d’une forme monˆ ome α = Υ dx1 ∧ dx2 ∧ dx3 ∧ . . . ∧ dxn , par dα = (dΥ ) ∧ dx1 ∧ dx2 ∧ dx3 ∧ . . . ∧ dxn .
(6.47)
En r´esum´e, nous avons la d´efinition de la diff´erentielle ext´erieure d’une 1-forme arbitraire suivante : D´ efinition 6.25. La diff´erentielle ext´erieure d’une forme arbitraire ω = P n ee par j=1 αj dxj est donn´ n n X X ∂αj dxi dω = ∂xi i=1 j=1
!
∧ dxj .
Le produit ext´erieur est anti-sym´etrique et il pr´eserve la lin´earit´e apr`es multiplication. Ces principales propri´et´es sont :
dxi ∧ dxj = −dxj ∧ dxi
Υ (x)(ω1 ∧ ω2 ) = ω1 ∧ (Υ (x)ω2 ) = (Υ (x)ω1 ) ∧ ω2 ω1 ∧ (ω2 + ω3 ) = ω1 ∧ ω2 + ω1 ∧ ω3
(6.48) (6.49)
6.18 Condition d’exactitude et d’int´ egrabilit´ e Maintenant que nous sommes en possession d’un nouveau type de calcul (la diff´erentiation ext´erieure), nous allons r´eexaminer les questions soulev´ees `a la section 6.15 en d´eterminant les conditions permettant de d´ecider du type de 1-forme que nous avons ` a faire. Ces conditions sont des expressions calculables facilement ` a partir des coefficients de la 1-forme.
6.18 Condition d’exactitude et d’int´egrabilit´e
175
Condition d’exactitude Soit une 1-forme exacte ω = P dx + Qdy + Rdz.
(6.50)
Par d´efinition, il existe une fonction Υ telle que P =
∂Υ , ∂x
Q=
∂Υ , ∂y
et
R=
∂Υ . ∂z
Calculons la diff´erentielle ext´erieure de ω en utilisant (6.44) ou (6.40) : dω =
∂2Υ dy ∧ dx + ∂y∂x ∂2Υ dx ∧ dy + ∂x∂y ∂2Υ dx ∧ dz + ∂x∂z
∂2Υ dz ∧ dx ∂z∂x ∂2Υ dz ∧ dy ∂z∂y ∂2Υ dy ∧ dz. ∂z∂z
En utilisant (6.48), on d´eduit que dω) = 0, concluant sur la n´ecessit´e de cette condition. Pour en d´emontrer la suffisance, supposons que ω soit exacte (c.-`a-d. que ω soit le gradient d’une fonction) mais que dω 6= 0. Nous allons montrer qu’il y a une contradiction. Pour la voir, il suffit d’appliquer le th´eor`eme de Stokes Z I dω = ω, V
∂V
o` u V est un petit parall´el´epip`ede. Comme ω provient d’une fonction, les contributions sur les cˆ ot´es ∂V du parall´el´epip`ede V se compensent de telle sorte que l’int´egrale de droite est nulle. Comme dω 6= 0, par supposition, l’int´egrale de gauche est non nulle, ce qui contredit l’´egalit´e des deux int´egrales. Ceci se g´en´eralise ` a un nombre arbitraire de variables et nous avons donc le th´eor`eme suivant valable localement Th´ eor` eme 6.26. Une 1-forme ω est localement exacte si, et seulement si, dω = 0. Condition d’int´egrabilit´e La condition d’int´egrabilit´e est plus subtile ´etant donn´e qu’une fonction η est manquante (inconnue) pour transformer la 1-forme int´egrable ω en une 1-forme exacte ηω.
176
6 Elements de G´eom´etrie
Dans un premier temps, supposons que la 1-forme (6.50) soit int´egrable. Ceci signifie que P , Q, et R, sont proportionnels aux d´eriv´ees partielles d’une certaine fonction Υ par rapport `a respectivement x, y et z : ηP =
∂Υ , ∂x
ηQ =
∂Υ , ∂y
et ηR =
∂Υ . ∂z
(6.51)
A partir des deux premi`eres ´equations, nous obtenons ∂2Υ ∂ ∂ (ηP ) = = (ηQ); ∂y ∂x∂y ∂x en d’autres termes, η
∂P ∂η ∂Q ∂η +P =η +Q , ∂y ∂y ∂x ∂x
ou, ce qui revient au mˆeme, ∂η ∂Q ∂η ∂P =Q − −P . η ∂y ∂x ∂x ∂y
(6.52)
De mani`ere similaire, avec les deux derni`eres ´equations de (6.51), ∂Q ∂R ∂η ∂η η − −Q =R ∂z ∂y ∂y ∂z ∂η ∂η ∂R ∂P =P − −R . η ∂x ∂z ∂z ∂x
(6.53) (6.54)
En multipliant (6.52) par R, (6.53) par P, et (6.54) par Q, et en aditionnant le tout, il vient finalement la condition
P
∂Q ∂R − ∂z ∂y
+Q
∂R ∂P − ∂x ∂z
+R
∂P ∂Q − ∂y ∂x
= 0.
(6.55)
Par cons´equent, lorsque il est possible de d´eterminer une fonction qui rend la 1-forme ω, apr`es multiplication par cette fonction, exacte, alors la condition (6.55) est satisfaite. En outre, Il est ais´e de montrer que si l’on prend au lieu de P , Q et R, des nouvelles fonctions P1 = λP , Q1 = λQ et R1 = λR, o` u λ est une fonction quelconque, la condition (6.55) continue `a ˆetre v´erifi´ee lorsqu’on remplace P par P1 , Q par Q1 , et R par R1 . La r´eciproque est ´egalement vraie, `a savoir que si la condition (6.55) est satisfaite, alors la 1-forme ω est int´egrable, ou en d’autres termes, il existe une int´egrale Υ (x, y, z) = 0.
6.18 Condition d’exactitude et d’int´egrabilit´e
177
Pour le voir, nous allons d’abord revenir en dimension deux. Lorsque P et Q sont des fonctions de x et y uniquement, l’´equation diff´erentielle P dx + Qdy = 0,
(6.56)
est garantie de poss`eder une solution u(x, y) = c, o` u c est une constante, quel que soit P et Q. Ceci est toujours possible, car il suffit d’´ecrire (6.56) sous une des deux formes Q dx =− dy P ou P dy =− , dx Q selon que P 6= 0 ou Q 6= 0 ; aucune des deux fonctions ne peut, par hypoth`ese, s’annuler simultan´ement, sinon cela conduirait `a un syst`eme trivial 0 = 0. En int´egrant une de ces deux ´equations diff´erentielles ordinaires de mani`ere classique (celle dont le membre de droite ne devient pas singulier), nous obtenons, apr`es mise sous forme implicite, l’expression u(x, y) = c. En d´erivant u(x, y), on a ∂u ∂u dx + dy = 0, ∂x ∂y ∂u ce qui revient ` a dire que P = λ ∂u u λ est une fonction quelconque. ∂x , Q = λ ∂x , o` Lorsqu’il y a trois variables, bien qu’il puisse ˆetre possible, par la m´ethode d´ecrite ci-dessus, de garantir que P et Q soient proportionnels aux d´eriv´ees partielles de Υ par rapport `a x et y (il suffit de poser P dx + Qdy = 0 et de r´esoudre l’´equation diff´erentielle ordinaire sous jacente, en consid´erant z comme un param`etre constant), R ne sera pas n´ecessairement proportionnel a ∂Υ ` ∂z . N´eanmoins, soit u(x, y, z) une telle fonction, de sorte qu’il existe une fonction λ(x, y, z) pour laquelle
P1 = λP =
∂u ∂x
Q1 = λQ
∂u . ∂y
Nous d´efinissons S comme la quantit´e manquante pour que R1 soit directement proportionnel ∂u a-d. ∂z , c.-` R1 −
∂u ∂u = λR − =S ∂z ∂z
(6.57)
Maintenant, en substituant P1 =
∂u ∂z
Q1 =
∂u ∂y
R1 =
∂u +S ∂z
178
6 Elements de G´eom´etrie
dans P1
∂R1 ∂Q1 − ∂z ∂y
+ Q1
∂P1 ∂R1 − ∂x ∂z
+ R1
∂Q1 ∂P1 − ∂y ∂x
=0
(´equation qui est automatiquement satisfaite ´etant donn´e que (6.55) est satisfaite), nous obtenons ∂S ∂u ∂S ∂u − = 0. (6.58) ∂x ∂y ∂y ∂x C’est ainsi que deux cas de figure se pr´esentent. Ou bien R1 est proporegrale cherch´ee, ou alors S est une tionnel ` a ∂u ∂z , auquel cas Υ = u est l’int´ fonction non nulle qui satisfait identiquement l’´equation (6.58). Cependant, (6.58) est satisfaite si, et seulement si, il existe une relation entre S et u valable quelles que soient les valeurs particuli`eres de x et y, c-`a-d. que u peut s’exprimer directement `a partir de S et vice versa : u = g(S)
S = f (u).
Toutefois, la pr´esence de z en tant que param`etre dans u(x, y, z) implique sa pr´esence ´egalement en tant que param`etre dans l’´equation (6.58), ce qui signifie qu’il faille l’introduire dans l’expression S = f (u, z), bien que x et y n’apparaissent plus ind´ependamment l’une de l’autre, mais seulement sous forme combin´ee par l’interm´ediaire de la fonction u(x, y, z). C’est ainsi que nous pouvons ´ecrire ∂u ∂u ∂u dx + dy + dz + Sdz ∂x ∂y ∂z = du + Sdz,
λ(P dx + Qdy + Rdz) =
(6.59)
o` u S s’exprime en fonction uniquement de u et z. Nous avons donc obtenu une 1-forme en dimension deux pour laquelle l’int´egrale est garantie d’exister par transformation en une ´equation diff´erentielle ordinaire et int´egration classique. Sous forme implicite ceci donne Ψ (u, z) = cte, avec
∂Ψ =µ ∂u
∂Ψ = µS. ∂z
Par cons´equent, λµ(P dx + Qdy + Rdz) = µ(du + Sdz) = dΨ, conduisant apr`es subsititution de u(x, y, z) dans Ψ (u, z) `a l’int´egrale
6.18 Condition d’exactitude et d’int´egrabilit´e
179
Ψ (u, z) = Υ (x, y, z). Ces consid´erations se g´en´eralisent en dimension plus grande que trois, conduisant au th´eror`eme d’int´egrabilit´e d’une 1-forme suivant : Th´ eor` eme 6.27. Une 1-forme ω est int´egrable si, et seulement si, dω ∧ ω = 0.
(6.60)
180
6 Elements de G´eom´etrie
La d´emonstration, en dimension trois, a d´ej` a ´et´e effectu´ee ci-dessus. Il suffit de constater que (6.60) conduit en partant de ω = P dx + Qdy + Rdz `a l’expression (6.55). Pour le voir, commen¸cons par calculer dω : ∂P ∂P ∂P dx + dy + dz ∧ dx dω = ∂x ∂y ∂z ∂Q ∂Q ∂Q + dx + dy + dz ∧ dy ∂x ∂y ∂z ∂R ∂R ∂R dx + dy + dz ∧ dz + ∂x ∂y ∂z ∂P ∂P = dy + dz ∧ dx ∂y ∂z ∂Q ∂Q dx + dz ∧ dy + ∂x ∂z ∂R ∂R + dx + dy ∧ dz ∂x ∂y o` u nous avons utiliser (6.48). Ensuite, en prenant le produit ext´erieur, et en distribuant selon (6.49), on obtient ∂P ∂P dy + dz ∧ dx ∧ (P dx + Qdy + Rdz) dω ∧ ω = ∂y ∂z ∂Q ∂Q + dx + dz ∧ dy ∧ (P dx + Qdy + Rdz) ∂x ∂z ∂R ∂R dx + dy ∧ dz ∧ (P dx + Qdy + Rdz) + ∂x ∂y ∂P ∂P = R dy ∧ dx ∧ dz + Q dz ∧ dx ∧ dy ∂y ∂z ∂Q ∂Q +R dx ∧ dy ∧ dz + P dz ∧ dy ∧ dx ∂x ∂z ∂R ∂R dx ∧ dz ∧ dy + P dy ∧ dz ∧ dx +Q ∂x ∂y ∂Q ∂R ∂R ∂P ∂P ∂Q = − P − − − +Q +R ∂z ∂y ∂x ∂z ∂y ∂x dx ∧ dy ∧ dz, de sorte que la condition (6.55) est ´equivalente `a dω ∧ ω = 0. Exemples Nous donnons trois exemples simples de 1-formes :
6.19 Interpr´etation g´eom´etrique de l’int´egrabilit´e et de la non-int´egrabilit´e
181
– La 1-forme ω1 = (z+1)dx+xdz est exacte, car une fois pos´e Υ = x(1+z), l’utilisation de la formule (6.40) donne d(x(1 + z)) = ω1 . – La 1-forme ω2 = z+1 x dx + dz n’est pas exacte. Par contre, elle est int´egrable, ´etant donn´e que xω2 = ω1 . – La 1-forme ω3 = (−x + y + yz)dx + x(1 + z)dz n’est pas int´egrable puisque ω3 ∧ dω3 = −x(1 + z)2 dx ∧ dy ∧ dz 6= 0.
6.19 Interpr´ etation g´ eom´ etrique de l’int´ egrabilit´ e et de la non-int´ egrabilit´ e La figure 6.5 illustre le cas d’une 1-forme exacte ω = yzdx + xzdy + xydz, pour laquelle la fonction int´egral est Υ = xyz − C = 0, avec C une constante arbitraire. On constate que les fl`eches - vecteur ligne yz xz yz - sont perpendiculaires en chacun de point de la surface int´egrale. Elles d´efinissent non seulement un champ normal, mais correspondent exactement au gradient de la fonction int´egrale Υ .
Fig. 6.5. la 1-forme ω = yzdx + xzdy + xydz exacte est repr´esent´ee avec trois surfaces int´egrales xyz = cte.
Lorsque la 1-forme n’est plus exacte, mais toutefois int´egrable, la longueur de la fl`eche n’a en quelque sorte pas d’importance, et seul son orientation compte. Ainsi, si au lieu de ω, nous aurions pris une fonction arbitraire η, modifiant en chacun des points la norme de la fl`eche `a ce point, mais pas son orientation, les fl`eches demeureraient normales aux surfaces int´egrales Υ = 0. La 1-forme ηω poss`edent donc les mˆemes surfaces int´egrales que ω. Dans le cas d’une 1-forme non int´egrable, les orientations des normales bloquent en quelque sorte le processus d’int´egration. Nous allons examiner de plus pr`es une explication g´eom´etrique de ce ph´enom`ene.
182
6 Elements de G´eom´etrie -2 -1.5 -1 1
-0.5
0
-1
-2
0.5 1 1.5 2 -2
-2 -1.5
-1.5 -1
1
-1 1
-0.5
0
-0.5
0
-1
-1
-2
-2
0.5
0.5
1
1
1.5 2
1.5 2
Fig. 6.6. (i) La 1-forme int´egrable ω = yzdx + xzdy + xydz est repr´esent´ee. (ii) La courbe Ξ est toujours orient´ee dans le sens des 1-forme. (iii) Les deux surfaces int´egrales x2 − y 2 = c1 et y 2 − z 2 = c2 des 1-formes compl´ementaires (6.63) et (6.64) (c.-` a-d. xzdx − yzdy et xydy − xzdz) se coupent exactement pour donner Ξ. (iv) Les surfaces int´egrales ` a ω, ` a savoir xyz = c, c ∈ R pour quatre valeurs de c diff´erentes, sont ajout´ees.
6.19 Interpr´etation g´eom´etrique de l’int´egrabilit´e et de la non-int´egrabilit´e
183
Soit P dx + Qdy + Rdz,
(6.61)
une 1-forme arbitraire, ` a partir de laquelle deux ´equations suppl´ementaires de deux 1-formes chacune sont constitu´ees : dy dz dx = = . P Q R
(6.62)
Ce syst`eme est toujours int´egrable (mˆeme lorsque (6.61) ne l’est pas), car il comporte deux 1-formes ind´ependantes comprenant trois variables chacunes. Ce sont, par exemple, les 1-formes Qdx − P dy = 0
(6.63)
Rdy − Qdz = 0.
(6.64)
et
Ces deux ´equations doivent ˆetre satisfaites simultan´ement sur leur vari´et´e int´egrale, ce qui est toujours le cas, ´etant donn´e qu’il est possible d’assigner une variable ind´ependante y, et de former le syst`eme d’´equations diff´erentielles ordinaires P dx = dy Q R dz = dy Q
(6.65) (6.66)
dont la solution - et par cons´equent ´egalement la solution de (6.62) - est constitu´e par un ensemble infini de courbes x(y) et z(y), param´etr´ee par la coordonn´ee y libre ; chacune de ces courbes part, `a la coordonn´ee y0 , d’une condition initiale x(y0 ), z(y0 ) diff´erente. Remarquons que si Q s’annule le long de l’int´egration, il suffit de prendre l’annulation de deux autres 1-formes issues de (6.62) au lieu de Qdx−P dy = 0 et Rdy − Qdz = 0. Nous d´esignerons par Ξ une courbe parmis cet ensemble ainsi obtenu. En partant d’un certain point de cette courbe Ξ, disons A, il est possible de se d´eplacer, soit dans la direction de cette courbe le long de son vecteur tangent, soit perpendiculairement ` a celui-ci, dans un nombre infini de directions possibles. Ces directions perpendiculaires sont contenues dans la plan de support des vecteurs lignes (6.63) et (6.64), `a savoir Q −P 0 et 0 R −Q . Ce plan sera d´enomm´e le plan perpendiculaire `a Ξ au point consid´er´e. Ind´ependamment des consid´erations pr´ec´edentes, choisissons une surface quelconque ψ(x, y, z) = 0 de telle sorte que la point A soit compris dans cette
184
6 Elements de G´eom´etrie
surface. Notons que Ξ n’appartient pas n´ecessairement `a cette surface choisie de mani`ere arbitraire. Maintenant, une solution `a (6.61), (qui est une 1-forme quelconque, mais pas n´ecessairement int´egrable), s’obtient de la mani`ere suivante : On se d´eplace dans le plan perpendiculaire `a Ξ au point A. Il existe une infinit´e de tels d´eplacements. Cependant, il y a un seul d´eplacement dans la surface ψ(x, y, z) = 0 dans cette direction. C’est le prochain point d´esir´e A1 . On r´ep`ete alors la proc´edure : 1. on construit la courbe Ξ passant `a traver A1 et qui satisfait le syst`eme (6.62) ; 2. on construit le vecteur ξ au point A1 , tangent `a la courbe Ξ le long de celle-ci. 3. parmis tous les co-vecteurs perpendiculaires au vecteur tangent ξ, il en existe un qui correspond `a un d´eplacement au sein de la surface ψ(x, y, z). ; 4. on se d´eplace ` a ce nouveau point A2 . Ainsi, la solution est d´ependante de la surface ψ(x, y, z) choisie. Une fois cette surface choisie, la solution est une famille de courbes d´ependant du point initial A. Pour un point A d´etermin´e, il y a une seule courbe particuli`ere. Dans le cas d’une 1-forme int´egrable, il est possible de choisir la surface ψ(x, y, z) de telle sorte que tout d´eplacement infinit´esimal `a l’int´erieur de cette surface soit perpendiculaire au vecteur ξ tangent `a la courbe Ξ solution de (6.62). Par cons´equent, la solution est assimil´ee `a la surface ψ(x, y, z) = 0 compl`ete et non plus ` a une courbe sp´ecifique. Le r´esultat (de l’int´egration) est ind´ependant de Ξ, solution de (6.62) : Ξ n’a pas d’influence sur le choix de courbe comprise dans dans ψ(x, y, z) = 0. Mais bien entendu, on ne peut plus choisir ψ(x, y, z) librement, contrairement au cas non-int´egrable (c.-`a-d. lorsque la condition ω ∧ dω = 0 n’est pas satisfaite). On peut ainsi interpr´eter le r´esultat comme le fait que la normale `a la surface ψ(x, y, z) = 0 (qui est P Q R est toujours colin´eaire au champ de vecteurs correspondant au syst`eme (6.62) (celui d´efinissant ξ et Ξ ; afin que les surfaces coupent Ξ ` a angle droit). Le champ de vecteurs est dans l’annulateur des formes constitutives Q R P = = dx dy dz Le cas d’une 1-forme int´egrable est illustr´e `a la figure 6.6.
6.20 Les deux formes du th´ eor` eme de Frobenius Soit les ´equations aux d´eriv´ees partielles suivantes :
(6.67)
6.20 Les deux formes du th´eor`eme de Frobenius
185
Ξ
A
z 7.5
A’ 7.25
7
6.75
3
6.5 2
0 0.5 1
1
y
1.5
x 0
2
Fig. 6.7. Repr´esentation de la construction d’une solution de ω = 0 lorsque la 1-forme ω n’est pas int´egrable. Le cas de ω = (−x − y + yz)dx + x(1 + z)dz = x(1+z) dy dz P dx + Rdz conduit ` a l’´equation diff´erentielle dx = −x−y+yz et dx = 0 d´efinissant la courbe Ξ. Cette courbe est repr´esent´ee pour la condition initiale x = 0, y(0) = 1 et z(0) = 2. Le point A est pris en x = 2, y = 1 et z = 7.07. Comme Q = 0, le plan de support est d´efinit par (R 0 − P )T et (0 R − Q)T . La surface arbitraire ψ(x, y, z) = 12 cos(4(y − 1))(x − 2)2 + 21 sin(4(y − 1))(y − 1)2 + 7.07 intersecte le plan de support selon une courbe sur laquelle le prochain point A1 = A′ se situe. La solution d´epend de la surface ψ(x, y, z) choisie.
∂h f1 + ∂x1 ∂h g1 + ∂x1
∂h f2 + ∂x2 ∂h g2 + ∂x2
∂h f3 = 0 ∂x3 ∂h g3 = 0 ∂x3
(6.68) (6.69)
Avec fi (x1 , x2 , x3 ) et gi (x1 , x2 , x3 ), i = 1, . . . , 3 des fonctions donn´ees. Il existe deux formulation des conditions n´ecessaires et suffisantes pour l’existence d’une fonction h(x1 , x2 , x3 ) qui satisfasse les ´equations (6.68) et (6.69). La premi`ere formulation utilise directement les deux champs de vecteurs T T f1 f2 f3 et g1 g2 g3 :
186
6 Elements de G´eom´etrie
1 1.25 1.5 1.75 2
Ξ 1.5
z
1
0.5
y
0
0 0.5
x
1 1.5 2
Fig. 6.8. Dans le cas int´egrable il est possible de trouver une surface pour laquelle tout les d´eplacements infinit´esimaux sont possibles. Le cas de ω = yzdx
Th´ eor` eme 6.28. h(x1 , x2 , x3 ) est une solution si, et seulement si, le crochet de f et g retombe dans l’espace engendr´e par f et g, c.-` a-d. qu’il existe deux fonctions scalaires de x, disons α1 (x) et α2 (x) de M → R telles que [f, g](x) = α1 (x)f (x) + α2 (x)g(x). Pour avoir un r´esultat local, il n’est pas n´ecessaire de tester la condition ci-dessus sur toute la vari´et´e M mais autour d’un voisinage o` u l’on aimerait construire la fonction h(x1 , x2 , x3 ). Ce th´eor`eme permet de rattacher la condition d’int´egrabilit´e de la fonction h` a celle de la distribution engendr´ee par les champs de vecteurs : D´ efinition 6.29. Une distribution (g´en´ere par f1 et f2 ) pour laquelle la fonction h satisfasse aux ´equations (6.68) et (6.69) est dite compl`etement int´egrable. La seconde formulation du th´eor`eme de Frobenius utilise la 1-forme unique qui est perpendiculaire aux champs de vecteurs f1 et f2 . Soit ω la 1-forme en question de telle sorte que ωf1 = ωf2 = 0.
(6.70)
6.20 Les deux formes du th´eor`eme de Frobenius
187
Th´ eor` eme 6.30. h(x1 , x2 , x3 ) est une solution ⇔ ω ∧ dω = 0. La seconde condition exprime simplement que la 1-forme doit ˆetre int´egrable. En fait, le gradient de h ne diff`ere de ω que par une fonction inconnue qu’il s’agit de d´eterminer comme cel` a a ´et´e d´emontr´e `a la section 6.14. Nous formulerons les deux conditions dans le cas d’une dimension de l’´etat plus grande que trois et nous verrons que ces deux th´eor`emes sont identiques. La seconde formulation a d´ej` a ´et´e d´emontr´ee dans le cas de trois variables ; la d´emonstration dans le cas d’un plus grand nombre de variables suit les mˆemes lignes. Nous nous contenterons donc de montrer que la premi`ere formulation est ´equivalente ` a la seconde. Dans le cas de plus de trois variables, la premi`ere formulation s’´enonce ` a partir du concept de distribution involutive (aussi appel´ee famille involutive par abus de langage pour d´esigner une famille de champ de vecteurs qui est involutive). Distribution involutive D´ efinition 6.31. On dit que la distribution engendr´ee par une famille de champ de vecteurs {f1 , f2 , . . ., fn } est involutive, lorsque ∀fi , fj , i, j = 1, . . . n [fi , fj ] ∈ span {f1 , f2 , . . . , fn } o` u span signifie ”sous-espace vectoriel engendr´e par”. Ainsi, une famille involutive est une collection de champ de vecteur tels que si on prend n’importe quel couple de vecteurs y appertenant et que l’on en prenne le crochet de Lie, le champ de vecteur r´esultant retombe dans la distribution. Ceci signifie qu’en chaque point de la vari´et´e, le crochet de deux vecteurs appartenant au sous-espace vectoriel engendr´e par les vecteurs d´efinissant la distribution demeure dans le sous-espace vectoriel en question. Nous avons ´egalement besoin de la propri´et´e dω(f, g) =
1 (Lf (ωg) − Lg (ωf ) − ω[f, g]) . 2
(6.71)
Elle d´ecoule de la d´erivation ext´erieure d’une 1-forme arbitraire ω mais exprim´ee sans recours aux coordonn´ees locales. La 2-forme dω est ´evalu´ee selon deux vecteurs arbitraires f et g afin de donner un nombre qui s’exprime directement ` a partir des d´eriv´ees de Lie des quantit´ee ωf et ωg (ces derni`eres sont
188
6 Elements de G´eom´etrie
des valeurs scalaires). Il reste toutefois un terme suppl´ementaire qui d´epend du crochet de Lie des deux vecteurs f et g et c’est l`a que r´eside esstentiellement le lien entre les deux formulations du th´eor`eme de Frobenius. La propri´et´e (6.71) se d´emontre par calcul direct. La proc´edure est un peu fastidieuse mais ne pr´esente pas de difficult´e particuli`ere et nous en laissant le soin au lecteur. Nous donnons maintenant la formulation des deux formes du th´eor`eme de Frobenius dans le cas d’une distribution d´efinie par n − 1 champ de vecteurs de n coordonn´ees (la vari´et´e est de dimension n). Th´ eor` eme 6.32. Un ensemble de n − 1 champ de vecteurs {f1 , f2 , . . . , fn−1 } d´efinit une distribution int´egrable si, et seulement si, la distribution est involutive. Th´ eor` eme 6.33. Soit ω, la 1-forme qui annule tous les champs de vecteurs f1 , f2 , . . ., fn−1 . La 1-forme ω et la distribution d´efinie par les champs f1 , f2 , . . ., fn−1 sont int´egrables si, et seulement si, ω ∧ dω = 0. Nous savons que, par d´efinition, une distribution consititu´ee de n−1 champ de vecteurs est int´egrable s’il existe une fonction h tel que son gradient annule la distribution en question. Par cons´equent, il suffit de v´erifier que la condition d’int´egrabilit´e ω ∧ dω = 0 est ´equivalente `a l’involutivit´e de la distribution {f1 , f2 , . . . , fn−1 }. Commen¸cons par admettre que la distribution est involutive. Ceci signifie Pn−1 que quelque soit i, j, les crochets [fi , fj ] s’expriment [fi , fj ] = k=1 αk (x)fk . Comme ω est choisi de telle sorte que ωfk = 0, k = 1, . . . , n − 1, on a donc ω[fi , fj ] = 0 pour tout choix de i et j (ceci d´ecoule directement de l’involutivit´e). C’est ainsi qu’en utilisant (6.71), on a dω(fi , fj ) = 12 (Lfj (ωfi ) − Lfi (ωfj ) − ω[fi , fj ]) = 12 (Lfj (ωfi ) − Lfi (ωfj ) = 0, et donc dω(fi , fj ) = 0 pour autant que fi , et fj appartienne `a la distribution. Attention, ceci ne signifie par pour autant que dω(f1 , f2 ) = 0 quel que soit f1 et f2 . Toutefois, comme la distribution est de rang n − 1, et puisque dω s’annule sur cette distribution, dω se d´ecompose selon deux 1-formes dont une au moins est multiple de ω. En d’autres termes, dω = ω1 ∧ α(x)ω. En effet, supposons que cela ne soit pas le cas et que dω = ω1 ∧ ω2 de telle sorte que ni ω1 ni ω2 ne soit multiple de ω. Ceci signifie, par ind´ependance lin´eP aire des f1 , f2 , . . ., fn−1 , qu’il existe alors une combinain−1 son lin´eaire f¯ = i=1 βi fi pour laquelle `a la fois ω1 f¯ 6= 0 et ω2 f¯ 6= 0 et
6.20 Les deux formes du th´eor`eme de Frobenius
189
nous aboutissons ` a la contradiction que dω ne s’annule pas sur la distribution F = span {f1 , . . . , fn−1 }. Ainsi, comme dω = ω1 ∧ α(x)ω, nous avons n´ecessairement dω ∧ ω = 0, et la correspondance de la premi`ere formulation `a la seconde est d´emontr´ee. Dans l’autre sens, nous supposerons que dω ∧ ω = 0 et nous devons alors montrer que la distribution annulant ω est involutive. Premi`erement, et quelque soit ω, int´egrable ou non, il est toujours possible de trouver des champs de vecteurs f1 , . . ., fn−1 qui annulent ω. Remarquons ´egalement que dω peut toujours s’exprimer comme un produit ext´erieur de deux 1-formes, quel que soit les propri´et´es particuli`eres de ω. Maintenant, comme dω ∧ ω = 0, ceci signifie, comme pr´ec´edemment, que une de ces deux formes doive ˆetre proportionnelle `a ω, car sinon la condition d’int´egrabilit´e ne serait pas satisfaite. Ainsi, et sans perte de g´en´eralit´e, nous pouvons assumer dω = ω1 ∧ α(x)ω,
(6.72)
o` u α(x) est une fonction scalaire arbitraire. Maintenant, nous savons par construction que la 1-forme ω annule tout champ vecteur dans la distribution F = span {f1 , . . . , fn−1 }. Par cons´equent, quel que soit les champs de vecteurs f ∈ F et f¯ ∈ F, nous aurons `a cause de (6.72) dω(f, f¯) = 0. (6.73) En utilisant la propri´et´e (6.71), nous avons 1 1 Lf (ω f¯) − Lf¯(ωf ) − ω[f, f¯] = − ω[f, f¯] = 0. dω(f, f¯) = 2 2
Par cons´equent [f, f¯] ∈ F. Comme le choix de f et f¯ est arbitraire, la distribution F est bien involutive, ce qui conclut sur l’´equivalence des deux formes du th´eor`eme de Frobenius.
7 Commande par lin´ earisation
Le pr´esent chapitre aborde les techniques qui ont comme objectif d’exploiter la possibilit´e d’utiliser des techniques lin´eaires pour la synth`ese d’une loi de commande en essayant de garantir un ensemble de stabilit´e le plus grand possible. Nous ne traiterons que des syst`emes comportant une seule entr´ee. Une mani`ere de proc´eder est de tranformer, par l’entremise d’un bouclage, le syst`eme initial en un syst`eme ´equivalent lin´eaire, a` partir duquel des techniques de synth`ese lin´eaires peuvent ˆetre appliqu´ees. Le mod`ele lin´eaire le mieux appropri´e est le syst`eme lin´eaire le plus simple possible, c.-`a-d. une chaˆıne d’int´egrateurs. Nous distinguons essentiellement deux m´ethodes, celle qui transforme l’ensemble de l’´etat initial en une chaˆıne d’int´egrateurs. Cette chaˆıne contient alors autant d’int´egrateurs que le nombre d’´etats utilis´es pour d´ecrire le syst`eme originellement. La seconde consiste `a ne transformer qu’une sous partie associ´ee a une sortie du syst`eme assign´ee d`es le d´epart. Il faut alors faire attention `a ce ` que la partie rendue inobservable par le bouclage sur la sortie ne d´estabilise pas les ´etats qui ne sont pas pris en compte par l’´equivalence avec la chaˆıne d’int´egrateurs. Nous traiterons essentiellement du probl`eme de r´egulation et de la poursuite de trajectoire. Ces objectifs peuvent ˆetre d´efinis en fonction du concept d’´equation diff´erentielle d’erreur. Nous pr´esentons ´egalement une technique de commande en boucle ouverte ou commande a priori.
192
7 Commande par lin´earisation
7.1 Lin´ earisation locale et stabilisation Soit x˙ = f (x, u) une repr´esentation du syst`eme non lin´eaire pour lequel on aimerait trouver un r´egulateur garantissant la stabilit´e et la convergence rapide vers un point d’´equilibre d´esir´e. Une premi`ere id´ee consiste `a ne retenir que les effets directs de f (x, u) sur l’´evolution temporel de l’´etat x. Ceci revient `a ne retenir que le premier ordre du d´eveloppement de Taylor de la fonction f (x, u). En effet, lorsque les signaux (grandeurs d’´etat) sont comparables `a la valeur nominale autour de laquelle le d´eveloppement de Taylor est affectu´e (l’erreur est alors petite), les premiers termes dominent les autres, et ils constituent alors une bonne approximation du syst`eme non lin´eaire. Cette m´ethode de lin´earisation est tr`es r´epandue, car c’est sans doute la m´ethode la plus simple permettant d’utiliser un paradigme lin´eaire pour la synth`ese. En partant du syst`eme initial x˙ = f (x, u), o` u l’on suppose sans perte de g´en´eralit´e que 0 = f (0, 0), une repr´esentation d’´etat d’un syst`eme lin´eaire ´equivalent est calcul´ee : x˙ = Ax + Bu. Les matrices A et B sont alors donn´ee respectivement par A= et B=
∂f ∂x x=0,u=0
∂f . ∂u x=0,u=0
Ensuite, un r´egulateur d’´etat u = −Kx est ´elabor´e qui transforme le syst`eme dynamique initial x˙ = f (x, u) en x˙ = f (x, −Kx) = f¯(x) . L’analyse du syst`eme au premier ordre de la dynamique r´esultante s’´ecrit ! ∂ f¯ du ∂f ∂f x˙ = x = (A − BK)x x= + ∂x x=0 ∂x x=0,u=0 ∂u x=0,u=0 dx
Lorsque la paire A et B est commandable, il est possible d’assigner les pˆ oles du syst`eme en boucle ferm´ee de mani`ere arbitraire en utilisant le vecteur de gains K (en utilisant la formule d’Ackermann par exemple).
7.1 Lin´earisation locale et stabilisation
193
En cons´equence, ∀Q > 0, ∃P > 0 tel que l’´equation de Lyapunov du syst`eme lin´eaire transform´e soit v´erifi´ee : P (A − BK) + (A − BK)T P = −Q. La candidat de Lyapunov V (x) = xT P x devient une fontion de Lyapunov valable localement. 7.1.1 Exemple Un exemple permettra d’illustrer la m´ethode pr´ec´edente. Il s’agit d’un simple robot ` a un degr´e de libert´e avec un actioneur pour la coordonn´ee libre. Ce syst`eme est repr´esent´e ` a la figure 7.1.
θ τ
Fig. 7.1. Pendule avec actuateur
Ce syst`eme est ”presque” lin´eaire. Par exemple, il le serait s’il ´etait plac´e `a l’horizontale de telle sorte que l’axe de rotation se confonde avec l’axe vertical, supprimant de la sorte l’action de la gravit´e sur le pendule. Par contre, lorsqu’il est plac´e verticalement, l’axe de rotation devenant un axe horizontal, la gravit´e agit sur la barre. Comme le centre de gravit´e n’est pas situ´e sur l’axe de rotation, un couple en r´esulte, lorsque la barre quitte la position d’alignement vertical. L’influence de la gravit´e n’est pas homog`ene avec l’´ecart provoqu´e par rapport ` a ce point d’´equilbre. La d´ependance fait apparaˆıtre une fonction trigonom´etrique. Ce syst`eme a fait l’objet d’une br`eve pr´esentation dans le chapitre introductif o` u il a ´et´e question de la pr´esence de deux points d’´equilibre isol´es. Ce simple fait, aurait pu nous indiquer la pr´esence de non-lin´earit´e. En conclusion, la d´ependance gravifique en raison trigonom´etrique donne naissance `a des ´equilibres mulitples comme le calcul le confirme. Nous commen¸cerons par ´etablir les ´equations du syst`eme dynamique puis nous obtiendront les matrices A et B associ´ees `a la lin´earisation locale, `a partir desquels une synth`ese de retour d’´etat sera effectu´ee.
194
7 Commande par lin´earisation
Formulation des ´equations dynamiques Pour formuler les ´equations dynamiques, il est imp´eratif de d´eterminer les coordonn´ees des centres de masses de tous les corps pouvant se d´eplacer par rapport aux autres. Dans cet exemple trivial, seul le centre de masse de la barre mobile doit ˆetre ´etudi´e. Ses coordonn´ees xc et yc r´epondent aux ´equations,
xc = lc cos θ yc = lc sin θ La m´ethode de la m´ecanique analytique lagrangienne est utiilis´ee pour ´etablir les ´equations. L’´energie cin´etique et potentielle s’´ecrivent : 1 1 1 mx˙ 2c + my˙ c2 = mlc2 θ˙2 2 2 2 Ep = mgyc = mglc sin θ Ec =
En appliquant la m´ethode de Lagrange, le Lagrangien s’´ecrit L = Ec − Ep et la dynamique ∂L d ∂L = τ, − ˙ dt ∂ θ ∂θ l’´equation suivante est obtenue : mlc2 θ¨ + mglc cos θ = τ. Ici, τ = u joue le rˆole d’entr´ee du syst`eme. Le probl`eme qui est pos´e est alors de stabiliser l’ensemble, de telle sorte que le pendule fasse un angle δ fixe. Une repr´esentation d’´etat peut ˆetre obtenue en chosissant x1 = θ − δ et x2 = θ˙ :
x˙ 1 = x2 x˙ 2 = −
1 g cos(x1 + δ) + τ lc mlc2
A l’´equilibre x1 = 0, τ = τ0 = mglc cos(δ). En lin´earisant, la matrice A est ´egalement obtenue :
A=
g lc
0 1 ; sin(δ) 0
B=
0 1 ml2c
7.2 Lin´earisation exacte
195
La loi de commande comportera alors un terme constant (a priori) afin de maintenir le bras dans sa position d’´equilibre en l’absence de perturbation, et deux gains constant, un pour chacun des deux ´etats x1 et x2 . On obtient alors, τ = τ0 − k1 x1 − k2 x2 .
7.2 Lin´ earisation exacte La m´ethode de lin´earisation expos´ee `a la section pr´ec´edente n’est valable que localement. C’est uniquement autour de la valeur nominale, o` u est effectu´e le d´eveloppement de Taylor de la fonction f (x, u), que l’approximation donne de bons r´esultats. Lors de grands ´ecarts, les termes d’ordre ´elev´es l’emportent sur les premiers termes du d´eveloppement, et l’approximation est alors souvent inutile. N´eanmoins, il est possible de changer de point nominal du d´eveloppement, afin de constituer un nouveau syst`eme lin´eaire local. Avec un peu de chance, ce nouveau syst`eme permet de caract`eriser le comportement, mais aucune garantie n’est alors possible. Il existe toutefois d’autres approches pour am´eliorer la taille de la validit´e de la lin´earisation. Elles reposent toutes plus ou moins sur l’id´ee de changer la repr´esentation du syst`eme initial pour corriger l’effet n´efaste des termes d’ordre sup´erieur. Ceci est effectu´e, soit en les corrigeant directement par la commande, soit en changeant de coordonn´ees de telle sorte qu’ils n’apparaisent plus dans le d´evelopement selon ces nouvelles coordonn´ees. La possibilit´e d’implanter une loi de r´etroaction arbitraire permet de transformer le syst`eme initial en un nouveau syst`eme avec de meilleures propri´et´es. De plus, le choix des coordonn´ees pour repr´esenter l’´etat du syst`eme permet ´egalement de simplifier les ´equations. Par exemple, dans le cas purement g´eom´etrique d’une sph`ere, l’utilisation de coordonn´ees sph´eriques (angles de latitude de de longitude) est mieux adapt´e que les coordonn´ees cart´esiennes tridimensionnelles. Nous pr´esenteront, sans recours pour l’instant aux formules associ´ees, les concepts qui seront approfondis dans les sections suivantes. Changement de coordonn´ees Dans les ouvrages de m´ecanique th´eorique (m´ecanique analytique par exemple), l’utilisation d’un syst`eme de coordonn´ees plutˆ ot qu’un autre, permet de simplifier grandement l’expression des ´equations dynamiques. Par exemple, dans le formalisme Hamiltonien, les transformations de Legendre (transformation qui implique non seulement les coordonn´ees, mais ´egalement les moments g´en´eralis´es) sont tr`es utiles pour obtenir des constantes du mouvement, et donc int´egrer le syst`eme m´ecanique.
196
7 Commande par lin´earisation
Dans notre cas, nous sommes en pr´esence d’une repr´esentation d’´etat. La structure des ´equations ne d´ecoule pas n´ecessairement de l’existence de fonctions particuli`eres comme le lagrangien ou l’hamiltonien. Toutefois, un changement d’´etat peut n´eanmoins ˆetre b´en´efique. Seule la structure math´ematique des ´equations peut ˆetre exploit´ee afin de trouver de bons choix de coordonn´ees. Changement de l’entr´ee (retour d’´etat) Par l’entremise d’un bouclage suppl´ementaire, d´efinissant une nouvelle entr´ee, les caract´eristiques du syst`emes sont modifi´ees. Pour mieux comprendre le ph´enom`ene, il suffit de prendre l’exemple du r´eglage en cascade. Un premier bouclage permet d’assurer le suivi d’une consigne pour une grandeur de sortie d´etermin´ee. Ce bouclage d´efinit compl`etement l’entr´ee initiale du syst`eme `a commander. Cependant, si l’on interpr`ete la consigne en question comme une nouvelle entr´ee, le syst`eme comporte maintenant, ` a la fois le syst`eme initial, mais ´egalement le bouclage, et le comportement du syst`eme est donc bien modifi´e. Toute la difficult´e revient `a trouver un bouclage ad´equat qui garantisse les bonnes propri´et´es du syst`eme transform´e. Lin´earisation entr´ee-´etat C’est la lin´earisation de l’´etat dans son ensemble. Cette technique utilise a la fois un changement de coordonn´ees et un bouclage. ` Lin´earisation entr´ee-sortie Contrairement au cas pr´ec´edent, cette technique ne lin´earise que le comportement entr´ee-sortie. Nous verrons que ceci a comme cons´equence de garantir un comportement lin´eaire d’une partie seulement de l’espace d’´etat. Le syst`eme devra poss`eder de bonnes propri´et´es afin que la partie restante de l’´etat ne devienne pas instable lorsque la lin´earit´e est impos´ee sur la sous-parti de l’´etat correspondante. Cette technique utilise principalement qu’un bouclage. Cependant le changement de coordonn´ee est souvent utilis´e ´egalement pour mettre le syst`eme sous la forme normale, repr´esentant une forme canonique du syst`eme. La lin´earisation est globale C’est principalement le gain des m´ethodes qui seront pr´esent´ees par rapport ` a la technique de la premi`ere approximation pr´esent´ee plus haut. Nous examinerons essentiellement les syst`emes comportant une seule entr´ee. Les techniques pr´esent´ees peuvent toutefois ˆetre ´etendues relativement facilement au cas d’entr´ees multiples qui offre ´egalement quelques possibilit´es
7.3 Equation d’erreur
197
suppl´ementaires, notamment dans la possibilit´e d’utiliser une extension dynamique pour surmonter d’´eventuels bloquages. Le lecteur int´eress´e pourra consulter les ouvrages cit´es en r´ef´erence `a la fin du Livre pour un traitement de ces sujets. Avant de proc´eder avec l’exposition de ces sujets, nous reprenons l’exemple du pendule simple avec un seul actuateur. La repr´esentation d’´etat
x˙ 1 = x2 x˙ 2 = −
1 g cos x1 − τ lc mlc2
indique que la premi`ere ´equation est parfaitement lin´eaire. La second par contre montre la pr´esence de l’influence de la gravit´e de mani`eres trigonom´etrique. Par ailleurs, l’entr´ee apparaˆıt sur cette mˆeme ´equation. Ainsi, nous constatons que la repr´esentation semble ne pas n´ecessiter de modification, ´etant donner qu’une partie est d´ej` a sous forme lin´eaire et que la partie non lin´eaire semble pouvoir ˆetre compens´ee par l’entr´ee seulement. En effet, en choisissant un bouclage ad´equat, le changement d’entr´ee v → τ : τ = α(x) + β(x)v, transforme le syst`eme intial en un syst`eme lin´eaire (vu de la nouvelle entr´ee) ´equivalent. τ=
mlc2
g v + cos x1 , lc
α(x) = mglc cos x1 , β(x) = mlc2 01 0 on lin´earise le syst`eme : A = ,b= , 00 1 x˙ = Ax + bv. Quoique cet exemple soit simplisite, il illustre parfaitement le gain entre une approche de type purement locale et une approche de nature globale.
7.3 Equation d’erreur La pr´esente section sert a` introduire le concept fondamental pour la commande par lin´earisation, que cel` a soit `a des fins de stabilisation de point d’´equilibre, ou de stabilisation en poursuite ; c’est l’´equation d’erreur. La section suivante examine la signification de cette ´equation dans le contexte de fonction. Ensuite, le cas des ´equations diff´erentielles est consid´er´e.
198
7 Commande par lin´earisation
7.3.1 Fonction Dans le cas de fonctions, il y a ´evidemment absence de comportement dynamique. Obtenir les z´eros d’une fonction scalaire de R dans R not´ee f (x) consiste a rendre nulle l’erreur e = f (x) en d´eterminant les valeurs particuli`eres de x. ` Lorsque la fonction consid´er´ee fait correspondre plusieurs grandeurs scalaires distinctes de l’ensemble de d´epart, pour fournir plusieurs valeurs scalaires distinctes, disons f (x) : Rn → Rm , trouver des z´eros de la fonction revient ` a trouver des ensembles de nombres r´eels x1 , x2 , . . ., xn qui annulent simultan´ement toutes les composantes de la fonction f , disons f1 (x1 , x2 , . . . , xn ) = 0, f2 (x1 , x2 , . . . xn ) = 0, . . ., fm (x1 , x2 , . . . , xn ) = 0. Maintenant, lorsqu’au lieu de consid´erer les z´eros de la fonction, on aimerait forcer la fonction ` a prendre une valeur particuli`ere, il est possible de consid´erer la fonction modifi´ee e = f¯ − f , o` u f¯ d´esigne la valeur d´esir´ee. On retrouve une ´equation d’erreur, et la r´eponse au probl`eme pos´e revient a chercher les valeurs de x qui annulent cette nouvelle ´equation d’erreur. En cons´equence, chercher les z´eros d’une fonction ou bien les valeurs de l’ensemble de d´epart qui force la fonction `a prendre une valeur particuli`ere revient en quelque sorte ` a une tˆ ache analogue. Il s’agit de trouver les z´eros d’une ´equation d’erreur. 7.3.2 Equation diff´ erentielle Si le comportement dynamique doit ˆetre pris en compte, la fonction f c`ede la place ` a une ´equation diff´erentielle x˙ = f (x, u), il n’est plus possible de forcer instantan´ement x `a z´ero, lorsque cette variable est initialement diff´erente de z´ero. Le cas le plus ´el´ementaire est une ´equation lin´eaire ` a une seule variable, sans entr´ee. Par exemple, avec x ∈ R, x˙ = −3x.
(7.1)
Comme cette ´equation est d´epourvue d’entr´ee, elle ne peut donc pas ˆetre influenc´ee de quelque mani`ere que ce soit. Par contre, on peut facilement trouver sa solution analytique x(t) = x0 e−3t . Etant donn´e que x(t) → 0 lorsque t → 0, la solution converge asymptotiquement vers la valeur nulle d´esir´ee. La vitesse de convergence est d´etermin´ee par la valeur absolue du nombre devant la variable du temps dans l’exponentiel, c.-`a-d. 3.
7.3 Equation d’erreur
199
Dans le cas o` u le signe est chang´e devant ce facteur, de telle sorte que l’´equation diff´erentielle s’´ecrive x˙ = 3x, la solution x(t) = x0 e3t diverge. Il n’y a alors pas moyen de changer ce comportement. Par contre, d`es qu’une entr´ee est `a disposition, il est possible de modifier les solutions de l’´equation diff´erentielle, en corrigeant la valeur de l’entr´ee en fonction de l’´etat. Par exemple, bien que x˙ = 3x + u
(7.2)
diverge lorsque l’entr´ee est forc´ee `a z´ero, u = −4x transforme l’´equation originale (7.2) en une ´equation diff´erentielle convergente, x˙ = −x, puisque la solution `a cette derni`ere est x0 e−t . Stabilisation ` a une valeur constante L’exemple pr´ec´edent (7.2) peut ˆetre ´egalement interpr´et´e `a l’aide de la variable d’erreur e=0−x (7.3) La variable d’erreur est ainsi d´efinie afin d’indiquer que nous voulons forcer le syst`eme ` a converger vers la valeur nulle. En diff´erentiant (7.3), et en introduisant (7.2), une nouvelle ´equation diff´erentielle est obtenue : e˙ = 3e − u.
(7.4)
En posant u = +4e, cette ´equation est transform´ee en e˙ = −e,
(7.5)
qui est ´egalement une ´equation diff´erentielle dont la solution converge exponentiellement vers la valeur nulle d´esir´ee. Il est int´eressant de noter que, dans ce cas, la manipulation d’introduire la variable d’erreur est purement formelle, et ne change pas du tout le r´esultat final, car u = +4e = −4x comme pr´ec´edemment. Poursuite L’avantage d’introduire la variable d’erreur est la possibilit´e de traiter, `a la fois la stabilisation vers une valeur constante, et la poursuite d’une trajectoire pr´ed´efinie. Nous avons vu que, dans le cas de fonctions, il suffisait de changer la variable d’erreur de e = 0 − f en e = f¯ − f pour traiter de la mˆeme mani`ere,
200
7 Commande par lin´earisation
la recherche de z´eros de la fonction, et celle des valeurs qui forcent la fonction a prendre une valeur d´esir´ee f¯. ` En quelque sorte, cette technique s’´etend sans difficult´e au contexte des ´equations diff´erentielles. Il suffit de d´eterminer la quantit´e `a ajouter `a l’oppos´e de la variable que l’on d´esire commander pour constituer la variable d’erreur. Par cons´equent, nous consid´erons d’abord le probl`eme de sp´ecifier le comportement d´esir´e en poursuite. Sp´ecification du comportement d´esir´e Nous avons vu que l’´evolution (solution) de l’´equation diff´erentielle peut ˆetre modifi´ee en changeant convenablement la valeur de l’entr´ee. Il est possible ´egalement de sp´ecifier l’´evolution temporelle de la variable a commander. ` Par exemple, si l’origine doit ˆetre atteinte en un temps fini, il est possible de consid´erer une ´evolution sous forme d’un polynˆome de la variable temporelle. Dans le cas de l’´equation (7.2) , le transfert de l’´etat initial x0 `a t = 0 vers l’origine xT = 0, en un temps arbitraire T choisi pr´ealablement, en suivant un segment de droite, est obtenu en posant xc (t) = at + b et en d´eterminant a, b ∈ R de telle sorte que la condition intiale xc (0) = x0 et la condition terminale xc (T ) = 0 soient satisfaites. On obtient sans peine xc (0) = x0 = a0 + b = b. De mˆeme, aT + b = 0 = aT + x0 , a = − xT0 ; et l’on d´etermine le signal de r´ef´erence, aussi appel´e signal de consigne, r´esultant : x0 xc (t) = − t + x0 (7.6) T Commande en boucle ouverte Lorsque les conditions initiales sont parfaitement connues, et en absence de perturbation (c.-` a-d. lorsque, `a la fois l’´equation diff´erentielle, et la valeur de l’´etat, demeurent non modifi´ees par des facteurs ext´erieurs de telle sorte que la variable ` a commander suit exactement la solution de l’´equation diff´erentielle de d´epart), il est possible de d´eterminer l’entr´ee u `a appliquer pour effectuer le transfert de x0 ` a 0 en un temps arbitraire T (pour autant que le syst`eme soit commandable ; nous examinerons ceci plus en d´etail ult´erieurement). Dans notre exemple pr´ec´edent, il suffit de remplacer x par xc dans l’´equation diff´erentielle de d´epart (7.2), c.-`a-d. x˙ c = 4xc + u, de telle sorte que − xT0 = 4(− xT0 t + x0 ) + u, autrement dit u=
x0 (4t − 1) + 4x0 T
(7.7)
Ceci signifie qu’il est possible de calculer, a priori, la commande pour d´eplacer, en suivant un segment de droite, le syst`eme d’une valeur initiale
7.3 Equation d’erreur
201
donn´ee vers une valeur pr´ed´etermin´ee d´esir´ee, en un temps lui-aussi d´etermin´e et arbitrairement court. Ceci conduit naturellement `a obtenir une suite continue de valeurs de l’entr´ee qui garantit la transition. Il est important d’insister sur la nature de la commande obtenue. Une fois la d´ecision prise d’appliquer la s´equence continue mentionn´ee plus haut, et donn´ee par la fonction temporelle (7.7), il n’y a plus d’effet de la sortie effective du syst`eme (la variable x) sur le choix de l’entr´ee u. Tout s’op`ere en quelque sorte en aveugle, et c’est seulement apr`es le temps T qu’une nouvelle transition, ou correction est possible. Ainsi, lors d’une modification du comportement, comme par exemple une modification instantan´ee de la variable x durant l’interval ]0; T [, suite `a une perturbation par exemple, il n’y a pas moyen, pour le moment, d’instantan´ement prendre en compte ce ph´enom`ene en corrigeant la commande appliqu´ee au syst`eme. Commande en boucle ferm´ee Toutefois, il est possible d’envisager une m´ethode pour corriger l’apparition de la d´erive caus´ee par une brusque r´einitialisation de la varible x `a un instant inopin´e et inconnu. A nouveau, le concept de variable d’erreur est introduit, toutefois avec comme diff´erence essentielle que l’erreur est constitu´ee entre la consigne pr´ec´edemment obtenue et la variable `a commander ; ainsi e = xc − x. En d´erivant cette erreur, et en tenant compte `a la fois de la dynamique et de la consigne, nous obtenons e˙ = x˙ c − x˙ = x˙ c − 3x − u = x˙ c − 3(xc − e) − u
(7.8)
Pour stabiliser l’erreur, il faut forcer une ´equation diff´erentielle stable. Par exemple, en choisissant e˙ = −e, la commande ux˙ c − 4(xc − x) est obtenue. Une m´ethode syst´ematique pour ce type de synth`ese est pr´esent´ee dans la prochanine section. 7.3.3 Placement de pˆ oles et ´ equation d’erreur L’´equation diff´erentielle d’erreur (7.5) est tr`es simple, ´etant donn´e qu’elle ne comporte qu’une seule d´eriv´ee (1er ordre). N’importe quel autre nombre negatif que −1 devant e au membre de droite conduirait `a une convergence asymptotique vers la valeur nulle de la solution. Lorsque l’ordre de l’´equation est sup´erieur ` a un, les choses ne sont pas aussi simples.
202
7 Commande par lin´earisation
Dans le cas d’une ´equation diff´erentielle lin´eaire d’erreur d’ordre sup´erieur ` un, l’erreur, ainsi qu’un certains nombre fini des d´eriv´ees temporelles de cette a erreur, appraissent avec des coefficients qui sont d´etermin´es de telle sorte que la solution converge exponentiellement vers z´ero. Comme l’´equation est suppos´ee ˆetre lin´eaire, la solution est une somme de signaux exponentiels dont les coefficients sont choisis en fonction des taux de d´ecroissance d´esir´es. La m´ethode est la suivante. On choisit un nombre de nombres complexes (les pˆ oles ` a placer) correspondant `a l’ordre de l’´equation diff´erentielle d’erreur que nous voulons constituer, disons m. On a ainsi s1 , s2 , . . ., sm les m pˆ oles complexes qui sont alors choisis avec une partie r´eelle n´egative. Plus cette derni`ere est grande, plus rapide sera la convergence. On constitue le polynˆ ome en s ayant ces pˆ oles comme z´eros, c.-`a-d. E(s) = (s − s1 )(s − s2 ) . . . (s − sm )
= sm + a1 sm−1 + . . . am−1 s + am
d et en appliEn rempla¸cant la variable s par l’op´erateur de d´erivation dt d quant l’op´erateur E( dt ) associ´e au polynˆome E(s) `a la variable temporelle d d’erreur e(t), on aboutit ` a l’´equation diff´erentielle d’erreur E( dt )e(t) = 0, autrement dit
E(
d )e(t) = e(m) + a1 e(m−1) + . . . + am−2 e¨ + am−1 e˙ + am e = 0 (7.9) dt
7.4 Syst` emes lin´ eaires SISO Nous consid´erons dans cette section le cas de syst`emes lin´eaires ayant une seule entr´ee. Nous pouvons le repr´esenter `a l’aide de la repr´esentation d’´etat, x˙ = Ax + Bu.
(7.10)
7.4.1 Sortie sp´ ecifi´ ee Dans la plupart des cas, l’´etat n’est qu’une repr´esentation interne du syst`eme, et la tˆ ache du r´egulateur est de garantir principalement un comportement de sortie. Bien entendu, il est alors imp´eratif que les ´etats internes restent dans des bornes acceptables afin que le dispositif d´ecrit par (7.10) ne court pas de risque de destruction ou d’endomagement.
7.4 Syst`emes lin´eaires SISO
203
Ainsi, en plus des ´equations (7.10), une sortie y = Cx
(7.11)
est ´egalement donn´ee. Nous supposerons, sans perte de g´en´eralit´e, que l’entr´ee u n’influence pas directement la sortie. Ceci ´etant le cas avec (7.11), le syst`eme (7.10) indique que l’entr´ee pourrait influencer la d´eriv´ee temporelle de cette sortie y. En effet, y˙ = C x˙ = CAx + CBu (7.12) de telle sorte que si CB 6= 0, l’entr´ee u influence directement y. ˙ Dans le cas contraire, cette proc´edure peut ˆetre continu´ee : y¨ = CAx˙ = CA2 x + CABu = CA2 x .. . y (r−1) = CAr−2 x˙ = CAr−1 x + CAr−2 Bu = CAr−1 x y (r) = CAr−1 x˙ = CAr x + CAr−1 Bu
(7.13)
avec CAr−1 B 6= 0 et CB = 0, CAB = 0, . . ., CAr−2 B = 0. Nous pouvons donc assumer, qu’il existe un nombre entier r 6= 0, 1 ≤ r < n = dim x, pour lequel y, y, ˙ y¨, . . ., y (r−1) ne sont pas influenc´ees par u. Seul y (r) subit l’influence directe de l’entr´ee u, et nous pouvons donc d´efinir (r) y comme la nouvelle entr´ee v = y (r) = CAr x + CAr−1 Bu,
(7.14)
a partir de laquelle le bouclage ` u=
1 (v − CAr x) , CAr−1 B
(7.15)
obtenu par simple inversion de l’expression pr´ec´edente, transforme le syst`eme initial (7.12) en une chaˆıne d’int´egrateurs y (r) = v.
(7.16)
En posant e = yc − y, et en constituant une ´equation d’erreur differentielle d’ordre r conform´ement ` la section 7.3.3, nous pouvons garantir une stabilit´e et une convergence du a syst`eme (7.16), par le choix des pˆ oles. Il suffit d’exprimer v en fonction de l’´equation diff´erentielle d’erreur r´esultante :
204
7 Commande par lin´earisation
v = yc(r) + a1 e(r−1) + a2 e(r−2) + . . . ar e (7.17) (r) (r−1) (r−1) (r−2) (r−2) = yc + a1 (yc −y ) + a2 (yc −y ) + . . . + ar (yc − y) = yc(r) + a1 (yc(r−1) − CAr−1 x) + a2 (yc(r−2) − CAr−2 x) + . . . + ar (yc − Cx)
Qu’en est-il du syst`eme complet ? C’est-`a-dire, en consid´erant (7.12), (7.15), et (7.17) est-ce que l’ensemble de tous les ´etats se comporte-t-il correctement, ` a savoir de mani`ere born´ee ? Il s’agit donc d’´etudier les ´etats internes qui n’apparaissent pas n´ecessairement dans le comportement de la sortie. Pour l’analyse qui va suivre, nous allons consid´erer le cas particulier de yc = 0. Ceci garantit de couvrir tous les cas, ´etant donn´e que le principe de superposition est valable en lin´eaire. Ainsi, sous cette hypoth`ese, lorsque la stabilit´e interne est d´emontr´ee pour yc = 0, elle l’est ´egalement pour un yc quelconque. La loi de bouclage (7.15) avec (7.17) permet de garantir que y, y, ˙ . . ., y (r) (r) convergent vers leurs valeurs respectives yc , y˙ c , . . ., yc , sans erreur. Dans le cas particulier d’une consigne nulle (yc = 0), ceci revient `a garantir que y et ses r d´eriv´ees convergent vers z´ero, c’est-`a-dire que la partie de l’´etat associ´ee converge ´egalement vers z´ero. Nous avons
C CA CA2 .. .
y y˙ y¨ .. .
0= = 0. x = (r−1) CAr−1 y
(7.18)
En cons´equence, apr`es convergence de y, y, ˙ . . ., y (r−1) `a z´ero, x est nul a un multiple pr`es du noyau de la matrice d’observabilt´e tronqu´ee (pour ne ` retenir que les r premi`eres lignes). Ceci signifie que tout vecteur d’´etat dans l’ensemble C CA 2 X = {x | CA x = 0} .. . CAr−1
ne pourra pas influencer la commande v ´elabor´ee plus haut, cf. (7.17). En particulier, si un tel vecteur d’´etat diverge `a l’infini, il n’y a aucun moyen pour que le r´egulateur pr´ec´edent ne d´etecte et ne corrige le comportement (puisque y et ces d´eriv´ees ne sont pas affect´es). Nous sommes alors en pr´esence d’une instabilit´e interne. Les ´etats constituants la trajectoire divergente sont rendus inobservables par le r´egulateur propos´e.
7.4 Syst`emes lin´eaires SISO
205
Par cons´equent, les ´etats rendus inobservables par le bouclage pr´ec´edent ne doivent pas diverger pour que la commande propos´ee puisse ˆetre applicable. Pour comprendre ce que cela signifie plus concr`etement, compl´etons la matrice d’observabilit´e tronqu´ee pour constituer une matrice plein rang, c.-`ad. la matrice
de rang n.
C CA .. .
r−1 CA Z= γr+1 . .. γn
(7.19)
Remarque 7.1. Il est important de noter que les r vecteurs lignes C, CA, . . ., CAr−1 sont n´ecessairement ind´ependants, car autrement l’entr´ee ne pourrait pas apparaˆıtre par d´erivation de la sortie au cours du processus (7.13). En effet, le fait de retomber dans l’espace vectoriel courant (celui engendr´e par la sortie et ces d´eriv´ees jusqu’` a l’ordre en cours) implique que l’on ne pourra plus en sortir. C’est pourquoi il est toujours possible de compl´eter les lignes a l’aide des n − r nouveaux vecteurs ind´ependants γr+1 , γr+2 , . . ., γn . ` En inversant la matrice Z et en calculant ZZ −1 = I, on constate que les premi`eres r lignes de la matrice Z annulent les n−r derni`eres colonnes de l’inverse Z −1 . Nous avons donc ainsi une base de X , c.-`a-d. une base des vecteurs x qui n’influencent pas l’entr´ee u apr`es bouclage par (7.15). En changeant de coordonn´ees par z = Zx, on constate que les premi`eres composantes z1 = y, z2 = y, ˙ . . ., zr = y (r−1) s’annulent (ainsi que leur d´eriv´ee) et que les variables internes sont zr+1 , zr+2 , . . ., zn . En prenant la d´eriv´ee de ces derni`eres variables, et en utilisant le fait que v = 0 lorsque y et ces r d´eriv´ees ont converg´es, de sorte que u=−
1 CAr x, CAr−1 B
206
7 Commande par lin´earisation
il s’ensuit que z˙r+1 γr+1 γr+1 z˙r+2 γr+2 γr+2 1 r BCA x .. = .. x˙ = .. A − CAr−1 B . . . z˙n γn γn zr+1 γr+1 z γr+2 r+2 1 −1 0r×(n−r) r Z BCA = . A− r−1 I(n−r) ... CA B .. zn γn zr+1 zr+2 (7.20) = Az . . .. zn
Pour que la loi de commande pr´esent´ee `a ce paragraphe puisse fonctionner sans endommager le syst`eme `a commander, il est n´ecessaire et suffisant que la dynamique interne (7.20) soit born´ee. Ceci signifie deux choses : i) Soit toutes les valeurs propres de la matrice Az ont des parties r´eelles strictement n´egatives (auquel cas la dynamique interne sera asymptotiquement stable) ; ou alors ii) les valeurs propres de Az n’ont pas de partie r´eelle strictement positive et les blocs de Jordan associ´es aux valeurs propres nulles sont s´epar´es et de dimension deux au maximum, auquel cas la dynamique interne est oscillatoire mais born´ee. Exemples Nous allons consid´erer un mod`ele ´el´ementaire d’une table de positionnement industrielle ` a une dimension. L’objet `a positionner n’est malheureusement pas rigide ; il poss`ede un mode propre associ´e `a sa flexibilit´e. Ceci rend la tˆ ache de positionnement plus difficile. Un moteur fournit un couple pur τ `a un chariot de masse M , qui n’est pas parfait non plus car, ` a vide, il pr´esente un mode de r´esonance correspondant `a une flexibilit´e propre mod´elis´ee par une masse m2 et une constante de rigidit´e k2 . Le chariot supporte un outil qui doit se positionner pr´ecis´ement `a sa position d’arriv´ee quel que soit l’´etat initial de la table. L’outil et sa structure poss`ede une masse m1 , et il est reli´e au chariot par une attache qui n’est pas infiniment rigide. Elle est mod´elis´ee par un ressort pur de constante d’´elasticit´e k1 .
7.4 Syst`emes lin´eaires SISO
207
L’´energie cin´etique est donn´ee par Ecin =
1 1 1 m1 x˙ 21 + m2 x˙ 22 + M x˙ 2 2 2 2
et l’´energie potentielle par Epot =
1 1 k1 (x1 − x)2 + k2 (x2 − x)2 2 2
Le lagrangien pour ce syst`eme est donn´e par L = Ecin − Epot d ∂L En calculant les ´equations dynamiques par dt − ∂ q˙ x, x1 , x2 et Fx = τ , Fx1 = Fx2 = 0, nous obtenons
∂L ∂q
= Fq avec q =
Mx ¨ − k1 (x1 − x) − k2 (x2 − x) = τ m1 x¨1 + k1 (x1 − x) = 0 m2 x¨2 + k2 (x2 − x) = 0
(7.21) (7.22) (7.23)
Nous allons utiliser la variable x pour d´esigner `a la fois le vecteur d’´etat et la position du chariot x. Le contexte devrait ˆetre suffisant pour distinguer ces deux notions. En cas de confusion possible, une pr´ecision explicite sera apport´ee. Pour simplifier quelque peu les d´eveloppement nous prendrons un cas num´erique particulier M = 1, k1 = 2, k2 = 3, m1 = 0.5 et m2 = 0.25. T En choisissant l’´etat x = x x1 x2 x˙ x˙ 1 x˙ 2 , il vient x˙ = Ax+Bu, y = Cx avec u = τ et
0 0 0 10 0 0 0 01 0 0 0 00 A= −5 2 3 0 0 4 −4 0 0 0 12 0 −12 0 0 C= 010000
0 0 1 0 0 0
0 0 0 B= 1 0 0
Pour appliquer la m´ethode pr´esent´ee, il suffit de d´eriver cette sortie jusqu’` a ce que l’entr´ee fasse son apparition. On calcule facilement CB = 0,
CAB = 0,
CA2 B = 0, CA3 B = −4
de sorte que le syst`eme peut ˆetre transform´e en une chaˆıne de quatre int´egrateurs
208
7 Commande par lin´earisation
y (4) = v a l’aide du bouclage (7.15) qui s’exprime comme ` u=
1 (v − CA4 x) = −4(v − −36 24 12 0 0 0 x) CA3 B
(7.24)
La chaˆıne d’int´egrateur se stabilise facilement en constituant l’´equation d’erreur diff´erentielle d’ordre quatre. En posant, d’une part e = yc − y, o` u (3) yc est la position x1 de l’outil d´esir´ee, et, d’autre part, y˙ c = y¨c = yc = 0 (consigne constante), le polynˆome d’erreur s’´ecrit, en choissant les tous les quatre pˆ oles r´eels et au mˆeme endroit −2, comme E(s) = (s + 2)4 = s4 + 8s3 + 24s2 + 32s + 16, de telle sorte que l’entr´ee de la chaˆıne d’int´egrateurs s’expriment v = 8(−CA2 x) + 24(−CAx) + 32(yc − Cx). Pour trouver la dynamique interne, on compl`ete dans un premier temps C, CA, CA2 CA3 par deux vecteurs lignes γ5 et γ6 afin de garantir une matrice de rang 6. Comme 0 10 0 0 0 C CA 0 0 0 0 1 0 (7.25) CA2 = −4 4 0 0 0 0 0 0 0 −4 4 0, CA3 on peut fixer
γ5 = 0 0 1 0 0 0 γ6 = 0 0 0 0 0 1 .
En ne retenant que les deux derni`eres colonnes de l’inverse de la matrice (7.19), on trouve sans difficult´e la matrice Az `a l’aide de (7.20) : 1 0 1 γ5 −1 O4×2 4 = . (7.26) CA Z A− Az = −12 0 I2 γ6 CA3 B
√ Etant donn´e que les valeurs propres de Az sont λ = ±2 3j, c.-`a-d. qu’elles sont distinctes et ` a partie r´eelle nulle, la dynamique associ´ee aux deux ´etats internes z5 = γ5 x = x2 et z6 = γ6 x = x˙ 2 est oscillante et stable, mais pas asymptotiquement stable. Ainsi, selon les conditions initiales, le syst`eme sera le th´eaˆtre d’un mouvement oscillant qui demeurera ind´efiniment, bien que la sortie finisse par ˆetre parfaitement r´egul´ee. Pour comprendre de mani`ere imag´ee ce qui se produit, notons que la commande choisie garantit le contrˆole de x1 par construction. Elle garantit ´egalement le comportement d’une combinaison d’´etats suppl´ementaires
7.4 Syst`emes lin´eaires SISO
209
d´etermin´ee par le vecteur CA2 , `a savoir x1 −x. Comme la position x1 converge, la position x converge aussi. Ceci signifie que les deux masses m1 et m finissent par ne plus bouger. Toutefois, le r´egulateur laisse un degr´e de libert´e dans le syst`eme, au sens o` u la position x2 n’est pas contrainte puisque cet ´etat est γ5 x. Le r´egulateur ne fait que compenser l’influence de la masse m2 sur les deux autres, sans pour autant ´eliminer l’´energie associ´ee `a cette masse. C’est la commande u qui fournit le couple n´ecessaire pour compenser exactement l’influence de la masse m2 sur le syst`eme complet, de telle sorte que la convergence des deux autres positions x1 et x n’en est pas affect´ee. (A travers le terme − CA13 B CA4 x = 4 −36 24 12 0 0 0 x dans l’expression (7.24).) Ainsi, si la masse m2 ne part pas au repos, la loi de commande implant´ee ne changera pas le comportement de la position x2 . Celle-ci oscillera ind´efiniment, bien que les deux autres masses finissent par s’arrˆeter. Du point de vue de la sortie sp´ecifi´ee, tout se passe tr`es bien ´etant donn´e qu’elle converge vers le poins d´esir´e selon la dynamique impos´ee. La seule question est de savoir si l’oscillation en x2 est tol´erable d’un point de vue pratique. Ceci d´ependra alors du contexte dans lequel la machine devra op´erer. Syst`eme lin´eaire 1 L’exemple pr´ec´edent a montr´e que la dynamique interne r´esultante doit ˆetre prise au s´erieux et analys´ee avec soin. En effet, il se pourrait que les ´etats associ´es finissent par diverger. Dans le pr´esent paragraphe et dans le suivant, deux exemples sont pr´esent´es afin de caract´eriser quelque peu la propri´et´e responsable de l’instabilit´e de la dynamique interne. Ils diff`erent l’un de l’autre uniquement par un changement de signe. De plus, en ne comportant que deux ´etats, ils sont choisis avec une structure la plus simple possible. Soit le premier syst`eme donn´e par les ´equations x˙ 1 +x2 + u = u x˙ 2 y = x1 . On proc`ede comme pr´ec´edemment en d´erivant simplement la sortie jusqu’` a ce que l’entr´ee influence une des d´eriv´ees. En l’occurance, la premi`ere d´eriv´ee fait apparaˆıtre l’entr´ee y˙ = x2 + u = v. Le syst`eme ´equivalent est un int´egrateur unique. Nous choisissons, sans perte de g´en´eralit´e, le pˆ ole en −1, et ainsi v = yc + (yc − y), ce qui conduit `a u = −x2 + y˙ c − (y − yd ).
210
7 Commande par lin´earisation
Il reste ` a d´eterminer la dynamique interne et son comportement. Comme le syst`eme est lin´eaire, yc = 0 est consid´er´e. Asymptotiquement, y = 0, y˙ = 0, ce qui conduit ` a ce que x1 = 0 et x˙ 1 = x2 + u = 0. Par cons´equent, u = −x2 et la dynamique interne devient x˙ 2 = −x2 , qui est asymptotiqement stable puisque sa solution est x2 = x20 e−t . Syst`eme lin´eaire 2 Le deuxi`eme syst`eme diff`ere du premier (7.27) uniquement par le signe devant x2 dans la premi`ere ´equation, c.-`a-d. −x2 + u x˙ 1 = u x˙ 2 y = x1 En proc´edant de mani`ere similaire au cas pr´ec´edent, y˙ = −x2 + u, u = x2 + y˙ d − (y − yd ), ce qui engendre e˙ + e = 0 x˙ 2 − x2 = y˙ c − e et la dynamique interne x˙ 2 = x2 est instable puisque sa solution x2 = x20 et diverge ` a l’infini. Comparaison Les deux pr´ec´edents exemples permettent d’´elaborer une conjecture sur la structure de la fonction de transfert G(s) de la repr´esentation d’´etat. En calculant les fonctions de transfert associ´ee G1 (s) =
s+1 s2
G2 (s) =
s−1 , s2
on constate que le changement de signe sur x2 de cette repr´esentation a influenc´e seulement le num´erateur des fonctions de transfert G1 (s) et G2 (s). C’est la position du z´ero unique qui se situe dans un cas dans le demi plan droit du plan complexe (dynamique interne instable) et dans le demi-plan gauche (dynamique interne stable). De plus la diff´erence de degr´e du polynˆome du d´enominateur par rapport au polynˆome du num´erateur correspond `a la longueur de la chˆ aine d’int´egrateurs entre l’entr´ee v et la sortie y.
7.4 Syst`emes lin´eaires SISO
211
Dynamique interne et position des z´ eros z˙ = Az + bu y = cT z y = cT (sI − A)−1 bu =
b0 + b1 s u a 0 + a 1 s + a 2 s2 + s3
1 u a 0 + a 1 s + a 2 s2 + s3 x2 = x˙ 1 x1 =
x3 = x˙ 2
x1 x1 0 1 0 0 d x2 = 0 0 1 x2 + 0 u dt x3 −a0 −a1 −a2 x3 1
x1 y = b0 b1 0 x2 x3
y˙ = b0 x2 + b1 x3 y¨ = b0 x˙ 2 + b1 x˙ 3 = b0 x3 + b1 (−a0 x1 − a1 x2 − a2 x3 +u) u = (a0 x1 + a1 x2 + a2 x3 −
1 b0 ) + (−k1 e − k2 e˙ + y¨d ) b1 x3 b1
0 = e¨ + k2 e˙ + k1 e
x˙ 1 = x2 1 x˙ 1 = (y − b0 x1 ) b1 → x˙ 1 + bb10 x1 = b11 y y = e + yd est born´e, stabilit´e → ℜe − bb10 < 0
Pour que la dynamique interne soit asymtotiquement stable il faut que tous les z´eros soient ` a partie r´eelle strictement n´egative.
212
7 Commande par lin´earisation
7.4.2 Sortie non sp´ ecifi´ ee, formule d’Ackermann La pr´esence d’une dynamique interne pouvant ˆetre instable est la principale limite de la technique de d´erivation successive. De plus, mˆeme lorsque celle-ci est stable, sa vitesse de convergence ne peut pas ˆetre modifi´ee. Cette dynamique interne apparaˆıt `a cause de l’influence trop rapide de l’entr´ee sur la sortie, au sens o` u cette entr´ee influence la d´eriv´ee d’ordre r. La dynamique interne est alors de dimension n − r. On peut alors s’interroger sur la possibilit´e de choisir une sortie construite de telle sorte que l’entr´ee influence une d´eriv´ee sup´erieure `a r. Etant donn´e que le syst`eme est de taille n, la plus haute d´eriv´ee possible est alors r = n. Avec un tel choix de sortie, la dynamique interne disparaˆıt et le syst`eme devient ´equivalent ` a une chaˆıne d’int´egrateurs v = y (n) . En cons´equence, la sortie y est param´etr´ee par n coefficients `a d´eterminer, c1 , c2 , . . ., cn , ci ∈ R, i = 1, . . . , n, de telle sorte qu’en d´efinissant (7.27) y = Cx = c1 c2 . . . cn x
l’´equation
C B AB A2 B . . . An−2 B = 0
(7.28)
doit ˆetre respect´ee. Ceci d´ecoule d’une application directe du processus (7.13) de la section pr´ec´edente particularis´ee pour r = n. N´eanmoins, nous devons en plus garantir que l’entr´ee u affecte bien la n-i`eme d´eriv´ee, car sinon il n’y aurait pas moyen de diriger le syst`eme. C’est ainsi que CAn−1 B 6= 0.
(7.29)
Afin de d´eterminer le vecteur C, formons la matrice de commandabilit´e C = B AB A2 B . . . An−1 B . (7.30)
Les conditions (7.28) et (7.29) signifient qu’un choix de vecteur C correspond ` a la derni`ere ligne de la matrice inverse de C : C = eTn C −1 ,
(7.31) o` u eTn = 0 0 . . . 0 1 . Tout autre multiple de C conviendrait ´egalement parfaitement. Une telle sortie y = Cx est appel´ee sortie de Brunovsky dans le cas lin´eaire ou sortie plate dans le cas g´en´eral. Comme C −1 C = I, CAn−1 B = 1.
(7.32)
7.4 Syst`emes lin´eaires SISO
213
Pour d´eterminer le bouclage stabilisant, on prend `a nouveau une ´equation diff´erentielle ordinaire stable mais cette fois-ci d’ordre n, E(s) = sn + a1 sn−1 + . . . + an dont tous les z´eros sont ` a partie r´eelle n´egative. Conform´ement au d´eveloppement pr´ec´edent, ceci conduit au bouclage 1 (v − CAn x) CAn−1 B n X ai (yc(n−i) − CAn−i x) v = yct +
u=
(7.33) (7.34)
i=1
constitu´e parP (7.15), (7.17) et particularis´e pour r = n. En remarquant que n E(s) = sn + i=1 ai sn−1 est le polynˆome caract´eristique d´esir´e de la boucle ferm´ee, les deux ´equations (7.33) et (7.34) n’en forme qu’une qui n’est rien d’autre que la formule d’Ackermann lorsqu’on prend en compte (7.32) :
u = −en C −1 E(A)x.
(7.35)
(Nous avons pris pour simplifier yc = 0, . . . yc = . . . , = ycn = 0, `a nouveau sans perte de g´en´eralit´e.) Finalement, la seule condition pour que cette construction soit valable est que le syst`eme soit commandable, c’est-`a-dire que la matrice matrice C soit inversible. La dynamique interne est absente et tout l’etat est sous contrˆole. La sortie y = Cx ainsi que ses d´eriv´ees convergent vers les valeurs de r´ef´erence correspondantes. Exemple Nous reprenons l’exemple de la table rudimentaire. En ´elaborant la matrice de commandabilit´e 0 1 0 −5 0 73 0 0 0 4 0 −36 0 0 0 12 0 −204 C= (7.36) 0 1 0 −5 0 73 0 0 4 0 −36 0 0 0 12 0 −204 0
et en ne retenant que la derni`ere ligne de l’inverse de celle-ci, la sortie de Brunovsky est obtenue 1 1 − 96 000 . y = eTn C −1 = 0 32 (7.37)
214
7 Commande par lin´earisation
Bien que la sortie dont le comportement d´esir´e est la position x1 , commander directement celle-ci par la m´ethode des d´eriv´ees successives conduit a une dynamique oscillante interne. ` Par contre, en choisissant une combinaison entre x1 et x2 conform´ement `a (7.37), il est alors possible de compl`etement s’affranchir de la pr´esence d’une dynamique interne. Le prix est la n´ecessit´e de mesurer cette position. Toutefois, mˆeme lorsque la position donn´ee par (7.37) n’est pas mesurable, le fait que cette combinaison retarde l’apparition de l’entr´ee suffisament pour que tous les ´etats soient sous l’influence de la trajectoire de cette sortie, il est possible d’utiliser cette combinaison d’´etat pour planifier le mouvement et trouver une commande a priori permettant de transf´erer le syst`eme d’un ´etat initial vers un ´etat terminal. Cette technique sera pr´esent´ee dans le contexte non lin´eaire d’ici peu, car les deux techniques que l’on vient de pr´esenter admettent une g´en´eralisation.
7.5 Lin´ earisation entr´ ee-sortie La g´en´eralisation de la d´erivation de la sortie sp´ecifi´ee au cas non lin´eaire est ce que nous appelerons la lin´earisation entr´ee-sortie. Nous commencerons par un exemple introductif.
x˙ 1 = sin x2 + (x2 + 1)x3 x˙ 2 = x51 + x3 x˙ 3 = x21 + u y = x1 La sortie ´etant sp´ecifi´ee, nous allons simplement la d´eriver successivement jusqu’` a l’apparition de l’entr´ee u. Ceci engendre y˙ = x˙ 1 = sin x2 + (x2 + 1)x3 y¨ = cos x2 x˙ 2 + x˙ 2 x3 + (x2 + 1)x˙ 3 = (cos x2 + x3 )(x51 + x3 ) + (x2 + 1)(x21 + u) Ainsi, l’apparition de l’entr´ee apr`es la deuxi`eme d´erivation arrˆete le processus. Cette entr´ee permet n´eanmoins d’imposer y¨, variable que l’on peut consid´erer comme une nouvelle entr´ee v. v = (cos x2 + x3 )(x51 + x3 ) + (x2 + 1)(x21 + u)
(7.38)
Il faut toutefois ˆetre prudent et garantir que l’on peut effectivement modifier v = y¨ en manipulant u. En r´esolvant (7.38) pour u, un d´enominateur x2 + 1 fait son apparition :
7.5 Lin´earisation entr´ee-sortie
u=
1 v − (cos x2 + x3 )(x51 + x3 ) − x21 (x2 + 1)
215
(7.39)
Par cons´equent, l’imposition de y¨ n’est possible que lorsque x2 6= −1. Il est ´egalement possible de suivre une trajectoire de sortie yd (t) `a condition de constituer l’erreur e(t) = yd (t)−y(t) et de former une ´equation diff´erentielle d’erreur stable du second ordre. Une fois cette ´equation d´etermin´ee, il suffit de la r´esoudre pour y¨ = v et forcer cette acc´el´eration par l’interm´ediaire de u donn´e par (7.39). Par exemple, l’´equation d’erreur e¨ + k1 e˙ + k2 = 0 e = yd − y avec k1 et k2 choisit de telle sorte que les deux racines du polynˆome caract´eristique s2 + k1 s + k2 = 0 aient chacune une valeur r´eelle strictement n´egative conduit entraˆıne une poursuite asymptotique de la sortie par l’entremise de v = y¨d + k1 (y˙ d − y) ˙ + k2 (yd − y). Cependant, il faut ´egalement prˆeter attention aux ´etats cach´es par la dynamique entr´ee-sortie. Seul deux combinaisons des ´etats sont r´eellement sous contrˆ ole, ` a savoir celle de la sortie y et celle de la d´eriv´ee de la sortie y. ˙ Le syst`eme comporte trois ´etats, et seul deux combinaison sont lin´earis´ees. Il demeure un ´etat cach´e, masqu´e, rendu inobservable par la relation entr´ee sortie impos´ee pour lin´eariser le comportement de sortie. Pour obtenir l’´etat cach´e, il suffit de consid´erer les deux combinaisons command´ees y = x1 et y˙ = sin x2 + (x2 + 1)x3 = x˙ 1 . Asymptotiquement, y convergera vers yd et par cons´equent x1 → yd . L’´etat x1 est sous contrˆ ole. La deuxi`eme condition y˙ → y˙ d indique que la combinaison de deux ´etats x2 et x3 est sous contrˆ ole. Ainsi, en envisageant soit l’´etude du comportement de x2 , ou celui de x3 , l’´evolution cach´ee du syst`eme sera alors d´etermin´ee. Par exemple, en consid´erant x2 , la deuxi`eme ´equation de la dynamique donne x˙ 2 = x51 + x3 . (7.40) En ne consid´erant que le comportement asymptotique, il est possible de remplacer dans l’´equation (7.40), x1 par yd (t), et d´eterminer x3 `a partir de y˙ d (t) = sin(x2 ) + (x2 + 1)x3 : x˙ 2 = yd5 +
1 (y˙ d − sin x2 ) . x2 + 1
(7.41)
Cette ´equation diff´erentielle est du premier ordre en x2 . Si elle est instable, la loi de commande de lin´earisation entr´ee-sortie ne pourra pas ˆetre appliqu´ee sur le syst`eme initial.
216
7 Commande par lin´earisation
Si elle est stable, il n’est pas cependant compl`etement garantit que la loi de commande fonctionne. En effet, non seulement la variable x2 ne doit pas passer par −1, mais il faut ´egalement que le transitoire des ´etats x1 et x3 n’entraˆıne pas une instabilit´e sur x2 . L’´equation diff´erentielle (7.41) n’est valable que lorsque x1 = yd et sin(x2 ) + (x2 + 1)x3 = y˙ d et ces ´egalit´es n’ont lieu que de fa¸con asymptotique. Entre les deux, il est possible que des ph´enom`ene d’instabilit´e en temps fini fasse leur apparition. Ceux-ci sont caus´es pas des ´ecarts importants par rapport au comportement asymptotique. Nous pr´esenterons ce ph´enom`ene au d´ebut du chapitre suivant. N´eanmoins, la stabilit´e de l’´equation diff´erentielle (7.41) garantit que localement autour du comportement asymptotique, la loi de lin´earisation entr´eesortie est applicable.
7.6 Lin´ earisation exacte entr´ ee-´ etat A la diff´erence de la lin´earisation entr´ee-sortie, il y a dans le pr´esent cas absence d’une sortie sp´ecifi´ee initialement. En fait, toute la m´ethode revient simplement `a trouver une sortie particuli`ere (appel´ee sortie plate ou sortie lin´earisante) qui retarde suffisament l’apparition de l’entr´ee par d´erivation successive. Ainsi, la dynamique interne disparaˆıt apr`es transformation en une chaˆıne d’int´egrateurs associ´ee. Supposons donc la sortie y = h(x) comme inconnue, et d´erivons celle-ci par rapport au temps y˙ =
∂h ∂h ∂h ∂h x˙ = (f (x) + g(x)u) = f (x) + g(x)u ∂x ∂x ∂x ∂x
(7.42)
L’´equation (7.42) nous apprend qu’il y aura pr´esence de l’influence de l’entr´ee u lorsque ∂h ∂x g(x) 6= 0. En utilisant le notion de d´eriv´ee de Lie pr´esent´ee dans le chapitre g´eom´etrie, on peut ´ecrire plus succintement la d´eriv´ee temporelle de la sortie comme y˙ = Lf h(x) + Lg h(x)u
(7.43)
et la condition que l’entr´ee n’influence pas celle-ci est que Lg h(x) = 0.
(7.44)
Si cette condition est satifaite, on peut continuer le processus de d´erivation, exactement comme dans le cas de la lin´earisation entr´ee-sortie. On obtient la seconde d´eriv´ee
7.6 Lin´earisation exacte entr´ee-´etat
∂Lf h(x) ∂Lf h(x) x˙ = (f (x) + g(x)u) ∂x ∂x = Lf Lf h(x) + Lg Lf h(x)u,
217
y¨ =
(7.45)
et ainsi l’entr´ee u influencera la seconde d´eriv´ee que lorsque Lg Lf h(x) 6= 0. 7.6.1 Conditions pour la sortie plate Si l’on veut r´eduire la dynamique interne de telle sorte que celle-ci disparaisse, il est n´ecessaire et suffisant que l’entr´ee n’apparaisse qu’au dernier moment, c.-`a-d. apr`es un grand nombre de d´eriv´ees de celle-ci. Pour un syst`eme mono-entr´ee de dimension d’´etat ´egal `a n, nous avons donc les conditions suivantes :
Lg h(x) = 0 Lg Lf h(x) = 0 .. .. . .
(7.46) (7.47)
Lg Lfn−2 h(x) = 0
(7.48)
Lg Lfn−1 h(x)
(7.49)
6= 0
Remarquons que la derni`ere condition Lg Lfn−1 h(x) 6= 0 est indispensable pour que l’on puisse trouver une expression de l’entr´ee afin de contrˆoler la chaˆıne d’int´egrateurs que constitue y et ces n− 1 d´eriv´ees. En effet, la derni`ere d´eriv´ee s’exprime comme (n)
(n−1)
y (n) = Lf h(x) + Lg Lf
h(x)u = v
(7.50)
que nous avons ´egaler ` a une nouvelle entr´ee v correspondant `a l’entr´ee de la chaˆıne de n int´egrateurs y (n) = v. Comme dans le cas de la lin´earisation entr´ee sortie, le contrˆoleur est complet lorsqu’une ´equation d’erreur d’ordre n est sp´ecifi´ee `a partir de laquelle l’expression de v est exprim´ee. Finalement, l’entr´ee du syst`eme d’orgine s’exprime comme 1 (n) u= v − L h(x)) , f (n−1) Lg Lf h(x) o` u v stabilise la chaˆıne d’int´egrateurs en utilisant l’´equation d’erreur. Bien que les conditions (7.46-7.48) soient les seules que doivent satisfaire la fonction h(x), il n’est pas ais´e de trouver des conditions n´ecessaires et suffisantes pour l’existence de celle-ci. Nous allons reformuler ces conditions afin qu’une interpr´etation g´eom´etrique puisse en d´ecouler.
218
7 Commande par lin´earisation
Dans la partie g´eom´etrique, il a ´et´e question de champs de vecteur. Ceux-ci correspondaient ` a la donn´ee d’un vecteur en chacun des points de la vari´et´e. Il existe une op´eration tr`es utile entre deux champs de vecteurs produisant un nouveau champ de vecteurs. Cette op´eration rend possible la reformulation plus g´eom´etrique de la condition de lin´earisation exacte entr´ee-´etat. Il s’agit du crochet de Lie entre deux champs de vecteurs. D´ efinition 7.2. Le crochet de Lie de deux champs de vecteurs f et g correspond a ` un nouveau champ de vecteurs not´e [f, g] et donn´e par [f, g] = o` u
∂g ∂x
et
∂f ∂x
∂f ∂g f− g, ∂x ∂x
sont des matrices Jacobiennes.
Une propri´et´e int´eressante de la d´eriv´ee de Lie le long du crochet de Lie est qu’elle puisse s’exprimer `a partir des d´eriv´ees de Lie des vecteurs avant le crochet. Plus pr´ecis´ement. Proposition 7.3. L[f,g] h(x) = Lf Lg h(x) − Lg Lf h(x)
(7.51)
Preuve. Le membre de gauche s’obtient par application de la d´efinition de la ∂g d´eriv´ee de Lie en consid´erant le champ de vecteur [f, g] = ∂x f − ∂f ∂x g : L[f,g] h(x) =
∂h ∂f ∂h ∂g f− g ∂x ∂x ∂x ∂x
(7.52)
Le membre de droite est un peu plus compliqu´e, car chaque terme fait apparaˆıtre une forme quadratique. Nous avons d’une part Lf Lg h(x) = Lf (
∂h ∂h ∂g ∂2h g) = g T 2 f + f, ∂x ∂x ∂x ∂x
(7.53)
Lg Lf h(x) = Lg (
∂h ∂f ∂ 2h ∂h f) = fT 2 g + g, ∂x ∂x ∂x ∂x
(7.54)
et d’autre part,
de telle sorte qu’en faisant la soustraction de (7.53) et (7.54) et en tenant compte de (7.52), nous obtenons bien (7.51) puisque les termes quadratiques (´etant identiques) s’annulent. En revenant aux conditions (7.46-7.48), nous remarquons que nous pouvons ajouter ` a la deuxi`eme, Lg Lf h(x), n’importe quel multiple de la premi`ere, Lg h(x), puisque cette derni`ere est nulle. En outre, ceci signifie qu’il est possible d’ajouter Lf Lg h(x) puisque cette expression est nulle ´egalement, suite `a Lg h(x) = 0. Ainsi,
7.6 Lin´earisation exacte entr´ee-´etat
Lg Lf h(x) = Lg Lf h(x) − Lf Lg h(x) = −L[f,g] h(x) = −
219
∂h [f, g] = 0. (7.55) ∂x
En suivant un raisonnement similaire, l’identit´e ∂h [f, [f, g]] = 0 ∂x
(7.56)
est obtenue. Cette id´ee se g´en´eralise, conduisant `a la transformation du syst`eme (7.46-7.48) en un syst`eme ´equivalent ∂h g [f, g] [f, [f, g]] . . . adfn−2 g = 0 ∂x
(7.57)
L’´equation (7.57) entre la 1-forme ∂h ∂x et les champs de vecteurs signifie deux choses : Premi`erement, la construction d’un vecteur ligne ∂h e ∂x est relativement ais´ car la matrice g [f, g] [f, [f, g]] . . . adfn−2 g se calcule de mani`ere syst`ematique en utilisant le crochet de Lie. Deuxi`emement, la possibilit´e de remonter `a partir du vecteur ligne ∂h ∂x vers la fonction h(x) est conditionn´e par la nature des champs de vecteurs g, [f, g], ad2f g, . . ., adfn−2 g. La condition est alors celle du th´eor`eme de Frobenius qui conclut que h(x) existe si, et seulement si, la distribution engendr´ee par ces champs de vecteurs est involutive. On aboutit ainsi au th´eor`eme important de ce chapitre Th´ eor` eme 7.4. Un syst`eme avec une seule entr´ee x˙ = f (x) + g(x)u est lin´earisable entr´ee-´etat si, et seulement si, la distribution engendr´ee par g, adf g, . . ., adfn−1 g est de plein rang et que celle engendr´ee par g, adf g, . . ., adfn−2 g est involutive. Preuve. La seconde condition permet la construction de la sortie y = h(x), comme expliqu´e pr´ec´edemment. La premi`ere condition garantit qu’apr`es la n `eme d´eriv´ee de la sortie, l’entr´ee u influence cette d´eriv´ee. Le bouclage lin´earisant s’obtient, comme dans le cas de la lin´earisation entr´ee-sortie, en consid´erant la sortie nouvellement construite y = h(x), et en la d´erivant n fois jusqu’` a ce que l’entr´ee apparaisse. En posant y (n) = v et en traitant v comme la nouvelle entr´ee, l’expression de u en fonction de v est obtenue et le syst`eme est transform´e en une chaˆıne de n int´egrateur qui repr´esente le syst`eme lin´eaire ´equivalent. Pour aboutir ` a un sch´ema de commande complet, Il faut encore stabiliser la chaˆıne d’int´egrateurs y (n) = v `a l’aide de l’entr´ee v. Pour se faire, il est
220
7 Commande par lin´earisation
possible de constituer une ´equation d’erreur appropri´ee, comme dans le cas de la lin´earisation entr´ee-sortie. Il y a essentiellement deux fa¸cons de v´erifier l’involutivit´e des champs de vecteurs susmentionn´es, et chacune repose sur l’une ou l’autre des versions du th´eor`eme de Frobenius. La premi`ere consiste ` a v´erifier l’annulation des d´eterminants det g [f, g] . . . adfn−2 g [g, [f, g]] = 0 det g [f, g] . . . adfn−2 g [g, ad2f g] = 0 .. . det g [f, g] . . . adfn−2 g [[f, g], ad2f g] = 0 det g [f, g] . . . adfn−2 g [[f, g], ad3f g] = 0
.. . det g [f, g] . . . adfn−2 g [adfn−1 g, adfn−2 g]] = 0,
(7.58)
La seconde revient ` a calculer, `a l’aide d’un algorithme du type ´elimination de Gauss, l’annulateur de la distribution, c.-`a-d. ω tel que ω g [f, g] [f, [f, g]] . . . adfn−2 g = 0. (7.59)
Notons que l’utilisation de l’algorithme d’´elimination ne garantit pas de tomber sur une 1-forme exacte ∂h ∂x mais sur une certaine 1-forme ω qui annule l’ensemble des champs de vecteurs mentionn´es. Si la distribution est involutive alors la 1-forme ω doit ˆetre int´egrable et doit donc satisfaire la condition dω ∧ ω = 0. 7.6.2 Exemple : Robot avec joint flexible Il s’agit d’un robot dont l’axe prinicipal est muni d’un moteur permettant de fournir un couple τ ` a un axe de transmission qui le transmet au pendule constituant la partie mobile principale du robot. Cette transmission n’est pas rigide, mais elle est mod´elis´ee par un ressort de torsion de constante de rigidit´e k. La variable θ2 d´esigne la position angulaire du moteur et la variable θ1 repr´esente la position angulaire du pendule. La figure 7.2 illustre le dispositif. L’´energie cin´etique contient deux termes, celui du moteur et celui du pendule. L’´energie potentielle contient un terme d’´energie potentielle gravifique du au centre de masse du pendule et un terme d’´energie potentielle ´elastique contenu dans la transmission flexible.
7.6 Lin´earisation exacte entr´ee-´etat
221
θ1 τ θ2
k
Fig. 7.2. Robot avec joint flexible.
1 ˙2 1 ˙2 I1 θ + I2 θ 2 1 2 2 1 Ep = k(θ2 − θ1 )2 + mgl sin θ1 2 Ec =
Ainsi le lagrangien s’´ecrit L = Ec − Ep En choisissant les coordonn´ees g´en´eralis´ee comme θ1 et θ2 , on obtient deux ´equations du second ordre d ∂L ∂L =τ − dt ∂ θ˙1 ∂θ1 ∂L d ∂L =0 − dt ∂ θ˙2 ∂θ2 a partir desquelles, en introduisant les variables d’´etat x1 = θ1 , x2 = θ˙1 , ` x3 = θ2 , x4 = θ˙2 , il est possible d’obtenir la repr´esentation non lin´eaire x˙ 1 = x2 x˙ 2 = a cos x1 − b(x1 − x3 )
x˙ 3 = x4
x˙ 4 = c(x1 − x3 ) + du, avec a = − I11 mgl, b = k/I1 , c = k/I2 et d = 1/I2 . La premi`ere chose ` a trouver est l’expression des champs de vecteurs f et g. En consid´erant les ´equations pr´ec´edentes, on obtient facilement
x2 a cos x1 − b(x1 − x3 ) f (x) = x4 c(x1 − x3 )
0 0 g(x) = 0 d
222
7 Commande par lin´earisation
Ensuite, on construit g, [f, g] et [f, [f, g]] = ad2f g et [f, [f, [f, g]]] = ad3f g.
0 1 0 −a sin x1 − b 0 b ∂f = 0 0 0 ∂x c 0 −c
0 −a sin x1 − b ∂g ∂f [f, g] = f− g = − 0 ∂x ∂x c
0 1 −a sin x1 − b 0 [f, [f, g]] = − 0 0 c 0
0 0 1 0
1 0 0 b 0 0 0 −c
0 0 0 0 0 0 = 1 0 −d 0 d 0
0 0 0 0 b 0 0 = bd 0 1 −d 0 −c 0 0 −bd
0 1 −a sin x1 − b 0 [f, [f, [f, g]]] = − 0 0 c 0
−bd 0 0 0 b 0 bd = 0 0 1 0 bd 0 −bd −c 0
De telle sorte que l’on obtient finalement, 0 0 0 −bd 0 0 bd 0 g [f, g] ad2f g ad3f g = −d 0 0 cd d 0 0 0
(7.60)
Cet ensemble de champ de vecteurs doit ˆetre plein rang au point autour duquel on aimerait lin´eariser. En fait, il est important d’insister sur la diff´erence entre la lin´earisation locale en un point et la lin´earisation que nous faisons ici, ´egalement en tenant compte du point autour duquel cette lin´earisation est effectu´ee. On entend par global le fait de tenir compte de toutes les nonlin´earit´es, le fait de trouver une domaine le plus grand possible dans lequel toutes les non-lin´earit´es puissent ˆetre compens´ees. Ce domaine poss`ede un centre o` u l’on ´evalue les champs de vecteurs. Dans le pr´esent cas, le fait que les champs de vecteurs apparaissant dans (7.60) ne d´ependent pas de l’´etat x implique que le rang est constant dans tout l’espace d’´etat. Celui-ci est de 4 et signifie que la premi`ere condition de la lin´earisation est satisfaite.
7.6 Lin´earisation exacte entr´ee-´etat
223
La seconde condition consiste en la v´erification de l’involutivit´e des champs de vecteurs {g, adf g, ad2f g}. Etant donn´e que tous les vecteurs susmentionn´es sont constants, tout crochet de Lie entre ces vecteurs constants sont nuls, et la famille est bien involutive. L’autre approche du th´eor`eme de Frobenius consiste `a calculer la 1-forme ω telle que ω{g, adf g, ad2f g} = 0 On constate facilement que ω= 1000
est une solution qui est trivialement int´egrable puisqu’elle conduit `a h(x) = x1 . Ainsi y = x1 est la sortie lin´earisante. En cons´equence, le changement de coordonn´ees, Φ1 (x) = x1 Φ2 (x) = x2 Φ3 (x) = a cos x1 − b(x1 − x3 )
Φ4 (x) = −ax2 sin x1 − b(x2 − x4 ) transforme les ´equations d’´etat dans la forme, z˙1 = z2 z˙2 = z3 z˙3 = z4 z˙4 = −(a sin z1 + b + c)z3 − a(z22 − c) cos z1 + bdu En posant z˙4 = v, on aboutit au bouclage lin´earisant transformant le robot en une chaˆıne de quatre int´egrateurs. Nous laissons le soin au lecteur de constituer l’´equation d’erreur pour une telle chaˆıne d’int´egrateurs et d’obtenir une expression pour la nouvelle entr´ee v. Ceci conduit alors `a un sch´ema complet de commande fond´e sur la lin´earisation compl`ete du syst`eme valable globalement dans tout l’espace d’´etat.
224
7 Commande par lin´earisation
7.6.3 Exemple : Bille roulant sur une barre Une bille de rayon ρ et de masse m roule sans glisser sur un barreau. Le barreau comporte un axe en son milieu, perpendiculaire au d´eplacement de la bille. Il peut donc s’incliner d’un angle θ permettant ainsi `a la bille de rouler sous l’effet de la gravit´e. Un moteur fournit un couple τ afin d’incliner le barreau. Il n’y a pas de frottement sur la bille (figure 7.3).
r
θ τ
g
Fig. 7.3. Une bille roule sans glisser sur une barre sous l’effet de la gravit´e. La barre est inclin´ee d’un angle θ par l’entremise d’un couple τ . La position de la bille est d´etermin´ee par la distance r qu’elle parcourt le long de la barre.
Le centre de masse de la bille est d´esign´e par x et y. Il y a deux effets inertiels dans ce syst`eme, ` a savoir la bille elle-mˆeme et la barre. Remarquons que le bille roule de telle sorte que son moment cin´etique est toujours colin´eaire a l’axe de rotation. Il n’y a donc pas de couple gyroscopique provoqu´e par la ` rotation de la bille. La contrainte de roulement sans glissement entraˆıne la bille ` a se comporter comme une simple masse en translation avec cependant une masse l´eg`erement plus lourde due `a l’inertie de rotation de la bille. θ et r sont choisis comme coordonn´ees g´en´eralis´ees. L’angle de rotation de la bille autour de son axe est donn´e par ρr . La position du centre de masse de la bille par x = r cos θ et y = r sin θ. L’´energie cin´etique comporte trois termes, celle de translation de la bille, celle de rotation de la bille, et enfin celle de rotation de la barre. En d´esignant ¯ l’inertie de la bille autour de son centre de masse, et par I, l’inertie de par I, la barre autour de son axe de rotation, l’´energie cin´etique s’´ecrit
Ecin
2 1 r˙ 1 1 2 2 ¯ + I θ˙2 = m x˙ + y˙ + I 2 2 ρ 2 1 1 ¯ 2 1 = (m + 2 I) r˙ + (I + mr2 )θ˙2 2 2ρ 2
(7.61)
7.6 Lin´earisation exacte entr´ee-´etat
225
et l’´energie potentielle Epot = mgy = mgr sin θ.
(7.62)
En cons´equence, le lagrangien L = Ecin − Epot
(7.63)
entraˆıne, apr`es application de la m´ethode de Lagrange, deux ´equations diff´erentielles du second ordre coupl´ees ∂L d ∂L − =0 dt ∂ r˙ ∂r ∂L d ∂L − = τ. dt ∂ θ˙ ∂θ (7.64) En effet, une seule force g´en´eralis´ee Fθ est non nulle et correspond au couple τ impos´e ` a la barre. Les deux ´equations pr´ec´edentes s’´ecrivent explicitement sous la forme I¯ m + 2 r¨ − mrθ˙2 + mg sin θ = 0 ρ (I + mr2 )θ¨ + mr(2θ˙ r˙ + g cos θ) = τ. ˙ conduit L’introduction des variables d’´etats x1 = r, x2 = r, ˙ x3 = θ et x4 = θ, alors au mod`ele x˙ 1 = x2 ax1 x24
x˙ 2 = x˙ 3 = x4
(7.65) − b sin x3
(7.66) (7.67)
x˙ 4 = u
(7.68)
¯ > 0, b = mρ2 g/(mρ2 + I) ¯ > 0 et o` u a = mρ2 /(mρ2 + I) u=−
mgx1 cos x3 τ 2mx1 x2 x4 − + . I + mx21 I + mx21 I + mx21
(7.69)
Cette derni`ere ´equation (7.69) donne un bouclage pr´eliminaire apr`es r´esolution de τ en fonction de u, rendant ainsi possible l’utilisation de u comme entr´ee dans (7.68) au lieu de τ . Ce bouclage est toujours r´egulier ´etant donn´e que le d´enominateur I + mx21 ne s’annule jamais. Pour construire une sortie lin´earisante h(x), les champs de vecteurs f (x) = x2 g(x) = 0
ax1 x24 − b sin x3 T 0 0 1 ,
x4
0
T
(7.70)
226
7 Commande par lin´earisation
obtenus par inspection en se r´ef´erant `a (7.65-7.68), conduisent `a [f, g](x) = 0
−2ax1 x4
[f, [f, g]](x) = 2ax1 x4
−1
0
T
−2ax2 x4 − b cos x3
0
Malheureusement, [g, [f, g]] = 0
−2ax1
0
0
T
.
(7.71)
T 0 ,
ce qui signifie que la deuxi`eme condition pour la lin´earisation exacte n’est pas satisfaite car [g, [f, g]] 6∈ span {g.[f, g], [f, [f, g]]} ; la famille n’est donc pas involutive. En effet, det g [f, g] [f, [f, g]] [g, [f, g]] = −4a2 x21 x4
est non nul d`es que la bille quitte le point central r = 0. On peut alors s’interroger sur la structure de la 1-forme ω qui annule g [f, g] [f, [f, g]] . Comme −2ax2 x4 − b cos x3 −2ax1 x4 4a2 x21 x24 0 g [f, g] [f, [f, g]] = 0,
la 1-forme ω s’´ecrit
ω = (−2ax2 x4 − b cos x3 )dx1 − (2ax1 x4 )dx2 + (4a2 x21 x24 )dx3 , et elle ne provient pas d’une fonction de l’´etat h(x), principalement parcequ’il n’est pas possible de se d´ebarasser du coefficient x4 en multipliant ω par une fonction (ω n’a pas de coefficient non nul devant dx4 ). En effet, dω comporte un monˆ ome ext´erieur avec un facteur dx4 (non nul) alors que ω en est d´epourvu, de telle sorte que dω ∧ ω 6= 0.
7.7 Commande d’une chaˆıne d’int´ egrateurs Les techniques pr´esent´ees dans ce chapitre ont toutes pour but de transformer (ou d’´etablir une correspondance) entre le syst`eme ´ecrit dans les coordonn´ees d’origine, en une chaˆıne d’int´egrateurs. Cette chaˆıne doit alors ˆetre command´ee. En cons´equence nous avons comme syst`eme y (r) = v, avec y, v ∈ R des grandeurs scalaires. L’objectif est de choisir une succession de valeurs temporelles de v pour atteindre un objectif d´esir´e.
7.7 Commande d’une chaˆıne d’int´egrateurs
227
Nous consid´erons essentiellement deux techniques. La premi`ere est une technique de r´egulation permettant de garantir la stabilit´e globale de l’origine, et la poursuite d’une r´ef´erence donn´ee. Toutefois, elle n´ecessite la mesure de la sortie y et de ces r − 1 d´eriv´ees temporelle. La seconde, est une technique de commande en boucle ouverte (a priori) permettant de faire transiter l’´etat du syst`eme d’une valeur donn´ee correspondant `a une valeur initiale de y et de ces d´eriv´ees, vers une valeur finale, en un temps fini. Elle ne n´ecessite que la connaissance des conditions initiales. Une fois l’expression de l’entr´ee de la chaˆıne d’int´egrateur ramen´ee `a celle de l’entr´ee du syst`eme d’origine par les calculs expos´es aux sections pr´ec´edentes, nous avons une technique compl`ete de r´egulation des r ´etats associ´es ` a la sortie y et ses d´eriv´ees. 7.7.1 Stabilisation et poursuite Dans le cas o` u toutes les d´eriv´ees de y sont mesur´ees, nous pouvons forcer y` a converger vers z´ero en utilisant une ´equation d’erreur. En posant e = yc − y et en choisissant r pˆ oles (valeurs propres) λ1 , λ2 , . . . λr `a valeur propre r´eelle plus petite que z´ero, l’´equation d’erreur diff´erentielle est constitu´ee, d’abord avec l’op´erateur de diff´erentiation symbolique s : : (s + λ1 )(s + λ2 ) . . . (s + λr ) = sr + a1 sr−1 + . . . + an−1 s + an
(7.72)
Ensuite, en effectuant les d´erivations correpondant `a l’op´erateur s, on obtient l’´equation diff´erentielle associ´ee e(r) + a1 e(r−1) + . . . + an−1 e˙ + an e = 0. (r)
Finalement, on remplace la plus haute d´eriv´ee er par v − yc et on trouve l’expression de l’entr´ee v stabilisante par simple r´esolution de l’´equation obtenue. 7.7.2 Transit en temps fini avec commande a priori L’objectif est de d´eterminer une loi de commande a priori permettant de transf´erer l’´etat de la chaˆıne d’int´egrateur, initialement en y(0), y(0), ˙ ... y (r) (0) vers un nouvel ´etat y(T ), y(T ˙ ), . . . y (r) (T ), en un temps fini T . En pratique, l’´etat initial est donn´e sous la forme x(0) et l’´etat terminal sous la forme x(T ) (ou une sous-partie de ces ´etats). Dans chacun des cas, ces valeurs correspondent ` a des ´etats de la chaˆıne d’int´egrateur associ´es `a la sortie y et ces d´eriv´ees. Ainsi, les valeurs d’interpolation sont sp´ecifi´ees par des valeurs dans les coordonn´ees de d´epart.
228
7 Commande par lin´earisation
Afin d’obtenir la commande mentionn´ee, il suffit de choisir un polynˆome d’interpolation d’ordre suffisamment ´elev´e pour repr´esenter la trajectoire de la sortie y. L’ordre ´elev´e permet alors de repr´esenter l’´evolution de l’ensemble des r d´eriv´ees de la sorties depuis l’instant initial 0 et l’instant final T . Il est n´ecessaire de choisir un ordre 2r afin de pouvoir sp´ecifier `a la fois les conditions initiales et terminales. Le polynˆ ome s’´ecrit sous la forme yc (t) =
2r−1 X
p i ti
i=0
o` u les coefficients pi ∈ R sont choisis afin de satisfaire le syst`eme d’´equations yc (0) = y(0)
yc (T ) = y(T )
y˙ c (0) = y(0) ˙
y˙ c (T ) = y(T ˙ ) .. .
yc(r) (T ) = y (T )
yc(r) (T ) = y (r) (T ).
Une fois ce polynˆ ome choisit, il suffit de d´eriver celui-ci r fois et d’appliquer l’entr´ee v = yc(r) (t) 0 ≤ t ≤ T a la chaˆıne d’int´egrateurs. ` La technique pr´esent´ee ne n´ecessite pas de mesure durant la transition. Seules les conditions initiales (ou une sous partie) est n´ecessaire. L’inconv´enient est li´e ` a toute commande en boucle ouverte, au sens o` u si le mod`ele n’adh`ere pas exactement `a la r´ealit´e, une d´erive par rapport au comportement d´esir´e durant et apr`es la transition peut alors ˆetre observ´e. Il n’y a pas de m´ecanisme de compensation prenant en compte une ´eventuelle erreur entre le comportement d´esir´e et celui r´eellement observ´e. Paradoxalement, cet inconv´enient peut ´egalement devenir un avantage lorsque le syst`eme est soumis `a une classe de perturbation de ces param`etres entre le mod`ele de repr´esentation utilis´e pour la commande et celui du syst`eme a commander. Par exemple, un frottement visqueux surmod´elis´e peut ˆetre ` compens´e par retour entraˆınant la pr´esence d’une boucle `a r´etro-action positive. Ceci est illustr´e dans l’exercice 7.3.
7.7 Commande d’une chaˆıne d’int´egrateurs
229
Exercices 7.1. Bille sur la barre : lin´ earisation entr´ ee-sortie. En consid´erant le mod`ele dynamique (7.65-7.68) de la bille qui roule sur la barre : dynamique ! interne dynamique ! z´eros (i) D´eriver la sortie y = r = x1 jusqu’` a ce que l’entr´ee u apparaisse. On suppose que les conditions initiales sont telles que x1 (0) 6= 0 et x4 (0) 6= 0. (ii) Calculer la dynamique interne lorsque la position de la bille y = r = x1 est r´egul´ee ` a z´ero par l’interm´ediaire de la r´egulation de la chaˆıne d’int´egrateurs obtenus sous (i). La dynamique interne comporte comme entr´ee la sortie y ainsi qu’un nombre fini de ses d´eriv´ees y, ˙ . . ., y (p) . Elle est constitu´ee par les ´etats rendus inobservables par le bouclage r´egularisant la chaˆıne d’int´egrateurs obtenus en (i). Est-ce que cette dynamique est globalement stable ? (Traiter y et ses d´eriv´ees comme des param`etres.) (iii) Calculer la dynamique des z´eros. (Il suffit de remplacer y = y˙ = . . . y (p) = 0 dans l’´equation de la dynamique interne.) V´erifier le type de stabilit´e de cette dynamique. (iv) N´egliger le premier terme ax1 x24 de la seconde ´equation (7.66) pour le mod`ele de commande, et r´ep´eter la mˆeme d´emarche qu’en (ii). Il s’agit de temporairement n´egliger le terme dans le mod`ele du syst`eme utilis´e pour synth´etiser le contrˆ oleur tout en gardant le terme pour simuler le syst`eme `a commander. (v) Stabiliser la chaˆıne d’int´egrateurs r´esultante. (vi) Appliquer le sch´ema de commande obtenu sur le syst`eme complet (c.-` a-d. sans n´egliger le terme ax1 x24 ). (vii) Simuler le syst`eme complet. (viii) D’apr`es vous, est-ce que le syst`eme est localement asymptotiquement stable ? Est-il localement exponentiellement stable ? Est-il globalement asymptotiquement stable ? 7.2. Toycopter1 . Soit le mod`ele r´eduit dont le sch´ema de principe est repr´esent´e ` a la figure 7.4. (i) Montrer que le lagrangien de ce syst`eme s’´ecrit 1 1 1 ˙ m L = + Iφ φ˙ 2 + Ic sin2 ψ φ˙ 2 + Iψ ψ˙ 2 + Im1 sin ψ φω 2 2 2 1 2 ˙ r + 1 Ir1 ω 2 − Gs cos ψ + Ir1 ψω + Im1 ωm r 2 2 + Gc sin ψ. 1
(7.73)
Cet exercice est une adapation des papiers de Ph. Mullhaupt, B. Srinivasan, J. L´evine, et D. Bonvin A Toy More Difficult to Control Than the Real Thing, Proc. European Control Conference, Brussels, 1997, et Cascade Control of the Toycopter, Proc. European Control Conference, Karslruhe, 1999.
230
7 Commande par lin´earisation
ψ
ωr
ωm
φ
Fig. 7.4. Sch´ema du Toycopter avec ces coordonn´ees. Deux moteurs entraˆınes des vitesses de rotation des pales variables ωm et ωr permettant au Toycopter de se d´eplacer sur une sph`ere de latitude ψ et de longitude φ.
o` u Gc et Gs sont des param`etres li´ees `a la position du centre de masse (i.e. v´erifier ´egalement la relation de ces param`etres `a la position r´eelle du centre de masse). Ic est un param`etre inertiel dˆ u `a la difference d’inertie autour de l’axe φ en fonction de la position angulaire ψ. Im1 et Ir1 sont les inerties des syst`emes rotors et pales (principal et secondaire respectivement). (ii) On suppose que les forces a´erodynamiques sont proportionnels `a la vitesses des h´elices (en r´ealit´e elles ´evoluent en fonction du carr´e de celles-ci). Les h´elices sont entraˆın´ees par des moteurs `a courant continu. Les coefficients respectifs sont Cm pour l’h´elice principale et Cr pour l’h´elice arri`ere. L’effet de sol est n´eglig´e. Il y a ´egalement du frottement visqueux le long des deux axes φ et ψ (coefficients Cφ et Cψ ). V´erifier que les forces g´en´eralis´ees s’´ecrivent : Fψ = Cm ωm − Cψ ψ˙ Fφ = Cr ωr − Cφ φ˙
Fρm = Km um − Fm ωm Fρr = Kr ur − Fr ωr (iii) Montrer que la dynamique est donn´ee par les ´equations Iψ ψ¨ + Ir ω˙ r = Cm ωm − Cψ ψ˙
+Gs sin ψ + Gc cos ψ 1 + Ic φ˙ 2 sin(2ψ) + Im ωm φ˙ cos ψ 2
(Iφ + Ic sin2 (ψ))φ¨ + Im ω˙ m sin ψ = Cr ωr | ωr | sin ψ − Cm1 ωm | ωm | sin ψ −Ic ψ˙ φ˙ sin(2ψ) − Im ωm ψ˙ cos ψ − Cφ φ˙
(7.74)
ω˙ m = vm
(7.75) (7.76)
ω˙ r = vr
(7.77)
7.7 Commande d’une chaˆıne d’int´egrateurs
231
(iv) En utilisant les sorties y1 = ψ et y2 = φ, d´eriver celles-ci jusqu’` a l’apparition des entr´ees vm et vr . Stabiliser les chaˆınes d’int´egrateurs r´esultantes ¯ Calculer la dynamique interne et v´erifier pour atteindre une consigne ψ¯ et φ. la stabilit´e de celle-ci. (v) De mani`ere similaire `a l’exercice 7.1, on n´eglige les termes Ir ω˙ r et Im ω˙ m sin ψ pour synth´etiser la loi de commande tout en les conservant dans le mod`ele pour la simulation. Proc´eder alors comme en (iv) et simuler le syst`eme r´esultant. 7.3. Consid´ erations de robustesse. Soit un moteur ´electrique d’´equation θ¨ = −k θ˙ + u o` u la force ´electromotrice et le frottement visqueux sont repr´esent´e par la constante k. Les inerties et autres constantes de couple ont ´et´e normalis´ee. (i) Transformer le mod`ele en une chaˆıne d’int´egrateurs. (ii) Synth´etiser une loi stabilisant la chaˆıne d’int´egrateurs `a la position θ¯ = π2 . Chosir les gains de telle sorte `a stabiliser `a 99 % de la consigne apr`es 1 s. (iii) Choisir une loi de commande en boucle ouverte d´epla¸cant la position angulaire de l’´etat initial au repos en θ = 0 vers l’angle final θ¯ = π2 . (iv) R´epeter les deux techniques pr´ec´edentes dans le cas k¯ = 1.1k et k¯ = 0.9k. k¯ est la valeur du vrai syst`eme et k celle utilis´ee pour synth´etiser la loi de commande. Simuler et discuter les r´esultats obtenus. (v) Imaginer une m´ethode qui puisse tenir compte des avantages des deux m´ethodes en limitant leurs inconv´enients. 7.4. Table de positionnement. On reconsid`ere la table de positionnement de l’exemple de la section 7.4.1, mais uniquement avec la technique de commande en boucle ouverte. (i) Trouver une param´etrisation polynomiale de la sortie plate afin de faire d´eplacer la table d’une position d’´equilibre vers une autre en 1 s. (ii) D´eterminer la commande en boucle ouverte r´esultante et simuler le syst`eme. (iii) Discuter du transitoire en fonction de la position `a atteindre et du temps de transition.
8 Commande par les m´ ethodes de Lyapunov
8.1 Introduction Dans le chapitre 4, la notion de la stabilit´e a ´et´e pr´esent´ee avec des conditions permettant de la garantir. Par exemple, une fonction d´efinie positive est associ´ee au syst`eme, appel´ee candidat de Lyapunov. Lorsque la valeur de cette fonction d´ecroit le long des solutions de l’´equation diff´erentielle repr´esentant le syst`eme, la stabilit´e est garantie, et le candidat devient une fonction de Lyapunov. Cette m´ethode de Lyapunov peut ˆetre ´egalement utilis´ee pour synth´etiser une commande. Lorsque l’entr´ee u du syst`eme x˙ = f (x, u) n’est pas sp´ecifi´ee, nous avons des degr´es de libert´e suppl´ementaires pour constituer a` la fois la fonction V (x) et la loi de commande non lin´eaire u = k(x). Dans le cas de l’analyse, le choix est plus restreint ´etant donn´e que seul V (x) doit ˆetre d´etermin´e, l’acc`es `a l’entr´ee ´etant absent puisque le syst`eme s’´ecrit x˙ = f (x). Ce chapitre introduit la conception utilisant la m´ethode de Lyapunov dans le cas particulier d’une synth`ese en cascade. Une cascade est la r´eunion de deux sous-syst`emes qui s’influencent l’un l’autre. Ainsi en quelque sorte, tout syst`eme comportant plus que deux ´etats est une cascade. Toutefois, nous mettrons l’accent sur les syst`emes o` u une partie de l’´etat ´evolue de mani`ere ind´ependante par rapport ` a une autre partie. Cette derni`ere, par contre, subit l’influence de la premi`ere, un peu comme une cascade d’eau lorsqu’elle se fragmente en sous-parties, la partie du haut ´evoluant de mani`ere ind´ependante de celle du bas. Pour commencer, nous ´etudions les propri´et´es de stabilit´e `a la fois locale et globale de la mise en cascade de deux syst`emes individuellement stables. Puis nous exploitons la propri´et´e de passivit´e, qui, comme nous l’avons d´ej` a vu au chapitre ??, se pr´eserve apr`es connexion en parall`ele et en r´etroaction.
234
8 Commande par les m´ethodes de Lyapunov
Finalement, la m´ethode dite du backstepping est pr´esent´ee. Une fonction de Lyapunov est d’abord construite pour un syst`eme r´eduit obtenu lorsque un des ´etat est consid´er´e comme une entr´ee directe. Le syst`eme est r´eduit car la d´eriv´ee de cet ´etat est momentan´ement pas prise en compte. A partir de la fonction de Lyapunov associ´ee au syst`eme r´eduit, l’influence de la dynamique associ´ee ` a l’´etat manquant est alors pris en compte en augmentant la fonction de Lyapunov par une erreur quadratique entre la valeur id´eale de cet ´etat et sa valeur r´eelle. En d´erivant cette nouvelle fonction de Lyapunov et en la for¸cant a ˆetre n´egative, on aboutit ` ` a une loi de commande pour le syst`eme complet. Cette m´ethode dite du backstepping permet de construire une fonction de Lyapunov de deux variables (une pour chaque partie de la cascade) `a partir d’une fonction de Lyapunov d’une sous-partie de la cascade.
8.2 Fonction de Lyapunov de Commande Commen¸cons par consid´erer un syst`eme ayant une entr´ee u et dont l’´etat x est consid´er´e sans distinction de groupe de variables. En toute g´en´eralit´e, le syst`eme s’´ecrit x˙ = f (x, u).
(8.1)
Pour trouver la commande selon la m´ethode de Lyapunov, il s’agit de trouver une fonction d´efinie positive V (x) et une loi de commande u = k(x) de telle sorte qu’en rempla¸cant la loi de commande dans l’expression (8.1), x˙ = f (x) + g(x)k(x) = f˜(x), il soit possible de trouver une fonction de Lyapunov V (x), c.-`a-d., V (x) > 0 Lf˜V (x) < 0
x 6= 0
Pour trouver V (x), il est possible d’utiliser une des m´ethode d´ecrite dans la partie Analyse de cet ouvrage, comme par exemple la m´ethode de Krasovskii ou la m´ethode des gradients variables. Toutefois, une difficult´e (ou une facilit´e selon le cas) suppl´ementaire apparaˆıt, ´etant donn´e qu’il est possible de modifier la loi de commande et donc de changer f˜(x) afin que Lf˜V ait de meilleures propri´et´es.
8.3 Structure cascade Construire une fonction de Lyapunov pour tout l’´etat x est une tˆ ache parfois tr`es difficile. C’est pourquoi, il est souvent plus judicieux de s´eparer la construction en tirant avantage de la structure du syst`eme `a commander.
8.3 Structure cascade
235
L’objectif est de faire apparaˆıtre une structure emboˆıt´ee, ou cascade. Par exemple, z˙ = f (z) + ψ(z, ξ) ξ˙ = a(ξ, u)
(8.2) (8.3)
s´epare l’´etat en deux contributions, z et ξ. Lorsque les deux sous-syst`emes, consid´er´es s´epar´ement, z˙ = f (z) et ξ˙ = a(ξ, u) sont stables, alors leur r´eunion par le terme d’interconnexion non lin´eaire ψ(z, ξ) est ´egalement localement stable. Ainsi, on peut ` a l’aide de l’entr´ee u stabiliser uniquement la partie du bas (´etat ξ) afin de stabiliser l’ensemble de la cascade (8.2) et (8.3). Le r´esultat est le suivant : Th´ eor` eme 8.1. On suppose que le terme de couplage non-lin´eaire ψ(z, ξ) est tel que ψ(z, 0) = 0. Si z = 0 est un point d’´equilibre asymptotiquemet stable de z˙ = f (z), alors n’importe quel retour partiel de l’´etat u = k(ξ) rendant l’´equilibre du sous-syst`eme (8.3) ξ = 0 asymptotiquement stable, rend ´egalement l’ensemble de la cascade (8.2-8.3) localement asymptotiquement stable. Preuve. Soit U (ξ) une fonction de Lyapunov pour le sous-syst`eme ξ˙ = a(ξ, k(ξ)). Ceci signifie ´egalement que V (z, ξ) = U (ξ) est une fonction semid´efinie positive pour l’ensemble de la cascade. Maintenant, la stabilit´e du point d’´equilibre complet z = 0 et ξ = 0 suit du th´eor`eme de stabilit´e conditionnel, parce que ce point d’´equilibre est conditionnellement stable `a l’ensemble {z, ξ|V (z, ξ) = 0} = {z, ξ|ξ = 0}. La stabilit´e conditionnelle revient `a restreindre les choix de la boule d’exigence et de celle des conditions initiales `a l’intersection entre celles-ci et l’ensemble en question. Les r´esultats de stabilit´e de LaSalle s’adapte mutatis mutandis. Soit Ωz la r´egion d’attraction de la dynamique z˙ = f (z) et Ωξ , celle de la dynamique ξ˙ = a(ξ, k(ξ)). Etant donn´e que l’´equilibre complet est stable, il existe un voisinage Ω tel que toute solution z(t), ξ(t) commen¸cant dans Ω est born´ee et demeure dans Ωz × Ωξ pour tout instant du temps t ≥ 0. Lorsque t → ∞, ξ(t) → 0 de telle sorte que z(t), ξ(t) convergent vers le plus grand ensemble invariant de z˙ = f (z) compris dans Ωz × {0}, qui n’est rien d’autre que le point d’´equilibre complet z = 0, ξ = 0, d´emontrant ainsi la stabilit´e asymptotique. Dans une structure cascade, il n’est pas toujours possible d’atteindre une stabilit´e globale, bien que les sous-syst`emes soient globalement stables. Toutefois, il est souvent possible d’atteindre une r´egion de stabilit´e aussi grande que l’on veut, par un choix judicieux de la loi de commande. C’est le concept de stabilit´e semi-globale.
236
8 Commande par les m´ethodes de Lyapunov
D´ efinition 8.2. Un syst`eme x˙ = f (x, u) est dit semi-globalement stabilisable, s’il est possible, pour tout ensemble compact aussi large que possible Ω de trouver une loi de commande u = k(x) telle que le syst`eme x˙ = f (x, k(x)) poss`ede un bassin d’attraction qui contient Ω. Exemple 8.3. Le syst`eme avec z ∈ R et ξ ∈ R, z˙ = −z + ξz 2 ξ˙ = u munit de la loi de commande u = −kξ, k > 0, garantit la stabilit´e asymptotique de (z, ξ) = (0, 0). La r´egion d’attraction peut alors ˆetre estim´ee `a l’aide de la fonction de Lyapunov V = z 2 + ξ 2 . La d´eriv´ee, 2 −z 2 z (8.4) V˙ = −2(z 2 + kξ 2 − ξz 3 ) = − z ξ −z 2 2k ξ √ est n´egative pour z 2 < 2 k. Par cons´equent, une estim´ee de la r´egion d’attraction est alors donn´ee par la condition que V˙ < 0, ce qui signifie que le 2 gain k devrait ˆetre choisit telle que k > c4 . Ainsi, il est toujours possible de rendre aussi grand que l’on d´esire la r´egion d’attraction, ` a condition d’augmenter suffisamment le gain k. Cependant, il n’est pas possible de stabiliser globalement un tel syst`eme. Prenons par exemple z = σ1 , ce qui transforme l’´equation non lin´eaire z˙ = −z +ξz 2 en σ˙ = σ −ξ. C’est une ´equation du premier ordre avec comme entr´ee la variable ξ. La formule R t g´en´erale pour la solution explicite de x˙ = Ax + Bu donne x(t) = x0 eAt + 0 eA(t−τ ) Bu(τ )dτ . Dans notre cas A est un scalaire ´egal a −1, u(t) correspond ` ` a ξ(t) (´egalement un scalaire) et B = 1. En cons´equence, Z t −t et−τ ξ(τ )dτ. σ(t) = σ(0)e + 0
Il est important de comprendre que l’on consid`ere l’entr´ee ξ(t) comme l’entr´ee u du sous syst`eme dont l’´etat est z. En revenant dans la variable z, z(t) =
1 z(0)
e−t . Rt − 0 e−τ ξ(τ )dτ
Nous rencontrons le ph´enom`ene d´ej` a esquiss´e dans le premier chapitre concernant les propri´et´es des syst`emes non lin´eaires, `a savoir que lorsque z(0) > R ∞ −τ −1 e ξ(τ )dτ le d´enominateur finit par s’annuler `a un instant fini condui0 sant z ` a devenir infini en un temps fini : C’est une explosion en temps fini empˆechant le syst`eme de converger ult´erieurement. Le transitoire de z est devenu trop grand par rapport `a sa tendance naturelle de d´ecroˆıtre en absence
8.3 Structure cascade
237
d’excitation cr´ee par ξ. Ce ph´enom`ene exclu ainsi des conditions initiales du bassin d’attraction. La limitation du bassin d’attraction, malgr´e la stabilit´e des deux soussyst`emes z et ξ pris isol´ement, est li´ee au mauvais transitoire qui est en quelque sorte amplifi´e par le terme de couplage entre les deux sous-syst`emes. Par cons´equent, il est possible de limiter cet effet en choisissant comme sous-syst`emes ceux qui sont coupl´es de mani`ere `a ne pas engendrer une telle sur-sensibilit´e au transitoire. Dans l’exemple pr´ec´edent, le terme de couplage comporte ξ multipli´e par z 2 . C’est l’apparition du facteur au carr´e qui cr´ee des difficult´es. De plus, il faut ´egalement veiller `a ne pas prendre comme variable ξ une variable ayant de mauvaises caract´eristiques transitoires. Ces deux ´el´ements, ` a savoir la nature du couplage et la nature de la variable ξ sont maintenant ´etudi´es plus en d´etail. Il s’agit de d´eterminer des conditions favorables ` a la stabilisation globale des deux sous-syst`emes r´eunis. 8.3.1 Restriction de la croissance du terme de couplage En g´en´eral, comme la fontion de Lyapunov `a tendance `a croˆıtre de mani`ere monotone lorsque l’´etat s’´eloigne de la valeur d’´equilibre, il est utile de distinguer cette classe de syst`emes par rapport `a cette propri´et´e. Cependant, cette croissance peut ob´eir ` a une loi compliqu´ee. C’est pourquoi nous introduisons une fa¸con de caract´eriser celle-ci sans pour autant entrer dans le fin d´etail de savoir exactement comment cette fonction augmente. Nous estimons la croissance en d´esignant les fonctions de classe K. D´ efinition 8.4. Une fonction γ(.) : R+ → R+ est dite de classe K si elle est continue, strictement croissante et s’annule pour la valeur nulle, c.-` a-d. γ(0) = 0. A l’aide de cette d´efinition nous pouvons donner une hypoth`ese concernant la croissance du terme de couplage ψ(z, ξ) apparaissant dans (8.2). D´ efinition 8.5. (croissance du terme d’interconnexion) La fonction ψ(z, ξ) est de croissance lin´eaire en z s’il existe deux fonctions de classe K, disons γ1 (.) et γ2 (.), diff´erentiable en ξ = 0 et telles que kψ(z, ξ)k ≤ γ1 (kξk)kzk + γ2 (kξk). A l’aide de cette d´efinition nous pouvons ´etablir la condition pour que la stabilit´e globale aie lieue : Th´ eor` eme 8.6. Supposons que le terme de croissance soit conforme a ` la definition 8.5. Supposons ´egalement que la lin´earisation locale (A, B) de ξ˙ = a(ξ, u) au point ξ = 0 soit stabilisable. Soit k(ξ) une loi de commande
238
8 Commande par les m´ethodes de Lyapunov
continue qui rende le point ξ = 0 de ξ˙ = a(ξ, k(ξ)) globalement asymptotiquement stable et localement exponentiellement stable. Maintenant, s’il existe une fonction W (z) semi-d´efinie positive et radialement non born´ee, ainsi que des constantes c et M telles que pour tout kzk > M on ait : 1. Lf W (z) ≤ 0; 2. k ∂W ∂z kkzk ≤ cW (z) alors la loi de commande u = k(ξ) garantit que toutes les solutions de (8.2-8.3) restent born´ees. Si par ailleurs, z˙ = f (z) est globalement asymptotiquement stable, alors la loi de commande u = k(ξ) rend le point d’´equilibre complet (z, ξ) = (0, 0) globalement asymptotiquement stable. Preuve. Soit z(0) et ξ(0) des conditions initiales arbitraires. Les deux propri´et´es 1. et 2. Ainsi que l’hypoth`ese sur la nature de l’interconnexion entraˆıne : ˙ = Lf W + Lψ W ≤ k ∂W kψk W ∂z W ≤ k k(γ1 (kξk) + γ2 (kξk)kzk z D’autre part, ´etant donn´e que le point d’´equilibre ξ = 0 de ξ˙ = a(ξ, k(ξ)) est localement exponentiellement stable, il est garantit qu’il existe une constante α et une fonction γ de classe K telles que ˙ (z(t)) ≤ k ∂W k(γkξ(0)k)e−αt (1 + kz(t)k) W ∂z ∂W kkz(t)k(γkξ(0)k)e−αt, ∀kz(t)k ≥ 1 ≤k ∂z En faisant usage de la propri´et´e 2., Il existe une fonction K1 (.) de classe K telle que pour z suffisament petit (c.-`a-d. kz(t)k > max{1, M }), l’estim´ee ˙ ≤ K1 (kξ(0)k)e−αt W W est vraie. Ceci d´emontre la bornitude de W ´etant donn´e qu‘il est ´egalement vrai que W (z(t)) ≤ W (z(0))e
Rτ 0
K1 (kξ(0)k)e−ατ dτ ≤ K(kξ(0)k)
pour une certaine fonction K de classe K. Puisque W (z) est radialement non born´ee, la bornitude de kzk est garantie. Finalement, si z˙ = f (z) est globalement asymptotiquement stable, cette mˆeme propri´et´e s’applique au point d’´equilibre complet z = 0, ξ = 0, `a cause du th´eor`eme ??. Etonnament, et surtout malheureusement, la croissance lin´eaire du terme de couplage (selon la D´efinition 8.5), coupl´e avec la d´ecroissance exponentielle, ne sont pas suffisants pour empˆecher la d´estabilisation du sous-syst`eme z, comme va l’illustrer l’exemple suivant.
8.3 Structure cascade
239
Exemple 8.7. Le syst`eme z˙1 = −z1 + z2 ξ
z˙2 = −z2 + z12 z2 ξ˙ = u
Bien que satisfaisant les hypoth`eses croissance lin´eaire du terme d’interconnexion (celui-ci est donn´e par z2 ξ pour la premi`ere ´equation et 0 sur la seconde) ainsi que de stabilisabilit´e exponentielle du sous-syst`eme ξ, ne peut pas ˆetre globalement stabilis´e. Pour expliquer ce ph´enom`ene quelque peu paradoxal, remarquons, pour commencer, que le sous syst`eme z˙1 = −z1
z˙2 = (−1 + z12 )z2
est bien globalement stable, ´etant donn´e que 2
W (z) = z12 + z22 ez1
est une fonction de Lyapunov radialement non born´ee. En effet, un calcul imm´ediat donne ˙ (z) = −2W (z). W Cependant, et c’est l`a que le paradoxe est lev´e, la condition 2. du th´eor`eme 2 n’est pas satisfaite ` a cause du facteur de croissance tr`es rapide ez1 . Pour montrer que ceci engendre la perte de la stabilit´e globale, consid´erons une condition initiale ξ(0) > 0 de telle sorte que pour tout t ≥ 0, ξ(t) ≥ 0. ˙ Comme la loi de commande k(ξ) est suppos´e diff´erentiable, ξ(t) ≥ Cξ(t) pour une certaine constante positive C > 0. Maintenant, consid´erons une condition initiale z2 (0) > 0 de telle sorte que pour autant que z12 (t) > C + 2 la relation z˙2 ≥ (C + 1)z2 (t) est valable. En combinant ces deux estimations, nous obtenons que sous la condition z1 (t)2 ≥ C + 2 il est ´egalement vrai que d (z2 ξ) ≥ (C + 1)z2 ξ − Cz2 ξ = z2 ξ. dt √ Finalement, en choisissant z2 (0)ξ(0) > z1 (0) > C + 2, il est garantit que la condition initiale z˙1 (0) > 0. Mais z˙1 (t) croˆıt au cours du temps `a cause de z¨1 (t) =
d (z2 ξ − z1 ) − Cz2 ξ = z2 ξ. dt
Comme ξ(t) converge vers z´ero tout en demeurant positif, cela induit z2 (t) `a devenir non-born´e.
240
8 Commande par les m´ethodes de Lyapunov
Cet exemple insiste sur l’importance de la structure de la fonction de Lyapunov. Non seulement le type de croissance est important pour le terme d’interconnexion entre les deux sous syst`emes isol´ement stable, mais il est ´egalement tout aussi important dans la mani`ere dont la fonction de Lyapunov croˆıt en s’´ecartant de l’´equilibre. Si cette croissance est trop rapide, alors il est possible de la faire d´ecroˆıtre beaucoup dans une petite r´egion de l’espace d’´etat, encourageant l’apparition d’explosion en temps fini. Les r´esultats pr´ec´edents reposent sur la d´ecroissance exponentielle de ξ. Au lieu de cette condition, le concept de stabilit´e entr´ee-´etat est introduit. Consid´erons le sous-syst`eme z˙ = f (z) + ψ(z, ξ). L’id´ee derri`ere ce nouveau concept de stabilit´e est d’exiger que toute solution z de cette ´equation diff´erentielle reste born´ee lorsque la variable ξ (consid´er´ee comme une entr´ee) converge vers z´ero. Cette propri´et´e est suffisante pour garantir la stabilit´e asymptotique globale de l’´equilibre complet z = 0 ξ = 0 lorsque z˙ = f (z) est globalement asymptotiquement stable. D´ efinition 8.8. Le syst`eme x˙ = f (x, u) est stable entr´ee-´etat s’il existe une fonction d´ecroisante β et une fonction de classe K telle que pour toute entr´ee born´ee u(.) et chaque condition initiale x(0) la solution x(t) existe pour tout t ≥ 0 et est born´ee par kz(t)k ≤ β(kz(0)k, t) + γ( sup kξ(τ )k) 0≤τ ≤t
En quelque sorte, on ´elimine d’entr´ee la possibilit´e d’avoir des explosions en temps fini. Cette d´efinition serait assez inutile s’il n’y avait pas de moyens de la d´eterminer de mani`ere indirecte. Le premier r´esultat dans cette direction assure que cette d´efinition est respect´ee dans la cas o` u la fonction de Lyapunov ne croˆıt pas trop vite. Le second permet de charact´eriser la propri´et´e de stabilit´e entr´ee-´etat par l’interm´ediaire d’une nouvelle fonction de type Lyapunov que l’on d´esigne par le nom de fonction de Lyapunov entr´ee-´etat. Lemme 8.9. On suppose que le terme de couplage est lin´eaire en z et que le syst`eme z˙ = f (z) est globalement asymptotiquement stable avec comme fonction de Lyapunov W (z) satisfaisant la condition de croissance ∂W k ≤ α3 kzk z Lf W ≤ −α4 W (z), αi > 0, i = 2, . . . , 4.
α1 kzk2 ≤ W (z) ≤ α2 kzk2,
k
Sous ces conditions, la solution z(t) de (8.2) est born´ee et converge vers z´ero pour tout ξ(t) convergeant vers z´ero.
8.3 Structure cascade
241
Preuve. Le long des solutions de (8.2),nous avons ˙ (z) ≤ −α4 W (z)2α3 kzkkψ(z, ξ) W pour une certaine fonction de classe K, de telle sorte ˙ (z) ≤ (−α4 + α3 γ(kξk))W (z). W α1 Ceci d´emontre que W (z(t)) existe pour tout t ≥ 0. De plus, puisque ξ(t) converge vers z´ero, il existe un temps fini apr`es lequel ˙ (z) ≤ 1 α4 W (z), W 2 Conduisant ` a ce que z demeure born´e et converge exponentiellement vers 0. On se tourne maintenant vers le deuxi`eme r´esultat concernant la caract´erisation de la propri´et´e de stabilit´e entr´ee-´etat. Th´ eor` eme 8.10. Le syst`eme x˙ = f (x, u) est stable entr´ee-´etat a ` condition qu’il existe une fonction radialement non born´ee W (z) telle que kxk ≥ χ1 (kuk) ⇒
∂w f (x, u) ≤ −χ2 (kxk), ∂x
o` u χ1 et χ2 sont des fonctions de classe K. D´ efinition 8.11. La fonction W (z) satisfaisant aux hypoth`eses du th´eor`eme pr´ec´edent 8.10 est appel´ee une fonction de Lyapunov entr´ee-´etat. Un corollaire imm´ediat de ceci est : Corollaire 8.12. Si le syst`eme z˙ = f (z) + ψ(z, ξ) est stable entr´ee-´etat avec ξ pour entr´ee, et que, d’une part, le syst`eme z˙ = f (z) est globgalement asymptotiquement stable et, d’autre part, qu’il existe un bouclage u = k(ξ) rendant ξ = 0 de ξ˙ = a(ξ, k(ξ)) globalement asymptotiquement stable, alors le bouclage en question rend ´egalement le point d’´equilibre complet de la cascade (8.2-8.3) globalement asymptotiquement stable. La d´emonstration de ces r´esultats sont expos´es dans le papier de E.D. Sontag et Y. Wang “On characterizations of the input-to-state stability property”, Systems & Control Letters, vol. 24, pp. 351-359, 1995. Nous terminons cette section par un exemple illustratif. Exemple 8.13. En prenant comme fonction de Lyapunov entr´ee-´etat W (z) = z2 eme 2 , le syst`
242
8 Commande par les m´ethodes de Lyapunov
z˙ = −z 3 + z 2 ξ ξ˙ = ξ 2 u est globalement asymptotiquement stable. En effet, ˙ = −z 4 + ξz 3 ≤ − 1 z 4 + 1 ξ 4 W 4 4 o` u la derni`ere in´egalit´e provient de l’homog´en´eisation du ”ballon de rugby”. W est donc bien une fonction de Lyapunov entr´ee-´etat. Pour de grand z, le terme stabilisant −z 3 dans la cascade domine le terme de perturbation z 2 ξ et le bouclage u = −ξ conduit toute la cascade `a ˆetre globalement asymptotiquement stable, mˆeme si la convergence de ξ vers z´ero n’est pas exponentielle.
8.4 Passivation Dans la section pr´ec´edente, nous avons explicitement admis une d´ecomposition en sous-syst`emes individuellement globalement asymptotiquement stables ou stabilisables. Or, imposer de telles propri´et´es aux sous-syst`emes composant le syst`eme d’origine limite quelque peu les possibilit´es de synth`ese des lois de commande. En effet, il est nullement indiqu´e comment forcer un syst`eme donn´e a priori ` a admettre une telle d´ecomposition. Toutefois, l’analyse effectu´ee a soulign´e l’importance de consid´erer attentivement la mani`ere dont la cascade r´esultante est connect´ee, mˆeme lorsque les propri´et´es de stabilit´e individuelle sont garanties. Conform´ement ` a cette optique, consid´erer de bonnes propri´et´es des syst`emes isol´es pour garantir la stabilit´e du syst`eme complet est une excellente fa¸con de proc´eder pour construire des lois de commandes globales `a partir d’une d´ecomposition en sous-syst`emes. Par exemple, le chapitre 5 a montr´e que deux syst`emes passifs interconnect´es demeurent passifs. De plus, les syst`emes passifs ont une excellente propri´et´e pour la stabilisation. En effet, un bouclage par un gain n´egatif de leur sortie sur leur entr´ee conduit ` a une stabilit´e garantie, `a condition que l’´etat nul soit d´etectable. D´ efinition 8.14. L’´etat nul d´etectable signifie que lorsque la sortie d’un syst`eme x˙ = f (x), y = h(x) est nulle sur un interval de temps fini, alors l’´etat x est nul n´ecessairement. Th´ eor` eme 8.15. Soit x˙ = f (x, u) y = h(x) un syst`eme passif avec comme fonction de stockage interne V (x) et comme point d’´equilibre x ¯ = 0, u ¯ = 0 (c.-` a-d. 0 = f (0, 0)). Si le syst`eme est z´ero
8.4 Passivation
243
d´etectable, alors le bouclage u = −y assure la stabilit´e asymptotique du syst`eme. Si la fonction V (x) est radialement non born´ee, alors la stabilit´e asymptotique est globale. Preuve. La passivit´e garantit V˙ = uy − g(x) avec g(x) > 0. Comme y = −u par le choix du bouclage, V˙ = −uT u − g(x) ≤ 0, de telle sorte qu’il est possible d’appliquer le th´eor`eme d’invariance de LaSalle. L’ensemble R = {x | V˙ (x) = 0} est alors celui pour lequel −y T y−g(x) = 0. Il faut donc simultan´ement g(x) = 0 et y T y = 0. Le plus grand invariant contenu dans cet ensemble doit donc satisfaire y T y = 0 pour tout temps. Or, l’hypoth`ese de d´etectabilit´e implique que si la sortie est nulle sur un interval de temps fini, alors l’´etat x est n´ecessairement nul. Par cons´equent, l’ensemble invariant M inclu dans R est l’origine x = 0, et la stabilit´e est d´emontr´ee. La stabilit´e globale suit de l’hypoth`ese de non bornitude radiale de V (x). A l’aide de ce th´eor`eme, il est possible de stabiliser un syst`eme comportant une d´ecomposition en deux syst`emes passifs interconnect´es. L’interconnexion consiste en une succession de boucles et de connexion parall`ele pr´eservant la passivit´e (voir section ??). Le grand avantage de l’utilisation de la passivit´e est que la restriction du taux de croissance du terme d’interconnexion n’est plus n´ecessaire (contrairement ` a la cascade simple comme nous l’avons vu `a la section 8.3.1). De plus l’hypoth`ese de stabilit´e asymptotique globale du sous-syst`eme z˙ = f (z) est remplac´e par la stabilit´e globale simple (non n´ecessairement asymptotique). Pour le voir, commen¸cons par examiner le syst`eme z˙ = f (z) + ψ(z, ξ) ξ˙ = Aξ + Bu. Afin de faire apparaˆıtre deux syst`emes passifs interconnect´es, le terme de couplage ψ(z, ξ) est ` a nouveau factoris´e, mais en faisant apparaˆıtre le facteur Cξ ˜ ξ)Cξ ψ(z, ξ) = ψ(z, (8.5) Cette factorisation permet d’identifier un block lin´eaire dont la fonction de transfert est G1 (s) = C(sI − A)−1 B. Pour que ce syst`eme soit passif, il suffit que la fonction de transfert G1 (s) soit positive r´eelle (la r´eponse harmonique G( jω) doit ˆetre `a partie r´eelle positive), comme nous l’avons vu au chapitre sur la passivit´e.
244
8 Commande par les m´ethodes de Lyapunov
Quand au second block, il est d´ecrit par l’´equation diff´erentielle ˜ ξ)u2 , z˙ = f (z)ψ(z, avec commen entr´ee u2 = y1 = Cξ; la sortie y2 restant encore ` a ˆetre d´efinie pour garantir la passivit´e. Cette sortie y2 = h2 (z, ξ) doit ˆetre choisie afin qu’une fonction de stockage interne existe. En prenant la fonction de Lyapunov W (z) (associ´ee au sous-syst`eme z) comme fonction de stockage, il suffit de garantir ˜ ξ)y1 ) ≤ y T u2 . ˙ = ∂W (f (z) + ψ(z, (8.6) W 2 ∂z Comme Lf W ≤ 0, la relation (8.6) ci-dessus est satisfaite `a condition que T ∂W T T ˜ . y2 = h2 (z, ξ) := (Lψ˜ W ) (z, ξ) = ψ ∂z Ce choix de sortie garantit ainsi la passivit´e du deuxi`eme block de la cascade. Finalement, le bouclage sur le syst`eme initial u = −h2 (z, ξ) + v garantit que le syst`eme complet vu depuis la nouvelle entr´ee v et la sortie y1 est passif. En posant v = −y1 l’ensemble de la cascade est stabilis´ee. La construction ci-dessus n’est pas limit´ee au cas o` u la dynamique en ξ est lin´eaire, et nous avons le r´esultat suivant : Th´ eor` eme 8.16. Soit la cascade z˙ = f (z) + ψ(z, ξ) ξ˙ = a(ξ) + b(ξ)u
(8.7) (8.8)
avec z = 0 un point d’´equilibre globalement stable pour z˙ = f (z) de telle sorte qu’il existe un fonction de Lyapunov radialement non born´ee W (z) avec Lf W (z) ≤ 0. Supposons ´egalement qu’il existe une sortie ne d´ependant que de ξ, disons y = h(ξ) de telle sorte que 1. Le sous syst`eme ξ˙ = a(ξ) + b(ξ)u y = h(ξ)
(8.9) (8.10)
est passif avec comme fonction de stockage U (ξ), ´egalement radialement non born´ee.
8.4 Passivation
245
˜ ξ)ξ. 2. Le terme de connexion se factorise sous la forme ψ(z, ξ) = ψ(z, alors la cascade (8.7-8.8) peut ˆetre rendue passive par retour d’´etat donn´e par u = Lψ˜ W T (z, ξ) + v avec comme nouvelle entr´ee v et comme fonction de stockage V (z, ξ) = W (z) + U (ξ). De plus, si ce syst`eme est z´ero d´etectable par la sortie y = h(ξ), alors le bouclage v = −ky avec k > 0 garantit la stabilit´e globale asymptotique du point d’´equilibre (z, ξ) = (0, 0). Remarque 8.17. Il y a essentiellement deux conditions pour atteindre la stabilit´e globale 1. La connexion lin´eaire par le terme ψ(x, ξ), c.-`a-d. la possibilit´e de facto˜ ξ)ξ. riser ce terme sous la forme ψ(x, ξ) = ψ(x, 2. L’existence de deux fonctions de Lyapunov radialement non born´ee pour les deux sous-syst`emes. Remarque 8.18. La passivit´e poss`ede comme grand avantage sur les retours partiels d’´etat simple, de ne pas imposer de condition sur la croissance du terme de couplage. Remarquons ´egalement qu’il n’est pas exig´e que la partie du haut z˙ = f (z) soit asymptotiquement stable ; c’est uniquement la stabilit´e qui est n´ecessaire. Pour illustrer la derni`ere remarque, un exemple avec un terme de couplage ayant une croissance rapide est pr´esent´e. Exemple 8.19. Nous avons vu que l’exemple z˙ = −z + z 2 ξ ξ˙ = u n’est pas globalement stabilizable par retour partiel d’´etat `a cause de la croissance du terme de couplage z 2 ξ. Maintenant, en consid´erant la sortie y1 = ξ, un sous block G1 (s) passif est d´elimit´e. Ensuite, en posant W (z) = z 2 comme fonction de stockage, nous constatons que la premi`ere ´equation du mod`ele correspond ` a un syst`eme passif d’entr´ee u2 = ξ et de sortie y2 = z 3 . Ainsi, le bouclage u = −y2 + v = −z 3 + v transforme la cascade initiale en une connexion de deux syst`emes passifs. La propri´et´e de nulle d´etectabilit´e de la sortie est ´egalement satisfaite parce qu’`a l’int´erieur de l’ensemble y1 = ξ = 0, le syst`eme complet se r´eduit `a z˙ = −z. C’est pourquoi la loi de commande z = −ky1 (avec k > 0) rend l’ensemble de la cascade globalement asmptotiquement stable.
246
8 Commande par les m´ethodes de Lyapunov
Remarque 8.20. Bien que l’hypoth`ese de croissance du terme de couplage n’apparaˆıt plus dans le cas de l’utilisation de la passivit´e, des restrictions de structure sont n´eanmoins pr´esentes. En effet, la sortie des deux sous-syst`emes doit ˆetre de degr´e relatif au maximum de un et le sous-syst`eme entr´ee-sortie s´electionn´e doit ´egalement ˆetre `a phase minimale.
8.5 Ph´ enom` ene du peaking Que cel` a soit lors de l’utilisation de retours partiels, ou lors de l’exploitation de la propri´et´e de passivit´e, des limitations de structure sont pr´esentes. Elles sont associ´ees ` a certaines propri´et´es des sous-syst`emes envisag´es (stabilit´e, degr´e relatif, minimum de phase) et ´egalement `a la nature de l’interconnexion (type de croissance). Toutes ces limitations tirent leur origine essentiellement du ph´enom`ene de peaking que nous pr´esentons dans cette section. Ce ph´enom`ene a d´ej` a ´et´e esquiss´e pour illustrer l’importance du taux de croissance du terme d’interconnexion dans le cas des retours partiels. x˙ = −x + yx2
z˙1 = z2 z˙2 = u
y = c1 z 1 + c2 z 2 Ces ´equations repr´esentent un double int´egrateur (´etats z1 et z2 ) interconnect´e ` a un syst`eme exponentiellement stable (x˙ = −x) par le terme de connexion yx2 . Cet exemple est fortement inspir´e du mod`ele de la bille qui roule sur une barre o` u la force centrifuge est interpr´et´ee comme le terme d’interconnexion. Toutefois, contrairement `a ce mod`ele, o` u θ et θ˙ jouent le rˆole de z1 et z2 , la non-lin´earit´e yx2 contient la variable du haut x, alors que dans le cas de la bille sur le barreau, le terme rθ˙2 comporte une non-lin´earit´e sur ˙ la variable du bas θ. La variable interm´ediaire y est introduite afin de montrer l’influence des coefficients c1 et c2 sur l’effet du terme de connexion yz 2 sur la stabilit´e du syst`eme complet. Cette variable y peut ´egalement ˆetre interpr´et´ee comme une sortie permettant l’application de la th´eorie de la passivit´e. Lorsque y est maintenu constant `a une valeur non nulle, la premi`ere ´equation diff´erentielle x˙ = −x + yx2 devient tr`es similaire `a celle (1.2) analys´ee dans le chapitre introductif. Nous avons vu que pour certaines conditions initiales, le syst`eme explose en temps fini. Il est donc n´ecessaire d’´eviter si possible un tel ph´enom`ene. En effet, en faisant d´ecroˆıtre y convenablement par rapport `a l’´evolution de x, le coefficient devant le facteur x2 peut devenir suffisamment petit pour
8.5 Ph´enom`ene du peaking
247
que l’´etat x soit toujours du bon cˆ ot´e par rapport `a la s´eparation constat´ee sur la figure 1.2. Clairement, si y est forc´e `a une constante, il y aura toujours des conditions initiales pour lesquelles la trajectoire solution s’´echappera `a l’infini en un temps fini. La difficult´e d’augmenter le bassin d’attraction du point d’´equilibre provient essentiellement du probl`eme de peaking, `a savoir la possibilit´e que le transitoire de y ait une tendance `a s’amplifier en fonction des conditions initiales z1 (0) et z2 (0). Pour un syst`eme lin´eaire z˙ = Az + Bu, un gain K est choisit de telle sorte que u = −Kz place les valeurs propres de A − BK avec une partie r´eelle inf´erieure ` a −a < 0. Pour que z1 et z2 convergent rapidement vers 0, il faut que a soit suffisament grand. Chaque composante de z est alors born´ee par une exponentielle d´ecroissante de taux a :
z1 (t) < C1 (z1 (0), z2 (0), k)e−kt
z2 (t) < C2 (z1 (0), z2 (0), k)e−kt .
Les coefficients C1 et C2 devant ces exponentiels sont tr`es importants et d´ependent en g´en´eral du gain k choisi et de la valeur des conditions initales. De mani`ere g´en´erale, chaque ´etat a un coefficient γi = γ¯i k πi avec γ¯i ne d´epend que de la condition initiale. y 0
-5
0
1
2
t
Fig. 8.1. Ph´enom`ene du peaking. Le syst`eme x ¨ + 2kx˙ + k2 x est simul´e en posant x1 = x et x2 = x. ˙ Le gain est fix´e ` a quatre valeurs croissantes, k = 3, 4, 10, et 20. La sortie y = x1 ne comporte pas de ph´enom`ene de peaking (traitill´e) ; elle reste born´ee entre deux valeurs ind´ependamment du gain k choisi. La sortie y = x2 comporte un ph´enom`ene de peaking (trait plein). Pour tout choix de borne de y, il est toujours possible en augmentant le gain k de d´epasser cette borne. Le transitoire est amplifi´e au fur et ` a mesure que le gain k augmente.
248
8 Commande par les m´ethodes de Lyapunov
D´ efinition 8.21. Le syst`eme ξ˙ = f (ξ, u), y = g(ξ), u ∈ R, y ∈ Rp n’a pas de ph´enom`ene de peaking si pour tout nombre r´eel a > 0 et pour chaque condition initiale ξ(0) ∈ Rp , il existe une entr´ee u(.) : R → R telle que l’´etat ξ(t) converge a ` z´ero et que la sortie y(t) satisfasse 1 ky(t)k ≤ γkξ(0)k(e−σat + ), a o` u les constantes γ, σ ne d´ependent pas du param`etre a. En exigeant que l’on puisse borner le transitoire, on limite les difficult´es rencontr´ees pour passer de la stabilit´e locale `a la stabilit´e semi-globale et globale.
8.6 Backstepping La technique de d´ecomposition en cascade fond´ee sur la propri´et´e de passivit´e exige que les sous-syst`emes de la d´ecomposition soient de degr´e relatif un. Il est parfois difficile de garantir une telle propri´et´e. La technique de backstepping permet de court-circuiter en quelque sorte un ordre de l’´equation diff´erentielle composant un des sous-blocks, et permet ainsi d’´etendre quelque peu la technique de passivation `a une plus large classe de syst`emes. Le backstepping consiste `a n´egliger momentan´ement l’influence d’une partie de l’´etat sur une autre. Soit le syst`eme particulier x˙ = f (x) + g(x)z z˙ = u, o` u l’´etat z est clairement s´epar´e de la partie x. Au lieu de calculer directement la fonction de Lyapunov pour le syst`eme complet V (x, z), ainsi que la loi de bouclage final k(x, z), une fonction interm´ediaire V0 (x) impliquant uniquement la partie de l’´etat d´esign´ee par x est consid´er´ee. La variable d’´etat z est trait´ee comme l’entr´ee du syst`eme x˙ = f (x) + g(x)z. Son ´evolution donn´ee par z˙ = u est pour l’instant ignor´ee. Par cons´equent, la d´etermination de Vo (x) et z = k0 (x) s’effectue comme a la section pr´ec´edente. ` 8.6.1 Fonction de Lyapunov r´ eduite Il s’agit de d´eterminer V0 (x) et la loi de commande id´eale z = k0 (x) de telle sorte que la d´eriv´ee de Lie de cette fonction le long du champ de vecteur f˜ = f (x) + g(x)k0 (x) soit n´egative. Ce vecteur est obtenu lorsqu’on consid`ere qu’il est possible d’agir instantan´ement sur la valeur de la variable z et de
8.6 Backstepping
249
pouvoir ainsi la forcer ` a ˆetre ´egal `a k0 (x). En outre, on suppose qu’il est ´egalement possible de d´eterminer une fonction d´efinie positive W (x) telle que cette d´eriv´ee soit ´egale ` a −W (x) : ∂V0 (f (x) + g(x)k0 (x)) = −W (x), V˙ 0 = ∂x
(8.11)
8.6.2 Fonction de Lyapunov compl` ete A partir de la fonction de Lyapunov r´eduite, il est possible de trouver un candidat de Lyapunov pour le syst`eme complet en ajoutant `a la fonction r´eduite V0 (x) un terme d’erreur quadratique entre l’´etat z r´eel et sa valeur id´eale correspondant ` a k0 (x). Ainsi, on tient compte explicitement du fait qu’il n’est pas possible de forcer instantan´ement ces deux quantit´es `a ˆetre ´egales, contrairement au paragraphe pr´ec´edent. La variable d’erreur e = z − k0 (x) est introduite ` a partir de laquelle la fonction de Lyapunov compl`ete s’exprime 1 1 V (x, z) = V0 (x) + e2 = V0 (x) + (z − k0 (x))2 . 2 2 Avec un tel choix, la d´eriv´ee de V le long des trajectoires solutions devient ∂V0 V˙ (x, z) = x˙ + ee˙ ∂x ∂V0 (f (x) + g(x)z) + ee˙ = ∂x ∂V0 = (f (x) + g(x)(e + k0 (x))) + ee. ˙ ∂x
(8.12)
A ce stade, on utilise une astuce permettant d’utiliser (8.11). En effet, en isolant le facteur e, l’expression centrale de (8.11) apparaˆıt dans (8.12) : ∂V0 ∂V0 (f (x) + g(x)k0 (x)) + g(x)e + ee˙ V˙ (x, z) = ∂x ∂x ∂V0 g(x)e + ee. ˙ = −W (x) + ∂x
(8.13)
En cons´equence, la d´eriv´ee de la fonction de Lyapunov contient un terme clairement n´egatif, −W (x), et deux termes de signe ind´efini. Toutefois, nous n’avons pour l’instant pas utiliser la commande u du syst`eme complet. Cette commande u apparaˆıt indirectement dans l’expression (8.13) par l’entremise de la d´eriv´ee de l’erreur e. ˙ C’est pourquoi nous pouvons assigner une expression convenable ` a e˙ de telle sorte que les trois termes de (8.13) deviennent n´egatifs. Comme la variable d’erreur e apparaˆıt comme un facteur dans les
250
8 Commande par les m´ethodes de Lyapunov
deux termes de signe ind´efini, il suffit de prendre pour e˙ une expression contenant deux termes, le premier permettant de compenser la partie de signe ind´efini, et le second, proportionnel `a e, for¸cant la n´egativit´e : e˙ = −
∂V0 g(x) − ke; ∂x
(8.14)
ainsi, V˙ (x, z) = −W (x) − kee. Finalement, en d´erivant l’expression d´efinissant l’erreur e = z − k0 (x), ∂k0 x˙ ∂x ∂k0 (f (x) + g(x)z). = u− ∂x
e˙ = z˙ −
et en tenant compte de (8.14), on obtient u : u = −k(z − k0 ) −
∂V0 ∂k0 g(x) + (f (x) + g(x)z). ∂x ∂x
8.6.3 Exemple Il s’agit d’un syst`eme comprenant deux ´etats x1 et x2 . La commande intervient comme la d´eriv´ee du second ´etat. x˙ 1 = x21 − x31 + x2 = f (x1 ) + g(x1 )x2 x˙ 2 = u
(8.15) (8.16)
Dans un premier temps, l’´etat x2 est suppos´e varier instantan´ement et selon la volont´e du concepteur. Ainsi, x2 joue le rˆole d’une entr´ee pour la dynamique du premier ´etat. Id´ealement, x2 = −x21 − x1 de telle sorte que x˙ 1 = −x1 − x31 . Par cons´equent, k0 (x1 ) = −x21 − x1 1 V0 (x1 ) = x21 2 donne le bouclage et la fonction de Lyapunov r´eduite correspondante. En effet, V˙ 0 = x1 x˙ 1 = −x21 − x41 < 0, ce qui signifie que la commande r´eduite conduit `a la stabilit´e asymptotique du syst`eme r´eduit.
8.6 Backstepping
251
A partir de la fonction r´eduite V0 (x1 ), l’expression de la fonction de Lyapunov pour le syst`eme complet est d´eduite en introduisant l’erreur entre le valeur id´eale −x21 − x1 et la vraie valeur de x2 : e = x2 − k0 (x1 ) e = x2 − (−x21 − x1 ) = x2 + x21 + x1 Ainsi, 1 V (x1 , x2 ) = V0 + e2 2 1 2 1 = x1 + (x2 + x21 + x1 )2 2 2 Pour trouver la loi de bouclage, il suffit d’imposer une valeur convenable ` la d´eriv´ee de l’erreur e. a ˙ Dans un premier temps, le terme de signe ind´efini est compens´e et un terme proportionnel `a l’erreur est ´egalement ajout´e : e˙ = −
∂V0 g(x1 ) − ke = −x1 − k(x1 + x21 + x1 ) ∂x
Ensuite, l’entr´ee u fait son apparition en d´erivant l’´equation d´efinissant l’erreur e = x2 + x21 + x1 : e˙ = u + (2x1 + 1)(x21 − x31 + x2 ) La loi de commande s’obtient par ´egalit´e entre ces deux expressions : u = −x1 − k(x2 + x21 + x1 ) − (2x1 + 1)(x21 − x31 + x2 )
(8.17)
Ceci conduit au syst`eme en boucle ferm´ee x˙ 1 = x21 − x31 + x2 x˙ 2 = −x1 − k(x2 + x21 + x1 ) − (2x1 + 1)(x21 − x31 + x2 ) Pour v´erifier si V = 12 x21 + 12 (x2 +x21 +x1 )2 est une fonction de Lyapunov, il suffit de d´eriver cette fonction et d’introduire la dynamique en boucle ferm´ee. 1 2 1 x + (x2 + x21 + x1 )2 2 1 2 V˙ = x1 x˙ 1 + (x2 + x21 + x1 )(x˙ 2 + (2x1 + 1)x˙ 1 ) = x1 x˙ 1 + (x2 + x21 + x1 )(2x1 + 1)x˙ 1 + (x2 + x21 + x1 ) x˙ 2 V =
= x1 (x21 − x31 + x2 ) + (x2 + x21 + x1 )(2x1 + 1)(x21 − x31 + x2 ) + (x2 + x21 + x1 )(−x1 − k(x2 + x21 + x1 ) − (2x1 + 1)(x21 − x31 + x2 ))
= x1 (x21 − x31 + x2 ) + (x2 + x21 + x1 )(2x1 + 1)(x1 − x31 + x2 ) − x1 (x2 + x21 + x1 ) − k(x2 + x21 + x1 )2 −
(x2 + x21 + x1 )(2x1 + 1)(x1 − x31 + x2 ) = x31 − x41 + x2 x1 − x1 x2 − x31 − x21 − k(x2 + x21 + x1 )2
= −x21 − x41 − k(x2 + x21 + x1 )2 < 0
252
8 Commande par les m´ethodes de Lyapunov
On constate donc bien que la d´eriv´ee est partout n´egative sauf `a l’origine. En cons´equence, le syst`eme (8.15)-(8.16) munit la loi de bouclage (8.17) est globalement asymptotiquement stable ´etant donn´e que (i) V (x1 , x2 ) est partout positive sauf ` a l’origine ; (ii) V˙ (x1 , x2 ) est partout n´egative sauf `a l’origine ; et finalement (iii) V (x1 , x2 ) est radialement non born´ee.
Litt´ erature
[Boo75]
W.A. Boothby. An Introduction to Differentiable Manifolds and Riemannian Geometry. Academic Press, New York, 1975.
[BS70]
N. P. Bhatia and G. P. Szeg¨ o. Stability Theory of Dynamical Systems. Springer-Verlag, Berlin, 1970.
[Car71]
E. Cartan. Le¸cons sur les invariants int´egraux. Hermann, Paris, 1971.
[Che46]
C. Chevalley. Theory of Lie Groups. Princeton University Press, Princeton, 1946.
[Che61]
N. G. Chetaev. The Stability of Motion. Pergamon Press, Oxford, 1961.
[For59]
A. R. Forsyth. Theory of Differential Equations, Part I. Exact Equations and Pfaff ’s Problem. Dover Publications, Inc., Varick Street, New York, 1959.
[GH83]
J. Guckenheimer and P. Holmes. Nonlinear Oscillations, Dynamical Systems, and Bifurcations of Vector Fields. Springer-Verlag, New York, 1983.
[GP74]
V. Guillemin and A. Pollack. Differential Topology. Prentice-Hall, Englewood Cliffs, New Jersey, 1974.
[GVW68] A. Gelb and W. E. Vander Welde. Multiple-input Describing Functions and Nonlinear System Design. McGraw-Hill, New York, 1968. [Hah67]
W. Hahn. Stability of Motion. Springer-Verlag, Berlin, 1967.
[Hir76]
M. W. Hirsch. Differential Topology. Springer-Verlag, New York, 1976.
[HLP52] G. Hardy, J. E. Littlewood, and G. P´ olya. Inequalities. Cambridge University Press, Cambridge, second edition, 1952. [Isi89]
A. Isidori. Nonlinear Control Systems. Springer-Verlag, Berlin, Heidelberg, New York, second edition, 1989.
[Kha02]
H. K. Khalil. Nonlinear Systems. Prentice-Hall, Upper Saddle River, NJ, 2002.
[KN63]
S. Kobayashi and K. Nomizu. Foundations of Differential Geometry, volume 1 & 2. John Wiley & Sons, Inc., New York, 1963.
[LaS86]
J. P. LaSalle. The Stability and Control of Discrete Processes. SpringerVerlag, Berlin, 1986.
254
Litt´erature
[LL61]
J. P. LaSalle and S. Lefschetz. Stability by Liapunov’s Direct Method. Academic Press, New York, 1961.
[LL69]
V. Lakshmikantham and S. Leela. Differential and Integral Inequalities, volume I & II. Academic Press, New York, 1969.
[LLM89] V. Lakshmikantham, S. Leela, and A. A. Martynuk. Stability Analysis of Nonlinear Systems. Marcel Dekker, New York, 1989. [Mee81]
A. I. Mees. Dynamics of Feedback Systems. John Wiley & Sons, Chichester, New York, Brisbane, Toronto, 1981.
[MM82]
R.K. Miller and A. N. Michel. Ordinary Differential Equations. Academic Press, New York, 1982.
[Mor01]
S. Morita. Geometry of Differential Forms. American Mathematical Society, Providence, Rhode Island, 2001.
[MT95]
R. Marino and P. Tomei. Nonlinear Control Design. Prentice-Hall Europe, Hertfordshire, 1995.
[NvdS90] H. Nijmeijer and A. van der Schaft. Nonlinear Dynamical Control Systems. Springer-Verlag, New York, 1990. [Sas99]
S. Sastry. Nonlinear Systems. Springer-Verlag, New York, 1999.
[SJK97]
R. Sepulchre, M. Jankovi´c, and P.V. Kokotovi´c. Constructive Nonlinear Control. Springer-Verlag, London, 1997.
[SL91]
J.-J. Slotine and W. Li. Applied Nonlinear Control. Prentice-Hall, Upper Saddle River, NJ, 1991.
[Son98]
E.D. Sontag. Mathematical Control Theory : Deterministic Finite Dimensional Systems. Springer-Verlag, New York, second edition, 1998.
[Vid93]
M. Vidyasagar. Nonlinear Systems Analysis. Prentice-Hall, Englewood Cliffs, NJ, 1993.
[Wal68]
A.H. Wallace. Differential Topology, First Steps. W.A. Benjamin, Inc., New York, Amsterdam, 1968.
[Wal70]
W. Walter. Differential and Integral Inequalities. Springer-Verlag, Berlin, 1970.
[Yos66]
T. Yoshizawa. Stability Theory by Liapunov’s Second Method. Gakujutsutosho Printing Co., Tokyo, 1966.
[Zub62]
V.I. Zubov. Mathematical Methods for the Study of Automatic Control Systems. Pergamon Press, Oxford, 1962.
[Zub64]
V.I. Zubov. Methods of A. M. Lyapunov and their Applications. Noordhoff, Groningen, 1964.
Index
´elimination du temps, 15 ´equation int´egrale, 101 ´equation d’erreur, 197 ´equation diff´erentielle d’erreur, 198, 201 solution, 150 1-forme, 92, 157, 158, 170 1-forme exacte, 170 exemple, 180 int´egrable, 170 , 229 Bellman-Gronwall, 101 candidat de Lyapunov, 71, 74 chaˆıne d’int´egrateurs, 226 champ de vecteurs, 150, 223 changement de coordonn´ees, 195 chaos, 8 commande en boucle ferm´ee, 201 en boucle ouverte, 200 comp´etition, 26 comparaison, 97 condition d’exactitude, 174 d’int´egrabilit´e, 174 conjecture de Aizerman, 130 Cotangent, 157
cotangent, 158 covecteur, 157, 170 crit`ere d’exactitude, 174 d’int´egrabilit´e, 174 de Nyquist, 57 de Popov, 135 du cercle, 130 crochet de Lie, 162, 222 de Lie propri´et´es, 162 cycle limite, 19 cycle limite instable, 59 stable, 58 d´ecomposition en harmoniques, 37 d´eflation, 99 d´eriv´ee de Lie, 218 d´erivation ext´erieure, 164, 165, 171, 172 ext´erieure propri´et´es, 166, 173 d´eveloppement limit´e, 100 degr´e relatif, 119 diff´eomorphisme, 149, 195 diff´erentielle, 164, 171 distribution, 223 dynamique de populations, 25 dynamique
256
Index
interne, 211 ensemble invariant, 85 espace dual, 151 explosion en temps fini, 8 fiabilit´e du premier harmonique, 61 flot, 85 Fonction de Lyapunov, 159 fonction d’erreur, 198 de Lyapunov, 122 fonction d´efinie positive, 71 fonction de Lyapunov, 72, 74, 86 fonction de Lyapunov m´ethodes de construction, 91 pour les syst`emes lin´eaires, 81 fonction radialement non born´ee, 80 forme altern´ee, 156 lin´eaire, 152 multilin´eaire, 152, 156 quadratique, 98 formule d’Ackermann, 212 gain ´equivalent, 35, 37, 43–45 gradient, 157 graphe des pentes, 14 in´egalit´e de Cauchy-Schwarz, 103 du triangle, 104 inegalit´e arithm´etique-g´eom´etrique, 104 inflation, 99 instabilit´e, 95, 96 int´egrabilit´e, 168 involutivit´e, 223 lemme de Bellman-Gronwall, 101 lin´earisation, 82, 191 lin´earisation entr´ee-´etat, 196 entr´ee-sortie, 214 exacte, 195, 216 Lyapunov, 122
m´ethode de Krasovskii, 92 des isoclines, 16 directe de Lyapunov, 71, 84 du gradient variable, 92 du premier harmonique, 31 majoration, 97 matrice d´efnie positive, 98 minimum de phase, 119 non minimum de phase, 119 non-lin´earit´e continue par morceaux, 46 de secteur, 128 statique, 32 oscillateur de Van der Pol, 61 lin´eaire, 50 passivit´e, 107 passivit´e connexion par r´etroaction, 113 connexion parall`ele, 112 d´efinition, 111, 114 notion intuitive, 108 propri´et´es, 111 syst`eme lin´eaire, 114 pendule invers´e, 194 placement de pˆ oles, 201 plan de phase, 11 planification de trajectoire, 200 platitude, 216, 217 point d’´equilibre, 7, 22, 65 population, 25 poursuite, 199 pr´edateur, 28 premier harmonique, 37 principe de superposition, 3 produit ext´erieur, 153, 156, 174 scalaire, 153 tensoriel, 152 proie, 28 r´etroaction, 47 relais, 45
Index robot flexible, 220 saturation, 43 sortie de Brunovsky, 212 plate, 212, 216, 217 stabili´e locale asymptotique, 131 stabilisation, 199 stabilit´e, 65 stabilit´e absolue, 128, 130 au sens de Lyapunov, 67 crit`ere de, 58 d´efinition pr´ecise, 66 exponentielle, 79, 84 globale, 79 locale, 75, 82 notion intuitive, 66 preuve locale, 75 syst`eme dynamique passif, 109 lin´eaire, 209 lin´eaire SISO, 202
r´eel positif, 116, 118 statique passif, 109 syst`eme non-lin´eaire, 3 technique , de comparaison97, IeC de majoration97 termes d’ordre sup´erieur, 6 th´eor`eme d’invariance de LaSalle, 85 de Bendixson, 24 de Chetaev, 96 de Frobenius, 184 de Frobenius version 1-forme, 188 version champ de vecteur, 188 de l’index, 23 de Nyquist, 52 de Poincar´e-Bendixson, 25 des r´esidus, 55 vari´et´e, 145 zone morte, 44
257