Geometria Differenziale
Marco Abate . Francesca Tovena
Geometria Differenziale
Marco Abate Dipartimento di Matematica Universit`a di Pisa
UNITEXT – La Matematica per il 3+2 ISSN versione cartacea: 2038-5722 ISBN 978-88-470-1919-5 DOI 10.1007/978-88-470-1920-1
Francesca Tovena Dipartimento di Matematica Universit`a di Roma Tor Vergata
ISSN elettronico: 2038-5757 e-ISBN 978-88-470-1920-1
Springer Milan Dordrecht Heidelberg London New York © Springer-Verlag Italia 2011 Quest’opera è protetta dalla legge sul diritto d’autore e la sua riproduzione è ammessa solo ed esclusivamente nei limiti stabiliti dalla stessa. Le fotocopie per uso personale possono essere effettuate nei limiti del 15% di ciascun volume dietro pagamento alla SIAE del compenso previsto dall’art. 68. Le riproduzioni per uso non personale e/o oltre il limite del 15% potranno avvenire solo a seguito di specifica autorizzazione rilasciata da AIDRO, Corso di Porta Romana n. 108, Milano 20122, e-mail
[email protected] e sito web www.aidro.org. Tutti i diritti, in particolare quelli relativi alla traduzione, alla ristampa, all’utilizzo di illustrazioni e tabelle, alla citazione orale, alla trasmissione radiofonica o televisiva, alla registrazione su microfilm o in database, o alla riproduzione in qualsiasi altra forma (stampata o elettronica) rimangono riservati anche nel caso di utilizzo parziale. La violazione delle norme comporta le sanzioni previste dalla legge. L’utilizzo in questa pubblicazione di denominazioni generiche, nomi commerciali, marchi registrati, ecc. anche se non specificatamente identificati, non implica che tali denominazioni o marchi non siano protetti dalle relative leggi e regolamenti.
Layout copertina: Beatrice B., Milano Immagine di copertina liberamente modificata da Antoni Gaudì, modellino per la Sagrada Familia, Barcellona Impaginazione: PTP-Berlin, Protago TEX-Production GmbH, Germany (www.ptp-berlin.eu) Stampa: Grafiche Porpora, Segrate (MI) Stampato in Italia Springer-Verlag Italia S.r.l., Via Decembrio 28, I-20137 Milano Springer-Verlag fa parte di Springer Science+Business Media (www.springer.com)
Prefazione
La Geometria Differenziale `e nata (nella seconda met` a dell’Ottocento, raggiungendo la piena maturit` a nella prima met`a del Novecento) come risposta a un’esigenza molto naturale. L’Analisi Matematica classica studia le propriet`a delle funzioni e delle applicazioni differenziabili definite nello spazio euclideo Rn . Dal punto di vista geometrico, la caratteristica principale dello spazio euclideo `e di essere piatto (le rette e i piani, come pure i sottospazi vettoriali di dimensione pi` u alta, non si curvano); e l’Analisi Matematica dipende in maniera sostanziale dalla piattezza dello spazio per le sue costruzioni e argomentazioni di base. Eppure, il mondo non `e piatto. Basta guardarsi intorno per notare l’abbondanza, per non dire la prevalenza, di superfici curve; e nella scienza moderna (non solo in Matematica, ma anche in Fisica, Ingegneria, Genetica, Informatica, Economia. . . ) compaiono in continuazione problemi che si sviluppano naturalmente in ambienti geometrici che non sono piatti in nessun senso del termine, e che spesso sono anche di dimensione maggiore di due (nel senso che richiedono pi` u di due parametri per essere descritti). Un esempio tipico `e dato dal moto di un corpo vincolato. I vincoli sono spesso rappresentati da quantit` a che devono essere conservate; quindi il moto si svolge in sottoinsiemi dello spazio dei parametri ove queste quantit` a assumono valori costanti. Geometricamente, lo spazio dei parametri pu` o anche essere uno spazio euclideo, ma non appena i vincoli non sono lineari il sottoinsieme in cui il moto si svolge si guarda bene dall’essere piatto. Eppure, sempre di velocit`a e accelerazioni stiamo parlando; deve essere quindi possibile continuare a usare gli strumenti dell’Analisi Matematica, la cui utilit` a e potenza `e stata dimostrata nei secoli. L’osservazione cruciale `e che il Calcolo Differenziale si occupa principalmente di oggetti locali: per calcolare la derivata di una funzione in un punto `e sufficiente sapere come la funzione si comporta vicino a quel punto, non serve conoscere cosa succede altrove. Dunque dovrebbe essere possibile ricostruire un Calcolo Differenziale in spazi che siano solo localmente fatti come aperti di Rn (in un senso da precisare!), pur avendo una struttura globale completamente diversa. Questa fu l’intuizione geniale di Riemann, enuncia-
VI
Prefazione
ta nel 1854 ampliando idee di Gauss. La sua sistematizzazione completa ha richiesto quasi un secolo e il lavoro di alcuni dei pi` u importanti geometri mo´ Cartan, Whitney, e molti altri), derni (Poincar´e, Levi-Civita, Lie, Weyl, E. e ha portato infine all’identificazione delle variet` a differenziabili (in inglese differentiable manifolds) come oggetto principale di studio della Geometria Differenziale. Il concetto di variet` a differenziabile ha dimostrato nei fatti di essere quello giusto: non solo `e possibile ritrovare tutti i principali risultati dell’Analisi Matematica classica in questo contesto pi` u generale, ma molte costruzioni geometriche e analitiche si descrivono naturalmente in termini di variet` a differenziabili. Il prezzo da pagare `e un pi` u elevato livello di astrazione: gli strumenti necessari per lavorare efficacemente con le variet` a differenziabili sono molti e non banali (a partire dalla definizione stessa di variet` a differenziabile). Scopo di questo libro `e proprio fornire un’introduzione alla geometria delle variet` a differenziabili, illustrandone le propriet` a principali e descrivendo le tecniche e gli strumenti pi` u importanti per il loro uso, in modo da poter fungere da testo di riferimento per chi (matematici, fisici, ingegneri e non solo) si trova a dover/voler usare la Geometria Differenziale anche se non ne ha fatto il proprio campo di studio. Inoltre, selezionando opportunatamente il materiale che si vuole presentare, questo volume pu` o essere usato anche come libro di testo per vari corsi di Geometria Differenziale, di livello variabile fra la laurea magistrale e il dottorato in Matematica, Fisica o Ingegneria, o anche, con un po’ pi` u di sforzo, per un terzo anno di una laurea in Matematica. Descriviamo ora in breve il contenuto di questo libro. Il Capitolo 1 `e introduttivo, e raccoglie una serie di risultati di Algebra Lineare e Multilineare (in particolare sul prodotto tensoriale e l’algebra esterna) sovente non trattati, o trattati solo in parte, nei corsi iniziali di Geometria o di Algebra Lineare. Entriamo nel vivo della Geometria Differenziale nel Capitolo 2, dove sono definiti ufficialmente i concetti di variet` a e di applicazione differenziabile, come pure lo strumento che permette di collegare l’aspetto geometrico con quello analitico: lo spazio tangente, che riunisce in un solo concetto vettori tangenti geometrici e derivate parziali. In questo capitolo daremo anche la definizione di gruppo di Lie (una variet` a corredata anche da una struttura di gruppo in cui le operazioni sono differenziabili), lo strumento naturale per lo studio delle simmetrie nei problemi geometrici e analitici; e dimostreremo il teorema di Whitney, che mostra come la definizione intrinseca di variet` a come spazio costruito localmente come un aperto di Rn e la definizione estrinseca di variet`a quale sottoinsieme sufficientemente regolare di uno spazio euclideo coincidono. Il Capitolo 3 `e dedicato al concetto di fibrato, cruciale per lo studio e le applicazioni della Geometria Differenziale. L’unione disgiunta degli spazi tangenti a una variet` a ha a sua volta una struttura di variet` a differenziabile, chiamata fibrato tangente, che `e un primo esempio di fibrato vettoriale: un fibrato vettoriale `e una variet` a ottenuta come unione disgiunta di spazi vettoriali della stessa dimensione, uno per ogni punto di un’altra variet` a, detta base del fibrato.
Prefazione
VII
In questo capitolo studieremo in dettaglio anche i campi vettoriali, che possono essere interpretati come campi di velocit` a che danno luogo a un flusso lungo la variet` a, il moto lungo le curve integrali del campo. Dalle curve integrali passeremo alle sottovariet`a integrali e al teorema di Frobenius, che applicheremo allo studio dei gruppi di Lie, e in particolare alla dimostrazione della corrispondenza fra i sottogruppi di un gruppo di Lie e precisi sottospazi dello spazio tangente nell’elemento neutro (spazio su cui avremo introdotto una nuova, importante struttura algebrica, quella di algebra di Lie). Infine presenteremo una nozione pi` u generale di fibrato, e definiremo i fibrati principali, discutendo il legame con la teoria dei fibrati vettoriali. I Capitoli 4 e 5 sono dedicati allo studio delle forme differenziali, una generalizzazione globale dei concetti di determinante e di forma multilineare alternante, che permettono di estendere alle variet` a concetti quali l’orientabilit` a o l’integrazione su sottovariet`a. Parleremo anche di variet` a con bordo, e dimostreremo l’importante teorema di Stokes, una generalizzazione molto potente del teorema fondamentale del calcolo. Introdurremo anche il differenziale esterno di forme differenziali, che ci permetter`a di definire la coomologia di de Rham di una variet` a. La coomologia di de Rham `e un fondamentale invariante algebrico delle variet` a, che pur essendo definito per via differenziabile misura in realt` a propriet` a topologiche globali, come illustrato dal teorema di de Rham. Fin qui abbiamo trattato propriet` a delle variet`a che discendono direttamente dalla definizione; gli ultimi tre capitoli invece discutono strutture ulteriori che possono essere messe su una variet`a. Nel Capitolo 6 definiremo i concetti di connessione, per derivare campi vettoriali su variet` a, e di metrica (pseudo)Riemanniana, per misurare la lunghezza dei vettori tangenti e delle curve ottenendo su qualsiasi variet` a una struttura di spazio metrico; le metriche pseudo-Riemanniane sono indispensabili, per esempio, per lo studio della Relativit` a Generale. Discuteremo infine brevemente le variet` a simplettiche, importanti sia come campo di studio a s´e stante che per le applicazioni, per esempio in Fisica Matematica. Infine, il Capitolo 7 e il Capitolo 8 sono un’introduzione alla Geometria Riemanniana, che `e probabilmente la generalizzazione pi` u naturale della geometria delle superfici in R3 (come presentata, per esempio, in [2]). Nel Capitolo 7 studieremo la geometria delle geodetiche, curve che svolgono sulle variet`a Riemanniane (cio`e sulle variet`a provviste di una metrica Riemanniana) un ruolo analogo a quello svolto dalle rette negli spazi euclidei; e nel Capitolo 8 introdurremo finalmente il concetto di curvatura. Usando i campi di Jacobi vedremo come collegare il comportamento delle geodetiche con la curvatura della variet` a; classificheremo gli spazi a curvatura costante (e, come previsto, gli spazi euclidei risulteranno essere le uniche variet` a semplicemente connesse piatte, cio`e con curvatura identicamente nulla); e mostreremo come il segno della curvatura possa avere profonde conseguenze sulla struttura topologica globale delle variet` a (teoremi di Cartan-Hadamard, di Bonnet-Myers e di Synge-Weinstein).
VIII
Prefazione
Un corso di base di Geometria Differenziale basato su questo testo pu`o essere costruito a partire dalle Sezioni 2.1–2.4 e 2.7 del Capitolo 2, dalle Sezioni 3.1–3.4 del Capitolo 3 e dal Capitolo 4, citando risultati del Capitolo 1 quando servono. Corsi pi` u approfonditi possono procedere in varie direzioni: per esempio le sezioni rimaste dei Capitoli 2 e 3 forniscono una buona introduzione alla teoria dei gruppi di Lie; il Capitolo 5 alla coomologia di de Rham; e i Capitoli 6–8 alla Geometria Riemanniana. Questi ultimi capitoli possono anche essere usati come punto di partenza per un corso di Geometria Riemanniana rivolto a studenti che gi` a conoscono la Geometria Differenziale. Il testo `e corredato da centinaia di Esercizi proposti, che ne formano una componente essenziale. Un libro di Matematica, a qualsiasi livello, `e una successione di ragionamenti, presentati uno di seguito all’altro con logica (si spera) impeccabile. Leggendo si viene trasportati dalle argomentazioni, fino ad arrivare in fondo e rendersi conto che non si ha la minima idea del perch´e l’autore ha seguito un percorso piuttosto che un altro, e (peggio) che non si `e in grado di ricostruire autonomamente quel percorso. Per imparare la Matematica non basta leggere; bisogna fare Matematica. Gli Esercizi sono l`ı per aiutarti in questa impresa; e, come ausilio ulteriore, abbiamo adottato uno stile di scrittura che ci permette di rivolgerti direttamente a te, lettore o lettrice. Vogliamo coinvolgerti direttamente nella lettura, rendendo lo studio un’elaborazione attiva di conoscenze e non un assorbimento passivo di nozioni. Oltre a motivazioni esplicite per i concetti che introdurremo, troverai spesso domande dirette che cercheranno di stimolarti a una lettura attiva senza farti accettare nulla per fede (e magari cercheranno di aiutarti a rimanere sveglio se ti capiter` a di studiare alle tre di notte. . . ). Alcuni passaggi delle dimostrazioni saranno svolti da te in appositi esercizi; e, viceversa, per ciascun esercizio `e indicato per quali altre parti del testo `e utile. Due parole sui prerequisiti necessari per la lettura di questo libro. Come avrai capito, useremo tecniche e concetti di Algebra Lineare, di Calcolo Differenziale e Integrale di pi` u variabili reali, e di Topologia Generale e Algebrica. Per l’Algebra Lineare, un buon corso di Geometria del primo anno dovrebbe averti dato tutte le conoscenze che ti servono; i risultati principali che utilizzeremo sono comunque richiamati nel Capitolo 1, e come testo di riferimento ti consigliamo [1]. Per quel che riguarda il Calcolo Differenziale e Integrale, a parte le nozioni di base insegnate in tutti i corsi di Analisi Matematica del secondo anno, citeremo esplicitamente i risultati pi` u avanzati che utilizzeremo; un buon testo di riferimento `e [9]. Le nozioni di Topologia Generale necessarie sono veramente solo quelle di base: aperti, funzioni continue, connessione, compattezza e poco pi` u, e solo nel contesto degli spazi metrici; si tratta di materiale che viene presentato in qualsiasi corso del secondo anno di Geometria e spesso anche in quelli di Analisi Matematica. Daremo per note anche alcune idee di base di Topologia Algebrica, in particolare i concetti di rivestimento, di rivestimento universale e di gruppo fondamentale. Se ti fosse necessario, potrai trovare tutto quello che serve (e ben di pi` u) in [23]. Infine, per leggere questo testo non `e strettamente necessario conoscere in dettaglio la geometria
Prefazione
IX
di curve e superfici in R3 , ma chiaramente averle gi` a incontrate pu` o aiutarti a capire meglio il perch´e di certe definizioni di Geometria Differenziale, o a farti un’intuizione pi` u precisa su cosa pu`o accadere anche in dimensione pi` u alta. Ovviamente, come testo di riferimento per la teoria di curve e superfici non possiamo non consigliarti il nostro libro precedente [2]. Libri come questo non nascono nel vuoto, e la scelta degli argomenti da trattare e del modo in cui trattarli `e stata sicuramente influenzata dai testi su cui noi stessi abbiamo studiato e che abbiamo amato (od odiato, anche se non faremo menzione di questi ultimi. . . ). Fra i tanti disponibili, per letture ulteriori consigliamo i libri di Lee, in particolare [24] per un’introduzione alla Geometria Differenziale moderna; il libro di do Carmo [6] per maggiori informazioni sulla Geometria Riemanniana; il libro di Bott e Tu [4] per una presentazione dei principali concetti della Topologia Algebrica che usa sistematicamente le forme differenziali e la coomologia di de Rham; il classico tomo di Helgason [12] e il pi` u moderno di Hsiang [16] per la teoria dei gruppi di Lie; i libri di Milnor [26] e [27], semplicemente perch´e scritti incredibilmente bene ed essenziali per proseguire lo studio della Geometria Differenziale e delle sue applicazioni; il testo di Kodaira [20] per un’introduzione alle variet` a complesse; e i volumi enciclopedici di Kobayashi e Nomizu [19] e di Spivak [34] per tutto ci` o che avresti voluto sapere (e non sei davvero convinto di voler chiedere) sulla Geometria Differenziale classica. E questo `e solo l’inizio; la Geometria Differenziale `e un campo vitale tuttora in pieno sviluppo, e una sua presentazione completa richiederebbe un’enciclopedia pi` u che un libro. Infine, il gradito dovere dei ringraziamenti. Prima di tutto, uno di noi (Abate) ha il piacere di dichiarare pubblicamente l’indubbio debito che ha nei confronti di Edoardo Vesentini e Hung-Hsi Wu, che per primi l’hanno introdotto alle delizie della Geometria Differenziale e della Geometria Riemanniana (in particolare l’imprinting di Wu risulta evidente negli ultimi due capitoli. . . ). Poi, senza dubbio questo libro non sarebbe mai nato senza l’aiuto, l’assistenza e la pazienza di (in ordine strettamente alfabetico) Francesca Bonadei, Piermarco Cannarsa, Ciro Ciliberto, Roberto Frigerio, Adele Manzella, Jasmin Raissy, e dei nostri studenti di tutti questi anni, che hanno subito varie versioni delle dispense non facendosi sfuggire il pi` u piccolo errore e proponendo versioni alternative di diversi argomenti (gli errori che sicuramente troverai li abbiamo introdotti noi dopo, apposta per lasciare qualcosa da fare anche a te, futuro lettore). E infine anche stavolta un ringraziamento specialissimo a Leonardo, Jacopo, Niccol` o, Daniele, Maria Cristina e Raffaele che, pur sempre pi` u convinti che i loro genitori siano in realt`a giusto un’appendice semovente di un computer, continuano a distoglierci dalle nostre miserie ricordandoci che c’`e un buon motivo per continuare a lottare per rendere il mondo un posto migliore: loro. Pisa e Roma, aprile 2011
Marco Abate Francesca Tovena
Indice
Prefazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . V 1
Algebra multilineare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1 Brevi richiami di Algebra Lineare . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Prodotto tensoriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Algebra tensoriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4 Algebra esterna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.5 Tensori simplettici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1 1 7 18 22 30 32
2
Variet` a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 2.1 Variet` a differenziabili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 2.2 Applicazioni differenziabili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 2.3 Spazio tangente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 2.4 Sottovariet` a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90 2.5 Gruppi di Lie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 2.6 Azioni di gruppi di Lie su variet` a . . . . . . . . . . . . . . . . . . . . . . . . . . 99 2.7 Partizioni dell’unit` a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 2.8 Il teorema di Whitney . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
3
Fibrati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 3.1 Fibrati vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134 3.2 Sezioni di fibrati e tensori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144 3.3 Flusso di un campo vettoriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152 3.4 Parentesi di Lie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 3.5 Algebre di Lie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160 3.6 Sottogruppi di Lie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164 3.7 Il teorema di Frobenius . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171 3.8 Dalle algebre di Lie ai gruppi di Lie . . . . . . . . . . . . . . . . . . . . . . . . 180 3.9 Fibrati principali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
XII
Indice
4
Forme differenziali e integrazione . . . . . . . . . . . . . . . . . . . . . . . . . . 207 4.1 Operazioni sulle forme differenziali . . . . . . . . . . . . . . . . . . . . . . . . . 208 4.2 Orientabilit` a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211 4.3 Integrazione di forme differenziali . . . . . . . . . . . . . . . . . . . . . . . . . . 218 4.4 Differenziale esterno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222 4.5 Il teorema di Stokes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
5
Coomologia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245 5.1 La successione esatta lunga in coomologia . . . . . . . . . . . . . . . . . . 246 5.2 La successione di Mayer-Vietoris . . . . . . . . . . . . . . . . . . . . . . . . . . 253 5.3 Il lemma di Poincar´e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255 5.4 Invarianza omotopica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260 5.5 Coomologia a supporto compatto . . . . . . . . . . . . . . . . . . . . . . . . . . 262 5.6 La dualit` a di Poincar´e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269 5.7 Il teorema di K¨ unneth . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277 5.8 Il principio di Mayer-Vietoris . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281 5.9 Coomologia dei fasci e teorema di de Rham . . . . . . . . . . . . . . . . . 293 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 300
6
Strutture su variet` a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315 6.1 Connessioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 316 6.2 Connessioni e forme differenziali . . . . . . . . . . . . . . . . . . . . . . . . . . . 325 6.3 Connessioni e fibrati orizzontali . . . . . . . . . . . . . . . . . . . . . . . . . . . 327 6.4 Connessioni sui fibrati tensoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . 331 6.5 Variet` a Riemanniane . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335 6.6 La connessione di Levi-Civita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 343 6.7 Altre costruzioni Riemanniane . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353 6.8 Variet` a simplettiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 357 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 364
7
Geodetiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 375 7.1 L’applicazione esponenziale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 376 7.2 La distanza Riemanniana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 383 7.3 Intorni geodeticamente convessi . . . . . . . . . . . . . . . . . . . . . . . . . . . 394 7.4 Il teorema di Hopf-Rinow . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 396 7.5 Geodetiche nei gruppi di Lie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 400 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 405
8
Curvatura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 411 8.1 Operatori di curvatura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 412 8.2 Campi di Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 420 8.3 Il teorema di Cartan-Hadamard . . . . . . . . . . . . . . . . . . . . . . . . . . . 425 8.4 Spazi di curvatura costante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 427 8.5 La seconda variazione della lunghezza d’arco . . . . . . . . . . . . . . . . 433 8.6 Il teorema di Bonnet-Myers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 436
Indice
XIII
8.7 I teoremi di Weinstein e Synge . . . . . . . . . . . . . . . . . . . . . . . . . . . . 438 8.8 Sottovariet` a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 441 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 447 Bibliografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 453 Indice analitico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 455
1 Algebra multilineare
L’Analisi Matematica classica si basa sull’Algebra Lineare, che `e anche fondamentale per lo studio della geometria dei sottospazi affini di Rn . Come risulter` a evidente dai prossimi capitoli, lo studio della Geometria Differenziale richiede non solo l’Algebra Lineare, ma anche nozioni di base di Algebra Multilineare, la branca della Matematica che studia la struttura e le propriet` a delle applicazioni multilineari fra spazi vettoriali. Per questo motivo iniziamo questo libro raccogliendo i principali risultati di Algebra Multilineare, raramente trattati nei corsi iniziali di Algebra Lineare, esponendoli in modo che possano essere direttamente applicati alla Geometria Differenziale. Dopo aver richiamato, nella forma a noi utile, alcuni concetti di Algebra Lineare, introdurremo il concetto di prodotto tensoriale tra spazi vettoriali, che permette di ricondurre la nozione di applicazione multilineare a quella di applicazione lineare. Facendo la somma diretta dei possibili prodotti tensoriali di uno spazio vettoriale con se stesso e con il suo duale si ottiene la sua algebra tensoriale, dotata di un proprio prodotto e che useremo nel Capitolo 3 per costruire i fibrati tensoriali su una variet` a. L’algebra tensoriale contiene un sottospazio particolarmente importante, l’algebra esterna, dotata di un proprio prodotto, e che ci servir`a da base per lo studio dettagliato delle forme differenziali su una variet`a che condurremo nei Capitoli 4 e 5. Infine, descriveremo le principali propriet` a dei tensori simplettici, cruciali per l’introduzione alle variet` a simplettiche che faremo nella Sezione 6.8.
1.1 Brevi richiami di Algebra Lineare In questa sezione richiameremo alcuni risultati di Algebra Lineare che ci saranno utili nel seguito. Definizione 1.1.1. Se V e W sono due spazi vettoriali sul campo K, indicheremo con Hom(V, W ) lo spazio vettoriale delle applicazioni K-lineari da V in W . Quando V = W scriveremo End(V ) al posto di Hom(V, V ). Lo spazio Abate M., Tovena F.: Geometria Differenziale. DOI 10.1007/978-88-470-1920-1_1 c Springer-Verlag Italia 2011
2
1 Algebra multilineare
duale di V `e lo spazio vettoriale V ∗ = Hom(V, K); gli elementi di V ∗ vengono a volte chiamati forme lineari. Il biduale di V `e il duale del duale V ∗∗ = (V ∗ )∗ . Indicheremo, infine, con Mm,n (K) lo spazio delle matrici m × n a coefficienti in K. Osservazione 1.1.2. Useremo spesso il delta (o simbolo) di Kronecker, definito da 1 se h = k , h δhk = δk = 0 se h = k . Osservazione 1.1.3. Ricordiamo che (vedi [1, Complementi al Capitolo 4]) ogni spazio vettoriale V ammette una base, cio`e un insieme B = {vj }j∈J ⊂ V tale che: (a) ogni sottoinsieme finito di B `e formato da vettori linearmente indipendenti; (b) per ogni vettore v ∈ V , esistono vettori vj1 , . . . , vjk ∈ B e scalari λ1 , . . . , λk ∈ K tali che v = λ1 vj1 + · · · + λk vjk . Inoltre, tutte le basi hanno la stessa cardinalit` a, che `e detta dimensione di V . Richiamiamo ora alcune propriet` a fondamentali degli spazi Hom(V, W ) e V ∗ (vedi, per esempio, [1, Capitoli 5, 7 e Complementi al Capitolo 8] e l’Esercizio 1.1 per maggiori dettagli): Proposizione 1.1.4. Siano V e W due spazi vettoriali sul campo K; supponiamo che V abbia dimensione finita e che B = {v1 , . . . , vn } sia una base di V . n Allora l’applicazione A: Hom(V, W ) → W n che a ogni L ∈ Hom(V, W ) associa la n-upla A(L) = L(v1 ), . . . , L(vn ) ∈ W `e un isomorfismo fra Hom(V, W ) e W n , dipendente dalla scelta della base B. In particolare, se anche W ha dimensione finita si ha dim Hom(V, W ) = (dim V )(dim W ) , e quindi dim V ∗ = dim V . Ogni elemento di Hom(V, W ) `e dunque univocamente determinato dai valori che assume sui vettori di una base. Nelle ipotesi della Proposizione 1.1.4, data una n-pla (w1 , . . . , wn ) ∈ W n , l’elemento L = A−1 (w1 , . . . , wn ) di Hom(V, W ) che soddisfa la condizione L(vj ) = wj per j = 1, . . . , n `e definito da L(λ1 v1 + · · · + λn vn ) = λ1 w1 + · · · + λn wn per ogni λ1 , . . . , λn ∈ K. Per poter enunciare un risultato analogo nel caso in cui V abbia dimensione infinita, occorre premettere la nozione di prodotto diretto infinito di spazi vettoriali.
1.1 Brevi richiami di Algebra Lineare
3
Definizione 1.1.5. Siano Wj spazi vettoriali sul campo K, al variare di j in un insieme di indici J. Il prodotto diretto degli spazi vettoriali Wj `e il prodotto cartesiano (infinito se J `e un insieme infinito) Wj j∈J
dotato della struttura di spazio vettoriale ottenuta operando componente per componente: (wj )j∈J + (wj )j∈J = (wj + wj )j∈J e λ(wj )j∈J = (λwj )j∈J per ogni (wj )j∈J , (wj )j∈J ∈ j Wj e λ ∈ K. Indicheremo con πj : j Wj → Wj la proiezione sul j-esimo fattore. Infine, scriveremo W J invece di j Wj se tutti i fattori Wj coincidono con uno spazio vettoriale W fissato. Esempio 1.1.6. Lo spazio prodotto W N `e lo spazio delle successioni (wn )n∈N con wn ∈ W per ogni n ∈ N. Osservazione 1.1.7. Il prodotto diretto di spazi vettoriali pu` o venire identificato tramite quella che si chiama una propriet` a universale. Infatti, indichiamo con Π = j Wj il prodotto diretto degli spazi vettoriali Wj su K con j che varia in un insieme di indici J, e con πj : Π → Wj la proiezione sul j-esimo fattore. Si dimostra facilmente (Esercizio 1.7) la propriet` a universale del prodotto diretto: (PD) Per ogni spazio vettoriale V su K e ogni famiglia di applicazioni lineari Lj : V → Wj esiste un’unica applicazione lineare L: V → Π tale che Lj = πj ◦ L per ogni j ∈ J, cio`e tale che per ogni j ∈ J il diagramma /Π } } }} Lj }}πj } } ~ Wj V
L
sia commutativo.
L’applicazione L ∈ Hom(V, j Wj ) viene talora denotata con Lj e prende il nome di prodotto diretto delle applicazioni Lj ∈ Hom(V, Wj ). Viceversa, `e facile verificare (Esercizio 1.7) che per ogni spazio vettoriale ˆ → Wj che soddisfano la propriet` ˆ fornito di applicazioni lineari π a (PD) Π ˆj : Π ˆ esiste un unico isomorfismo Ψ : Π → Π tale che π ˆj = πj ◦ Ψ per ogni j ∈ J; quindi il prodotto diretto `e univocamente determinato dalla propriet` a (PD). Torniamo alla descrizione dello spazio delle applicazioni lineari Hom(V, W ) quando V ha dimensione infinita. Non `e difficile dimostrare (Esercizio 1.1) la generalizzazione seguente della Proposizione 1.1.4.
4
1 Algebra multilineare
Proposizione 1.1.8. Siano V e W due spazi vettoriali di dimensione qualsiasi sul campo K, e sia B = {vj }j∈J una base di V . Allora l’applicazioJ l’elemento ne A: Hom(V, W ) → WJ che a ogni L ∈ Hom(V, W ) associa A(L) = L(vj ) j∈J ∈ W `e un isomorfismo fra Hom(V, W ) e W J , dipendente dalla scelta della base B. In altre parole, anche nel caso in cui V ha dimensione infinita, ogni elemento di Hom(V, W ) risulta univocamente determinato dai valori che assume sui vettori di una base. Se B = {vj }j∈J `e una base di V e per ogni j ∈ J scegliamo arbitrariamente wj ∈ W , esiste una e una sola applicazione lineare L ∈ Hom(V, W ) tale che L(vj ) = wj per ogni j ∈ J: per ogni v ∈ V sono infatti univocamente individuati vettori vj1 , . . . , vjk ∈ B e scalari λ1 , . . . , λk ∈ K tali che v = λ1 vj1 + · · · + λk vjk , per cui l’applicazione L `e definita ponendo L(v) = L(λ1 vj1 + · · · + λk vjk ) = λ1 wj1 + · · · + λk wjk . Nel resto di questa sezione richiameremo una serie di risultati sugli spazi duali. Prima di tutto ricordiamo che un’applicazione lineare tra due spazi vettoriali, di dimensione qualsiasi, induce una applicazione lineare tra i due spazi duali (vedi [1, Proposizione 8C.4]): Proposizione 1.1.9. Siano V e W spazi vettoriali sul campo K. Data un’applicazione lineare L: V → W esiste un’unica applicazione lineare L∗ : W ∗ → V ∗ tale che L∗ (ϕ)(v) = ϕ(L(v)) (1.1) per ogni ϕ ∈ W ∗ e v ∈ V . Definizione 1.1.10. Sia L: V → W un’applicazione lineare fra spazi vettoriali. L’unica applicazione lineare L∗ : W ∗ → V ∗ che soddisfa (1.1) `e detta applicazione duale o trasposta di L. Osservazione 1.1.11. Nota che se L ∈ Hom(V, W ) allora L∗ ∈ Hom(W ∗ , V ∗ ), cio`e L∗ ha dominio e codominio scambiati rispetto a L. Nel linguaggio delle categorie (che noi non useremo) questo si esprime dicendo che Hom(−, K) `e un funtore controvariante. Se V ha dimensione finita, la Proposizione 1.1.4 ci permette di costruire un isomorfismo (non canonico ma dipendente dalla scelta di una base) fra V e il suo spazio duale, e un isomorfismo (questa volta canonico) fra V e il duale del duale (vedi [1, Proposizioni 8C.1 e 8C.2] e gli Esercizi 1.1 e 1.5): Proposizione 1.1.12. Sia V uno spazio vettoriale di dimensione finita sul campo K, e sia B = {v1 , . . . , vn } una base di V . Allora: (i) se indichiamo con v h ∈ V ∗ l’elemento definito da v h (vk ) = δkh per ogni h, k = 1, . . . , n, allora B ∗ = {v1 , . . . , v n } `e una base di V ∗ , detta base duale di V ∗ ;
1.1 Brevi richiami di Algebra Lineare
5
(ii) l’applicazione ΦB : V → V ∗ definita da ΦB (vh ) = v h `e un isomorfismo che dipende dalla scelta della base B; (iii) l’applicazione Ψ : V → V ∗∗ data da Ψ (v)(ϕ) = ϕ(v) per ogni v ∈ V e ϕ ∈ V ∗ `e un isomorfismo canonico (cio`e dipendente solo da V e non dalla scelta di una base) fra V e il biduale V ∗∗ = (V ∗ )∗ . Inoltre, l’isomorfismo Ψ si ottiene come composizione di ΦB : V → V ∗ e ΦB∗ : V ∗ → (V ∗ )∗ ; (iv) ogni applicazione L ∈ End(V, W ) pu` o essere identificata con la biduale L∗∗ tramite gli isomorfismi canonici di V con V ∗∗ e di W con W ∗∗ . Ci resta da studiare il duale quando lo spazio vettoriale V ha dimensione infinita. Fissata una base B = {vj }j∈J di V , una costruzione analoga a quella utilizzata per il caso di dimensione finita permette (Esercizio 1.1) di definire o non `e detto una lista di vettori linearmente indipendenti di V ∗ , che per` costituisca una base di V ∗ : Proposizione 1.1.13. Sia V uno spazio vettoriale di dimensione qualsiasi sul campo K, e sia B = {vj }j∈J una sua base. Allora: (i) se indichiamo con v h ∈ V ∗ l’elemento definito da v h (vk ) = δkh per ogni h, k ∈ J, allora ogni sottoinsieme finito dell’ insieme duale B ∗ = {v j }j∈J ⊂ V ∗ `e formato da vettori linearmente indipendenti; (ii) l’applicazione ΦB : V → V ∗ , definita da ΦB (vh ) = v h `e una applicazione lineare iniettiva che dipende dalla scelta della base B; (iii) l’applicazione Ψ : V → V ∗∗ data da Ψ (v)(ϕ) = ϕ(v) per ogni v ∈ V e ogni ϕ ∈ V ∗ `e una applicazione lineare iniettiva. Osservazione 1.1.14. In particolare possiamo interpretare ogni vettore v ∈ V come un’applicazione lineare v: V ∗ → K definita da ϕ → ϕ(v). Nei capitoli successivi (in particolare nel Capitolo 5) avremo bisogno di studiare il duale del prodotto diretto e della somma diretta di spazi vettoriali. Cominciamo richiamando la definizione di somma diretta di una famiglia qualsiasi di spazi vettoriali: Definizione 1.1.15. Siano Wj spazi vettoriali sul campo K, al variare di j in un insieme di indici J, e indichiamo con Oj ∈ Wj il vettore nullo di Wj . La somma diretta degli spazi vettoriali Wj `e il sottospazio del prodotto diretto dato da ⎧ ⎫ ⎨ ⎬ Wj = (wj )j∈J ∈ Wj wj = Oj solo per un numero finito di indici j . ⎩ ⎭ j∈J
j∈J
Indicheremo con ιj : Wj → j Wj l’applicazione iniettiva che associa a w ∈ Wj l’unico elemento ιj (w) ∈ j Wj tale che
6
1 Algebra multilineare
πh (ιj (w)) =
Oh w
se h = j , se h = j ,
dove πj : h Wh → Wh `e la proiezione sull’h-esimo fattore. Infine, scriveremo W (J) invece di j Wj se tutti gli addendi Wj coincidono con uno spazio vettoriale W fissato. Esempio 1.1.16. Lo spazio W (N) `e lo spazio delle successioni (wn )n∈N ∈ W N definitivamente nulle, cio`e tali che wn = O per ogni n abbastanza grande. Osservazione 1.1.17. Se l’insieme di indici J `e finito, allora la somma diretta W e il prodotto diretto j j j Wj sono lo stesso spazio vettoriale. Ma se l’insieme l’insieme di indici `e infinito, somma diretta e prodotto diretto sono due spazi vettoriali diversi: confronta gli Esempi 1.1.6 e 1.1.16. Esempio 1.1.18. Per ogni m ∈ N sia em ∈ K(N) dato da em = (δmn )n∈N , cio`e em ha tutte le componenti uguali a 0 tranne la m-esima che vale 1. Si vede facilmente (controlla) che {em }m∈N `e una base (numerabile) di K(N) . Invece, QN non ha una base numerabile. Infatti, supponiamo per assurdo che B sia una base numerabile di QN . Sia Vn ⊂ QN il sottoinsieme dei vettori che si scrivono come combinazione lineare a coefficienti in Q di esattamente n elementi di B. Allora ogni Vn `e numerabile (perch´e?), per cui anche QN = n Vn dovrebbe essere numerabile, mentre ha la cardinalit` a del continuo, contraddizione. In modo analogo si dimostra che se K `e un campo infinito allora KN non ha una base numerabile, in quanto se l’avesse dovrebbe avere la stessa cardinalit`a di K mentre ha cardinalit` a strettamente pi` u grande. Osservazione 1.1.19. Anche la somma diretta di spazi vettoriali pu` o essere identificata tramite una propriet` a universale. Infatti, sia S = j Wj la somma diretta degli spazi vettoriali Wj su K con j che varia in un insieme di indici J, e siano ιj : Wj → S le corrispondenti applicazioni iniettive. Allora si dimostra facilmente (Esercizio 1.8) la propriet` a universale della somma diretta: (SD) Per ogni spazio vettoriale V su K e ogni famiglia di applicazioni lineari Lj : Wj → V esiste un’unica applicazione lineare L: S → V tale che Lj = L ◦ ιj per ogni j ∈ J, cio`e tale che per ogni j ∈ J il diagramma seguente sia commutativo: SO ιj
Wj
/V }> } }} . }}Lj } } L
L’applicazione L ∈ Hom( j Wj , V ) viene talora denotata con Lj e prende il nome di somma diretta delle applicazioni Lj ∈ Hom(Wj , V ). Viceversa, `e facile verificare (Esercizio 1.8) che per ogni spazio vettoriale Sˆ fornito di applicazioni lineari ˆιj : Wj → Sˆ che soddisfano la propriet`a (SD)
1.2 Prodotto tensoriale
7
esiste un unico isomorfismo Ψ : S → Sˆ tale che ˆιj = Ψ ◦ ιj per ogni j ∈ J; quindi la somma diretta `e univocamente determinata dalla propriet` a (SD). Il risultato che ci servir` a nel Capitolo 5 `e il seguente: Proposizione 1.1.20. Sia {Wj }j∈J una famiglia di spazi vettoriali sul campo K. Allora il duale della somma diretta `e canonicamente isomorfo al prodotto diretto dei duali, cio`e ⎛ ⎞∗ ⎝ Wj ⎠ ∼ Wj∗ . = j∈J
j∈J
∗ Dimostrazione. Definiamo un’applicazione L: W → j Wj∗ associanj j ∗ W il prodotto diretto delle forme lineari ϕj = ϕ ◦ ιj ∈ Wj∗ . do a ϕ ∈ j j L’applicazione L `e chiaramente dimostriamo che `e bigettiva. lineare: ∗ Iniettivit` a: sia ϕ ∈ tale che L(ϕ) = O; in particolare, abbiamo j Wj ϕj = ϕ ◦ ιj = O per ogni j ∈ J. Sia w ∈ j Wj arbitrario; allora esistono unici j1 , . . . , jk ∈ J e w1 ∈ Wj1 , . . . , wk ∈ Wjk tali che w = ιj1 (w1 ) + · · · + ιjk (wk ) .
(1.2)
Ma allora ϕ(w) = ϕj1 (w1 ) + · · · + ϕjk (wk ) = 0, e ϕ = O per l’arbitrariet` a di w. ∗ Surgettivit` a: sia (ϕj )j∈J ∈ j Wj∗ qualsiasi. Definiamo ϕ ∈ j Wj ponendo ϕ(w) = ϕj1 (w1 ) + · · · + ϕjk (wk ) per ogni w ∈ j Wj rappresentato in modo unico come in (1.2). Si verifica
immediatamente (controlla) che ϕ `e ben definita e che L(ϕ) = (ϕj )j∈J . Osservazione 1.1.21. In generale non `e vero che il duale del prodotto diretto `e la somma diretta dei duali. Per esempio, la Proposizione 1.1.13.(i) ci dice che lo spazio (RN )∗ ha dimensione maggiore o uguale di quella di RN , e quindi non pu` o essere isomorfo a (R∗ )(N) che ha invece una base numerabile (vedi l’Esempio 1.1.18).
1.2 Prodotto tensoriale L’applicazione V × V ∗ → K definita da (v, ϕ) → ϕ(v) (per ogni v ∈ V e ogni ϕ ∈ V ∗ ) risulta lineare in entrambe le variabili, ed `e una forma bilineare nel senso della definizione seguente.
8
1 Algebra multilineare
Definizione 1.2.1. Siano V1 , . . . , Vp , W spazi vettoriali sul campo K. Un’applicazione Φ: V1 × · · · × Vp → W si dice multilineare (o p-lineare) se `e lineare separatamente in ciascuna variabile. L’insieme Mult(V1 , . . . , Vp ; W ) delle applicazioni multilineari da V1 ×· · ·×Vp in W `e uno spazio vettoriale su K. Se W = K, le applicazioni multilineari sono dette forme multilineari e il loro insieme si denota anche con Mult(V1 , . . . , Vp ). Quando V1 = . . . = Vp = V , denotiamo Mult(V1 , . . . , Vp ; W ) con Multp (V ; W ). Le forme p-lineari su V sono denotate con Multp (V ). Vogliamo ora ricavare per le applicazioni multilineari risultati analoghi alla Proposizione 1.1.4. Siano V1 , . . . , Vp spazi vettoriali di dimensione finita e per ogni j = 1, . . . , p scegliamo una base Bj = {vj,1 , . . . , vj,nj } di Vj . Ogni vettore n μ o scrivere in modo unico come vj = μjj =1 λj j vj,μj ∈ Vj ; quindi vj ∈ Vj si pu` se Φ ∈ Mult(V1 , . . . , Vp ; W ) grazie alla multilinearit` a si deve avere che Φ(v1 , . . . , vp ) =
n1 μ1 =1
···
np
λμ1 1 · · · λμp p Φ(v1,μ1 , . . . , vp,μp ) .
(1.3)
μp =1
In particolare, l’applicazione p-lineare Φ `e univocamente individuata dai valori Φ(v1,μ1 , . . . , vp,μp ) ∈ W con 1 ≤ μj ≤ nj e 1 ≤ j ≤ p. Viceversa, se scegliamo arbitrariamente w(μ1 ,...,μp ) ∈ W , con 1 ≤ μj ≤ nj , possiamo definire una applicazione p-lineare Φ ∈ Mult(V1 , . . . , Vp ; W ) tale che Φ(v1,μ1 , . . . , vp,μp ) = w(μ1 ,...,μp ) ponendo ⎛ ⎞ np np n1 n1 Φ⎝ λμ1 1 v1,μ1 , . . . , λμp p vp,μp ⎠ = ··· λμ1 1 · · · λμp p w(μ1 ,...,μp ) . μ1 =1
μp =1
μ1 =1
μp =1
(1.4) Osservazione 1.2.2. Supponiamo assegnati p numeri interi n1 , . . . , np ∈ N∗ e uno spazio vettoriale W . Posto n = n1 · · · np , lo spazio vettoriale W n `e isomorfo al prodotto W n1 × · · · × W np ; lo spazio W n pu` o essere dunque descritto come lo spazio delle “matrici a p indici”, le cui entrate sono vettori di W caratterizzati da p indici tali che il j-esimo indice varia fra 1 e nj (per j = 1, . . . , p). o essere scritta come In altre parole, ogni n-pla w ∈ W n pu` w = (wμ1 ...μp )(μ1 ,...,μp )∈{1,...,n1 }×···×{1,...,np } con wμ1 ...μp ∈ W per ogni p-upla (μ1 , . . . , μp ) ∈ {1, . . . , n1 }×· · ·×{1, . . . , np }. Quando vorremo segnalare che stiamo utilizzando questa convenzione useremo il simbolo W n1 ,...,np per indicare lo spazio W n . In particolare, se W ha dimensione finita d, data una base {w1 , . . . , wd } di W otteniamo una base di W n1 ,...,np prendendo i vettori wν1 ,...,νp ,ν dove l’elemento di posto (μ1 , . . . , μp ) di wν1 ,...,νp ,ν `e dato da
1.2 Prodotto tensoriale
9
se (μ1 , . . . , μp ) = (ν1 , . . . , νp ) , altrimenti, (1.5) al variare di ν1 ∈ {1, . . . n1 }, . . . , νp ∈ {1, . . . , np }, e ν ∈ {1, . . . , d}. Per esempio, quando W = K, si ha d = 1 e possiamo omettere l’indice ν: il vettore eν1 ...νp della base canonica di Kn1 ,...,np , che ha un 1 al posto (ν1 , . . . , νp ) e 0 altrove, ha come (μ1 , . . . , μp )-esimo elemento il numero (wν1 ,...,νp ,ν )μ1 ...μp = δμν11 · · · δμνpp wν =
wν O
(eν1 ...νp )μ1 ...μp = δμν11 · · · δμνpp . o essere identificato con lo spazio delle Se, inoltre, p = 2 lo spazio Kn1 ,n2 pu` matrici n1 × n2 , e i vettori della base canonica sono identificati con la base standard dello spazio di matrici: il vettore eν1 ν2 corrisponde alla matrice che ha tutte le entrate nulle tranne l’elemento di posto (ν1 , ν2 ) che `e uguale a 1. Ecco l’estensione promessa della Proposizione 1.1.4: Proposizione 1.2.3. Siano V1 , . . . , Vp spazi vettoriali di dimensione finita sul campo K, di dimensione rispettivamente n1 , . . . , np , e sia W un altro spazio vettoriale su K. Per ogni j = 1, . . . , p scegliamo una base Bj = {vj,1 , . . . , vj,nj } di Vj . Allora l’applicazione A: Mult(V1 , . . . , Vp ; W ) → W n1 ,...,np data da A(Φ) = Φ(v1,μ1 , . . . , vp,μp ) (μ ,...,μ )∈{1,...,n }×···×{1,...,n } 1
p
1
p
`e un isomorfismo. In particolare, se anche W ha dimensione finita si ha dim Mult(V1 , . . . , Vp ; W ) = (dim V1 ) · · · (dim Vp ) · (dim W ) , e una base di Mult(V1 , . . . , Vp ; W ) `e {Φνν1 ,...,νp }(ν1 ,...,νp ,ν)∈{1,...,n1 }×···×{1,...,np }×{1,...,d} , ν ,...,νp
dove Φν1
: V1 × . . . × Vp → W `e definita da Φνν1 ,...,νp (v1,μ1 , . . . , vp,μp ) = δμν11 · · · δμνpp wν ,
e C = {w1 , . . . , wd } `e una base di W . Dimostrazione. Si vede subito che l’applicazione A `e lineare. Inoltre, A `e iniettiva e surgettiva grazie a quanto detto per ottenere (1.3) e (1.4). Infine, una base di Mult(V1 , . . . , Vp ; W ) si ottiene applicando A−1 a una base di W n1 ···np ; l’ultima affermazione segue quindi utilizzando la base in (1.5).
ν ,...,ν
p Definizione 1.2.4. La base {Φν1 } `e la base di Mult(V1 , . . . , Vp ; W ) associata alle basi Bj di Vj (per j = 1, . . . , p) e C di W .
Osservazione 1.2.5. In altre parole, anche le applicazioni multilineari sono completamente determinate dai valori che assumono su p-uple di elementi delle basi. Quando in seguito costruiremo un’applicazione multilineare prescrivendo il suo valore sulle basi e poi invocando questo risultato, diremo che stiamo estendendo per multilinearit` a.
10
1 Algebra multilineare
Nelle notazioni della Proposizione 1.2.3, quando W = K e p = 2 l’elemento A(Φ) `e una matrice n1 × n2 , che rappresenta la forma bilineare rispetto alle basi scelte. Si vede facilmente (confronta con [1, Sezione 12.6]) che cambiando basi la matrice A(Φ) viene moltiplicata per matrici (quadrate) invertibili (le matrici di cambiamento di base); quindi il suo rango non cambia. Questo ci permette di introdurre la seguente: Definizione 1.2.6. Sia Φ: V1 × V2 → K una forma bilineare su spazi vettoriali di dimensione finita. Il rango di Φ, indicato con rg(Φ), `e il rango della matrice A(Φ) che rappresenta Φ rispetto a delle basi qualsiasi di V1 e V2 . Per fissare la terminologia, ricordiamo anche alcune definizioni tipiche delle forme bilineari che ci serviranno in seguito: Definizione 1.2.7. Sia V uno spazio vettoriale sul campo K. Una forma bilineare Φ: V ×V → K `e detta simmetrica se Φ(v, u) = Φ(u, v) per ogni u, v ∈ V ; una forma bilineare simmetrica `e spesso chiamata prodotto scalare, e indicata con le parentesi angolate · , · . Definizione 1.2.8. Il nucleo sinistro di una forma bilineare Φ: V × W → K `e il sottospazio ⊥
W = {v ∈ V | Φ(v, w) = 0 per ogni w ∈ W } ⊆ V ;
il nucleo destro di Φ `e il sottospazio V ⊥ = {w ∈ W | Φ(v, w) = 0 per ogni v ∈ V } ⊆ W . Chiaramente, nucleo destro e nucleo sinistro coincidono se V = W e Φ `e simmetrica; in tal caso si parla di nucleo di Φ senza ulteriori aggettivi. La forma Φ `e detta non degenere se V ⊥ = ⊥ W = (O), e degenere altrimenti. Osservazione 1.2.9. Se lo spazio vettoriale V ha dimensione finita, si vede subito (controlla) che un prodotto scalare Φ: V × V → K `e non degenere se e solo se rg(Φ) = dim V , e che `e degenere se e solo rg(Φ) < dim V . Sia V uno spazio vettoriale di dimensione finita sul campo K. La Proposizione 1.1.12.(ii) mostra come la scelta di una base di V determina un isomorfismo tra V e il suo duale. Una strategia alternativa per ottenere un isomorfismo fra V e V ∗ consiste nell’assegnare un prodotto scalare non degenere su V : Lemma 1.2.10. Siano V e W due spazi vettoriali su K, e Φ: V × W → K una forma bilineare. Allora: (i) associando a ogni v ∈ V la forma lineare w → Φ(v, w) otteniamo un’applicazione lineare Φ− : V → W ∗ , e associando a ogni w ∈ W la forma lineare v → Φ(v, w) otteniamo un’applicazione lineare Φ− : W → V ∗ ; (ii) Φ− `e iniettiva se e solo se ⊥ W = (O), mentre Φ− `e iniettiva se e solo se V ⊥ = (O);
1.2 Prodotto tensoriale
11
(iii) se V e W hanno dimensione finita, allora Φ `e non degenere se e solo se Φ− e Φ− sono degli isomorfismi. Dimostrazione. Le parti (i) e (ii) sono ovvie. Per la parte (iii), supponiamo che a dim V ≤ dim W ∗ = dim W , e Φ sia non degenere. Allora l’iniettivit` a di Φ− d` − ∗ l’iniettivit` a di Φ d` a dim W ≤ dim V = dim V ; quindi dim V = dim W e Φ− e Φ− , essendo applicazioni lineari iniettive fra spazi della stessa dimensione, sono degli isomorfismi. Viceversa, se Φ− e Φ− sono degli isomorfismi sono in particolare iniettive, e quindi Φ `e non degenere grazie a (ii).
Esempio 1.2.11. Una forma bilineare non degenere Φ: V × W → K non induce sempre un isomorfismo fra V e W ∗ se V e W non hanno dimensione finita. Per esempio, sia Φ: R(N) × R(N) → R il prodotto scalare Φ (xn )n∈N , (yn )n∈N = xn y n , n∈N (N) hanno solo un numeche `e ben definito in quanto le successioni di R ro finito di elementi non nulli. Essendo Φ (xn )n∈N , (xn )n∈N > 0 per ogni (xn )n∈N ∈ R(N) , questo prodotto scalare `e non degenere, ma non pu`o indurre un isomorfismo fra R(N) e il suo duale, in quanto quest’ultimo (Proposizione 1.1.20) `e isomorfo a RN , che ha dimensione strettamente maggiore di quella di R(N) (vedi l’Esempio 1.1.18).
Osservazione 1.2.12. Viceversa, comunque assegnata una applicazione lineare L: V → W ∗ , risulta individuata una unica forma bilineare Φ: V × W → K definita da Φ(v, w) = L(v)(w) per ogni v ∈ V e w ∈ W ; in particolare (usando le notazioni del Lemma 1.2.10) Φ− = L. Abbiamo quindi costruito un’applicazione bigettiva Ψ : Mult(V, W ) → Hom(V, W ∗ ), e si verifica immediatamente (Esercizio 1.11) che `e un isomorfismo di spazi vettoriali (vedi anche la Proposizione 1.2.26.(iii) e l’Osservazione 1.2.27). Uno dei misteri dell’Algebra Lineare elementare `e come mai due nozioni piuttosto diverse, quali le applicazioni lineari fra due spazi vettoriali e le forme bilineari, sono rappresentate dallo stesso tipo di oggetti (le matrici). La soluzione del mistero `e l’isomorfismo Ψ . Infatti, dati due spazi vettoriali V e W di dimensione n ed m rispettivamente, la scelta di due basi fornisce (Proposizione 1.2.3) un isomorfismo fra lo spazio delle matrici Mm,n (K) e lo spazio delle forme bilineari Mult(V, W ). Abbiamo appena visto che quest’ultimo spazio `e canonicamente isomorfo a Hom(V, W ∗ ); ma grazie alla Proposizione 1.1.4 la scelta delle basi fornisce (la base duale per W ∗ e quindi) un isomorfismo di questo spazio con Mm,n (K), per cui siamo passati dalle matrici come forme bilineari alle matrici come applicazioni lineari. Vogliamo descrivere ora una procedura che permette di trasformare un’applicazione multilineare in una lineare a costo di cambiare opportunamente il dominio.
12
1 Algebra multilineare
Definizione 1.2.13. Siano V1 , . . . , Vp spazi vettoriali sul campo K. Un prodotto tensoriale di V1 , . . . , Vp `e una coppia (T, F ) ove T `e uno spazio vettoriale a su K e F : V1 ×. . .×Vp → T una applicazione p-lineare per cui vale la propriet` universale del prodotto tensoriale: (PT) Per ogni spazio vettoriale W su K e ogni applicazione multilineare Φ: V1 × · · · × Vp → W ˜ T → W tale che Φ = Φ ˜ ◦ F , cio`e esiste un’unica applicazione lineare Φ: tale che il diagramma / r9 W r r r F rr˜r r r Φ rrr T
V 1 × · · · × Vp
Φ
commuti. Lo spazio T viene usualmente denotato con il simbolo V 1 ⊗ · · · ⊗ Vp e chiamato prodotto tensoriale, se l’applicazione F risulta ben individuata dal contesto. Qualora sia necessario evidenziare il campo K scriveremo V1 ⊗K · · · ⊗K Vp . Gli elementi di V1 ⊗ · · · ⊗ Vp sono detti tensori; gli elementi della forma F (v1 , . . . , vp ) vengono indicati con la scrittura v1 ⊗ · · · ⊗ vp e sono detti tensori decomponibili. Osserviamo che il prodotto tensoriale, se esiste, `e “essenzialmente unico”, cio`e `e unico a meno di isomorfismo, nel senso della seguente proposizione: Proposizione 1.2.14 (Unicit` a del prodotto tensoriale). Se (T, F ) e (T , F ) sono prodotti tensoriali di V1 , . . ., Vp , allora esiste un unico isomorfismo L: T → T tale che F = L ◦ F . Dimostrazione. Applicando la propriet` a universale del prodotto universale alla coppia (T, F ) e all’applicazione p-lineare F : V1 × · · · × Vp → T , otteniamo una unica applicazione lineare F˜ : T → T tale che F = F˜ ◦ F . Invertendo i ruoli delle coppie, otteniamo una unica applicazione lineare F˜ : T → T tale che F = F˜ ◦ F . La composizione F˜ ◦ F˜ : T → T soddisfa l’uguaglianza (F˜ ◦ F˜ ) ◦ F = F˜ ◦ (F˜ ◦ F ) = F˜ ◦ F = F . Poich`e anche l’identit` a idT : T → T soddisfa l’uguaglianza idT ◦F = F , la propriet` a universale del prodotto tensoriale assicura che F˜ ◦ F˜ = idT . In modo analogo si dimostra che F˜ ◦ F˜ = idT ; quindi F˜ e F˜ sono isomorfismi. Ponendo L = F˜ otteniamo la tesi.
1.2 Prodotto tensoriale
13
Dunque il prodotto tensoriale, se esiste, `e unico a meno di isomorfismi. Rinviamo la dimostrazione dell’esistenza del prodotto tensoriale di spazi vettoriali qualsiasi all’Esercizio 1.40; qui invece useremo le forme p-lineari sugli spazi duali per dare una costruzione esplicita del prodotto tensoriale di spazi di dimensione finita, che sar`a pi` u che sufficiente per i nostri scopi. Teorema 1.2.15 (Esistenza del prodotto tensoriale). Dati p ≥ 2 spazi vettoriali V1 , . . . , Vp di dimensione finita su K, siano T = Mult(V1∗ , . . . , Vp∗ ) e F : V1 × · · · × Vp → T data definendo F (v1 , . . . , vp ): V1∗ × . . . × Vp∗ → K tramite la (1.6) F (v1 , . . . , vp )(ϕ1 , . . . , ϕp ) = ϕ1 (v1 ) · · · ϕp (vp ) , per ogni v1 ∈ V1 , . . . , vp ∈ Vp , e ogni ϕ1 ∈ V1∗ , . . . , ϕp ∈ Vp∗ . Allora (T, F ) `e un prodotto tensoriale di V1 , . . . , Vp . In particolare, V1 ⊗ · · · ⊗ Vp = Mult(V1∗ , . . . , Vp∗ ) , per cui dim(V1 ⊗ · · · ⊗ Vp ) = (dim V1 ) · · · (dim Vp ) . Dimostrazione. Dobbiamo dimostrare che (T, F ) soddisfa la propriet` a universale del prodotto tensoriale. In altre parole, dobbiamo dimostrare che comunque fissati uno spazio vettoriale W su K e una applicazione multilineare ˜ T → W tale che Φ: V1 × · · · × Vp → W , esiste un’unica applicazione lineare Φ: si abbia Φ = Φ˜ ◦ F . Per ogni j = 1, . . . , p, scegliamo una base Bj = {vj,1 , . . . , vj,nj } di Vj (ove n nj = dim Vj ) e denotiamo con Bj∗ = {vj1 , . . . , vj j } la corrispondente base duale. Per la Proposizione 1.2.3, `e sufficiente mostrare l’esistenza di un’unica ˜ T → W tale che le applicazioni p-lineari Φ e Φ ˜◦F applicazione lineare Φ: coincidano su tutte le p-uple di vettori delle basi Bj , cio`e Φ˜ F (v1,μ1 , . . . , vp,μp ) = Φ(v1,μ1 , . . . , vp,μp ) (1.7) per 1 ≤ j ≤ p e 1 ≤ μj ≤ nj . Ora, F (v1,μ1 , . . . , vp,μp ): V1∗ × · · · × Vp∗ → K `e una applicazione p-lineare che valutata sulle p-uple di vettori delle basi duali d` a F (v1,μ1 , . . . , vp,μp )(v1ν1 , . . . , vpνp ) = δμν11 · · · δμνpp ; ancora per la Proposizione 1.2.3, l’insieme {F (v1,μ1 , . . . , vp,μp )} `e dunque una base di T , e in particolare la base associata alle basi Bj∗ . La Proposizione 1.1.4 ci assicura allora che esiste un’unica applicazione lineare Φ˜ che soddisfa (1.7), concludendo la dimostrazione.
Ci possono essere altre realizzazioni concrete del prodotto tensoriale di spazi vettoriali (vedi per esempio l’Esercizio 1.40); ma noi lo penseremo sempre come spazio di applicazioni multilineari. Spesso ometteremo l’applicazione F e diremo, pi` u semplicemente, che V1 ⊗ · · · ⊗ Vp `e il prodotto tensoriale di V1 , . . . , Vp .
14
1 Algebra multilineare
Esempio 1.2.16. In particolare, il prodotto tensoriale di due spazi vettoriali di dimensione finita `e isomorfo allo spazio delle fome bilineari sui duali, cio`e V1 ⊗ V2 = Mult(V1∗ , V2∗ ). Osservazione 1.2.17. Siano V1 , . . . , Vp spazi vettoriali di dimensione finita; allora possiamo associare a delle basi di V1 , . . . , Vp una base di V1 ⊗ · · · ⊗ Vp . Infatti, scegliamo per j = 1, . . . , p una base Bj = {vj,1 , . . . , vnj ,j } di Vj ; allora i tensori decomponibili v1,μ1 ⊗ · · · ⊗ vp,μp = F (v1,μ1 , . . . , vp,μp ) al variare di 1 ≤ μ1 ≤ n1 , . . . , 1 ≤ μp ≤ np formano, come visto nella dimostrazione del Teorema 1.2.15, una base di V1 ⊗ · · · ⊗ Vp , detta la base di V1 ⊗ · · · ⊗ Vp associata alle basi Bj . Ove fosse necessario, possiamo ordinare gli elementi di questa base secondo l’ordine lessicografico: v1,μ1 ⊗ · · · ⊗ vp,μp viene prima di v1,ν1 ⊗ · · · ⊗ vp,νp se e solo se (μ1 , . . . , μp ) precede (ν1 , . . . , νp ), cio`e esiste 1 ≤ j ≤ p tale che μ1 = ν1 , . . . , μj−1 = νj−1 e μj < νj . Osservazione 1.2.18. Siano V1 , . . . , Vp spazi vettoriali di dimensione finita. Allora per ogni v1 ∈ V1 , . . . , vp ∈ Vp il tensore decomponibile v1 ⊗ · · · ⊗ vp = F (v1 , . . . , vp ) agisce su
V1∗
× ··· ×
Vp∗
tramite la seguente regola:
v1 ⊗ · · · ⊗ vp (ϕ1 , . . . , ϕp ) = ϕ1 (v1 ) · · · ϕp (vp ) per ogni ϕ1 ∈ V1∗ , . . . , ϕp ∈ Vp∗ . Osservazione 1.2.19. Siano V1 , . . . , Vp spazi vettoriali di dimensione finita a di F implica su K. Se λ ∈ K e v1 ∈ V1 , . . . , vp ∈ Vp , allora la multilinearit` che λ(v1 ⊗ · · · ⊗ vp ) = (λv1 ) ⊗ · · · ⊗ vp = · · · = v1 ⊗ · · · ⊗ (λvp ) . Analogamente, se vj , vj ∈ Vj si ha v1 ⊗· · ·⊗(vj +vj )⊗· · ·⊗vp = (v1 ⊗· · ·⊗vj ⊗· · ·⊗vp )+(v1 ⊗· · ·⊗vj ⊗· · ·⊗vp ) . Queste regole determinano completamente la manipolazione algebrica degli elementi del prodotto tensoriale (vedi l’Esercizio 1.40). Inoltre, ricordando l’Osservazione 1.2.17 otteniamo che ogni tensore si scrive (in modo non unico) come somma di tensori decomponibili. Osservazione 1.2.20. Attenzione: non tutti gli elementi di V1 ⊗ · · · ⊗ Vp sono decomponibili. Per esempio, tutti i tensori decomponibili di V ⊗W sono applicazioni bilineari degeneri. Infatti, dato v ⊗ w ∈ V ⊗ W , se prendiamo ϕ ∈ V ∗ non nullo tale che ϕ(v) = 0, allora v ⊗ w(ϕ, ·) ≡ O, per cui v ⊗ w `e degenere. Di conseguenza, nessuna applicazione bilineare non degenere di V ∗ × W ∗ in K pu` o essere rappresentata da un singolo tensore decomponibile. In particolare, dati u ∈ Km e v ∈ Kn , il tensore decomponibile u ⊗ v `e una forma bilineare di (Km )∗ × (Kn )∗ in K, e si vede facilmente (confronta con gli Esercizi 1.42 e 1.43) che la matrice che la rappresenta (rispetto alle basi duali delle basi canoniche) `e u · v T (che ha rango 1).
1.2 Prodotto tensoriale
15
Osservazione 1.2.21. Un’altra conseguenza della propriet` a universale del pro˜ V1 ⊗ · · · ⊗ V p → W dotto tensoriale `e che dare un’applicazione lineare L: `e equivalente a dare un’applicazione a valori in W definita sull’insieme F (V1 × · · · × Vp ) dei tensori decomponibili che sia lineare in ciascuno dei fattori. Infatti, quest’ultima applicazione deriva per definizione da un’applia universale ci fornisce cazione L: V1 × · · · × Vp → W multilineare, e la propriet` ˜ Useremo questo approccio piuttosto spesso; vedi per esistenza e unicit`a di L. esempio l’enunciato della Proposizione 1.2.26. Esempio 1.2.22 (Ampliamento del campo degli scalari). Se V `e uno spazio vettoriale di dimensione finita sul campo K, si vede subito (Esercizio 1.35) che V ⊗ K `e isomorfo a V . Se K = R possiamo considerare C come R-spazio vettoriale e introdurre il prodotto tensoriale V ⊗ C. Come spazio vettoriale reale, V ⊗ C ha dimensione doppia rispetto a V ; ma la cosa interessante `e che V ⊗ C ha una naturale struttura di spazio vettoriale su C, con dimensione (complessa) uguale alla dimensione (reale) di V . Infatti, ogni elemento di V ⊗C `e somma di un numero finito di elementi della forma vj ⊗ λj , con vj ∈ V e λj ∈ C; quindi possiamo definire il prodotto di un numero complesso λ per un elemento di V ⊗ C ponendo r r vj ⊗ λj = vj ⊗ (λλj ) , λ· j=1
j=1
ed `e facile verificare che in questo modo si ottiene uno spazio vettoriale su C. In particolare, se {v1 , . . . , vn } `e una base dello spazio vettoriale reale V , una base su R di V ⊗ C `e data da {v1 ⊗ 1, v1 ⊗ i, . . . , vn ⊗ 1, vn ⊗ i}, mentre una base su C `e semplicemente data da {v1 ⊗ 1, . . . , vn ⊗ 1}. Definizione 1.2.23. Sia V uno spazio vettoriale su R di dimensione finita. Lo spazio vettoriale complesso V ⊗ C viene detto complessificazione di V , e indicato con V C . La seguente proposizione raccoglie alcune propriet` a dei prodotti tensoriali: Proposizione 1.2.24. Siano W , V1 , . . . , Vp , Vj spazi vettoriali di dimensione finita sul campo K. (i) Data una permutazione σ di {1, . . . , p}, si consideri l’applicazione plineare F˜ : V1 × · · · × Vp → Vσ(1) ⊗ · · · ⊗ Vσ(p) definita da F˜ (v1 , . . . , vp ) = vσ(1) ⊗ · · · ⊗ vσ(p) . Allora (Vσ(1) ⊗· · ·⊗Vσ(p) , F˜ ) `e canonicamente isomorfo a (V1 ⊗· · ·⊗Vp , F ). (ii) Scelto j ∈ {1, . . . , p − 1}, si consideri l’applicazione p-lineare F˜ : V1 × · · · × Vp → (V1 ⊗ · · · ⊗ Vj ) ⊗ (Vj+1 ⊗ · · · ⊗ Vp ) data da
16
1 Algebra multilineare
F˜ (v1 , . . . , vp ) = (v1 ⊗ · · · ⊗ vj ) ⊗ (vj+1 ⊗ · · · ⊗ vp ) . Allora (V1 ⊗ · · · ⊗ Vj ) ⊗ (Vj+1 ⊗ · · · ⊗ Vp ), F˜ `e canonicamente isomorfo a (V1 ⊗ · · · ⊗ Vp , F ). (iii) Scelto j ∈ {1, . . . , p − 1}, sia F˜ : V1 × · · · ×(Vj ⊕ Vj ) × · · · × Vp → (V1 ⊗ · · · ⊗ Vj ⊗ · · · ⊗ Vp ) ⊕ (V1 ⊗ · · · ⊗ Vj ⊗ · · · ⊗ Vp ) data da F˜ (v1 , . . . , (vj , vj ), . . . , vp ) = (v1 ⊗· · ·⊗vj ⊗· · ·⊗vp , v1 ⊗· · ·⊗vj ⊗· · ·⊗vp ) . Allora (V1 ⊗ · · · ⊗ Vj ⊗ · · · ⊗ Vp ) ⊕ (V1 ⊗ · · · ⊗ Vj ⊗ · · · ⊗ Vp ), F˜ `e canonicamente isomorfo a V1 ⊗ · · · ⊗ (Vj ⊕ Vj ) ⊗ · · · ⊗ Vp , F . Dimostrazione. (i) La propriet` a universale (PT) associa all’applicazione plineare F˜ una applicazione lineare A: V1 ⊗ · · · ⊗ Vp → Vσ(1) ⊗ · · · ⊗ Vσ(p) tale che F˜ = A ◦ F . Ora, l’immagine di A `e un sottospazio vettoriale di Vσ(1) ⊗ · · · ⊗ Vσ(p) che include F˜ (V1 × · · · × Vp ); siccome quest’ultimo insieme, contenendo tutti i tensori decomponibili, genera Vσ(1) ⊗ · · · ⊗ Vσ(p) , l’applicazione A `e necessariamente surgettiva. Ma V1 ⊗ · · · ⊗ Vp e Vσ(1) ⊗ · · · ⊗ Vσ(p) hanno la stessa dimensione, e quindi A `e l’isomorfismo cercato. Le parti (ii) e (iii) si dimostrano in modo analogo (Esercizio 1.36).
In particolare otteniamo: Corollario 1.2.25. Siano W , V1 , . . . , Vp , V1 , . . . , Vr spazi vettoriali di dimensione finita. Allora i seguenti spazi sono canonicamente isomorfi: (i) V2 ⊗ V1 ∼ = V 1 ⊗ V2 ; (ii) (V1 ⊗ V2 ) ⊗ V3 ∼ = V1 ⊗ (V2 ⊗ V3 ); ∼ ⊕ V ) ⊗ V (iii) (V 2 3 = (V1 ⊗ V3 ) ⊕ (V2 ⊗ V3 ); 1 r p ∼ Vj ⊗ Vk = (Vj ⊗ Vk ). (iv) j=1
k=1
1≤j≤p 1≤k≤r
Dimostrazione. Segue immediatamente dalla Proposizione 1.2.24.
Ora studiamo il comportamento del prodotto tensoriale rispetto al passaggio al duale. Proposizione 1.2.26. Siano V , W , V1 , . . . , Vp , spazi vettoriali di dimensione finita sul campo K. (i) Sia F˜ : V1∗ × · · · × Vp∗ → (V1 ⊗ · · · ⊗ Vp )∗ data da F˜ (ϕ1 , . . . , ϕp )(v1 ⊗ · · · ⊗ vp ) = ϕ1 (v1 ) · · · ϕp (vp ) . Allora (V1 ⊗· · ·⊗Vp )∗ , F˜ `e canonicamente isomorfo a (V1∗ ⊗· · ·⊗Vp∗ , F ).
1.2 Prodotto tensoriale
17
(ii) Sia F˜ : V ∗ × W → Hom(V, W ) data da F˜ (ϕ, w)(v) = ϕ(v)w . Allora Hom(V, W ), F˜ `e canonicamente isomorfo a (V ∗ ⊗ W, F ). In particolare, si ha l’isomorfismo canonico End(V ) ∼ = V∗⊗V . u in (iii) Mult(V1 , . . . , Vp ) `e canonicamente isomorfo a V1∗ ⊗ · · · ⊗ Vp∗ . Pi` generale, si hanno i seguenti isomorfismi canonici: Mult(V1 , . . . , Vp ; W ) ∼ = Mult(V1 , . . . , Vp ) ⊗ W ∼ V ∗ ⊗ ··· ⊗ V ∗ ⊗ W = 1 p ∼ = Hom(V1 ⊗ · · · ⊗ Vp , W ) . Dimostrazione. (i) La propriet` a universale del prodotto tensoriale associa all’applicazione p-lineare F˜ un’applicazione lineare A: V1∗ ⊗ · · · ⊗ Vp∗ → (V1 ⊗ · · · ⊗ Vp )∗ tale che F˜ = A ◦ F . Ora, l’immagine di A `e un sottospazio vettoriale di (V1 ⊗· · ·⊗Vp )∗ che include F˜ (V1∗ ×· · ·×Vp∗ ); siccome si vede subito (controlla) che quest’ultimo insieme contiene tutti gli elementi della base duale della base di V1 ⊗ · · · ⊗ Vp associata a delle basi di V1 , . . . , Vp , l’applicazione A `e necessariamente surgettiva. Ma V1∗ ⊗· · · ⊗Vp∗ e (V1 ⊗· · · ⊗Vp )∗ hanno la stessa dimensione, e quindi A `e l’isomorfismo cercato. (ii) L’isomorfismo cercato `e l’applicazione lineare A: V ∗ ⊗W → Hom(V, W ) definita sui tensori decomponibili da A(ϕ ⊗ w)(v) = ϕ(v)w . Chiaramente A ◦ F = F˜ . L’immagine di A contiene tutti gli elementi di Hom(V, W ) di rango 1. Siccome ogni applicazione lineare da V in W `e somma di applicazioni di rango 1 (basta fissare una base dell’immagine e considerare le proiezioni sulle rette generate dai singoli elementi della base), l’applicazione A `e surgettiva, e l’uguaglianza delle dimensioni ci assicura nuovamente che A `e un isomorfismo. (iii) La prima affermazione segue direttamente dal Teorema 1.2.15 di esistenza del prodotto tensoriale, identificando ogni spazio vettoriale con il suo biduale grazie alla Proposizione 1.1.12.(iii). Usando questo, (i) e (ii), per concludere la dimostrazione basta far vedere che Mult(V1 , . . . , Vp ; W ) `e isomorfo a Mult(V1 , . . . , Vp ) ⊗ W . Sia A: Mult(V1 , . . . , Vp ) ⊗ W → Mult(V1 , . . . , Vp ; W ) l’applicazione lineare definita sui tensori decomponibili da A(Φ ⊗ w)(v1 , . . . , vp ) = Φ(v1 , . . . , vp )w ; ragionando come nel punto (ii) si vede subito che `e un isomorfismo.
18
1 Algebra multilineare
Osservazione 1.2.27. Riprendiamo l’isomorfismo A: V ∗ ⊗ W → Hom(V, W ), definito al punto (ii) della precedente proposizione. L’isomorfismo inverso A−1 identifica ogni applicazione lineare L: V → W con la forma bilineare A−1 (L) ∗ −1 ∗ in V ∗ ⊗ W = Mult(V, W ). Si verifica facilmente che A (L): V × W → K `e data da (v, ϕ) → ϕ L(v) . Nota inoltre che la catena di isomorfismi canonici Hom(V, W ) ∼ =V∗⊗W ∼ = V ∗ ⊗ (W ∗ )∗ ∼ = (W ∗ )∗ ⊗ V ∗ ∼ = Hom(W ∗ , V ∗ ) fa corrispondere a ogni applicazione lineare L: V → W l’applicazione duale L∗ : W ∗ → V ∗ . Concludiamo questa sezione introducendo il prodotto tensoriale di applicazioni lineari: Proposizione 1.2.28. Siano Lp : Vj → Vj per j = 1, . . . , p applicazioni lineari fra spazi vettoriali sul campo K. Allora esiste una e una sola applicazione lineare, denotata con L1 ⊗ · · · ⊗ Lp : V1 ⊗ · · · ⊗ Vp → V1 ⊗ · · · ⊗ Vp , che sui tensori decomponibili `e data da L1 ⊗ · · · ⊗ Lp (v1 ⊗ · · · ⊗ vp ) = L1 (v1 ) ⊗ · · · ⊗ Lp (vp ) . Inoltre, se Lj `e un isomorfismo per ogni j = 1, . . . , p allora anche L1 ⊗· · ·⊗Lp `e un isomorfismo. Dimostrazione. L’applicazione V1 × · · · × Vp → V1 ⊗ · · · ⊗ Vp definita da (v, . . . , vp ) → L1 (v1 )⊗· · ·⊗Lp (vp ) `e multilineare, per cui induce l’applicazione L1 ⊗ · · · ⊗ Lp cercata per la propriet` a universale del prodotto tensoriale. Infine, se tutte le Lj sono isomorfismi, si verifica immediatamente che −1 e l’inversa di L1 ⊗· · ·⊗Lp , perch´e lo `e sui tensori decomponibili. L−1 1 ⊗· · ·⊗Lp `
Definizione 1.2.29. Siano Lp : Vj → Vj per j = 1, . . . , p applicazioni lineari fra spazi vettoriali sul campo K. L’applicazione lineare L1 ⊗ · · · ⊗ Lp `e detta il prodotto tensoriale delle applicazioni lineari L1 , . . . , Lp .
1.3 Algebra tensoriale Come vedremo a partire dal Capitolo 3, in Geometria Differenziale sono particolarmente utili alcuni spazi ottenuti tramite prodotti tensoriali in cui i fattori sono tutti uguali a un fissato spazio vettoriale o al suo duale.
1.3 Algebra tensoriale
19
Definizione 1.3.1. Sia V uno spazio vettoriale sul campo K di dimensione finita. Allora possiamo costruire i seguenti spazi vettoriali: T00 (V ) = T0 (V ) = T 0 (V ) = K , T 1 (V ) = T01 (V ) = V , 0 T1 (V ) = T1 (V ) = V ∗ , T p (V ) = T0p (V ) = V ⊗ · · · ⊗ V , Tq (V ) = Tq0 (V ) = V ∗ ⊗ · · · ⊗ V ∗ , p volte q volte Tqp (V ) = T p (V ) ⊗ Tq (V ) , T • (V ) = T p (V ) , T (V ) = Tqp (V ) , T• (V ) = Tq (V ) . p≥0
p,q≥0
q≥0
Chiaramente, dim Tqp (V ) = (dim V )p+q , mentre T (V ) ha dimensione infinita. Un elemento di Tqp (V ) `e detto tensore p-controvariante e q-covariante, o ten sore di tipo pq , mentre, per motivi che vedremo fra un attimo, lo spazio T (V ) `e detto algebra tensoriale di V , mentre T • (V ) e T• (V ) sono, rispettivamente, l’algebra tensoriale controvariante e l’algebra tensoriale covariante. Ogni elemento α di T (V ) `e una somma α = p,q αqp ove αqp ∈ Tqp (V ) e αqp = 0 solo per un numero finito di indici p e q; gli elementi αqp sono detti componenti omogenee di α. Osservazione 1.3.2. Attenzione: altri testi possono usare notazioni e terminologie diverse da queste (anche invertendo indici e pedici rispetto alla convenzione da noi usata) per indicare il tipo di un tensore. Definizione 1.3.3. Se {v1 , . . . , vn } `e una base di V e {v 1 , . . . , v n } la base duale di V ∗ , la base di Tqp (V ) associata alla base di V `e composta, al variare di I = (i1 , . . . , ip+q ) ∈ {1, . . . , n}p+q , da tutti i possibili tensori della forma vI = vi1 ⊗ · · · ⊗ vip ⊗ v ip+1 ⊗ · · · ⊗ v ip+q . (1.8) Ogni tensore in Tqp (V ) `e quindi della forma αqp = I λI vI e i coefficienti λI sono le componenti di αqp nella base di Tqp (V ) associata alla base di V . Vedi anche l’Esercizio 1.49 per una analisi di come cambiano le coordinate di un tensore al cambiare della base scelta in V . Osservazione 1.3.4. Poich`e Tqp (V ) `e lo spazio delle applicazioni (p + q)-lineari da (V ∗ )p × V q a K, l’azione dei tensori decomponibili `e data da u1 ⊗ · · · ⊗ up ⊗ ω 1 ⊗ · · · ⊗ ω q (η1 , . . . , η p , v1 , . . . , vq ) = η 1 (u1 ) · · · η p (up ) · ω 1 (v1 ) · · · ω q (vq ) , dove u1 , . . . , up , v1 , . . . , vq ∈ V e ω 1 , . . . , ω q , η 1 , . . . , η p ∈ V ∗ . Se {v1 , . . . , vn } `e una base di V e {v 1 , . . . , v n } la base duale di V ∗ , il tensore αqp = I λI vI `e l’unica applicazione (p + q)-multilineare Φ: (V ∗ )p × V q → K tale che Φ(v i1 ⊗ · · · ⊗ vip ⊗ vip+1 ⊗ · · · ⊗ vip+q ) = λI per ogni I = (i1 , . . . , ip+q ) ∈ {1, . . . , n}p+q .
20
1 Algebra multilineare
Inoltre, la Proposizione 1.2.26.(iii) ci dice che per p, q ≥ 1 lo spazio Tqp (V ) `e isomorfo allo spazio delle applicazioni multilineari da (V ∗ )p × V q−1 a V ∗ , e a quello delle applicazioni multilineari da (V ∗ )p−1 × V q a V . In particolare, T11 (V ) `e isomorfo a End(V ). Ora vogliamo definire su T (V ) un prodotto. Definizione 1.3.5. Sia V uno spazio vettoriale di dimensione finita. Se +p2 (V ) ponendo α ∈ Tqp11 (V ) e β ∈ Tqp22 (V ) definiamo α ⊗ β ∈ Tqp11+q 2 α ⊗ β(η 1 , . . . , η p1 +p2 , v1 , . . . , vq1 +q2 ) = α(η 1 , . . . , η p1 , v1 , . . . , vq1 ) β(ηp1 +1 , . . . , η p1 +p2 , vq1 +1 , . . . , vq1 +q2 ) per ogni η 1 , . . . , η p1 +p2 ∈ V ∗ e ogni v1 , . . . , vq1 +q2 ∈ V . Ricordando che ogni elemento di T (V ) `e somma di un numero finito di tensori di tipo determinato, per distributivit` a otteniamo il prodotto tensore ⊗: T (V ) × T (V ) → T (V ) , un prodotto associativo rispetto al quale T (V ), +, ⊗ risulta essere un anello con unit` a 1 ∈ T00 (V ) (controlla). Inoltre, per ogni λ ∈ K e α, β ∈ T (V ) abbiamo λ(α ⊗ β) = (λα) ⊗ β = α ⊗ (λβ) , e quindi T (V ), +, ⊗, · `e un’algebra, giustificandone il nome. Osservazione 1.3.6. L’Osservazione 1.3.4 ci assicura che il prodotto tensore di elementi di V o di V ∗ `e proprio il tensore decomponibile indicato con lo stesso simbolo. Osservazione 1.3.7. Attenzione: il prodotto in T (V ) non `e commutativo. Per esempio, sia V = R2 con base canonica {e1 , e2 } e base duale {e1 , e2 }. I tensori e1 ⊗ e2 ed e2 ⊗ e1 appartengono a T02 (R2 ) e quindi sono applicazioni bilineari su (R2 )∗ × (R2 )∗ . Ma e1 ⊗ e2 (e1 , e2 ) = e1 (e1 )e2 (e2 ) = 1 = 0 = e1 (e2 )e2 (e1 ) = e2 ⊗ e1 (e1 , e2 ) , per cui e1 ⊗ e2 = e2 ⊗ e1 . Osservazione 1.3.8 (Spazi vettoriali isomorfi hanno algebre tensoriali isomorfe). Infatti, sia L: V → W un isomorfismo fra spazi vettoriali di dimensione finita su K. Indicato con L∗ : W ∗ → V ∗ l’isomorfismo duale, si ha che (L∗ )−1 : V ∗ → W ∗ `e ancora un isomorfismo. Possiamo allora definire una applicazione T (L): T (V ) → T (W ) ponendo T (L)(v1 ⊗ · · · ⊗ vp ⊗ ω 1 ⊗ · · · ⊗ ω q ) = L(v1 ) ⊗ · · · ⊗ L(vp ) ⊗ (L∗ )−1 (ω 1 ) ⊗ · · · ⊗ (L∗ )−1 (ω q ) ed estendendo per linearit` a. Si vede subito (controlla) che T (L) `e un isomorfismo di algebre che conserva il tipo, la cui inversa `e T (L−1 ).
1.3 Algebra tensoriale
21
Capita spesso che strutture definite sullo spazio vettoriale V possano essere estese all’intera algebra tensoriale. Un esempio tipico `e quello del prodotto scalare: Proposizione 1.3.9. Sia · , · : V × V → R un prodotto scalare definito positivo su uno spazio vettoriale V di dimensione finita su R. Allora esiste un unico prodotto scalare definito positivo · , ·
: T (V ) × T (V ) → R che soddisfa le seguenti condizioni: Tqp (V ) `e ortogonale a Tkh (V ) se p = h o q = k; λ, μ
= λμ per ogni λ, μ ∈ R = T 0 (V ); v, w
= v, w per ogni v, w ∈ T 1 (V ) = V ; v ∗ , w∗
= v, w per ogni v, w ∈ T 1 (V ), dove v∗ , w ∗ ∈ T1 (V ) = V ∗ sono le forme lineari definite da v ∗ = ·, v e w∗ = ·, w ; (v) α1 ⊗ α2 , β1 ⊗ β2
= α1 , β1
α2 , β2
per ogni α1 , β1 ∈ Tqp11 (V ) e ogni α1 , β2 ∈ Tqp22 (V ). (i) (ii) (iii) (iv)
Dimostrazione. Sia {v1 , . . . , vn } una base di V ortonormale rispetto a · , · ; in particolare, {v1∗ , . . . , v2∗ } `e la base duale di V ∗ . Come in (1.8), la corrispondente base di Tqp (V ) `e data dai tensori vI = vi1 ⊗ · · · ⊗ vip ⊗ vi∗p+1 ⊗ · · · ⊗ vi∗p+q , al variare di I = (i1 , . . . , ip+q ) ∈ {1, . . . , n}p+q . Ora, supponiamo che un prodotto scalare · , ·
che soddisfi (i)–(v) esista. Per le propriet` a (iii) e (iv), i vettori {v1 , . . . , vn } e {v1∗ , . . . , vn∗ } sono ortonormali rispetto a · , ·
, e quindi "" !! = λI vI , μJ vJ λI μJ vI , vJ
I
J
I
=
I
=
J
λI μJ vi1 , vj1
· · · vi∗p+q , vj∗p+q
J
λI μI ,
I
per cui · , ·
se esiste `e unico. Per l’esistenza, indichiamo con · , ·
l’unico prodotto scalare definito positivo su T (V ) rispetto a cui gli elementi della forma (1.8) formano una base ortonormale. Chiaramente, (i)–(iv) sono soddisfatte; dobbiamo verificare (v). Abbiamo: "" !! 1 2 1 2 λI1 vI1 ⊗ λI2 vI2 , μJ1 vJ1 ⊗ μJ2 vJ2 I1
I2
=
J1
λ1I1 λ2I2 μ1J1 μ2J2 vI1 ⊗ vI2 , vJ1 ⊗ vJ2
I1 ,I2 ,J1 ,J2
=
I1 ,I2
J2
λ1I1 λ2I2 μ1I1 μ2I2
22
1 Algebra multilineare
=
!! I1
λ1I1 vI1 ,
J1
μ1J1 vJ1
"" !! "" λ2I2 vI2 , μ2J2 vJ2 · , I2
J2
e ci siamo.
Concludiamo questa sezione introducendo una famiglia di applicazioni lineari tipiche dell’algebra tensoriale: Definizione 1.3.10. La contrazione su Tqp (V ) di tipo ji con 1 ≤ i ≤ p e p−1 1 ≤ j ≤ q `e l’applicazione lineare Cji : Tqp (V ) → Tq−1 (V ) definita sui tensori decomponibili da
Cji (v1 ⊗ · · · ⊗ vp ⊗ ω 1 ⊗ · · · ⊗ ω q ) $j ⊗ · · · ⊗ ω q = ω j (vi ) v1 ⊗ · · · ⊗ v#i ⊗ · · · ⊗ vp ⊗ ω 1 ⊗ · · · ⊗ ω (dove l’accento circonflesso indica elementi omessi nel prodotto tensore), ed estesa per linearit`a. Dato v ∈ V e q ≥ 1, la moltiplicazione interna per v `e l’applicazione lineare p (V ) definita sui tensori decomponibli da iv : Tqp (V ) → Tq−1 iv (v1 ⊗ · · · ⊗ vp ⊗ ω 1 ⊗ · · · ⊗ ω q ) = ω 1 (v) v1 ⊗ · · · ⊗ vp ⊗ ω 2 ⊗ · · · ⊗ ω q ed estesa per linearit` a. Esempio 1.3.11. Per esempio, C11 : T11 (V ) → K `e data sui tensori decomponibili da C11 (v ⊗ ω) = ω(v) , mentre C21 : T22 (V ) → T11 (V ) `e definita sui tensori decomponibili da C21 (v1 ⊗ v2 ⊗ ω 1 ⊗ ω 2 ) = ω 2 (v1 ) v2 ⊗ ω 1 .
1.4 Algebra esterna L’Osservazione 1.3.8 ci dice che ogni automorfismo L di uno spazio vettoriale T induce un automorfismo T (L) dell’algebra tensoriale T (V ). I sottospazi di T (V ) che sono mandati in se stessi da ogni automorfismo del tipo T (L) sono intrinsecamente associati allo spazio vettoriale V e quindi ci aspettiamo che siano particolarmente interessanti. Definizione 1.4.1. Sia V uno spazio vettoriale di dimensione finita. Un sottospazio vettoriale S di T (V ) che sia invariante sotto l’azione di T (L) per ogni automorfismo L di V , cio`e tale che T (L)(S) = S per ogni automorfismo L di V , `e detto spazio tensoriale.
1.4 Algebra esterna
23
I principali esempi di spazi tensoriali sono dati dall’insieme dei tensori simmetrici e dall’insieme dei tensori alternanti. Attenzione: da qui in poi assumeremo sempre che il campo K abbia caratteristica zero (e gli esempi principali da tenere in mente sono K = R e K = C). Osservazione 1.4.2. Indicheremo con Sp il gruppo simmetrico su p elementi, cio`e il gruppo delle permutazioni di {1, . . . , p}. ` noto che ogni permutazione σ ∈ Sp si pu` o scrivere come prodotto di E trasposizioni; questa scrittura non `e unica, ma la parit` a del numero delle trasposizioni necessarie per scrivere σ lo `e. In altre parole, se σ = τ1 · · · τr `e una decomposizione di σ ∈ Sp come prodotto di trasposizioni, il segno sgn(σ) di σ dato da sgn(σ) = (−1)r ∈ {+1, −1} `e indipendente dalla particolare decomposizione di σ come prodotto di trasposizioni. In particolare si ha sgn(σ −1 ) = sgn(σ)
sgn(στ ) = sgn(σ) sgn(τ ) e
per ogni σ, τ ∈ Sp . Ricordiamo infine la formula per il calcolo del determinante di una matrice A = (aji ) ∈ Mp,p (K): det A =
σ(1)
sgn(σ)a1
· · · aσ(p) . p
(1.9)
σ∈Sp
Definizione 1.4.3. Siano V e W spazi vettoriali sul campo K. Un’applicazione p-lineare ϕ: V × · · · × V → W `e simmetrica se ϕ(vσ(1) , . . . , vσ(p) ) = ϕ(v1 , . . . , vp ) per ogni p-upla (v1 , . . . , vp ) ∈ V p e ogni permutazione σ di {1, . . . , p}. Lo spazio tensoriale Sp (V ) (rispettivamente, S p (V )) dei tensori simmetrici pcovarianti (rispettivamente, p-controvarianti ) `e il sottospazio di Tp (V ) (rispettivamente, T p (V )) costituito dalle applicazioni multilineari simmetriche a valori in K. Definizione 1.4.4. Siano V e W spazi vettoriali sul campo K. Un’applicazione p-lineare ϕ: V × · · · × V → W `e alternante (o antisimmetrica) se ϕ(vσ(1) , . . . , vσ(p) ) = sgn(σ) ϕ(v1 , . . . , vp ) per ogni p-upla%(v1 , . . . , vp ) ∈ V p e ogni %p permutazione σ di {1, . . . , p}. Lo spaV ) dei tensori alternanti p-covarianti zio tensoriale p V (rispettivamente, (rispettivamente, p-controvarianti ) `e il sottospazio di Tp (V ) (rispettivamente, T p (V )) costituito dalle applicazioni multilineari alternanti a valori in K.
24
1 Algebra multilineare
` facile verificare (Esercizi 1.59 e 1.102) che i tensori simmetrici o alterE nanti formano effettivamente uno spazio tensoriale. Non sono per`o sottoalgebre dell’algebra tensoriale, almeno non rispetto al prodotto tensore. Infatti, il prodotto tensore di due tensori simmetrici o alternanti non `e necessariamente simmetrico o alternante. Esempio 1.4.5. Sia V = R2 , e indichiamo con {e1 , e2 } la base canonica, e con {e1 , e2 } la corrispondente base duale. Chiaramente, %1 V = S 1 (V ) = V , e1 , e 2 ∈ V = %2 / V ∪ S 2 (V ). Infatti, mentre e1 ⊗ e2 ∈ e1 ⊗ e2 (e1 , e2 ) = e1 (e1 )e2 (e2 ) = 1 = 0 = ± e1 (e2 )e2 (e1 ) = ± e1 ⊗ e2 (e2 , e1 ) . Osserviamo per` o che e1 ⊗ e2 + e2 ⊗ e1 ∈ S 2 (V )
e
e1 ⊗ e2 − e2 ⊗ e1 ∈
%2
V .
Quest’ultimo esempio fa sospettare che sia possibile definire un prodotto sui tensori alternanti (o simmetrici) in modo da ottenere un tensore alternante (o simmetrico). Per introdurlo, cominciamo con lo studiare meglio i tensori alternanti e simmetrici. Proposizione 1.4.6. Sia B = {v1 , . . . , vn } una base dello spazio vettoriale V sul campo K, e φ: B p → W una qualsiasi applicazione a valori in un altro spazio vettoriale W . Allora φ si pu` o estendere a una applicazione p-lineare alternante (rispettivamente, simmetrica) Φ: V × · · · × V → W se e solo se φ(vμσ(1) , . . . , vμσ(p) ) = sgn(σ)φ(vμ1 , . . . , vμp )
(1.10)
(rispettivamente, φ(vμσ(1) , . . . , vμσ(p) ) = φ(vμ1 , . . . , vμp )) per ogni permutazione σ di {1, . . . , p} e ogni p-upla (vμ1 , . . . , vμp ) di elementi di B. Dimostrazione. Per la Proposizione 1.2.3, ogni φ: Bp → W si estende in modo unico a un’applicazione p-lineare a valori in W tramite la (1.4), dove wμ1 ...μp = φ(vμ1 , . . . , vμp ), ed `e chiaro che l’estensione `e alternante se e solo se vale la (1.10). Il ragionamento nel caso simmetrico `e identico.
Osservazione 1.4.7. In questa sezione d’ora in poi tratteremo solo i tensori alternanti e simmetrici controvarianti; risultati del tutto analoghi valgono anp ∗ che % per i tensori %p ∗ alternanti e simmetrici covarianti, in quanto Sp (V ) = S (V ) e pV = V . %p V La Proposizione 1.4.6 implica che una applicazione multilineare Φ ∈ `e completamente determinata dai valori (arbitrariamente scelti) che assume sulle p-uple della forma (v i1 , . . . , v ip ) con 1 ≤ i1 < · · · < ip ≤ n, dove B ∗ = {v 1 , . . . , v n } `e una base di V ∗ . Analogamente, una Ψ ∈ S p (V ) `e completamente determinata dai valori che assume sulle p-uple della forma (v i1 , . . . , v ip ) con 1 ≤ i1 ≤ · · · ≤ ip ≤ n. Possiamo ricavare la dimensione degli spazi di tensori simmetrici, o antisimmetrici, p-covarianti.
1.4 Algebra esterna
25
Corollario 1.4.8. Sia V uno spazio vettoriale di dimensione n ≥ 1 sul campo K, e p ∈ N. Allora n+p−1 dim S p (V ) = , p dim
%p
n V =
In particolare,
se 0 ≤ p ≤ n ,
p
0
se p > n .
%p
dim
V = 2n .
0≤p≤n
%p V `e uguale alla Dimostrazione. Per quanto visto sopra, la dimensione di , . . . , i ) con 1 ≤ i < · · · < ip ≤ n, cardinalit` a dell’insieme delle p-uple (i p 1 1 cardinalit` a che `e ben nota essere np se 0 ≤ p ≤ n e 0 altrimenti. In particolare, dim
%p 0≤p≤n
V =
n n p=0
p
= 2n .
a delPer lo stesso motivo, la dimensione di S p (V ) `e uguale alla cardinalit` l’insieme delle p-uple (i1 , . . . , ip ) con 1 ≤ i1 ≤ · · · ≤ ip ≤ n. Ora, si ha 1 ≤ i1 ≤ · · · ≤ ip ≤ n se e solo se 1 ≤ i1 < i2 + 1 < i3 + 2 < · · · < ip + p − 1 ≤ n + p − 1 . Quindi l’insieme delle p-uple (i1 , . . . , ip ) con 1 ≤ i1 ≤ · · · ≤ ip ≤ n ha la cardinalit` a dell’insieme delle p-uple (j1 , . . . , jp ) con 1 ≤ j1 < · · · < jp ≤ n +p − 1, e la tesi segue dal fatto che quest’ultimo insieme ha cardinalit`a n+p−1 .
p %n Osservazione 1.4.9. In particolare, se V ha V = 1. %ndimensione n allora dim Non `e difficile % trovare un generatore di V : fissata una base {v1 , . . . , vn }, n V ponendo definiamo ω ∈ ω(ϕ1 , . . . , ϕn ) = det ϕi (vj ) per ogni ϕ1 , . . . , ϕn ∈ V ∗ . Siccome ω valutato sulla base duale di V ∗ `e uguale al determinante della matrice identica, cio`e 1, ne deduciamo che ω = O; quindi %n V `e un multiplo di ω. ogni altro elemento di In particolare, l’applicazione (Rn )n → R definita da (x1 , . . . , xn ) → det(x1 , · · · , xn ) `e l’unica forma n-lineare alternante su Rn che assume valore 1 sulla base canonica (e1 · · · , en ) di Rn .
26
1 Algebra multilineare
Definizione 1.4.10. Sia V uno spazio vettoriale di dimensione finita sul campo K. L’algebra esterna di V `e lo spazio tensoriale %p % V = V , 0≤p≤n
mentre l’algebra simmetrica di V `e lo spazio tensoriale S p (V ) . S(V ) = p≥0
%
Abbiamo gi` a osservato che V e S(V ) non % sono sottoalgebre di T (V ). Vogliamo ora introdurre un nuovo prodotto su V e un nuovo prodotto su S(V ) in modo da renderli delle algebre. Cominciamo con la Definizione 1.4.11. Sia V uno spazio vettoriale di dimensione finita su un campo K. % L’operatore di antisimmetrizzazione `e l’applicazione lineare A: T • (V ) → V definita da 1 sgn(σ) α(ϕσ(1) , . . . , ϕσ(p) ) A(α)(ϕ1 , . . . , ϕp ) = p! σ∈Sp
per ogni α ∈ T (V ), e ϕ , . . . , ϕp ∈ V ∗ . Analogamente, l’operatore di simmetrizzazione S: T • (V ) → S(V ) `e dato da 1 α(ϕσ(1) , . . . , ϕσ(p) ) S(α)(ϕ1 , . . . , ϕp ) = p! 1
p
σ∈Sp
per ogni α ∈ T p (V ), e ϕ1 , . . . , ϕp ∈ V ∗ . Nota che per ogni τ ∈ Sp si ha A(α)(ϕτ (1) , . . . , ϕτ (p) ) =
1 sgn(σ) α(ϕτ (σ(1)) , . . . , ϕτ (σ(p)) ) p! σ∈Sp
1 sgn(τ −1 ρ) α(ϕρ(1) , . . . , ϕρ(p) ) = p! ρ∈Sp
= sgn(τ ) A(α)(ϕ1 , . . . , ϕp ) , % ` inoltre evidente per cui l’immagine di A `e effettivamente contenuta in V . E % che A `e lineare, e che la sua restrizione a V `e l’identit` a. Analogamente, si vede facilmente che S `e un’applicazione lineare con immagine contenuta in S(V ), e che la restrizione di S a S(V ) `e l’identit` a. Definizione 1.4.12. %p Sia V uno %q spazio vettoriale di dimensione finita sul campo K, α ∈ V e β ∈ V . Allora il prodotto esterno di α e β `e il (p + q)-tensore alternante dato da α∧β =
%p+q (p + q)! A(α ⊗ β) ∈ V . p!q!
1.4 Algebra esterna
27
Estendendo per bilinearit` a otteniamo il prodotto esterno (o alternante) % % % ∧: V × V → V . % La quaterna ( V, +, ∧, ·) `e detta algebra esterna (o alternante, o di Grassmann) di V . Definizione 1.4.13. Sia V uno spazio vettoriale di dimensione finita sul campo K, α ∈ S p (V ) e β ∈ S q (V ). Allora il prodotto simmetrico di α e β `e il (p + q)-tensore simmetrico dato da αβ =
(p + q)! S(α ⊗ β) ∈ S p+q (V ) . p!q!
Estendendo per bilinearit` a definiamo il prodotto simmetrico : S(V ) × S(V ) → S(V ) . La quaterna S(V ), +, , · `e detta algebra simmetrica di V .
Osservazione 1.4.14. Attenzione: in alcuni testi il prodotto esterno `e definito dalla formula %p+q V α ∧ β = A(α ⊗ β) ∈ %p %q per ogni α ∈ V e β ∈ V . Analogamente, in alcuni testi (non necessariamente gli stessi) il prodotto simmetrico `e definito dalla formula α β = S(α ⊗ β). Proposizione 1.4.15. Sia V % uno spazio vettoriale di dimensione finita sul campo K. Allora la quaterna ( V, +, ∧, ·) `e un’algebra con unit` a e anticommutativa, nel senso che `e un’algebra con unit` a tale che α ∧ β = (−1)pq β ∧ α per ogni α ∈
%p
V eβ∈
%q
(1.11)
V.
Dimostrazione. La distributivit` a di ∧ rispetto alla somma e al prodotto per scalari sege subito dalla definizione e dalla linearit` a di A, ed `e chia%0 ro che 1 ∈ V `e un’unit` a. Rimangono da dimostrare l’associativit` a e l’anticommutativit` a (1.11). %q %r %p V, β ∈ V, γ ∈ V Cominciamo con l’associativit`a. Prendiamo α ∈ 1 p+q+r ∗ e φ ,...,φ ∈ V . Allora (α ∧ β) ∧ γ(φ1 , . . . , φp+q+r ) (p + q + r)! = A (α ∧ β) ⊗ γ (φ1 , . . . , φp+q+r ) (p + q)!r! 1 = sgn(τ )(α ∧ β) ⊗ γ(φτ (1) , . . . , φτ (p+q+r) ) (p + q)!r! τ ∈Sp+q+r
28
1 Algebra multilineare
=
=
1 (p + q)!r!
sgn(τ )(α ∧ β)(φτ (1) , . . . , φτ (p+q) )
τ ∈Sp+q+r
1 1 (p + q)! p!q!r!
×γ(φτ (p+q+1) , . . . , φτ (p+q+r) ) sgn(τ ) sgn(σ)α(φστ (1) , . . . , φστ (p) )
τ ∈Sp+q+r σ∈Sp+q
×β(φστ (p+1) , . . . , φστ (p+q) )γ(φτ (p+q+1) , . . . , φτ (p+q+r) ) , dove στ (1),. . . , στ (p + q) `e ottenuta applicando la permutazione σ alla (p + q)-upla τ (1), . . . , τ (p + q) . Ora, `e chiaro che
στ (1), . . . , στ (p + q), τ (p + q + 1), . . . , τ (p + q + r)
`e ancora una permutazione di (1, . . . , p + q + r), il cui segno `e esattamente sgn(τ ) sgn(σ). Inoltre, ogni permutazione in Sp+q+r pu` o essere ottenuta tramite questo procedimento in esattamente (p + q)! modi diversi; quindi abbiamo (α ∧ β) ∧ γ(φ1 , . . . , φp+q+r ) 1 = sgn(ρ)α(φρ(1) , . . . , φρ(p) )β(φρ(p+1) , . . . , φρ(p+q) ) (1.12) p!q!r! ρ∈Sp+q+r
×γ(φρ(p+q+1) , . . . , φρ(p+q+r) ) . In maniera analoga si dimostra che quest’ultima espressione `e uguale a α ∧ (β ∧ γ)(φ1 , . . . , φp+q+r ), e l’associativit`a `e verificata.% % Rimane da dimostrare la anticommutativit` a. Se α ∈ p V e β ∈ q V per ogni φ1 , . . . , φp+q ∈ V ∗ abbiamo α ∧ β(φ1 , . . . , φp+q ) 1 sgn(τ )α(φτ (1) , . . . , φτ (p) )β(φτ (p+1) , . . . , φτ (p+q) ) = p!q! τ ∈Sp+q
= (−1)pq
1 p!q!
sgn(ρ)α(φρ(q+1) , . . . , φρ(q+p) )β(φρ(1) , . . . , φρ(q) )
ρ∈Sp+q
= (−1) β ∧ α(φ1 , . . . , φp+q ) , pq
dove la permutazione ρ `e definita da ρ(i) = τ (p + i) per i = 1, . . . , q e da ρ(q + j) = τ (j) per j = 1, . . . , p, e ci siamo.
Osservazione 1.4.16. In maniera analoga si dimostra (Esercizio 1.105) che S(V ), +, , · `e un’algebra commutativa con unit` a.
1.4 Algebra esterna
29
Osservazione 1.4.17. Ripetendo (controlla) il ragionamento che ha portato al% % la (1.12) si dimostra che per ogni r-upla α1 ∈ k1 V, . . . , αr ∈ kr V e per ogni φ1 , . . . , φk1 +···+kr ∈ V ∗ si ha α1 ∧ · · · ∧ αr (φ1 , . . . , φk1 +···+kr ) 1 = k 1 ! · · · kr !
sgn(τ ) α1 (φτ (1) , . . . , φτ (k1 ) ) · · ·
τ ∈Sk1 +···+kr
×αr (φτ (k1 +···+kr−1 +1) , . . . , φτ (k1 +···+kr ) ) . In particolare, v1 ∧ · · · ∧ vp (φ1 , . . . , φp ) =
sgn(τ ) φτ (1) (v1 ) · · · φτ (p) (vp ) = det φh (vk )
τ ∈Sp
(1.13)
per ogni v1 , . . . , vp ∈ V e φ1 , . . . , φp ∈ V ∗ .
%p Osservazione 1.4.18. L’anticommutativit` a implica che se α ∈ V con p dispari allora α ∧ α = O.%Questo non `e pi` u vero se p `e pari: per esempio, se 2 4 R si ha α = e1 ∧ e2 + e3 ∧ e4 ∈ α ∧ α = 2 e1 ∧ e2 ∧ e3 ∧ e4 = O .
Avendo a disposizione il prodotto esterno non `e difficile trovare una base dell’algebra esterna: Proposizione 1.4.19. Sia %p B = {v1 , . . . , vn } una base di uno spazio vettoriaV `e data da le V . Allora una base di Bp = {vi1 ∧ · · · ∧ vip | 1 ≤ i1 < · · · < ip ≤ n} . Dimostrazione. Siccome Bp contiene tanti elementi quant’`e la dimensione di % p V , ci basta dimostrare che sono linearmente indipendenti. Sia {v 1 , . . . , v n } la base duale di V ∗ ; la Proposizione 1.2.3 ci dice che per vedere se gli elementi di Bp sono linearmente indipendenti basta calcolare il loro valore sulle p-uple di elementi della base duale e verificare che si ottengono vettori linearmente p indipendenti di Kn . Siccome i vi1 ∧ · · · ∧ vip sono alternanti, `e sufficiente calcolarne il valore su p-uple (v j1 , . . . , v jp ) con 1 ≤ j1 < · · · < jp ≤ n. Usando (1.13) otteniamo quindi vi1 ∧ · · · ∧ vip (v j1 , . . . , v jp ) = sgn(τ )v jτ (1) (vi1 ) · · · v jτ (p) (vip ) τ ∈Sp
=
τ ∈Sp
=
j
j
sgn(τ )δi1τ (1) · · · δipτ (p)
0 se (j1 , . . . , jp ) = (i1 , . . . , ip ) , 1 se (j1 , . . . , jp ) = (i1 , . . . , ip ) ,
in quanto i1 < · · · < ip e l’unica permutazione che conserva l’ordine `e l’identit` a.
30
1 Algebra multilineare
Osservazione 1.4.20. Sia (v1 , . . . , vp ) una p-upla di elementi di uno spazio vettoriale V . Se due di questi elementi coincidono, l’anticommutativit` a imu in generale, si vede subito (controlla) che plica che v1 ∧ · · · ∧ vp = O. Pi` v1 ∧ · · · ∧ vp = O se v1 , . . . , vp sono linearmente dipendenti. Viceversa, se {v1 , . . . , vp } sono linearmente indipendenti, possiamo completarli a una base di V e la Proposizione 1.4.19 ci assicura che v1 ∧ · · · ∧ vp = O. In effetti, l’elemento v1 ∧ · · · ∧ vp risulta essere univocamente determinato (a meno di una costante moltiplicativa non nulla) dal p-piano (cio`e dal u precisamente, sia sottospazio di dimensione p) generato da {v1 , . . . , vp }. Pi` {w1 , . . . , wp } un’altra base dello stesso p-piano, e sia A = (akh ) ∈ GL(p, K) la matrice tale che wh = a1h v1 + · · · + aph vp per h = 1, . . . , p. Allora w1 ∧ · · · ∧ wp = (det A) v1 ∧ · · · ∧ vp . Infatti, se φ1 , . . . , φp ∈ V ∗ , si ha w1 ∧ · · · ∧ wp (φ1 , . . . , φp ) sgn(τ )φτ (1) (w1 ) · · · φτ (p) (wp ) = τ ∈Sp
=
p
···
j1 =1
jp =1
p
=
aj11 · · · ajpp
sgn(τ )φτ (1) (vj1 ) · · · φτ (p) (vjp )
τ ∈Sp
p
···
j1 =1
=
p
aj11 · · · ajpp vj1 ∧ · · · ∧ vjp (φ1 , . . . , φp )
jp =1 σ(1)
sgn(σ)a1
· · · aσ(p) v1 ∧ · · · ∧ vp (φ1 , . . . , φp ) p
σ∈Sp
= (det A) v1 ∧ · · · ∧ vp (φ1 , . . . , φp ) , grazie all’anticommutativit` a e a (1.9). Vedi anche l’Esercizio 1.91 per il viceversa di questo risultato.
1.5 Tensori simplettici Dedichiamo quest’ultima sezione a un tipo particolare di 2-tensori covarianti alternanti, utili in diverse questioni di geometria differenziale e di fisica matematica. Di nuovo, lavoriamo su un campo K di caratteristica zero. Definizione 1.5.1. Un tensore simplettico `e un 2-tensore covariante alternan% te non degenere. Una coppia (V, ω) dove V `e uno spazio vettoriale e ω ∈ 2 V `e un tensore simplettico, `e detta spazio vettoriale simplettico. Esempio 1.5.2. Sia V uno spazio vettoriale di dimensione 2n. Scegliamo una base {v1 , w1 , . . . , vn , wn }, e indichiamo con {v 1 , w1 , . . . , v n , wn } la corrispon% dente base duale. Sia allora ω ∈ 2 V dato da
1.5 Tensori simplettici
ω=
n
vj ∧ wj .
31
(1.14)
j=1
Vogliamo dimostrare che ω `e un tensore simplettico. Prima di tutto, la sua azione sugli elementi della base `e data da ω(vi , wj ) = −ω(wj , vi ) = δij ,
ω(vi , vj ) = ω(wi , wj ) = 0 (1.15) i per ogni 1 ≤ i, j ≤ n. Supponiamo allora che v = i (a vi + bi wi ) ∈ V sia tale che ω(v, w) = 0 per ogni w ∈ V . In particolare 0 = ω(v, vj ) = −bj e 0 = ω(v, wj ) = aj per 1 ≤ j ≤ n; quindi v = O e ω `e non degenere. Definizione 1.5.3. Sia (V, ω) uno spazio vettoriale simplettico. Il complemento simplettico di un sottospazio W ⊆ V `e il sottospazio W ⊥ = {v ∈ V | ω(v, w) = 0 per ogni w ∈ W } . Contrariamente al caso dei complementi ortogonali, non `e detto che W ∩ W ⊥ = {O}. Per esempio, se dim W = 1 allora l’antisimmetria di ω implica che W ⊆ W ⊥ . Questa osservazione suggerisce di classificare i sottospazi di uno spazio vettoriale simplettico come segue: Definizione 1.5.4. Sia (V, ω) uno spazio vettoriale simplettico. Un sottospazio W ⊆ V di V sar`a detto simplettico se W ∩ W ⊥ = {O}; isotropo se W ⊆ W ⊥ ; coisotropo se W ⊇ W ⊥ ; Lagrangiano se W = W ⊥ . Esempio 1.5.5. Sia V uno spazio vettoriale di dimensione 4. Come nell’Esempio 1.5.2, scegliamo una base {v1 , w1 , v2 , w2 }, indichiamo con {v 1 , w1 , v 2 , w2 } % 2 la corrispondente base duale e definiamo ω ∈ 2 V mediante ω = j=1 v j ∧w j . Allora i sottospazi di dimensione 1 sono isotropi, Span (v1 , v2 ) `e Lagrangiano, Span (v1 , w1 , v2 ) `e coisotropo, e Span (v1 , w1 ) `e simplettico. L’unico risultato che dimostriamo sui tensori simplettici `e che possono sempre essere espressi nella forma indicata dall’Esempio 1.5.2. Proposizione 1.5.6. Sia (V, ω) uno spazio vettoriale simplettico. Allora la dimensione di V `e pari, ed esiste una base di V rispetto a cui ω `e data da (1.14). Dimostrazione. Si verifica facilmente che ω `e della forma (1.14) rispetto a una base {v1 , w1 , . . . , vn , wn } di V se e solo se l’azione di ω sui vettori della base `e data da (1.15). Dimostreremo allora che esiste una base per cui (1.15) vale procedendo per induzione su m = dim V . Per m = 0 non c’`e nulla da dimostrare. Supponiamo allora che (V, ω) sia uno spazio vettoriale simplettico di dimensione m ≥ 1, e che la proposizione sia vera per tutti gli spazi vettoriali simplettici di dimensione minore di m. Sia v1 ∈ V un vettore non nullo. Essendo ω non degenere, esiste un vettore w1 ∈ V tale che ω(v1 , w1 ) = 0; a meno di moltiplicare w1 per una costante,
32
1 Algebra multilineare
possiamo anche supporre che ω(v1 , w1 ) = 1. Siccome ω `e alternante, v1 e w1 sono linearmente indipendenti. Sia W il sottospazio generato da v1 e w1 . L’Esercizio 1.112.(i) ci assicura che dim W ⊥ = m − 2. Siccome ω|W ×W `e chiaramente non degenere, l’Esercizio 1.112.(iii) implica che W `e simplettico; ma allora W ∩ W ⊥ = {O} e quindi, grazie all’Esercizio 1.112.(ii), anche W ⊥ `e simplettico. Per l’ipotesi induttiva, dim W ⊥ `e pari, ed esiste una base {v2 , w2 , . . . , vn , wn } di W ⊥ che soddisfa (1.15). Ma allora {v1 , w1 , v2 , w2 , . . . , vn , wn } `e una base di V che soddisfa (1.15), e ci siamo.
Definizione 1.5.7. Sia (V, ω) uno spazio vettoriale simplettico. Una base {v1 , w1 , . . . , vn , wn } di V rispetto a cui ω `e data da (1.14) `e detta base simplettica di V .
Esercizi RICHIAMI DI ALGEBRA LINEARE Esercizio 1.1 (Usato nella Sezione 1.1). (i) (ii) (iii) (iv)
Dimostra Dimostra Dimostra Dimostra
la la la la
Proposizione Proposizione Proposizione Proposizione
1.1.4. 1.1.8. 1.1.12. 1.1.13.
Esercizio 1.2. Esprimi, nei termini della base duale della base canonica, la base duale della base di R3 data da v1 = (1, 2, 0), v2 = (0, 1, 1), v3 = (1, 0, 1). Esercizio 1.3. Sia L: R3 → R4 l’applicazione definita da L(x1 , x2 , x3 ) = (3x1 − x2 , x3 + x4 , x2 + x4 , x2 − x1 ) . (i) Determina la matrice dell’applicazione trasposta L∗ : (R4 )∗ → (R3 )∗ rispetto alle basi duali delle basi canoniche. (ii) Determina una base del nucleo di L∗ . Esercizio 1.4. Se K `e un campo qualunque, indichiamo con Kn lo spazio dei vettori colonna a coefficienti in K e con (Kn )T lo spazio dei vettori riga a coefficienti in K. (i) Dimostra che ogni vettore y T ∈ (Kn )T individua una forma lineare su Kn ponendo y(v) = y T · v per ogni v ∈ Kn , dove · `e il prodotto riga per colonna. (ii) Dimostra che l’applicazione (Kn )∗ → (Kn )T che associa a ogni forma lineare ϕ ∈ (Kn )∗ la matrice y T ∈ (Kn )T che rappresenta ϕ rispetto alla base canonica `e un isomorfismo tra (Kn )∗ e (Kn )T .
Esercizi
33
(iii) Se B ∈ Mm,n (K) `e una matrice m × n a coefficienti in K, indichiamo con LB ∈ Hom(Kn , Km ) l’applicazione definita da LB (v) = B · v, rappresentata dalla matrice B rispetto alle basi canoniche. Dimostra che, se y T ∈ (Km )T `e il vettore riga associato a ϕ ∈ (Km )∗ come in (ii), allora ϕ LB (v) = y T · (B · v) = (yT · B) · v = (B T · y)T · v per ogni v ∈ Kn . Concludi che la matrice associata a L∗B (ϕ) rispetto alle basi canoniche `e (B T · y)T , e che B T rappresenta L∗B rispetto alle basi duali. Esercizio 1.5. Sia L: V → W una applicazione lineare tra spazi vettoriali su K. (i) Dimostra che se L `e iniettiva allora L∗ `e surgettiva. (ii) Dimostra che se L `e surgettiva allora L∗ `e iniettiva. (iii) Dimostra che se L1 ∈ Hom(W, U ) allora (L1 ◦ L)∗ = L∗ ◦ L∗1 . Concludi che l’applicazione End(V ) → End(V ∗ ) definita da L → L∗ `e un morfismo di spazi vettoriali ma non un morfismo di anelli. Esercizio 1.6 (Usato nella Sezione 1.1). Siano V e W due spazi vettoriali di dimensione finita su K. Denota con iV : V → V ∗∗ e con iW : W → W ∗∗ gli isomorfismi canonici con i biduali. Dimostra che per ogni L ∈ Hom(V, W ) il diagramma L /W V iV
V ∗∗
L∗∗
iW
/ W ∗∗
`e commutativo. In altre parole, identificando ogni spazio vettoriale di dimensione finita con il suo biduale si ottiene L∗∗ = L. Esercizio 1.7 (Usato nell’Osservazione 1.1.7). Sia {W j }j∈J una famiglia di spazi vettoriali sul campo K. Indichiamo con Π = j Wj il prodotto diretto degli spazi vettoriali Wj , e con πj : Π → Wj la proiezione sul j-esimo fattore. Dimostra che: (i) per ogni spazio vettoriale V su K e ogni famiglia di applicazioni lineari Lj : V → Wj esiste un’unica applicazione lineare L: V → Π tale che Lj = πj ◦ L per ogni j ∈ J; ˆ `e uno spazio vettoriale su K fornito di applicazioni lineari π ˆ → (ii) se Π ˆj : Π ˆ Wj che soddisfano (i) allora esiste un unico isomorfismo Ψ : Π → Π tale che π ˆj = πj ◦ Ψ per ogni j ∈ J. Esercizio 1.8 (Usato nell’Osservazione 1.1.19). Sia {W j }j∈J una famiglia di spazi vettoriali sul campo K. Indichiamo con S = j Wj la somma diretta degli spazi vettoriali Wj , e con ιj : Wj → S le corrispondenti applicazioni iniettive.
34
1 Algebra multilineare
(i) Dimostra che per ogni spazio vettoriale V su K e ogni famiglia di applicazioni lineari Lj : Wj → V esiste un’unica applicazione lineare L: S → V tale che Lj = L ◦ ιj per ogni j ∈ J; (ii) Dimostra che se Sˆ `e uno spazio vettoriale su K fornito di applicazioni lineari ˆιj : Wj → Sˆ che soddisfano (i) allora esiste un unico isomorfismo Ψ : S → Sˆ tale che ˆιj = Ψ ◦ ιj per ogni j ∈ J. Esercizio 1.9. Sia V uno spazio vettoriale di dimensione infinita su un campo K, e B = {vj }j∈J una base di V , di insieme duale B∗ = {v j }j∈J ⊂ V ∗ . Per ogni j ∈ J poniamo Vj = Span (vj ) ⊂ V e V j = Span v j ⊂ V ∗ . (i) Dimostra che V `e isomorfo alla somma diretta j Vj . (ii) Dimostra che V `e isomorfo allo spazio delle funzioni f : J → K tali che f (j) = 0 solo per un numero finito di indici. (iii) Dimostra che V ∗ `e isomorfo allo spazio di tutte le funzioni f : J → K. (iv) Dimostra che V ∗ `e isomorfo al prodotto diretto j V j , mentre Span (B∗ ) `e isomorfo alla somma diretta j V j . ` E APPLICAZIONI BILINEARI DUALITA Esercizio 1.10. Considera le applicazioni bilineari Φ, Ψ : R3 × R3 → R definite, rispettivamente, da Φ(x, y) = xT Ay e Ψ (x, y) = xT By, ove ⎞ ⎛ ⎞ ⎛ 210 120 A = ⎝1 2 1⎠ e B = ⎝2 4 0⎠. 001 014 (i) Dimostra che Φ `e un prodotto scalare non degenere (e definito positivo). (ii) Sia Φ− : R3 → (R3 )∗ l’applicazione lineare che associa a x ∈ R3 la forma lineare Φx : R3 → R definita da Φx (y) = Φ(x, y). Determina la matrice che rappresenta Φ− rispetto alla base canonica in R3 e alla sua duale in (R3 )∗ , e mostra che Φ− `e un isomorfismo. (iii) Analogamente al punto precedente, sia Ψ− : R3 → (R3 )∗ l’applicazione che associa a x ∈ R3 la forma lineare Ψx : R3 → R definita da Ψx (y) = Ψ (x, y). Dimostra che Ψ `e degenere e determina il rango di Ψ− . Esercizio 1.11 (Citato nell’Osservazione 1.2.12). Siano V e W due spazi vettoriali sul campo K. Dimostra che l’applicazione Ψ : Mult(V, W ) → Hom(V, W ∗ ) che associa a ogni Φ ∈ Mult(V, W ) l’applicazione Φ− : V → W ∗ definita nel Lemma 1.2.10 `e un isomorfismo di spazi vettoriali. Definizione 1.E.1. Sia Φ: V ×W → K una forma bilineare, dove V e W sono due spazi vettoriali sul campo K. Se H `e un sottoinsieme di V , l’ortogonale (o annullatore) di H (rispetto a Φ) `e il sottospazio H ⊥ = {w ∈ W | Φ(h, w) = 0 per ogni h ∈ H} ⊆ W .
Esercizi
35
In particolare, V ⊥ `e il nucleo destro di Φ. Analogamente, se S `e un sottoinsieme di W , l’ortogonale (o annullatore) di S (rispetto a Φ) `e il sottospazio ⊥
In particolare,
S = {v ∈ V | Φ(v, s) = 0 per ogni s ∈ S} ⊆ V .
⊥
W `e il nucleo sinistro di Φ.
Definizione 1.E.2. Sia Φ: V ×W → K una forma bilineare, dove V e W sono due spazi vettoriali sul campo K. Diremo che Φ `e una dualit` a se le applicazioni Φ− e Φ− definite nel Lemma 1.2.10 sono entrambe isomorfismi. Esercizio 1.12. Sia Φ: V × W → K una dualit` a, dove V e W hanno dimensione finita. Dimostra che: (i) esistono basi B di V e C di W tali che la matrice che rappresenta Φ in tali basi sia la matrice identica; (ii) dim Z ⊥ = dim V − dim Z per ogni sottospazio Z di V ; (iii) ⊥ (Z ⊥ ) = Z per ogni sottospazio Z di V . Esercizio 1.13. Sia Φ: V × W → K una forma bilineare su spazi di dimensione finita. Se v ∈ V indicheremo con [v] = v+⊥ W ∈ V /⊥ W la classe di equivalenza rappresentata da v nel quoziente; e analogamente per w ∈ W e [w] ∈ W/V ⊥ . ⊥ (i) Dimostra che ponendo Φ([v], w) = Φ(v, w) per ogni elemento [v] ∈ V / W ⊥ e ogni w ∈ W si definisce una forma bilineare Φ: V / W × W → K. ⊥ (ii) Dimostra che ponendo Φ([v], [w]) = Φ(v, w) perogni [v] ∈⊥V / W e ogni ⊥ ⊥ [w] ∈ W/V si definisce una dualit` → K. a Φ: V / W × W/V Esercizio 1.14 (Citato nell’Esercizio 1.15 e nella Definizione 1.E.7). Sia V uno spazio vettoriale di dimensione finita su K, e V ∗ il suo duale. Sia, inoltre, ΦV : V × V ∗ → K la forma bilineare definita da Φ(v, ϕ) = ϕ(v) per ogni v ∈ V e ϕ ∈ V ∗ . Dimostra che: (i) Φ `e una dualit` a. (ii) comunque fissata una base B = {v1 , . . . , vn }, la matrice che rappresenta ΦV rispetto a B e alla base duale B∗ `e la matrice identica. (iii) se W `e un altro K-spazio vettoriale di dimensione finita e L ∈ Hom(V, W ), allora ⊥ (Ker L)⊥ = Im L∗ e (Im L) = Ker L∗ , dove questo ortogonale `e calcolato rispetto alla dualit`a ΦW : W ×W ∗ → K. Esercizio 1.15 (Citato nell’Esercizio 1.16). Dato uno spazio vettoriale V di a introdotta dimensione finita sul campo K, sia Φ = ΦV : V × V ∗ → K la dualit` nell’Esercizio 1.14. Supponi poi che V = W ⊕ Z sia somma diretta di due sottospazi W e Z non nulli. (i) Mostra che V ∗ = Z ⊥ ⊕ W ⊥ . (ii) Mostra che W ⊥ ⊆ Ker(Φ− (w)) per ogni w ∈ W e che Φ− (W ) = W , dove stiamo identificando V con il suo biduale.
36
1 Algebra multilineare
(iii) Mostra che l’applicazione ι∗W duale dell’inclusione ιW : W → V `e surgettiva, con nucleo W ⊥ , e che esiste un isomorfismo canonico W ∗ ∼ = (V ∗ /W ⊥ ). ∗ ∼ ∗ ∗ (iv) Mostra che esiste un isomorfismo V = W ⊕ Z , dipendente da W e Z, nel quale l’annullatore W ⊥ di W viene identificato con Z ∗ , e Z ⊥ con W ∗ . Esercizio 1.16 (Utile per l’Esempio 2.1.34). Dato uno spazio vettoriale V di dimensione finita sul campo K, fissa un sottospazio non nullo Q di V e due sottospazi non nulli P0 e P tali che V = Q⊕P0 = Q⊕P . Ogni vettore p0 ∈ P0 si scrive in modo unico come p0 = q + p, con q ∈ Q e p ∈ P . (i) Dimostra che se p0 = O, anche p `e non nullo e che p `e l’unico vettore w ∈ P tale che p0 − w ∈ Q. (ii) Dimostra che l’applicazione LP : P0 → Q definita da LP (p0 ) = q `e lineare. L’applicazione LP viene detta proiezione di P0 su Q lungo P . Quando P = P0 , l’applicazione LP0 `e identicamente nulla. (iii) Identificando Q∗ con un sottoinsieme di V ∗ come nell’Esercizio 1.15.(iv) usando la dualit` a ΦV : V × V ∗ → K, dimostra che ΦV (p0 , φ) = ΦV LP (p0 ), φ per ogni p0 ∈ P0 e ogni φ ∈ Q∗ . APPLICAZIONI MULTILINEARI Esercizio 1.17. Indicate con {e1 , e2 , e3 } e {E1 , E2 , E3 , E4 } le basi canoniche di R3 e R4 rispettivamente, determina l’espressione dell’applicazione bilineare Φ: R3 × R4 → R tale che Φ(ei , Ej ) = i · j per ogni i = 1, . . . , 3 e j = 1, . . . , 4. Esercizio 1.18. Sia Φ: M2,3 (R) × M3,1 (R) → R l’applicazione bilineare definita da Φ(eij , Ek1 ) = eij · Ek1 , dove {eij | i = 1, 2, j = 1, 2, 3} e {Ei1 | i = 1, 2, 3} sono le basi standard di M2,3 (R) e M3,1 (R) rispettivamente. Determina A(Φ), dove A `e l’applicazione definita nella Proposizione 1.2.3. 2 3 T Esercizio 1.19.Sia Φ: R × R → R la forma bilineare Φ(x, y) = x By ove −1 1 0 . B= 1 22
(i) Determina A(Φ), dove A `e l’applicazione definita nella Proposizione 1.2.3 considerando le basi canoniche E1 = {ei | i = 1, 2} e E2 = {Ej | j = 1, 2, 3} di R2 e R3 rispettivamente. (ii) Prendi, in R2 , la base B1 = {v1 = e1 + e2 , v2 = e1 − e2 } e denota con x le coordinate rispetto alla base B1 del vettore x ∈ R2 . Determina la matrice C associata a Φ rispetto alle basi B1 e E2 (cio`e tale che Φ(x, y) = (x )T Cy). (iii) Prendi, in R3 , la base B2 = {u1 = 2E1 +3E2 , u2 = E2 +E3 , u3 = E1 −E2 } e denota con y le coordinate rispetto alla base B2 del vettore y ∈ R3 . Determina la matrice D associata a Φ rispetto alle basi B1 e B2 (cio`e tale che Φ(x, y) = (x )T Dy ).
Esercizi
37
(iv) Ricostruisci il legame tra le matrici B, C, D e le matrici dei cambi di base utilizzati in R2 e R3 . Esercizio 1.20. Data B ∈ Mm.n (R), sia Φ: Rm × Rn → R la forma bilineare Φ(x, y) = xT By. (i) Determina A(Φ), dove A `e l’applicazione definita nella Proposizione 1.2.3, considerando le basi canoniche E1 = {ei | i = 1, . . . , m} e E2 = {Ej | j = 1, . . . , n} in Rm e in Rn rispettivamente. (ii) Sia B1 una base di Rm e denota con x = C1 x il cambio di coordinate. Dimostra che D = C1T B `e la matrice associata a Φ rispetto alle basi B1 ed E2 (cio`e tale che Φ(x, y) = (x )T Dy). (iii) Sia B2 una base di Rn e denota con y = C2 y il cambio di coordinate. Dimostra che M = DC2 `e la matrice associata a Φ rispetto alle basi B1 e B2 . (iv) Dimostra che M = C1T BC2 `e la relazione che lega le matrici B, M e le matrici dei cambi di base utilizzati in Rm e Rn . Esercizio 1.21. Sia Φ: R2 × R3 → R la forma bilineare Φ(x, y) = 2x1 y1 + 3x1 y2 + 4x2 y1 + 3x2 y2 + x2 y3 , ove x = (x1 , x2 )T ∈ R2 e y = (y1 , y2 , y3 )T ∈ R3 . (i) Determina A(Φ), dove A `e l’applicazione definita nella Proposizione 1.2.3, considerando le basi canoniche E1 = {e1 , e2 } e E2 = {E1 , E2 , E3 } in R2 e in R3 rispettivamente. (ii) Determina la matrice D associata a Φ rispetto alle basi E1 ed E2 (cio`e tale che Φ(x, y) = xT Dy). Esercizio 1.22. Sia Φ: M2,3 (R) × M3,2 (R) → M2,2 (R) definita dal prodotto righe per colonne Φ(D, M ) = DM per ogni D ∈ M2,3 (R) e M ∈ M3,2 (R). (i) Mostra che Φ `e bilineare. (ii) Determina A(Φ), dove A `e l’applicazione definita nella Proposizione 1.2.3, considerando le basi standard {eij }i=1,2,j=1,2,3 , {Ehk }h=1,2,3,k=1,2 , {est }s=1,2,t=1,2 di M2,3 (R), M3,2 (R) e M2,2 (R) rispettivamente, ordinate rispetto all’ordine lessicografico. Esercizio 1.23. (i) Sia Φ: M3,3 (R)×M3,4 (R)×M4,2 (R) → M3,2 (R) definita dal prodotto righe per colonne Φ(B, C, D) = BCD, per ogni B ∈ M3,3 (R), C ∈ M3,4 (R) e D ∈ M4,2 (R). Dimostra che Φ `e 3-lineare. (ii) Dimostra che l’applicazione Ψ : Mn,n (K) × · · · × Mn,n (K) → Mn,n (K) data dal prodotto righe per colonne Ψ (C1 , C2 , . . . , Cr ) = C1 · C2 · · · Cr `e multilineare. Esercizio 1.24. Dimostra la multilinearit` a di Φ: R4 × R5 × R2 → R3 definita da Φ(x, y, z) = (x1 y3 z2 + x3 y1 z2 , x2 y5 z1 − 3x2 y4 z2 , 7x2 y2 z2 + x4 y3 z1 )
38
1 Algebra multilineare
per ogni x = (x1 , x2 , x3 , x4 )T ∈ R4 , y = (y1 , y2 , y3 , y4 , y5 )T ∈ R5 e z = (z1 , z2 )T ∈ R2 . Esercizio 1.25. Dati n vettori x1 , . . . , xn ∈ Rn , denota con (x1 x2 · · · xn ) la matrice con colonne i vettori x1 , . . . , xn . (i) Dimostra che l’applicazione Φ: Rn × · · · × Rn → R definita da Φ(x1 , x2 , . . . , xn ) = det(x1 x2 · · · xn ) `e multilineare. (ii) Sia Ψ : Rn × . . . × Rn → R definita da Ψ (x1 , x2 , . . . , xn ) = tr(x1 x2 · · · xn ) , dove tr `e la traccia della matrice (la somma degli elementi sulla diagonale principale). Verifica se Ψ `e n-lineare, e se Ψ `e lineare. Esercizio 1.26 (Utile per l’Esercizio 1.41). Siano V1 , V2 , V3 e W spazi vettoriali di dimensione finita sul campo K. (i) Dimostra che Mult(V1 , V2 ; W ) e Hom V1 , Hom(V2 , W ) sono spazi vettoriali canonicamente isomorfi. In particolare, Mult(V1 , V2 ) ∼ = Hom V1 , V2∗ . ˆ ∈ Hom (V1 , Hom(V2 , W )) [Suggerimento: per ogni Φ ∈ Mult(V1 , V2 ; W ) sia Φ definita da ˆ 1 )(v2 ) = Φ(v1 , v2 ) ∈ W Φ(v al variare di v1 ∈ V1 e v2 ∈ V2 ]. (ii) Dimostra che gli spazi Mult(V 1 , V2 , V3 ; W ), Mult V1 , V2 ; Hom(V3 , W ) e Hom V1 , Mult(V2 , V3 ; W ) sono canonicamente isomorfi. In particolare, Mult(V1 , V2 , V3 ) ∼ = Hom V1 , Mult(V2 , V3 ) ∼ = Mult V1 , V2 ; V3∗ . [Suggerimento: data Φ ∈ Mult(V lineari 1 , V2 , V3 ; W), considera le applicazioni ˜ ∈ Mult V1 , V2 ; Hom(V3 , W ) definite da ˆ ∈ Hom V1 , Mult(V2 , V3 ; W ) e Φ Φ ˆ 1 )(v2 , v3 ) = Φ(v ˜ 1 , v2 )(v3 ) = Φ(v1 , v2 , v3 ) ∈ W Φ(v per ogni v1 ∈ V1 , v2 ∈ V2 e v3 ∈ V3 .]
(iii) Che relazione c’`e fra l’isomorfismo del punto (i) e l’isomorfismo della Proposizione 1.2.26.(ii)? Esercizio 1.27 (Utile per l’Esercizio 1.41). Siano V1 , . . . , Vp e W spazi vettoriali di dimensione finita. Dimostra che gli spazi vettoriali Mult(V1 ,. . . , Vp ; W ), Hom V1 , Mult(V2 , . . . , Vp ; W ) e Mult V1 , . . . , Vp−1 ; Hom(Vp , W ) sono canonicamente isomorfi. In particolare, Mult(V1 , . . . , Vp ) ∼ = Hom V1 , Mult(V2 , . . . , Vp ) ∼ = Mult V1 , . . . , Vp−1 ; Vp∗ .
Esercizi
39
[Suggerimento: data Φ ∈ Mult(V 1 , . . . , Vp ; W), considera le applicazioni lineari ˆ ∈ Hom V1 , Mult(V2 , . . . , Vp ; W ) e Φ ˜ ∈ Mult V1 , . . . , Vp−1 ; Hom(Vp , W ) definite Φ da ˆ 1 )(v2 , . . . , vp ) = Φ(v ˜ 1 , . . . , vp−1 )(vp ) = Φ(v1 , . . . , vp ) ∈ W Φ(v per ogni v1 ∈ V1 , . . . , vp ∈ Vp .]
POLINOMI E APPLICAZIONI MULTILINEARI Definizione 1.E.3. Un polinomio omogeneo di grado d ∈ N fra due spazi vettoriali V e W `e un’applicazione P : V → W della forma P (v) = Φ(v, . . . , v) , dove Φ: V d → W `e un’applicazione d-lineare. In particolare, i polinomi omogenei di grado 0 sono le costanti, e i polinomi omogenei di grado 1 sono le applicazioni lineari. Un polinomio di grado d ∈ N fra V e W `e un’applicazione Q: V → W della forma Q = Pd + · · · + P0 , dove Pj : V → W `e un polinomio omogeneo di grado j, per j = 0, . . . , d. Esercizio 1.28. Dati due spazi vettoriali V e W , e d ∈ N, dimostra che l’insieme dei polinomi omogenei di grado d e l’insieme dei polinomi di grado al massimo d sono dei sottospazi vettoriali dello spazio di tutte le applicazioni da V in W . Esercizio 1.29 (Citato nell’Esercizio 1.33). Sia P : V → W un polinomio omogeneo di grado d fra due spazi vettoriali V e W . Dimostra che esiste un’applicazione d-lineare simmetrica P˜ : V d → W tale che P (v) = P˜ (v, . . . , v) per ogni v ∈ V . [Nota: L’Esercizio 1.34.(ii) mostrer`a che P˜ `e unica.] Esercizio 1.30. Se K `e un campo e d ∈ N, dimostra che i polinomi omogenei di grado d da Kn a K sono tutti e soli i polinomi P ∈ K[x1 , . . . , xn ] in n indeterminate di grado d composti esclusivamente da monomi di grado esattamente d. Esercizio 1.31. Siano P1 : V → W1 e P2 : V → W2 due polinomi omogenei, di grado rispettivamente d1 e d2 , e Θ: W1 × W2 → U un’applicazione bilineare. Dimostra che l’applicazione Q: V → U data da Q(v) = Θ P1 (v), P2 (v) `e un polinomio omogeneo di grado d1 + d2 . Definizione 1.E.4. Siano V e W due spazi vettoriali, e v0 ∈ V . L’operatore differenza rispetto a v0 `e l’operatore Δv0 che associa a ogni applicazione φ: V → W l’applicazione Δv0 φ: V → W data da Δv0 φ(v) = φ(v + v0 ) − φ(v). Esercizio 1.32. Sia φ: V → W un’applicazione qualsiasi fra due spazi vettoriali. Dimostra che l’applicazione (v1 , . . . , vd ) → Δv1 · · · Δvd φ `e simmetrica rispetto a v1 , . . . , vd , nel senso che
40
1 Algebra multilineare
Δvσ(d) · · · Δvσ(1) φ(v) = Δvd · · · Δv1 φ(v) per ogni v ∈ V e ogni permutazione σ ∈ Sd . [Suggerimento: procedi per induzione su d.]
Esercizio 1.33 (Utile per l’Esercizio 1.34). Sia P = P0 + · · · + Pd : V → W un polinomio di grado minore o uguale a d. Dimostra che: (i) per ogni v0 ∈ V l’applicazione Δv0 P : V → W `e un polinomio di grado minore o uguale a d − 1; (ii) per ogni v1 , . . . , vd ∈ V l’applicazione Δvd · · · Δv1 P `e una costante e si ha Δvd · · · Δv1 P = d! P˜d (v1 , . . . , vd ) , dove P˜d : V d → W `e un’applicazione d-lineare simmetrica tale che si abbia Pd (v) = P˜d (v, . . . , v) per ogni v ∈ V (vedi l’Esercizio 1.29). Esercizio 1.34 (Citato nell’Esercizio 1.29). Siano V e W due spazi vettoriali, e d ∈ N. (i) Se Pj , Qj : V → W sono polinomi omogenei di grado j, con j = 0, . . . , d tali che Pd +· · ·+P0 ≡ Qd +· · ·+Q0 dimostra che Pj ≡ Qj per j = 0, . . . , d. (ii) Dimostra che per ogni polinomio omogeneo P : V → W di grado d esiste un’unica applicazione d-lineare simmetrica P˜ : V d → W tale che P (v) = P˜ (v, . . . , v) per ogni v ∈ V . [Suggerimento: usa l’Esercizio 1.33.]
PRODOTTO TENSORIALE Esercizio 1.35 (Citato nell’Esempio 1.2.22). Dimostra che V ⊗ K e K ⊗ V sono canonicamente isomorfi a V per ogni spazio vettoriale V di dimensione finita sul campo K. Esercizio 1.36 (Usato nella Proposizione 1.2.24). Dimostra le parti (ii) e (iii) della Proposizione 1.2.24. Esercizio 1.37. Siano V e U spazi vettoriali di dimensione finita su K. Siano inoltre B = {v1 , . . . , vn } una base di V , C = {u1 , . . . , um } una base di W , e B ∗ = {v 1 , . . . , v n } e C ∗ = {u1 , . . . , um } le basi duali. (i) Dati aνμ ∈ K per ν = 1, . . . , n e μ = 1, . . . , m, sia Φ: V ∗ × U ∗ → K la forma bilineare definita da Φ(vν , uμ ) = aνμ . Determina le coordinate di Φ rispetto alla base di V ⊗ W associata alle basi di V e U . (ii) Dimostra che ogni forma bilineare su V ∗ × U ∗ `e della forma ν wν ⊗ zν per opportuni wν ∈ V e zν ∈ U (e tale scrittura non `e in generale unica). [Suggerimento: ogni elemento di V ⊗ U `e della forma α= aνμ vν ⊗ uμ = vν ⊗ ( aνμ uμ ) . νμ
ν
μ
]
Esercizi
41
Esercizio 1.38. Siano V1 , . . . , Vp spazi vettoriali di dimensione finita su un campo K. Mostrare che, comunque presi vettori non nulli vj ∈ Vj , il prodotto tensore v1 ⊗ · · · ⊗ vp ∈ V1 ⊗ · · · ⊗ Vp `e non nullo. [Suggerimento: fissata una base di V1 ⊗ · · · ⊗ Vp associata a basi degli spazi Vj , mostra che le coordinate del vettore v1 ⊗ · · · ⊗ vp possono annullarsi identicamente solo se (almeno) uno vettori vj `e nullo.]
Esercizio 1.39 (Citato nell’Esercizio 1.40). Dato un insieme S, indichiamo con K S l’insieme K S = {f : S → K | f (s) = 0 solo per un numero finito di elementi s ∈ S} . (i) Dimostra che K S `e uno spazio vettoriale su K, detto spazio vettoriale libero generato da S. (ii) Identificando ogni s ∈ S con la funzione in K S che vale 1 in s e 0 altrove, dimostra che S `e una base di K S , e quindi che ogni elemento v ∈ K S si scrive in modo unico come combinazione lineare formale finita di elementi di S a coefficienti in K, cio`e nella forma v=
k
λj sj
j=1
per opportuni k ∈ N, λ1 , . . . , λk ∈ K e s1 , . . . , sk ∈ S. (iii) Dimostra che per ogni funzione α: S → V a valori in uno spazio vettoriale V qualsiasi esiste un’unica applicazione lineare A ∈ Hom(K S , V ) tale che A|S = α (propriet` a universale dello spazio vettoriale libero). (iv) Dimostra che se (W, ι) `e una coppia composta da uno spazio vettoriale W e un’applicazione iniettiva ι: S → W tale che per ogni funzione α: S → V a valori in uno spazio vettoriale V qualsiasi esiste un’unica applicazione lineare A˜ ∈ Hom(W, V ) tale che A˜ ◦ ι = α allora esiste un isomorfismo T : K S → W tale che T |S = ι. Esercizio 1.40 (Citato nella Sezione 1.2). Siano V1 , . . . , Vp spazi vettoriali sul campo K, e indichiamo con K V1 ×· · ·×Vp lo spazio vettoriale libero generato da V1 × · · · × Vp (vedi l’Esercizio 1.39). Sia R il sottospazio di K V1 × · · · × Vp generato dagli elementi della forma λ(v1 , . . . , vp ) − (v1 , . . . , λvj , . . . , vp ) , (v1 , . . . , vj , . . . , vp ) + (v1 , . . . , vj , . . . , vp ) − (v1 , . . . , vj + vj , . . . , vp ) , e sia T = R V1 ×· · ·×Vp /R lo spazio quoziente. Infine, sia π: V1 ×· · ·×Vp → T l’applicazione che associa a ciascun elemento di V1 × · · · × Vp la sua classe d’equivalenza in T . Dimostra che (T, π) soddisfa la propriet` a universale del prodotto tensoriale, e deduci che (T, π) `e il prodotto tensoriale di V1 , . . . , Vp .
42
1 Algebra multilineare
Esercizio 1.41. (i) Siano V1 , V2 e W spazi vettoriali di dimensione finita sul campo K. Dimostra esisteun isomorfismo canonico fra gli spazi vettoriali Hom(V1 ⊗ V2 ; W ) e Hom V1 , Hom(V2 , W ) . In particolare, (V1 ⊗ V2 )∗ e Hom(V1 , V2∗ ) sono canonicamente isomorfi. (ii) Siano V1 , V2 , V3 e W spazi vettoriali di dimensione finita sul campo K. Determina isomorfismi canonici tra gli spazi Hom(V1 ⊗ V2 ⊗ V3 ; W ), Hom V1 , Hom(V2 ⊗ V3 ; W ) e Hom V1 ⊗ V2 ; Hom(V3 , W ) . In partico lare, (V1 ⊗ V2 ⊗ V3 )∗ , Hom V1 , (V2 ⊗ V3 )∗ e Hom V1 ⊗ V2 ; V3∗ sono canonicamente isomorfi. (iii) Siano V1 , . . . , Vp e W spazi vettoriali di dimensione finita sul campo K. Determina un isomorfismo canonico tra gli spazi Hom(V1 ⊗ . . . ⊗ Vp ; W ), Hom V1 , Hom(V2 ⊗ · · · ⊗ Vp ; W ) e Hom V1 ⊗ . . . ⊗ Vp−1 ; Hom(Vp , W ) . ∗ ∗ In particolare, sono isomorfi (V1 ⊗ . . . ⊗ Vp ) , Hom V1 , (V2 ⊗ . . . ⊗ Vp ) ∗ e Hom V1 ⊗ . . . ⊗ Vp−1 ; Vp . [Suggerimento: vedi gli Esercizi 1.26 e 1.27.]
Esercizio 1.42 (Citato nell’Osservazione 1.2.20). (i) Dimostra che ogni matrice in Mm,n (K) di rango 1 `e della forma u ⊗ v per opportuni u ∈ Km e v ∈ Kn . (ii) Dimostra che ogni matrice in Mm,n (K) di rango d ≥ 1 `e somma di d matrici di rango 1. Definizione 1.E.5. Sia W uno spazio vettoriale sul campo K. Lo spazio proiettivo di W `e il quoziente P(W ) di W \ {O} rispetto alla relazione di equivalenza w1 ∼ w2 se e solo se esiste λ ∈ K \ {0} con w1 = λw2 . Indicheremo con πW : W \ {O} → P(W ) la proiezione canonica. Esercizio 1.43 (Citato nell’Osservazione 1.2.20). Siano V e U spazi vettoriali di dimensione finita su K. Siano fissate basi B = {v1 , . . . , vn } e C = {u1 , . . . , um } di V e U rispettivamente. Ogni tensore α = hk ahk vh ⊗uk in V ⊗U individua una matrice M (α) = (ahk ) ∈ Mn,m (K). (i) Dimostra che α `e decomponibile se e solo se M (α) ha rango 1. (ii) Dimostra che se n, m ≥ 2 allora l’insieme Dec(V, U ) dei tensori decomponibili di V ⊗U `e un sottoinsieme proprio di V ⊗U che non `e un sottospazio vettoriale. (iii) Dimostra che l’applicazione σ: P(V ) × P(U ) → P(V ⊗ U ) data da σ πV (v), πU (u) = πV ⊗U (v ⊗ u) `e ben definita e iniettiva. Mostra inoltre che l’immagine di σ `e il sottoinsieme πV ⊗U (Dec(V, U ) \ {O}), che prende il nome di variet` a di Segre e pu` o quindi essere identificato con P(V ) × P(U ). (iv) Dimostra che se V = U = K2 la variet` a di Segre `e il sottoinsieme di P(K2 ⊗ K2 ) formato dai punti [α] tali che det M (α) = 0, dove M (α) `e costruita a partire dalla base canonica di K2 .
Esercizi
43
Definizione 1.E.6. Se A ∈ Mm,n (K) e B ∈ Mh,k (K) sono due matrici, diremo prodotto di Kronecker di A e B la matrice ⎛
a11 B . A ⊗ B = ⎝ .. am1 B
··· .. . ···
⎞ a1n B .. ⎠ ∈ Mmh,nk (K) . . amn B
Per esempio,
a11 a21
a12 b ⊗ 11 a22 b21
b12 b22
⎛
a11 b11 ⎜ a11 b21 =⎝ a21 b11 a21 b21
a11 b12 a11 b22 a21 b12 a21 b22
a12 b11 a12 b21 a22 b11 a22 b21
⎞ a12 b12 a12 b22 ⎟ ⎠∈ M4,4 (K) . a22 b12 a22 b22
Esercizio 1.44. Siano V1 , V2 , W1 , W2 spazi vettoriali di dimensione finita sul campo K. (i) Dimostra che Hom(V1 , W1 ) ⊗ Hom(V2 , W2 ) `e canonicamente isomorfo a Hom(V1 ⊗ V2 , W1 ⊗ W2 ). [Suggerimento: Considera l’applicazione bilineare Φ: Hom(V1 , W1 ) × Hom(V2 , W2 ) → Hom(V1 ⊗ V2 , W1 ⊗ W2 ), data da Φ(f, g) = f ⊗ g. L’isomorfismo cercato `e l’applicazione lineare associata all’applicazione bilineare Φ. Alternativamente, usando la Proposizione 1.2.26(iii) o l’Esercizio 1.41, si ha che Hom(V1 , W1 ) ∼ = V1∗ ⊗W1 e Hom(V2 , W2 ) ∼ = ∗ V2 ⊗ W2 . Dunque ∗ ∗ ∗ ∗ Hom(V1 , W1 )⊗Hom(V2 , W2 ) ∼ = (V1 ⊗W1 )⊗(V2 ⊗W2 ) ∼ = (V1 ⊗V2 )⊗(W1 ⊗W2 ) ,
che `e canonicamente isomorfo a Hom(V1 ⊗ V2 , W1 ⊗ W2 ) grazie all’isomorfismo canonico V1∗ ⊗ V2∗ ∼ = (V1 ⊗ V2 )∗ .]
(ii) Date f ∈ Hom(V1 , W1 ) e g ∈ Hom(V2 , W2 ) esprimi usando il prodotto di Kronecker di matrici la relazione fra le matrici che rappresentano f e g rispetto a fissate basi di V1 , V2 , W1 , W2 e la matrice che rappresenta f ⊗ g rispetto alle corrispondenti basi nei prodotti tensoriali. Esercizio 1.45. (i) Siano V1 , . . . , Vp , V1 , . . . , Vp spazi vettoriali di dimensione finita sul campo K. Per j = 1, . . . , p, delle applicazioni lineari Lj : Vj → Vj possono essere pensate come elementi di Hom(Vj , Vj ) ∼ = Vj∗ ⊗Vj , e quindi ∗ determinano un elemento L1 ⊗ · · · ⊗ Lp in (V1 ⊗ V1 ) ⊗ · · · ⊗ (Vp∗ ⊗ Vp ). Dimostra che nell’isomorfismo (V1∗ ⊗ V1 ) ⊗ · · · ⊗ (Vp∗ ⊗ Vp ) → (V1 ⊗ · · · ⊗ Vp )∗ ⊗ (V1 ⊗ · · · ⊗ Vp ) l’elemento L1 ⊗ · · · ⊗ Lp corrisponde esattamente al prodotto tensoriale di applicazioni L1 ⊗ · · · ⊗ Lp : V1 ⊗ · · · ⊗ Vp → V1 ⊗ · · · ⊗ Vp definito nella Proposizione 1.2.28.
44
1 Algebra multilineare
(ii) Per j = 1, . . . , m siano Lj ∈ Mult(V1j , . . . , Vpjj ) forme multilineari. Mostra che l’applicazione L1 ⊗· · ·⊗Lm : (V11 ×· · ·×Vp11 )×· · ·×(V1m ×· · ·×Vpm )→K m definita da (L1 ⊗ · · · ⊗ Lm )(v11 , . . . , vp11 , . . . , v1m , . . . , vpmm ) = L1 (v11 , . . . , vp11 ) · · · Lm (v1m , . . . , vpmm ) `e una forma ( m j=1 pj )-lineare. Esercizio 1.46. Sia V uno spazio vettoriale di dimensione finita su un campo K e sia K una estensione finita di K, cio`e un campo di cui K sia sottocampo e tale che K risulti essere un K-spazio vettoriale di dimensione finita. Dimostra che il prodotto tensoriale V ⊗ K ha una struttura di un K -spazio vettoriale definita ponendo λ ( vj ⊗ λj ) = vj ⊗ (λλj ) per ogni vj ∈ V , e λ, λj ∈ K . Si noti l’analogia con l’Esempio 1.2.22 della complessificazione di uno spazio vettoriale reale. Esercizio 1.47. Siano V1 , . . . , Vp spazi vettoriali di dimensione finita sul campo K. Per j = 1, . . . , p scegliamo delle basi Bj e Bj di Vj , e sia Mj la matrice di cambiamento di base da Bj a Bj . Infine, indichiamo con B1 ⊗ · · · ⊗ Bp (rispettivamente, B1 ⊗ · · · ⊗ Bp ) la base di V1 ⊗ · · · ⊗ Vp associata a B1 , . . . , Bp (rispettivamente, a B1 , . . . , Bp ). Esprimi, usando il prodotto di Kronecker (Definizione 1.E.6), la matrice di cambiamento di base da B1 ⊗ · · · ⊗ Bp a B1 ⊗ · · · ⊗ Bp in funzione di M1 , . . . , Mp .
ALGEBRA TENSORIALE Esercizio 1.48. Siano V e W due spazi vettoriali di dimensione finita. Dimostra che per ogni applicazione lineare L ∈ Hom(V, W ) esistono un unico omomorfismo di algebre T • (L): T • (V ) → T • (W ) e un unico omomorfismo di algebre T• (L): T• (W ) → T• (V ) che conservano il tipo e tali che T • (L)|V = L e T• (L)|W ∗ = L∗ . Esercizio 1.49 (Citato nella Definizione 1.3.3). Date due basi {v1 , . . . , vn } e {w1 , . . . , wn } di uno spazio vettoriale V di dimensione finita,siano {v 1 , . . . , v n } n basi duali di V ∗ . Se wj = i=1 aij vi per ogni e {w 1 , . . . , wn } le corrispondenti n j = 1, . . . , n, allora w j = i=1 bij v i ove le matrici A = (aij ) e B = (bij ) sono legate dalla relazione B = (AT )−1 . h k r s 1 (i) Se α = h,k φk wh ⊗ w = r,s ψs vr ⊗ v ∈ T1 (V ), dimostra che il cambio di coordinate `e dato da ψsr =
n h,k=1
φhk arh bsk .
Esercizi
45
(ii) Se β ∈ Tqp (V ) `e espresso da i ...i p β= φi1p+1 ...i v ⊗ · · · ⊗ vip ⊗ v ip+1 ⊗ · · · ⊗ v ip+q p+q i1 j ...j 1 p jp+1 = ψjp+1 ⊗ · · · ⊗ w jp+q ...jp+q wj1 ⊗ · · · ⊗ wjp ⊗ w i ...i
j ...j
p 1 p trova la relazione fra i φi1p+1 ...i e i ψjp+1 ...jp+q . p+q
Esercizio 1.50. Sia E = {e1 , e2 , e3 } la base canonica di R3 , e {e1 , e2 , e3 } la base duale; sia poi B = {v1 = (1, 0, 1), v2 = (0, 1, 1), v3 = (0, 1, −1)} un’altra base di R3 , e {v 1 , v 2 , v 3 } la corrispondente base duale. (i) Determina le coordinate di v1 ⊗ v 3 rispetto alla base di T11 (R3 ) associata a E. (ii) Determina le coordinate di 2 v1 ⊗ v 1 + 4 v2 ⊗ v 2 + 7 v1 ⊗ v 3 rispetto alla base di T11 (R3 ) associata a E. Definizione 1.E.7. Sia V uno spazio vettoriale di dimensione finita su K. Indichiamo con F : V ×V ∗ → V ⊗V ∗ l’applicazione bilineare F (v, ϕ) = v⊗ϕ definente il prodotto tensoriale, e con ΦV : V ×V ∗ → K la dualit` a ΦV (v, ϕ) = ϕ(v) introdotta nell’Esercizio 1.14. Per la propriet` a universale del prodotto tensoriale, esiste una unica applicazione lineare L: V ⊗ V ∗ → K tale che il diagramma F / V ⊗V∗ V ×V∗ r r r r r (1.16) ΦV r r xrrrr L K commuti. Indicato con ψV : End(V ) → V ⊗ V ∗ l’isomorfismo canonico introdotto nella Proposizione 1.2.26.(ii), la composizione L ◦ ψV si chiama traccia e si denota con tr: End(V ) → K. Esercizio 1.51. Sia V uno spazio vettoriale di dimensione n su K. Verifica che se g ∈ End(V ) `e un endomorfismo rappresentato dalla matrice A = (ahk ) ∈ Mn,n (K) rispetto a una base B di V , allora tr(g) = tr(A) =
n
ahh .
h=1 ∗ 1 n [Suggerimento: fissata una base B = {v1 , . . . ,kvn } di V , sia B = {v , . . . , v } la base ∗ duale di V ; allora ψV (g) = h,k ahk vh ⊗ v , per cui ahk L(vh ⊗ v k ) = ahk v k (vh ) = ahh . ] tr(g) = L(ψV (g)) = h,k
h,k
h
Esercizio 1.52. Sia V uno spazio vettoriale di dimensione finita sul campo K. Dimostra che tr(g ◦f ) = tr(f ◦g) per ogni f , g ∈ End(V ). [Suggerimento: fissata
f ∈ End(V ), le applicazioni g → tr(f ◦ g) e g → tr(g ◦ f ) sono lineari; quindi basta mostrare che assumono lo stesso valore su ogni elemento di una base di End(V ).]
46
1 Algebra multilineare
Esercizio 1.53. Siano V e W due spazi vettoriali di dimensione finita su K. Dimostra che tr(g ◦ f ) = tr(f ◦ g) per ogni f ∈ Hom(V, W ) e g ∈ Hom(W, V ). Esercizio 1.54. Sia V uno spazio vettoriale di dimensione finita sul campo K. Dimostra che tr(f ⊗ g) = tr(f )tr(g) per ogni f , g ∈ End(V ). [Suggerimento: basta dimostrare l’uguaglianza quando f e g sono scelte in una base di End(V ).]
TENSORI ALTERNANTI Negli esercizi di questa sezione, il campo K ha sempre caratteristica 0 e gli spazi vettoriali considerati hanno sempre dimensione finita. Esercizio 1.55. Dimostra che per ogni applicazione p-lineare ϕ: V ×· · ·×V → W le seguenti affermazioni sono equivalenti: (i) ϕ `e alternante; (ii) il valore di ϕ cambia di segno scambiando due argomenti, cio`e ϕ(v1 , . . . , vi , . . . , vj , . . . , vp ) = −ϕ(v1 , . . . , vj , . . . , vi , . . . , vp ) per ogni v1 , . . . , vp ∈ V e 1 ≤ i < j ≤ p; (iii) ϕ si annulla ogni volta che due argomenti sono uguali, cio`e ϕ(v1 , . . . , v, . . . , v, . . . , vp ) = 0 per ogni v1 , . . . , v, . . . , vp ∈ V ; (iv) ϕ(v1 , . . . , vp ) = 0 non appena i vettori v1 , . . . , vp ∈ V sono linearmente dipendenti; (v) se ϕi1 ...ip sono le coordinate di ϕ rispetto alla base {v i1 ⊗ · · · ⊗ v ip } di Tp (V ), dove {v 1 , . . . , v n } `e una base di V ∗ , allora ϕiσ(1) ...iσ(p) = sgn(σ) ϕi1 ...ip per ogni σ ∈ Sp . Esercizio 1.56 (Citato nell’Esercizio 1.57). Sia {v1 , . . . , vn } una base di uno spazio vettoriale V , e sia 1 ≤ p ≤ n. Per % ogni multi-indice I = (i1 , . . . , ip ) con 1 ≤ i1 < · · · < ip ≤ n definiamo v∧I ∈ p V ponendo v∧I (ϕ1 , . . . , ϕp ) = det ϕh (vik ) per ogni ϕ1 , . . . , ϕp ∈ V ∗ . Dimostra che la famiglia delle applicazioni p-lineari % alternanti v∧I al variare di I `e una base di p V . Esercizio 1.57. Sia {v1 , . . . , vn } una base dello spazio vettoriale V . Per ogni multi-indice I = (i1 , . . . , ip ) con % 1 ≤ i1 < · · · < ip ≤ n dimostra che v∧I = vi1 ∧ · · · ∧ vip , dove v∧I ∈ p V `e definito nell’Esercizio 1.56. Esercizio 1.58. Sia Φ: V p → K una forma p-lineare alternante su uno spazio vettoriale V . Dimostra che le applicazioni Ψ : V p+1 → V e Θ: V p+1 → K definite da
Esercizi
Ψ (v1 , . . . , vp+1 ) =
p+1
47
(−1)j Φ(v1 , . . . , v#j , . . . , vp+1 )vj
j=1
e Θ(v1 , . . . , vp+1 ) =
p+1
(−1)j Φ(v1 , . . . , vˆj , . . . , vp+1 ) ,
j=1
dove l’accento circonflesso indica che il corrispondente elemento non `e presente, sono (p + 1)-lineari alternanti. Esercizio 1.59%(Citato %nella Sezione 1.4). Sia V uno spazio vettoriale. Dimostra che gli spazi p V e p V sono spazi tensoriali. Esercizio 1.60. Dimostra che v 1 ⊗ v2 − v2 ⊗ v1 ∈
%2
V
per ogni coppia v1 , v2 ∈ V di elementi di uno spazio vettoriale V . Esercizio 1.61. Sia V uno spazio vettoriale su K. (i) Dimostra che, se σ ∈ Sp `e una permutazione di segno sgn(σ) allora vσ(1) ∧ . . . ∧ vσ(p) = sgn(σ)v1 ∧ . . . ∧ vp per ogni v1 , . . . , vp ∈ V . (ii) Dimostra che (λ1 α1 + λ2 α2 ) ∧ (ν1 β1 + ν2 β2 ) =
2
λh νk αh ∧ βk
h,k=1
per ogni scelta di λh , νk ∈ K e di αh , βk ∈
%
V.
Esercizio 1.62. Sia {e1 , e2 , e3 } la base canonica di R3 . Verifica che (3 e1 + 5 e2 + 7 e3 ) ∧ (e1 + 4 e2 − e3 ) = 7 e1 ∧ e2 − 10 e1 ∧ e3 − 33 e2 ∧ e3 . Esercizio 1.63. Sia {e1 , e2 } la base canonica di R2 , ed {e1 , e2 } la base duale. Verifica che e1 ∧ e2 (ae1 + ce2 , be1 + de2 ) = ad − bc per ogni a, b, c, d ∈ R. Esercizio 1.64. Sia V uno spazio vettoriale. % % %Dimostra che il prodotto esterno `e l’unica applicazione da V × V in V che sia associativa, bilineare, anticommutativa e soddisfi (1.13). Esercizio 1.65. Dimostra che se dim V ≥ 2 allora esistono tensori in T02 (V ) che non sono n´e simmetrici n´e alternanti. Esercizio 1.66. Sia V uno spazio vettoriale, e v1 , . . . , vp ∈ V vettori fissati. Dimostra che esiste una forma p-lineare alternante Φ tale che Φ(v1 , . . . , vr ) = 0 se e solo se v1 ∧ . . . ∧ vp = 0.
48
1 Algebra multilineare
Esercizio 1.67. Sia V uno spazio vettoriale di dimensione n, e ω ∈ Dimostra che ω T (φ1 ), . . . , T (φn ) = (det T ) ω(φ1 , . . . , φn )
%n
V.
per ogni T ∈ Hom(V ∗ , V ∗ ) e φ1 , . . . , φn ∈ V ∗ . %2 Esercizio 1.68. Dimostra che T 2 (V ) = S 2 (V ) ⊕ V per ogni spazio vettoriale V , ma che %3 3 / S 3 (R3 ) ⊕ R , e1 ⊗ e2 ⊗ e3 ∈ dove {e1 , e2 , e3 } `e la base canonica di R3 . Esercizio 1.69. Sia {e1 , e2 , e3 } la base canonica di R3 . Dimostra che per ogni %1 3 %2 3 u, v ∈ R3 = R le coordinate di u ∧ v ∈ R rispetto alla base {e2 ∧ e3 , e3 ∧ e1 , e1 ∧ e2 } coincidono esattamente con le coordinate del classico prodotto vettore di u e v rispetto alla base canonica. Esercizio 1.70. Sia V uno spazio vettoriale, e sia B = {v1 , . . . , vn } una base %n−1 di V . Dimostra che una base di V `e data da {v1 ∧ . . . ∧ v#j ∧ . . . ∧ vn | j = 1, . . . n} , dove l’accento circonflesso indica che il corrispondente elemento non `e presente nel prodotto. Esercizio 1.71 (Utile per l’Esempio 4.2.14). Sia B = {v1 , . . . , vn } una base di uno spazio vettoriale V , e {v 1 , . . . , v n } la base duale. Dati n vettori w1 , . . . , wn ∈ V , sia A ∈ Mn,n (K) la matrice la cui h-esima colonna contiene le coordinate di wh rispetto alla base B. Indichiamo poi con Aij la sottomatrice di A ottenuta cancellando la j-esima riga e la i-esima colonna di A. Dimostra che det(Aij ) = v 1 ∧ · · · ∧ v#j ∧ · · · ∧ v n (w1 , . . . , w $i , . . . , wn ) , dove l’accento circonflesso indica che il corrispondente elemento non `e presente nell’elenco. Esercizio 1.72 (Utile per l’Esercizio 1.84). Sia V uno spazio vettoriale di % dimensione finita, e considera l’applicazione p-lineare alternante F : V p → p V data da F (v1 , . . . , vp ) = v1 ∧ · · · ∧ vp . %p Dimostra che la coppia ( V, F ) `e l’unica coppia (a meno di isomorfismi) che soddisfa la propriet` a universale dell’algebra esterna: per ogni applicazione p-lineare alternante A: V p → W%a valori in uno spazio vettoriale W esiste ˜ p V → W tale che A = A˜ ◦ F . un’unica applicazione lineare A: Esercizio 1.73. Date una K-algebra A e uno spazio vettoriale V su K, sia 2 L: V → A una applicazione K-lineare tale che L(v) = 0 per ogni v ∈ V .
Esercizi
49
(i) Dimostra che ponendo v1 ∧ · · · ∧ vp → L(v · · · L(vp ) ed estendendo per % 1) % K-linearit` a si definisce un’applicazione p L: p V → A. % % (ii) Dimostra che esiste un unico morfismo di algebre L: V → A tale che % L(v) = L(v) per ogni v ∈ V , cio`e tale che il diagramma /A V B O BB % BB BB L B! % V L
commuti. Esercizio 1.74. Sia L un endomorfismo di uno spazio vettoriale V di dimen˜ ∈ End(V ) tale sione finita su K. Mostra che esiste un unico endomorfismo L che ˜ 1 ) ∧ v2 ∧ · · · ∧ vp = v1 ∧ L(v2 ) ∧ · · · ∧ L(vp ) L(v per ogni p-upla di vettori v1 , . . . , vp in V . Fissata una base B di V , determina ˜ rispetto a B. il legame tra le matrici che rappresentano L e L Definizione 1.E.8. Sia L ∈ %Hom(V, W ) una applicazione lineare fra spazi % % vettoriali. Una applicazione L ∈ Hom ( V, W ) `e detta prodotto ester% % no di L se L(1) = 1 e L(v ∧ · · · ∧ v ) = L(v 1 p 1 ) ∧ · · · ∧ L(vp ) per ogni % vp ∈ V . In particolare, L rispetta il tipo, e quindi induce applicazioni v1 , . . . , % % % lineari p L ∈ Hom ( p V, p W ). %n Quando V = W `e uno spazio vettoriale di dimensione n, l’applicazione L%viene chiamata determinante di L e indicata anche con det(L). Essendo n V = 1, il determinante di L `e dato dalla moltiplicazione per uno dim scalare, anch’esso chiamato determinante di L. Esercizio 1.75 (Citato nell’Esercizio 1.110). Dimostra che ogni applicazione lineare L ∈ Hom(V, % % %W ) fra spazi vettoriali definisce un (unico) prodotto esterno L ∈ Hom ( V, W ). Esercizio 1.76. Sia V uno spazio vettoriale di dimensione n, e L ∈ End(V ). Fissata una base B = {v1 , . . . , vn } di V , sia A = (ahk ) la matrice associata a L rispetto alla base B. % % (i) Dimostra che n L `e l’endomorfismo di n V dato dalla moltiplicazione per det(A). (ii) Dimostra che %p L(vσ1 , . . . , vσp ) = det(Aσ μ )vμ1 ∧ · · · ∧ vμp , μ
dove σ = (σ1 , . . . , σp ) con σ1 < . . . < σp ≤ n, e μ = (μ1 , . . . , μp ) con μ1 < . . . < μp ≤ n, mentre Aσ μ `e la sottomatrice di A ottenuta considerando solo le colonne σ e le righe μ.
50
1 Algebra multilineare
(iii) Ritrova la formula dello sviluppo di Laplace del determinante secondo la %1 %n−1 prima colonna, studiando L(v1 ) ∧ L(v2 , . . . , vn ). Ritrova infine la formula dello sviluppo di Laplace del determinante secondo una colonna qualsiasi. Esercizio 1.77. Sia L ∈ End(R3 ) dato da L(x1 , x2 , x3 ) = (3x1 + 4x2 , 2x1 + x2 , 4x1 − 5x3 ) . % (i) Calcola L(e1 ∧ e2 ∧ e3 ), dove {e1 , e2 , e3 } `e la base canonica di R3 . %2 L rispetto alla base {e1 ∧e2 , e1 ∧e3 , e2 ∧e3 } (ii) Trova la matrice associata a %2 3 di R . Esercizio 1.78. Siano L, T ∈ End(V ) endomorfismi di uno spazio vettoriale V di dimensione finita n. Dimostra che
dove det L =
%n
det(L ◦ T ) = det(L) det(T ) , L e cos`ı via.
Esercizio 1.79. Siano L ∈ End(V ) e G ∈ End(W ) endomorfismi di spazi vettoriali V e W di dimensione finita n e m, rispettivamente. Dimostra che det(L ⊗ G) = det(L)m det(G)n . [Suggerimento: pu` o esserti utile studiare inizialmente il caso in cui L sia l’identit` a di V , o G sia l’identit` a di W .]
Esercizio 1.80. Sia V uno spazio vettoriale di dimensione finita sul campo K, e sia J l’ideale bilatero di T • (V ) generato dagli elementi α ⊗ α al variare di α ∈ T • (V ). (i) Dimostra che, posto J p = J ∩ T p (V ), si ha J = p J p e che gli spazi %p vettoriali V e T p (V )/J p sono isomorfi. (ii) Sia R l’algebra quoziente T • (V )/J , con il prodotto indotto da T • (V ), e sia π: T • (V ) → T • (V )/J la proiezione canonica. Dimostra che esiste una % ae applicazione lineare A: R → V tale che A = A ◦ π. Discuti iniettivit` surgettivit` a di A. % (iii) La quaterna V, +, ∧, · `e isomorfa all’algebra quoziente R? (iv) Sia L: T p (V ) → W un’applicazione lineare e Φ(L): V p → W la corrispondente applicazione p-lineare, fornita dalla propriet` a universale del prodotto tensoriale. Ricordando che Φ(L)(v1 , . . . , vp ) = L(v1 ⊗ · · · ⊗ vp ), dimostra che Φ(L) `e alternante se e solo se Ker(L) ⊇ J p . [Suggerimento: ricorda che ogni permutazione `e combinazione di trasposizioni.]
Esercizio 1.81. Sia A = (ahk ) ∈ GL(n, K) una matrice quadrata non singolare di ordine n a coefficienti in K, e indichiamo con aj la colonna j-ma di A. Studiando a1 ∧ a2 ∧ · · · ∧ aj−1 ∧ b ∧ aj+1 ∧ · · · ∧ an per b ∈ Kn ricava la formula di Cramer per la risoluzione del sistema lineare Ax = b.
Esercizi
51
Esercizio 1.82 (Utile per l’Esercizio 6.43 e nella Sezione 8.1, e citato nell’Esercizio 1.110). Se · , · `e un prodotto scalare sullo spazio vettoriale V , sia · , ·
il prodotto scalare su T (V ) costruito nella Proposizione 1.3.9. Dimostra che v1 ∧ · · · ∧ vp , w1 ∧ · · · ∧ wp
= p! det( vi , wj ) per ogni v1 , . . . , vp , w1 , . . . , wp ∈ V . Esercizio `e somma diretta di sottospazi non nulli, dimostra pSe V%j= W ⊕Z% %p 1.83. p−j V = j=0 ( W ) ∧ ( Z). che ` E ALGEBRA ESTERNA DUALITA Negli esercizi di questa sezione, il campo K ha sempre caratteristica 0 e gli spazi vettoriali considerati hanno sempre dimensione finita. Esercizio 1.84%(Citato nell’Esercizio% 1.85). Sia V uno spazio vettoriale. Dip p ∗ mostra che ( V )∗ `e isomorfo a V . [Suggerimento: usa l’Esercizio 1.72 e l’applicazione Φ: (V ∗ )p → (
p
V )∗ definita da
Φ(φ1 , . . . , φp )(v1 ∧ · · · ∧ vp ) = det φi (vj ) per v1 , . . . , vp ∈ V e φ1 , . . . , φp ∈ V ∗ .]
Definizione 1.E.9. Sia una base B = {v1 , . . . , vn } dello spazio vettoriale V , e p ∈ {1, . . . , n}. indicato Hp = {(i1 , . . . , ip ) | 1 ≤ i1 < · · · < ip ≤ n} l’insieme dei p-multiindici ordinati, per ogni I ∈ Hp poniamo v∧I = vi1 ∧ · · · ∧ vip
e
v ∧I = v i1 ∧ · · · ∧ v ip ,
dove B∗ = {v 1 , . . . , v n } `e la base duale di V ∗ . Dato I ∈ Hp sia inoltre I ∈ Hn−p il (n − p)-multiindice ordinato complementare a I, e indichiamo con sgn(I, I ) il segno della permutazione τII definita da τh = ih per 1 ≤ h ≤ p e τh = ih−p per p + 1 ≤ h ≤ n. Esercizio 1.85. % % Sia B = {v1 , . . . , vn } una base di uno spazio vettoriale V , e sia Φ: p V × p V → K la forma bilineare definita ponendo Φ(v∧I , v∧J ) = δIJ
ove δIJ = δi1 j1 . . . δip jp .
per ogni I, J ∈ Hp ed estendendo per bilinearit` a. (i) Dimostra che Φ `e una dualit` a. (ii) Dimostra che Φ non dipende dalla scelta della base B. (iii) Utilizzando la dualit` a Φ, ritrova l’isomorfismo dell’Esercizio 1.84.
52
1 Algebra multilineare
Esercizio 1.86 (Citato nell’Esercizio 1.87). Sia . . , vn } una base di % % B = {v1 , .% uno spazio vettoriale V , e sia ΘB : p V × n−p V → n V l’applicazione bilineare definita ponendo ΘB (v∧I , v∧J ) = v∧I ∧ v∧J
%n per ogni I ∈ Hp , J ∈ Hn−p ed estendendo per % bilinearit`a. Sia poi α: V →K n sua coordinata rispetto l’isomorfismo che associa a ogni elemento di % V la % alla base v1 ∧ · · · ∧ vn , e poniamo ΘB = α ◦ ΘB : p V × n−p V → K. Dimostra a che dipende dalla scelta della base B. che ΘB `e una dualit` Esercizio 1.87 (Utile per l’Esercizio 1.96). Sia B = {v1 , . . . , vn } una base di V , con base duale B ∗ = {v 1 , . . . , v n }, e sia %p uno spazio %n−p vettoriale ∗ V l’applicazione lineare definita ponendo ΨB : V → ΨB (v∧I ) = sgn(I, I ) v ∧I
per ogni I ∈ Hp ed estendendo per linearit` a. (i) Dimostra che ΨB `e un isomorfismo. (ii) Determina il legame tra ΨB e l’applicazione ΘB definita nell’Esercizio 1.86. (iii) Dimostra che se C `e un’altra base di V allora ΨB e ΨC differiscono per la moltiplicazione per%uno scalare. In particolare, ΨB (W ) = ΨC (W ) per ogni sottospazio W di p V . Esercizio 1.88. Se · , · `e il prodotto scalare standard in Rn , mostra che esiste %n−1 n un’unica applicazione lineare L: R → Rn tale che per ogni x ∈ Rn si abbia L(α), x e1 ∧ · · · ∧ en = α ∧ x, dove {e1 , . . . , en } `e la base canonica di Rn . Se α = v1 ∧ · · · ∧ vn−1 , il vettore L(α) `e detto prodotto vettoriale di v1 , . . . , vn−1 . Definizione 1.E.10. Sia B = {v1 , . . . , vn } una base di uno spazio vettoriav n }. Per % 1 ≤ p ≤% q ≤ n, definiamo l’applicazione le V , con base duale {v 1 , . . . , % bilineare di contrazione Cp,q : p V ∗ × q V → q−p V ponendo sgn(I, J \ I) v∧(J\I) se I ⊆ J, ∧I Cp,q (v , v∧J ) = O altrimenti, per ogni I ∈ Hp , J ∈ Hq ed estendendo per bilinearit`a, dove sgn(I, J \ I) `e il segno della permutazione che riordina gli elementi di J in modo da mettere prima gli elementi di I (in ordine crescente) e poi quelli di J \ I (sempre in ordine crescente). Esercizio 1.89. Sia V uno spazio vettoriale di dimensione che %p n. Dimostra %q %q−pper V ogni 1 ≤ p ≤ q ≤ n l’applicazione di contrazione Cp,q : V ∗ × V → non dipende dalla base scelta per definirla. Esercizio % 1.90. Per % q = 1, % 2, 3, 4 determina l’applicazione di contrazione C1,q : 1 (R4 )∗ × q R4 → q−1 R4 .
Esercizi
53
TENSORI ALTERNANTI DECOMPONIBILI Negli esercizi di questa sezione, il campo K ha sempre caratteristica 0 e gli spazi vettoriali considerati hanno sempre dimensione finita. Esercizio 1.91 (Citato nell’Osservazione 1.4.20). Sia V uno spazio vettoriale, e {v1 , . . . , vp }, {w1 , . . . , wp } ⊂ V due sottoinsiemi costituiti da p vettori linearmente indipendenti. Dimostra che w1 ∧ · · · ∧ wp = λ v1 ∧ · · · ∧ vp per qualche λ = 0 se e solo se Span (w1 , . . . , wp ) = Span (v1 , . . . , vp ). % Definizione 1.E.11. Un tensore alternante α ∈ p V si dice decomponibile se esistono vettori v1 , . . . , vp ∈ V tali che α = v1 ∧ . . . ∧ vp ; nota che, per l’Osservazione 1.4.20, v1 ∧ . . . ∧ vp = O se e solo se i vettori v1 , . . . , vp % sono p V linearmente indipendenti. Indicheremo con Altp (V ) il sottoinsieme di composto dai tensori alternanti decomponibili, e con G (V ) l’insieme dei punti p %p dello spazio proiettivo P( V ) rappresentati da un tensore in Altp (V ) \ {O}; in particolare, G1 (V ) = P(V ). L’insieme Gp (V ) si chiama Grassmanniana (o variet` a di Grassmann) dei p-piani di V ; vedi anche la Definizione 2.1.33. Esercizio 1.92 (Utile per l’Esercizio 2.136). Sia V uno spazio vettoriale di dimensione finita. (i) Dimostra che l’applicazione (detta applicazione di Pl¨ ucker ) che associa a ogni elemento [v1 ∧ · · · ∧ vp ] ∈ Gp (V ) il p-piano Span (v1 , . . . , vp ) `e una bigezione fra Gp (V ) e l’insieme dei sottospazi p-dimensionali di V . %p V e (ii) Osserva che la scelta di una %p base in V individua una base in coordinate omogenee in P( V ), fornendo coordinate ai punti di Gp (V ). Esercizio 1.93. Sia {e1 , . . . , e4 } la base canonica di R4 . 4 4 (i) Dimostra che, se v1 = h=1 xh eh e v2 = k=1 yk ek , allora v1 ∧ v2 = phk eh ∧ ek con phk = xh yk − xk yh . 1≤h
(ii) Dall’identit` a (v1 ∧ v2 ) ∧ (v1 ∧ v2 ) = O ricava che le componenti phk di v1 ∧ v2 soddisfano la relazione: p12 p34 − p13 p24 + p14 p23 = 0 . (iii) Deduci che il tensore e1 ∧e2 −e1 ∧e3 +e2 ∧e4 +e3 ∧e4 non `e decomponibile. Esercizio 1.94. Sia {e1 , . . . , e4 } la base canonica di R4 . 4 4 4 (i) Dimostra che, se v1 = h=1 xh eh , v2 = k=1 yk ek e v3 = s=1 zs es , allora bh1 h2 h3 eh1 ∧ eh2 ∧ eh3 v1 ∧ v2 ∧ v3 = 1≤h1
54
1 Algebra multilineare
con bh1 h2 h3 =
sgn(σ)xhσ(1) yhσ(2) zhσ(3) ,
σ∈S3
Dimostra inoltre che bh1 h2 h3 = ph1 h2 zh3 − ph1 h3 zh2 + ph2 h3 zh1 , dove phk = xh yk − xk yh . (ii) Dall’identit` a (v1 ∧ v2 ∧ v3 ) ∧ v1 = O ricava che b123 x4 − b124 x3 + b134 x2 − b234 x1 = 0 . Che relazione c’`e fra questa formula e il fatto che una matrice quadrata con due colonne uguali ha determinante nullo? (iii) Verifica che le identit`a (v1 ∧ v2 ∧ v3 ) ∧ (v1 ∧ v2 ) = O
e
(v1 ∧ v2 ∧ v3 ) ∧ (v1 ∧ v2 ∧ v3 ) = O
espresse in coordinate producono relazioni identicamente nulle. Esercizio 1.95 (Utile per l’Esercizio 1.96). Sia {e1 , . . . , e4 } la base canonica di %4 4 R con R tramite R4 , e {e1 , e2 , e3 , e4 } la base duale di (R4 )∗ . Identifichiamo la coordinata rispetto alla base e1 ∧ e2 ∧ e3 ∧ e4 . (i) Dimostra che l’applicazione L: R4 → R definita da L(v) = (e1 ∧e2 ∧e3 )∧v coincide con l’applicazione e4 . (ii) Sia α = λ123 e1 ∧ e2 ∧ e3 + λ124 e1 ∧ e2 ∧ e4 + λ134 e1 ∧ e3 ∧ e4 + λ234 e2 ∧ e3 ∧ e4 . Dimostra che l’applicazione lineare Lα : R4 → R definita da L(v) = α ∧ v coincide con l’applicazione λ123 e4 − λ124 e3 + λ134 e2 − λ234 e1 ∈ (R4 )∗ . % (iii) Dimostra che l’applicazione 3 R4 → (R4 )∗ data da α → Lα `e lineare ed `e un isomorfismo. (iv) Se λ234 = 0, dimostra che C ∗ = {Lα , e2 , e3 , e4 } `e la base di (R4 )∗ duale di 1 λ134 λ124 λ123 e1 , v2 = e2 + e 1 , v 3 = e3 − e1 , v4 = e4 + e1 } . λ234 λ234 λ234 λ234 %3 4 R (v) Dimostra che α = λ234 v2 ∧ v3 ∧ v4 , e deduci che ogni elemento di `e decomponibile. C = {v1 = −
Esercizio 1.96. Sia V%`e uno spazio vettoriale di dimensione n ≥ 2. Dimostra %n−1 n−1 che ogni tensore di V `e decomponibile, per cui Gn−1 (V ) = P( V ).
[Suggerimento: fissata una base B di V , puoi utilizzare l’isomorfismo n−1 V → V ∗ definito nell’Esercizio 1.87 e mimare l’Esercizio 1.95: dato un tensore non nullo o essere comα ∈ n−1 V , l’immagine ΨB (α) `e un elemento non nullo di V ∗ che pu` pletato ad una base C ∗ di V ∗ . Se C = {w1 , . . . , wn } `e la base duale di C ∗ , allora α `e un multiplo scalare di w2 ∧ · · · ∧ wn e, in particolare, `e decomponibile.]
Esercizi
55
Esercizio 1.97. Sia {e1 , . . . , e4 } la base canonica di R4 , e {e1 , e2 , e3 , e4 } la base duale di (R4 )∗ . Poniamo v1 = e1 + 2e3 + e4 e v2 = 3e1 + e2 − e4 , e sia W il sottospazio da essi generato. Poniamo infine α = v1 ∧ v2 . (i) Verifica che α = e1 ∧ e2 − 6e1 ∧ e3 − 4e1 ∧ e4 − 2e2 ∧ e3 − 2e2 ∧ e4 − 2e3 ∧ e4 . %1 %2 4 R → R4 `e (ii) Calcola C1,2 (ej , α) per j = 1, . . . , 4, dove C1,2 : (R4 )∗ × l’applicazione di contrazione introdotta nella Definizione 1.E.10. (iii) Dimostra che il sottospazio generato da {C1,2 (β, α) | β ∈ V ∗ } coincide con W . Esercizio 1.98 (Utile per l’Esercizio 1.99). Sia V uno spazio vettoriale di dimensione n, e 1 ≤ p ≤ n. Dimostra che: % (i) per % ogni α ∈ p V esiste un sottospazio di V minimo Wα tale che α ∈ Wα ; %p V `e un tensore decomponibile se e solo se dim Wα = p; (ii) α ∈ %p−1 ∗ V tale che w = Cp−1,p (β, α). (iii) per ogni vettore w ∈ Wα esiste β ∈ Esercizio 1.99. Sia V uno spazio vettoriale di dimensione n, e 1 ≤ p ≤ n. Dimostra che: %p V `e un tensore decomponibile se e solo se valgono le relazioni (i) α ∈ (dette relazioni di Grassmann): %p−1 ∗ V α ∧ Cp−1,p (β, α) = O ; ∀β ∈ (ii) `e sufficiente verificare le relazioni di Grassmann al variare di β in una %p−1 ∗ V ; base di (iii) se V = R4 e {e1 , . . . , e4 } `e la base canonica allora α = 1≤h
TENSORI SIMMETRICI Negli esercizi di questa sezione, il campo K ha sempre caratteristica 0 e gli spazi vettoriali considerati hanno sempre dimensione finita. Esercizio 1.100. Dimostra che le seguenti affermazioni sono equivalenti per ogni applicazione p-lineare ϕ: V × · · · × V → W : (i) ϕ `e simmetrica; (ii) il valore di ϕ non cambia scambiando due argomenti, cio`e ϕ(v1 , . . . , vi , . . . , vj , . . . , vp ) = ϕ(v1 , . . . , vj , . . . , vi , . . . , vp ) per ogni v1 , . . . , vp ∈ V e 1 ≤ i < j ≤ p;
56
1 Algebra multilineare
(iii) se ϕi1 ...ip sono le coordinate di ϕ rispetto alla base {vi1 ⊗ · · · ⊗ v ip } di Tp (V ), dove {v 1 , . . . , v n } `e una base di V ∗ , allora ϕiσ(1) ...iσ(p) = ϕi1 ...ip per ogni σ ∈ Sp . Esercizio 1.101. Sia V uno spazio vettoriale. Dimostra che l’operatore di simmetrizzazione S: T • (V ) → S(V ) `e lineare, ha immagine contenuta in S(V ), ed `e l’identit` a ristretta a S(V ). Esercizio 1.102 (Citato nella Sezione 1.4). Sia V uno spazio vettoriale. Dimostra che gli spazi S p (V ) e Sp (V ) sono effettivamente spazi tensoriali. Esercizio 1.103. Dimostra che v1 ⊗ v2 + v2 ⊗ v1 ∈ S 2 (V ) per ogni coppia v1 , v2 ∈ V di elementi di uno spazio vettoriale V . Esercizio 1.104. Sia V uno spazio vettoriale. Dato α ∈ T p (V ), dimostra che S(α) `e l’unico tensore p-controvariante simmetrico tale che si abbia S(α)(φ, . . . , φ) = α(φ, . . . , φ) per tutti i φ ∈ V ∗ . Esercizio 1.105 (Citato nell’Osservazione 1.4.16). Dimostra che la quater na S(V ), +, , · `e un’algebra commutativa con unit` a. [Suggerimento: Per controllare la commutativit` a di basta verificare la commutativit` a per una coppia di tensori α ∈ S p (V ) e β ∈ S q (V ).]
Esercizio 1.106. Sia V uno spazio vettoriale di dimensione finita sul campo K, e sia I l’ideale bilatero di T • (V ) generato dagli elementi α ⊗ β − β ⊗ α al variare di α, β ∈ T • (V ). Dimostra che: (i) se α ∈ I allora S(α) = O; (ii) l’operatore di simmetrizzazione induce un’applicazione lineare sullo spazio quoziente S: T • (V )/I → S(V ). L’applicazione S `e un isomorfismo? (iii) il quoziente Q = T • (V )/I `e dotato in modonaturale di una struttu ra di algebra indotta da T • (V ). La quaterna S(V ), +, , · `e isomorfa all’algebra quoziente Q? Esercizio 1.107. Sia V uno spazio vettoriale di dimensione finita n sul campo K. Dimostra che la scelta di una base di V induce un isomorfismo fra la quaterna S(V ), +, , · e l’algebra K[x1 , . . . , xn ] dei polinomi nelle indeterminate x1 , . . . , xn (e che l’isomorfismo dipende dalla base scelta). Esercizio 1.108 (Utile per l’Esercizio 1.109). Sia V uno spazio vettoriale di dimensione finita, e considera l’applicazione p-lineare Ψ : V p → S p (V ) data da Ψ (v1 , . . . , vp ) = v1 · · · vp . Dimostra che la coppia S p (V ), Ψ `e l’unica coppia (a meno di isomorfismo) che soddisfa la propriet` a universale dell’algebra simmetrica: per ogni applicazione p-lineare simmetrica Φ: V p → W a valori in uno spazio vettoriale W ˜ S p (V ) → W tale che Φ = Φ˜ ◦ F . esiste un’unica applicazione lineare Φ:
Esercizi
57
∗ Esercizio 1.109. Sia V uno spazio vettoriale e p ∈ N. Dimostra che S p (V ) `e isomorfo a S p (V ∗ ). [Suggerimento: usa l’Esercizio 1.108.] Esercizio 1.110. Sia V uno spazio vettoriale. Enuncia e dimostra%per l’algebra simmetrica S(V ) risultati analoghi a quelli per l’algebra esterna V contenuti negli Esercizi 1.75 e 1.82.
TENSORI SIMPLETTICI Negli esercizi di questa sezione, il campo K ha sempre caratteristica 0 e gli spazi vettoriali considerati hanno sempre dimensione finita. Esercizio 1.111. Sia ω ∈ T2 (V ) un 2-tensore covariante su uno spazio vettoriale V . Dimostra che le seguenti affermazioni sono equivalenti: (i) ω `e non degenere; (ii) l’applicazione ω ˜ : V → V ∗ data da ω ˜ (v)(w) = ω(v, w) per ogni v, w ∈ V `e un isomorfismo; (iii) scelta una base {v 1 , . . . , v n } di V ∗ , la matrice (ωhk ) delle coordinate di ω rispetto alla base {v h ⊗ v k } di T2 (V ) `e invertibile. Esercizio 1.112 (Usato nella Proposizione 1.5.6). Sia (V, ω) uno spazio vettoriale simplettico, e W ⊆ V un sottospazio di V . Dimostra che: (i) dim W + dim W ⊥ = dim V ; (ii) (W ⊥ )⊥ = W ; (iii) W `e simplettico se e solo se ω|W ×W `e non degenere; (iv) W `e isotropo se e solo se ω|W ×W = O; (v) W `e Lagrangiano se e solo se ω|W ×W = O e dim V = 2 dim W . Esercizio 1.113. Sia (V, ω) uno spazio vettoriale simplettico di dimensione 2n. Dimostra che per ogni sottospazio simplettico (rispettivamente, isotropo, coisotropo, Lagrangiano) W di V esiste una base simplettica {v1 , w1 , . . . , vn , wn } di V tale che: (i) se W `e simplettico, si abbia W = Span(v1 , w1 , . . . , vk , wk ) per qualche 1 ≤ k ≤ n; (ii) se W `e isotropo, si abbia W = Span(v1 , . . . , vk ) per qualche 1 ≤ k ≤ n; (iii) se W `e coisotropo, si abbia W = Span(v1 , . . . , vn , w1 , . . . , wk ) per qualche 1 ≤ k ≤ n; (iv) se W `e Lagrangiano, si abbia W = Span(v1 , . . . , vn ).
2 Variet` a
Il calcolo differenziale classico `e fatto su aperti di Rn ; uno degli obiettivi principali della Geometria Differenziale `e estenderne l’applicabilit` a a insiemi pi` u generali (per esempio la sfera) che, pur non essendo aperti di Rn , in un certo senso vi assomigliano abbastanza. L’idea di base `e che le definizioni e le propriet` a principali del calcolo differenziale sono locali: dipendono solo da quanto avviene in intorni arbitrariamente piccoli di un punto. Quindi se un insieme M `e fatto localmente (in un senso che dobbiamo precisare) come un aperto di Rn abbiamo buone speranze di poter introdurre un calcolo differenziale su M . Ovviamente, il problema consiste nel definire correttamente cosa vuol dire essere fatti localmente come un aperto di Rn . Dal punto di vista topologico `e facile: infatti, si pu` o dire (anche se noi useremo un approccio un poco diverso: vedi l’Osservazione 2.1.16) che uno spazio topologico M `e localmente fatto come un aperto di Rn (`e una variet` a topologica) se ogni punto di M ha un intorno omeomorfo a un aperto di Rn . Ma per il calcolo differenziale questa caratterizzazione topologica non basta; serve qualcosa di pi` u preciso, che permetta di definire una vera “struttura differenziabile”. Scopo di questo capitolo `e dare una definizione efficace di struttura differenziabile su un insieme, e mostrare come ci`o permetta di derivare le funzioni (almeno quelle derivabili. . . ) definite sull’insieme, gettando le basi dello studio delle variet` a differenziabili. Vedremo anche come esista un collegamento stretto fra la nozione analitica di derivazione e quella geometrica di vettore tangente, e generalizzeremo al caso di variet`a teoremi dell’Analisi Matematica classica quali il teorema della funzione inversa e il teorema del rango. Discuteremo il concetto (un poco pi` u delicato del previsto, in quanto ne esistono due versioni diverse, non equivalenti) di sottovariet` a di una variet` a differenziabile, e vedremo come una qualsiasi variet`a sia identificabile con una sottovariet` a di RN per N abbastanza grande (teorema di Whitney). Infine, introdurremo il concetto di gruppo di Lie, che combina idee algebriche con idee geometricodifferenziali, e vedremo cosa vuol dire che un gruppo di Lie agisce su una variet` a differenziabile. Abate M., Tovena F.: Geometria Differenziale. DOI 10.1007/978-88-470-1920-1_2 c Springer-Verlag Italia 2011
60
2 Variet` a
2.1 Variet` a differenziabili Come accennato sopra, una variet` a topologica `e un insieme localmente fatto come un aperto di Rn ; per avere una variet` a differenziabile, occorre che due realizzazioni diverse come aperto di Rn della stessa parte dell’insieme determinino le stesse funzioni C ∞ . Il nostro primo obiettivo `e formalizzare la frase precedente (che detta cos`ı effettivamente non ha molto senso). Per semplificare alcune costruzioni successive, partiremo da un insieme, senza assumere (contrariamente a quanto fatto in molti altri testi, per esempio [24]) l’esistenza a priori di una topologia. Definizione 2.1.1. Sia M un insieme. Una n-carta (U, ϕ) di M `e un’applicazione bigettiva ϕ: U → V ⊆ Rn , dove U `e un sottoinsieme di M e V `e un aperto n di Rn . Se p ∈ U diremo che (U, ϕ) `e una carta in p; se inoltre ϕ(p) = O ∈ 1 R n diremo che la carta `e centrata in p. Se scriviamo ϕ(q) = x (q), . . . , x (q) , diremo che x1 , . . . , xn : U → R sono le coordinate locali nella carta data. L’inversa ϕ−1 : ϕ(U ) → U `e detta parametrizzazione locale (in p). La cosa importante da tenere in mente `e che una carta va intesa come un modo per trasferire sul sottoinsieme U di M le coordinate di Rn . Una carta permette di identificare ciascun punto di U con una n-upla di numeri reali, le sue coordinate locali, fornendoci una sorta di mappa euclidea di U (da cui la terminologia geografica). Ovviamente, uno stesso punto di M potrebbe appartenere al dominio di pi` u carte diverse, e quindi essere identificato da diverse coordinate locali. Diventa quindi importante capire come cambiano le coordinate locali al variare della carta, e quando carte diverse forniscono coordinate locali equivalenti in un senso opportuno. La prossima definizione, che `e la pietra angolare su cui `e costruita tutta la Geometria Differenziale, risponde a questa domanda. Definizione 2.1.2. Due n-carte (U, ϕ) e (V, ψ) su un insieme M sono compatibili se • U ∩ V = ∅, oppure • U ∩ V = ∅, gli insiemi ϕ(U ∩ V ) e ψ(U ∩ V ) sono aperti in Rn , e ψ ◦ ϕ−1 : ϕ(U ∩ V ) → ψ(U ∩ V ) `e un diffeomorfismo di classe C ∞ (cio`e `e un’applicazione C ∞ invertibile fra aperti di Rn con inversa anch’essa di classe C ∞ ). Il diffeomorfismo ψ ◦ ϕ−1 viene detto cambiamento di carta (o cambiamento di coordinate). Vale la pena di sottolineare esplicitamente che il punto cruciale di questa definizione `e il fatto che il cambiamento di carta (che a priori `e soltanto una bigezione) `e un diffeomorfismo C ∞ . In altre parole, due carte compatibili ricreano su M la stessa struttura differenziabile, lo stesso modo di calcolare
2.1 Variet` a differenziabili
61
` proprio questa le derivate (oltre che, in particolare, la stessa topologia). E ∞ compatibilit` a C la chiave che permetter`a di usare ricoprimenti aperti formati da carte compatibili per definire in maniera efficiente e significativa il concetto di variet` a differenziabile come qualcosa localmente fatto come un aperto di Rn . Osservazione 2.1.3. Se (U, ϕ) `e una n-carta in p ∈ M , e χ: ϕ(U ) → Rn `e un diffeomorfismo con l’immagine, allora (U, χ ◦ ϕ) `e ancora una n-carta in p, compatibile (perch´e?) con qualsiasi carta compatibile con (U, ϕ). In particolare, se χ `e la traslazione χ(x) = x − ϕ(p), ponendo ϕ˜ = χ ◦ ϕ = ϕ − ϕ(p) otteniamo una carta (U, ϕ) ˜ centrata in p e compatibile con qualsiasi carta compatibile con (U, ϕ). Osservazione 2.1.4. Se (U, ϕ) `e una n-carta in p ∈ M e W ⊂ ϕ(U ) `e un aperto di Rn contenente ϕ(p), allora anche ϕ−1 (W ), ϕ|ϕ−1 (W ) `e una n-carta in p, compatibile (perch´e?) con qualsiasi carta compatibile con (U, ϕ). In particolare, possiamo costruire parametrizzazioni locali con dominio arbitrariamente piccolo. Siamo ora pronti a introdurre le protagoniste assolute di questo libro, le variet` a differenziabili. Cominciamo con una definizione che riassume bene il modo con cui si lavora con le variet`a differenziabili, anche se richieder`a qualche piccolo aggiustamento tecnico per diventare formalmente precisa (vedi la Definizione 2.1.14 per la versione finale). Definizione 2.1.5. Un atlante di dimensione n su un insieme M `e una famiglia A = {(Uα , ϕα )} di n-carte a due a due compatibili i cui domini ricoprono M , cio`e tale che M = α Uα . Una variet` a (differenziabile, o di classe C ∞ ) di dimensione n `e una coppia (M, A), dove M `e un insieme e A `e un atlante di dimensione n su M . Quella che abbiamo dato noi `e una definizione pragmatica di variet`a differenziabile; come sar`a presto chiaro, avere un atlante `e tutto quello che serve per lavorare su una variet`a. Bisogna per` o onestamente ammettere che non ha senso dire che due atlanti diversi sullo stesso insieme danno sempre variet`a differenziabili diverse. Per esempio, se a un atlante A aggiungiamo carte ottenute come nelle Osservazioni 2.1.3 e 2.1.4 otteniamo s`ı un altro atlante, ma di fatto non abbiamo cambiato nulla: tutte le carte aggiunte sono compatibili con tutte quelle gi`a presenti in A, per cui non forniscono alcuna nuova informazione. Questo suggerisce di considerare atlanti massimali rispetto all’inclusione. Definizione 2.1.6. Diremo che due atlanti A e B di dimensione n su un insieme M sono compatibili se A ∪ B `e ancora un atlante di M (cio`e tutte le carte di A sono compatibili con tutte le carte di B e viceversa; vedi l’Esercizio 2.1). Una struttura differenziabile di dimensione n ∈ N su un insieme M `e un atlante di dimensione n su M massimale rispetto all’inclusione.
62
2 Variet` a
Il punto `e che ogni atlante determina un’unica struttura differenziabile, e due atlanti compatibili determinano la stessa struttura: Proposizione 2.1.7. Ogni atlante di dimensione n su un insieme M `e contenuto in una e una sola struttura differenziabile di dimensione n, e due atlanti compatibili sono contenuti nella stessa struttura differenziabile. Dimostrazione. Dato un atlante A di dimensione n su M , poniamo M = {(U, ϕ) | (U, ϕ) `e una n-carta compatibile con tutte le carte di A} . Chiaramente, A ⊆ M e M contiene ogni altro atlante di dimensione n compatibile con A; in particolare, contiene ogni struttura differenziabile contenente A. Quindi per concludere basta (perch´e?) dimostrare che M `e un atlante. Siano (U, ϕ) e (V, ψ) due carte di M. Se U ∩ V = ∅, non c’`e nulla da dimostrare. Supponiamo allora che U ∩ V = ∅; dobbiamo dimostrare che ϕ(U ∩V ) e ψ(U ∩V ) sono aperti di Rn , e che ψ ◦ϕ−1 `e un diffeomorfismo fra di loro. Prendiamo p ∈ U ∩V . Siccome A `e un atlante, esiste una carta (W, χ) ∈ A in p. Per definizione di M, sia (U, ϕ) che (V, ψ) sono compatibili con (W, χ); quindi ϕ(U ∩ W ), χ(U ∩ W ), ψ(V ∩ W ) e χ(V ∩ W ) sono aperti di Rn e χ ◦ ϕ−1 : ϕ(U ∩ W ) → χ(U ∩ W )
e
ψ ◦ χ−1 : χ(V ∩ W ) → ψ(U ∩ W )
sono diffeomorfismi C ∞ . Ne segue che χ(U ∩ W ) ∩ χ(V ∩ W ) = χ(U ∩ V ∩ W ) `e un intorno aperto di χ(p), e che ψ ◦ ϕ−1 |ϕ(U ∩V ∩W ) = (ψ ◦ χ−1 ) ◦ (χ ◦ ϕ−1 ): ϕ(U ∩ V ∩ W ) → ψ(U ∩ V ∩ W ) `e un diffeomorfismo fra aperti di Rn . Siccome p era un generico punto di U ∩V , otteniamo che ψ ◦ ϕ−1 `e un diffeomorfismo fra gli aperti ϕ(U ∩ V ) e ψ(U ∩ V ), come voluto.
Dare un atlante `e quindi equivalente a dare una struttura differenziabile. In particolare, nel seguito la frase “M `e una variet`a vorr` a dire che abbiamo fissato una particolare struttura differenziabile su M , e lavoreremo liberamente con qualsiasi atlante compatibile con questa struttura differenziabile. Ora, c’`e un’altra questione tecnica da tenere presente. In molti testi (vedi, per esempio, [24] e [3]) la definizione di variet`a differenziabile prevede che l’insieme M sia uno spazio topologico, che i domini delle carte locali siano degli aperti e che le carte locali siano degli omeomorfismi con l’immagine. In realt` a, la struttura di variet` a cos`ı come l’abbiamo definita noi induce automaticamente una topologia su M che soddisfa queste condizioni: Proposizione 2.1.8. Un atlante A = {(Uα , ϕα )} di dimensione n su un insieme M induce su M una topologia dichiarando che A ⊆ M `e aperto se e solo se ϕα (A ∩ Uα ) `e aperto in Rn per ogni carta (Uα , ϕα ) ∈ A. Inoltre questa `e l’unica topologia su M per cui tutti gli Uα sono aperti e tutte le ϕα sono degli omeomorfismi con l’immagine.
2.1 Variet` a differenziabili
63
Dimostrazione. Indichiamo con τ la famiglia degli aperti definiti nell’enunciato. Per costruzione, sia M che l’insieme vuoto appartengono a τ . Inoltre, poich´e le carte sono bigettive abbiamo ϕα (A ∩ B ∩ Uα ) = ϕα (A ∩ Uα ) ∩ ϕα (B ∩ Uα ) per ogni A, B ⊆ M , e ( ( Aγ ∩ Uα = ϕα (Aγ ∩ Uα ) ϕα γ
γ
per ogni famiglia {Aγ } di sottoinsiemi di M ; ne segue che l’intersezione finita e l’unione arbitraria di aperti `e aperta, per cui τ `e effettivamente una topologia, ed `e evidente che gli Uα sono aperti e le ϕα sono degli omeomorfismi con l’immagine rispetto a τ . Sia ora τ˜ un’altra topologia rispetto a cui gli Uα sono aperti e le ϕα degli omeomorfismi con l’immagine. Se A ∈ τ , per definizione ogni ϕα (A ∩ Uα ) `e aperto in Rn , e quindi A∩Uα ∈ τ˜. Essendo A = α (A∩Uα ), otteniamo A ∈ τ˜, per cui τ ⊆ τ˜. Ma in modo analogo si dimostra che τ˜ ⊆ τ ; quindi τ˜ = τ .
` facile vedere (Esercizio 2.3) che due atlanti compatibili definiscono la E stessa topologia; questo suggerisce le prossime definizioni. Definizione 2.1.9. La topologia ottenuta su un insieme M a partire da un atlante `e detta indotta dalla struttura (di variet` a) differenziabile. Definizione 2.1.10. Sia M uno spazio topologico. Diremo che una n-carta (U, ϕ) su M `e compatibile con la topologia data se U `e aperto in M e ϕ `e un omeomorfismo con l’immagine. Diremo che un atlante A su M `e compatibile con la topologia data se tutte le sue carte lo sono, per cui (Esercizio 2.4) induce su M la topologia data. Diremo che uno spazio topologico ammette una struttura differenziabile di dimensione n se ha un atlante di dimensione n compatibile con la topologia data. Osservazione 2.1.11. Si pu` o dimostrare che se uno spazio topologico M ammette una struttura differenziabile di dimensione n non pu` o ammettere anche una struttura differenziabile di dimensione m = n. Questo segue dal fatto che due aperti di spazi euclidei di dimensione diversa non possono mai essere omeomorfi, risultato noto come Teorema di invarianza della dimensione (vedi l’Esercizio 5.12). D’altra parte, su uno spazio topologico possono esistere pi` u strutture differenziabili (necessariamente di uguale dimensione) che inducono la topologia data pur non essendo compatibili fra loro; vedi l’Esempio 2.1.23 per un caso semplice, e l’Osservazione 2.2.14 per esempi ben pi` u complicati (e ben pi` u interessanti). Se nel seguito ci troveremo a definire una struttura di variet` a differenziabile su uno spazio topologico, a meno di avviso contrario
64
2 Variet` a
supporremo sempre che la struttura di variet` a differenziabile induca la topologia data, e non un’altra; gli atlanti saranno sempre compatibili con la topologia. ` facile dimostrare (vedi l’Esercizio 2.6) che la topologia Osservazione 2.1.12. E di una variet` a ha le stesse propriet`a locali della topologia di Rn . In particolare, `e localmente compatta, localmente connessa e localmente connessa per archi (per cui le componenti connesse sono aperte e coincidono con le componenti connesse per archi). Osservazione 2.1.13. Per importanti motivi tecnici che discuteremo nella Sezione 2.7, supporremo sempre che la topologia di una variet` a sia di Hausdorff e a base numerabile. ` facile (vedi l’Esempio 2.1.22) costruire esempi di variet` E a non Hausdorff; costruire esempi di variet` a Hausdorff non a base numerabile `e molto pi` u delicato, ma `e possibile (vedi [35, pag. 71]). Si vede facilmente (Esercizio 2.7) che una variet`a `e a base numerabile se e solo se possiede un atlante numerabile; l’Esercizio 2.8 fornisce invece una semplice condizione necessaria e sufficiente in termini di atlanti perch´e una variet` a sia di Hausdorff. Riassumiamo con la definizione ufficiale di variet` a differenziabile quanto detto finora: Definizione 2.1.14. Una variet` a (differenziabile) di dimensione n `e un insieme M provvisto di una struttura differenziabile di dimensione n che induce su M una topologia di Hausdorff e a base numerabile. In pratica una struttura differenziabile `e sempre data tramite un atlante, a cui si aggiungono o tolgono carte compatibili a seconda delle necessit` a. Osservazione 2.1.15. Essendo a base numerabile con componenti connesse aperte, una variet` a M ha al pi` u una quantit` a numerabile di componenti connesse. Ogni componente connessa di M , essendo aperta, `e a sua volta una variet` a della stessa dimensione di M (vedi l’Esempio 2.1.20); per questo motivo spesso si tende ad assumere implicitamente che una variet`a sia connessa. Per evitare confusione, in questo libro cercheremo di enunciare esplicitamente quali enunciati valgono solo per variet` a connesse (dove la connessione `e, s’intende, rispetto alla topologia indotta dalla struttura di variet` a). Osservazione 2.1.16. In questo libro parleremo quasi esclusivamente di variet` a di classe C ∞ , ma `e chiaro che lo stesso approccio pu`o essere usato per definire variet` a di classe C k con k ∈ N qualsiasi, (o variet` a analitiche reali), semplicemente richiedendo che i cambiamenti di carta siano diffeomorfismi di classe C k
2.1 Variet` a differenziabili
65
(o analitici reali) invece che C ∞ . Per esempio, le variet` a topologiche non sono altro che le variet` a di classe C 0 , in cui i cambiamenti di carta sono solo degli omeomorfismi. Va per`o detto che diversi dei risultati che presenteremo (in particolare quelli riguardanti i vettori tangenti e le derivazioni; vedi gli Esercizi 2.62 e 2.63) potrebbero non valere per variet` a di classe C k con k < ∞, essenzialmente perch´e la derivata di una funzione di classe C k in generale non `e pi` u di classe C k ma solo di classe C k−1 . Per questo motivo noi ci concentreremo sulle variet` a differenziabili; [13] discute pi` u in dettaglio la teoria delle variet` a Ck. Infine, usando Cn al posto di Rn e applicazioni olomorfe al posto di applicazioni C ∞ otteniamo la definizione di variet` a complessa (od olomorfa) ` facile verificare (Esercizio 2.5) che una vadi dimensione complessa n. E riet` a complessa di dimensione complessa n `e in modo naturale una variet` a differenziabile di dimensione reale 2n. Osservazione 2.1.17. Un’altra possibile generalizzazione consiste nel sostituire Rn con uno spazio di Banach (o addirittura con uno spazio di Fr´echet) di dimensione infinita; in questo modo si ottengono variet` a (di dimensione infinita) modellate su uno spazio di Banach. Per maggiori informazioni consulta, per esempio, [21]. Avendo concluso la sistemazione delle questioni fondazionali, possiamo iniziare a fare esempi di variet`a. Esempio 2.1.18. Un aperto U di Rn `e banalmente una variet`a n-dimensionale, con un atlante A = {(U, idU )} costituito da un’unica carta, dove idU : U → U indica l’applicazione identica. Esempio 2.1.19. Sia U ⊂ Rn aperto, e F : U → Rm un’applicazione qualsiasi. Allora il grafico ΓF di F , che `e l’insieme ) * ΓF = x, F (x) ∈ Rn+m x ∈ U ⊂ Rn+m `e una variet` a n-dimensionale, con un atlante costituito dall’unica carta ϕ: ΓF → U data da ϕ x, F (x) = x. Attenzione: la topologia indotta da questa struttura differenziabile coincide con la topologia di ΓF come sottospazio di Rn+m se e solo se F `e continua (Esercizio 2.12). Vedremo inoltre nell’Esempio 2.4.11 che ΓF `e (in un senso naturale che definiremo nella Sezione 2.4) una sottovariet` a di Rn+m se e solo se F `e C ∞ . Esempio 2.1.20. Se M `e una variet` a e U ⊆ M `e aperto (rispetto alla topologia indotta, ovviamente), allora anche U ha una naturale struttura di variet` a, della stessa dimensione. Infatti, se {(Uα , ϕα )} `e un atlante di M , allora {(Uα ∩ U, ϕα |Uα ∩U )} `e un atlante per U (Esercizio 2.9). Esempio 2.1.21. Se M `e una variet` a m-dimensionale, e N `e una variet` a ndimensionale, allora M × N ha una struttura naturale di variet` a (m + n)dimensionale, detta variet` a prodotto. Infatti, se A = {(Uα , ϕα )} `e un atlante
66
2 Variet` a
di M , e B = {(Vβ , ψβ )} `e un atlante di N , allora A×B = {(Uα ×Vβ , ϕα ×ψβ )} `e un atlante di M ×N (Esercizio 2.10), e l’applicazione ϕα ×ψβ : Uα ×Vβ → Rn+m `e definita da ϕα × ψβ (p, q) = ϕα (x), ψβ (y) . Esempio 2.1.22. Sia M = R ∪ {0 }, dove 0 `e un punto non appartenente a R. Possiamo definire su M una struttura di variet` a differenziabile di dimensione 1 con le seguenti due carte: (R, idR ) e (R∗ ∪ {0 }, ϕ), dove R∗ = R \ {0} e ϕ: R∗ ∪ {0 } → R `e data da + ϕ(x) =
x se x ∈ R∗ , 0 se x = 0 .
Si verifica subito (controlla) che {(R, idR ), (R∗ ∪ {0 }, ϕ)} `e un atlante per M , ma la topologia indotta non `e di Hausdorff: i punti 0 e 0 non hanno intorni disgiunti. Se ripetiamo l’operazione aggiungendo, invece di un punto solo, una quantit` a pi` u che numerabile di punti otteniamo una variet` a che non `e a base numerabile, ma non `e nemmeno di Hausdorff. Esempio 2.1.23. Chiaramente, A = {(R, idR )} `e un atlante sulla retta reale. Anche A˜ = {(R, ϕ)}, dove ϕ(t) = t3 , `e un atlante su R, che induce la stessa topologia, ma le due carte (R, idR ) e (R, ϕ) non sono compatibili (perch´e?). Quindi persino sulla retta possiamo definire due diverse strutture di variet` a differenziabili. In realt` a, vedremo che queste due strutture, bench´e diverse, sono equivalenti (sono diffeomorfe: vedi la Definizione 2.2.1 e l’Esempio 2.2.13), per cui possono sostanzialmente essere identificate. Esempio 2.1.24. Sia V uno spazio vettoriale di dimensione n su R; vogliamo definire una naturale struttura di variet` a n-dimensionale su V . Fissata una base B di V , indichiamo con ϕB : V → Rn l’applicazione che associa a ogni vettore v ∈ V le sue coordinate rispetto a B. Allora A = {(V, ϕB )} `e un atlante di V costituito da una sola carta. Due basi diverse inducono atlanti compatibili: infatti, se C `e un’altra base di V , il cambiamento di coordinate n n ϕC ◦ ϕ−1 e altro che l’applicazione lineare definita dalla matrice B : R → R non ` di cambiamento di base. Esempio 2.1.25. Il gruppo generale lineare GL(n, R) delle matrici n × n invertibili a coefficienti reali `e una variet` a di dimensione n2 , in quanto `e un aperto dello spazio Mn,n (R) di tutte le matrici n × n a coefficienti reali, spazio che 2 possiamo ovviamente identificare con Rn . Pi` u in generale, il gruppo GL(V ) degli automorfismi di uno spazio vettoriale V di dimensione n su R `e una variet` a di dimensione n2 . Infatti, fis2 sata una base B di V , indichiamo con ϕB : GL(V ) → GL(n, R) ⊂ Rn l’applicazione che associa a ogni automorfismo L ∈ matrice che lo ) GL(V ) la * rappresenta rispetto alla base B. Allora A = GL(V ), ϕB `e un atlante di GL(V ) costituito da una sola carta. Due basi diverse inducono atlanti compatibili: infatti, se C `e un’altra base di V , il cambiamento di coordinate
2.1 Variet` a differenziabili
67
ϕC ◦ ϕ−1 e altro che l’applicazione X → B −1 XB, B : GL(n, R) → GL(n, R) non ` dove B ∈ GL(n, R) `e la matrice di cambiamento di base. Analogamente si vede che il gruppo generale lineare complesso GL(n, C) delle matrici n × n invertibili a coefficienti complessi `e una variet` a complessa di dimensione complessa n2 . Un esempio pi` u interessante di variet` a (compatta, e che non ha atlanti costituiti da un’unica carta; vedi l’Esercizio 2.14) `e dato dalla sfera. n n-dimensionale di raggio R > 0 (e centro Definizione 2.1.26. La sfera SR l’origine) `e definita da n = {x = (x1 , . . . , xn+1 ) ∈ Rn+1 | x = R} ⊂ Rn+1 , SR
dove · `e la norma euclidea. La palla n-dimensionale di raggio R > 0 (e centro l’origine) `e invece definita da n BR = {y = (y 1 , . . . , yn ) ∈ Rn | y < R} ⊂ Rn .
Quando R = 1, scriveremo S n al posto di S1n e B n al posto di B1n . n ammette una naturale struttura di variet` a nEsempio 2.1.27. La sfera SR dimensionale, compatibile con la topologia indotta da Rn+1 . Per dimostrarlo, dobbiamo costruire un atlante; in effetti ne costruiremo tre, uno in questo esempio e due negli esempi successivi, tutti compatibili. Per il primo atlante poniamo n | xj > 0} Uj+ = {x ∈ SR
e
n Uj− = {x ∈ SR | xj < 0} ,
n per j = 1, . . . , n + 1, in modo da avere SR = n ± ± n ϕj : Uj → BR ⊂ R ponendo
n+1
+ j=1 (Uj
∪ Uj− ). Definiamo poi
1 j−1 ϕ± , xj+1 , . . . , xn+1 ) . j (x) = (x , . . . , x
Chiaramente
, −1 (y) = y 1 , . . . , y j−1 , ± R2 − y2 , y j , . . . , y n , (ϕ± j )
n e una bigezione fra Uj± e BR , e le coppie (Uj± , ϕ± per cui ciascuna ϕ± j ` j ) sono ± ± n delle n-carte. Inoltre ciascun Uj `e aperto in SR , e ciascuna ϕj `e un omeomorfismo con l’immagine; quindi per concludere ci basta verificare che queste carte sono a due a due compatibili. Per semplicit` a, verificheremo la compati− − a fra le altre carte si verifica in bilit` a fra (U1+ , ϕ+ 1 ) e (U2 , ϕ2 ); la compatibilit` modo del tutto analogo (controlla). Prima di tutto, n U1+ ∩ U2− = {x ∈ SR | x1 > 0, x2 < 0} ,
68
2 Variet` a
per cui + − n 1 ϕ+ 1 (U1 ∩ U2 ) = {y ∈ BR | y < 0}
sono aperti di Rn . Inoltre, + −1 (y) = ϕ− 2 ◦ (ϕ1 )
+ − n 1 e ϕ− 2 (U1 ∩ U2 ) = {y ∈ BR | y > 0}
, R2 − y2 , y 2 , . . . , yn
+ − − + − `e un diffeomorfismo di classe C ∞ fra ϕ+ 1 (U1 ∩ U2 ) e ϕ2 (U1 ∩ U2 ), e la compatibilit` a `e verificata. n costruito nell’esempio precedente conteneEsempio 2.1.28. L’atlante su SR n va 2(n + 1) carte; vogliamo ora costruire un atlante di SR compatibile col precedente e che contenga solo due carte, usando le proiezioni sten il polo nord, e indichiamo con reografiche. Sia N = (0, . . . , 0, R) ∈ SR n n ϕN : SR \ {N } → R la proiezione stereografica, cio`e l’applicazione che a cian scun p ∈ SR \ {N } associa l’intersezione della retta passante per N e p con l’iperpiano {xn+1 = 0} ⊂ Rn+1 (iperpiano che identifichiamo con Rn nel modo ovvio). n \ {N } `e parametrizzata da La retta per N e p = (p1 , . . . , pn , pn+1 ) ∈ SR t → N + t(p − N ). Quindi interseca l’iperpiano {xn+1 = 0} quando t soddisfa l’equazione R + t(pn+1 − R) = 0; di conseguenza la proiezione stereografica `e data da R ϕN (p) = (p1 , . . . , pn ) . R − pn+1 n \ {N } ed Rn calcoliamo Per mostrare che ϕN `e un omeomorfismo fra SR j j l’inversa. Se ϕN (p) = x dobbiamo avere x = Rp /(R−pn+1 ) per j = 1, . . . , n. n Elevando al quadrato, sommando e ricordando che p ∈ SR otteniamo
x2 = R2 cio`e pn+1 = R
R + pn+1 , R − pn+1
x2 − R2 . x2 + R2
Quindi ϕN `e invertibile, e 2R2 xn x2 − R2 2R2 x1 (x) = , . . . , , R ϕ−1 N x2 + R2 x2 + R2 x2 + R2 n \ {N }, ϕN ) `e una n-carta compatibile con la `e l’inversa di ϕN , per cui (SR n topologia naturale di SR (quella indotta da Rn+1 ). Ci serve un’altra carta per coprire il polo nord; useremo la proiezione n n \ {S} → Rn dal polo sud S = (0, . . . , 0, −R) ∈ SR . stereografica ϕS : SR Ragionando come prima troviamo
ϕS (p) =
R (p1 , . . . , pn ) R + pn+1
2.1 Variet` a differenziabili
e ϕ−1 S (x) =
2R2 x1 2R2 xn R2 − x2 , . . . , , R R2 + x2 R2 + x2 R2 + x2
69
.
n n Le n due carte (SnR \ {N}, ϕNn) e (SR \ {S}, ϕS ) sono compatibili. Infatti SR \ {N } ∩ SR \ {S} = SR \ {N, S}; inoltre n n \ {N, S}) = Rn \ {O} = ϕS (SR \ {N, S}) , ϕN (SR
e ϕS ◦ ϕ−1 N (x) =
R2 x = ϕN ◦ ϕ−1 S (x) . x2
Vogliamo ora verificare la compatibilit` a di questo atlante con quello inn \ {N }, ϕN ) e trodotto nell’esempio precedente. Cominciamo con le carte (SR ± ± (Uj , ϕj ) per j = 1, . . . , n. Abbiamo n n \ {N } ∩ Uj± = {p ∈ SR | pn+1 = R, ±pj > 0} = Uj± , SR n ϕN (SR \ {N } ∩ Uj± ) = {x ∈ Rn | ±xj > 0} ,
± n n ϕ± j (SR \ {N } ∩ Uj ) = BR .
Quindi −1 ϕN ◦ (ϕ± (x) = j )
, R (x1 , . . . , xj−1 , ± R2 − x2 , xj , . . . , xn−1 ) n R−x
−1 `e di classe C ∞ . Anche ϕ± e di classe C ∞ , in quanto `e ottenuta togliendo j ◦ ϕN ` una coordinata a ϕ−1 e di classe C ∞ quando `e pensata come applicazione N , che ` n+1 . a valori in R + n Infine, per verificare la compatibilit` a fra (SR \ {N }, ϕN ) e (Un+1 , ϕ+ n+1 ) basta notare che + n n SR \ {N } ∩ Un+1 = {p ∈ SR | 0 < pn+1 < R} , + n \ {N } ∩ Un+1 ) = {x ∈ Rn | x > R} , ϕN (SR ± n n ϕ+ n+1 (SR \ {N } ∩ Uj ) = BR \ {O} ,
e che −1 (x) = ϕN ◦ (ϕ+ n+1 )
R−
,
R R2 − x2
x,
e
−1 ϕ+ n+1 ◦ ϕN (x) =
2R2 x. R2 + x2
− n \{N }, ϕN ) e (Un+1 , ϕ− a La compatibilit` a fra (SR n+1 ), come pure la compatibilit` n fra (SR \ {S}, ϕS ) e le altre carte, si verifica in modo analogo. n Esempio 2.1.29. Il terzo atlante che consideriamo su SR ha pi` u carte del precedente ma, come vedremo in seguito, `e molto pi` u comodo per fare i conti. n \ {pj = 0, pj+1 ≥ 0}, mentre per j = n + 1 Per j = 1, . . . , n poniamo Uj = SR n n+1 poniamo Un+1 = SR \ {p = 0, p1 ≥ 0}. Sia poi V ⊂ Rn l’aperto
70
2 Variet` a
V = {(θ1 , . . . , θn ) ∈ Rn | 0 < θ 1 < 2π, 0 < θj < π per j = 2, . . . , n} . Definiamo ψj : V → Uj per j = 1, . . . , n + 1 con ψj (θ1 , . . . , θn ) = R τj sin θ1 · · · sin θn , cos θ1 sin θ2 · · · sin θn ,
cos θ2 sin θ 3 · · · sin θn , . . . , cos θn−1 sin θn , cos θn ,
dove τj : Rn+1 → Rn+1 `e la permutazione ciclica delle coordinate data da τj (p1 , . . . , pn+1 ) = (pn+3−j , pn+4−j , . . . , pn+1 , p1 , . . . , pn+2−j ) . Si verifica facilmente che ciascuna ψj `e una bigezione continua fra V e Uj , per n cui (Uj , ψj−1 ) `e una n-carta di SR . Con un po’ pi` u di fatica (Esercizio 2.15, o usando le tecniche pi` u generali dell’Esercizio 2.89) si verifica che ciascuna ψj `e un omeomorfismo con l’immagine, e che ψh−1 ◦ ψk `e di classe C ∞ per n , abbiamo trovato un ogni 1 ≤ h, k ≤ n + 1. Siccome U1 ∪ · · · ∪ Un+1 = SR −1 nuovo atlante {(Uj , ψj )}, le cui carte forniscono le coordinate sferiche sulla sfera. Non `e difficile (Esercizio 2.15) anche controllare che questo atlante `e compatibile con quelli introdotti negli esempi precedenti. Altri esempi di variet` a compatte sono i prodotti cartesiani di sfere. Un caso che merita di essere menzionato esplicitamente `e il seguente: Definizione 2.1.30. Il toro n-dimensionale `e la variet`a Tn = S 1 × · · · × S 1 (dove il prodotto ha n fattori) con la struttura differenziabile prodotto introdotta nell’Esempio 2.1.21. Gli esempi che abbiamo visto finora (con l’eccezione dell’Esempio 2.1.22) erano sottoinsiemi di un qualche spazio euclideo Rn , o facilmente identificabili a un tale sottoinsieme. I prossimi due esempi, invece, sono esempi importanti di variet` a che non nascono come sottoinsiemi di Rn (anche se `e possibile immergerli, sia pure in modo non ovvio, in uno spazio euclideo; vedi il Teorema 2.8.13). Definizione 2.1.31. Sia V uno spazio vettoriale su un campo K. Lo spazio proiettivo di V (vedi anche la Definizione 1.E.5) `e l’insieme P(V ) delle classi di equivalenza di V \ {O} rispetto alla relazione di equivalenza ∼ definita da v ∼ w se e solo se v = λw per qualche λ ∈ K∗ . In altre parole, P(V ) `e l’insieme dei sottospazi unidimensionali di V . La proiezione naturale di V \{O} su P(V ) sar`a indicata con v → [v]. a detto spazio proiettivo (numerico) reale Lo spazio proiettivo P(Rn+1 ) sar` di dimensione n, e sar`a indicato con Pn (R). Analogamente, lo spazio proiettivo P(Cn+1 ) sar`a detto spazio proiettivo (numerico) complesso di dimensione n, e sar`a indicato con Pn (C). Se x = (x0 , . . . , xn ) ∈ Rn+1 \ {O}, indicheremo con [x0 : · · · : xn ] la sua proiezione [x] ∈ Pn (R), e diremo che (x0 , . . . , xn ) sono coordinate omogenee di [x].
2.1 Variet` a differenziabili
71
Chiaramente [λx0 : · · · : λxn ] = [x0 : · · · : xn ] per ogni λ ∈ R∗ e ogni [x] ∈ Pn (R), per cui sia (x0 , . . . , xn ) sia (λx0 , . . . , λxn ) sono coordinate omogenee di [x]. Esempio 2.1.32. Lo spazio proiettivo reale Pn (R) ammette una naturale struttura di variet` a n-dimensionale. Per j = 0, . . . , n sia Uj = {[x0 : · · · : xn ] ∈ Pn (R) | xj = 0} , e definiamo delle bigezioni ϕj : Uj → Rn ponendo 0 x xj−1 xj+1 xn 0 n ,..., j , j ,..., j , ϕj ([x : · · · : x ]) = xj x x x in modo che
1 j−1 : 1 : yj : · · · : yn] . ϕ−1 j (y) = [y : · · · : y
Le carte (U0 , ϕ0 ) e (U1 , ϕ1 ) sono compatibili: infatti, ϕ0 (U0 ∩ U1 ) = {y ∈ Rn | y 1 = 0} = ϕ1 (U0 ∩ U1 )
e ϕ0 ◦
ϕ−1 1 (y)
=
1 y2 yn , , . . . , y1 y 1 y1
= ϕ1 ◦ ϕ−1 0 (y) .
In modo analogo si verifica la compatibilit` a delle altre carte, per cui {(Uj , ϕj )} `e un atlante, e si vede facilmente (Esercizio 2.16) che la topologia di variet` a coincide con la topologia quoziente indotta da Rn+1 \ {O}. Pi` u in generale, se V `e uno spazio vettoriale reale di dimensione finita, fissando una base di V si vede subito (Esercizio 2.17) che P(V ) ammette una struttura naturale di variet` a (indipendente dalla base!). In modo del tutto u in generale, P(V ) dove V `e uno spazio analogo si verifica che Pn (C) (o, pi` vettoriale complesso di dimensione n + 1) ammette una naturale struttura di variet` a complessa n-dimensionale. Definizione 2.1.33. Sia V uno spazio vettoriale di dimensione n sul campo K, e sia 1 ≤ k ≤ n − 1. La Grassmanniana dei k-piani in V `e l’insieme Gk (V ) dei sottospazi vettoriali di V di dimensione k (vedi anche la Definizione 1.E.11). Se V = Rn scriveremo G(k, n) invece di Gk (Rn ). Esempio 2.1.34. Sia V uno spazio vettoriale reale di dimensione n; vogliamo dimostrare che Gk (V ) ammette una naturale struttura di variet`a di dimensione k(n − k). Per dimostrarlo, (riguardati l’Esercizio 1.16 e) iniziamo introducendo le carte. Sia Q ⊂ V un sottospazio vettoriale di dimensione n − k, e poniamo ) * UQ = P ∈ Gk (V ) | P ∩ Q = {O} ⊂ Gk (V ) .
72
2 Variet` a
Fissiamo un elemento P0 ∈ UQ (cio`e un sottospazio k-dimensionale di V complementare a Q). Se A ∈ Hom(P0 , Q) si verifica facilmente (controlla) che ι + A ∈ Hom(P0 , V ) `e iniettiva (dove ι: P0 → V `e l’inclusione); quindi (ι + A)(P0 ) ha dimensione k, e un attimo di riflessione rivela (perch´e?) che (ι + A)(P0 ) ∈ UQ . Quindi abbiamo definito un’applicazione ψQ : Hom(P0 , Q) → UQ ponendo ∀A ∈ Hom(P0 , Q)
ψQ (A) = (ι + A)(P0 ) .
o essere L’applicazione ψQ `e surgettiva: infatti, dato P ∈ UQ , ogni p0 ∈ P0 pu` decomposto in un solo modo come p0 = p + q con p ∈ P e q ∈ Q; ponendo A(p0 ) = −q abbiamo definito A ∈ Hom(P0 , Q) tale che (ι + A)(P0 ) = P . L’iniettivit` a di ψQ `e immediata (controlla); quindi ψQ `e una bigezione. Poniamo −1 ; siccome scegliendo basi di P0 e Q possiamo identificare Hom(P0 , Q) ϕQ = ψQ k(n−k) , le coppie (UQ , ϕQ ) sono delle k(n − k)-carte. Nota (controlla) con R che partendo da un altro P0 ∈ UQ si ottiene una carta compatibile con quella che abbiamo appena costruito. Siccome ogni P ∈ Gk (V ) `e il complementare di un qualche sottospazio (n − k)-dimensionale, gli UQ ricoprono tutto Gk (V ); quindi per dimostrare che {(UQ , ϕQ )} `e un atlante rimane da verificare la compatibilit`a delle carte. Sia Q un altro sottospazio (n − k)-dimensionale, con relativo complementare P0 e applicazioni ψQ e ϕQ . L’insieme ϕQ (UQ ∩ UQ ) ⊆ Hom(P0 , Q) consiste nelle applicazioni A ∈ Hom(P0 , Q) tali che (ι + A)(P0 ) ∩ Q = {O}, che `e chiaramente un aperto in Hom(P0 , Q). Sia ora A ∈ ϕQ (UQ ∩ UQ ), e poniamo S = (ι + A)(P0 ). L’applicazione e l’unico elemento A ∈ Hom(P0 , Q ) tale che (ι + A )(P0 ) = S, ϕQ ◦ ϕ−1 Q (A) ` cio`e tale che ∀x ∈ P0 ∃!x ∈ P0 : x + A x = x + Ax . (2.1) Sia π: V → P0 la proiezione con nucleo Q . Applicando π a (2.1) otteniamo x = π ◦ (ι + A)(x). Ora, essendo A ∈ ϕQ (UQ ∩ UQ ) l’applicazione −1 (x ) e dunque π ◦ (ι + A): P0 → P0 `e invertibile; quindi x = π ◦ (ι + A) −1 A = (ι + A) ◦ π ◦ (id +A) − id . Scrivendo questa relazione in coordinate (scegliendo basi di Q, Q , P0 e P0 ) si vede subito che le coordinate di A dipendono in modo C ∞ dalle coordinate di A, e quindi le due carte sono compatibili. Rimane da verificare che la topologia indotta `e a base numerabile e di Hausdorff. Infatti, se {v1 , . . . , vk } `e una base di V , il teorema di completamento a una base (vedi [1, Teorema 4.10]) mostra che ogni sottospazio k-dimensionale di V ammette un complementare generato da n − k vettori della base assegnata. Quindi possiamo ricoprire Gk (V ) con l’insieme finito di carte ottenute considerando i sottospazi (n − k)-dimensionali generati dai vettori della base scelta, per cui Gk (V ) `e a base numerabile grazie all’Esercizio 2.7. Infine, dati
2.1 Variet` a differenziabili
73
due sottospazi k-dimensionali P e P esiste sempre un sottospazio (n − k)dimensionale Q complementare a entrambi, per cui P , P ∈ UQ e Gk (V ) `e di Hausdorff grazie all’Esercizio 2.8. Gli Esercizi 2.135 e 2.136 contengono altre due costruzioni della struttura di variet` a sulle Grassmanniane. Infine, non `e difficile controllare (Esercizio 2.19) che la struttura di variet`a su G1 (V ) qui introdotta coincide con quella di spazio proiettivo P(V ) introdotta nell’Esempio 2.1.32. Un’altra classe di esempi molto utile `e data dalle (iper)superfici di livello. Per introdurle ci serve una definizione. Definizione 2.1.35. Sia F : Ω → Rm un’applicazione C 1 definita su un aperto Ω ⊆ Rn . Un punto p ∈ Ω `e detto punto critico di F se il differenziale dFp : Rn → Rm non `e surgettivo. Un valore critico `e l’immagine di un punto critico. Un valore regolare `e un punto di F (Ω) ⊆ Rm che non `e un valore critico. Indicheremo con Crit(F ) ⊆ Ω l’insieme dei punti critici di F ; si vede facilmente (Esercizio 2.21) che Crit(F ) `e un chiuso di Ω. Osservazione 2.1.36. Il teorema di Sard (vedi il Teorema 2.8.10) asserisce che l’insieme dei valori critici di un’applicazione differenziabile ha sempre misura nulla in Rm ; vedi [3, Theorem 9.5.4] oppure [15] per una dimostrazione. Richiamiamo il seguente teorema di Analisi (vedi [9], pag. 240): Teorema 2.1.37 (della funzione inversa). Siano Ω un aperto di Rn , e F : Ω → Rn un’applicazione di classe C k , con k ∈ N∗ ∪ {∞}. Sia p0 ∈ Ω tale che det Jac F (p0 ) = 0, dove Jac F `e la matrice Jacobiana di F . Allora esistono un intorno U ⊂ Ω di p0 e un intorno V ⊂ Rn di F (p0 ) tali che F |U : U → V sia un diffeomorfismo con inversa di classe C k . Allora: Proposizione 2.1.38. Sia Ω ⊆ Rn+m aperto, e F : Ω → Rm un’applicazione di classe C ∞ . Se a ∈ F (Ω), allora Ma = F −1 (a) \ Crit(F ) ha una naturale struttura di variet` a n-dimensionale, compatibile con la topologia indotta da Rn+m . In particolare, se a `e un valore regolare allora l’intero insieme di a n-dimensionale. livello F −1 (a) = {p ∈ Ω | F (p) = a} `e una variet` Dimostrazione. Sia p0 ∈ Ma . Siccome p0 non `e un punto critico di F , lo Jacobiano di F ha rango massimo m in p0 per cui, a meno di permutare le coordinate, possiamo supporre che ∂F 1 ∂F 1 n+1 (p0 ) · · · ∂x ∂xn+m (p0 ) . . . det = 0 . .. .. .. m m ∂F (p ) · · · ∂F (p ) ∂xn+1
0
0
∂xn+m
data da G(x) = x , . . . , xn , F (x) ; chiaramente, Sia allora G: Ω → R det Jac(G)(p0 ) = 0. Possiamo quindi applicare il teorema della funzione in˜ ⊆ Ω \ Crit(F ) di p0 e W ⊆ Rm+n di G(p0 ) tali versa e trovare intorni U m+n
1
74
2 Variet` a
˜ → W sia un diffeomorfismo. Posto H = (h1 , . . . , hm+n ) = G−1 che G|U˜ : U abbiamo (y 1 , . . . , yn+m ) = G ◦ H(y) = h1 (y), . . . , hn (y), F H(y) per cui hi (y) = y i , per i = 1, . . . , n e F y 1 , . . . , yn , hn+1 (y), . . . , hn+m (y) = (y n+1 , . . . , y n+m ) (2.2) 1 ˜ per per ogni y ∈ W ; in particolare y , . . . , y n , hn+1 (y), . . . , hn+m (y) ∈ U ˜ ogni y ∈ W . Poniamo U = Ma ∩ U . L’insieme V = {x ∈ Rn | (x, a) ∈ W } `e chiaramente un aperto di Rn , e possiamo definire ψ: V → Rn+m con ψ(x) = x, hn+1 (x, a), . . . , hn+m (x, a) . La (2.2) ci dice (perch´e?) che ˜ =U , ψ(V ) = F −1 (a) ∩ U e quindi ϕ = ψ −1 `e una carta locale di F −1 (a) in p0 . Notiamo esplicitamente che ϕ(x) = (x1 , . . . , xn ) `e la proiezione sulle prime n coordinate. In particolare, U `e un aperto di Ma per la topologia indotta da Rn+m , e ϕ `e un omeomorfismo con l’immagine. ˜ , ϕ) Rimane da dimostrare che due carte (U, ϕ) e (U ˜ ottenute in questo modo sono compatibili. Ma per quanto visto ϕ˜ ◦ ϕ−1 = ϕ˜ ◦ ψ ha come coordinate alcune delle coordinate di ψ, e quindi `e di classe C ∞ .
Esempio 2.1.39. Sia F : Rn+1 → R la funzione data da F (x) = x2 . Allora n = F −1 (R2 ) `e (di nuovo!) l’unico valore critico di F `e lo zero, e quindi SR una variet` a n-dimensionale. Ovviamente, l’atlante fornito dalla proposizione precedente `e compatibile con quelli gi` a incontrati (Esercizio 2.22). Esempio 2.1.40. Il determinante `e una funzione di classe C ∞ sullo spazio Mn,n (R) delle matrici n × n a coefficienti reali. Se X = (xji ) ∈ Mn,n (R) non `e difficile verificare (vedi l’Esercizio 2.24) che ∂ det ∂xji
(X) = (−1)i+j det(Xij ) ,
dove Xij ∈ Mn−1,n−1 (R) `e la sottomatrice di X ottenuta cancellando la riga i-esima e la colonna j-esima di X. Quindi i punti critici della funzione determinante sono le matrici le cui sottomatrici di ordine n − 1 hanno tutte determinante nullo, cio`e Crit(det) = {A ∈ Mn,n (R) | rk A ≤ n − 2} . Il determinante di una matrice di rango n − 2 `e zero, per cui 0 `e l’unico valore critico di det. La Proposizione 2.1.38 ci assicura che il gruppo speciale lineare
2.2 Applicazioni differenziabili
75
SL(n, R) = {A ∈ Mn,n (R) | det A = 1} `e una variet` a di dimensione n2 − 1, In maniera non dissimile (vedi gli Esercizi 2.25 e 2.26) si dimostra che il gruppo ortogonale O(n) = {X ∈ Mn,n (R) | X T X = In } ha una struttura di variet` a differenziabile di dimensione n(n − 1)/2; che il gruppo speciale ortogonale SO(n, R) = O(n) ∩ SL(n, R) ha una struttura di variet` a differenziabile di dimensione n(n − 1)/2 − 1; che il gruppo speciale lineare complesso SL(n, C) = {X ∈ GL(n, C) | det X = 1} ha una struttura di variet` a complessa di dimensione n2 − 1 (e quindi una struttura di variet` a differenziabile reale di dimensione 2n2 − 2); che il gruppo unitario U (n) = {X ∈ Mn,n (C) | X ∗ X = In } T
(dove X ∗ = X `e la matrice trasposta coniugata di X) ha una struttura di variet` a differenziabile (reale) di dimensione n2 , e che il gruppo speciale unitario SU (n) = U (n) ∩ SL(n, C) ha una struttura di variet` a differenziabile di dimensione n2 − 1.
2.2 Applicazioni differenziabili Nella matematica contemporanea, ogni volta che si introduce una nuova classe di oggetti (per esempio, le variet`a), si cerca subito di definire anche le applicazioni ammissibili fra questi oggetti. Nel caso delle variet` a, si tratta delle applicazioni differenziabili. Definizione 2.2.1. Siano M , N due variet` a. Un’applicazione F : M → N `e differenziabile (o di classe C ∞ ) in p ∈ M se esistono una carta (U, ϕ) in p e una carta (V, ψ) in F (p) tali che F (U ) ⊆ V e la composizione ψ ◦ F ◦ ϕ−1 : ϕ(U ) → ψ(V ) sia di classe C ∞ in un intorno di ϕ(p). Se F `e differenziabile in ogni punto di M diremo che `e differenziabile (o di classe C ∞ ). Un’applicazione differenziabile bigettiva con inversa differenziabile `e detta diffeomorfismo. L’insieme delle applicazioni differenziabili da una variet` a M a una variet` a N sar`a indicato con C ∞ (M, N ); e l’insieme delle funzioni differenziabili da M in R verr` a indicato con C ∞ (M ). Il motivo per cui la Definizione 2.2.1 `e una definizione efficace `e che per decidere se un’applicazione `e differenziabile si pu` o usare qualsiasi carta: Proposizione 2.2.2. Sia F : M → N un’applicazione fra variet` a, differenzia˜ in F (p) ˜ , ϕ) bile in p ∈ M . Allora per ogni carta (U ˜ in p e ogni carta (V˜ , ψ) −1 ∞ ˜ la composizione ψ ◦ F ◦ ϕ˜ `e di classe C in ϕ(p). ˜
76
2 Variet` a
Dimostrazione. Siano (U, ϕ) e (V, ψ) carte in p e F (p) tali che ψ ◦ F ◦ ϕ−1 sia di classe C ∞ in ϕ(p). Allora ψ˜ ◦ F ◦ ϕ˜−1 = (ψ˜ ◦ ψ −1 ) ◦ (ψ ◦ F ◦ ϕ−1 ) ◦ (ϕ ◦ ϕ−1 ) ˜ in quanto composizione di applicazioni di classe C ∞ `e di classe C ∞ in ϕ(p) (definite sugli opportuni aperti).
Osservazione 2.2.3. Un’applicazione F : M → N differenziabile in p ∈ M `e automaticamente continua in p. Infatti, sia A un intorno aperto di F (p) in N ; dobbiamo dimostrare che F −1 (A) `e un intorno di p. Scegliamo una carta (U, ϕ) in p e una carta (V, ψ) in F (p) tali che F (U ) ⊆ V e la composizione ψ ◦ F ◦ ϕ−1 : ϕ(U ) → ψ(V ) sia di classe C ∞ . Per definizione di topologia indotta dalla struttura di variet` a, A ∩ V `e aperto in V , e quindi ψ(A ∩ V ) `e aperto in ψ(V ). Ma allora ϕ F −1 (A ∩ V ) = (ψ ◦ F ◦ ϕ−1 )−1 ψ(A ∩ V ) `e aperto in ϕ(U ), per cui F −1 (A ∩ V ) `e aperto in U , e quindi in M . Osservazione 2.2.4. In modo analogo si pu` o definire il concetto di applicazioni di classe C r e di C r -diffeomorfismi fra variet`a di classe C s non appena r ≤ s. Chiaramente, due variet` a di classe C s che sono C s -diffeomorfe sono anche r C -diffeomorfe per ogni r ≤ s, ma vale anche il contrario: se due variet` a di classe C s sono C r -diffeomorfe con 1 ≤ r ≤ s ≤ ∞ allora sono anche C s diffeomorfe. Inoltre, ogni variet`a di classe C r , con 1 ≤ r ≤ ∞, `e C r -diffeomorfa a una variet` a di classe C ∞ , che `e un altro motivo per restringere l’attenzione solo alle variet`a differenziabili. Riguardo le variet` a topologiche, si pu` o dimostrare che ogni variet` a topologica di dimensione minore o uguale a 3 ammette un’unica (a meno di diffeomorfismi) struttura di variet` a differenziabile compatibile con la topologia data, mentre in ogni dimensione maggiore di 3 esistono variet` a topologiche compatte che non ammettono alcuna struttura differenziabile compatibile con la topologia data. Per le dimostrazioni di tutte queste affermazioni vedi [13], [30], [28] e [18]. Infine, nel caso di variet`a complesse, si richiede che le composizioni ψ ◦ F ◦ ϕ−1 siano olomorfe, e in tal caso si parla di applicazioni olomorfe. Un’applicazione olomorfa invertibile con inversa olomorfa `e detta biolomorfismo. Cominciamo a studiare le propriet` a delle applicazioni differenziabili mostrando che la composizione di applicazioni differenziabili `e differenziabile: Proposizione 2.2.5. Siano F : M → N e G: N → S due applicazioni differenziabili fra variet` a. Allora anche la composizione G ◦ F : M → S `e differenziabile.
2.2 Applicazioni differenziabili
77
Dimostrazione. Presop ∈ M , sappiamo che per ogni carta (U, ϕ) in p, (V, ψ) in F (p) e (W, χ) in G F (p) le applicazioni ψ ◦ F ◦ ϕ−1 e χ ◦ G ◦ ψ −1 sono di classe C ∞ . Ma allora anche χ ◦ (G ◦ F ) ◦ ϕ−1 = (χ ◦ G ◦ ψ −1 ) ◦ (ψ ◦ F ◦ ϕ−1 ) `e di classe C ∞ , e ci siamo.
Esempio 2.2.6. Sia ϕ: U → V ⊆ Rn una carta locale di una variet`a M . Allora ϕ `e un diffeomorfismo fra U e V . Infatti `e chiaramente un omeomorfismo, e le ovvie identit` a id ◦ϕ ◦ ϕ−1 = id e ϕ ◦ ϕ−1 ◦ id = id dicono esattamente che −1 ϕ e ϕ sono di classe C ∞ . a di dimensione rispettivamenEsempio 2.2.7. Se M1 , . . . , Mk sono delle variet` a prodotto, allora le prote n1 , . . . , nk , e M = M1 × · · · × Mk `e la variet` iezioni πj : M → Mj (per j = 1, . . . , k) sono differenziabili. Infatti, preso p = (p1 , . . . , pk ) ∈ M sia (Uj , ϕj ) per j = 1, . . . , k una carta di Mj in pj e sia (U1 × · · · × Uk , ϕ), dove ϕ = ϕ1 × · · · × ϕk , la corrispondente carta di M in p. Allora ϕj ◦ πj ◦ ϕ−1 : ϕ1 (U1 ) × · · · × ϕk (Uk ) → ϕj (Uj ) `e semplicemente la proiezione sulla j-esima coordinata di Rn1 × · · · × Rnk . Esempio 2.2.8. L’inclusione ι: S n → Rn+1 `e un’applicazione differenziabile. Infatti, usando per Rn+1 l’atlante banale {(Rn+1 , idRn+1 } e per S n l’atlante dato dalle proiezioni stereografiche (Esempio 2.1.28), vediamo che n = ϕ−1 → Rn+1 `e differenziabile, e lo stesso accade idRn+1 ◦ι ◦ ϕ−1 N N :R −1 usando ϕS . Esempio 2.2.9. La proiezione π: Rn+1 \ {O} → Pn (R) `e differenziabile. Infatti, usiamo su Rn+1 \ {O} l’atlante {(Vj , idRn+1 }, dove Vj = {x ∈ Rn+1 | xj = 0} per j = 0, . . . , n, e su Pn (C) l’atlante dell’Esempio 2.1.32. Allora 0 x xj−1 xj+1 xn ϕj ◦ π ◦ idRn+1 (x) = ϕj ([x0 : · · · : xn ]) = , . . . , , , . . . , xj xj xj xj `e differenziabile su Vj . ` facile vedere (Esercizio 2.37) che due sfere della stessa diEsempio 2.2.10. E mensione ma raggi diversi sono diffeomorfe, come pure due palle della stessa n → Rn data da dimensione e raggi diversi. Inoltre, l’applicazione F : BR F (x) =
R2
x − x2
n `e un diffeomorfismo fra la palla BR e lo spazio euclideo Rn ; l’inversa `e , 1 + 4R2 y2 − 1 −1 F (y) = y. 2y2
78
2 Variet` a
Esempio 2.2.11. Il prodotto di matrici visto come applicazione definita su GL(n, R) × GL(n, R) e a valori in GL(n, R) `e differenziabile. Analogamente, l’inversa `e un diffeomorfismo di GL(n, R) in s´e. Esempio 2.2.12. Sia a ∈ Rm un valore regolare di un’applicazione differenziabile F : Rn → Rm , in modo che M = F −1 (a) sia una variet` a (Proposizione 2.1.38), e sia G: Rn → N un’applicazione differenziabile, dove N `e un’altra variet` a. Allora la restrizione g = G|M : M → N `e differenziabile. Infatti la dimostrazione della Proposizione 2.1.38 mostra che per ogni p ∈ M possiamo trovare una carta locale (U, ϕ) in p tale che ϕ−1 : ϕ(U ) → Rn sia di classe C ∞ come applicazione a valori in Rn . Sia allora (V, ψ) una carta locale di N in g(p); essendo G differenziabile, la composizione ψ ◦ G `e di classe C ∞ in un intorno (in Rn ) di p. Ma allora ψ ◦ g ◦ ϕ−1 = (ψ ◦ G) ◦ ϕ−1 `e di classe C ∞ in un intorno di ϕ(p), e quindi g `e differenziabile in p. Essendo p ∈ M generico, otteniamo la differenziabilit` a tout-court di g. L’Esercizio 2.91 mostrer`a che, viceversa, tutte le applicazioni differenziabili su M sono restrizione di applicazioni differenziabili definite nell’ambiente Rn ; vedi anche l’Osservazione 2.4.14. Possiamo ora dare un esempio promesso prima: Esempio 2.2.13. Siano A = {(R, idR )} e A˜ = {(R, ϕ)} i due atlanti su R ˜ data introdotti nell’Esempio 2.1.23. Allora l’applicazione F : (R, A) → (R, A) da F (t) = t1/3 `e un diffeomorfismo. Infatti `e invertibile, e siccome ϕ ◦ F ◦ (idR )−1 (t) = t = idR ◦F −1 ◦ ϕ−1 (t) sia F che F −1 sono di classe C ∞ rispetto a queste strutture differenziabili. Nota che F : (R, A) → (R, A) non `e differenziabile (mentre l’inversa lo `e). Osservazione 2.2.14. Non `e difficile dimostrare (vedi l’Esercizio 4.15) che a meno di diffeomorfismi esiste un’unica struttura differenziabile su R e su S 1 . Per lungo tempo un problema importante della geometria differenziale `e stato stabilire se esistessero su un qualche Rn due strutture differenziabili non diffeomorfe. La risposta finale `e piuttosto sorprendente: per n = 4, lo spazio Rn ha un’unica (a meno di diffeomorfismi) struttura differenziabile, mentre Donaldson e Freedman nel 1984 hanno dimostrato che R4 ha un’infinit` a pi` u che numerabile di strutture differenziabili distinte, a due a due non diffeomorfe! Vedi [7] e [8] per i dettagli. Un altro risultato sorprendente, dovuto a Kervaire e Milnor (vedi [18]), `e che S 7 ha esattamente 28 strutture differenziabili non diffeomorfe, descrivibili esplicitamente. Data una (n + 1)-upla a = (a0 , . . . , an ) ∈ Nn+1 di numeri naturali, la variet` a di Brieskorn V 2n−1 (a) `e data da (vedi l’Esercizio 2.27) V 2n−1 (a) = {z ∈ Cn+1 | z2 = 1 e z0a0 + · · · + znan = 0} . Hirzebruch e Mayer (vedi [14]) hanno dimostrato che tutte le variet` a di Brieskorn V 7 (3, 6k − 1, 2, 2, 2) sono omeomorfe a S 7 , e che sono a due a due non diffeomorfe per k = 1, . . . , 28.
2.2 Applicazioni differenziabili
79
Esiste anche una versione locale del concetto di diffeomorfismo: Definizione 2.2.15. Un’applicazione F : M → N fra variet` a `e un diffeomorfismo locale se ogni p ∈ M ha un intorno aperto U ⊂ M tale che F (U ) sia aperto in N e F |U : U → F (U ) sia un diffeomorfismo. Una classe particolarmente importante di diffeomorfismi locali `e data dai rivestimenti lisci. ˜ → M fra variet` Definizione 2.2.16. Un’applicazione differenziabile π: M a `e un rivestimento liscio se `e un rivestimento, cio`e `e surgettiva e ogni p ∈ M possiede un intorno aperto U connesso tale che π ristretta a una qualsiasi ˜ di π −1 (U ) sia un diffeomorfismo fra U ˜ e U . Un tale componente connessa U ˜ →M intorno U sar`a detto ben rivestito. Inoltre, un rivestimento liscio π: M ˜ `e detto universale se M `e semplicemente connesso. Esempio 2.2.17. Sia Tn ⊂ Cn il toro n-dimensionale visto come sottoinsieme di Cn . L’applicazione p: Rn → Tn data da p(x1 , . . . , xn ) = exp(2πix1 ), . . . , exp(2πixn ) `e un rivestimento liscio. Esempio 2.2.18. La proiezione π: S n → Pn (R) `e un rivestimento (universale) liscio. Prima di tutto `e differenziabile, in quanto composizione dell’inclusione S n → Rn+1 \ {O} e della proiezione Rn+1 \ {O} → Pn (R), applicazioni che abbiamo visto essere differenziabili negli Esempi 2.2.8 e 2.2.9. Poi, gli aperti Uj ⊂ Pn (R) con j = 0, . . . , n introdotti nell’Esempio 2.1.32 sono ben rivestiti: infatti π −1 (Uj ) = Uj± , dove Uj± ⊂ S n `e definito nell’Esempio 2.1.27, e si vede subito che π|U ± : Uj± → Uj `e un diffeomorfismo. j
Un rivestimento liscio `e, in particolare, un rivestimento nel senso topologico del termine, ma il viceversa non `e detto che sia vero; infatti, si vede facilmente (vedi l’Esercizio 2.45) che un rivestimento topologico `e un rivestimento liscio se e solo se `e un diffeomorfismo locale. Per` o `e sempre possibile sollevare la struttura differenziabile della base di un rivestimento topologico in modo da ottenere un rivestimento liscio: ˜ → M un rivestimento topologico di una vaProposizione 2.2.19. Sia π: M riet` a n-dimensionale M . Allora esiste un’unica struttura di variet` a differen˜ tale che π sia un rivestimento liscio. ziabile di dimensione n su M Dimostrazione. Supponiamo che esista una struttura di variet` a differenziabile ˜ tale che π sia un rivestimento liscio. Preso p˜ ∈ M ˜ , sia U ⊆ M un su M intorno ben rivestito di p = π(˜ p); possiamo chiaramente supporre che U sia il ˜ la componente connessa di π −1 (U ) dominio di una carta ϕ centrata in p. Sia U ˜ , ϕ ◦ π| ˜ ) `e una n-carta di M ˜ contenente p˜; essendo π un rivestimento liscio, (U U
80
2 Variet` a
appartenente alla struttura differenziabile data. L’unione delle carte ottenute ˜ `e un atlante di M ˜ , e quindi la struttura in questo modo al variare di p˜ ∈ M ˜ di variet` a differenziabile su M , se esiste, `e unica. ˜ abbia una struttura di variet` Viceversa, anche senza supporre che M a ˜ differenziabile, `e chiaro che le coppie (U , ϕ ◦ π|U˜ ) cos`ı costruite sono delle n˜ ; per dimostrare che formano un atlante di M ˜ dobbiamo dimostrare carte su M che sono compatibili. Infatti, sia (V˜ , ψ ◦π|V˜ ) un’altra carta costruita in questo ˜ ∩ V˜ = ∅. Allora U ∩ V = ∅, dove V = π(V˜ ), e quindi modo e tale che U ψ ◦ π|U˜ ∩V˜ ◦ (ϕ ◦ π|U˜ ∩V˜ )−1 = ψ ◦ (ϕ|U ∩V )−1 `e di classe C ∞ dove definita, come voluto.
In particolare questo risultato si applica ai rivestimenti topologici universali: il rivestimento topologico universale di una variet` a ha una naturale struttura di variet` a della stessa dimensione della base. ` facile vedere (Esercizio 2.47) che se la base M di un Osservazione 2.2.20. E ˜ → M `e di Hausdorff e/o a base numerabile allora rivestimento topologico π: M ˜ anche M `e di Hausdorff e/o a base numerabile.
2.3 Spazio tangente Avendo definito il concetto di funzioni (e applicazioni) differenziabili, il meno che possiamo fare `e cercare di derivarle. Come vedremo, questo equivale pi` u o meno all’introdurre il concetto geometrico di vettore tangente. Definizione 2.3.1. Sia M una variet` a, e p ∈ M . Sulla famiglia F = {(U, f ) | U intorno aperto di p, f ∈ C ∞ (U )} poniamo la relazione d’equivalenza ∼ cos`ı definita: (U, f ) ∼ (V, g) se esiste un aperto W ⊆ U ∩ V contenente p tale che f |W ≡ g|W . L’insieme C ∞ (p) = F/ ∼ `e detto spiga dei germi di funzioni differenziabili in p, e un elemento f ∈ C ∞ (p) `e detto germe in p. Un elemento (U, f ) della classe di equivalenza f `e detto rappresentante di f . Se sar`a necessario ricordare su ∞ (p) invece di C ∞ (p). quale variet` a stiamo lavorando, scriveremo CM Osservazione 2.3.2. Se sostituiamo alle funzioni differenziabili altre classe di funzioni (funzioni reali analitiche, funzioni olomorfe, funzioni di classe C k con k < ∞, eccetera), otteniamo corrispondenti nozioni di germi e di spiga di germi. Ne riparleremo nella Sezione 5.9. L’insieme C ∞ (p) ha una naturale struttura di algebra: Lemma 2.3.3. Sia p ∈ M un punto di una variet` a M , e f , g ∈ C ∞ (p) due germi in p. Siano inoltre (U1 , f1 ), (U2 , f2 ) due rappresentanti di f , e (V1 , g1 ), (V2 , g2 ) due rappresentanti di g. Allora:
2.3 Spazio tangente
(i) (ii) (iii) (iv)
81
(U1 ∩ V1 , f1 + g1 ) `e equivalente a (U2 ∩ V2 , f2 + g2 ); (U1 ∩ V1 , f1 g1 ) `e equivalente a (U2 ∩ V2 , f2 g2 ); (U1 , λf1 ) `e equivalente a (U2 , λf2 ) per ogni λ ∈ R; f1 (p) = f2 (p).
Dimostrazione. Cominciamo con (i). Siccome (U1 , f1 ) ∼ (U2 , f2 ), esiste un intorno aperto W ⊆ U1 ∩ U2 di p tale che f1 |W ≡ f2 |W . Analogamente, da - ⊆ V1 ∩ V 2 (V1 , g1 ) ∼ (V2 , g2 ) deduciamo l’esistenza di un intorno aperto W di p tale che g1 |W ≡ g | . Ma allora (f +f )| ≡ (g +g )| 2 W 1 2 W ∩W 1 2 W ∩W , e quindi (U1 ∩ V1 , f1 + g1 ) ∼ (U2 ∩ V2 , f2 + g2 ) in quanto W ∩ W ⊆ U1 ∩ V1 ∩ U2 ∩ V2 . La dimostrazione di (ii) `e analoga, e la (iii) e la (iv) sono ovvie.
Definizione 2.3.4. Siano f , g ∈ C ∞ (p) due germi in un punto p ∈ M . Indicheremo con f + g ∈ C ∞ (p) il germe rappresentato da (U ∩ V, f + g), dove (U, f ) `e un qualsiasi rappresentante di f e (V, g) `e un qualsiasi rappresentante di g. Analogamente indicheremo con fg ∈ C ∞ (p) il germe rappresentato da (U ∩ V, f g), e, dato λ ∈ R, con λf ∈ C ∞ (p) il germe rappresentato da (U, λf ). Il Lemma 2.3.3 ci assicura che queste definizioni sono ben poste, ed `e evidente che C ∞ (p) con queste operazioni `e un’algebra. Infine, per ogni f ∈ C ∞ (p) definiamo il suo valore f (p) ∈ R in p ponendo f (p) = f (p) per un qualsiasi rappresentante (U, f ) di f . Osservazione 2.3.5. C’`e una naturale inclusione di algebre R → C ∞ (p) ottenuta associando a c ∈ R il germe costante c di rappresentante (M, c). Nel seguito identificheremo spesso c ∈ R e c ∈ C ∞ (p). ∞ Sia F : M → N un’applicazione di classe C , e siano (V1 , g1 ) e (V2 , g2 ) due ∞ rappresentanti di un germe g ∈ C F (p) . Allora `e evidente (Esercizio 2.54) −1 −1 che F (V1 ), g1 ◦ F e F (V2 ), g2 ◦ F rappresentano lo stesso germe in p, che quindi dipende solo da g (e da F ). Dunque possiamo introdurre la seguente
Definizione 2.3.6. Dati un’applicazione differenziabile fra variet` a F:M → N e un punto p ∈ M , indicheremo con Fp∗ : C ∞ F (p) → C ∞ (p) l’applicazione (V, g) il pull-back che associa a un germe g ∈ C ∞ F (p) di rappresentante ∗ ∞ −1 germe Fp (g) = g ◦ F ∈ C (p) di rappresentante F (V ), g ◦ F . Osservazione 2.3.7. Dati un’applicazione differenziabile fra variet` a F:M → N e un punto p ∈ M , `e facile verificare (Esercizio 2.55) che: (i) Fp∗ `e un omomorfismo di algebre; (ii) (idM )∗p = id; (iii) se G:N → S `e un’applicazione differenziabile, allora (G◦F )∗p = Fp∗ ◦G∗F (p) ; (iv) se F `e un diffeomorfismo allora Fp∗ `e un isomorfismo di algebre; (v) se (U, ϕ) `e una carta in p ∈ M allora ϕ∗p : C ∞ ϕ(p) → C ∞ (p) `e un isomorfismo di algebre.
82
2 Variet` a
Possiamo ora dare la definizione ufficiale di vettore tangente. Definizione 2.3.8. Sia M una variet` a. Una derivazione in un punto p ∈ M `e un’applicazione R-lineare X: C ∞ (p) → R che soddisfa la regola di Leibniz ∀f , g ∈ C ∞ (p)
X(fg) = f (p)X(g) + g(p)X(f ) .
Lo spazio tangente Tp M a M in p `e, per definizione, l’insieme di tutte le derivazioni in p. Un elemento X ∈ Tp M `e detto vettore tangente a M in p. Chiaramente, Tp M `e uno spazio vettoriale. Osservazione 2.3.9. Usando germi analitici reali od olomorfi si ottiene la definizione di spazio tangente per variet` a analitiche reali od olomorfe; questo approccio invece non funziona per variet` a di classe C k con k < ∞, in quanto si pu` o dimostrare che lo spazio delle derivazioni di C 0 (p) si riduce alla sola derivazione nulla (Esercizio 2.62), mentre lo spazio delle derivazioni di C k (p) ha dimensione infinita per 1 ≤ k < +∞ (Esercizio 2.63). Una variet` a analitica reale `e, in maniera ovvia, una variet` a differenziabile, ed `e facile vedere (Esercizio 2.58) che lo spazio tangente come variet`a analitica reale coincide con quello come variet` a differenziabile. Osservazione 2.3.10. Questa non `e l’unica definizione possibile di spazio tangente. Ne esistono almeno altre due, utili in altri contesti: una pi` u geometrica (vedi l’Esercizio 2.59) espressa in termini di classi di equivalenza di curve, e una pi` u algebrica (vedi l’Esercizio 2.60). La definizione da noi scelta ha due vantaggi: rende evidente la struttura di spazio vettoriale dello spazio tangente (cosa non ovvia con la definizione geometrica), ed esplicita la relazione con la struttura differenziabile (non cos`ı evidente nella definizione algebrica). Osservazione 2.3.11. Se U ⊆ M `e aperto, abbiamo Tp U = Tp M per ogni ∞ (p). p ∈ U , in quanto CU∞ (p) si identifica (perch´e?) in modo naturale con CM Esempio 2.3.12. A qualsiasi vettore v = (v 1 , . . . , v n ) ∈ Rn possiamo associare la derivata parziale nella direzione di v definita da ∂ ∂ ∂ = v1 1 + · · · + vn n . ∂v ∂x ∂x Chiaramente, ∂/∂v definisce una derivazione di C ∞ (p) per ogni p ∈ Rn . In questo modo otteniamo un’immersione naturale di Rn in Tp U = Tp Rn , immersione che dimostreremo (Proposizione 2.3.21) essere un isomorfismo. 1 n Esempio 2.3.13. Sia ϕ = (x , . . . , x ) una carta in p; vogliamo definire un vet∂ ∈ Tp M , che generalizzi alle variet`a la nozione di derivata tore tangente ∂xj p parziale in una direzione coordinata. Dato f ∈ C ∞ (p) definiamo ∂ ∂(f ◦ ϕ−1 ) (f ) = ϕ(p) ove (U, f ) `e un rappresentante di f . (2.3) j j ∂x p ∂x
2.3 Spazio tangente
83
` facile verificare (Esercizio 2.57) che questa definizione non dipende dal rapE ∂ presentante, e che `e effettivamente una derivazione. A volte scriveremo ∂xj p ∂ ∂f (p) invece di (f ). Inoltre, se non ci sar` a pericolo di confusione, j ∂x ∂xj p ∂ scriveremo anche ∂j |p o ∂j (p) per . ∂xj p
Esempio 2.3.14. Sia σ: (−ε, ε) → M una curva C ∞ con σ(0) = p. Il vettore tangente σ (0) alla curva in p `e definito ponendo σ (0)(f ) =
d(f ◦ σ) (0) , dt
(2.4)
dove (U, f ) `e un qualsiasi rappresentante di f . Chiaramente (Esercizio 2.57) questa definizione non dipende dal rappresentante scelto, e σ (0) `e una derivazione, cio`e σ (0) ∈ Tp M . Inoltre, se ϕ = (x1 , . . . , xn ) `e una qualunque carta centrata in p, scrivendo ϕ ◦ σ = (σ1 , . . . , σ n ) troviamo n d (f ◦ ϕ−1 ) ◦ (ϕ ◦ σ) d(f ◦ σ) ∂ j (0) = (0) = (σ ) (0) (f ) , dt dt ∂xj j=1
per cui
p
∂ (σ ) (0) , σ (0) = ∂xj p j=1
n
j
e abbiamo ottenuto un’effettiva generalizzazione del concetto di vettore tangente a una curva in Rn . In particolare, ∂/∂xj |p `e il vettore tangente alla curva σ(t) = ϕ−1 (tej ), dove ej `e il j-esimo vettore della base canonica di Rn . Gli Esempi 2.3.13 e 2.3.14 sono casi particolari di una costruzione molto pi` u generale: Definizione 2.3.15. Sia F : M → N un’applicazione differenziabile fra variet` a. Dato p ∈ M , il differenziale dFp : Tp M → TF (p) N di F in p `e l’applicazione lineare definita da ∀X ∈ Tp M
dFp (X) = X ◦ Fp∗ ,
dove Fp∗ : C ∞ F (p) → C ∞ (p) `e l’omomorfismo introdotto nella Definizione 2.3.6. In altre parole,
per ogni g ∈ C
∞
dFp (X)(g) = X(g ◦ F ) F (p) . A volte si scrive (F∗ )p o Tp F per dFp .
84
2 Variet` a
` facile verificare che Osservazione 2.3.16. E d σ (0) = dσ0 dt 0 per ogni curva σ: (−ε, ε) → M , dove
d dt 0
∈ T0 R `e la derivata usuale, e che
∂ ∂ −1 = d(ϕ )ϕ(p) ∂xj p ∂xj ϕ(p) per ogni carta locale ϕ = (x1 , . . . , xn ) in p ∈ M . Il differenziale gode delle propriet` a che uno si aspetta: Proposizione 2.3.17. (i) Se M `e una variet` a e p ∈ M allora d(idM )p = idTp M . (ii) Se F : M → N e G: N → S sono due applicazioni differenziabili fra variet` a e p ∈ M allora d(G ◦ F )p = dGF (p) ◦ dFp . In particolare, se F : M → N `e un diffeomorfismo allora dFp `e invertibile e (dFp )−1 = d(F −1 )F (p) . ∞ Dimostrazione. (i) Infatti f ◦ idM = f per ogni germe f ∈ C (p). ∞ (ii) Prendiamo X ∈ Tp M e f ∈ C (G ◦ F )(p) . Allora
d(G ◦ F )p (X)(f ) = X (G ◦ F )∗p (f ) = X f ◦ (G ◦ F ) = X Fp∗ (f ◦ G) = dFp (X) G∗F (p) (f ) = dGF (p) ◦ dFp (X)(f ) ,
come voluto.
Il nostro prossimo obiettivo `e dimostrare che lo spazio tangente in un punto a una variet` a n-dimensionale `e uno spazio vettoriale di dimensione finita esattamente n. Per far ci` o ci servono due lemmi. Lemma 2.3.18. Sia X ∈ Tp M un vettore tangente a una variet` a M in un punto p ∈ M . Allora X(c) = 0 per ogni costante c ∈ R. Dimostrazione. Infatti X(1) = X(1 · 1) = 2 · X(1) , per cui X(1) = 0 e quindi X(c) = c X(1) = 0 per ogni c ∈ R.
2.3 Spazio tangente
85
Lemma 2.3.19. Siano xo = (x1o , . . . , xno ) ∈ Rn e f ∈ C ∞ (xo ). Allora esistono ∂f germi g1 , . . . , gn ∈ C ∞ (xo ) tali che gj (xo ) = ∂x j (xo ) e f = f (xo ) +
n
(xj − xjo )gj ,
j=1
dove xj ∈ C ∞ (xo ) `e il germe rappresentato dalla j-esima funzione coordinata. Dimostrazione. Scelto un rappresentante (U, f ) di f tale che U sia stellato rispetto a xo , scriviamo .
∂ f xo + t(x − xo ) dt 0 ∂t . 1 n ∂f (xj − xjo ) = xo + t(x − xo ) dt . j 0 ∂x j=1 1
f (x) − f (xo ) =
Allora basta prendere come gj il germe rappresentato dalla coppia (U, gj ) con .
1
gj (x) = 0
∂f xo + t(x − xo ) dt . j ∂x
Osservazione 2.3.20. Questo apparentemente innocente lemma di divisione `e in realt` a la chiave che permette alla nostra definizione di funzionare, come risulter` a chiaro dalla dimostrazione della Proposizione 2.3.21. Nota che l’enunciato del Lemma 2.3.19 rimane valido se sostituiamo ai germi di classe C ∞ germi analitici reali o germi olomorfi, ma non `e pi` u vero se proviamo a usare germi di classe C k con k < ∞, in quanto la derivata di una funzione di classe C k in generale non `e di classe C k ma solo di classe C k−1 , per cui i germi gj sono solo di classe C k−1 e non di classe C k . Proposizione 2.3.21. (i) Sia xo = (x1o , . . . , xno ) ∈ Rn . Allora l’applicazione ι: Rn → Txo Rn definita da ι(v) =
n ∂ j ∂ = v j ∂v xo ∂x xo j=1
`e un isomorfismo. (ii) Sia M una variet` a di dimensione n, e p ∈ M . Allora Tp M `e uno spazio vettoriale di / dimensione n. In particolare, se ϕ = (x1 , . . . , xn ) `e una carta 0 ∂ ∂ ,..., `e una base di Tp M . in p, allora 1 ∂x ∂xn p
p
86
2 Variet` a
Dimostrazione. (i) L’applicazione ι `e chiaramente lineare; dobbiamo dimo` iniettiva: se v = O dobbiamo avere v h = 0 per strare che `e bigettiva. E qualche h; ma allora ι(v)(xh ) =
n
vj
j=1
∂xh (xo ) = v h = 0 , ∂xj
` dove xh ∈ C ∞ (xo ) `e il germe rappresentato da (Rn , xh ), e quindi ι(v) = O. E n j j 1 n surgettiva: dato X ∈ Txo R poniamo v = X(x ) e v = (v , . . . , v ). Vogliamo dimostrare che X = ι(v). Sia f ∈ C ∞ (xo ); se applichiamo il Lemma 2.3.19 ricordando il Lemma 2.3.18 otteniamo
X(f ) = X f (xo ) +
n
X (xj − xo j )gj
j=1
=
n
X(xj − xjo )gj (xo ) +
j=1
=
n
(xj − xjo )(xo )X(gj )
j=1
n
X(xj ) − X(xjo ) gj (xo ) =
j=1
n j=1
vj
∂f (xo ) = ι(v)(f ) , ∂xj
cio`e X = ι(v), come voluto. (ii) Sia ϕ: U → V ⊂ Rn una carta locale in p. L’Osservazione 2.3.11, l’Esempio 2.2.6 e la Proposizione 2.3.17 ci dicono che dϕp : Tp M = Tp U → Tϕ(p) V = Tϕ(p) Rn `e un isomorfismo, per cui dim Tp M = dim Tϕ(p) Rn = n. Infine, l’ultima affermazione segue subito dall’Osservazione 2.3.16.
Osservazione 2.3.22. La Proposizione 2.3.21.(ii), con la stessa dimostrazione, vale anche per variet` a analitiche reali e per variet` a complesse. Osservazione 2.3.23. L’inverso dell’isomorfismo ι: Rn → Txo Rn definito nella Proposizione 2.3.21.(i) si esprime facilmente: ι−1 (X) = X(x1 ), . . . , X(xn ) per ogni X ∈ Txo Rn . Esempio 2.3.24. Sia V uno spazio vettoriale di dimensione n su R, e vo ∈ V . Allora `e possibile identificare in modo canonico V e Tvo V , generalizzando l’isomorfismo ι: Rn → Txo Rn della Proposizione 2.3.21.(i). Dato v ∈ V , sia σv : R → V la curva σv (t) = vo + tv, e definiamo l’applicazione ιvo : V → Tvo V ponendo ιvo (v) = σv (0). Quest’applicazione `e definita in modo canonico, indipendente da qualsiasi scelta; per dimostrare che `e un isomorfismo di spazi vettoriali possiamo usare una base. Sia B = {v1 , . . . , vn } una base di V ,
2.3 Spazio tangente
87
e ϕB = (x1 , . . . , xn ) la corrispondente carta locale introdotta nell’Esempio 2.1.24. Allora ϕB ◦ σv = ϕB (vo ) + tϕB (v), per cui l’Esempio 2.3.14 ci dice che n ∂ j ιvo (v) = x (v) , ∂xj vo
j=1
e un isomorfismo, come affermato. cio`e ιvo = d(ϕ−1 B )ϕB (vo ) ◦ ι ◦ ϕB , per cui ιvo ` x1 , . . . , x ˜n ) in uno Osservazione 2.3.25. Due carte ϕ = (x1 , . . . , xn ) e ϕ˜ = (˜ stesso punto p di una variet` a M ci forniscono due basi di Tp M , che devono essere legate da una relazione lineare. Per trovarla, prendiamo f ∈ C ∞ (p) e calcoliamo: ∂(f ◦ ϕ−1 ◦ ϕ ◦ ϕ˜−1 ) ∂ ∂(f ◦ ϕ˜−1 ) ϕ(p) ˜ = ϕ(p) ˜ (f ) = h h h ∂x ˜ p ∂x ˜ ∂x ˜ n ∂(xk ◦ ϕ˜−1 ) ∂(f ◦ ϕ−1 ) ϕ(p) ϕ(p) ˜ k h ∂x ∂x ˜ k=1 n ∂xk ∂ = (p) (f ) , h ∂x ˜ ∂xk p
=
k=1
dove abbiamo posto ∂(xk ◦ ϕ˜−1 ) ∂xk ∂ (p) = (xk ) . ϕ(p) ˜ = ∂x ˜h ∂x ˜h ∂x ˜h p Siccome questo vale per ogni germe in p, otteniamo l’importante formula n ∂ ∂ ∂xk = (p) . ∂x ˜h p ∂x ˜h ∂xk p
(2.5)
k=1
In maniera analoga possiamo vedere come cambiano le coordinate di un vettore tangente cambiando base. Infatti se prendiamo X ∈ Tp M e scriviamo X=
n k=1
n ∂ h ∂ ˜ X = , X ∂xk p ∂x ˜h p k
h=1
allora (Esercizio 2.64) Xk =
n ∂xk ˜ h. (p) X ∂x ˜h
(2.6)
h=1
Nota come sia in (2.5) che in (2.6) la somma `e sull’indice ripetuto una volta in basso e una in alto.
88
2 Variet` a
Osservazione 2.3.26. Se f ∈ C ∞ (M ) e p ∈ M , il differenziale di f in p `e un’applicazione lineare da Tp M in Tf (p) R. Quest’ultimo spazio `e isomorfo a R tramite l’isomorfismo canonico X → X(idR ), come mostrato nell’Osservazione 2.3.23. Ma allora se X ∈ Tp M possiamo identificare dfp (X) con dfp (X)(idR ) = X(idR ◦ f ) = X(f ) , e quindi abbiamo ottenuto l’uguaglianza dfp (X) = X(f ) valida per ogni f ∈ C ∞ (p), quale che sia il suo rappresentante (U, f ), e ogni X ∈ Tp M . Un’altra formula a volte utile per il calcolo del differenziale `e contenuta nella proposizione seguente: Proposizione 2.3.27. Siano F : M → N un’applicazione C ∞ fra variet` a, p ∈ M , e σ: (−ε, ε) → M una curva C ∞ con σ(0) = p e σ (0) = v ∈ Tp M . Allora dFp (v) = (F ◦ σ) (0) . ∞ Dimostrazione. Sia g ∈ CN F (p) un germe in F (p). Allora (2.4) ci dice che (F ◦ σ) (0)(g) =
d(g ◦ F ◦ σ) (0) = σ (0)(g ◦ F ) = dFp σ (0) (g) . dt
Osservazione 2.3.28. Vediamo come si esprime il differenziale in coordinate locali. Data un’applicazione differenziabile F : M → N fra variet` a, sia (U, ϕ) ˆ , ϕ) una carta centrata in p ∈ M , e (U ˆ una carta centrata in F (p) ∈ N ; vogliamo la matrice che rappresenta dFp rispetto alle basi {∂/∂xh |p } di Tp M e {∂/∂ x ˆk |F (p) } di TF (p) N , matrice che contiene per colonne le coordinate rispetto alla base in arrivo dei trasformati dei vettori della base di partenza. In altre parole, dobbiamo trovare (akh ) ∈ Mm,n (R) tali che dFp (∂h |p ) =
n
akh ∂ˆk |F (p) ,
k=1
dove ∂h |p = ∂/∂xh |p e ∂ˆk |F (p) = ∂/∂ x ˆk |F (p) . Seguendo le definizioni abbiamo akh =
n
ajh ∂ˆj |F (p) (ˆ xk ) = dFp (∂h |p )(ˆ xk ) = ∂h |p (ˆ xk ◦ F )
j=1
=
∂F k ∂ (F k ) , ϕ(p) = ∂xh ∂xh p
(2.7)
2.3 Spazio tangente
89
dove abbiamo posto ϕˆ ◦ F ◦ ϕ−1 = (F 1 , . . . , F m ). In altre parole, la matrice che rappresenta il differenziale di F rispetto alle basi indotte dalle coordinate locali `e la matrice Jacobiana k ∂F , ∂xh come nel caso classico delle applicazioni differenziabili in Rn . In particolare, il differenziale come da noi definito per applicazioni differenziabili fra aperti di spazi euclidei coincide con la definizione classica di differenziale. Di conseguenza, abbiamo una versione del teorema della funzione inversa per variet` a: Corollario 2.3.29. Sia F : M → N un’applicazione differenziabile fra variet` a. Sia p ∈ M un punto tale che dFp : Tp M → TF (p) N sia un isomorfismo. Allora esistono un intorno U ⊆ M di p e un intorno V ⊆ N di F (p) tali che F |U : U → V sia un diffeomorfismo. Dimostrazione. Sia (U1 , ϕ1 ) una qualsiasi carta in p, e (V1 , ψ1 ) una qualsiasi carta in F (p) con F (U1 ) ⊆ V1 . Allora la tesi segue dal classico Teorema 2.1.37 della funzione inversa applicato a ψ1 ◦ F ◦ ϕ−1
1 . Ricordiamo infine il classico teorema della funzione implicita (vedi [9, pagg. 225 e 230] per una dimostrazione): Teorema 2.3.30 (della funzione implicita). Sia U ⊂ Rn × Rm un aperto, e indichiamo con (x1 , . . . , xn , y 1 , . . . , y m ) le coordinate su U . Sia Φ: U → Rm un’applicazione differenziabile, e supponiamo di avere (x0 , y0 ) ∈ U tale che la matrice i ∂ϕ (x0 , y0 ) ∂y j sia invertibile. Allora esistono un intorno V0 ⊂ Rn di p0 , un intorno W0 ⊂ Rm di y0 e un’applicazione differenziabile F : U0 → V0 tale che, se z0 = Φ(x0 , y0 ), l’insieme Φ−1 (z0 )∩(V0 ×W0 ) coincide con il grafico di F , cio`e (x, y) ∈ V0 ×W0 sono tali che Φ(x, y) = z0 se e solo se y = F (x). La versione per le variet`a `e la seguente: Corollario 2.3.31. Sia Φ: M × N → N un’applicazione differenziabile fra variet` a, e per ogni p ∈ M definiamo Φp : N → N ponendo Φp (q) = Φ(p, q). Supponiamo di avere (p0 , q0 ) ∈ M × N tali che d(Φp0 )q0 : Tq0 N → Tr0 N sia invertibile, dove r0 = Φ(p0 , q0 ). Allora esistono un intorno V0 ⊂ M di p0 , un intorno W0 ⊂ N di q0 e un’applicazione differenziabile F : U0 → V0 tale che l’insieme Φ−1 (r0 )∩(V0 ×W0 ) coincide con il grafico di F , cio`e (p, q) ∈ V0 ×W0 sono tali che Φ(p, q) = r0 se e solo se q = F (p). Dimostrazione. Sia (U1 , ϕ1 ) una qualsiasi carta in p0 , (V1 , ψ1 ) una qualsiasi carta in q0 , e (W1 , χ1 ) una qualsiasi carta in r0 . Allora la tesi segue dal Teorema 2.3.30 applicato a χ1 ◦ Φ ◦ (ϕ1 × ψ1 )−1 .
90
2 Variet` a
2.4 Sottovariet` a In questa sezione studieremo quando dei sottoinsiemi di una variet` a possono essere considerati variet` a a loro volta. Iniziamo introducendo alcune definizioni. Definizione 2.4.1. Sia F : M → N un’applicazione differenziabile fra variet` a. Il rango di F in p ∈ M `e il rango del differenziale dFp : Tp M → TF (p) N . Osservazione 2.4.2. Chiaramente, se (U, ϕ) `e una carta in p e (V, ψ) `e una carta in F (p), allora il rango di F in p `e uguale al rango di ψ ◦ F ◦ ϕ−1 in ϕ(p). Definizione 2.4.3. Un’applicazione differenziabile F : M → N fra due variet` a `e un’immersione se il differenziale dFp : Tp M → TF (p) N `e iniettivo per ogni p ∈ M . Se inoltre F `e un omeomorfismo con l’immagine (e quindi `e in particolare globalmente iniettiva) diremo che `e un embedding. Infine, diremo che `e una sommersione (submersion in inglese) se il differenziale `e surgettivo in ogni punto. Esempio 2.4.4. I diffeomorfismi locali sono banalmente delle sommersioni e delle immersioni. Esempio 2.4.5. Prendiamo k variet` a M1 , . . . , Mk . Per j = 1, . . . , k la proiezione πj : M1 × · · · × Mk → Mj sulla j-esima coordinata `e una sommersione. Fissato pj ∈ Mj per j = 1, . . . , k, le applicazioni ψj : Mj → M1 × · · · × Mk date da ψj (x) = (p1 , . . . , pj−1 , x, pj+1 , . . . , pk ) sono degli embedding. Esempio 2.4.6. Una curva differenziabile σ: I → M , dove I ⊆ R `e un intervallo, `e un’immersione se e solo se σ non si annulla mai (perch´e?). Esempio 2.4.7. La curva α: R → R2 data da α(t) = (t2 , t3 ), pur essendo un omeomorfismo con l’immagine, non `e un’immersione, in quanto α (0) = O. La curva β: R → R2 data da β(t) = (t3 − 4t, t2 − 4) `e un’immersione ma non un embedding, perch´e β(2) = β(−2). La curva γ: (−π/2, 3π/2) → R2 data da γ(t) = (sin 2t, cos t) `e un’immersione globalmente iniettiva (verificare, prego) ma non un embedding. Infatti, l’immagine, con la topologia indotta, `e compatta, mentre il dominio non lo `e. Gli esempi precedenti mostrano che non ogni immersione `e un embedding, neppure se globalmente iniettiva. Si tratta di un problema di tipo globale, in quanto ogni immersione `e localmente un embedding (confronta anche con l’Esercizio 2.77): Proposizione 2.4.8. Sia F : M1 → M2 un’immersione. Allora ogni p ∈ M1 ha un intorno U ⊆ M1 tale che F |U : U → M2 sia un embedding.
2.4 Sottovariet` a
91
Dimostrazione. Siano ϕ1 : U1 → V1 ⊆ Rn e ϕ2 : U2 → V2 ⊆ Rm carte in p e F (p) rispettivamente, e scriviamo F˜ = ϕ2 ◦ F ◦ ϕ−1 (x1 , . . . , xn ) = F˜ 1 (x1 , . . . , xn ), . . . , F˜ m (x1 , . . . , xn ) . 1
Siccome F `e un’immersione, il differenziale di F˜ in x0 = ϕ1 (p) `e iniettivo; quindi a meno di riordinare le coordinate possiamo supporre che ∂ F˜ h (x0 ) = 0 . det ∂xk h,k=1,...,n
Sia G: V1 × Rm−n → Rm data da G(x1 , . . . , xn , tn+1 , . . . , tm ) = F˜ (x1 , . . . , xn ) + (0, . . . , 0, tn+1 , . . . , tm ) . Chiaramente, G(x, O) = F˜ (x) per ogni x ∈ V1 , e ∂ F˜ h det(dG(x0 ,O) ) = det (x0 ) ∂xk
= 0 ;
h,k=1,...,n
il Teorema 2.1.37 della funzione inversa ci fornisce un intorno W1 ⊂ V1 ×Rm−n di (x0 , O) e un intorno W2 ⊂ Rm di F˜ (x0 ) tali che G|W1 sia un diffeomorfismo fra W1 e W2 . Poniamo V = W1 ∩ (V1 × {O}) e U = ϕ−1 1 (V ). Allora F |U = ϕ−1 ◦ G ◦ (ϕ | , O) ` e un omeomomorfismo con l’immagine, come ri1 U 2 chiesto.
Osservazione 2.4.9. Se F : S → M `e un’immersione iniettiva allora F (S) ⊆ M ha una naturale struttura di variet` a indotta da quella di S. Infatti, sia A = {(Uα , ϕα )} un atlante di S tale che F |Uα sia un omeomorfismo con l’immagine per ogni α (un tale atlante esiste grazie alla proposizione precedente). e un Allora `e facile verificare (vedi l’Esercizio 2.76) che { F (Uα ), ϕα ◦ F |−1 Uα } ` atlante per F (S). Non `e detto per` o che questa struttura di variet` a sia compatibile con quella dell’ambiente M ; per esempio, la topologia indotta dalla struttura di variet` a potrebbe non coincidere con la topologia indotta dalla topologia di M (vedi l’Esempio 2.4.7). Questo ci porta alla seguente: Definizione 2.4.10. Una sottovariet` a di una variet` a M `e un sottoinsieme S ⊂ M provvisto di una struttura di variet` a differenziabile tale che l’inclusione ι: S → M risulti un embedding. Una sottovariet` a immersa, invece, `e l’immagine di un’immersione iniettiva F : S → M considerata con la struttura di variet` a (e relativa topologia) introdotta nell’Osservazione 2.4.9. In entrambi i casi, la differenza dim M − dim S `e detta codimensione di S in M . Una sottovariet` a di codimensione 1 `e detta ipersuperficie.
92
2 Variet` a
Esempio 2.4.11. Sia U ⊂ Rn aperto, e F : U → Rm un’applicazione qualsiasi. Allora il grafico ΓF di F , con la struttura di variet` a differenziabile descritta nell’Esempio 2.1.19, `e una sottovariet` a di Rm+n se e solo se F `e di classe C ∞ . Infatti, sia ψ: U → ΓF l’applicazione differenziabile (rispetto alla struttura dell’Esempio 2.1.19) data da ψ(x) = x, F (x) , e indichiamo con ι: ΓF → Rn+m l’inclusione, e con π: Rm+n → Rm la proiezione sulle ultia, allora F = π ◦ ι ◦ ψ `e chiaramente me m coordinate. Se ΓF `e una sottovariet` di classe C ∞ , in quanto composizione di applicazioni differenziabili. Viceversa, supponiamo che F sia di classe C ∞ ; allora ι ◦ ψ `e di classe C ∞ , che vuol dire esattamente che ι `e differenziabile rispetto alla struttura di variet` a dell’Esempio 2.1.19. Inoltre, essendo F continua, ι `e un omeomorfismo con l’immagine; rimane solo da verificare che ι abbia differenziale iniettivo in ogni punto. Prendiamo p0 = ψ(x0 ) ∈ ΓF ; siccome dψx0 : Tx0 U → Tp0 ΓF `e un isomorfismo, `e sufficiente dimostrare che d(ι ◦ ψ)x0 : Tx0 U → T(x0 ,F (x0 )) Rn+m `e iniettivo, che `e ovvio (perch´e?). Esempio 2.4.12. La sfera S n , con l’usuale struttura differenziabile, `e una sottovariet` a di Rn+1 . Consideriamo, come nell’Esempio 2.1.27, le carte (Uj± , ϕ± j ) 1 j−1 j+1 n+1 (x) = (x , . . . , x , x , . . . , x ) date da Uj± = {x ∈ S n | ±xj > 0} e ϕ± j n+1 n l’inclusione. Dal fatto che ciascuna per j = 1, . . . , n + 1, e sia ι: S → R −1 ι ◦ (ϕ± : B n → Rn+1 `e un’immersione (verifica) segue subito che ι `e un’imj ) mersione (ovviamente iniettiva). Inoltre la topologia di variet` a di S n coincide n+1 con la topologia di sottospazio di R ; quindi ι `e un embedding e S n `e una sottovariet`a. Pi` u in generale, lo stesso ragionamento mostra che ogni variet` a M ⊆ Rn , dotata di un atlante {(Uα , ϕα )} che induca su M la topologia di sottospazio di Rn e tale che ogni ϕ−1 e automaticamente una α sia un’immersione, ` sottovariet`a di Rn . Osservazione 2.4.13. Se F : S → M `e un embedding di S in M , allora si vede facilmente (vedi l’Esercizio 2.88) che F (S), considerata con la struttura di variet` a indotta da S introdotta nell’Osservazione 2.4.9, `e una sottovariet`a di M . Osservazione 2.4.14. La definizione di sottovariet` a contiene tre richieste distinte. La prima `e che l’inclusione sia un omeomorfismo con l’immagine: questo equivale a dire che la topologia indotta dalla struttura di variet` a differenziabile coincide con la topologia indotta dalla variet` a ambiente, per cui la sottovariet` a risulta essere un sottospazio topologico dell’ambiente. La seconda richiesta `e che l’inclusione sia di classe C ∞ : questo equivale a dire che per ogni carta (U, ϕ) dell’ambiente con U ∩ S = ∅ la restrizione a di S. ϕ|S = ϕ ◦ ι sia di classe C ∞ anche rispetto alla struttura di variet` Come discuteremo meglio pi` u avanti (Corollario 2.4.19) questo implicher` a che potremo trovare un atlante di S costituito da restrizioni a S di opportune carte dell’ambiente M . Inoltre, questa seconda richiesta implica anche che la
2.4 Sottovariet` a
93
restrizione a S di qualsiasi (germe di) funzione C ∞ di M `e di classe C ∞ anche rispetto alla struttura differenziabile di S. Infine, la terza richiesta `e che il differenziale dιp : Tp S → Tp M sia iniettivo per ogni p ∈ S. L’Esercizio 2.79 mostra che questo `e equivalente a richiedere che ogni (germe di) funzione C ∞ in S si ottiene come restrizione di una funzione C ∞ definita in un opportuno aperto di M . Quindi questa definizione cattura bene l’idea che la struttura differenziabile di una sottovariet` a debba essere indotta da quella della variet`a ambiente. Osservazione 2.4.15. Con questa terminologia, la Proposizione 2.4.8 dice che se F : S → M `e un’immersione allora per ogni p ∈ S `e possibile trovare un intorno U di p in S tale che F (U ) sia una sottovariet` a di M ; ma questo non vuol dire che per ogni F (p) ∈ F (S) sia possibile trovare un intorno V di F (p) in M tale che V ∩ F (S) sia una sottovariet` a (anche perch´e un tale intorno potrebbe non esistere; vedi l’Esempio 2.4.7). Se S `e una sottovariet` a di una variet` a M , `e naturale chiedersi se `e possibile trovare un atlante di S che sia in qualche modo indotto da (o che si estenda a) un atlante di M . Un primo risultato positivo in questo senso `e contenuto nell’osservazione seguente. Osservazione 2.4.16. Se S `e una sottovariet` a di una variet` a n-dimensionale M , e (U, ϕ) `e una carta di M con U ∩ S = ∅, allora ϕ(U ∩ S) `e (perch´e?) una sottovariet`a di ϕ(U ) ⊂ Rn , e ϕ|U ∩S `e un diffeomorfismo con l’immagine, in quanto ϕ|U ∩S = ϕ ◦ ι|U ∩S . D’altra parte, se S `e una sottovariet` a k-dimensionale di M , e (U, ϕ) `e una carta di M con U ∩ S = ∅, di primo acchito non `e affatto detto che (U ∩ S, ϕ|U ∩S ) sia una carta di S, per il semplice motivo che ϕ|U ∩S non `e in generale un aperto di Rk . Quello che per` o `e vero `e che per ogni p ∈ S possiamo trovare una carta (U, ϕ) di M in p tale che ϕ|U ∩S sia un aperto di Rk × {O}, per cui (U ∩ S, ϕU ∩S ) pu` o essere considerata in modo naturale come una carta di S in p. Per dimostrarlo ricordiamo il classico Teorema del rango (vedi [24, Theorem 7.8] per una dimostrazione): Teorema 2.4.17 (del rango). Siano U ⊆ Rm e V ⊆ Rn aperti, e F : U → V un’applicazione differenziabile di rango costante k ≥ 0. Allora per ogni p ∈ U esistono una carta (U0 , ϕ) per Rm centrata in p e una carta (V0 , ψ) per Rn centrata in F (p), con U0 ⊆ U e F (U0 ) ⊆ V0 ⊆ V , tali che ψ ◦ F ◦ ϕ−1 (x1 , . . . , xk , xk+1 , . . . , xm ) = (x1 , . . . , xk , 0, . . . , 0) e ψ F (U0 ) = ψ(V0 ) ∩ (Rk × {O}). Come gi`a fatto per i teoremi della funzione inversa e della funzione implicita, otteniamo subito una versione del teorema del rango valida per variet` a qualsiasi.
94
2 Variet` a
Corollario 2.4.18. Sia M una variet` a m-dimensionale, N una variet` a ndimensionale, e F : M → N un’applicazione differenziabile di rango costante k ≥ 0. Allora per ogni p ∈ M esistono una carta (U, ϕ) centrata in p e una carta (V, ψ) centrata in F (p), con F (U ) ⊆ V , tali che ψ ◦ F ◦ ϕ−1 (x1 , . . . , xk , xk+1 , . . . , xm ) = (x1 , . . . , xk , 0, . . . , 0) e ψ F (U ) = ψ(V ) ∩ (Rk × {O}). In particolare: (i) se F : M → N `e un’immersione (rango costante k = m ≤ n) per ogni p ∈ M possiamo trovare una carta (U, ϕ) centrata in p e una carta (V, ψ) centrata in F (p), con F (U ) ⊆ V , tali che ψ ◦ F ◦ ϕ−1 (x1 , . . . , xm ) = (x1 , . . . , xm , 0, . . . , 0) e ψ F (U ) = ψ(V ) ∩ (Rm × {O}); (ii) se F : M → N `e una sommersione (rango costante k = n ≤ m) per ogni p ∈ M possiamo trovare una carta (U, ϕ) centrata in p e una carta (V, ψ) centrata in F (p), con F (U ) = V , tali che ψ ◦ F ◦ ϕ−1 (x1 , . . . , xn , xn+1 , . . . , xm ) = (x1 , . . . , xn ) . Dimostrazione. Sia (U1 , ϕ1 ) una qualsiasi carta centrata in p, e (V1 , ψ1 ) una qualsiasi carta centrata in F (p) con F (U1 ) ⊆ V1 . Allora basta applicare il
Teorema 2.4.17 del rango a ψ1 ◦ F ◦ ϕ−1 1 . ` ora facile costruire carte di sottovariet` E a che provengono da (opportune) carte della variet`a ambiente: Corollario 2.4.19. Sia S ⊆ M un sottoinsieme di una variet` a n-dimensionale M . Allora S pu` o essere dotato di una struttura di variet` a k-dimensionale che lo renda una sottovariet` a di M se e solo se per ogni p ∈ S esiste una carta (V, ψ) di M centrata in p tale che ψ(V ∩ S) = ψ(V ) ∩ (Rk × {O}). Dimostrazione. Supponiamo che S sia una sottovariet` a di M . Per definizione, l’inclusione ι: S → M `e di rango costante k. La tesi segue allora dal corollario precedente. Viceversa, supponiamo di avere per ogni p ∈ S una carta (Vp , ψp ) di M centrata in p tale che ψp (Vp ∩ S) = ψp (Vp ) ∩ (Rk × {O}). Indichiamo con πk : Rn → Rk la proiezione sulle prime k coordinate, e poniamo Up = πk ψp (Vp ∩ S) . Allora Up `e un aperto di Rk , ed `e facile verificare (controlla) che {(Vp ∩ S, πk ◦ ψp |Vp ∩S )} `e un k-atlante su S rispetto a cui S risulta essere una sottovariet`a di M .
Definizione 2.4.20. Sia S ⊆ N una sottovariet` a k-dimensionale di una variet` a M . Una carta (U, ϕ) di M `e detta adattata a S se U ∩ S = ∅ oppure ϕ(U ∩ S) = ϕ(U ) ∩ (Rk × {O}). Un atlante A di M `e detto adattato a S se ogni sua carta lo `e.
2.4 Sottovariet` a
95
Osservazione 2.4.21. Se ι: S → M `e una sottovariet` a di una variet` a M, e p ∈ S, il differenziale dιp : Tp S → Tp M realizza Tp S come sottospazio di Tp M . ∞ (p) `e il seguente: Il modo in cui un v ∈ Tp S agisce su un germe f ∈ CM dιp (v)(f ) = v(f |S ) .
(2.8)
D’ora in poi, a meno di avviso contrario, se S `e una sottovariet`a di M e p ∈ S, identificheremo sempre Tp S con il sottospazio dιp (Tp S) di Tp M , fa∞ cendo agire gli elementi di Tp S sui germi in CM (p) come in (2.8); vedi anche l’Esercizio 2.92. Un discorso analogo si applica alle sottovariet` a immerse: se F : S → M `e un’immersione e p ∈ S, il differenziale dFp : Tp S → TF (p) M identifica Tp S con ∞ un sottospazio di TF (p) M , e l’azione di v ∈ Tp S su un germe f ∈ CM F (p) `e data da dFp (v)(f) = v(f ◦ F ). Un modo molto comune per costruire sottovariet`a `e come immagine inversa di un valore regolare, generalizzando la Proposizione 2.1.38. Definizione 2.4.22. Sia F : M → N un’applicazione differenziabile fra variet` a. Un punto p ∈ M `e detto punto critico di F se dFp : Tp M → TF (p) N non `e surgettivo. Un valore critico `e l’immagine di un punto critico. Un valore regolare `e un punto di F (M ) che non `e un valore critico. Indicheremo con Crit(F ) ⊆ M l’insieme dei punti critici di F . Infine, un insieme di livello di F `e un sottoinsieme di M della forma F −1 (q) con q ∈ F (M ) ⊆ N . Proposizione 2.4.23. Sia F : M → N un’applicazione differenziabile fra variet` a, con dim M = n + k ≥ n = dim N . Allora: a (i) per ogni a ∈ F (M ) l’insieme Ma = F −1 (a) \ Crit(F ) `e una sottovariet` k-dimensionale di M . In particolare, se a ∈ N `e un valore regolare allora a k-dimensionale di M ; F −1 (a) `e una sottovariet` (ii) se p ∈ Ma lo spazio tangente di Ma in p coincide con il nucleo di dFp . In particolare, se N = R e F = f ∈ C ∞ (M ), allora lo spazio tangente di Ma in p `e dato dai vettori v ∈ Tp M tali che v(f ) = 0. Dimostrazione. La prima parte si dimostra esattamente come nella Proposizione 2.1.38, usando carte locali (Esercizio 2.93). Per la seconda parte, indichiamo con ι: Ma → M l’inclusione. Allora per ogni p ∈ Ma possiamo identificare Tp Ma con la sua immagine tramite dιp in Tp M , e quindi dobbiamo dimostrare che dιp (Tp Na ) = Ker dFp . Siccome p non `e un punto critico, entrambi questi spazi hanno dimensione k; quindi ci bastadimostrare che sono uno contenuto nell’altro. Prendiamo v ∈ Tp Na e f ∈ C ∞ F (p) . Allora dFp dιp (v) (f ) = d(F ◦ ι)p (v)(f ) = v(f ◦ F ◦ ι) = v(f ◦ F |Ma ) = 0 , in quanto F |Ma `e costante. Quindi dFp dιp (v) = O, e dιp (v) ∈ Ker dFp , come voluto.
96
2 Variet` a
Esempio 2.4.24. Sia f : M → R di classe C ∞ . Chiaramente (perch´e?), i punti critici di M sono esattamente quelli in cui il differenziale di f si annulla. In particolare (assumendo M connessa), se f non `e costante non tutti i punti di M sono critici (Esercizio 2.70), e quindi abbiamo delle sottovariet` a di M della forma f −1 (a) \ Crit(f ). Per esempio, sia f : Rn+1 → R data da f (x) = (x1 )2 + · · · + (xn+1 )2 . Allora n Crit(f ) = {O}, e otteniamo che per ogni R > 0 la sfera SR = f −1 (R2 ) `e una n+1 . sottovariet`a di R Vedi l’Esercizio 2.94 per una generalizzazione della Proposizione 2.4.23.
2.5 Gruppi di Lie In questa sezione introduciamo una classe particolarmente importante di variet` a. Definizione 2.5.1. Un gruppo di Lie `e un gruppo G fornito anche di una struttura di variet` a differenziabile tale che il prodotto G × G → G e l’inverso G → G siano applicazioni di classe C ∞ . Osservazione 2.5.2. Un risultato profondo di Gleason, Montgomery e Zippin (vedi [29, Capitoli 3 e 4]) dice che ogni gruppo connesso fornito di una struttura di variet` a topologica per cui il prodotto e l’inverso siano applicazioni continue ammette un’unica struttura di gruppo di Lie compatibile con la topologia data. Esempio 2.5.3. Lo spazio euclideo Rn con la somma usuale `e un gruppo di Lie. Pi` u in generale, un qualsiasi spazio vettoriale di dimensione finita considerato con la struttura di variet` a introdotta nell’Esempio 2.1.24 `e un gruppo di Lie rispetto alla somma. Esempio 2.5.4. I gruppi R∗ e C∗ ⊂ R2 col prodotto sono gruppi di Lie. Anche S 1 , inteso come l’insieme dei numeri complessi di modulo unitario, e considerato col prodotto di numeri complessi, `e un gruppo di Lie (Esercizio 2.111). Analogamente, Tr col prodotto componente per componente `e un gruppo di Lie (vedi l’Esercizio 2.112). Esempio 2.5.5. Il gruppo generale lineare GL(n, R) con il prodotto usuale `e un gruppo di Lie. Pi` u in generale, il gruppo GL(V ) degli automorfismi di uno spazio vettoriale con la struttura di variet` a introdotta nell’Esempio 2.1.25 `e un gruppo di Lie. Esempio 2.5.6. Un gruppo discreto `e un gruppo finito o numerabile considerato con la topologia discreta, e pu` o essere considerato come un gruppo di Lie di dimensione 0.
2.5 Gruppi di Lie
97
Le applicazioni naturali da considerare fra gruppi di Lie sono gli omomorfismi differenziabili. Definizione 2.5.7. Un omomorfismo di gruppi di Lie `e un’applicazione differenziabile F : G → H fra gruppi di Lie che sia un omomorfismo di gruppi. Un isomorfismo di gruppi di Lie `e un diffeomorfismo che `e anche un isomorfismo di gruppi. Un isomorfismo di un gruppo di Lie con se stesso `e detto automorfismo. Esempio 2.5.8. L’esponenziale exp: R → R∗ `e un omomorfismo di gruppi di Lie, in quanto `e differenziabile e si ha et+s = et · es (dove stiamo considerando R con la somma ed R∗ col prodotto). Inoltre, se indichiamo con R+ ∗ = exp(R) l’insieme dei numeri reali strettamente positivi, allora exp `e un isomorfismo + ∗ e fra R ed R+ ∗ , con inversa log: R∗ → R. Anche l’esponenziale exp: C → C ` un omomorfismo di gruppi di Lie, ma non `e iniettivo. Esempio 2.5.9. L’inclusione naturale S 1 → C∗ `e un omomorfismo di gruppi di Lie. Esempio 2.5.10. Il rivestimento universale p: R → S 1 dato da p(t) = e2πit `e un omomorfismo di gruppi di Lie. Pi` u in generale, l’applicazione p: Rn → Tn 1 n 2πit1 2πitn data da p(t , . . . , t ) = (e ,...,e ) `e un omomorfismo di gruppi di Lie. Esempio 2.5.11. Il determinante det: GL(n, R) → R∗ `e un omomorfismo di gruppi di Lie. Definizione 2.5.12. Se G `e un gruppo di Lie e h ∈ G, la traslazione sinistra Lh : G → G e la traslazione destra Rh : G → G sono rispettivamente definite da Lh (x) = hx e Rh (x) = xh. Sono chiaramente diffeomorfismi di G con se stesso, ma non degli isomorfismi di gruppo di Lie. Invece, il coniugio Ch : G → G definito da Ch (x) = hxh−1 `e un automorfismo di G. Il rivestimento universale di un gruppo di Lie `e ancora un gruppo di Lie: Proposizione 2.5.13. Sia G un gruppo di Lie connesso. Allora esistono un ˜ e un rivestimento liscio π: G ˜ →G gruppo di Lie semplicemente connesso G che `e anche un omomorfismo di gruppi di Lie. ˜ → G il rivestimento universale di G come spazio Dimostrazione. Sia π: G topologico; la Proposizione 2.2.19 ci dice allora che esiste un’unica struttura ˜ che renda π un rivestimento liscio. Dobbiamo di variet` a differenziabile su G ˜ ammette una struttura di gruppo rispetto a cui G ˜ `e un dimostrare che G gruppo di Lie e π un omomorfismo. Indichiamo ora con m: G × G → G la moltiplicazione e con i: G → G l’inverso. Se e ∈ G `e l’elemento neutro, scegliamo ˜ Siccome G ˜×G ˜ `e semplicemente connesso, arbitrariamente e˜ ∈ π −1 (e) ⊂ G. ˜ ×G ˜→G ˜ tale che possiamo sollevare m ◦ (π × π) a un’unica applicazione m: ˜ G m(˜ ˜ e, e˜) = e˜
e
π◦m ˜ = m ◦ (π × π) ;
inoltre, m ˜ `e automaticamente differenziabile, grazie all’Esercizio 2.50.
(2.9)
98
2 Variet` a
˜ → G ˜ tale Analogamente esiste un’unica applicazione differenziabile ˜ı: G che ˜ı(˜ e) = e˜ e π ◦ ˜ı = i ◦ π . (2.10) ˜ ponendo x Introduciamo un prodotto e un inverso su G ˜y˜ = m(˜ ˜ x, y˜) e −1 x ˜ = ˜ı(˜ x); allora (2.9) e (2.10) diventano π(˜ xy˜) = π(˜ x)π(˜ y)
e
x)−1 ; π(˜ x−1 ) = π(˜
˜ quindi per concludere la dimostrazione basta far vedere che le operazioni su G soddisfano gli assiomi di gruppo. ˜→G ˜ data da f (˜ Sia f : G x) = e˜ x ˜. Allora (2.9) implica π ◦ f (˜ x) = π(˜ ex ˜) = π(˜ e)π(˜ x) = e π(˜ x) = π(˜ x) . e) = e˜, l’unicit` a del In altre parole, π ◦ f = idG ◦π = π ◦ idG˜ ; siccome f (˜ sollevamento implica f ≡ idG˜ . In maniera analoga si dimostra che x ˜e˜ = x ˜ per ˜ per cui e˜ `e l’elemento neutro. ogni x ˜ ∈ G, Per dimostrare che il prodotto `e associativo, procediamo in modo simile. ˜×G ˜×G ˜→G ˜ e μd : G ˜×G ˜×G ˜→G ˜ definite da Siano μs : G x, y˜, z˜) = (˜ xy˜)˜ z e μd (˜ x, y˜, z˜) = x ˜(˜ y z˜) . μs (˜ Allora usando (2.9) si vede che μs e μd sono entrambe sollevamenti dell’applicazione μ(˜ x, y˜, z˜) = π(˜ x)π(˜ y )π(˜ z ) che coincidono nel punto (˜ e, e˜, e˜), e quindi coincidono identicamente. Infine, con un argomento del tutto analogo (controlla) si dimostra che ˜ `e un gruppo di Lie. ˜=x ˜x ˜−1 = e˜, per cui G
x ˜−1 x Concludiamo questa sezione introducendo il concetto di sottogruppo di un gruppo di Lie. Definizione 2.5.14. Sia G un gruppo di Lie, e H ⊂ G un suo sottogruppo algebrico. Se H `e una sottovariet` a di G, diremo che H `e un sottogruppo di Lie regolare di G. Se invece H ammette una struttura di sottovariet` a immersa rispetto a cui `e un gruppo di Lie, allora diremo che H `e un sottogruppo di Lie di G. Osservazione 2.5.15. Se H `e un sottogruppo di Lie regolare di G, allora la moltiplicazione e l’inverso sono automaticamente di classe C ∞ anche su H (vedi l’Esercizio 2.116), per cui H con la struttura di sottovariet` a `e a sua volta un gruppo di Lie. Inoltre, vedremo nel Teorema 3.6.8 che i sottogruppi di Lie regolari sono tutti e soli i sottogruppi algebrici chiusi.
2.6 Azioni di gruppi di Lie su variet` a
99
Esempio 2.5.16. L’applicazione det: GL(n, R) → R non ha punti critici (vedi l’Esempio 2.1.40); quindi SL(n, R) `e una sottovariet`a e dunque un sottogruppo di Lie regolare di GL(n, R). Anche l’applicazione F : GL(n, R) → S(n, R), dove S(n, R) ⊂ Mn,n (R) `e lo spazio delle matrici simmetriche, data da F (X) = X T X non ha punti critici (vedi l’Esercizio 2.25); quindi anche O(n) `e un sottogruppo di Lie regolare di GL(n, R) In maniera analoga (vedi gli Esercizi 2.117 e 2.118) si dimostra che SO(n) `e un sottogruppo di Lie regolare di O(n) e di GL(n, R), e che SL(n, C), U (n) e SU (n) sono sottogruppi di Lie regolari di GL(n, C). Esempio 2.5.17. Dato α ∈ R \ Q, sia Fα : R → T2 l’immersione data da Fα (t) = (e2πit , e2πiαt ). Allora si verifica subito (controlla) che H = Fα (R) `e un sottogruppo di Lie di T2 ; nell’Esempio 3.6.9 vedremo che non `e un sottogruppo di Lie regolare (perch´e `e denso in T2 ).
2.6 Azioni di gruppi di Lie su variet` a I gruppi di Lie appaiono spesso come gruppi di simmetria di una variet` a, e possono essere usati per costruire nuove variet`a. Definizione 2.6.1. Sia G un gruppo di Lie, e M una variet` a. Un’azione (differenziabile) sinistra di G su M `e un’applicazione θ: G×M → M di classe C ∞ tale che θ g1 , θ(g2 , p) = θ(g1 g2 , p) e θ(e, p) = p (2.11) per tutti i g1 , g2 ∈ G e p ∈ M , dove e ∈ G `e l’elemento neutro di G. Un’azione destra invece `e un’applicazione ρ: M × G → M di classe C ∞ tale che e ρ(p, e) = p (2.12) ρ ρ(p, g1 ), g2 = ρ(p, g1 g2 ) per tutti i g1 , g2 ∈ G e p ∈ M . Per ogni g ∈ G sia θg : M → M data da θg (p) = θ(g, p). Diremo che l’azione `e fedele se θg1 ≡ θg2 implica g1 = g2 ; una definizione analoga si applica alle azioni destre. Ove l’azione sia chiara dal contesto, scriveremo g · p invece di θ(g, p), e p · g invece di ρ(p, g). Per esempio, la (2.11) diventa g1 · (g2 · p) = (g1 g2 ) · p
e e·p=p,
mentre la (2.12) diventa (p · g1 ) · g2 = p · (g1 g2 ) e p · e = p . Infine, un G-spazio `e una variet` a su cui agisce (da sinistra o da destra) il gruppo di Lie G.
100
2 Variet` a
Osservazione 2.6.2. Se ρ: M ×G → M `e un’azione destra, allora θ: G×M → M data da θ(g, p) = ρ(p, g−1 ) `e un’azione sinistra; quindi ogni risultato per le azioni sinistre vale anche per le azioni destre, e nel seguito di questa sezione ci limiteremo a trattare le azioni sinistre. Osservazione 2.6.3. Sia θ: G × M → M un’azione di un gruppo di Lie su una variet` a M . La (2.11) si pu` o scrivere come θg1 ◦ θg2 = θg1 g2
e
θe = idM .
In particolare, ciascun θg `e un diffeomorfismo con inversa θg−1 , e g → θg `e un omomorfismo da G nel gruppo dei diffeomorfismi di M con se stessa. Esempio 2.6.4. Il gruppo GL(n, R) agisce fedelmente su Rn per moltiplicazione: θ(A, v) = Av per ogni A ∈ GL(n, R) e v ∈ Rn . Analogamente, il gruppo ortogonale O(n) agisce fedelmente su S n per moltiplicazione. Esempio 2.6.5. Un gruppo di Lie G agisce su se stesso in (almeno) due modi: per traslazione sinistra, e per coniugio. L’azione per traslazione sinistra `e data da L(g, h) = Lg (h) = gh; l’azione per coniugio `e data da C(g, h) = Cg (h) = ghg −1 . Osservazione 2.6.6. Un tipo di azione particolarmente importante `e dato dalle azioni lineari su uno spazio vettoriale, cio`e da omomorfismi ρ: G → GL(V ), dove G `e un gruppo di Lie e V `e uno spazio vettoriale. Queste azioni (dette rappresentazioni ) sono molto importanti per lo studio della struttura dei gruppi di Lie; vedi, per esempio, [16]. Definizione 2.6.7. Sia θ: G × M → M un’azione di un gruppo di Lie G su una variet` a M . Il gruppo di isotropia Gp di un punto p ∈ M `e il sottogruppo di G costituito dagli elementi di G che fissano p, cio`e Gp = {g ∈ G | θg (p) = p} . Diremo che G agisce liberamente su M (e diremo che l’azione `e libera) se il gruppo d’isotropia di ogni punto si riduce al solo elemento identico, cio`e se θg (p) = p per ogni p ∈ M e g ∈ G \ {e}. Esempio 2.6.8. L’azione traslazione sinistra di un gruppo di Lie G su se stesso `e libera. Il gruppo d’isotropia di un elemento h ∈ G rispetto all’azione di coniugio consiste nel sottogruppo degli elementi di G che commutano con h. Definizione 2.6.9. Sia θ: G × M → M un’azione di un gruppo di Lie G su una variet` a M . L’orbita di un punto p ∈ M `e l’insieme G(p) = {θg (p) | g ∈ G}. Si vede facilmente (controlla) che le orbite costituiscono una partizione di M , cio`e che “essere in una stessa orbita `e una relazione d’equivalenza. Indicheremo con M/G lo spazio quoziente delle orbite, e diremo che l’azione `e transitiva se esiste un’unica orbita, cio`e se per ogni p, q ∈ M esiste g ∈ G tale che θg (p) = q. In tal caso diremo che M `e uno spazio omogeneo (o G-omogeneo).
2.6 Azioni di gruppi di Lie su variet` a
101
Esempio 2.6.10. L’azione di O(n) su S n `e transitiva. L’azione di GL(n, R) su Rn ha esattamente due orbite: {O} e Rn \ {O}. Lo spazio delle orbite M/G, in quanto quoziente di uno spazio topologico, ha una struttura naturale di spazio topologico. Una domanda naturale `e se ha una struttura di variet` a differenziabile. La risposta in generale `e no: M/G potrebbe non essere neppure una variet` a topologica. Esempio 2.6.11. Il gruppo ortogonale O(n) agisce per moltiplicazione su Rn , e si vede facilmente (controlla) che Rn /O(n) `e omeomorfo alla semiretta [0, +∞). Ci sono per` o delle condizioni che assicurano che lo spazio delle orbite sia ancora una variet` a. Definizione 2.6.12. Un’applicazione continua f : X → Y fra spazi topologici `e propria se l’immagine inversa di ogni compatto in Y `e compatta in X, cio`e se f −1 (K) `e compatto in X per ogni compatto K ⊆ Y . Definizione 2.6.13. Diremo che un’azione θ: G × M → M di un gruppo di Lie G su una variet` aM `e propria se l’applicazione Θ: G × M → M × M data da Θ(g, p) = θg (p), p `e propria (che `e una cosa diversa dal richiedere che θ sia propria). Vogliamo dimostrare che il quoziente di una variet` a sotto un’azione libera e propria `e ancora una variet`a. Per farlo ci serve un lemma preliminare: Lemma 2.6.14. Sia θ: G × M → M un’azione di un gruppo di Lie G su una variet` a M . Allora la proiezione naturale π: M → M/G `e un’applicazione aperta. Dimostrazione. Sia U ⊆ M aperto. Per costruzione, ( θg (U ) . π−1 π(U ) = g∈G
Essendo ogni θg un omeomorfismo, ciascun θg (U ) `e aperto, e anche π −1 π(U ) `e aperto. Per definizione di topologia quoziente questo implica che π(U ) `e aperto in M/G, per cui π `e un’applicazione aperta.
Teorema 2.6.15. Sia θ: G × M → M un’azione di un gruppo di Lie G su una variet` a M , e indichiamo con π: M → M/G la proiezione naturale sullo spazio delle orbite. Supponiamo che l’azione sia libera e propria. Allora esiste un’unica struttura di variet` a differenziabile su M/G, compatibile con la topologia quoziente, tale che π sia una sommersione. Rispetto a questa struttura, M/G ha dimensione dim M − dim G.
102
2 Variet` a
Dimostrazione. Cominciamo dimostrando l’unicit` a della struttura. Supponiamo di avere due atlanti A1 e A2 su M/G compatibili con la topologia quoziente e rispetto a cui π `e una sommersione (ovviamente surgettiva). Allora l’Esercizio 2.83.(i) mostra che l’identit` a `e differenziabile sia da (M/G, A1 ) a (M/G, A2 ) sia viceversa; e questo vuole esattamente dire che i due atlanti sono compatibili, cio`e identificano la stessa struttura differenziabile. Dimostriamo ora che le orbite sono sottovariet`a di M . Per ogni p ∈ M , sia θp : G → M data da θp (g) = θg (p). In particolare, l’orbita di p `e l’imma` iniettiva: gine di θp ; quindi ci basta dimostrare che θp `e un embedding. E θp (g) = θp (h) implica θh−1 g (p) = p, per cui, essendo l’azione libera, h−1 g = e, cio`e g = h. Ora, notiamo che θp (gh) = θgh (p) = θg θh (p) = θg θp (h) . Essendo la traslazione sinistra transitiva, l’Esercizio 2.130 ci assicura che θp ha rango costante; essendo iniettiva, `e un’immersione (Esercizio 2.78). In particolare, dim G ≤ dim M . Ora, se K ⊆ M `e compatto, (θ p )−1 (K) `e chiuso in G, ed `e contenuto in {g ∈ G | g(K ∪ {p}) ∩ (K ∪ {p}) = ∅}, che `e compatto perch´e l’azione `e propria (vedi l’Esercizio 2.124); quindi θ p `e propria, e dunque un embedding (Esercizio 2.75). Continuiamo studiando le propriet` a topologiche di M/G. Essendo π aperta (Lemma 2.6.14), l’immagine tramite π di una base numerabile di aperti di M `e una base numerabile di aperti di M/G; quindi M/G `e a base numerabile. Per ipotesi, l’applicazione Θ: G×M → M ×M data da Θ(g, p) = θg (p), p `e propria; in particolare, ha immagine `e chiusa (vedi l’Esercizio 2.44). Ora, abbiamo (p, q) ∈ Θ(G × M ) se e solo se p e q appartengono alla stessa orbita, cio`e se e solo se π(p) = π(q). Dunque se π(p) = π(q), possiamo trovare un intorno U × V di (p, q) in M × M disgiunto da Θ(G × M ), e (essendo π aperta) π(U ) e π(V ) sono intorni disgiunti di π(p) e π(q) in M/G, che quindi `e Hausdorff. Ora, poniamo k = dim G e n = dim M − dim G. Diremo che una carta k n (U, ϕ) di M `e adattata all’azione di G se ϕ(U ) `e un prodotto V1 ×V2 ⊆ R ×R , e se q ∈ M `e tale che l’orbita G(q) interseca U allora ϕ G(q) ∩ U ) = V1 × {c} per un opportuno c ∈ Rn . Come primo passo per la costruzione dell’atlante su M/G dimostriamo che per ogni p ∈ M esiste una carta adattata all’azione di G centrata in p. Siccome l’orbita G(p) `e una sottovariet` a di M , abbiamo (Corollario 2.4.19) una carta (V, ψ) centrata in p per cui ψ V ∩ G(p) = ψ(V ) ∩ (Rk × {O}). Sia S ⊂ V la sottovariet`a di V definita da S = ψ −1 ({O} × Rn }. Chiaramente abbiamo Tp M = Tp G(p) ⊕ Tp S. Sia η: G × S → M la restrizione a G × S dell’azione θ; vogliamo dimostrare che η `e un diffeomorfismo in un intorno di (e, p). Sia ιp : G → G × S l’embedding ιp (g) = (g, p); chiaramente θp = η ◦ ιp . Siccome θp `e un embedding con immagine G(p), abbiamo dθep (Te G) = Tp G(p), per cui l’immagine di dη(e,p) contiene Tp G(p). Analogamente, usando l’embedding je : S → G × S dato da je (q) = (e, q) e notando che la composizione η ◦ je `e uguale all’inclu-
2.6 Azioni di gruppi di Lie su variet` a
103
sione S → M , vediamo che l’immagine di dη(e,p) contiene anche Tp S. Quindi dη(e,p) : T(e,p) (G × S) → Tp M `e surgettivo e dunque, confrontando le dimensioni, un isomorfismo. Il teorema dellla funzione inversa per variet`a (Corollario 2.3.29) ci assicura allora l’esistenza di un intorno W1 ×W2 di (e, p) in G×S e di un intorno W di p in M tali che η: W1 × W2 → W sia un diffeomorfismo. Vogliamo far vedere che, a meno di rimpicciolire W2 , possiamo supporre che ogni G-orbita interseca W2 in al pi` u un punto. Se cos`ı non fosse, potremmo trovare una base numerabile {W j } di intorni di p in W2 ⊂ S e, per ogni j ≥ 1, punti distinti pj , pj ∈ W j e gj ∈ G tali che gj · pj = pj . Siccome {W j } `e una base di intorni, pj e pj = gj · pj tendono a p. Essendo l’azione propria, l’Esercizio 2.124 ci dice che, a meno di passare a una sottosuccessione, possiamo supporre che gj → g ∈ G. Ma allora g · p = lim gj · pj = lim pj = p ; j→∞
j→∞
essendo l’azione libera, otteniamo g = e. Dunque gj ∈ W1 quando j `e abbastanza grande; ma questo contraddice l’iniettivit` a di η su W1 × W2 perch´e η(gj , pj ) = pj = η(e, pj ) e stiamo assumendo pj = pj . A meno di rimpicciolire ulteriormente W1 e W2 possiamo supporre che siano i domini di due carte (W1 , γ1 ) e (W2 , γ2 ) centrate in e ∈ G e p ∈ S rispettivamente. Poniamo ϕ = (γ1 × γ2 ) ◦ η −1 ; vogliamo dimostrare che (U, ϕ) `e la carta adattata all’azione di G che stavamo cercando. Che ϕ(U ) sia un prodotto `e ovvio per costruzione. Supponiamo che un’orbita G(q) intersechi U . Siccome U = η(W1 × W2 ), possiamo supporre che q ∈ W2 ; e, visto che ogni orbita interseca W2 in al pi` u un punto, questo q `e univocamente determinato. Ma allora ϕ G(q)∩U = γ1 (W1 )×{γ2 (q)}, per cui (U, ϕ) `e adattata all’azione di G, come voluto. Ora usiamo le carte adattate per costruire un atlante di M/G. Dato p ∈ M , poniamo pˆ = π(p), e sia (U, ϕ) una carta di M centrata in p e adattata al# = π(U ); essendo π aperta, U # `e aperto in M/G. Se l’azione di G. Poniamo U n −1 # S = U ∩ϕ {O} × R , per definizione di carta adattata π|S : S → U `e bigettiva. Inoltre, se W ⊂ S `e aperto in S, allora π(W ) = π η(G×W )∩U `e aperto in M/G, per cui π|S `e un omeomorfismo con l’immagine. Sia π2 : Rk ×Rn → Rn # → Rn . la proiezione sulla seconda coordinata, e poniamo ϕˆ = π2 ◦ϕ◦(π|S )−1 : U # Per costruzione, ϕˆ `e un omeomorfismo con l’immagine; quindi (U , ϕ) ˆ `e una ncarta di M/G compatibile con la topologia quoziente. Inoltre, ϕ◦π ˆ ◦ϕ−1 = π2 , per cui rispetto a questa carta π `e una sommersione. Per completare la dimostrazione dobbiamo far vedere che due carte costruite in questo modo sono compatibili fra loro. Siano (U1 , ϕ1 ) e (U2 , ϕ2 ) due #2 , ϕˆ2 ) le corrispondenti carte di M/G. Se #1 , ϕˆ1 ) e (U carte adattate di M , e (U entrambe le carte adattate sono centrate nello stesso punto p ∈ M , si vede subito che −1 ϕˆ2 ◦ ϕˆ−1 1 (x) = π2 ◦ ϕ2 ◦ ϕ1 (O, x) ,
104
2 Variet` a
che `e chiaramente di classe C ∞ dove definita. Se invece sono centrate in punti $1 ∩ U $2 = ∅ deduciamo che esistono p1 ∈ U1 e p2 ∈ U2 tali diversi, da U che π(p1 ) = π(p2 ). A meno di traslazioni, possiamo supporre che (U1 , ϕ1 ) sia centrata in p1 e che (U2 , ϕ2 ) sia centrata in p2 . Siccome p1 e p2 appartengono alla stessa orbita, esiste g ∈ G tale che θg (p1 ) = p2 . Ma θg `e un diffeomorfismo che manda orbite in orbite; quindi ϕ3 = ϕ2 ◦ θg `e un’altra carta adattata #3 , ϕˆ3 ) la centrata in p1 , definita in U3 = θg−1 (U2 ) ∩ U1 . Se indichiamo con (U −1 corrispondente carta in M/G, per quanto visto prima ϕˆ3 ◦ ϕˆ1 `e di classe C ∞ −1 dove definita. Ma, se poniamo Sj = Uj ∩ ϕj {O} × Rn per j = 1, 2, 3, abbiamo (π|S3 )−1 = θg−1 ◦ (π|S2 )−1 e quindi ϕˆ3 = π2 ◦ ϕ3 ◦ (π|S3 )−1 = π2 ◦ ϕ2 ◦ θg ◦ θg−1 ◦ (π|S2 )−1 = ϕˆ2 ; #1 , ϕˆ1 ) e (U #2 , ϕˆ2 ) sono compatibili. quindi (U
2.7 Partizioni dell’unit` a Nel seguito (vedi per esempio il Teorema 2.8.13) ci serviranno funzioni differenziabili con propriet` a particolari, molto utili per passare da situazioni locali a situazioni globali. Cominciamo col far vedere che per ogni compatto di una variet` a differenziabile possiamo trovare una funzione differenziabile che sia identicamente uguale a 1 sul compatto, e identicamente nulla fuori da un intorno arbitrario del compatto. Ci serve una piccola definizione: Definizione 2.7.1. Sia M uno spazio topologico. Il supporto di una funzione f : M → R `e l’insieme chiuso supp(f ) = {p ∈ M | f (p) = 0} . Proposizione 2.7.2. Sia K ⊂ M un sottoinsieme compatto di una variet` a n-dimensionale M , e sia V ⊃ K un intorno aperto di K. Allora esiste una funzione g ∈ C ∞ (M ) tale che g|K ≡ 1 e supp(g) ⊂ V . In particolare, g|M \V ≡ 0. Dimostrazione. Sia h: R → R data da 0 h(t) = e−1/t
se t ≤ 0 , se t > 0 ,
(2.13)
e η: Rn → R data da η(x) =
h(1 − x2 ) . h(1 − x2 ) + h(x2 − 1/4)
(2.14)
n Si vede subito che η ∈ C ∞ (Rn ), η(Rn ) ⊆ [0, 1], η|B1/2 ≡ 1, η(x) > 0 per ogni n x ∈ B1 e η|Rn \B1n ≡ 0.
2.7 Partizioni dell’unit` a
105
Ora, per ogni p ∈ K scegliamo una carta locale (Up , ϕp ) centrata in p tale che Up ⊂ V e con inoltre ϕp (Up ) = B2 ⊂ Rn . Essendo K compatto, possiamo trovare p1 , . . . , pk ∈ K tali che K⊂
k (
n ϕ−1 pj (B1/2 ) ⊂
j=1
k (
Upj = W ⊂ V .
j=1
Definiamo gj : M → R ponendo η ϕpj (q) se q ∈ Upj , gj (q) = 0 se q ∈ / Upj ; ∞ essendo gj |ϕ−1 (M ). Infine poniamo n n ≡ 0, abbiamo gj ∈ C p (B \B ) j
2
1
g(q) = 1 −
k
1 − gj (q) .
j=1
Chiaramente g ∈ C ∞ (M ). Se q ∈ K allora esiste un j fra 1 e k tale che n q ∈ ϕ−1 / W necessapj (B1/2 ), per cui gj (q) = 1 e quindi g(q) = 1. Se invece q ∈ riamente g1 (q) = · · · = gk (q) = 0, per cui g(q) = 0. In altre parole, abbiamo
g|K ≡ 1 e g|M \W ≡ 0, come voluto. Corollario 2.7.3. Siano M una variet` a, p ∈ M e V ⊆ M un intorno di p. Allora esiste h ∈ C ∞ (M ) tale che h(p) = 0 e h|M \V ≡ 1. Dimostrazione. Applicando la proposizione precedente a K = {p} otteniamo una funzione g ∈ C ∞ (M ) tale che g(p) = 1 e g|M \V ≡ 0. Allora h = 1 − g `e come voluto.
Grazie a questo risultato siamo in grado di estendere funzioni C ∞ definite solo su un compatto a funzioni C ∞ definite su tutta la variet` a. Per far ci` o, ci basta definire in maniera opportuna le funzioni C ∞ su un compatto: Definizione 2.7.4. Sia K ⊆ M un sottoinsieme di una variet`a M . Indicheremo con C ∞ (K) l’insieme delle funzioni f : K → R continue che ammettono un’estensione di classe C ∞ a un intorno aperto di K, cio`e tali che esistano un intorno aperto U di K e una f˜ ∈ C ∞ (U ) con f˜|K ≡ f . Corollario 2.7.5. Sia M una variet` a, K ⊂ M compatto, f ∈ C ∞ (K), e W ⊃ K un intorno aperto di K. Allora esiste una fˆ ∈ C ∞ (M ) tale che fˆ|K ≡ f e supp(fˆ) ⊂ W . In particolare, fˆ|M \W ≡ 0. Dimostrazione. Sia f˜: U → R un’estensione di f a un intorno aperto U del compatto K, e sia g ∈ C ∞ (M ) la funzione data dalla Proposizione 2.7.2 prendendo V = U ∩ W . Poniamo g(q)f˜(q) se q ∈ U , fˆ(q) = 0 se q ∈ M \ V ; siccome supp(g) ⊂ U ∩ W , la funzione fˆ `e come voluto.
106
2 Variet` a
Osservazione 2.7.6. L’esistenza di questo tipo di funzioni distingue nettamente le variet`a differenziabili dalle variet`a olomorfe (o analitiche reali). Infatti, una funzione olomorfa (o analitica reale) costante su un aperto di una variet` a connessa `e costante su tutta la variet` a, in quanto si pu` o dimostrare che l’insieme degli zeri di una funzione olomorfa (o analitica reale) non costante ha parte interna vuota. Nel seguito, ci capiter` a di dover incollare oggetti definiti solo localmente. Avremo un ricoprimento aperto di una variet` a, un oggetto locale definito su ciascun aperto del ricoprimento, e vorremmo incollare questi oggetti in modo da ottenere un singolo oggetto globale definito su tutta la variet` a. Lo strumento principe per effettuare questo incollamento `e dato dalle partizioni dell’unit` a, che esistono solo su variet`a di Hausdorff a base numerabile, e che adesso definiamo. Definizione 2.7.7. Un ricoprimento di uno spazio topologico X `e una famiglia U = {Uα } di sottoinsiemi di X tali che X = α Uα ; se tutti gli Uα sono aperti diremo che U `e un ricoprimento aperto. Un ricoprimento (non necessariamente aperto) U = {Uα } di uno spazio topologico X `e localmente finito se ogni p ∈ X ha un intorno U ⊆ X tale che U ∩ Uα = ∅ solo per un numero finito di indici α. Un ricoprimento V = {Vβ } `e un raffinamento di U se per ogni β esiste un α tale che Vβ ⊆ Uα . Definizione 2.7.8. Una partizione dell’unit` a su una variet` a M `e una famiglia {ρα } ⊂ C ∞ (M ) tale che: (a) 0 ≤ ρα ≤ 1 su M per ogni indice α; e un ricoprimento localmente finito di M ; (b) {supp(ρ α )} ` (c) α ρα ≡ 1. Diremo poi che la partizione dell’unit`a {ρα } `e subordinata al ricoprimento aperto U = {Uα } se supp(ρα ) ⊂ Uα per ogni indice α. Osservazione 2.7.9. La propriet` a (b) della definizione di partizione dell’unit` a implica che nell’intorno di ciascun punto di M solo un numero finito di elementi della partizione dell’unit` a sono diversi da zero; quindi la somma nella propriet` a (c) `e ben definita, in quanto in ciascun punto di M solo un numero finito di addendi sono non nulli. Inoltre, siccome M `e a base numerabile, sempre la propriet` a (b) implica (perch´e?) che supp(ρα ) = ∅ solo per una quantit` a al pi` u numerabile di indici α. In particolare, se la partizione dell’unit` a `e subordinata a un ricoprimento composto da una quantit` a pi` u che numerabile di aperti, allora ρα ≡ 0 per tutti gli indici tranne al pi` u una quantit` a numerabile. Questo non deve stupire, in quanto in uno spazio topologico a base numerabile da ogni ricoprimento aperto si pu` o sempre estrarre un sottoricoprimento numerabile (propriet` a di Lindel¨ of ; vedi [17, Theorem 1.15]).
2.7 Partizioni dell’unit` a
107
Il nostro obiettivo `e dimostrare l’esistenza di partizioni dell’unit` a subordinate a qualsiasi ricoprimento aperto di una variet` a. Questo risultato sar` a conseguenza del seguente: Lemma 2.7.10. Sia M una variet` a (di Hausdorff a base numerabile), e sia U = {Uα } un ricoprimento aperto di M . Allora esiste un atlante numerabile localmente finito A = {(Vβ , ϕβ )} tale che: (i) {Vβ } `e un raffinamento di U; (ii) ϕβ (Vβ ) = B2n per ogni β; n (iii) posto Wβ = ϕ−1 e un ricoprimento di M . β (B1/2 ), anche {Wβ } ` Dimostrazione. La variet` a M `e localmente compatta e a base numerabile; quindi possiamo trovare una base numerabile {Pj }j∈N tale che ogni Pj sia compatto. Definiamo ora per induzione una famiglia crescente di compatti Kj . Poniamo K1 = P1 . Se Kj `e definito, sia r ∈ N il minimo intero maggiore o uguale a j per cui si abbia Kj ⊂ ri=1 Pi , e poniamo Kj+1 = P1 ∪ · · · ∪ Pr . In questo modo abbiamo Kj ⊂ int(Kj+1 ) e M = j Kj . Ora, per ogni p ∈ (int(Kj+2 )\Kj−1 )∩Uα scegliamo una carta (Vα,j,p , ϕα,j,p ) centrata in p e tale che Vα,j,p ⊂ (int(Kj+2 ) \ Kj−1 ) ∩ Uα e ϕα,j,p (Vα,j,p ) = B2n . n Poniamo Wα,j,p = ϕ−1 α,j,p (B1/2 ). Ora, al variare di α e p gli aperti Wα,j,p formano un ricoprimento aperto di Kj+1 \ int(Kj ), che `e compatto; quindi possiamo estrarne un sottoricoprimento finito {Wj,r }. Unendo questi ricoprimenti al variare di j otteniamo un ricoprimento aperto numerabile {Wβ } di M ; se indichiamo con (Vβ , ϕβ ) la carta corrispondente a Wβ , dobbiamo solo dimostrare che l’atlante A = {(Vβ , ϕβ )} `e localmente finito per concludere. Infatti basta osservare che per ogni p ∈ M possiamo trovare un indice j tale che p ∈ int(Kj ), e per costruzione solo un numero finito dei Vβ intersecano int(Kj ).
Osservazione 2.7.11. Uno spazio topologico X in cui ogni ricoprimento aperto ammette un raffinamento localmente finito `e detto paracompatto. Il Lemma 2.7.10 dice in particolare che ogni variet` a (di Hausdorff a base numerabile) `e paracompatta. Teorema 2.7.12. Sia M una variet` a (di Hausdorff a base numerabile). Allora a ogni ricoprimento aperto U = {Uα } di M ammette una partizione dell’unit` subordinata a esso. Dimostrazione. Sia A = {(Vβ , ϕβ )} l’atlante dato dal Lemma 2.7.10, e η ∈ C ∞ (Rn ) data da (2.14). Poniamo η ϕβ (q) se q ∈ Vβ , gβ (q) = n 0 se q ∈ / ϕ−1 β (B1 ) ;
108
2 Variet` a
si vede subito che gβ ∈ C ∞ (M ) e che {supp(gβ )} `e un ricoprimento localmente finito di M che raffina U. Quindi ponendo gβ
ρ˜β =
β ∈B
gβ
otteniamo una partizione dell’unit` a {˜ ρβ } tale che per ogni β ∈ B esiste un α(β) ∈ A per cui si ha supp(˜ ρβ ) ⊂ Uα(β) . Ma allora ponendo ρ˜β ρα = β∈B α(β)=α
si verifica subito (esercizio) che {ρα } `e una partizione dell’unit` a subordinata a U, come voluto.
Concludiamo questa sezione con un risultato che sar` a utile nella prossima sezione. Definizione 2.7.13. Un’esaustione di uno spazio topologico X `e una funzione continua f : X → R tale che i sottolivelli f −1 (−∞, c] = {x ∈ X | f (x) ≤ c} siano compatti per tutti i c ∈ R. Proposizione 2.7.14. Ogni variet` a ammette un’esaustione differenziabile positiva. Dimostrazione. Sia {Uj }j≥1 un ricoprimento aperto numerabile della variet` a M composto da aperti relativamente compatti (cio`e a chiusura coma subordinata al ricoprimento. patta), e sia {ρj } una partizione dell’unit` Definiamo f ∈ C ∞ (M ) ponendo f (p) =
∞
jρj (p) .
j=1
Siccome {supp(ρj )} `e un ricoprimento localmente finito, la funzione f `e ben definita, di classe C ∞ , ed `e sempre positiva perch´e f ≥ j ρj ≡ 1. Per ogni N intero positivo N > 0, se p ∈ / j=1 Vj abbiamo ρ1 (p) = · · · = ρN (p) = 0 e quindi f (p) =
∞ j=N +1
jρj (p) >
∞ j=N +1
N ρj (p) = N
∞
ρj (p) = N .
j=1
N In altre parole, f (p) ≤ N implica p ∈ j=1 Vj , per cui se c ≤ N il sottolivello N f −1 (−∞, c] `e un chiuso del compatto j=1 Vj , e quindi compatto. Essendo N qualsiasi, abbiamo dimostrato che f `e un’esaustione differenziabile positiva.
2.8 Il teorema di Whitney
109
2.8 Il teorema di Whitney L’obiettivo di questa sezione `e dimostrare che qualsiasi variet`a pu` o essere realizzata come sottovariet`a chiusa di uno spazio Euclideo di dimensione sufficientemente grande. Per arrivarci, dobbiamo prima introdurre un modo per identificare insiemi particolarmente piccoli in una variet` a. Cominciamo con una definizione in Rn . Definizione 2.8.1. Un sottoinsieme A ⊂ Rn ha misura zero se per ogni δ > 0 esiste un ricoprimento di A formato da un insieme al pi` u numerabile di palle con somma dei volumi minore di δ. Esempio 2.8.2. Se m < n allora Rm `e un insieme di misura zero in Rn (dove stiamo identificando Rm con il sottoinsieme di Rn dei punti con le ultime n − m coordinate nulle). Infatti, sia {pk } ⊂ Rm un insieme numerabile denso. Dato δ > 0, sia Ck = Qk × Qk ⊂ Rm , dove Qk ⊂ Rm `e un cubo m-dimensionale centrato in pk di volume m-dimensionale unitario, e Qk ⊂ Rn−m `e un cubo (n − m)-dimensionale centrato nell’origine di volume (n − m)-dimensionale pari a 2−k+1 δ. Possiamo ricoprire ciascun Ck con un numero finito di cubetti n-dimensionali in modo che la somma dei volumi n-dimensionali di questi cubi sia al pi` u 2−k δ; infine, possiamo inscrivere ciascun cubetto in una palla di volume pari ad al pi` u cn volte il volume del cubetto, dove cn > 0 `e una costante dipendente solo da n e non dal raggio del cubetto. In questo modo abbiamo costruito un ricoprimento numerabile di Rm composto da palle con somma dei volumi pari ad al pi` u cn δ, per cui Rm ha misura zero. Osservazione 2.8.3. Chiaramente (perch´e?) un insieme A ⊂ Rn di misura zero ha parte interna vuota, per cui Rn \ A `e denso in Rn . Inoltre, un unione numerabile di insiemi di misura zero ha ancora misura zero (Esercizio 2.149). Vogliamo un concetto di insiemi di misura zero in variet`a qualsiasi. Non avendo a disposizione palle e volumi, non possiamo utilizzare direttamente questa definizione; faremo invece vedere che il concetto “avere misura zero `e invariante per diffeomorfismi, e poi useremo le carte come al solito. Lemma 2.8.4. Sia A ⊂ Rn un insieme di misura zero, e F : A → Rn un’applicazione differenziabile. Allora F (A) ha ancora misura zero. Dimostrazione. Per definizione di applicazione differenziabile su un insieme (vedi la Definizione 2.7.4), l’applicazione F `e la restrizione di un’applicazione differenziabile (che continueremo a indicare con F ) definita in un intorno aperto di A. In particolare, possiamo coprire A con una quantit` a numerabile di palle chiuse di Rn su cui F `e differenziabile. Sia B ⊂ Rn una di queste palle. Siccome B `e compatta e F |B `e di classe C 1 , esiste un C > 0 tale che, ∀x, y ∈ B,
F (x) − F (y) ≤ Cx − y . (2.15)
110
2 Variet` a
Fissiamo δ > 0. Siccome A ∩ B ha misura zero, possiamo trovare un ricoprimento numerabile {Bk } di A ∩ B formato da palle e tale che Vol(Bk ) < δ . k
˜k Grazie a (2.15), vediamo che ciascun F (Bk ∩ B) `e contenuto in una palla B di raggio al pi` u C volte il raggio di Bk . Quindi F (A ∩ B) `e ricoperto dalla ˜ k } di palle con volume totale famiglia {B ˜k ) < C n δ . Vol(B k
Questo dimostra che F (A ∩ B) ha misura zero, e la tesi segue perch´e F (A) `e unione di una famiglia numerabile di insiemi di questo tipo.
Corollario 2.8.5. Sia F : U → Rn differenziabile, dove U ⊆ Rm `e un aperto di Rm con m < n. Allora F (U ) ha misura zero in Rn . Dimostrazione. Sia π: Rn → Rm la proiezione sulle prime m coordinate, e ˜ → Rn . Allora F (U ) = F˜ (U ˜ ∩ Rm ) ˜ = π −1 (U ) e F˜ = F ◦ π: U poniamo U m ˜ ∩ R ha misura zero in Rn ha misura zero grazie al Lemma 2.8.4, perch´e U (Esempio 2.8.2).
Il Lemma 2.8.4 ci permette di dare una definizione di insieme di misura zero in qualsiasi variet` a. Definizione 2.8.6. Un sottoinsieme A ⊂ M di una variet` a n-dimensionale M ha misura zero se ϕ(A ∩ U ) ha misura zero in Rn per ogni carta (U, ϕ) di M . Osservazione 2.8.7. In particolare, un insieme A di misura zero in una variet` a M ha necessariamente parte interna vuota (e quindi M \ A `e denso in M ), perch´e altrimenti ϕ(A ∩ U ) non sarebbe di misura zero per qualche carta (U, ϕ). Al solito, per vedere se un insieme ha misura zero `e sufficiente usare un atlante: Lemma 2.8.8. Sia A ⊂ M un sottoinsieme di una variet` a n-dimensionale M per cui esista una famiglia {(Uα , ϕα )} di carte i cui domini ricoprano A e tali che ϕα (A ∩ Uα ) abbia misura zero in Rn per ogni α. Allora A ha misura zero in M . Dimostrazione. Dobbiamo far vedere che ψ(A ∩ V ) ha misura zero in Rn per qualsiasi carta (V, ψ) di M . Ora, una sottofamiglia numerabile degli Uα ricopre A ∩ V ; per ognuno di questi si ha ψ(A ∩ V ∩ Uα ) = (ψ ◦ ϕ−1 α ) ◦ ϕα (A ∩ V ∩ Uα ) .
2.8 Il teorema di Whitney
111
Ora, ϕα (A ∩ V ∩ Uα ) ⊆ ϕα (A ∩ Uα ) ha misura zero per ipotesi; quindi ψ(A ∩ V ∩ Uα ) ha misura zero per il Lemma 2.8.4. Dunque possiamo ricoprire ψ(A ∩ V ) con una quantit` a numerabile di insiemi di misura zero, e quindi ψ(A ∩ V ) ha misura zero.
Corollario 2.8.9. Sia F : M → N un’applicazione differenziabile fra variet` a, e supponiamo che dim M < dim N . Allora F (M ) ha misura zero in N ; in particolare, N \ F (M ) `e denso in N . Dimostrazione. Dobbiamo far vedere che ψ F (M )∩V ha misura zero (quando non `e vuoto) per qualsiasi carta (V, ψ) di N . Sia {(Uk , ϕk )} un atlante numerabile di M ; allora ψ F (M ) ∩ V `e unione numerabile di insiemi della −1 forma ψ ◦ F ◦ ϕ−1 ϕk F (V ) ∩ Uk , che hanno misura zero per il Corollak rio 2.8.5.
Questo risultato `e un caso particolare del famoso teorema di Sard: Teorema 2.8.10 (Sard). Sia F : M → N un’applicazione differenziabile fra variet` a. Allora l’insieme dei valori critici di F ha misura nulla in N . Vedi [3, Theorem 9.5.4] oppure [15] per una dimostrazione. Come prima applicazione della nozione di insieme di misura zero (e delle tecniche introdotte nella Sezione 2.7) dimostriamo che se m ≥ 2n ogni o essere applicazione differenziabile da una variet` a n-dimensionale in Rm pu` approssimata arbitrariamente bene da immersioni. Teorema 2.8.11. Sia F : M → Rm un’applicazione differenziabile, dove M `e una variet` a n-dimensionale e m ≥ 2n. Allora per ogni ε > 0 esiste un’immersione F˜ : M → Rm tale che supM F˜ − F < ε. Dimostrazione. Sia {(Vk , ϕk )}k≥1 un atlante numerabile di M dato dal Lemn ma 2.7.10; in particolare, ϕk (Vk ) = B2n per ogni k ≥ 1, e {ϕ−1 e ancora k (B1/2 )} ` un ricoprimento di M . Per ogni k ≥ 1, sia poi (Lemma 2.7.2) gk ∈ C ∞ (M ) n con supporto contenuto in Vk e identicamente uguale a 1 su Uk = ϕ−1 k (B1/2 ). k Infine, poniamo M0 = ∅ and Mk = j=1 Uj per ogni k > 0. L’idea `e di procedere per induzione su k, modificando F su un Vk alla volta. Poniamo F0 = F , e supponiamo di aver definito delle applicazioni differenziabili Fj : M → Rm per j = 0, . . . , k − 1 tali che: (i) supM Fj − F < ε; (ii) Fj ≡ Fj−1 su M \ Vj se j ≥ 1; (iii) d(Fj )p `e iniettivo per ogni p ∈ Mj . Vogliamo costruire Fk modificando Fk−1 su Vk . Per ogni A ∈ Mm,n (R), sia FA : M → Rm data da se p ∈ M \ supp(gk ); Fk−1 (p) FA (p) = Fk−1 (p) + gk (p)Aϕk (p) se p ∈ Vk .
112
2 Variet` a
Essendo supp(gk ) ⊂ Vk , le FA sono differenziabili; vogliamo A ∈ Mm,n (R) in modo che FA soddisfi le condizioni (i)–(iii) per j = k. La condizione (ii) `e ovviamente soddisfatta; vediamo le altre due. La condizione (i) fornisce ε1 = supM Fk−1 − Fk < ε. Inoltre, esiste δ > 0 tale che A < δ implica sup FA − Fk−1 = M
gk (p)Aϕk (p) < ε − ε1 .
sup p∈supp(gk )
Quindi se A < δ abbiamo sup FA − F ≤ sup FA − Fk−1 + sup Fk−1 − F < (ε − ε1 ) + ε1 = ε , M
M
M
e (i) `e soddisfatta. Per ottenere la (iii), notiamo prima di tutto che d(FA )p ha, per ipotesi induttiva, rango massimo n quando (p, A) appartiene all’insieme compatto (supp(gk ) ∩ Mk−1 ) × {O}. Quindi, diminuendo δ se necessario, possiamo supporre che d(FA )p abbia rango n non appena p ∈ supp(gk ) ∩ Mk−1 e A < δ. Rimane quindi da scegliere A in modo che d(FA )p abbia rango n anche su Uk . Prima di tutto, siccome gk ≡ 1 su Uk , si ha d(FA )p = d(Fk−1 )p + Ad(ϕk )p per ogni p ∈ Uk . In particolare, d(FA )p non ha rango n se e solo se si ha A = B − d(Fk−1 ◦ ϕ−1 k )ϕk (p) per una qualche matrice B ∈ Mm,n (R) di rango strettamente minore di n. Definiamo Ψ : B2n × Mm,n (R) → Mm,n (R) ponendo Ψ (x, B) = B − d(Fk−1 ◦ ϕ−1 k )x ,
n + mn − (m − j)(n − j) < mn
⇐⇒
n − (m − j)(n − j) < 0 .
La funzione t → n − (m − t)(n − t) `e crescente in [0, n − 1] non appena m ≥ n; inoltre per j = n − 1 si ha n − (m − j)(n − j) = 2n − 1 − m che `e minore j di zero non appena m ≥ 2n. Dunque ciascun Ψ B2n × Mm,n (R) ha misura
finito, ogni p ∈ M appartiene solo a un numero finito di Vk ; quindi Fk (p) in un intorno di p `e indipendente da k non appena k `e abbastanza grande, per
2.8 Il teorema di Whitney
113
cui F˜ `e definita e di classe C ∞ in ciascun p ∈ M . Inoltre, per lo stesso motivo dF˜p = d(Fk )p per ogni k abbastanza grande, e quindi dF˜p `e iniettivo grazie a (iii).
Con un poco pi` u di sforzo, e con un po’ pi` u di spazio a disposizione, possiamo anche ottenere l’iniettivit` a globale: a Teorema 2.8.12. Sia F : M → Rm un’immersione, dove M `e una variet` n-dimensionale e m ≥ 2n + 1. Allora per ogni ε > 0 esiste un’immersione iniettiva F˜ : M → Rm tale che supM F˜ − F < ε. Dimostrazione. La Proposizione 2.4.8 ci dice che possiamo trovare un ricoprimento aperto {Uα } di M tale che F |Uα sia un embedding (e in particolare iniettiva) per ogni α. Usando il Lemma 2.7.10 otteniamo un atlante {(Vh , ϕh )}h≥1 numerabile di M tale che F |Vh `e iniettiva e ϕk (Vh ) = B2n per n e ancora un ricoprimento di M . Per ogni ogni h ≥ 1, e inoltre {ϕ−1 h (B1/2 )} ` h ≥ 1, sia poi (Lemma 2.7.2) gh ∈ C ∞ (M ) con supporto contenuto in Vh e n identicamente uguale a 1 su Uh = ϕ−1 k (B1/2 ), e poniamo di nuovo M0 = ∅ k and Mk = j=1 Uj per ogni k > 0. Procediamo nuovamente per induzione. Poniamo F0 = F , e supponiamo di aver definito Fj : M → Rm per j = 0, . . . , k − 1 tali che: (i) supM Fj − F < ε; (ii) Fj ≡ Fj−1 su M \ Vj se j ≥ 1; (iii) Fj `e un’immersione; (iv) Fj `e iniettiva su ogni Vh ; (v) Fj `e iniettiva su Mj . Vogliamo costruire Fk modificando Fk−1 su Vk . Per ogni v ∈ Rm definiamo Fv : M → Rm ponendo Fv (p) = Fk−1 (p) + gk (p)v . La condizione (ii) `e automaticamente soddisfatta; vogliamo scegliere v in modo da soddisfare anche le altre. Prima di tutto, ragionando come nella dimostrazione del Teorema 2.8.11 troviamo δ > 0 tale che v < δ implica supM F −fv < ε, e (i) `e soddisfatta. Inoltre, diminuendo se necessario δ, possiamo anche supporre che d(Fv )p sia iniettivo sul compatto supp(gk ); siccome d(Fv )p = d(Fk−1 )p se p ∈ / supp(gk ), otteniamo che Fv `e un’immersione. Ora, sia U ⊂ M ×M l’aperto dato da U = {(p, q) ∈ M ×M | gk (p) = gk (q)}, e definiamo Φ: U → Rm ponendo Φ(p, q) = −
Fk−1 (p) − Fk−1 (q) ; gk (p) − gk (q)
in particolare, Fv (p) = Fv (q) se e solo se (p, q) ∈ U e v = Φ(p, q) oppure (p, q) ∈ / U e Fk−1 (p) = Fk−1 (q). Siccome dim U = 2n, il Corollario 2.8.9 ci
114
2 Variet` a
dice che Φ(U ) ha misura zero in Rm ; quindi possiamo trovare v ∈ Rm \ Φ(U ) con v < δ. In particolare, siccome per ipotesi induttiva Fk−1 `e iniettiva su ogni Vh , otteniamo che Fv soddisfa anche (iv). Supponiamo infine che Fv (p) = Fv (q) per p, q ∈ Mk . Data la scelta di v, questo implica necessariamente gk (p) = gk (q) e Fk−1 (p) = Fk−1 (q). Se gk (p) = gk (q) = 0, allora p, q ∈ Mk \ Uk ⊆ Mk−1 , per cui Fk−1 (p) = Fk−1 (q) implica p = q per ipotesi induttiva. Se invece gk (p) = gk (q) > 0 abbiamo p, q ∈ Vk , e quindi di nuovo otteniamo p = q per ipotesi induttiva. Abbiamo quindi dimostrato che Fk = Fv soddisfa (i)–(v). Poniamo F = lim Fk ; esattamente come nel Teorema 2.8.11 si verifica k→+∞
che F `e un’immersione ben definita. Se F (p) = F (q), scegliamo un k sufficientemente grande da avere p, q ∈ Mk , e un h ≥ k sufficientemente grande da avere F ≡ Fh su Mk ; allora Fh (p) = Fh (q) ed, essendo Fh iniettiva in Mh ⊇ Mk , deduciamo p = q.
Siamo ora in grado di dimostrare un interessante risultato, dovuto a Whitney, che dice che ogni variet` a pu` o essere realizzata come sottovariet`a di uno spazio Euclideo di dimensione sufficientemente grande: Teorema 2.8.13 (Whitney). Ogni variet` a n-dimensionale M pu` o essere realizzata come sottovariet` a chiusa di R2n+1 , e come sottovariet` a immersa di R2n . Pi` u precisamente, esistono un embedding proprio di M in R2n+1 , e un’immersione di M in R2n . Dimostrazione. L’immersione di M in R2n la si ottiene applicando il Teorema 2.8.11 a qualsiasi applicazione differenziabile da M in R2n , per esempio un’applicazione costante. Per costruire un embedding proprio, l’Esercizio 2.75 ci dice che `e sufficiente costruire un’immersione iniettiva propria. Cominciamo costruendo un’applicazione propria di M in R2n+1 . Sia f ∈ C ∞ (M ) un’esaustione positiva di M (Proposizione 2.7.14); si verifica subito che F0 : M → R2n+1 data da F0 (p) = f (p), 0, . . . , 0 `e propria. Il Teorema 2.8.11 ci fornisce allora un’immersione F1 : M → R2n+1 tale che supM F1 − F0 ≤ 1, e il Teorema 2.8.12 ci fornisce un’immersione iniettiva F2 : M → R2n+1 tale che supM F2 − F1 ≤ 1; ci rimane da dimostrare che F2 `e propria. 2n+1 Sia K ⊂ R2n+1 un compatto; allora esiste R > 0 tale che K ⊆ BR . Se F2 (p) ∈ K abbiamo allora F0 (p) ≤ F0 (p) − F1 (p) + F1 (p) − F2 (p) + F2 (p) ≤ 2 + R ; quindi F2−1 (K) ⊆ F0−1 (−∞, R + 2] che `e compatto in quanto F0 `e un’esaustione. Quindi F2 `e un’immersione iniettiva propria, e dunque un embedding con immagine chiusa, come voluto.
Esercizi
115
Osservazione 2.8.14. Tutti i teoremi di questa sezione sono stati dimostrati da Whitney nel 1936 (vedi [38]). Whitney stesso, nel 1944 (vedi [39, 40]), usando tecniche pi` u sofisticate di topologia algebrica, `e riuscito a dimostrare che ogni variet` a n-dimensionale con n > 0 ammette un embedding (non necessariamente proprio) in R2n , e che ogni variet`a n-dimensionale con n > 1 ammette un’immersione in R2n−1 . La richiesta n > 1 `e inevitabile: `e facile vedere (Esercizio 2.86) che non esiste nessuna immersione di S 1 in R.
Esercizi ` DIFFERENZIABILI VARIETA Esercizio 2.1 (Usato nella Definizione 2.1.6). Dimostra che quella di compatibilit` a `e una relazione d’equivalenza fra gli atlanti di dimensione data su un insieme M , e che due atlanti A e B sono compatibili se e solo se ogni carta di A `e compatibile con tutte le carte di B e ogni carta di B `e compatibile con tutte le carte di A. Esercizio 2.2. Sia A un atlante di dimensione n su un insieme M , e (U, ϕ), (V, ψ) due n-carte di M , entrambe compatibili con tutte le carte di A. Dimostra che allora (U, ϕ) e (V, ψ) sono compatibili fra loro. Esercizio 2.3 (Usato nella Sezione 2.1). Dimostra che due atlanti compatibili su un insieme M inducono la stessa topologia su M . Esercizio 2.4 (Usato nella Definizione 2.1.10). Sia M uno spazio topologico, e A un atlante su M compatibile con la topologia di M . Dimostra che la topologia indotta da A coincide con quella originale di M . Esercizio 2.5 (Citato nell’Osservazione 2.1.16). Dimostra che una struttura di variet` a complessa di dimensione complessa n su un insieme M induce in modo naturale su M una struttura di variet` a differenziabile reale di dimensione 2n. Esercizio 2.6 (Usato nell’Osservazione 2.1.12). Dimostra che una variet` a `e (rispetto alla topologia indotta) localmente compatta, localmente connessa e localmente connessa per archi. Esercizio 2.7 (Citato nell’Osservazione 2.1.13 e usato nell’Esempio 2.1.34). Dimostra che una variet`a differenziabile `e a base numerabile se e solo se ammette un atlante numerabile. Esercizio 2.8 (Citato nell’Osservazione 2.1.13 e usato nell’Esempio 2.1.34). Dia differenziabile M `e di Hausdorff se e mostra che la topologia di una variet` solo se ammette un atlante A = {(Uα , ϕα )} con la seguente propriet`a: per ogni coppia di punti distinti p = q di M esiste una carta tale che p, q ∈ Uα , oppure esistono due carte tali che p ∈ Uα , q ∈ Uβ e Uα ∩ Uβ = ∅.
116
2 Variet` a
Esercizio 2.9 (Usato nell’Esempio 2.1.20). Sia A = {(Uα , ϕα )} un atlante di una variet` a M , e U ⊆ M un aperto di M . Dimostra che A|U = {(Uα ∩ U, ϕα |Uα ∩U ) | Uα ∩ U = ∅} `e un atlante per U . Esercizio 2.10 (Usato nell’Esempio 2.1.21). Sia A = {(Uα , ϕα )} un atlante di una variet` a m-dimensionale M , e B = {(Vβ , ψβ )} un atlante di una variet` a n-dimensionale N . Se definiamo ϕα × ψβ : Uα × Vβ → Rm × Rn ponendo ϕα × ψβ (p, q) = ϕα (p), ψβ (q) , dimostra che A × B = {(Uα × Vβ , ϕα × ψβ )} `e un atlante di dimensione m + n su M × N . Esercizio 2.11. Sia M una variet` a. Dimostra che M ammette un’infinit` a pi` u che numerabile di strutture differenziabili distinte che inducono la stessa topologia. [Suggerimento: comincia costruendo omeomorfismi di B n in s´e che siano differenziabili su B n \ {O} ma non nell’origine.]
` ESEMPI DI VARIETA Esercizio 2.12 (Usato nell’Osservazione 2.1.19). Sia ΓF ⊂ Rn+m il grafico di un’applicazione F : U → Rm definita su un aperto U ⊆ Rn . Dimostra che la topologia su ΓF indotta dalla struttura differenziabile definita nell’Esempio 2.1.19 coincide con la topologia di ΓF come sottospazio di Rn+m se e solo se F `e continua. Esercizio 2.13. Dimostra che non esiste alcuna struttura di variet` a su [0, +∞) compatibile con la topologia euclidea. Esercizio 2.14 (Citato nella Sezione 2.1). Dimostra che non esiste un atlante n n compatibile con la topologia naturale di SR e composto da una sola su SR carta. Esercizio 2.15 (Usato nell’Osservazione 2.1.29). Verifica in dettaglio che le n introdotte nell’Esempio 2.1.29 forniscono un atlante coordinate sferiche in SR compatibile con quelli degli Esempi 2.1.27 e 2.1.28. Esercizio 2.16 (Usato nell’Esempio 2.1.32). Dimostra che sugli spazi proiettivi reali la topologia indotta dalla struttura di variet` a definita nell’Esempio 2.1.32 coincide con la topologia quoziente indotta dalla proiezione naturale Rn+1 \ {O} → Pn (R). Dimostra l’analogo risultato per gli spazi proiettivi complessi. Esercizio 2.17 (Usato nell’Esempio 2.1.32 e citato nell’Esercizio 2.19). Sia V uno spazio vettoriale reale di dimensione finita. Seguendo la traccia dell’Esempio 2.1.32 costruisci su P(V ) una struttura naturale di variet` a differenziabile (indipendente da eventuali scelte di basi di V ).
Esercizi
117
Esercizio 2.18. Indichiamo con π: S n → Pn (R) la restrizione della proiezione naturale di Rn+1 \ {O} su Pn (R) data da π(x0 , . . . , xn ) = [x0 : · · · : xn ]. Dimostra che P1 (R) `e omeomorfo a S 1 , e che π `e il rivestimento universale di Pn (R) se n > 1. Esercizio 2.19 (Usato nell’Esempio 2.1.34). Sia V uno spazio vettoriale reale di dimensione finita. Dimostra che P(V ) con la struttura di variet` a differenziabile introdotta nell’Esercizio 2.17 e G1 (V ) con la struttura di variet` a differenziabile introdotta nell’Esempio 2.1.34 sono diffeomorfe. Esercizio 2.20. Definisci una struttura di variet` a 0-dimensionale sull’insieme di tutti i cavalleggeri prussiani (o su qualsiasi altro insieme al pi` u numerabile). Esercizio 2.21 (Citato nella Definizione 2.1.35). Sia F : Ω → Rm un’applicazione C ∞ definita su un aperto Ω ⊆ Rn . Dimostra che Crit(F ) `e un chiuso di Ω. Esercizio 2.22 (Usato nell’Esempio 2.1.39). Dimostra che la struttura diffen renziabile introdotta su SR nell’Esempio 2.1.39 coincide con quella introdotta negli Esempi 2.1.27–2.1.29. Esercizio 2.23. Se k `e un intero compreso fra 0 e min(m, n), dimostra che il sottoinsieme di Mm,n (R) formato dalle matrici di rango almeno k `e aperto, e quindi ha una naturale struttura di variet` a di dimensione mn. Esercizio 2.24 (Usato nell’Esempio 2.1.40). Dimostra che ∀X ∈ Mn,n (R)
∂ det ∂xji
(X) = (−1)i+j det(Xij ) ,
dove Xij ∈ Mn−1,n−1 (R) `e la sottomatrice di X = (xji ) ottenuta cancellando la riga i-esima e la colonna j-esima di X. Deducine che Crit(det) `e composto dalle matrici di rango minore o uguale a n − 2. Esercizio 2.25 (Usato negli Esempi 2.1.40 e 2.5.16). Sia S(n, R) ⊂ Mn,n (R) lo spazio delle matrici simmetriche a coefficienti reali; chiaramente, possiamo identificare S(n, R) con Rn(n+1)/2 . Sia F : Mn,n (R) → S(n, R) data da F (X) = X T X. Dimostra che dFX (A) = X T A + AT X per ogni A, X ∈ Mn,n (R). Deduci che per ogni X ∈ O(n) il differenziale dFX : Mn,n (R) → S(n, R) `e surgettivo, e quindi che O(n) ha una struttura di variet` a differenziabile di dimensione n(n − 1)/2. Dimostra infine che SO(n, R) = O(n) ∩ SL(n, R) ha una struttura di variet` a differenziabile di dimensione n(n − 1)/2 − 1.
118
2 Variet` a
Esercizio 2.26 (Usato nell’Esempio 2.1.40). Dimostra che il gruppo SL(n, C) ha una struttura di variet` a complessa di dimensione n2 − 1 (e quindi una struttura di variet` a differenziabile reale di dimensione 2n2 − 2); che il gruppo U (n) ha una struttura di variet` a differenziabile (reale) di dimensione n2 , e che il gruppo SU (n) = U (n) ∩ SL(n, C) ha una struttura di variet` a differenziabile di dimensione n2 − 1. Esercizio 2.27 (Citato nell’Osservazione 2.2.14). Dimostra che quale che sia a = (a0 , . . . , an ) ∈ Nn+1 l’insieme V 2n−1 (a) = {z ∈ Cn+1 | z2 = 1 e z0a0 + · · · + znan = 0} ha una naturale struttura di variet` a differenziabile di dimensione 2n − 1. APPLICAZIONI DIFFERENZIABILI Esercizio 2.28. Sia M una variet` a. Dimostra che C ∞ (M ) con la somma e il prodotto puntuale `e un’algebra commutativa. a M , e N un’alEsercizio 2.29. Sia {Uα } un ricoprimento aperto di una variet` tra variet` a. Supponi che per ogni α sia data un’applicazione differenziabile Fα : Uα → N tali che Fα |Uα ∩Uβ ≡ Fβ |Uα ∩Uβ non appena Uα ∩ Uβ = ∅. Dimostra che esiste un’unica applicazione differenziabile F : M → N tale che F |Uα ≡ Fα per ogni α. Esercizio 2.30 (Citato nell’Osservazione 2.2.3). Sia F : M → N un’applicazione continua fra due variet` a. Dimostra che se esistono un atlante {(Uα , ϕα )} di M e un atlante {(Vβ , ψβ )} di N tali che per ogni α e β la composizione ψβ ◦F ◦ϕ−1 α `e di classe C ∞ dove definita allora F `e differenziabile. Esercizio 2.31. Dimostra che un’applicazione F : M → N1 ×· · ·×Nk `e differenziabile se e solo se tutte le componenti Fj = πj ◦ F : M → Nj per j = 1, . . . , k lo sono, dove πj : N1 × · · · × Nk → Nj `e la proiezione sulla j-esima coordinata. a, e scegliamo pj ∈ Mj per j = 1, . . . , k. Esercizio 2.32. Siano M1 , . . . , Mk variet` Dimostra che per ogni j = 1, . . . , k l’applicazione ij : Mj → M1 × · · · × Mk data da ij (x) = (p1 , . . . , pj−1 , x, pj+1 , . . . , pk ) `e differenziabile. Esercizio 2.33. Sia U ⊆ M un aperto di una variet` a n-dimensionale M , e ϕ: U → V ⊂ Rn un diffeomorfismo con un aperto di Rn . Dimostra che (U, ϕ) `e una n-carta appartenente alla struttura differenziabile di M . Esercizio 2.34 (Utile per l’Esercizio 2.71). Dimostra che le applicazioni nell’elenco seguente sono differenziabili:
Esercizi
119
(i) per ogni n ∈ Z l’applicazione pn : S 2 → S 1 data (in notazione complessa) da pn (z) = z n ; (ii) l’applicazione A: S n → S n data da A(x) = −x; (iii) l’applicazione F : S 3 → S 2 data da F (z, w) = 2 Re(zw), 2 Im(zw), |z|2 − |w|2 , dove stiamo identificando S 3 con l’insieme {(z, w) ∈ C2 | |z|2 + |w|2 = 1}. Esercizio 2.35. Sia f : R → R una funzione qualsiasi. Trova condizioni necessarie e sufficienti perch´e f sia differenziabile: (i) come applicazione da R con la struttura differenziabile standard a R con la struttura differenziabile dell’Esempio 2.1.23; (ii) come applicazione da R con la struttura differenziabile dell’Esempio 2.1.23 a R con la struttura differenziabile standard. Definizione 2.E.1. Un’applicazione P : Rn+1 \ {O} → Rn+1 \ {O} `e detta omogenea di grado d ∈ Z se P (λx) = λd P (x) per ogni λ ∈ R∗ e x ∈ Rn+1 \ {O}. Un’applicazione omogenea P `e inoltre non degenere se x = O implica P (x) = O. Esercizio 2.36. Sia P : Rn+1 \{O} → Rn+1 \{O} un’applicazione differenziabile omogenea non degenere. Dimostra che ponendo P˜ ([x]) = [P (x)] si definisce un’applicazione differenziabile P˜ : Pn (R) → Pn (R). n n e BR (rispetEsercizio 2.37 (Usato nell’Esempio 2.2.10). Dimostra che BR 1 2 n n tivamente, SR1 ed SR2 ) sono diffeomorfe per ogni R1 , R2 > 0.
Esercizio 2.38. Dimostra che SO(3) `e diffeomorfo a P3 (R). Esercizio 2.39. Dimostra che le inclusioni di SL(n, R), O(n) e SO(n) in GL(n, R) sono applicazioni differenziabili, come pure l’inclusione di U (n) in GL(n, C). Deduci che prodotto e inverso sono applicazioni differenziabili in tutti questi gruppi (vedi l’Esempio 2.2.11). Esercizio 2.40. Se M `e uno spazio topologico, indichiamo con C 0 (M ) lo spazio delle funzioni continue da M in R. Se F : M → N `e continua, sia F ∗ : C 0 (N ) → C 0 (M ) data da F ∗ (f ) = f ◦ F . (i) Dimostra che F ∗ `e lineare. (ii) Se M e N sono variet` a differenziabili, dimostra che un’applicazione continua F : M → N `e differenziabile se e solo se F ∗ C ∞ (N ) ⊆ C ∞ (M ). (iii) Se F : M → N `e un omeomorfismo fra variet` a differenziabili, dimostra che `e un diffeomorfismo se e solo se F ∗ |C ∞ (N ) `e un isomorfismo fra C ∞ (N ) e C ∞ (M ). Esercizio 2.41. Dimostra che P1 (C) `e diffeomorfo a S 2 .
120
2 Variet` a
APPLICAZIONI PROPRIE Esercizio 2.42. Sia F : M → N un’applicazione continua fra spazi topologici. Dimostra che: (i) se M `e compatto e N `e di Hausdorff, oppure (ii) se M ed N sono di Hausdorff, ed esiste G: N → M tale che G ◦ F = idM , allora F `e propria. Definizione 2.E.2. Diremo che una successione {pn } in uno spazio topologico M diverge all’infinito se ogni compatto di M contiene solo un numero finito di elementi della successione. Esercizio 2.43. Sia F : M → N un’applicazione continua fra spazi topologici di Hausdorff, a base numerabile e localmente compatti. Dimostra che F `e propria se e solo se {F (pn )} diverge all’infinito in N per ogni successione {pn } divergente all’infinito in M . Esercizio 2.44 (Usato nel Teorema 2.6.15). Dimostra che un’applicazione continua F : M → N fra spazi topologici di Hausdorff e localmente compatti `e propria se e solo se `e chiusa e F −1 (q) `e compatto in M per ogni q ∈ N . RIVESTIMENTI ˜ → M un rivestimento toEsercizio 2.45 (Citato nella Sezione 2.2). Sia π: M pologico fra variet` a. Dimostra che π `e un rivestimento liscio se e solo se (`e differenziabile ed) `e un diffeomorfismo locale. Trova un esempio di rivestimento topologico fra variet`a che sia differenziabile ma non sia un rivestimento liscio. ˜ 1 → M1 e π2 : M ˜ 2 → M2 due rivestimenti (lisci). Esercizio 2.46. Siano π1 : M ˜ ˜ Dimostra che π1 × π2 : M1 × M2 → M1 × M2 `e un rivestimento (liscio). ˜ → M un rivestimenEsercizio 2.47 (Usato nell’Osservazione 2.2.20). Sia π: M to di spazi topologici. Dimostra che se M `e di Hausdorff e/o a base numerabile ˜ `e di Hausdorff e/o a base numerabile. allora anche M Definizione 2.E.3. Una sezione di un’applicazione continua π: M → N `e un’applicazione continua σ: N → M tale che π ◦ σ = idN . Una sezione locale di π `e un’applicazione continua τ : U → M tale che π ◦ τ = idU , dove U ⊆ N `e un aperto. Una fibra di π `e l’immagine inversa di un punto. ˜ → M un rivestimento liscio. Dimostra che per ogni Esercizio 2.48. Sia π: M ˜ ˜ di π tale che q ∈ σ(U ). q ∈ M esiste una sezione locale liscia σ: U → M ˜ → M un rivestimento liscio, e N una variet` Esercizio 2.49. Sia π: M a. Dimo˜ →N stra che un’applicazione F : M → N `e differenziabile se e solo se F ◦π: M lo `e.
Esercizi
121
˜ → N un rivestiEsercizio 2.50 (Usato nella Proposizione 2.5.13). Sia π: N mento liscio, e F : M → N un’applicazione differenziabile. Supponi che esista ˜ tale che F = π ◦ F˜ ; dimostra che F˜ `e un’applicazione continua F˜ : M → N necessariamente differenziabile. ˜ → M un diffeomorfismo locale fra variet`a connesse. Esercizio 2.51. Sia π: M Dimostra che se π `e propria allora `e un rivestimento liscio. Trova un esempio di un rivestimento liscio fra variet`a connesse che non `e un’applicazione propria.
GERMI Esercizio 2.52. Sia M una variet` a e p ∈ M . Dimostra che per ogni f ∈ C ∞ (p) e ogni intorno V ⊆ M di p esiste un rappresentante di f definito su tutto M e nullo al di fuori di V . Esercizio 2.53. Trova una variet` a M , un punto p ∈ M e due rappresentanti (U1 , f1 ) e (U2 , f2 ) dello stesso germe in p tali che f1 |U1 ∩U2 ≡ f2 |U1 ∩U2 . Esercizio 2.54 (Usato nella Sezione 2.3). Sia F : M → N un’applicazione di classe C ∞ fra variet` a, e siano (V1 , g1) e (V2 , g2 ) due rappresentanti di un germe g ∈ C ∞ F (p) . Dimostra che F −1 (V1 ), g1 ◦ F e F −1 (V2 ), g2 ◦ F rappresentano lo stesso germe in p. Esercizio 2.55 (Usato nell’Osservazione 2.3.7). Dati un’applicazione differenziabile fra variet` a F : M → N e un punto p ∈ M , dimostra che: ∗ (i) Fp `e un omomorfismo di algebre; (ii) (idM )∗p = id; (iii) se G: N → S `e un’applicazione differenziabile, allora (G◦F )∗p = Fp∗ ◦G∗F (p) ; (iv) se F `e un diffeomorfismo allora Fp∗ `e un isomorfismo di algebre; (v) se (U, ϕ) `e una carta in p ∈ M allora ϕ∗p : C ∞ ϕ(p) → C ∞ (p) `e un isomorfismo di algebre.
SPAZIO TANGENTE Esercizio 2.56. Sia M una variet` a, p ∈ M e X ∈ Tp M . Dimostra che se f , g ∈ C ∞ (p) sono tali che f (p) = g(p) = 0 allora X(fg) = 0. Esercizio 2.57 (Usato negli Esempi 2.3.13 e 2.3.14). Dimostra che le formule (2.3) e (2.4) non dipendono dal rappresentante scelto e definiscono effettivamente delle derivazioni. Esercizio 2.58 (Usato nell’Osservazione 2.3.9). Sia M una variet` a analitica reale, p ∈ M , e sia Tpω M lo spazio delle derivazioni di C ω (p) ⊂ C ∞ (p). Dimostra che l’inclusione naturale i: Tp M → Tpω M `e un isomorfismo. [Suggerimento: per la Proposizione 2.3.21 i due spazi vettoriali Tp M e Tpω M hanno la stessa dimensione.]
122
2 Variet` a
Esercizio 2.59 (Citato nell’Osservazione 2.3.10). Sia M una variet` a, e p ∈ M . Diremo che due curve differenziabili σ1 , σ2 : R → M con σ1 (0) = σ2 (0) = p sono equivalenti se (ϕ ◦ σ1 ) (0) = (ϕ ◦ σ2 ) (0) per qualche carta locale (U, ϕ) in p. Dimostra che si tratta effettivamente di una relazione di equivalenza, e che l’insieme delle classi di equivalenza `e naturalmente isomorfo a Tp M . Esercizio 2.60 (Citato nell’Osservazione 2.3.10 e utile per gli Esercizi 2.63 e 2.66). Sia M una variet` a, e p ∈ M . Posto mp = {f ∈ C ∞ (p) | f (p) = 0} , dimostra che mp `e l’unico ideale massimale di C ∞ (p), e che Tp M `e canonicamente isomorfo al duale di mp /m2p . Esercizio 2.61. Sia M una variet` a, e p ∈ M . Dimostra che ogni elemento di Tp M `e della forma σ (0) per un’opportuna curva σ: R → M con σ(0) = p. Esercizio 2.62 (Citato nelle Osservazioni 2.1.16 e 2.3.9). Sia M una variet` a di classe C 0 , e p ∈ M . Dimostra che l’unica derivazione di C 0 (p) `e la derivazione nulla. [Suggerimento: per ogni f ∈ C 0 (p) si ha 1/3 2/3 f = f (p) + f − f (p) .] f − f (p)
Esercizio 2.63 (Citato nelle Osservazioni 2.1.16 e 2.3.9). Sia M una variet` a di classe C k , con 0 < k < +∞, e p ∈ M . Dimostra che lo spazio delle derivazioni di C k (p) ha dimensione infinita. [Suggerimento: fissata una carta locale ϕ = (x1 , . . . , xn ) centrata in p, per ogni 0 < ε < 1 sia fε ∈ C k (p) il germe rappresentato dalla funzione (x1 )k+ε . Dimostra che per ogni 0 < ε1 < · · · < εr < 1 i germi fε1 , . . . , fεr appartengono a mp e sono linearmente indipendenti modulo m2p , usando il fatto (da dimostrare) che il prodotto di due funzioni di classe C k che si annullano in un punto `e di classe C k+1 nell’intorno di quel punto. Concludi usando l’analogo C k dell’Esercizio 2.60.]
Esercizio 2.64 (Usato nell’Esempio 2.3.25). Dimostra la formula (2.6). Esercizio 2.65. Sia A ∈ Mn,n (R) una matrice quadrata. Dimostra che ponendo σ(t) = exp(tA) (vedi l’Esercizio 2.113) otteniamo una curva σ: R → GL(n, R), e calcola σ (0) ∈ Mn,n (R). DIFFERENZIALE Esercizio 2.66. Sia F : M → N un’applicazione differenziabile fra variet` a, e p ∈ M . Dimostra che Fp∗ (mF (p) ) ⊆ mp , e che se identifichiamo Tp M e TF (p) N con i duali di mp /m2p e mF (p) /m2F (p) rispettivamente (vedi l’Esercizio 2.60), allora il differenziale dFp `e identificato all’applicazione duale dell’applicazione da mF (p) /m2F (p) a mp /m2p indotta da Fp∗ .
Esercizi
123
Esercizio 2.67 (Utile per l’Esercizio 2.119). Siano M1 , . . . , Mr variet` a, e per j = 1, . . . , r indichiamo con πj : M1 ×· · ·×Mr → Mj la proiezione sulla j-esima coordinata. Scegliamo p1 ∈ M1 , . . . , pr ∈ Mr . Dimostra che l’applicazione β: T(p1 ,...,pr ) (M1 × · · · × Mr ) → Tp1 M1 ⊕ · · · ⊕ Tpr Mr data da β(X) = d(π1 )(p1 ,...,pr ) (X), . . . , d(πr )(p1 ,...,pr ) (X) `e un isomorfismo. Esercizio 2.68. Dimostra che il differenziale d(det)X : Mn,n (R) → R del determinante det: GL(n, R) → R `e dato da d(det)X (B) = (det X)tr(X −1 B) per ogni X ∈ GL(n, R) e B ∈ Mn,n (R), dove tr(A) `e la traccia della matrice A. Esercizio 2.69. Sia F : M → N un’applicazione differenziabile. Dimostra che F `e un diffeomorfismo locale se e solo se dFp : Tp M → TF (p) N `e un isomorfismo per ogni p ∈ M . Esercizio 2.70 (Usato nell’Esempio 2.4.24). Sia M una variet` a connessa, e F : M → N un’applicazione differenziabile tale che dFp `e identicamente nulla per ogni p ∈ M . Dimostra che F `e costante. Esercizio 2.71. Consideriamo S 3 ⊂ C2 come nell’Esercizio 2.34.(iii). Fissato z = (z 1 , z 2 ) ∈ S 3 , sia σz : R → S 3 data da σz (t) = (eit z 1 , eit z 2 ). Dimostra che σz `e una curva differenziabile, e calcola σz (t) per ogni t ∈ R. IMMERSIONI, EMBEDDING E SOMMERSIONI Esercizio 2.72. Dimostra che la composizione di due immersioni (embedding, sommersioni) `e ancora un’immersione (rispettivamente, embedding, sommersione). Esercizio 2.73. Sia F : R2 → R3 data da F (φ, θ) = (2 + cos φ) cos θ, (2 + cos φ) sin θ, sin φ . Dimostra che F `e un’immersione che induce un embedding del toro T2 in R3 . Esercizio 2.74. Consideriamo il toro T2 = S 1 × S 1 come sottoinsieme di C2 , Fissato α ∈ R, sia σα : R → T2 data da σα (t) = (e2πit , e2πiαt ). Dimostra che: (i) se α ∈ / Q allora σα `e un’immersione iniettiva con immagine densa in T2 , e quindi non un embedding (vedi anche l’Esempio 3.6.9); (ii) se α ∈ Q allora σα induce un embedding di S 1 in T2 . Esercizio 2.75 (Usato nei Teoremi 2.6.15 e 2.8.13). Sia F : M → N un’immersione iniettiva. Dimostra che se F `e propria allora `e un embedding.
124
2 Variet` a
Esercizio 2.76 (Usato nell’Osservazione 2.4.9). Sia F : M → N un’immersione, e {(Uα , ϕα )} un atlante di M tale che F |Uα sia un omeomorfismo con l’immagine per ogni α. (i) Se F `e iniettiva, dimostra che { F (Uα ), ϕα ◦F |−1 e un atlante per F (M ). Uα } ` (ii) Se F non `e iniettiva, `e ancora vero che { F (Uα ), ϕα ◦ F |−1 e un atlante Uα } ` per F (M )? Esercizio 2.77 (Citato nella Sezione 2.4). Sia F : M → N un’immersione iniettiva con dim M = dim N . Dimostra che F `e un embedding. Esercizio 2.78 (Usato nel Teorema 2.6.15 e utile per l’Esercizio 2.101). Sia F : M → N un’applicazione differenziabile di rango costante. Dimostra che se F `e iniettiva allora `e un’immersione. Esercizio 2.79 (Usato nell’Osservazione 2.4.14). Sia F : M → N un’applicazione differenziabile, e p ∈ M . Dimostra che dFp : Tp M → TF (p) N `e iniettivo se ∞ ∞ F (p) → CM (p) `e surgettiva. Deduci che se ι: M → N `e e solo se Fp∗ : CN ∞ una sottovariet` a di una variet` a N , e p ∈ M , per ogni germe g ∈ CM (p) esiste ∞ ˜ |M = g, dove g ˜ |M `e un’altra notazione per ι∗p g ˜=g ˜ ◦ ι. ˜ ∈ CN (p) tale che g g Esercizio 2.80. Sia F : M → N un embedding di una m-variet` a M in una nvariet` a N . Dimostra che per ogni p ∈ M esistono un intorno aperto U ⊆ M di p, un intorno aperto V ⊆ N di F (p), e due sommersioni G: V → M e H: V → Rn−m tali che G ◦ F |U = idU e F (U ) = V ∩ F (M ) = H −1 (O). Esercizio 2.81 (Usato nella Proposizione 3.9.12). Sia π: M → N una sommersione. Dimostra che: (i) ogni punto di M `e nell’immagine di una sezione locale (vedi la Definizione 2.E.3) differenziabile di π; (ii) π `e un’applicazione aperta. Esercizio 2.82. Sia F : M → N un’applicazione differenziabile, con M connessa. Dimostra che F ha rango costante se e solo se per ogni p ∈ M esistono carte (U, ϕ) in p e (V, ψ) in F (p) tali che ψ ◦ F ◦ ϕ−1 sia lineare. Esercizio 2.83 (Usato nel Teorema 2.6.15, nella Proposizione 3.8.2 e nel Teorema 3.9.14). Sia π: M → N una sommersione surgettiva. Dimostra che: (i) un’applicazione F : N → S, dove S `e un’altra variet` a, `e differenziabile se e solo se F ◦ π lo `e; (ii) se F : M → S `e differenziabile e costante sulle fibre (vedi la Definizione 2.E.3) di π allora esiste un’unica applicazione differenziabile F˜ : N → S tale che F˜ ◦ π = F ; ˜ `e un’altra sommersione surgettiva tale che π `e costan(iii) se π ˜: M → N te sulle fibre di π ˜ e π ˜ `e costante sulle fibre di π allora esiste un unico ˜ tale che π diffeomorfismo F : N → N ˜ = F ◦ π.
Esercizi
125
Esercizio 2.84. Sia F : S 2 → R4 data da F (x, y, z) = (x2 − y2 , xy, xz, yz). Dimostra che F induce un embedding di P2 (R) in R4 . [Suggerimento: usa l’Esempio 2.2.18.]
Esercizio 2.85. Dimostra che non esiste alcuna sommersione da una variet`a compatta a Rn con n > 0. Esercizio 2.86 (Usato nell’Osservazione 2.8.14). Dimostra che non esiste nessuna immersione di S 1 in R. ` SOTTOVARIETA Esercizio 2.87. Sia S ⊆ M un sottoinsieme di una variet` a M . Dimostra che su S esiste al pi` u una struttura di variet` a differenziabile che lo renda una sottovariet`a di M . Esercizio 2.88 (Usato nell’Osservazione 2.4.13). Sia F : S → M un embedding. Dimostra che F (S) `e una sottovariet` a di M . Trova un esempio di immersione iniettiva G: S → M tale che G(S) non sia una sottovariet` a di M . Esercizio 2.89 (Usato nell’Osservazione 2.1.29). Sia S una sottovariet` a kdimensionale di una variet`a M . Sia V un aperto di Rk , e ψ: V → M un’applicazione differenziabile iniettiva di rango costante k tale che ψ(V ) ⊂ S. Dimostra che ψ(V ), ψ−1 `e una carta di S. Esercizio 2.90. Sia S ⊆ M un sottoinsieme di una variet` a M tale che per ogni p ∈ S esista un intorno U di p in M per cui S ∩ U sia una sottovariet` a k-dimensionale di M . Dimostra che allora S `e una sottovariet`a k-dimensionale di M . Esercizio 2.91 (Citato nell’Esempio 2.2.12). Sia ι: S → M una sottovariet` a. (i) Se S `e chiusa (come sottospazio topologico di M ), dimostra che per ogni f ∈ C ∞ (S) e ogni intorno aperto U di S in M esiste una f˜ ∈ C ∞ (U ) tale che f˜|S ≡ f . (ii) Trova un esempio di una sottovariet` a S non chiusa nella variet` a ambiente M per cui esista un intorno aperto di S in M e una f ∈ C ∞ (S) che non `e restrizione di alcuna funzione f˜ ∈ C ∞ (U ). Esercizio 2.92 (Citato nell’Osservazione 2.4.21). Sia ι: S → M una sottovariet` a di una variet` a M , e p ∈ S. Dimostra che v ∈ Tp M appartiene all’im∞ (p) tale che magine di Tp S tramite dιp se e solo se v(f ) = 0 per ogni f ∈ CM f |S ≡ 0. Esercizio 2.93 (Usato nella Proposizione 2.4.23). Sia F : M → N un’applicazione differenziabile fra variet` a, con dim M = n + k ≥ n = dim N . Dimostra che per ogni a ∈ F (M ) l’insieme Ma = F −1 (a) \ Crit(F ) `e una sottovariet` a k-dimensionale di M .
126
2 Variet` a
Definizione 2.E.4. Due sottovariet` a S1 , S2 ⊂ M di una variet` a M sono trasverse se Tp M = Tp S1 + Tp S2 per ogni p ∈ S1 ∩ S2 , dove la somma non `e necessariamente diretta. Pi` u in generale, se F : M → N `e un’applicazione differenziabile fra variet` a, e S ⊂ N `e una sottovariet` a, diremo che F `e trasversa a S se per ogni p ∈ F −1 (S) si ha TF (p) N = dFp (Tp M ) + TF (p) S. Esercizio 2.94 (Citato nella Sezione 2.4, usato nel Lemma 3.9.5, e utile per gli Esercizi 3.1 e 3.74). Dimostra che se F : M → N `e un’applicazione differenziabile trasversa a una sottovariet`a S ⊂ N allora F −1 (S) `e una sottovariet` a di M di codimensione uguale alla codimensione di S in N . Esercizio 2.95. Dimostra che se S1 ed S2 sono sottovariet`a trasverse di una variet` a M allora S1 ∩ S2 `e una sottovariet` a di M di dimensione dim(S1 ∩ S2 ) = dim S1 + dim S2 − dim M . Trova un esempio di due sottovariet`a S1 , S2 ⊂ M non trasverse tali che S1 ∩S2 non sia una sottovariet`a di M . Esercizio 2.96. Sia F : M → N un’applicazione differenziabile di rango costante k ≥ 0. Dimostra che ogni insieme di livello F −1 (c) `e una sottovariet`a chiusa di codimensione k di M . Esercizio 2.97. Dimostra che un sottoinsieme S ⊆ M di una variet` a M `e una sottovariet`a di codimensione k ≥ 0 se e solo se ogni p ∈ S ha un intorno U ⊆ M tale che U ∩ S `e un insieme di livello di una sommersione F : U → Rk . Esercizio 2.98 (Usato nel Teorema 2.8.11). Sia Mm,n (R) lo spazio vettoriale delle matrici m × n a coefficienti reali. Dimostra che se 0 ≤ k ≤ min{m, n} k (R) delle matrici m × n di rango k `e una sottovariet` a allora l’insieme Mm,n di Mm,n (R) di codimensione (m − k)(n − k). Esercizio 2.99 (Utile per l’Esercizio 2.116). Sia F : M → N un’applicazione differenziabile fra variet` a. (i) Se S ⊆ M `e una sottovariet` a, dimostra che F |S : S → N `e ancora differenziabile. (ii) Se S ⊆ N `e una sottovariet` a tale che F (M ) ⊆ S, dimostra che F : M → S `e ancora differenziabile. Esercizio 2.100 (Utile per l’Esercizio 2.101 e citato nella Sezione 3.7). Sia F : M → N un’applicazione differenziabile fra variet` a. (i) Se S ⊆ M `e una sottovariet` a immersa, dimostra che F |S : S → N `e ancora differenziabile. (ii) Se S ⊆ N `e una sottovariet` a immersa tale che F (M ) ⊆ S, dimostra che F : M → S `e differenziabile se e solo se `e continua (rispetto alla topologia di variet` a di S).
Esercizi
127
(iii) Trova un esempio di un’applicazione differenziabile F : M → N e di una sottovariet`a immersa S ⊆ N tali che F (M ) ⊆ S ma F : M → S non `e differenziabile. Esercizio 2.101. Sia S ⊆ M un sottoinsieme di una variet` a M. (i) Dimostra che per ogni topologia su S esiste al pi` u una struttura di variet` a differenziabile su S che induce la topologia data su S e la rende una sottovariet`a immersa di M . (ii) Trova un esempio in cui S ammette pi` u di una topologia e struttura differenziabile che lo rendono una sottovariet`a immersa di M . [Suggerimento: usa gli Esercizi 2.100 e 2.78.]
Esercizio 2.102. Dimostra che una sottovariet`a `e chiusa se e solo se l’inclusione nella variet` a ambiente `e un’applicazione propria. Esercizio 2.103. Sia F : R4 → R2 data da F (x, y, z, w) = (x2 + y, x2 + y 2 + z 2 + w 2 + y) . Dimostra che (0, 1) ∈ R2 `e un valore regolare di F , e che F −1 (0, 1) `e diffeomorfo a S 2 . Esercizio 2.104. Trova quali insiemi di livello dell’applicazione F : R2 → R data da F (x, y) = x3 + xy + y 3 sono sottovariet`a di R2 . Esercizio 2.105. Dimostra che il bordo di un quadrato in R2 non `e una sottovariet`a immersa di R2 . Esercizio 2.106. Dato c ∈ R, sia Mc ⊂ R2 definito da Mc = {(x, y) ∈ R2 | y 2 = x(x − 1)(x − c)} . Determina per quali valori di c l’insieme Mc `e una sottovariet` a di R2 , e per quali valori `e una sottovariet`a immersa. Esercizio 2.107. Sia S ⊂ M l’insieme di livello a un valore regolare per un’applicazione differenziabile F : M → Rk . Data f ∈ C ∞ (M ), sia p ∈ S un punto di massimo o di minimo di f |S . Dimostra che esistono dei numeri reali λ1 , . . . , λk ∈ R (detti moltiplicatori di Lagrange) tali che dfp = λ1 d(F 1 )p + · · · + λk d(F k )p . Esercizio 2.108 (Utile per l’Esercizio 2.116). (i) Sia S1 una sottovariet` a di una variet` a M1 , e S2 una sottovariet` a di una variet` a M2 . Dimostra che S1 × S2 `e una sottovariet`a di M1 × M2 . (ii) Sia S una sottovariet` a di una variet` a M , che a sua volta `e una sottovariet`a di una variet` a N . Dimostra che S `e una sottovariet`a di N .
128
2 Variet` a
Esercizio 2.109 (Citato nell’Osservazione 5.4.6). Sia ρ: M → M una retrazione liscia, cio`e un’applicazione differenziabile di una variet` a M in s´e tale che ρ ◦ ρ = ρ. Dimostra che l’immagine di ρ `e una sottovariet`a chiusa di M . [Sug-
gerimento: osserva che basta dimostrarlo localmente, per cui si pu` o supporre che M sia un aperto di Rn . Preso p0 ∈ Im ρ, sia ϕ = idM +(2dρp0 − idM ) ◦ (ρ − dρp0 ); dimostra che ϕ `e una carta locale in p0 , che ϕ ◦ ρ = dρp0 ◦ ϕ, e deduci la tesi.]
GRUPPI DI LIE Esercizio 2.110. Sia G un gruppo fornito di una struttura di variet` a differenziabile tale che l’applicazione μ: G × G → G data da μ(g, h) = gh−1 sia di classe C ∞ . Dimostra che G `e un gruppo di Lie. Esercizio 2.111 (Usato nell’Esempio 2.5.4). Dimostra che S 1 , inteso come l’insieme dei numeri complessi di modulo unitario, e considerato col prodotto di numeri complessi, `e un gruppo di Lie. Esercizio 2.112 (Usato nell’Esempio 2.5.4). Dimostra che se G1 , . . . , Gr sono gruppi di Lie, allora il prodotto cartesiano G1 × · · · × Gr considerato col prodotto componente per componente `e un gruppo di Lie. Esercizio 2.113 (Utile per l’Esercizio 2.65). Sia exp: Mn,n (R) → GL(n, R) l’applicazione esponenziale definita da exp(A) =
∞ 1 k A , k! k=0
dove Ak `e il prodotto di A per se stessa k volte. Dimostra che AB = BA implica exp(A + B) = exp(A) exp(B) . Trova due matrici A, B ∈ GL(n, R) tali che exp(A + B) = exp(A) exp(B). Esercizio 2.114. La componente identica G0 di un gruppo di Lie G `e la componente connessa di G contenente l’identit` a. Dimostra che G0 `e un sottogruppo, che `e l’unico sottogruppo aperto connesso di G, e che ogni altra componente connessa di G `e diffeomorfa a G0 . Esercizio 2.115 (Utile per l’Esercizio 3.43). Sia G un gruppo di Lie connesso, ˜ → G il suo rivestimento universale, dove su G ˜ mettiamo la struttura di e π: G gruppo di Lie definita nella Proposizione 2.5.13. Supponi che esista un altro gruppo di Lie semplicemente connesso G che ammetta un rivestimento liscio π : G → G che sia anche un omomorfismo di gruppi di Lie. Dimostra che ˜ → G tale che π ◦ Ψ = π. esiste un isomorfismo di gruppi di Lie Ψ : G Esercizio 2.116 (Usato nell’Osservazione 2.5.15). Dimostra che un sottogruppo di Lie regolare `e a sua volta un gruppo di Lie. [Suggerimento: usa gli Esercizi 2.108 e 2.99.]
Esercizi
129
Esercizio 2.117 (Citato nell’Esempio 2.5.16). Dimostra che SO(n) `e un sottogruppo di Lie di O(n) e di GL(n, R). Esercizio 2.118 (Citato nell’Esempio 2.5.16). Dimostra che SL(n, C), U (n) e SU (n) sono sottogruppi di Lie di GL(n, C), e calcolane la dimensione. Esercizio 2.119 (Usato nel Teorema 3.6.8). Sia G un gruppo di Lie di elemento neutro e ∈ G. (i) Sia m: G × G → G il prodotto. Identificando T(e,e) (G × G) con Te G ⊕ Te G come nell’Esercizio 2.67, dimostra che dm(e,e) : Te G ⊕ Te G → Te G `e data da dm(e,e) (X, Y ) = X + Y . [Suggerimento: calcola prima dm(e,e) (X, O) e dm(e,e) (O, Y ) usando la Proposizione 2.3.27.]
(ii) Sia i: G → G l’inverso. Dimostra che die (X) = −X. AZIONI DI GRUPPI DI LIE Esercizio 2.120. Sia Γ un gruppo di Lie discreto (Esempio 2.5.6), M una variet` a, e θ: Γ × M → M un’applicazione. Dimostra che θ `e un’azione se e solo se valgono le (2.11) e ciascuna θg : M → M `e di classe C ∞ . Esercizio 2.121 (Citato nell’Esempio 3.9.16). Sia ρ: G → GL(V ) una rappresentazione di un gruppo di Lie. Dimostra che ρ `e differenziabile. Esercizio 2.122. Dimostra che ogni orbita dell’azione di un gruppo di Lie su una variet` a M `e una sottovariet`a immersa di M . Esercizio 2.123. Dimostra che se G `e un gruppo di Lie che agisce liberamente su una variet` a M in modo che lo spazio delle orbite M/G abbia una struttura di variet` a rispetto alla quale la proiezione π: M → M/G `e una sommersione allora l’azione `e propria. Esercizio 2.124 (Usato nel Teorema 2.6.15 e utile per l’Esercizio 2.133). Sia θ: G × M → M un’azione di un gruppo di Lie su una variet` a M . Dimostra che le seguenti affermazioni sono equivalenti: (i) l’azione `e propria; (ii) per ogni compatto K ⊆ M l’insieme GK = {g ∈ G | θg (K) ∩ K = ∅} `e compatto; (iii) ogni successione {gk } ⊂ G, con la propriet` a che esiste una successione convergente {pk } ⊂ M tale che la successione {gk ·pk } converge, ammette una sottosuccessione convergente. Esercizio 2.125. Sia θ: Γ × M → M un’azione di un gruppo di Lie discreto su una variet` a M . Dimostra che le seguenti affermazioni sono equivalenti: (i) l’azione `e propria; (ii) per ogni coppia di punti p, q ∈ M esistono U intorno di p e V intorno di q tali che l’insieme {g ∈ Γ | θg (U ) ∩ V = ∅} sia finito;
130
2 Variet` a
(iii) valgono entrambe le condizioni seguenti (che vengono riassunte dicendo che Γ agisce in modo propriamente discontinuo): 1.ogni p ∈ M ha un intorno U tale che l’insieme {g ∈ Γ | θg (U )∩U = ∅} `e finito; 2.se p e q non appartengono alla stessa orbita allora esistono un intorno U di p e un intorno V di q tali che θg (U ) ∩ V = ∅ per tutti i g ∈ Γ . ˜ → M un rivestimento liscio di una variet` Definizione 2.E.5. Sia π: M a M. ˜ →M ˜ tale che Un automorfismo del rivestimento `e un diffeomorfismo F : M π ◦ F = π. Il gruppo degli automorfismi del rivestimento π sar`a indicato ˜ → M chiacon Aut(π). Il gruppo degli automorfismi di un rivestimento π: M ramente agisce su ciascuna fibra di π. Diremo che il rivestimento `e normale se Aut(π) agisce transitivamente sulle fibre di π. ˜ → M un rivestimento liscio di una variet` Esercizio 2.126. Sia π: M a M, e ˜ ˜ F : M → M un’applicazione continua tale che π ◦ F = π. Dimostra che F `e necessariamente differenziabile, e quindi `e un automorfismo del rivestimento. ˜ → M un rivestimento liscio. Dimostra che Aut(π), Esercizio 2.127. Sia π: M ˜, considerato con la topologia discreta, agisce liberamente e propriamente su M ˜ e che se π `e normale allora M `e diffeomorfo a M / Aut(π). Esercizio 2.128 (Usato nella Proposizione 3.8.2). Sia Γ un gruppo discreto ˜ . Dimostra che esiste che agisce propriamente e liberamente su una variet`a M ˜ ˜ →M ˜ /Γ un’unica struttura di variet` a su M /Γ che renda la proiezione π: M un rivestimento liscio normale. Esercizio 2.129 (Usato nella Proposizione 3.8.2). Dimostra che l’azione per traslazione sinistra di un sottogruppo discreto Γ di un gruppo di Lie G `e libera e propria, per cui G/Γ `e una variet` a.
APPLICAZIONI EQUIVARIANTI E SPAZI OMOGENEI Definizione 2.E.6. Siano M ed N due G-spazi. Un’applicazione F : M → N `e equivariante se F (g · p) = g · F (p) per ogni g ∈ G e p ∈ M . Esercizio 2.130 (Usato nel Teorema 2.6.15 e utile per l’Esercizio 2.131). Siano M ed N due G-spazi, e supponiamo che l’azione su M sia transitiva. Dimostra che ogni applicazione differenziabile F : M → N equivariante ha necessariamente rango costante. Esercizio 2.131 (Usato nella Proposizione 3.8.2). Sia F : G → H un omomorfismo di gruppi di Lie. Dimostra che F ha rango costante, e che Ker F `e un sottogruppo di Lie regolare di G, di codimensione uguale al rango di F . [Suggerimento: definisci un’opportuna azione di G su H per cui F sia equivariante, e applica l’Esercizio 2.130.]
Esercizi
131
Esercizio 2.132. Sia M un G-spazio. Dimostra che per ogni p ∈ M il sottogruppo di isotropia Gp `e un sottogruppo di Lie regolare di G. [Suggerimento: dimostra che l’applicazione g → g · p ha rango costante.]
Esercizio 2.133 (Utile per l’Esercizio 3.76). Sia H un sottogruppo di Lie regolare (e quindi chiuso, come dimostreremo nel Teorema 3.6.8) di un gruppo di Lie G. Dimostra che lo spazio G/H dei laterali sinistri di H in G ha un’unica struttura di variet` a che renda la proiezione naturale π: G → G/H una sommersione. Dimostra inoltre che l’azione di G su G/H data da g1 ·(g2 H) = (g1 g2 )H `e (effettivamente un’azione ed `e) transitiva. [Suggerimento: usa l’Esercizio 2.124 per dimostrare che l’azione `e propria.]
Esercizio 2.134. Sia M uno G-spazio omogeneo, e p ∈ M . Dimostra che l’applicazione F : G/Gp → M data da F (gGp ) = g · p `e un diffeomorfismo equivariante. Esercizio 2.135 (Citato nell’Esempio 2.1.34). (i) Sia X un insieme su cui agisce transitivamente un gruppo di Lie G in modo che il sottogruppo di isotropia di ciascun p ∈ X sia un sottogruppo di Lie regolare di G. Dimostra che X ammette un’unica struttura differenziabile rispetto a cui la data azione `e differenziabile. (ii) Fissato 1 ≤ k ≤ n, dimostra che GL(n, R) agisce transitivamente sulla Grassmanniana Gk (Rn ), e deduci che Gk (Rn ) ha una naturale struttura di variet` a differenziabile. (iii) Dimostra che la struttura di variet` a differenziabile di Gk (Rn ) appena definita coincide con quella introdotta nell’Esempio 2.1.34. Esercizio 2.136 (Citato nell’Esempio 2.1.34). Sia V uno spazio vettoriale di dimensione finita. Costruisci la struttura di variet` a su Gk (V ) usando le applicazioni di Pl¨ ucker introdotte nell’Esercizio 1.92. Esercizio 2.137. Identificando S 2n+1 con la sfera unitaria in Cn+1 , definiamo un’azione di S 1 su S 2n+1 ponendo z · (w 1 , . . . , w n+1 ) = (zw1 , . . . , zwn+1 ). Dimostra che questa azione `e libera e propria, e che lo spazio delle orbite S 2n+1 /S 1 `e diffeomorfo a Pn (C). La proiezione π: S 2n+1 → Pn (C) `e chiamata applicazione di Hopf. ` PARTIZIONI DELL’UNITA Esercizio 2.138. Siano C0 , C1 ⊂ M due chiusi disgiunti di una variet` a M. Dimostra che esiste una funzione f ∈ C ∞ (M ) tale che f |C0 ≡ 0 e f |C1 ≡ 1. Esercizio 2.139. Sia U un ricoprimento aperto di uno spazio topologico X, e assumi che ogni aperto di U intersechi solo un numero finito di aperti di U. Dimostra che U `e localmente finito.
132
2 Variet` a
Esercizio 2.140 (Usato nel Lemma 5.6.5). Sia U un ricoprimento aperto localmente finito di uno spazio topologico di Hausdorff X. Dimostra che ogni compatto di X interseca solo un numero finito di elementi di U. Esercizio 2.141. Sia M una variet` a topologica di Hausdorff. Dimostra che M `e a base numerabile se e solo se `e paracompatta e ha una quantit` a al pi` u numerabile di componenti connesse. Esercizio 2.142. Sia X uno spazio topologico. Dimostra che X `e paracompatto se e solo se a ogni suo ricoprimento aperto si pu`o subordinare una partizione dell’unit` a (formata da funzioni continue). Esercizio 2.143. Sia X uno spazio topologico di Hausdorff localmente compatto connesso. Dimostra che X `e paracompatto se e solo se `e unione numerabile di compatti. Esercizio 2.144. Trova una variet` a M , un sottoinsieme A ⊂ M e una funzione f ∈ C ∞ (A) che non pu` o essere estesa a una funzione differenziabile definita su tutto M . Esercizio 2.145. Sia C ⊆ M un sottoinsieme chiuso di una variet`a M , e ψ: M → R+ una funzione continua sempre positiva. ˜ M → R tale che (i) Dimostra che esiste una funzione differenziabile ψ: ˜ 0 < ψ(p) < ψ(p) per ogni p ∈ M . (ii) Dimostra che esiste una funzione continua φ: M → R che sia differenziabile e positiva su M \ C, identicamente nulla su C, e soddisfi φ(p) < ψ(p) per ogni p ∈ M . Esercizio 2.146. Dimostra che intervalli aperti e semirette aperte in R sono diffeomorfi a tutto R. Esercizio 2.147 (Citato nell’Osservazione 5.4.2). Dato ε > 0 costruisci un diffeomorfismo ψ: (−ε, 1 + ε) → R che sia l’identit` a su [0, 1]. Esercizio 2.148 (Usato nell’Esempio 5.8.4). Sia U = I × R ⊆ R2 , dove I ⊆ R `e un intervallo o una semiretta aperta, e p ∈ U . Dimostra che U \ {p} `e diffeomorfo a R2 \ {(0, 0)}. INSIEMI DI MISURA ZERO Esercizio 2.149 (Usato nell’Osservazione 2.8.3). Dimostra che un unione numerabile di insiemi di misura zero in una variet` a ha ancora misura zero. Esercizio 2.150. Sia F : M → N un’applicazione differenziabile di rango costante. Dimostra che: (i) se F `e surgettiva, allora `e una sommersione; (ii) se F `e bigettiva, allora `e un diffeomorfismo. [Suggerimento: usando il teorema del rango, dimostra che se F non `e una sommersione allora F (M ) ha misura zero in N .]
3 Fibrati
Nel capitolo precedente abbiamo visto che a ogni punto di una variet` a possiamo associare uno spazio vettoriale della stessa dimensione della variet`a, lo spazio tangente. Uno dei fatti che confermano l’adattabilit` a della definizione di variet`a differenziabile `e che l’unione disgiunta degli spazi tangenti (detta fibrato tangente alla variet` a) ha a sua volta una struttura naturale di variet` a, di dimensione pari al doppio di quella della variet` a di partenza. Il fibrato tangente `e giusto il primo esempio di una classe molto importante di variet` a, i fibrati vettoriali, che possono essere a grandi linee descritti come unione disgiunta di spazi vettoriali associati in modo differenziabile ai punti di una variet` a base. Questo capitolo inizia con la definizione formale e numerosi esempi di fibrati vettoriali, per poi studiare le sezioni dei fibrati vettoriali, cio`e le applicazioni differenziabili che associano a ciascun punto della variet`a base un vettore nel corrispondente spazio vettoriale. Le sezioni del fibrato tangente sono i campi vettoriali. Dare un campo vettoriale `e come assegnare in maniera differenziabile un vettore velocit`a a ciascun punto della variet` a base; un punto sulla variet` a che si muove seguendo queste velocit`a percorre una curva detta curva integrale del campo vettoriale. Seguendo le curve integrali per un tempo prefissato si ottiene un’applicazione differenziabile da un aperto della variet` a a valori nella variet` a stessa, detta flusso del campo vettoriale; questa applicazione `e uno strumento fondamentale per lo studio della geometria differenziale. Come prima applicazione di questi concetti torneremo a studiare pi` u in dettaglio i gruppi di Lie. Cruciale sar` a la nozione di campi vettoriali invarianti a sinistra, cio`e mandati in loro stessi dal differenziale delle traslazioni a sinistra del gruppo. Prima di tutto mostreremo come usando campi vettoriali invarianti a sinistra sia possibile definire una nuova struttura, detta di algebra di Lie, sullo spazio tangente all’elemento neutro di un gruppo di Lie. L’algebra di Lie di un gruppo di Lie riassume tutte le propriet` a cruciali del gruppo; lo strumento che ci permetter` a di passare dall’una all’altro sar` a l’applicazione esponenziale, che associa a ciascun elemento dell’algebra di Lie un sottogruppo a un parametro (che risulta essere una curva integrale di un Abate M., Tovena F.: Geometria Differenziale. DOI 10.1007/978-88-470-1920-1_3 c Springer-Verlag Italia 2011
134
3 Fibrati
campo vettoriale invariante a sinistra). Per esempio, con queste tecniche dimostreremo che i sottogruppi di Lie regolari sono tutti e soli i sottogruppi algebrici chiusi; che c’`e una corrispondenza biunivoca fra sottogruppi di Lie connessi e sottoalgebre di Lie; e che due gruppi di Lie semplicemente connessi sono isomorfi se e solo se hanno algebre di Lie isomorfe. Per dimostrare questi ultimi risultati ci servir` a una profonda generalizzazione del teorema di esistenza delle soluzioni dei sistemi di equazioni differenziali ordinarie: il teorema di Frobenius, che dice quando una distribuzione di sottospazi di dimensione costante degli spazi tangenti ammette delle variet` a integrali (cio`e tangenti in ogni punto alla distribuzione). Il teorema di Frobenius ha una versione locale e una globale; per enunciare quest’ultima introdurremo anche il concetto di foliazione. Infine, i fibrati vettoriali sono un caso particolare della nozione pi` u generale di fibrato, che introdurremo nell’ultima sezione, dove definiremo anche un altro tipo di fibrati strettamente legati ai fibrati vettoriali, i fibrati principali.
3.1 Fibrati vettoriali Uno dei motivi per cui la struttura di variet` a `e cos`ı utile `e che l’unione disgiunta degli spazi tangenti a una variet` a ha a sua volta una struttura naturale di variet` a. Si tratta del primo esempio di una categoria di oggetti estremamente importanti, i fibrati vettoriali. Definizione 3.1.1. Un fibrato vettoriale di rango r su una variet` a M `e un’applicazione differenziabile surgettiva π: E → M fra una variet` a E (detta spazio totale del fibrato) e la variet` a M (detta base del fibrato) che soddisfa le seguenti propriet` a: (i) per ogni p ∈ M l’insieme Ep = π −1 (p), detto fibra di E sopra p, `e dotato di una struttura di spazio vettoriale su R di dimensione r (e indicheremo con Op il vettore nullo di Ep ); (ii) per ogni p ∈ M esiste un intorno U di p in M e un diffeomorfismo χ: π −1 (U ) → U ×Rr , detto banalizzazione locale di E, tale che π1 ◦χ = π, cio`e tale che il diagramma / U × Rr s s sss π s s π s 1 s y ss U
π −1 (U )
χ
commuti (dove abbiamo indicato con π1 : U × Rr → U la proiezione sulla prima coordinata), e tale che la restrizione di χ a ciascuna fibra sia un isomorfismo fra gli spazi vettoriali Ep e {p} × Rr .
3.1 Fibrati vettoriali
135
I fibrati vettoriali di rango 1 sono chiamati fibrati in rette. Quando non c’`e rischio di confondersi useremo lo spazio totale E per indicare un fibrato vettoriale π: E → M , sottintendendo la proiezione π. Infine, partendo da spazi vettoriali su C invece che da spazi vettoriali su R si ottiene la nozione di fibrato vettoriale complesso. In altre parole, un fibrato vettoriale `e un modo differenziabile di associare uno spazio vettoriale a ciascun punto di una variet` a. Esempio 3.1.2. Se M `e una variet` a, allora E = M × Rr , considerato con la r proiezione π: M × R → M sulla prima coordinata, `e un fibrato vettoriale di rango r, detto fibrato banale. Esempio 3.1.3. Sia π: E → M un fibrato vettoriale su M di rango r, e U ⊂ M un aperto. Allora πU : EU → U , dove EU = π −1 (U ) e πU = π|π−1 (U ) , `e un fibrato vettoriale di rango r su U , detto restrizione di E a U . Introduciamo subito anche le applicazioni fra fibrati vettoriali che utilizzeremo: Definizione 3.1.4. Siano π1 : E1 → M1 e π2 : E2 → M2 due fibrati vettoriali. Un morfismo fra i due fibrati `e una coppia di applicazioni differenziabili L: E1 → E2 e F : M1 → M2 tali che: (a) π2 ◦ L = F ◦ π1 , cio`e il diagramma E1
L
/ E2
F
/ M2
π1
M1
π2
commuta (per cui L (E1 )p ⊆ (E2 )F (p) per ogni p ∈ M1 , e quindi L manda fibre in fibre), e (b) L|(E1 )p : (E1 )p → (E2 )F (p) `e lineare per ogni p ∈ M . Un morfismo invertibile (cio`e tale che sia L che F siano diffeomorfismi) `e detto isomorfismo di fibrati vettoriali. A volte indicheremo un morfismo di fibrati scrivendo semplicemente L: E1 → E2 sottintendendo l’applicazione F . Quando M1 = M2 , cio`e se E1 ed E2 sono fibrati sulla stessa base, a meno di avviso di contrario supporremo sempre che l’applicazione F sia l’identit` a, per cui L soddisfa π2 ◦ L = π1 . Spesso viene detto banale un qualsiasi fibrato vettoriale isomorfo al fibrato banale. In altre parole, un morfismo di fibrati `e un’applicazione che rispetta sia la struttura differenziabile che la struttura di fibrato vettoriale. Per cercare di capire quando una collezione di spazi vettoriali forma un fibrato vettoriale, introduciamo alcuni termini che ci saranno utili.
136
3 Fibrati
Definizione 3.1.5. Sia π: E → M un fibrato vettoriale. Diremo che una carta locale (U, ϕ) di M banalizza E se esiste una banalizzazione locale del fibrato definita su π −1 (U ). Un atlante A di M banalizza il fibrato E se ogni carta di A lo fa. In tal caso, a volte scriveremo A = {(Uα , ϕα , χα )}, dove χα `e la banalizzazione su Uα . Sia A = {(Uα , ϕα , χα )} un atlante che banalizza il fibrato vettoriar r le π: E → M . Le composizioni χα ◦ χ−1 β : (Uα ∩ Uβ ) × R → (Uα ∩ Uβ ) × R r devono indurre per ogni p ∈ Uα ∩ Uβ un isomorfismo di R che dipende in modo C ∞ da p; devono quindi esistere applicazioni differenziabili gαβ : Uα ∩ Uβ → GL(r, R) tali che (3.1) χα ◦ χ−1 β (p, v) = p, gαβ (p)v per ogni p ∈ Uα ∩ Uβ e v ∈ Rr . Definizione 3.1.6. Sia A = {(Uα , ϕα , χα )} un atlante che banalizza un fibrato vettoriale π: E → M . Le applicazioni gαβ : Uα ∩ Uβ → GL(r, R) definite da (3.1) sono dette funzioni di transizione per il fibrato E rispetto all’atlante A. Avere un atlante che banalizza non significa necessariamente essere un fibrato vettoriale; `e l’esistenza delle funzioni di transizione associate all’atlante ad assicurarci che una collezione di spazi vettoriali `e un fibrato vettoriale: Proposizione 3.1.7. Siano M una variet` a, E un insieme e π: E → M un’applicazione surgettiva. Supponiamo di avere un atlante A = {(Uα , ϕα )} di M e applicazioni bigettive χα : π −1 (Uα ) → Uα × Rr tali che: (a) π1 ◦ χα = π, dove π1 : U × Rr → U `e la proiezione sulla prima coordinata; (b) per ogni coppia (α, β) di indici tale che Uα ∩ Uβ = ∅ esiste un’applicazione differenziabile gαβ : Uα ∩ Uβ → GL(r, R) tale che la composizione r r χα ◦ χ−1 β : (Uα ∩ Uβ ) × R → (Uα ∩ Uβ ) × R sia della forma χα ◦ χ−1 β (p, v) = p, gαβ (p)v . Allora l’insieme E ammette un’unica struttura di fibrato vettoriale di rango r su M per cui le χα siano banalizzazioni locali. Dimostrazione. Poniamo Ep = π −1 (p) per ogni p ∈ M . Se p ∈ Uα , la restrizione di χα a Ep `e una bigezione (perch´e?) con {p} × Rr , e quindi possiamo usarla per definire una struttura di spazio vettoriale su Ep ponendo u1 + u2 = χ−1 α (p, v1 + v2 )
e
λu1 = χ−1 α (p, λv1 )
(3.2)
per ogni λ ∈ R, dove u1 , u2 ∈ Ep e χα (uj ) = (p, vj ) per opportuni v1 , v2 ∈ Rr . Dobbiamo verificare che la struttura di spazio vettoriale cos`ı definita non dipende dalla banalizzazione usata, cio`e che se p ∈ Uα ∩ Uβ allora u1 + u2 e λu1 definiti usando χα o definiti usando χβ sono gli stessi vettori. In effetti, scrivendo χβ (uj ) = (p, wj ) per opportuni w1 , w2 ∈ Rr , abbiamo
3.1 Fibrati vettoriali
137
(p, vj ) = χα ◦ χ−1 β (p, wj ) = p, gαβ (p)wj , cio`e vj = gαβ (p)wj , e quindi −1 −1 χ−1 α (p, v1 + v2 ) = χα p, gαβ (p)w1 + gαβ (p)w2 = χα p, gαβ (p)(w1 + w2 ) −1 −1 = χ−1 α ◦ (χα ◦ χβ )(p, w1 + w2 ) = χβ (p, w1 + w2 ) ,
per cui l’operazione di somma non dipende dalla banalizzazione usata per definirla. Analogamente si dimostra (controlla) che l’operazione di prodotto per uno scalare `e ben definita. ˜α = π −1 (Uα ) e χ Poniamo ora U ˜α = (ϕα , id) ◦ χα . Allora −1 −1 ˜−1 χ ˜α ◦ χ β = (ϕα ◦ ϕβ , gαβ ◦ ϕβ )
˜α , χ ˜α )} `e un atlante su E di dimensione n + r, `e di classe C ∞ , per cui A˜ = {(U che soddisfa (controlla!) tutte le propriet` a necessarie perch´e π: E → M sia un fibrato vettoriale. Viceversa, supponiamo di avere su E una struttura di fibrato vettoriale per cui le χα siano banalizzazioni locali. In tal caso, le χα devono indurre isomorfismi fra le fibre ed Rr , per cui la (3.2) dev’essere valida, e la struttura di spazio vettoriale su ciascuna fibra `e unica. Inoltre, le χ ˜α = (ϕα , id)◦χα sono chiaramente diffeomorfismi con aperti di Rn+r , dove n = dim M , e quindi la struttura differenziabile di E coincide con quella indotta dall’atlante A˜ definito
tramite le χ ˜α . In realt` a, per definire un fibrato vettoriale su una variet` a M `e sufficiente avere le funzioni di transizione (e l’atlante che banalizza viene da s´e), purch´e siano rispettate alcune richieste: Proposizione 3.1.8. (i) Siano {gαβ } le funzioni di transizione di un fibrato vettoriale π: E → M rispetto a un atlante A = {(Uα , ϕα , χα )} di M che banalizza E. Allora (3.3) gαα ≡ Ir su Uα ,
−1 gβα = gαβ
(3.4)
(inversa di matrici) su Uα ∩ Uβ = ∅, e gαβ · gβγ = gαγ
(3.5)
(prodotto di matrici) su Uα ∩ Uβ ∩ Uγ = ∅. (ii) Viceversa, supponiamo di avere un atlante A = {(Uα , ϕα )} su M , e funzioni gαβ : Uα ∩ Uβ → GL(r, R) che soddisfano (3.3)–(3.5). Allora esiste un unico (a meno di isomorfismi) fibrato vettoriale E su M che ha le gαβ come funzioni di transizione rispetto all’atlante A (e opportune banalizzazioni locali).
138
3 Fibrati
−1 −1 −1 Dimostrazione. (i) Segue subito da χα ◦ χ−1 e α = id, χβ ◦ χα = (χα ◦ χβ ) −1 −1 −1 χα ◦ χγ = (χα ◦ χβ ) ◦ (χβ ◦ χγ ). ˜ l’unione disgiunta degli insiemi Uα × Rr , e con (ii) Indichiamo con E ˜ ∼ il quoziente di E ˜ rispetto alla relazione d’equivalenza ∼ che idenE = E/ tifica (p, u) ∈ Uα × Rr con (q, v) ∈ Uβ × Rr se e solo se p = q ∈ Uα ∩ Uβ e u = gαβ (p)v; nota che sono le (3.3)–(3.5) ad assicurare che ∼ `e una relazione d’equivalenza. Per costruzione, le proiezioni sulla prima coordinata definiscono un’applicazione surgettiva π: E → M tale che π −1 (Uα ) = (Uα × Rr )/ ∼. Siccome elementi diversi di Uα ×Rr non sono ∼-equivalenti, possiamo definire una bigezione naturale χα : π −1 (Uα ) → Uα ×Rr associando a ciascuna classe in π −1 (Uα ) l’unico rappresentante in Uα × Rr . Ora, se p ∈ Uα ∩ Uβ ev ∈ Rr , l’unico ele mento di Uα × Rr che `e equivalente a (p, v) ∈ Uβ × Rr `e p, gαβ (p)v ; quindi χα ◦ χ−1 β (p, v) = p, gαβ (p)v . Applicando la Proposizione 3.1.7 otteniamo quindi su E la struttura di fibrato vettoriale cercata. ˜ → M con le Supponiamo infine di avere un altro fibrato vettoriale π ˜: E ˜ −1 (Uα ) → Uα ×Rr . stesse funzioni di transizione rispetto a banalizzazioni χ ˜α : π Per ogni α definiamo Lα : π −1 (Uα ) → π ˜ −1 (Uα ) con Lα = χ ˜−1 α ◦χα . Chiaramente Lα `e un diffeomorfismo lineare sulle fibre, e si ha π ˜ ◦Lα = π. Inoltre Lα ≡ Lβ su π −1 (Uα ) ∩ π −1 (Uβ ): infatti Lα ≡ Lβ se e solo se χα ◦ χ−1 ˜α ◦ χ ˜−1 β ≡ χ β , e ˜ quest’ultima identit` a segue dal fatto che E e E hanno le stesse funzioni di ˜ ponendo L|π−1 (U ) = Lα , ed transizione. Quindi possiamo definire L: E → E α `e chiaro che L `e un isomorfismo di fibrati.
Osservazione 3.1.9. Usando le funzioni di transizione `e possibile stabilire quando due fibrati vettoriali sono isomorfi. Infatti, sia A = {(Uα , ϕα )} un ˜ → M di rango r atlante che banalizza due fibrati vettoriali π: E → M e π ˜: E gαβ } le relative funzioni di transizione indotsu M , e indichiamo con {gαβ } e {˜ ˜α }. Supponiamo diavere un isomorfismo te da banalizzazioni locali {χα } e {χ ˜ Da π L: E → E. ˜ ◦ L = π deduciamo che L π −1 (Uα ) = π ˜ −1 (Uα ). Quindi r ` e un diffeomorfismo di U × R con se stesso (che preserva le fibre χ ˜α ◦ L ◦ χ−1 α α e) lineare su ciascuna fibra; ne segue che esiste un’applicazione differenziabile σα : Uα → GL(r, R) tale che χ ˜α ◦ L ◦ χ−1 α (p, v) = p, σα (p)v per ogni (p, v) ∈ Uα × Rr . Quindi p, g˜αβ (p)v = χ ˜α ◦ χ ˜−1 β (p, v) −1 −1 = (χ ˜α ◦ L ◦ χ−1 ˜β ◦ L ◦ χ−1 (p, v) α ) ◦ (χα ◦ χβ ) ◦ (χ β ) −1 = p, σα (p)gαβ (p)σβ (p) v ,
per cui g˜αβ = σα · gαβ · σβ−1 .
(3.6)
3.1 Fibrati vettoriali
139
Viceversa, supponiamo che le funzioni di transizione soddisfino (3.6), e defi˜ ponendo niamo L: E → E L χ−1 ˜−1 α (p, v) = χ α p, σα (p)v (controlla) per ogni (p, v) ∈ Uα × Rr . Siccome usando −1 (3.6) si verifica −1 subito −1 che χ−1 α (p, v) = χβ (q, u) implica L χα (p, v) = L χβ (q, u) , ne segue che L `e ben definito, ed `e chiaramente un isomorfismo di fibrati vettoriali. Osservazione 3.1.10. Nell’Esercizio 5.57 vedremo come per i fibrati in rette sia possibile interpretare le (3.3)–(3.5) in termini di coomologia dei fasci. A questo punto possiamo vedere alcuni esempi non banali di fibrati vettoriali e di morfismi fra fibrati. Esempio 3.1.11 (Il fibrato tangente). Proviamo ad applicare la Proposizione 3.1.7 agli spazi tangenti. Data una variet` a M , indichiamo con T M l’unione disgiunta degli spazi tangenti Tp M al variare di p ∈ M , e sia π: T M → M la proiezione che manda ciascun Tp M in p. Dato un atlante {(Uα , ϕα )}, possiamo definire bigezioni χα : π −1 (Uα ) → Uα × Rn ponendo ⎛ ⎞ n ∂ ⎠ = (p, v) , χα ⎝ vj ∂xj α p
j=1
dove ϕα = (x1α , . . . , xnα ) e v = (v 1 , . . . , v n ). La (2.5) ci dice allora che ⎛ ⎛ ⎡ ⎤ ⎞ ⎞ n n n h ∂ ⎠ ∂ ⎠ ∂xα ⎝ ⎣ = χα ⎝ χα ◦ χ−1 vj (p)v j ⎦ β (p, v) = χα j j h ∂x ∂x ∂x α p β p β j=1 h=1 j=1 ∂xα = p, (p)v , ∂xβ dove ∂xα /∂xβ `e la matrice jacobiana del cambiamento di coordinate ϕα ◦ϕ−1 β . Quindi (3.1) `e soddisfatta con gαβ =
∂xα , ∂xβ
per cui otteniamo una struttura di fibrato vettoriale su T M . Questo fibrato vettoriale π: T M → M di rango n si dice fibrato tangente alla variet` a. ˜ `e un’applicazione differenziabile fra variet` Esempio 3.1.12. Se F : M → M a, ˜ `e un morfismo fra i fibrati tangenti. allora il differenziale dF : T M → T M ˜ →M ˜ Infatti, chiaramente abbiamo π ˜ ◦dF = F ◦π, dove π: T M → M e π ˜: T M sono le proiezioni canoniche, e dF `e lineare sulle fibre; quindi per vedere che `e un morfismo rimane solo da controllare che `e un’applicazione differenziabile. La relazione (2.7) nell’Osservazione 2.3.28 dice che
140
3 Fibrati
χ ˜β ◦ dF ◦ χ−1 ˜β ◦ F ◦ ϕ−1 α (p, v) = F (p), Jac(ϕ α ) ϕα (p) v , dove χα (rispettivamente, χ ˜β ) `e la banalizzazione locale indotta dalla carta ˜ ) come visto nell’Esempio 3.1.11, e questo ϕα di M (rispettivamente, ϕ˜β di M implica subito (perch´e?) che dF `e differenziabile. Esempio 3.1.13 (Il fibrato cotangente). Indichiamo con Tp∗ M lo spazio duale di Tp M , e con T ∗ M l’unione disgiunta degli spazi Tp∗ M al variare di p ∈ M , con l’ovvia proiezione π: T ∗ M → M . Data una carta locale ϕα = (x1α , . . . , xnα ) in un punto p ∈ M , indichiamo con {dx1α |p , . . . , dxnα |p } la base di Tp∗ M dua` facile verificare che (2.5) le della base {∂/∂x1α |p , . . . , ∂/∂xnα |p } di Tp M . E (nell’Osservazione 2.3.25) implica dxkβ |p =
n ∂xkβ (p) dxhα |p , ∂xhα
(3.7)
h=1
per cui possiamo nuovamente applicare la Proposizione 3.1.7. Infatti, se definiamo χα : π −1 (Uα ) → Uα × Rn ponendo anche stavolta ⎛ ⎞ n χα ⎝ wj dxjα |p ⎠ = (p, wT ) , j=1
dove wT ∈ Rn `e il vettore colonna ottenuto trasponendo il vettore riga (w1 , . . . , wn ) ∈ (Rn )∗ , troviamo ⎛ ⎞ ⎛ ⎡ ⎤ ⎞ j n n n ∂x β T ⎝ ⎣ χα ◦ χ−1 wj dxjβ |p ⎠ = χα ⎝ (p)wj ⎦ dxhα |p ⎠ β (p, w ) = χα ∂xhα j=1 h=1 j=1 5 6T ∂xβ = p, (p) wT , ∂xα per cui recuperiamo (3.1) con 5
gαβ
∂xβ = ∂xα
6T .
Il fibrato vettoriale π: T ∗ M → M di rango n con la struttura appena definita si dice fibrato cotangente alla variet` a. Osservazione 3.1.14. Data una carta locale ϕ = (x1 , . . . , xn ) in un punto p di una variet` a M , abbiamo introdotto due notazioni pericolosamente simili: dxjp , che indica il differenziale in p della funzione coordinata xj , e dxj |p , l’elemento della base duale di Tp∗ M . Per fortuna, grazie all’Osservazione 2.3.26 possiamo identificare questi due oggetti. Infatti, dxjp `e un’applicazione lineare da Tp M a valori in R, per cui `e un elemento di Tp∗ M ; inoltre,
3.1 Fibrati vettoriali
dxjp
141
∂ ∂xj (p) = δhj , = ∂xh p ∂xh
per cui dxjp = dxj |p . Osservazione 3.1.15. Come diventer` a ancora pi` u chiaro a partire dal Capitolo 6, in Geometria Differenziale `e importante mantenere distinti vettori colonna e vettori riga, ovvero non identificare Rn con il suo duale (Rn )∗ . Nello spirito dell’Esercizio 1.4, la scelta di una base fornisce un isomorfismo fra Tp M e Rn ; e la scelta della base duale corrisponde a considerare l’inversa del duale di questo isomorfismo, e quindi identifica Tp∗ M con (Rn )∗ . In altre parole, le coordinate rispetto alla base duale degli elementi di Tp∗ M vivono in maniera naturale in (Rn )∗ , per cui sono vettori riga, e non vettori colonna. Siccome come modello per i fibrati vettoriali usiamo Rn e non il suo duale, nelle formule riguardanti il fibrato cotangente siamo costretti a introdurre la trasposizione. In particolare, le funzioni di transizione del fibrato cotangente sono le inverse trasposte delle funzioni di transizione del fibrato tangente, e non semplicemente le inverse. Nel Capitolo 1 abbiamo visto altre operazioni che possiamo effettuare sugli spazi vettoriali Tp M ; possiamo per esempio costruire l’algebra tensoriale, o l’algebra esterna. Abbiamo anche visto come ottenere delle basi di questi spazi, facendo prodotti tensoriali o prodotti esterni di elementi delle basi di Tp M a del prodotto tensoriale e del prodotto esterno ci dice e Tp∗ M . La multilinearit` anche come cambiano queste basi cambiando carte locali: otteniamo formule del tipo ∂
⊗ ··· ⊗
∂xjβ1 n
=
a1 ,...,ar =1 b1 ,...,bs =1
∂ ∂xjβr
∂xaα1 ∂xjβ1
···
⊗ dxhβ1 ⊗ · · · ⊗ dxhβs h1 ∂xhβs ∂ ∂xaαr ∂xβ ∂ · · · ⊗ · · · ⊗ ar ⊗ dxbα1 ⊗ · · · ⊗ dxbαs , jr b1 bs ∂xa1 ∂xα α ∂xα ∂xβ ∂xα
per cui, usando la Proposizione 3.1.7 come per i fibrati tangente e cotangente, possiamo generalizzare le Definizioni 1.3.1 e 1.4.4 e costruire (controlla!) dei nuovi fibrati vettoriali, i fibrati tensoriali: Definizione 3.1.16. Sia M una variet` a. Indichiamo con Tlk M l’unione dik sgiunta degli spazi Tl (Tp M ) al variare di p ∈ M , e sia π: Tlk M → M la k M , con la struttura naturale sopra descritta, `e proiezione associata. k Allora Tl su M . In particolare, T M = T01 M e T10 M = T ∗ M . detto fibrato dei l -tensori % Indicheremo invece con r M il fibrato delle r-forme ottenuto prendendo %r ∗ %1 l’unione disgiunta degli spazi (Tp M ). In particolare, M = T ∗M . Osservazione a%quanto si sarebbe % potuto %rcontrariamente %r3.1.17. Attenzione: r r (Tp∗ M ) e non a (Tp M ), per cui M `e aspettare, ( M )p `e uguale a
142
3 Fibrati
contenuto in Tr0 M invece di T0r M . Il motivo di questa scelta `e che mentre il fibrato delle r-forme come definito qui `e infinitamente utile in geometria differenziale (vedi, % per esempio, i Capitoli 4 e 5), il fibrato ottenuto considerando gli spazi r (Tp M ) viene usato cos`ı di rado da non meritare un simbolo speciale. I fibrati tensoriali naturalmente non esauriscono la categoria dei fibrati vettoriali interessanti; vediamo altri due esempi. Esempio 3.1.18 (Fibrato normale). Sia S una sottovariet` a di dimensione k di una variet` a n-dimensionale M . Abbiamo gi` a osservato come per ogni p ∈ S possiamo identificare ciascun Tp S con un sottospazio vettoriale di Tp M . Allora il fibrato normale di S in M `e il fibrato vettoriale NS su S di rango n − k ottenuto prendendo l’unione disgiunta degli spazi vettoriali quozienti Tp M/Tp S, con la proiezione naturale π: NS → S. Per costruire le banalizzazioni locali, scegliamo un atlante {(Uα , ϕα )} di S in modo che ciascuna ˜α , ϕ˜α ) di M come indicato nel Cocarta (Uα , ϕα ) provenga da una carta (U rollario 2.4.19. In particolare, posto ϕ˜α = (x1α , . . . , xnα ), per ogni p ∈ Uα i vettori {∂/∂x1α |p , . . . , ∂/∂xkα |p } formano una base di Tp S, per cui una base n di Tp M/Tp S `e data da {∂/∂xk+1 α |p +Tp S, . . . , ∂/∂xα |p +Tp S}. Quindi possiamo −1 definire una banalizzazione locale χα : π (Uα ) → Uα × Rn−k ponendo ⎛ ⎞ n−k ∂ vj + Tp S ⎠ = (p, v) , χα ⎝ k+j ∂x α p j=1 e non `e difficile (Esercizio 3.2) verificare che le ipotesi della Proposizione 3.1.7 sono soddisfatte. Esempio 3.1.19. Vogliamo introdurre una famiglia di fibrati in rette sullo spazio proiettivo Pn (R). Sia A = {(U0 , ϕ0 ), . . . , (Un , ϕn )} l’atlante introdotto nell’Esempio 2.1.32, e prendiamo d ∈ Z. Dati h, k ∈ {0, . . . , n} definiamo ghk : Uh ∩ Uk → R∗ ponendo ghk (x) =
xk xh
d ,
` immediato verificadove abbiamo scritto x = [x0 : · · · : xn ] come al solito. E re che queste funzioni soddisfano (3.3)–(3.5); quindi, grazie alla Proposizione 3.1.8, sono le funzioni di transizione di un (unico) fibrato in rette su Pn (R), che indicheremo con Ed . Chiaramente (perch´e?), E0 = Pn (R) × R `e il fibrato in rette banale. Pi` u in generale, si pu` o dimostrare che se d `e pari allora Ed `e banale; vedi l’Esercizio 3.13. Concludiamo questa sezione con alcune costruzioni utili di fibrati vettoriali.
3.1 Fibrati vettoriali
143
Esempio 3.1.20 (Fibrato pull-back). Sia F : M → N un’applicazione differenziabile, e π: E → N un fibrato vettoriale di rango r su N . Se p ∈ M poniamo (F ∗ E)p = EF (p) e denotiamo con F ∗ E l’unione disgiunta degli (F ∗ E)p al variare di p ∈ M , con la proiezione canonica π ˜ : F ∗ E → M . Allora F ∗ E ha una struttura naturale di fibrato vettoriale di rango r su M , detto fibrato pull-back (o fibrato indotto o fibrato immagine inversa) di E rispetto a F . Infatti, sia B = {(Vβ , ψβ , ξβ )} un atlante di N che banalizza E, e scegliamo un atlante A = {(Uα , ϕα )} di M tale che per ogni α esista un indice β(α) con F (Uα ) ⊆ Vβ(α) . Indichiamo con L: F ∗ E → E l’applicazione tautologica che associa a w ∈ (F ∗ E)p se stesso in EF (p) ; infine, indichiamo con π2 la proiezione sulla seconda coordinata in qualsiasi prodotto della forma Vβ × Rr . Definiamo ora χα : π ˜ −1 (Uα ) → Uα × Rr ponendo ˜ (v), π2 ξβ(α) L(w) . χα (w) = π Si verifica subito (controlla) che χα ◦ χ−1 α (p, v) = p, gβ(α)β(α ) F (p) v , dove gββ sono le funzioni di transizione di E rispetto a B, per cui possiamo applicare la Proposizione 3.1.7. Infine, nota che il diagramma F ∗E
L
π
π ˜
M
/E
F
/N
commuta. Esempio 3.1.21 (Somma diretta e prodotto tensoriale). Siano E ed F due fibrati vettoriali su una variet` a M , di rango rispettivamente r ed s, e sia A = {(Uα , ϕα )} un atlante che banalizza entrambi, con funzioni di transizione rispettivamente gαβ e hαβ . Il fibrato somma diretta E ⊕ F `e il fibrato di rango r + s avente come fibre le somme dirette delle fibre, cio`e (E ⊕ F )p = Ep ⊕ Fp per ogni p ∈ M , e con funzioni di transizione rispetto ad A date da (gαβ , hαβ ). Invece, il fibrato prodotto tensoriale E ⊗F `e il fibrato di rango rs con come fibre i prodotti tensoriali delle fibre, cio`e (E ⊗ F )p = Ep ⊗ Fp , e con funzioni di transizione rispetto ad A date da gαβ ⊗ hαβ , dove qui ⊗ indica il prodotto di Kronecker delle due matrici (vedi la Definizione 1.E.6 e l’Esercizio 1.42), e stiamo identificando Rr ⊗Rs con Rrs . Non `e difficile (Esercizio 3.5) dimostrare che E ⊕ F e E ⊗ F non dipendono dall’atlante usato per definirli. Gli Esercizi 3.1, 3.4 e 3.6 descrivono altre costruzioni di fibrati vettoriali (restrizione, sottospazio, quoziente, duale, e, sotto certe condizioni, nucleo e immagine).
144
3 Fibrati
3.2 Sezioni di fibrati e tensori Per studiare un fibrato vettoriale risulta molto utile esaminare le applicazioni dalla base a valori nello spazio totale del fibrato che associano a ogni punto della base un elemento della fibra su quel punto. Definizione 3.2.1. Sia π: E → M un fibrato vettoriale su una variet` a M . Una sezione di E `e un’applicazione differenziabile s: M → E tale che π ◦ s = idM , cio`e tale che s(p) ∈ Ep per ogni p ∈ M . Lo spazio vettoriale delle sezioni di E verr` a indicato con E(M ). La sezione OE ∈ E(M ) che a ogni punto p ∈ M associa il vettore nullo Op ∈ Ep `e detta sezione nulla di E. Se U ⊂ M `e un aperto di M , un’applicazione differenziabile s: U → E tale che π ◦ s = idU sar`a detta sezione locale di E su U ; a volte una sezione definita su tutto M sar`a chiamata sezione globale. Osservazione 3.2.2. Se E = M × Rr `e il fibrato banale di rango r, allora lo spazio delle sezioni E(M ) `e canonicamente isomorfo allo spazio C ∞ (M, Rr ) delle applicazioni differenziabili a valori in Rr . Infatti, se s ∈ E(M ) `e una sezione allora π2 ◦ s ∈ C ∞ (M, Rr ), dove π2 : M × Rr → Rr `e la proiezione sulla seconda coordinata; viceversa, se F ∈ C ∞ (M, Rr ) allora p → p, F (p) `e una sezione di M × Rr . Quindi in un certo senso le sezioni di un fibrato vettoriale sono una generalizzazione delle applicazioni differenziabili a valori in Rr . Osservazione 3.2.3. Ogni fibrato vettoriale ammette sezioni. Per esempio, abbiamo gi` a incontrato la sezione nulla; e non `e difficile costruirne molte altre. Sia π: E → M un fibrato vettoriale di rango r, e χ: π −1 (U ) → U ×Rr una banalizzazione locale. Scegliamo una qualsiasi applicazione differenziabile F : U → Rr e sia ρ ∈ C ∞ (M ) tale che supp(ρ) ⊂ U . Allora l’applicazione s: M → E data da −1 p, ρ(p)F (p) se p ∈ U , χ s(p) = Op se p ∈ M \ supp(ρ) , `e chiaramente una sezione di E. ` invece molto pi` E u difficile costruire sezioni di un fibrato vettoriale che non si annullano mai; e a volte `e proprio impossibile (vedi l’Osservazione 3.2.10 e l’Esercizio 5.45). Le sezioni del fibrato tangente, e pi` u in generale dei fibrati tensoriali, hanno nomi particolari. Definizione 3.2.4. Un campo vettoriale su una variet` a M `e una sezione del fibrato tangente T M . Lo spazio vettoriale dei campi vettoriali su M verr` a indicato con T (M ). Una k-forma differenziale (o forma differenziale di grado k) %k M . Lo spazio vettoriale delle k-forme difsu M `e una sezione del fibrato ferenziali su M verr` a indicato con Ak (M ); altre notazioni in uso sono E k (M ) e Ω k (M ).
3.2 Sezioni di fibrati e tensori
145
k
Un campo tensoriale di tipo l (o kl -tensore) su M `e una sezione del fi a indicato con Tlk (M ). brato Tlk M . Lo spazio vettoriale dei kl -tensori verr` 0 0 Un elemento di Tk (M ), cio`e un k -tensore, sar`a detto campo tensoriale covariante. Osservazione 3.2.5. Se X ∈ T (M ) `e un campo vettoriale e p ∈ M , a volte scriveremo Xp invece di X(p). Analogamente, se ω ∈ Ak (M ) `e una k-forma, a volte scriveremo ωp invece di ω(p). Osservazione 3.2.6. Si vede facilmente (Esercizio 3.23) che ilprodotto ten h -tensore `e un soriale, definito puntualmente, di un kl -tensore con un m k+h -tensore, e che il prodotto esterno (sempre definito puntualmente) di l+m una h-forma differenziale con una k-forma differenziale `e una (h + k)-forma differenziale (su questo vedi anche la Sezione 4.1). Sia (U, ϕ) una carta in p ∈ M , e scriviamo ϕ = (x1 , . . . , xn ) come al solito. Abbiamo quindi delle sezioni locali ∂1 , . . . , ∂n di T M definite su U ponendo ∂ ∈ Tp M . ∂j (p) = ∂xj p Se X ∈ T (M ) `e un campo vettoriale qualsiasi e p ∈ U , allora X(p) dev’essere una combinazione lineare di ∂1 (p), . . . , ∂n (p), per cui possiamo trovare funzioni a1 , . . . , an : U → R tali che X(p) =
n
aj (p)∂j (p) .
j=1
Siccome a1 (p), . . . , an (p) = dϕp X(p) , le funzioni aj sono di classe C ∞ . Osservazione 3.2.7. A volte scriveremo anche X=
n
a ˆ j ∂j ,
j=1
dove le a ˆj sono funzioni C ∞ definite su un aperto di Rn (l’immagine della carta locale), e non su un aperto di M (il dominio della carta locale). In altre parole, a ˆj (x) = aj ◦ ϕ−1 (x) per ogni x ∈ ϕ(U ). ˜ , ϕ) ˜ = ∅, e indichiamo con ∂˜1 , . . . , ∂˜n le Se (U ˜ `e un’altra carta con U ∩ U corrispondenti sezioni locali di T M , sappiamo che ∂˜h =
n ∂xk ∂k ∂x ˜h
k=1
h˜ ˜ . Quindi se scriviamo X = aj ∂j = a su U ∩ U j h ˜ ∂h troviamo
146
3 Fibrati
aj =
n ∂xj h a ˜ , ∂x ˜h
(3.8)
h=1
che `e la formula che ci dice come cambiano i coefficienti di un campo vettoriale al cambiare della carta (vedi anche l’Esercizio 3.9 per un viceversa). Dunque la scelta di coordinate locali fornisce una base dello spazio tangente che varia in modo differenziabile sul corrispondente aperto coordinato; `e un primo esempio di riferimento locale per un fibrato vettoriale. Definizione 3.2.8. Sia π: E → M un fibrato vettoriale di rango r sulla variet` a M , e U ⊆ M un aperto di M . Un riferimento locale per E su U `e una r-upla σ1 , . . . , σr ∈ E(U ) di sezioni di E su U tali che {σ1 (p), . . . , σr (p)} sia una base di Ep per ogni p ∈ U . Osservazione 3.2.9. Dare un riferimento locale `e equivalente a dare una banalizzazione locale. Infatti, sia χ: π−1 (U ) → U × Rr una banalizzazione locale di un fibrato vettoriale E di rango r. Ponendo σj (p) = χ−1 (p, ej ), dove ej `e il j-esimo vettore della base canonica di Rr , otteniamo chiaramente un riferimento locale per E su U . Viceversa, se {σ1 , . . . , σr } `e un riferimento locale per E su U , definiamo ξ: U × Rr → π −1 (U ) ponendo ξ(p, w) = w 1 σ1 (p) + · · · + wr σr (p) ∈ Ep . Chiaramente ξ `e bigettiva, di classe C ∞ , e χ = ξ −1 `e una banalizzazione locale. L’unica cosa non del tutto ovvia `e verificare che χ sia di classe C ∞ . Per dimostrarlo scegliamo una qualsiasi banalizzazione χ˜ nell’intorno ˜r } il corrispondente riferimento locale. Inoltre, poniadi p ∈ U , e sia {˜ σ1 , . . . , σ r mo χ ˜o = π2 ◦ χ, ˜ dove π2 : U ×R → Rr `e la proiezione sulla seconda coordinata, ˜o (σj ) = (a1j , . . . , arj ); allora in modo da avere χ(v) ˜ = p, χ ˜o (v) . Scriviamo χ (ahj ) `e una matrice invertibile con elementi di classe C ∞ , per cui anche la sua inversa B = (bjh ) ha tutti gli elementi di classe C ∞ , e si ha σ ˜h = j bjh σj . Ma allora se v ∈ Ep abbiamo v=
r h=1
h
v˜ σ ˜h =
r
v˜h bjh σj ,
h,j=1
dove (˜ v 1 , . . . , v˜r ) = χ ˜o (v). Dunque v = ξ(p, w) con w = B χ ˜o (v), e quindi χ(v) = p, B χ ˜o (v) `e di classe C ∞ , come voluto. Osservazione 3.2.10. Una conseguenza della precedente osservazione `e che un fibrato vettoriale `e (isomorfo al fibrato) banale se e solo se ammette un riferimento globale (cio`e costituito da sezioni globali). In particolare, un fibrato in rette `e (isomorfo al fibrato) banale se e solo se ammette una sezione che non si annulla in nessun punto.
3.2 Sezioni di fibrati e tensori
147
Osservazione 3.2.11. Se π: E → M `e un fibrato vettoriale, chiaramente un’applicazione τ : M → E tale che π ◦ τ = idM `e una sezione di E se e solo se `e differenziabile. Per verificare se una tale τ `e differenziabile, basta controllarlo localmente, e per far questo possiamo usare i riferimenti locali. Infatti, se{σ1 , . . . , σr } `e un riferimento locale su U ⊆ M , possiamo scrivere j e chiaro che τ |U = j τ σj per opportune funzioni τ1 , . . . , τr : U → R, ed ` se τ1 , . . . , τr sono di classe C ∞ allora anche τ lo `e (per il viceversa vedi l’Esercizio 3.11). Siano χα e χβ due banalizzazioni locali, definite rispettivamente su aperti Uα e Uβ con Uα ∩ Uβ = ∅, e siano {σ1,α , . . . , σr,α } e {σ1,β , . . . , σr,β } i corrispondenti riferimenti locali. Se per j = 1, . . . , r scriviamo σj,β =
r
(gαβ )kj σk,α
(3.9)
k=1
per opportune funzioni (gαβ )kj ∈ C ∞ (Uα ∩ Uβ ), abbiamo r r k k (gαβ )j ek = χα (gαβ )j σk,α = χα (σj,β ) = χα ◦ χ−1 p, β (p, ej ) k=1
k=1
= p, gαβ (p)ej ,
dove gαβ `e la funzione di transizione da χα a χβ , per cui le (gαβ )kj sono proprio le componenti della funzione di transizione gαβ . Sia ora σ ∈ E(Uα ∩ Uβ ) una qualunque sezione locale di E, e scriviamo σ=
r
ajα σj,α =
j=1
r
ahβ σh,β ,
h=1
per opportune funzioni ajα , ahβ ∈ C ∞ (Uα ∩ Uβ ). Allora la (3.9) ci dice che ajα
=
r
(gαβ )jh ahβ
(3.10)
h=1
`e la formula che esprime come cambiano i coefficienti di una sezione al cambiare della banalizzazione locale. Viceversa, dato un atlante A = {(Uα , ϕα , χα )} che banalizza E con funzioni di transizione {gαβ }, si verifica facilmente (Esercizio 3.10) che una famiglia di applicazioni differenziabili aα = (a1α , . . . , arα ): Uα → Rr che soddisfa (3.10) definisce una sezione globale σ ∈ E(M ) ponendo ∀p ∈ Uα
σ(p) =
r
ajα (p)σj,α (p) ,
j=1
dove {σ1,α , . . . , σr,α } `e il riferimento locale corrispondente alla banalizzazione χα .
148
3 Fibrati
Esempio 3.2.12 (Funzioni omogenee). Una funzione f : Rn+1 → R `e detta omogenea di grado d ∈ Z, o d-omogenea, se f (λx) = λd f (x) per ogni λ ∈ R∗ ` evidente che ogni funzione 0-omogenea f : Rn+1 → R definisce e x ∈ Rn+1 . E una funzione f˜ ∈ C ∞ Pn (R) tale che f˜◦ π = f , dove π: Rn+1 \ {O} → Pn (R) `e la proiezione naturale. Viceversa, ogni funzione 0-omogenea `e chiaramente della forma f˜ ◦ π per un’opportuna funzione C ∞ definita sullo spazio proiettivo. Ricordando l’Osservazione 3.2.2, abbiamo definito un isomorfismo fra lo spazio delle funzioni 0-omogenee su Rn+1 e lo spazio delle sezioni del fibrato banale E0 = Pn (R) × R. Vogliamo ora far vedere che, pi` u in generale, c’`e un naturale isomorfismo fra lo spazio delle funzioni d-omogenee su Rn+1 e lo spazio Ed Pn (R) delle sezioni del fibrato in rette πd : Ed → Pn (R) introdotto nell’Esempio 3.1.19. Infatti, sia f : Rn+1 → R una funzione d-omogenea, e per h = 0, . . . , n definiamo f˜h : Uh → R nel seguente modo: ∀x ∈ Uh
f˜h (x) = f ([x]h ) ,
dove [x]h ∈ Rn+1 `e l’unico elemento y ∈ Rn+1 tale che π(y) = x e y h = 1, e Uh = {x ∈ Pn (R) | xh = 0} come al solito. Ora, se x ∈ Uh ∩ Uk si ha [x]h = quindi
f˜h (x) = f
xk [x]k xh
xk [x]k ; xh
=
xk xh
d f˜k (x) .
Questo vuol dire che le f˜0 , . . . , f˜n soddisfano (3.10), e quindi definiscono una sezione globale f˜ di Ed . Viceversa, data f˜ ∈ Ed Pn (R) siano f˜h : Uj → R le componenti di f˜ rispetto al riferimento locale associato alla banalizzazione locale corrispondente alle funzioni di transizione introdotte nell’Esempio 3.1.19. Quindi le f˜h soddisfano (3.10), cio`e k d x ∀x ∈ Uh ∩ Uk f˜h (x) = f˜k (x). (3.11) xh Definiamo allora f : Rn+1 → R ponendo f (O) = 0 e f (y) = (y h )d f˜j π(y) per un qualsiasi h = 0, . . . , n tale che y h = 0. Grazie alla (3.11) si vede subito che f `e ben definita, ed `e chiaramente d-omogenea. Esempio 3.2.13 (Fibrato tangente del tangente). Se M `e una variet` a di dimensione n, allora T M `e una variet` a di dimensione 2n, per cui possiamo considerare il fibrato tangente del fibrato tangente π ˜ : T (T M ) → T M di rango 2n su T M . Vogliamo descrivere dei riferimenti locali naturali per T (T M ). Abbiamo visto che una carta locale (U, ϕ) per M induce una banalizzazione locale χ: π−1 (U ) → U × Rn e un riferimento locale {∂1 , . . . , ∂n } per T M con
3.2 Sezioni di fibrati e tensori
χ(v) = p, (v 1 , . . . , v n )
se e solo se
149
v = v 1 ∂1 |p + · · · + v n ∂n |p ∈ Tp M ,
dove π: T M → M `e la proiezione Inoltre, se poniamo χ˜ = (ϕ, id) ◦ χ −1 naturale. otteniamo una carta locale π (U ), χ ˜ di T M. Scrivendo ϕ = (x1 , . . . , xn ) `e 1 chiaro che χ(v) ˜ = x (p), . . . , xn (p), v 1 , . . . , v n per ogni v ∈ Tp M e p ∈ U . Dunque alla carta locale χ ˜ di T M possiamo associare il riferimento locale {∂/∂x1 , . . . , ∂/∂xn , ∂/∂v 1 , . . . , ∂/∂vn } di T (T M ) sopra π −1 (U ) = T U . Per capire meglio chi sono ∂/∂xh e ∂/∂v k vediamo come si comportano rispetto al differenziale della proiezione π. Ora, se f ∈ C ∞ (U ) `e chiaro (perch´e?) che ∂ ∂ (f ◦ π) = ∂ | (f ) e (f ◦ π) = 0 (3.12) h p ∂xh v ∂v k v quale che sia v ∈ Tp U . D’altra parte, se data g ∈ C ∞ (Rn ) definiamo g˜ ∈ C ∞ (T U ) ponendo g˜ = g ◦ π2 ◦ χ, dove π2 : U × Rn → Rn `e la proiezione sulla seconda coordinata, chiaramente abbiamo ∂ ∂ ∂g (˜ g) = 0 e (˜ g) = π2 χ(v) ∂xh v ∂v k v ∂v k per ogni v ∈ Tp U . In altre parole, i ∂/∂xh riproducono la derivate nelle coordinate di M , mentre i ∂/∂v k danno le derivate delle funzioni ristrette ai singoli spazi tangenti. In termini pi` u formali, (3.12) `e equivalente a ∂ ∂ e dπv dπv = ∂h |π(v) = Oπ(v) . ∂xh ∂v k In particolare, {∂/∂v 1 , . . . , ∂/∂v n } `e un riferimento locale per il fibrato verticale V = Ker(dπ) ⊂ T (T M ) . Nota che mentre il fibrato verticale `e ben definito indipendentemente dalla carta locale scelta, non esiste una definizione canonica per un “fibrato orizzontale H ⊂ T (T M ) tale che T (T M ) = H ⊕ V; per esempio, `e facile dimostrare (vedi l’Esercizio 3.3) che, in generale, se ϕ˜ = (˜ x1 , . . . , x ˜n ) `e un’altra carta 1 n 1 ˜ , . . . , ∂/∂ x ˜n ). Ne riparlelocale allora Span(∂/∂x , . . . , ∂/∂x ) = Span(∂/∂ x remo nel Capitolo 6 quando introdurremo il concetto di connessione (vedi in particolare la Sezione 6.3). Esempio 3.2.14. Se ϕ = (x1 , . . . , xn ) `e una carta locale su M , allora le 1-forme {dx1 , . . . , dxn } definite come base duale di {∂1 , . . . , ∂n } (o come differenziale delle coordinate locali; vedi l’Osservazione 3.1.14) formano un riferimento locale del fibrato cotangente. La %k Proposizione 1.4.19 allora implica che un M delle k-forme `e dato dalle forme riferimento locale per il fibrato dxi1 ∧ · · · ∧ dxik
150
3 Fibrati
con 1 ≤ i1 < · · · < ik ≤ n, per cui ogni k-forma si pu` o scrivere localmente come ω= ai1 ...ik dxi1 ∧ · · · ∧ dxik 1≤i1 <···
per opportune funzioni ai1 ...ik . In particolare, quando k = n un riferimento locale per il fibrato in ret% n M `e dato dalla n-forma dx1 ∧ · · · ∧ dxn . Se ϕ˜ = (˜ x1 , . . . , x ˜n ) `e un’altra te carta locale, usando la (3.7) e ricordando l’Osservazione 1.4.20 troviamo subito che h ∂x ˜ d˜ x1 ∧ · · · ∧ d˜ xn = det (3.13) dx1 ∧ · · · ∧ dxn . ∂xk o Osservazione 3.2.15. Per ogni f ∈ C ∞ (M ) il differenziale df : T M → T R pu` essere interpretato come una 1-forma differenziale, ponendo, come nell’Osservazione 2.3.26, dfp (X) = X(fp ) per ogni X ∈ Tp M , dove fp `e il germe in p rappresentatato da (M, f ). In particolare, se (U, ϕ) con ϕ = (x1 , . . . , xn ) `e una carta locale in p otteniamo dfp =
n ∂f (p) dxj . j ∂x j=1
a, prendiaPi` u in generale, se F : M → N `e un’applicazione C ∞ fra variet` mo una carta (U, ϕ) con ϕ = (x1 , . . . , xn ) in M e una carta (V, ψ) con ψ = (y 1 , . . . , y s ) in M con F (U ) ⊆ V , e poniamo F h = y h ◦ F . Allora dF h =
n ∂F h k=1
∂xk
dxk .
h
Un tensore di tipo k definito su uno spazio vettoriale V prende come argomenti h elementi di V ∗ e k elementi di V, e restituisce un numero. Analogamente, un campo di tensoriale di tipo hk pu` o essere calcolato punto per punto su h 1-forme e k campi vettoriali, ottenendo una funzione. Viceversa, perch´e un’applicazione con argomenti h 1-forme e k campi vettoriali e valore una funzione su M sia indotta da un campo tensoriale di tipo hk occorre come minimo che il suo valore in un punto p dipenda soltanto dal valore dei suoi argomenti nel punto p e non da come si comportano altrove (come succederebbe invece se stessimo calcolando una derivata). Un risultato non difficile ma importante `e che per ottenere questo `e sufficiente (e necessario) richiedere a: la C ∞ (M )-multilinearit` Proposizione 3.2.16. Sia M una variet` a. Allora: (i) Un’applicazione τ˜: A1 (M )h × T (M )k → C ∞ (M ) `e C ∞ (M )-multilineare se e solo se esiste un campo tensoriale τ ∈ Tkh (M ) tale che
3.2 Sezioni di fibrati e tensori τ˜(ω 1 , . . . , ω h , X1 , . . . , Xk )(p) = τp
151
ω 1 (p), . . . , ω h (p), X1 (p), . . . , Xk (p) (3.14)
per tutti gli ω 1 , . . . , ω h ∈ A1 (M ), X1 , . . . , Xk ∈ T (M ) e p ∈ M . (ii) Un’applicazione τˆ: T (M )k → T h (M ) `e C ∞ (M )-multilineare se e solo se esiste un campo tensoriale τ ∈ Tkh (M ) tale che τˆ(X1 , . . . , Xk )(p)(ωp1 , . . . , ωph ) = τp ωp1 , . . . , ωph , X1 (p), . . . , Xk (p) per tutti gli ωp1 , . . . , ωph ∈ Tp∗ M , X1 , . . . , Xk ∈ T (M ) e p ∈ M . Dimostrazione. (i) Dato τ ∈ Tkh (M ), cominciamo col dimostrare che l’applicazione p → τp ω 1 (p), . . . , ω h (p), X1 (p), . . . , Xk (p) `e di classe C ∞ (M ) per ogni ω 1 , . . . , ω h ∈ A1 (M ) e X1 , . . . , Xk∈ T (M ). Infatti,se (U, ϕ) `e una carta locale in p, localmente scriviamo ω i = r ωri dxr , Xj = s Xjs ∂s e τ=
...uh τvu11...v ∂u1 ⊗ · · · ⊗ ∂uh ⊗ dxv1 ⊗ · · · ⊗ dxvk , k
(3.15)
u1 ,...,uh ,v1 ,...,vk ...uh ∈ C ∞ (U ). Allora abbiamo con ωri , Xjs , τvu11...v k
τ (ω 1 , . . . , ω h , X1 , . . . , Xk |U =
...uh 1 τvu11...v ωu1 · · · ωuhh X1v1 · · · Xkvk , k
u1 ,...,uh ,v1 ,...,vk
che `e chiaramente di classe C ∞ . La stessa formula ci dice anche che l’applicazione τ˜ definita da (3.14) `e C ∞ (M )-multilineare. Viceversa, supponiamo di avere una τ˜: A1 (M )h × T (M )k → C ∞ (M ) che sia C ∞ (M )-multilineare; vogliamo far vedere che proviene da un campo tensoriale. Prima di tutto, dimostriamo che se ω 1 ≡ O in un intorno U di un punto p ∈ M allora τˆ(ω 1 , . . . , ω h , X1 , . . . , Xk )(p) = 0 per ogni ω 2 , . . . , ω h ∈ A1 (M ) e ogni X1 . . . , Xk ∈ T (M ). Infatti, il Corollario 2.7.3 ci fornisce una funzione g ∈ C ∞ (M ) tale che g(p) = 1 e g|M \U ≡ 0. Allora gω 1 ≡ O e quindi τ (ω 1 , . . . , ω h , X1 , . . . , Xk )(p) τˆ(ω 1 , . . . , ω h , X1 , . . . , Xk )(p) = g(p)ˆ = τˆ(gω 1 , . . . , ω h , X1 , . . . , Xk )(p) = τˆ(O, . . . , ω h , X1 , . . . , Xk )(p) = τˆ(0 · O, . . . , ωh , X1 , . . . , Xk )(p) = 0 · τˆ(O, . . . , ω h , X1 , . . . , Xk )(p) = 0 . In particolare, se ω ˜1 e ω ¯ 1 sono tali che ω ˜1 ≡ ω ¯ 1 in un intorno U di un punto p, 1 1 applicando questo argomento a ω = ω ˜ −ω ¯ 1 troviamo τˆ(˜ ω1 , . . . , ω h , X1 , . . . , Xk )(p) = τˆ(¯ ω 1 , . . . , ω h , X1 , . . . , Xk )(p) .
152
3 Fibrati
Lo stesso ragionamento si applica chiaramente a ω 2 , . . . , ω h e a X1 , . . . , Xk , per cui per calcolare τˆ(ω 1 , . . . , ω h , X1 , . . . , Xk )(p) ci basta conoscere il comportamento di ω 1 , . . . , ω h , X1 , . . . , Xk in un intorno di p. In altre parole, per ogni aperto U ⊆ M la τˆ definisce un’applicazione τˆU : A1 (U )h × T (U )k → C ∞ (U ) che `e C ∞ (U )-multilineare. Supponiamo adesso di prendere p ∈ M e ω 1 ∈ A1 (M ) tali che ωp1 = O, e scegliamo una carta locale (U, ϕ) centrata in p. Allora possiamo scrivere ω 1 |U = r ωr1 dxr per opportune ωr1 ∈ C ∞ (U ) con ωr1 (p) = 0. Dunque τˆ(ω 1 , . . . , ω h , X1 , . . . , Xk )(p) = τˆU (ω 1 |U , . . . , ω h |U , X1 |U , . . . , Xk |U )(p) n 1 r 2 h ωr dx , ω |U , . . . , ω |U , X1 |U , . . . , Xk |U (p) = τˆU r=1
=
n
ωr1 (p)ˆ τU (dxr , ω2 |U , . . . , ωh |U , X1 |U , . . . , Xk |U )(p)
r=1
= 0. Argomentando come sopra, e ripetendo il ragionamento per ω 2 , . . . , ωh e per X1 , . . . , Xk , vediamo quindi che τˆ(ω 1 , . . . , ω h , X1 , . . . , Xk )(p) dipende esclusivamente dal valore di ω 1 , . . . , ω h , X1 , . . . , Xk in p. Quindi per ogni p ∈ M la τˆ induce un’applicazione R-multilineare (Tp∗ M )h × (Tp M )k → R, cio`e un elemento di Tkh (Tp M ). In altre parole, abbiamo dimostrato che τˆ definisce un’unica sezione τ di Tkh M che soddisfa (3.14); per concludere dobbiamo solo dimostrare che τ `e di classe C ∞ . Scriviamo τ in coordinate locali come in (3.15); allora ...uh τvu11...v = τˆU (dxu1 , . . . , dxuh , ∂v1 , . . . , ∂vk ) ∈ C ∞ (U ) , k
e da questo segue facilmente (vedi l’Osservazione 3.2.11) che τ `e di classe C ∞ . (ii) Un’applicazione τˆ: T (M )k → T h (M ) `e C ∞ (M )-multilineare se e solo se l’applicazione τ˜: A1 (M )h × T (M )k → C ∞ (M ) definita ponendo τ˜(ω 1 , . . . , ω h , X1 , . . . , Xk ) = τˆ(X1 , . . . , Xk )(ω 1 , . . . , ω h ) `e C ∞ (M )-multilineare. La tesi segue allora dalla parte (i).
3.3 Flusso di un campo vettoriale In questa sezione studieremo pi` u in dettaglio i campi vettoriali, cio`e le sezioni del fibrato tangente. Cominciamo dandone una caratterizzazione equivalente. Definizione 3.3.1. Sia A un’algebra sul campo K. Una derivazione di A `e un’applicazione K-lineare D: A → A che soddisfa la regola di Leibniz: ∀a, b ∈ A
D(ab) = aD(b) + bD(a) .
3.3 Flusso di un campo vettoriale
153
Proposizione 3.3.2. Lo spazio vettoriale T (M ) dei campi vettoriali su una variet` a M `e isomorfo allo spazio delle derivazioni della R-algebra C ∞ (M ). Dimostrazione. Sia X ∈ T (M ) un campo vettoriale. Per ogni f ∈ C ∞ (M ) otteniamo un’altra funzione Xf : M → R ponendo (Xf )(p) = Xp (f ) , dove f ∈ C ∞ (p) `e il germe rappresentato da f . Nelle coordinate locali date da una carta locale ϕ = (x1 , . . . , xn ), scrivendo X = j X j ∂j troviamo Xf =
j
Xj
∂(f ◦ ϕ−1 ) ∂xj
per cui Xf ∈ C ∞ (M ), ed `e assolutamente chiaro che f → Xf `e una derivazione. Viceversa, sia X: C ∞ (M ) → C ∞ (M ) una derivazione. Prima di tutto dimostriamo che se f ∈ C ∞ (M ) `e zero in un intorno U di p allora (Xf )(p) = 0. Infatti, sia h ∈ C ∞ (M ) tale che h(p) = 0 e h|M \U ≡ 1 (Corollario 2.7.3). Allora hf ≡ f , per cui (Xf )(p) = X(hf )(p) = h(p)(Xf )(p) + f (p)(Xh)(p) = 0 . Questo vuol dire che se f e g coincidono in un intorno di p abbiamo (Xf )(p) = (Xg)(p). Siccome ogni funzione definita in un intorno di un punto pu` o essere estesa a una funzione definita su tutto M (Corollario 2.7.5), per ogni aperto U ⊆ M la X definisce una derivazione X: C ∞ (U ) → C ∞ (U ), e abbiamo associato per ogni p ∈ M una derivazione Xp : C ∞ (p) → R, e quindi a X una sezione di T M . Siccome in coordinate locali Xp = j X(xj )(p)∂j (p), si vede subito (Osservazione 3.2.11) che questa sezione `e di classe C ∞ . Quindi abbiamo ottenuto un campo vettoriale, ed `e chiaro che questa costruzione `e l’inversa di quella descritta sopra.
Questo risultato suggerisce l’esistenza di una relazione stretta fra campi vettoriali ed equazioni differenziali. Per concretizzare questo legame cominciamo richiamando il fondamentale teorema di esistenza e unicit` a locale delle soluzioni di un sistema di equazioni differenziali ordinarie (per una dimostrazione vedi [37, pagg. 150–157] e [21, pagg. 65–86]): Teorema 3.3.3. Per ogni aperto U ⊆ Rn e funzioni X 1 , . . . , X n ∈ C ∞ (U ) si ha: (i) per ogni t0 ∈ R e x0 ∈ U esistono δ > 0 e un intorno aperto U0 ⊆ U di x0 tali che per ogni x ∈ U0 esiste una curva σx : (t0 − δ, t0 + δ) → U soluzione del problema di Cauchy ⎧ j ⎨ dσ (t) = X j σ(t) per j = 1, . . . , n , (3.16) dt ⎩ σ(t0 ) = x ;
154
3 Fibrati
(ii) l’applicazione Θ: (t0 − δ, t0 + δ) × U0 → U data da Θ(t, x) = σx (t) `e di classe C ∞ ; (iii) due soluzioni di (3.16) coincidono sempre nell’intersezione dei loro domini di definizione. Vediamo come tradurre questo risultato sulle variet` a. Definizione 3.3.4. Sia X ∈ T (M ) un campo vettoriale su una variet` a M, e p ∈ M . Una curva σ: I → M , dove I ⊆ R `e un intervallo contenente l’origine, tale che σ(0) = p e σ (t) = X σ(t) per ogni t ∈ I `e detta curva integrale (o traiettoria) di X uscente da p. Sia (U, ϕ) una carta locale centrata in p ∈ M , e X ∈ T (M cam ) un j X ∂ po vettoriale. In coordinate locali, possiamo scrivere X = j . Se j σ: (−ε, ε) → M `e una curva uscente da p, cio`e tale che σ(0) = p, possiamo scegliere ε abbastanza piccolo in modo che tutto il sostegno di σ sia contenuto in U , e quindi possiamo scrivere ϕ◦σ = (σ 1 , . . . , σ n ). Usando l’Esempio 2.3.14 otteniamo n ∂ j (σ ) (t) . σ (t) = ∂xj σ(t) j=1
Quindi σ `e una curva integrale di X se e solo se la curva ϕ ◦ σ in ϕ(U ) risolve il problema di Cauchy ⎧ j ⎨ dσ = X j ϕ ◦ σ(t) per j = 1, . . . , n , dt ⎩ ϕ ◦ σ(0) = O . Allora il Teorema 3.3.3 implica il seguente teorema fondamentale: Teorema 3.3.5. Sia X ∈ T (M ) un campo vettoriale su una variet` a M . Allora esistono un unico intorno aperto U di {0} × M in R × M e un’unica a: applicazione Θ: U → M di classe C ∞ che soddisfano le seguenti propriet` p (i) per ogni p ∈ M l’insieme U = {t ∈ R | (t, p) ∈ U } `e un intervallo aperto contenente 0; (ii) per ogni p ∈ M la curva θp : U p → M definita da θ p (t) = Θ(t, p) `e l’unica curva integrale massimale di X uscente da p; (iii) per ogni t ∈ R l’insieme Ut = {p ∈ M | (t, p) ∈ U } `e un aperto di M ; (iv) se p ∈ Ut , allora p ∈ Us+t se e solo se Θ(t, p) ∈ Us , e in questo caso θs θt (p) = θs+t (p) , dove θt : Ut → M `e definita da θt (p) = Θ(t, p). In particolare, θ0 = id e θt : Ut → U−t `e un diffeomorfismo con inversa θ−t .
3.3 Flusso di un campo vettoriale
155
Inoltre: (v) per ogni (t, p) ∈ U, si ha d(θt )p (X) = Xθt (p) ; (vi) per ogni f ∈ C ∞ (M ) e p ∈ M si ha d = (Xf )(p) . (f ◦ θp ) dt t=0 Dimostrazione. Cominciamo col notare che il Teorema 3.3.3 implica, grazie a quanto visto sopra lavorando in coordinate locali, che per ogni p ∈ X una curva integrale di X uscente da p esiste sempre. Siano σ, σ ˜ : I → M due curve integrali di X tali che σ(t0 ) = σ ˜ (t0 ) per ˜ (t). qualche t0 ∈ I, e sia J ⊆ I l’insieme degli t ∈ I tali che σ(t) = σ Allora l’insieme J `e non vuoto, chiuso, ed `e anche aperto, grazie al Teorema 3.3.3.(ii); quindi J = I, e dunque due curve integrali che coincidono in un punto coincidono nell’intersezione dei loro domini di definizione. Per ogni p ∈ M indichiamo allora con U p l’unione di tutti gli intervalli aperti I ⊆ R contenenti 0 su cui sia definita una curva integrale uscente da p. Chiaramente, U p `e un intervallo aperto contenente l’origine, e l’argomento precedente ci dice (perch´e?) che esiste una curva integrale θ p : U p → M di X uscente da p definita su tutto U p , e che questa `e la curva integrale massimale uscente da p. Poniamo allora U = {(t, p) ∈ R × M | t ∈ U p }, e definiamo Θ: U → M ponendo Θ(t, p) = θp (t). Inoltre, poniamo Ut = {p ∈ M | (t, p) ∈ U }, e definiamo θt : Ut → M con θt (p) = Θ(t, p). In questo modo abbiamo ottenuto (i), (ii) e l’unicit` a di U e Θ; vediamo di dimostrare (iv). Per definizione, U0 = M e θ0 = idM . Prendiamo ora p ∈ M e t ∈ U p , e poniamo q = θp (t). Allora la curva σ: U p − t → M definita da σ(s) = θ p (s + t) , dove U p − t = {s ∈ R | s + t ∈ U p }, `e ancora una curva integrale di X. Infatti, σ (s) =
dθp (s + t) = X θp (t + s) = X σ(s) . ds p
Quindi necessariamente σ(s) = θ q (s), cio`e θθ Θ s, Θ(t, p) = Θ(s + t, p), o anche θs+t (p) = θs θt (p) ,
(t)
(s) = θp (s + t), ovvero
e U p − t ⊆ U q . Siccome 0 ∈ U p , otteniamo −t ∈ U q , e θq (−t) = p. Applicando questo ragionamento a (−t, q) invece di (t, p), otteniamo che U q + t ⊆ U p , e quindi U p − t = U Θ(t,p) , che vuol dire esattamente che Θ(t, p) ∈ Us se e solo se p ∈ Us+t . Quindi (iv) `e dimostrata.
156
3 Fibrati
Ora facciamo vedere che U `e aperto in R × M , da cui segue (iii), e che Θ `e di classe C ∞ . Sia W ⊆ U l’insieme dei (t, p) ∈ U tale che esista un intorno di (t, p) della forma I ×U , con I intervallo aperto contenente 0 e t, e U intorno aperto di p in M , su cui Θ sia definita e di classe C ∞ . Chiaramente ci basta dimostrare che W = U. Prima di tutto, il Teorema 3.3.3 ci dice che (0, p) ∈ W per ogni p ∈ M . Supponiamo per assurdo che esista (t0 , p0 ) ∈ U \ W. Siccome t0 = 0, possiamo assumere per semplicit`a t0 > 0; il caso t0 < 0 sar`a analogo. Sia τ = sup{t ∈ R | (t, p0 ) ∈ W}; per costruzione, 0 < τ ≤ t0 . Siccome t0 ∈ U p0 , abbiamo τ ∈ U p0 ; poniamo q0 = θp0 (τ ). Il Teorema 3.3.3 ci fornisce un δ > 0 e un intorno U0 di q0 tale che Θ sia definita e di classe C ∞ su (−δ, δ) × U0 . Scegliamo t1 < τ tale che t1 + δ > τ e θp0 (t1 ) ∈ U0 . Siccome t1 < τ , abbiamo (t1 , p0 ) ∈ W, e quindi esiste un intorno (−ε, t1 + ε) × U1 di (t1 , p0 ) su cui Θ `e definita e di classe C ∞ . Inoltre, possiamo anche scegliere U1 in modo che Θ({t1 } × U1 ) ⊆ U0 . Dunque, se p ∈ U1 abbiamo che θt1 (p) `e definito e dipende C ∞ da p. Inoltre, essendo θt1 (p) ∈ U0 , abbiamo che θt−t1 ◦θt1 (p) `e definito e dipende C ∞ da p ∈ U1 e t ∈ (t1 − δ, t1 + δ). Ma (iii) ci dice che θt−t1 ◦ θt1 (p) = θt (p); quindi abbiamo esteso Θ in modo C ∞ a un aperto della forma (−ε, t1 + δ) × U1 , per cui (t1 + δ, p0 ) ∈ W, contro la definizione di τ . Questa contraddizione mostra che W = U , come voluto. La (vi) `e ora immediata: infatti, d p , (Xf )(p) = dfp (X) = (f ◦ θ ) dt t=0 in quanto θp `e una curva con θ p (0) = p e (θp ) (0) = X(p). Infine, dimostriamo (v). Preso (t0 , p0 ) ∈ U e posto q = θt0 (p0 ), per ogni germe f ∈ C ∞ (q) si ha d d (f ◦ θt0 ◦ θ p0 ) f θt0 +t (p0 ) = d(θt0 )p0 (X)(f ) = Xp0 (f ◦ θt0 ) = dt dt t=0 t=0 d p0 f θ (t0 + t) = = Xθp0 (t0 ) (f ) , dt t=0
e ci siamo.
Definizione 3.3.6. L’applicazione Θ: U → M introdotta nel teorema precedente `e detta flusso locale del campo vettoriale X. Il campo X ∈ T (M ) `e detto completo se U = R × M , cio`e se tutte le curve integrali di X sono definite per tutti i tempi. Inoltre, un campo vettoriale Y ∈ T (M ) `e detto X-invariante se d(θt )p (Y ) = Yθt (p) per ogni (t, p) nel dominio del flusso locale Θ di X. Per esempio, il Teorema 3.3.5.(v) dice che ogni campo vettoriale `e invariante rispetto a se stesso.
3.4 Parentesi di Lie
157
3.4 Parentesi di Lie L’interpretazione dei campi vettoriali come derivazioni dell’algebra delle funzioni differenziabili permette di introdurre una nuova operazione sullo spazio vettoriale dei campi vettoriali. Se X e Y sono due campi vettoriali su una variet` a M , a ogni f ∈ C ∞ (M ) possiamo associare la funzione X(Y f ). Ora, f → X(Y f ) non `e una derivazione (e quindi non `e un campo vettoriale): infatti X Y (f g) = X f Y (g) + gY (f ) = f X(Y g) + X(f )Y (g) + X(g)Y (f ) + gX(Y f ) . Ma questa stessa formula mostra che XY − Y X `e una derivazione: infatti (XY − Y X)(f g) = f X(Y g) + gX(Y f ) − f Y (Xg) − gY (Xf ) = f (XY − Y X)(g) + g(XY − Y X)(f ) . Dunque la Proposizione 3.3.2 implica che XY − Y X `e un campo vettoriale. Definizione 3.4.1. La parentesi di Lie di due campi X, Y ∈ T (M ) `e il campo vettoriale [X, Y ] = XY − Y X definito da ∀f ∈ C ∞ (M )
[X, Y ](f ) = X(Y f ) − Y (Xf ) .
Diremo che due campi vettoriali X, Y ∈ T (M ) commutano se [X, Y ] ≡ O. La prossima proposizione raccoglie propriet` a basilari della parentesi di Lie. Proposizione 3.4.2. Se X, Y e Z sono campi vettoriali su una variet` a M, a, b ∈ R e f , g ∈ C ∞ (M ), si ha: (i) [X, Y ] = −[Y, X] (anticommutativit` a); (ii) [aX + bY,8Z] 7= a[X, Z]8+ b[Y, a); 7 7 Z] (linearit` 8 (iii) X, [Y, Z] + Y, [Z, X] + Z, [X, Y ] = 0 (identit` a di Jacobi); (iv) [f X, gY ] = f g[X, Y ] + f (Xg)Y − g(Y f )X; (v) se in coordinate locali abbiamo X = h X h ∂h e Y = k Y k ∂k allora n k k h ∂Y h ∂X −Y X ∂k . [X, Y ] = ∂xh ∂xh h,k=1
In particolare, [∂h , ∂k ] = 0. Dimostrazione. (i) e (ii) sono ovvie. Poi si ha 7 8 X, [Y, Z] = XY Z − XZY − Y ZX + ZY X , 7 8 Y, [Z, X] = Y ZX − Y XZ − ZXY + XZY , 7 8 Z, [X, Y ] = ZXY − ZY X − XY Z + Y XZ ,
158
3 Fibrati
e sommando si ottiene la (iii). Inoltre, [f X, gY ] = f X(gY ) − gY (f X) = f g(XY ) + f (Xg)Y − f g(Y X) − g(Y f )X = f g[X, Y ] + f (Xg)Y − g(Y f )X , e anche (iv) `e dimostrata. Il teorema di Schwartz sulle derivate seconde implica che ∂ 2 (f ◦ ϕ−1 ) ∂ 2 (f ◦ ϕ−1 ) − ≡0, [∂h , ∂k ](f ) = ∂xh ∂xk ∂xk ∂xh dove ϕ = (x1 , . . . , xn ) `e la carta locale che stiamo usando, per cui [∂h , ∂k ] = 0, e (v) segue dalle precedenti.
Ora, se Θ `e il flusso locale di un campo vettoriale X ∈ T (M ), e Y ∈ T (M ) `e un altro campo vettoriale, l’applicazione Y ◦ Θ `e di classe C ∞ . Ma allora t → d(θ−t )θt (p) (Y ) `e una funzione C ∞ a valori in Tp M che dipende in modo C ∞ dal punto p, e che misura la variazione del campo Y lungo la curva integrale di X uscente da p. Questo suggerisce un modo di misurare la derivata di Y nella direzione di X: Definizione 3.4.3. Siano X, Y ∈ T (M ) due campi vettoriali su una variet` a M . La derivata di Lie di Y lungo X `e il campo vettoriale LX Y ∈ T (M ) definito da d(θ−t )θt (p) (Y ) − Yp d d(θ−t )θt (p) (Y ) = lim LX Y (p) = t→0 dt t t=0 per ogni p ∈ M . Osservazione 3.4.4. Se Y ∈ T (M ) `e un campo X-invariante, chiaramente LX Y ≡ O. Viceversa, nella Proposizione 3.7.3 dimostreremo che se LX Y ≡ O allora Y `e X-invariante. Non `e difficile dimostrare direttamente (Esercizio 3.36) che LX Y `e effettivamente un campo vettoriale. Ma non `e necessario farlo: infatti, il risultato tutt’altro che evidente che vogliamo dimostrare ora `e che la derivata di Lie di Y lungo X `e esattamente uguale a [X, Y ] (da cui segue in particolare che `e un campo vettoriale). Ci servir` a un altro lemma di divisione: Lemma 3.4.5. Siano dati un aperto U ⊆ M di una variet` a M , un numero δ > 0, e una funzione h: (−δ, δ) × U → R di classe C ∞ con h(0, q) = 0 per ogni q ∈ U . Allora esiste una g: (−δ, δ) × U → R di classe C ∞ tale che h(t, q) = tg(t, q) e g(0, q) =
∂h ∂t (0, q)
per ogni q ∈ U .
3.4 Parentesi di Lie
159
Dimostrazione. Basta porre .
1
g(t, q) = 0
∂h (ts, q) ds ; ∂t
infatti . tg(t, q) = 0
1
∂h (ts, q) d(ts) = h(t, q) − h(0, q) = h(t, q) . ∂t
Allora: Proposizione 3.4.6. Siano X, Y ∈ T (M ) due campi vettoriali su una variet` a M . Allora LX Y = [X, Y ]. Dimostrazione. Indichiamo con Θ: U → M il flusso locale di X. Dato p ∈ M , scegliamo δ > 0 e un intorno U0 di p tali che (−δ, δ) × U0 ⊆ U. Sia (U, f ) un rappresentante di un germe in p, dove abbiamo scelto U ed eventualmente diminuito δ in modo che Θ (−δ, δ) × U ⊆ U0 . Definiamo h: (−δ, δ) × U → R ponendo h(t, q) = f (q) − f θ−t (q) , e sia g: (−δ, δ) × U → R la funzione data dal lemma precedente. Allora ricordando il Teorema 3.3.5.(vi) otteniamo f ◦ θ−t (q) = f (q) − tg(t, q)
e
g(0, q) = Xf (q) ,
per cui d(θ−t )θt (p) (Y )(f ) = Yθt (p) (f ◦ θ−t ) = (Y f ) θt (p) − t(Y gt ) θt (p) , dove abbiamo posto gt (q) = g(t, q). Quindi (Y f ) θt (p) − (Y f )(p) 1 − (Y g0 )(p) lim [d(θ−t )θt (p) (Y ) − Yp ](f ) = lim t→0 t t→0 t d ((Y f ) ◦ θp ) = − Yp (Xf ) dt t=0 = X(Y f )(p) − Y (Xf )(p) = [X, Y ](f )(p) , grazie nuovamente al Teorema 3.3.5.(vi), e ci siamo.
Concludiamo questa sezione introducendo un ultimo concetto utile. Definizione 3.4.7. Se F : M → N `e un diffeomorfismo, e X ∈ T (M ), allora indichiamo con dF (X) il campo vettoriale su N definito ponendo ∀q ∈ N
dFq (X) = dFF −1 (q) (XF −1 (q) ) .
(3.17)
160
3 Fibrati
Se F : M → N non `e un diffeomorfismo, la formula (3.17) non si pu` o applicare: se F non `e surgettiva esistono dei q ∈ N per cui F −1 (q) `e vuoto, e se F non `e iniettiva potrebbero esistere p1 , p2 ∈ M per cui q = F (p1 ) = F (p2 ) ma dFp1 (Xp1 ) = dFp2 (Xp2 ), per cui (3.17) non darebbe un modo univoco per definire un vettore tangente in q. Introduciamo allora la seguente Definizione 3.4.8. Sia F : M → N un’applicazione di classe C ∞ fra due variet` a. Diremo che un campo vettoriale V ∈ T (N ) `e F -correlato a un campo vettoriale X ∈ T (M ) se VF (p) = dFp (Xp ) per ogni p ∈ M . Chiaramente, se F `e un diffeomorfismo allora dF (X) `e l’unico campo vettoriale su N che `e F -correlato a X, ma se F non `e un diffeomorfismo potrebbero esistere pi` u campi vettoriali F -correlati a X, o potrebbe non esisterne nessuno (vedi l’Esercizio 3.30). In ogni caso, ci sar` a utile il seguente Lemma 3.4.9. Siano F : M → N un’applicazione differenziabile, X ∈ T (M ) e V ∈ T (N ). Allora: (i) V `e F -correlato a X se e solo se X(f ◦ F ) = (V f ) ◦ F per ogni funzione f di classe C ∞ in un aperto di N ; (ii) se V `e F -correlato a X e W ∈ T (N ) `e F -correlato a Y ∈ T (M ) allora [V, W ] `e F -correlato a [X, Y ]; (iii) se F `e un diffeomorfismo e Y ∈ T (M ) allora [dF (X), dF (Y )] = dF [X, Y ]. Dimostrazione. (i) Per ogni p ∈ M e ogni funzione f di classe C ∞ in un intorno di F (p) si ha X(f ◦ F )(p) = (dFp Xp )(f ) e (V f ) ◦ F (p) = VF (p) (f ). Quindi X(f ◦ F ) = (V f ) ◦ F se e solo se dFp (Xp ) = VF (p) per ogni p ∈ M . (ii) Sia f una funzione differenziabile definita in un aperto di N . Allora la parte (i) ci dice che XY (f ◦ F ) = X((W f ) ◦ F ) = (V W f ) ◦ F e Y X(f ◦ F ) = (W V f ) ◦ F ; quindi [X, Y ](f ◦ F ) = ([V, W ]f ) ◦ F , e di nuovo la parte (i) ci dice che [V, W ] `e F -correlato a [X, Y ]. (iii) Segue subito da (ii) prendendo V = dF (X) e W = dF (Y ).
3.5 Algebre di Lie In questa sezione studieremo la struttura, particolarmente interessante, dei campi vettoriali sui gruppi di Lie. Definizione 3.5.1. Un campo vettoriale X ∈ T (G) su un gruppo di Lie G `e invariante a sinistra se si ha dLh (X) = X per ogni h ∈ G, cio`e se ∀h, x ∈ G
d(Lh )x (Xx ) = Xhx ,
dove Lh : G → G `e la traslazione sinistra.
3.5 Algebre di Lie
161
Lemma 3.5.2. Sia G un gruppo di Lie di elemento neutro e ∈ G. Allora: (i) l’applicazione X → X(e) `e un isomorfismo fra il sottospazio di T (M ) costituito dai campi vettoriali invarianti a sinistra e lo spazio tangente Te G; (ii) se X, Y ∈ T (G) sono invarianti a sinistra, allora anche [X, Y ] lo `e. Dimostrazione. (i) Se X ∈ T (G) `e invariante a sinistra, chiaramente abbiamo Xh = d(Lh )e (Xe ) per ogni h ∈ G, per cui X `e completamente determinato dal suo valore in e. Viceversa, se scegliamo v ∈ Te G e definiamo X ∈ T (G) ponendo Xh = d(Lh )e (v) ∈ Th G per ogni h ∈ G otteniamo (controlla!) un campo vettoriale invariante a sinistra che vale v nell’elemento neutro. (ii) Se X e Y sono campi vettoriali invarianti a sinistra il Lemma 3.4.9 dice che dLh [X, Y ] = [dLh X, dLh Y ] = [X, Y ] per ogni h ∈ G, per cui anche [X, Y ] `e invariante a sinistra.
Dunque lo spazio tangente all’identit` a di un gruppo di Lie eredita dai campi vettoriali invarianti a sinistra un’ulteriore struttura algebrica data dalla parentesi di Lie. Definizione 3.5.3. Uno spazio vettoriale V dotato di un’ulteriore operazione [· , ·]: V × V → V che soddisfa le propriet` a (i)-(iii) della Proposizione 3.4.2, cio`e tale che: (a) [v, w] = −[w, v] (anticommutativit` a ); (b) [au + bv, w] = a[u, w] + b[v, w] (linearit` a ); 7 8 7 8 7 8 (c) u, [v, w] + v, [w, u] + w, [u, v] = 0 (identit` a di Jacobi ), `e detto algebra di Lie. Se V e W sono algebre di Lie, un morfismo di algebre di Lie `e un’applicazione lineare L: V → W tale che [L(v1 ), L(v2 )] = L[v1 , v2 ] per ogni v1 , v2 ∈ V . Esempio 3.5.4. Sia A un’algebra non commutativa sul campo K. Allora possiamo fornire A di una struttura di algebra di Lie tramite il commutatore [· , ·]: A × A → A definito da ∀X, Y ∈ A
[X, Y ] = XY − Y X ;
si verifica subito che il commutatore soddisfa le propriet` a (a)–(c) della Definizione 3.5.3. In particolare, lo spazio vettoriale delle matrici Mn,n (K) con questa struttura di algebra di Lie verr` a indicato con gl(n, K). Esempio 3.5.5. La Proposizione 3.4.2 dice esattamente che lo spazio dei campi vettoriali su una variet` a considerato con la parentesi di Lie `e un’algebra di Lie.
162
3 Fibrati
Nel caso dei gruppi di Lie, il sottospazio dei campi vettoriali invarianti a sinistra induce una struttura di algebra di Lie particolarmente importante: Definizione 3.5.6. Sia G un gruppo di Lie di elemento neutro e ∈ G. Per ogni v ∈ Te G, indichiamo con X v ∈ T (G) l’unico campo vettoriale invariante a sinistra tale che X v (e) = v. Allora lo spazio tangente all’elemento neutro, considerato con la sua struttura di spazio vettoriale e con l’operazione [·, ·]: Te G × Te G → Te G definita da [v, w] = [X v , X w ](e), `e detto algebra di Lie g del gruppo G. Un primo assaggio della relazione fra gruppi di Lie e algebre di Lie `e dato dal seguente Lemma 3.5.7. Siano G e H gruppi di Lie di algebre di Lie rispettivamente g e h, e F : G → H un omomorfismo di gruppi di Lie. Allora dFe : g → h `e un morfismo di algebre di Lie. ˜ Y˜ ∈ T (G) i corrispondenti Dimostrazione. Dati X, Y ∈ g, indichiamo con X, ˆ Yˆ ∈ T (H) i campi invarianti a sinistra campi invarianti a sinistra, e con X, corrispondenti a dFe (X) e dFe (Y ). Dobbiamo dimostrare che ˜ Y˜ ](e) = [X, ˆ Yˆ ](e) . dFe [X,
(3.18)
ˆ `e F -correlato a X ˜ (e analogamente per Yˆ e Y˜ ). La prima osservazione `e che X Infatti, essendo F un omomorfismo di gruppi di Lie abbiamo F ◦Lg = LF (g) ◦F per ogni g ∈ G, e quindi ˜ g ) = dFg d(Lg )e (X) = d(LF (g) )e dFe (X) = X ˆ F (g) . dFg (X Quindi (3.18) segue subito dal Lemma 3.4.9.
Viceversa, vedremo (Teorema 3.8.3) che, se G `e semplicemente connesso, ogni morfismo fra le algebre di Lie `e indotto da un omomorfismo di gruppi di Lie; inoltre, un gruppo di Lie semplicemente connesso `e completamente determinato dalla sua algebra di Lie (Corollario 3.8.4). Dimostreremo questi risultati nella Sezione 3.8; qui invece concludiamo determinando l’algebra di Lie di qualche esempio. Definizione 3.5.8. Sia G un gruppo di Lie di dimensione n, indichiamo con g la sua algebra di Lie, e sia B = {v1 , . . . , vn } una base di g come spazio vettoriale. Allora per ogni i, j = 1, . . . , n devono esistere c1ij , . . . , cnij ∈ R tali che n [vi , vj ] = ckij vk . k=1
Le costanti
ckij
∈ R sono dette costanti di struttura di g rispetto alla base B.
3.5 Algebre di Lie
163
Esempio 3.5.9. Sia G = GL(n, R) il gruppo delle matrici invertibili a coefficienti reali; vogliamo dimostrare che la sua algebra di Lie `e l’algebra gl(n, R) 2 introdotta nell’Esempio 3.5.4. Siccome G `e un aperto di Rn , lo spazio tangente nell’identit` a a G `e canonicamente isomorfo come spazio vettoriale a gl(n, R); dobbiamo dimostrare che anche le strutture di algebra di Lie coincidono. Per ogni a = (aji ) ∈ gl(n, R) indichiamo con a ˜ ∈ T (G) la sua estensione come campo vettoriale invariante a sinistra. Se x = (xkh ) ∈ G e f ∈ C ∞ (x), abbiamo a ˜x (f ) = d(Lx )I (a)(f ) = a(f ◦ Lx ) =
n
aji
i,j=1
=
n
aji
i,j=1
=
n
∂(f ◦ Lx ) ∂yij
(I)
n n n ∂f ∂(xkr yhr ) ∂f (x) = aji xkr δjr δhi k (x) j k ∂x ∂x ∂yi h h r=1 h,k=1 i,j,h,k,r=1
xkj ajh
h,j,k=1
∂f (x) , ∂xkh
per cui a ˜x = Ra (x) = xa . Da questo segue facilmente che [˜ a, ˜b]x = x(ab − ba), per cui effettivamente la struttura di algebra di Lie `e data dal commutatore: ∀a, b ∈ gl(n, R)
[a, b] = ab − ba .
In particolare, se indichiamo con B = {Eij }i,j=1,...,n la base canonica di gl(n, R), dove Eij `e la matrice con 1 al posto (i, j) e 0 altrove, cio`e (Eij )rs = δir δjs , le costanti di struttura di gl(n, R) rispetto a B sono date da (rs)
c(ij)(hk) = δir δks δjh − δhr δjs δik . Esempio 3.5.10. Se V `e uno spazio vettoriale di dimensione n su R, il gruppo di Lie G = GL(V ) `e chiaramente isomorfo a GL(n, R), e la sua algebra di Lie gl(V ) `e isomorfa a gl(n, R). In particolare, gl(V ) = Hom(V, V ) come spazio vettoriale, e la struttura di algebra di Lie `e di nuovo data dal commutatore. Com’`e prevedibile, l’algebra di Lie di un sottogruppo di Lie G pu` o essere identificata a una sottoalgebra dell’algebra di Lie di G. Definizione 3.5.11. Una sottoalgebra di un’algebra di Lie g `e un sottospazio vettoriale h di g tale che [v, w] ∈ h per ogni v, w ∈ h. Proposizione 3.5.12. Sia G un gruppo di Lie di algebra di Lie g, e sia H ⊆ G un sottogruppo di Lie. Allora h = Te H ⊆ g `e una sottoalgebra di g canonicamente isomorfa all’algebra di Lie di H.
164
3 Fibrati
Dimostrazione. Per definizione, l’inclusione ι: H → G `e un omomorfismo gruppi di Lie; quindi, per il Lemma 3.5.7, dιe `e un morfismo di algebre Lie. Siccome h `e esattamente l’immagine di dιe , che `e iniettivo, abbiamo tesi.
di di la
Esempio 3.5.13. Vogliamo determinare l’algebra di Lie del gruppo di Lie SL(n, R) (vedi gli Esempi 2.1.40 e 2.5.16). Grazie alla Proposizione 3.5.12, `e sufficiente determinare lo spazio tangente a SL(n, R) nell’identit` a In che, per la Proposizione 2.4.23.(ii), coincide con il nucleo di d(det)In . Ora, i conti fatti nell’Esempio 2.1.40 mostrano (controlla) che ∀A ∈ GL(n, R) ∀X ∈ Mn,n (R) d(det)A (X) = (det A)tr(A−1 X) . In particolare, prendendo A = In troviamo d(det)In (X) = tr(X). Quindi l’algebra di Lie di SL(n, R), che indicheremo con sl(n, R), `e data dalle matrici a traccia nulla: sl(n, R) = {X ∈ gl(n, R) | tr(X) = 0} . Nello stesso modo si dimostra che l’algebra di Lie sl(n, C) di SL(n, C) `e data dalle matrici complesse a traccia nulla. In maniera analoga (Esercizi 3.58 e 3.59) si dimostra che l’algebra di Lie o(n) del gruppo ortogonale O(n) `e data dalle matrici antisimmetriche o(n) = {X ∈ gl(n, R) | X + X T = O} , e che l’algebra di Lie u(n) del gruppo unitario U (n) `e data dalle matrici antihermitiane u(n) = {X ∈ gl(n, C) | X + X ∗ = O} .
3.6 Sottogruppi di Lie In questa sezione vogliamo studiare la struttura dei sottogruppi di un gruppo di Lie, iniziando con un caso particolarmente importante: Definizione 3.6.1. Sia G un gruppo di Lie connesso. Un sottogruppo a un parametro di G `e una applicazione θ: R → G di classe C ∞ che sia un omomorfismo di gruppi. In altre parole, richiediamo che θ(0) = e sia l’identit` a di G, e che θ(t + s) = θ(t) · θ(s) per ogni s, t ∈ R. I sottogruppi a un parametro sono esattamente le curve integrali di campi vettoriali invarianti a sinistra: Lemma 3.6.2. Sia G un gruppo di Lie di algebra di Lie g. Preso X ∈ g, sia ˜ ∈ T (G) il campo vettoriale invariante a sinistra associato a X. Allora: X
3.6 Sottogruppi di Lie
165
˜ uscente da e `e un sottogruppo a un parametro (i) la curva integrale di X di G; (ii) viceversa, se θ: R → G `e un semigruppo a un parametro con θ (0) = X, ˜ uscente da e. In particolare, se X = O allora θ `e la curva integrale di X allora θ `e un’immersione, per cui θ(R) `e un sottogruppo di Lie di G. ˜ Dimostrazione. (i) Sia σ: (−ε, ε) → G la curva integrale massimale di X uscente da e. Vogliamo dimostrare che per ogni t0 ∈ (−ε, ε) la curva ˜ uscente γ: (−ε, ε) → G data da γ(t) = σ(t0 )σ(t) `e una curva integrale di X da σ(t0 ). Infatti si ha ˜ ˜ γ(t) , γ (t) = d(Lσ(t0 ) )σ(t) σ (t) = d(Lσ(t0 ) )σ(t) X(σ(t)) =X come voluto. Ma l’unicit` a delle curve integrali ci dice che allora γ(t) = σ(t0 +t), cio`e σ(t0 + t) = σ(t0 )σ(t) per ogni t0 , t ∈ (−ε, ε). In particolare questo implica che ε dev’essere necessariamente infinito (perch´e?), e che σ `e un sottogruppo a un parametro. (ii) Supponiamo che θ sia un sottogruppo a un parametro con θ (0) = X. Allora θ(t0 + t) = Lθ(t0 ) θ(t), per cui d ˜ θ(t0 ) , θ (t0 ) = (Lθ(t0 ) ◦ θ) = d(Lθ(t0 ) )e θ (0) = d(Lθ(t0 ) )e (X) = X dt t=0 ˜ uscente da e. e quindi θ `e la curva integrale di X
In particolare, quindi, per ogni X ∈ g esiste un unico sottogruppo a un ˜ uscente (0) = X: `e la curva integrale di X parametro θX : R → G tale che θX da e. Definizione 3.6.3. Sia G un gruppo di Lie. Dato X ∈ g, la curva integrale ˜ assoθX : R → G uscente da e del campo vettoriale invariante a sinistra X ciato a X `e detta sottogruppo a un parametro generato da X. L’applicazione esponenziale di G `e l’applicazione exp: g → G data da exp(X) = θX (1). Osservazione 3.6.4. Se s ∈ R, abbiamo che t → θX (st) `e un semigruppo a un parametro tangente a sX in 0; quindi exp(sX) = θX (s). In altre parole, tutti i sottogruppi a un parametro di G sono della forma t → exp(tX) per qualche X ∈ g; e, viceversa, la curva integrale uscente da e tangente a X ∈ g `e data da t → exp(tX). Esempio 3.6.5. Sia G = GL(n, R), per cui g = gl(n, R). Allora per ogni X ∈ gl(n, R) possiamo definire l’applicazione θX : R → GL(n, R) ponendo θX (t) = etX , dove etX `e il solito esponenziale di matrici. Si verifica subito che θX `e un sot togruppo a un parametro con θX (0) = X, per cui l’applicazione esponenziale di GL(n, R) `e l’usuale esponenziale di matrici.
166
3 Fibrati
Lo stesso argomento lo si pu`o applicare a GL(V ), dove V `e un qualsiasi spazio vettoriale di dimensione finita, usando come definizione di esponenziale di un endomorfismo L ∈ gl(V ) = End(V ) la eL =
∞ 1 k L , k!
k=0
dove Lk indica la composizione di L con se stesso k volte. La prossima proposizione contiene le propriet` a principali dell’applicazione esponenziale: Proposizione 3.6.6. Sia G un gruppo di Lie di algebra di Lie g. Allora: (i) l’applicazione esponenziale exp: g → G `e di classe C ∞ ; a, dove stiamo identificando lo (ii) il differenziale d(exp)Oe : g → g `e l’identit` spazio tangente a g in Oe con g stessa; (iii) exp `e un diffeomorfismo fra un intorno di Oe ∈ g e un intorno di e ∈ G; (iv) se F : G → H `e un omomorfismo di gruppi di Lie, allora exp ◦dFe = F ◦ exp, cio`e il diagramma dFe /h g exp
G
exp
F
/H
commuta, dove h `e l’algebra di Lie di H; ˜ indotto da X ∈ g (v) il flusso Θ del campo vettoriale invariante a sinistra X `e dato dalla moltiplicazione a destra per exp(tX), cio`e θt = Rexp(tX) . Dimostrazione. (i) Per ogni X ∈ g, indichiamo con ΘX il flusso del corrispon˜ Allora exp(X) = ΘX (1, e), per dente campo vettoriale invariante a sinistra X. cui dobbiamo dimostrare che l’applicazione X → ΘX (1, e) `e di classe C ∞ . Per far ci` o, introduciamo un campo vettoriale X sulla variet` a prodotto G × g ponendo X g,X = (Xg , O) ∈ Tg G ⊕ TX g ∼ = T(g,X) (G × g) . Si vede subito (controlla) che il flusso Θ di X `e dato da Θ t, (g, X) = ΘX (t, g), X . In particolare exp(X) = π1 Θ 1, (e, X) , dove π1 : G × g → G `e la proiezione sulla prima coordinata; quindi exp dipende C ∞ da X, in quanto Θ `e di classe C ∞ per il Teorema 3.3.5. (ii) Fissato X ∈ g, sia σ: R → g la curva σ(t) = tX. Allora σ (0) = X e d exp(tX) =X, d(exp)Oe (X) = (exp ◦σ) (0) = dt t=0
3.6 Sottogruppi di Lie
167
dove la prima eguaglianza segue dalla Proposizione 2.3.27 e l’ultima eguaglianza segue dal Lemma 3.6.2 e dalla Osservazione 3.6.4. (iii) Segue immediatamente da (ii) e dal teorema della funzione inversa Corollario 2.3.29. ` sufficiente dimostrare che σ(t) = F exp(tX) `e il sottogruppo a un (iv) E parametro in H generato da dFe (X), quale che sia X ∈ g. Prima di tutto, σ `e un sottogruppo a un parametro: infatti σ(s)σ(t) = F exp(sX) F exp(tX) = F exp(sX) exp(tX) = F exp (s + t)X = σ(s + t) , dove abbiamo usato il fatto che F `e un omomorfismo di gruppi e il fatto che t → exp(tX) `e un sottogruppo a un parametro. Infine, σ (0) = dFe (X) segue subito dal fatto che exp(tX) `e il semigruppo a un parametro generato da X. (v) Dato g ∈ G poniamo θg (t) = Rexp(tX) (g) = g exp(tX); la tesi `e allora g ˜ equivalente a far vedere che θ `e la curva integrale di X uscente da g. Ma g infatti θ (t) = Lg exp(tX) , per cui
d ˜ exp(tX) ) (θg ) (t) = d(Lg )exp(tX) exp(tX) = d(Lg )exp(tX) (X dt ˜ g exp(tX) = X ˜ θg (t) , =X
˜ grazie all’invarianza a sinistra di X.
Fra i sottogruppi di un gruppo di Lie, particolarmente importanti sono i sottogruppi (topologicamente) chiusi. Una prima idea del motivo `e data dalla seguente proposizione (che vale anche per gruppi topologici, cio`e gruppi con una topologia rispetto a cui le operazioni sono continue): Proposizione 3.6.7. Sia G un gruppo di Lie. Allora: (i) se H `e un sottogruppo algebrico di G che `e (topologicamente) aperto allora `e anche chiuso; (ii) ogni intorno aperto connesso U ⊂ G dell’elemento neutro e genera la componente connessa G0 di G contenente e, nel senso che ogni elemento di G0 si ottiene come prodotto di un numero finito di elementi di U ; (iii) se un sottogruppo algebrico H ha parte interna non vuota allora `e aperto, e quindi anche chiuso. Dimostrazione. (i) Infatti, se H ⊆ G `e un sottogruppo aperto, allora G\H =
( g ∈H /
`e aperto, per cui H `e anche chiuso.
gH
168
3 Fibrati
(ii) Se U `e un intorno aperto connesso di e, il sottogruppo generato da U `e ( U = Un , n∈N
dove U n `e l’insieme di tutti i possibili prodotti di n elementi di U . Siccome e ∈ U , questa `e un’unione crescente di connessi; quindi U `e un sottogruppo connesso aperto, e dunque chiuso, di G, cio`e `e una componente connessa di G. Contenendo l’elemento neutro, dev’essere U = G0 , come affermato. (iii) Sia U ⊆ H aperto. Se u ∈ U , allora u−1 U `e un intorno aperto dell’elemento neutro contenuto in H; quindi Lh (u−1 U ) per ogni h ∈ H `e un aperto contenuto in H e contenente h. Quindi H `e aperto, e dunque chiuso per la parte (i).
Possiamo ora dimostrare che i sottogruppi di Lie regolari di un gruppo di Lie coincidono esattamente con i sottogruppi algebrici chiusi, come annunciato nell’Osservazione 2.5.15: Teorema 3.6.8. Sia G un gruppo di Lie, e H un suo sottogruppo algebrico. Allora le seguenti affermazioni sono equivalenti: (i) H `e un sottogruppo di Lie regolare di G; (ii) H `e una sottovariet` a di G; (iii) H `e chiuso in G. Dimostrazione. (i)=⇒(ii): ovvio. (ii)=⇒(iii): essendo H una sottovariet` a di G, possiamo trovare una carta (U, ϕ) di G nell’elemento neutro e adattata ad H (Corollario 2.4.19), cio`e m tale che ϕ(U ∩ H) = ϕ(Um) ∩ (R × {O}), dove m = dim H. In particolare, −1 U ∩H = ϕ ϕ(U ) ∩ (R × {O}) `e chiuso in U . Scegliamo poi un intorno aperto W ⊂ G di e tale che W −1 W = {w1−1 w2 | w1 , w2 ∈ W } sia contenuto in U ; questo intorno esiste perch´e l’applicazione (g1 , g2 ) → g1−1 g2 da G × G in G `e continua e manda la coppia (e, e) in e. Sia {hν } una successione in H che converge a g ∈ G; per dimostrare che H `e chiuso ci basta far vedere che g ∈ H. Siccome gW `e un intorno di g, esiste ν0 ∈ N tale che hν ∈ gW per ν ≥ ν0 . Ma allora g −1 hν ∈ W e −1 hν0 )−1 g −1 hν ∈ W −1 W ∩ H ⊆ U ∩ H h−1 ν0 hν = (g −1 per ogni ν ≥ ν0 . Chiaramente, h−1 ν0 hν → hν0 g; inoltre −1 h−1 hν0 )−1 ∈ W −1 ⊆ W −1 W ⊆ U . ν0 g = (g −1 Abbiamo osservato sopra che U ∩ H `e chiuso in U ; quindi h−1 ν0 hν → hν0 g −1 −1 implica hν0 g ∈ U ∩ H, e quindi g = hν0 hν0 g ∈ H, come voluto.
3.6 Sottogruppi di Lie
169
(iii)=⇒(i): dobbiamo dimostrare che H `e una sottovariet`a di G. Sia g l’algebra di Lie di G, e definiamo h ⊆ g ponendo h = {X ∈ g | esiste una curva σ: R → G con σ(0) = e, σ (0) = X e σ(R) ⊆ H}. L’idea `e che se H `e una sottovariet` a allora h coincide con lo spazio tangente ad H in e, cio`e con l’algebra di Lie di H. Cominciamo col dimostrare che h `e un sottospazio vettoriale di g. Prendiamo Xj = σj (0) ∈ h e λj ∈ R per j = 1, 2, e definiamo σ: R → G ponendo σ(t) = σ1 (λ1 t)σ2 (λ2 t). Allora σ(t) ∈ H per ogni t ∈ R e σ (0) = λ1 X1 + λ2 X2 (dove abbiamo usato l’Esercizio 2.119), per cui λ1 X1 + λ2 X2 ∈ h. Adesso vogliamo dimostrare che per ottenere h `e sufficiente limitarsi ai sottogruppi a un parametro, cio`e che h = {X ∈ g | exp(tX) ∈ H per ogni t ∈ R} .
(3.19)
Che h contenga l’insieme a secondo membro `e ovvio. Per il viceversa, dimostriamo preliminarmente la seguente affermazione: (A) se esistono una successione {Xν } ⊂ g convergente a X ∈ g e una successione {tν } ⊂ R con tν → 0+ tali che exp(tν Xν ) ∈ H per ogni ν ∈ N∗ , allora exp(tX) ∈ H per ogni t ∈ R. 9 Sia t > 0. Per ν abbastanza grande esiste un intero mν ∈ ttν − 1, ttν ∩ N; quindi mν tν → t e mν tν Xν → tX. Essendo H chiuso otteniamo exp(tX) = lim exp(mν tν Xν ) = lim exp(tν Xν )mν ∈ H , ν→+∞
ν→+∞
come voluto. Infine, siccome exp(−tX) = exp(tX)−1 , abbiamo exp(tX) ∈ H anche per t < 0. Adesso, prendiamo X = σ (0) ∈ h; allora τ (t) = exp−1 σ(t) ∈ g `e definito per t sufficientemente piccolo, grazie alla Proposizione 3.6.6.(iii). Dunque la Proposizione 3.6.6.(ii) implica d exp τ (t) X = σ (0) = = τ (0) = lim ντ (1/ν) . ν→∞ dt t=0 Poniamo tν = 1/ν e Xν = ντ (1/ν); allora exp(tν Xν ) = exp τ (1/ν) = σ(1/ν) ∈ H per ogni ν > 0, e quindi (A) implica exp(tX) ∈ H per ogni t ∈ R. Dunque h `e contenuto nel secondo membro di (3.19), e l’uguaglianza `e dimostrata. L’idea `e ora usare l’esponenziale per costruire una carta adattata a H in e, e poi usare le traslazioni sinistre per ottenere un atlante adattato ad H. Sia k un supplementare di h in g, in modo da avere g = h ⊕ k. Prima di tutto, dimostriamo che esiste un intorno W dell’origine in k tale che exp(W ) ∩ H = {e}. Se non esistesse, potremmo trovare una successione
170
3 Fibrati
{Yν } ⊂ k \ {O} con Yν → O e exp(Yν ) ∈ H per ogni ν ∈ N. Scegliamo una norma qualsiasi · in g, e sia Zν = Yν /Yν . A meno di una sottosuccessione, potremmo supporre che Zν → Z ∈ k, con Z = 1. Ma per costruzione exp(Yν Zν ) = exp(Yν ) ∈ H e Yν → 0; quindi, sempre (A) darebbe exp(tZ) ∈ H per ogni t ∈ R. Ma questo implicherebbe Z ∈ h ∩ k = {O}, contraddizione. Sia ora ψ: h × k → G data da ψ(X, Y ) = exp(X) exp(Y ). Usando la Proposizione 3.6.6.(ii) si verifica subito (controlla) che ϕ `e un diffeomorfismo fra un intorno V × W di (O, O) e un intorno U di e; inoltre, per quanto appena visto, a meno di rimpicciolire W possiamo anche supporre che exp(W ) ∩ H = {e}. Vogliamo allora dimostrare che U ∩ H = exp(V ). Che exp(V ) ⊆ U ∩ H segue subito da (3.19). Viceversa, sia h ∈ U ∩ H; essendo h ∈ U , esistono unici X ∈ V e Y ∈ W tali che h = exp(X) exp(Y ). Quindi exp(Y ) = exp(−X)h ∈ exp(W ) ∩ H = {e} ; ma allora Y = O e h = exp(X) ∈ exp(V ). n Sia allora ϕ = ψ|−1 U . Allora (identificando g con R ) abbiamo dimostrato che (U, ϕ) `e*una carta di G centrata in e adattata ad H. Ma allora ) `e una carta di G centrata in h ∈ H adattata ad H; il Lh (U ), ϕ ◦ Lh−1 Corollario 2.4.19 implica allora che H `e una sottovariet` a di G, come voluto.
Vale la pena osservare che non tutti i sottogruppi algebrici di un gruppo di Lie sono chiusi, e questo vale anche per i sottogruppi a un parametro: Esempio 3.6.9. Sia G = T2 il toro bidimensionale, e sia θ: R → T2 data da θ(t) = (e2πit , e2πiαt ) , dove α ∈ R\Q `e irrazionale. Si verifica immediatamente che θ `e un sottogruppo a un parametro, per cui la sua immagine `e un sottogruppo algebrico di T2 . Ora dimostreremo che θ(R) `e denso in T2 ; quindi, in particolare, non `e chiuso. La prima osservazione `e che per ogni δ > 0 possiamo trovare kδ ∈ Z tale che |e2πiαkδ − 1| < δ. Infatti, essendo S 1 compatto, l’insieme {e2πiαn }n∈Z ha un punto limite z0 ∈ S 1 ; quindi possiamo trovare n1 , n2 ∈ Z tali che |e2πiαnj − z0 | < δ/2 per j = 1, 2. Poniamo kδ = n1 − n2 ; allora |e2πiαkδ − 1| = |e−2πiαn2 (e2πiαn1 − e2πiαn2 )| = |e2πiαn1 − e2πiαn2 | < δ , (3.20) come voluto. Ricordando inoltre che ∀t ∈ [−1/2, 1/2]
|t| ≤ |e2πit − 1| ≤ 2π|t| ,
questo vuol dire che esiste mδ ∈ Z tale che 0 < |kδ α − mδ | < 1/2 (le disuguaglianze sono strette perch´e α ∈ / Q) e |kδ α − mδ | < δ .
3.7 Il teorema di Frobenius
171
Ora, sia (e2πit0 , e2πit1 ) ∈ T2 un punto qualsiasi; se n ∈ Z abbiamo θ(t0 + n) − (e2πit0 , e2πit1 ) = |e2πiα(t0 +n) − e2πit1 | = |e2πi(b+nα) − 1| , dove b ∈ [0, 1) `e la parte frazionaria di αt0 − t1 (e · `e la norma euclidea in C2 ). Per far vedere che l’immagine di θ `e densa ci basta allora far vedere che per ogni ε > 0 esiste n ∈ Z tale che |e2πi(b+nα) − 1| < ε. Se b = 0 questo segue subito da (3.20) con δ = ε; supponiamo allora b > 0 e prendiamo δ = ε/2π (che, senza perdita di generalit`a, possiamo supporre minore di 1/2). Sia h ∈ N b < h + 1; allora tale che 0 < h ≤ |kδ α−m δ| 0 ≤ b − h|kδ α − mδ | < |kδ α − mδ | < δ =
1 1 ε< . 2π 2
Quindi prendendo n = ±hkδ , dove il segno `e scelto in modo che ±(kδ α − mδ ) = −|kδ α − mδ | , otteniamo |e2πi(b+nα) − 1| = |e2πi(b−h|kδ α−mδ |) − 1| ≤ 2π(b − h|kδ α − mδ |) < ε , e ci siamo.
3.7 Il teorema di Frobenius Questa sezione `e dedicata alla dimostrazione di un risultato fondamentale per lo studio dei campi vettoriali su una variet` a: il teorema di Frobenius. Cominciamo ponendoci un problema preliminare: supponiamo di avere su una variet` a M di dimensione n un riferimento locale {X1 , . . . , Xn } del fibrato tangente T M . Quando esiste una carta locale ϕ di M tale che X1 = ∂1 , . . . , Xn = ∂n ? Una condizione necessaria `e data dalla Proposizione 3.4.2.(v): si deve avere [Xi , Xj ] ≡ O per ogni i, j = 1, . . . , n. Vogliamo dimostrare che questa condizione `e (essenzialmente) anche sufficiente; per farlo procederemo per gradi. Definizione 3.7.1. Sia X ∈ T (M ) un campo vettoriale su una variet` a M. Diremo che p ∈ M `e un punto singolare di X se Xp = Op ; diremo che p `e un punto regolare altrimenti. Proposizione 3.7.2. Sia p ∈ M un punto regolare di un campo vettoriale X ∈ T (M ). Allora esiste una carta locale (U, ϕ) centrata in p tale che X|U ≡ ∂/∂x1 . Dimostrazione. Essendo un problema locale possiamo supporre M = Rn e p = O. Inoltre, siccome Xp = Op , a meno di permutare le coordinate possiamo
172
3 Fibrati
anche supporre che la prima coordinata di X non si annulli in p. Il nostro obiettivo `e trovare una carta locale (U, ϕ) in O tale che si abbia ∂ Xq = d(ϕ−1 )ϕ(q) ∂x1 ϕ(q) per ogni q ∈ U . Sia Θ: U → Rn il flusso locale di X, e scegliamo ε > 0 e un intorno aperto U0 dell’origine tali che (−ε, ε) × U0 ⊆ U. Poniamo S0 = U0 ∩ {x1 = 0}, e S = {x ∈ Rn−1 | (0, x ) ∈ S0 } ⊆ Rn−1 . Definiamo allora ψ: (−ε, ε)×S → Rn con ψ(t, x ) = θt (0, x ) . L’idea `e dimostrare che dψ(∂/∂t) ≡ X ◦ ψ e che dψ(0,O ) `e invertibile; allora ψ sar`a localmente invertibile, e l’inversa locale ϕ di ψ ci fornir` a la carta locale cercata. Dato (t0 , x0 ) ∈ (−ε, ε) × S e f ∈ C ∞ (−ε, ε) × U0 abbiamo ∂ ∂ ∂ (f ◦ ψ) f θt (0, x0 ) dψ(t0 ,x0 ) = (f ) = ∂t (t0 ,x ) ∂t ∂t (t0 ,x0 ) t=t0 0 = (Xf ) ψ(t0 , x0 ) , per cui dψ(∂/∂t) ≡ X ◦ ψ, come voluto. Infine, siccome ψ(0, x ) = (0, x ) per ogni x ∈ S, abbiamo ∂ ∂ = dψ(0,O ) ∂xi ∂xi O per ogni i = 2, . . . , n. Quindi dψ(0,O ) manda una base di T(0,O ) Rn in una base di TO Rn (ricorda che la prima coordinata di XO `e non nulla!), per cui
dψ(0,O ) `e invertibile come richiesto, e ci siamo. Per trattare il caso generale ci servir`a la seguente: Proposizione 3.7.3. Siano X, Y ∈ T (M ) due campi vettoriali su una variet` a M . Indichiamo con Θ: U → M il flusso locale di X, e con Ψ : V → M il flusso locale di Y . Allora le seguenti affermazioni sono equivalenti: (i) [X, Y ] = O; (ii) Y `e X-invariante; (iii) X `e Y -invariante; (iv) ψs ◦ θt = θt ◦ ψs non appena uno dei due membri `e definito. Dimostrazione. Se Y `e X-invariante l’Osservazione 3.4.4 implica LX Y = O, e quindi [X, Y ] = O, per la Proposizione 3.4.6. Viceversa, supponiamo che si abbia [X, Y ] = O; dobbiamo dimostrare che Y `e X-invariante. Sia p ∈ M qualsiasi, e sia V : U p → Tp M data da
3.7 Il teorema di Frobenius
173
V (t) = d(θ−t )θt (p) (Y ) ; per far vedere che Y `e X-invariante ci basta dimostrare che V `e costante. Ma infatti per ogni t0 ∈ U p si ha d d dV = (t0 ) = d(θ−t )θt (p) (Y ) d(θ−t0 −s )θt0 +s (p) (Y ) dt dt ds t=t0 s=0 d d(θ−t0 )θt0 (p) ◦ d(θ−s )θs (θt0 (p)) (Y ) = ds s=0 d d(θ−s )θs (θt0 (p)) (Y ) = d(θ−t0 )θt0 (p) ds s=0 = d(θ−t0 )θt0 (p) (LX Y ) = O , per cui V (t) ≡ V (0) = Yp e ci siamo. Abbiamo dimostrato che (i) `e equivalente a (ii); essendo [Y, X] = −[X, Y ], in modo analogo si dimostra che (i) `e equivalente a (iii). Dimostriamo ora che (iii) implica (iv). Scegliamo s ∈ R e p ∈ Vs , e consideriamo la curva σ: I → M ottenuta ponendo σ = ψs ◦ θp , dove I ⊆ R `e un intervallo contenente l’origine su cui σ `e definita. Allora per ogni t ∈ I abbiamo σ (t) = (ψs ◦ θp ) (t) = d(ψs )θp (t) (θp ) (t) = d(ψs )θp (t) (Xθp (t) ) = X σ(t) , dove l’ultima eguaglianza segue dal fatto che X `e Y -invariante. Ma allora questo vuol dire che σ `e la curva integrale di X uscente da ψs (p), per cui ψs ◦ θt (p) = Ψ s, Θ(t, p) = ψs θp (t) = σ(t) = θ ψs (p) (t) = Θ t, Ψ (s, p) = θt ◦ ψs (p) , come voluto. Infine, supponiamo che valga (iv). Allora d d d (ψs ◦ θ p ) ψs ◦ θt (p) θt (ψs (p)) d(ψs )p (X) = = = dt dt dt t=0 t=0 t=0 = (θ ψs (p) ) (0) = Xψs (p) , per cui X `e Y -invariante, come voluto.
Possiamo allora dimostrare: Teorema 3.7.4. Siano X1 , . . . , Xk ∈ T (M ) campi vettoriali linearmente indipendenti in ogni punto di una variet` a M di dimensione n. Allora le seguenti affermazioni sono equivalenti: (i) per ciascun p ∈ M esiste una carta locale (U, ϕ) centrata in p tale che Xj |U = ∂/∂xj per j = 1, . . . , k;
174
3 Fibrati
(ii) [Xi , Xj ] ≡ O per i, j = 1, . . . , k. Dimostrazione. Abbiamo gi` a notato che (i) implica (ii); supponiamo allora che (ii) valga. Essendo un problema locale, possiamo supporre M = Rn e p = O. A meno di permutare le coordinate, possiamo anche supporre che {X1 |p , . . . , Xk |p , ∂/∂xk+1 |p , . . . , ∂/∂xn |p } sia una base di Tp M . Indichiamo con Θj il flusso locale di Xj , per j = 1, . . . , k. Ragionando per induzione su k si dimostra facilmente che esistono ε > 0 e un intorno W di p = O tali che la composizione (θk )tk ◦ · · · ◦ (θ1 )t1 sia ben definita su W per ogni t1 , . . . , tk ∈ (−ε, ε). Poniamo S = {(xk+1 , . . . , xn ) ∈ Rn−k | (0, . . . , 0, xk+1 , . . . , xn ) ∈ W }, e definiamo ψ: (−ε, ε)k × S → Rn con ψ(t1 , . . . , tk , xk+1 , . . . , xn ) = (θk )tk ◦ · · · ◦ (θ1 )t1 (0, . . . , 0, xk+1 , . . . , xn ) . Dimostriamo prima di tutto che dψ
∂ ∂ti
= Xi
(3.21)
per i = 1, . . . , k. Infatti, se f ∈ C ∞ (Rn ) e x ∈ (−ε, ε)k × S la proposizione precedente ci d` a ∂ ∂ dψx (f ) = i (f ◦ ψ) i ∂t ∂t x ∂ k+1 n = i f (θk )tk ◦ · · · ◦ (θ1 )t1 (0, . . . , 0, x ,...,x ) ∂t x ∂ k+1 n = i f (θi )ti◦(θk )tk◦· · ·◦(θi+1 )ti+1◦(θi−1 )ti−1◦ (θ1 )t1(0, . . . , 0, x ,...,x ) ∂t x = (Xi f ) ψ(x) , e (3.21) `e dimostrata. Per concludere la dimostrazione ci basta far vedere che dψO `e invertibile, perch´e in tal caso ψ `e invertibile in un intorno dell’origine, e l’inversa ϕ di ψ `e la carta locale cercata. Ma infatti siccome ψ(0, . . . , 0, xk+1 , . . . , xn ) = (0, . . . , 0, xk+1 , . . . , xn ), vediamo subito che ∂ ∂ dψO = ∂xj ∂xj O per j = k + 1, . . . , n; la tesi quindi segue da (3.21) insieme all’ipotesi che {X1 |p , . . . , Xk |p , ∂/∂xk+1 |p , . . . , ∂/∂xn |p } sia una base di Tp M .
Questo era solo l’antipasto. Una conseguenza del Teorema 3.3.5 `e che dato un campo vettoriale mai nullo X ∈ T (M ) possiamo decomporre la variet`a M nell’unione disgiunta delle curve integrali di X: ogni punto di M appartiene a una e una sola curva integrale. Inoltre, ciascuna curva integrale `e un’immersione (in quanto abbiamo supposto che X non abbia punti singolari). Se
3.7 Il teorema di Frobenius
175
ci dimentichiamo della parametrizzazione delle curve integrali, possiamo riformulare il risultato in questo modo: da una parte abbiamo selezionato in modo C ∞ un sottospazio uni-dimensionale in ciascun spazio tangente Tp M (il sottospazio generato da Xp ); dall’altra abbiamo che ogni punto `e contenuto nell’immagine dell’immersione di una variet` a 1-dimensionale tangente in ogni punto a questi sottospazi unidimensionali. Il teorema di Frobenius `e la generalizzazione di questo enunciato al caso di sottospazi k-dimensionali. Introduciamo una serie di definizioni, necessarie per giungere a un enunciato preciso del teorema di Frobenius. Definizione 3.7.5. Una distribuzione k-dimensionale su una variet` a M `e un sottoinsieme D ⊂ T M del fibrato tangente tale che Dp = D ∩ Tp M `e un sottospazio k-dimensionale di Tp M per ogni p ∈ M . Diremo che la distribuzione k-dimensionale D `e liscia se per ogni p ∈ M esiste un intorno aperto U ⊆ M di p e k campi vettoriali locali Y1 , . . . , Yk ∈ T (U ) tali che Dp = Span Y1 (p), . . . , Yk (p) per ogni p ∈ U . La k-upla (Y1 , . . . , Yk ) `e detta riferimento locale per D su U . Definizione 3.7.6. Una sezione locale di una distribuzione liscia D su un aperto U ⊆ M di una variet` a M `e un campo vettoriale X ∈ T (U ) tale che Xp ∈ Dp per ogni p ∈ U . Indicheremo con TD (U ) lo spazio delle sezioni locali di D sull’aperto U . Diremo che la distribuzione liscia D `e involutiva se [X, Y ] ∈ TD (U ) per ogni X, Y ∈ TD (U ) e ogni aperto U ⊆ M . Definizione 3.7.7. Sia D ⊆ T M una distribuzione liscia. Una sottovariet` a integrale di D `e una sottovariet` a immersa (vedi la Definizione 2.4.10 e l’Osservazione 2.4.21) S → M tale che Tp S = Dp per ogni p ∈ S. Diremo che D `e integrabile se ogni punto di M `e contenuto in una sottovariet`a integrale di D. Proposizione 3.7.8. Ogni distribuzione liscia integrabile `e involutiva. Dimostrazione. Sia D ⊆ T M una distribuzione integrabile, e X, Y ∈ TD (U ) due sezioni di D su un aperto U . Preso p ∈ U , sia S una sottovariet` a integrale di D contenente p. Siccome X e Y sono sezioni di D, abbiamo Xq , Yq ∈ Tq S per ogni q ∈ S ∩ U ; l’Esercizio 3.34 ci dice allora che [X, Y ]p ∈ Tp N = Dp . Siccome questo vale per qualsiasi p ∈ U , otteniamo [X, Y ] ∈ TD (U ), come voluto.
Come gi`a succedeva per le curve integrali, le sottovariet` a integrali sono (almeno localmente) a due a due disgiunte e, in un certo senso, parallele. Per precisare questo concetto ci servono un altro paio di definizioni. Definizione 3.7.9. Sia D ⊆ T M una distribuzione liscia k-dimensionale in una variet` a di dimensione n. Una carta locale (U, ϕ) `e piatta per D se: (a) ϕ(U ) = V × V con V aperto in Rk e V aperto in Rn−k , e (b) (∂/∂x1 , . . . , ∂/∂xk ) `e un riferimento locale per D su U .
176
3 Fibrati
Se (U, ϕ) `e una carta piatta per D, gli insiemi della forma {x ∈ U | xk+1 = ck+1 , . . . , xn = cn } con ck+1 , . . . , cn ∈ R fissati sono chiamati fette di U . Infine, diremo che D `e completamente integrabile se per ogni p ∈ M esiste una carta locale (U, ϕ) in p piatta per D. Lemma 3.7.10. Ogni distribuzione liscia completamente integrabile `e integrabile. Dimostrazione. Infatti se (U, ϕ) `e una carta piatta per una distribuzione kdimensionale liscia D allora le fette di U sono chiaramente delle sottovariet`a integrali di D.
Dunque completamente integrabile implica integrabile che implica involutiva. Il teorema di Frobenius locale ci assicura che queste implicazioni sono in realt`a delle equivalenze: Teorema 3.7.11 (Frobenius). Ogni distribuzione liscia involutiva `e completamente integrabile. Dimostrazione. Sia D ⊆ T M una distribuzione k-dimensionale liscia involutiva. Grazie al Teorema 3.7.4, per dimostrare che D `e completamente integrabile ci basta trovare nell’intorno di ogni punto di M un riferimento locale di D composto da campi vettoriali che commutano. Dato p ∈ M , scegliamo una carta locale (U, ϕ) centrata in p tale che esista un riferimento locale (X1 , . . . , Xk ) per D su U . Inoltre, a meno di permutare le coordinate di ϕ, possiamo anche supporre che / 0 ∂ ∂ X1 (p), . . . , Xk (p), ,..., ∂xk+1 p ∂xn p sia una base di Tp M . Per comodit` a di notazione, poniamo Xj = ∂/∂xj per j j = k + 1, . . . , n, e scegliamo ai ∈ C ∞ (U ) tali che Xi =
n j=1
aji
∂ ∂xj
per i = 1, . . . , n. La matrice (aji ) `e invertibile in p; a meno di restringere ulteriormente U possiamo supporre che sia invertibile su tutto U , e sia (bij ) la sua inversa. Allora n k n ∂ ∂ i i = b X = b X + bij i i i j j j ∂x ∂x i=1 i=1 i=k+1
3.7 Il teorema di Frobenius
177
k
per j = 1, . . . , n. Definiamo allora Yj = i=1 bij Xi ∈ TD (U ) per j = 1, . . . , k; per concludere ci basta dimostrare che (Y1 , . . . , Yk ) `e un riferimento locale per D composto da campi vettoriali che commutano. Sia F : U → Rk data da F = π ◦ ϕ, dove π: Rn → Rk `e la proiezione sulle prime k coordinate. Allora per ogni q ∈ U e ogni j = 1, . . . , k abbiamo dFq (Yj ) = dFq (Yj ) +
n i=k+1
bij (q) dFq
∂ ∂xi
= dFq
∂ ∂xj
=
∂ . ∂xj F (q)
Quindi gli Yj sono linearmente indipendenti su tutto U , per cui formano un riferimento locale per D, e dFq |Dq `e iniettivo per ogni q ∈ U . Inoltre, il Lemma 3.4.9 implica che 5 6 ∂ ∂ , F (q) = O dFq ([Yi , Yj ]) = i j ∂x ∂x per ogni q ∈ U e i, j = 1, . . . , k. Ma l’involutivit` a di D implica [Yi , Yj ](q) ∈ Dq ; quindi essendo dFq |Dq iniettivo troviamo [Yi , Yj ](q) = Oq , come voluto.
Vogliamo ora dare una descrizione di come sono disposte le sottovariet` a integrali, descrizione che ci servir`a poi per dimostrare la versione globale del teorema di Frobenius. Proposizione 3.7.12. Sia D ⊆ T M una distribuzione liscia involutiva kdimensionale in una variet` a M , sia (U, ϕ) una carta piatta per D, e S una sottovariet` a integrale di D. Allora S ∩ U `e unione disgiunta al pi` u numerabile di aperti connessi di fette di U , ciascuno dei quali `e aperto in S ed embedded in M . Dimostrazione. Siccome l’inclusione ι: S → M `e continua, l’intersezione S ∩ U = ι−1 (U ) `e aperta in S, e quindi `e unione di una quantit` a al pi` u numerabile di componenti connesse, ciascuna delle quali `e aperta in S. Sia V una di queste componenti connesse; cominciamo col dimostrare che `e contenuta in un’unica fetta di U . Essendo (U, ϕ) una carta piatta per D, per ogni p ∈ U abbiamo Dp = Ker(dxk+1 )∩· · ·∩Ker(dxn ). Quindi la restrizione di dxk+1 , . . . , dxn a T V `e identicamente nulla; essendo V connesso, questo vuol dire che le funzioni xk+1 , . . . , xn sono costanti su V , e quindi V `e contenuto in un’unica fetta N di U . Siccome N `e una sottovariet` a (embedded) di M , l’inclusione V → N `e di classe C ∞ , essendolo a valori in M . Ma allora `e un’immersione iniettiva fra variet` a della stessa dimensione, per cui `e un diffeomorfismo locale e un omeomorfismo con l’immagine, che `e aperta in N ; in altre parole, `e un embedding. Essendo N embedded in M , ne segue che V `e embedded in M .
Nella prossima sezione avremo bisogno di una conseguenza della proposizione che ora introduciamo (confronta anche l’Esercizio 2.100).
178
3 Fibrati
Corollario 3.7.13. Sia S ⊆ N una sottovariet` a integrale di una distribuzione involutiva k-dimensionale D su una variet` a N , e sia F : M → N un’applicazione differenziabile con F (M ) ⊆ S. Allora F `e differenziabile come applicazione da M a S. Dimostrazione. Scelto p ∈ M sia q = F (p) ∈ S e scegliamo una carta piatta (U, ϕ) per D in q. Fissiamo poi una carta (V, ψ) di M centrata in p con V connesso e tale che F (V ) ⊆ U . Posto ϕ = (y 1 , . . . , y n ), la Proposizione 3.7.12 e il fatto che F (V ) ⊆ U ∩ S implicano che y k+1 ◦ F, . . . , y n ◦ F assumono una quantit` a al pi` u numerabile di valori; essendo V connesso, questo implica che y k+1 ◦ F, . . . , y n ◦ F sono costanti. Quindi F (V ) `e contenuto in una fetta di U . Su questa fetta, (y 1 , . . . , y k ) sono delle coordinate per S, e F , come applicazione a valori in S, `e rappresentata da (y 1 ◦ F, . . . , y k ◦ F ), che `e di classe C ∞ .
Definizione 3.7.14. Una foliazione di dimensione k di una n-variet` a `e una partizione F di M in sottovariet` a immerse connesse, disgiunte e di dimensione k (dette foglie della foliazione) tali che per ogni punto p ∈ M esiste una carta locale (U, ϕ) in p che soddisfa le seguenti condizioni: (i) ϕ(U ) = V × V , con V aperto in Rk e V aperto in Rn−k ; (ii) ogni foglia della foliazione interseca U o nell’insieme vuoto o in una unione disgiunta al pi` u numerabile di fette k-dimensionali di U della forma {xk+1 = ck+1 , . . . , xn = cn } per opportune costanti ck+1 , . . . , cn ∈ R. Una tale carta locale sar` a detta piatta per la foliazione F . Esempio 3.7.15. Alcuni esempi di foliazioni sono: (a) se V ⊂ Rn `e un sottospazio vettoriale di dimensione k, la famiglia di tutti i sottospazi affini k-dimensionali di Rn paralleli a V `e una foliazione di Rn di dimensione k; (b) la famiglia dei raggi Rx = {λx | λ > 0} ⊂ Rn al variare di x ∈ S n−1 `e una foliazione unidimensionale di Rn \ {O}; (c) la famiglia Srn−1 = {x ∈ Rn | x = r} al variare di r > 0 `e una foliazione (n − 1)-dimensionale di Rn \ {O}; (d) se M e N sono variet`a connesse, la famiglia delle sottovariet` a {p} × N al variare di p ∈ M `e una foliazione di M × N con foglie diffeomorfe a N ; (e) per ogni α ∈ R \ Q la famiglia delle immagini delle curve θη : R → T2 date da θη (t) = (e2πit , e2πi(αt+η) ) al variare di η ∈ R `e una foliazione unidimensionale di T2 in cui tutte le foglie sono dense (vedi l’Esempio 3.6.9); (f) la famiglia delle componenti connesse delle curve in R2 definite dalle equazioni z = (tan y)2 + c , xy = (k + 12 )π , al variare di c ∈ R e k ∈ Z `e una foliazione unidimensionale di R2 ;
3.7 Il teorema di Frobenius
179
(g) ruotando attorno all’asse z la foliazione precedente otteniamo una foliazione bidimensionale di R3 , in cui qualche foglia `e diffeomorfa a un piano e qualche foglia `e diffeomorfa a un cilindro. Si verifica facilmente (Esercizio 3.67) che l’unione degli spazi tangenti alle foglie di una foliazione k-dimensionale forma una distribuzione liscia kdimensionale involutiva. La versione globale del teorema di Frobenius ci dice che `e vero anche il viceversa, per cui foliazioni o distribuzioni involutive sono di fatto la stessa cosa. Per dimostrarlo, ci serve un ultimo: Lemma 3.7.16. Sia D ⊆ T M una distribuzione liscia involutiva in una vaa integrali connesse di D riet` a M , e sia {Nα } una collezione di sottovariet` con intersezione non vuota. Allora N = α Nα ha un’unica struttura di variet` a rispetto alla quale `e una sottovariet` a integrale connessa di D tale che ciascun Nα sia aperto in N . Dimostrazione. Su ciascun Nα fissiamo un atlante composto da carte locali della forma (S ∩ Nα , π ◦ ϕ), dove S `e un’unica fetta di una carta (U, ϕ) piatta per D, e π: Rn → Rk `e la proiezione sulle prime k-coordinate. Se N ha una struttura di variet` a che soddisfa le richieste queste carte devono farvi parte; quindi ci basta dimostrare che mettendole insieme otteniamo un atlante di N . Per avere la compatibilit` a delle carte, dobbiamo prima di tutto dimostrare che Nα ∩ Nβ `e aperto in Nβ quali che siano α e β. Prendiamo q ∈ Nα ∩ Nβ , sia (U, ϕ) una carta in q piatta per D, e indichiamo con Vα (rispettivamente, Vβ ) la componente connessa di Nα ∩ U (rispettivamente, Nβ ∩ U ) contenente q. La Proposizione 3.7.12 ci dice che Vα e Vβ sono aperti di una fetta S di U , necessariamente la stessa per entrambi in quanto deve contenere q. Quindi Vα ∩ Vβ `e aperto in S, e quindi in Nβ , come voluto. Siccome due fette distinte di una carta piatta sono disgiunte, se abbiamo (Sα ∩Nα )∩(Sβ ∩Nβ ) = ∅ allora Sα = Sβ . Quindi i cambiamenti di coordinate nel nostro atlante saranno della forma π ◦ (ψ ◦ ϕ−1 ) ◦ (π|ϕ(S) )−1 , definiti su aperti di Rk per quanto detto finora, e chiaramente di classe C ∞ . Siccome essere un’immersione `e una propriet` a locale, l’inclusione N → M `e un’immersione, ed `e evidente che N `e una sottovariet` a integrale connessa di D. Rimane quindi da dimostrare che la struttur` a di variet` a cos`ı definita su N `e di Hausdorff e ha una base numerabile. Se q, q ∈ N sono punti distinti, prendiamo intorni disgiunti U e U in M ; allora, essendo l’inclusione N → M continua, U ∩ N e U ∩ N sono intorni disgiunti di q e q in N , per cui N `e di Hausdorff. Ora, sia U = {Ui } un ricoprimento aperto numerabile di M composto da domini di carte piatte per D. Per far vedere che N ha una base numerabile `e sufficiente far vedere che N ∩ Ui `e contenuto in un’unione numerabile di fette di Ui per ciascun i, in quanto qualsiasi aperto di una fetta ha una base numerabile.
180
3 Fibrati
Fissiamo un punto p ∈ M contenuto in tutti gli Nα , scegliamo Ui ∈ U, e sia S ⊂ Ui una fetta di Ui contenente un punto q ∈ N . Per definizione, deve esistere un α tale che Nα contiene sia p che q. Essendo Nα connesso per archi, esiste una curva continua σ: [0, 1] → Nα che collega p con q. Siccome l’immagine di σ `e compatta, esiste una partizione 0 = t0 < t1 < · · · < tm = 1 di [0, 1] tale che σ([tj−1 , tj ]) `e contenuto in un Uij ∈ U per ogni j = 1, . . . , m. Essendo σ([tj−1 , tj ]) connesso, `e contenuto in un’unica componente connessa di Nα ∩ Uij , e quindi in un’unica fetta Sij di Uij . Diremo che una fetta S di un qualche Uk `e accessibile da p se esiste una successione finita di indici i0 , . . . , im e di fette Sij ⊂ Uij tali che p ∈ Si0 , Sim = S e Sij−1 ∩ Sij = ∅ per j = 1, . . . , m. Siccome ogni fetta Sij−1 `e a sua volta una sottovariet` a integrale di D, per la Proposizione 3.7.12 pu` o intersecare al pi` u una quantit` a numerabile di fette di Uij . Questo vuol dire che esistono al pi` u una quantit` a numerabile di fette accessibili da p; ma la discussione precedente mostra che ogni fetta che interseca N `e accessibile da p, e abbiamo finito.
E infine, ecco il teorema di Frobenius globale: Teorema 3.7.17. Sia D ⊆ T M una distribuzione liscia involutiva in una variet` a M . Allora la collezione di tutte le sottovariet` a integrali massimali di D forma una foliazione di M . Dimostrazione. Per ogni p ∈ M indichiamo con Lp l’unione di tutte le sottovariet` a integrali connesse di D che contengono p; grazie al lemma precedente, a integrale connessa di D, chiaramente massimale. Se Lp `e una sottovariet` a integrale connesLp ∩ Lp = ∅, allora Lp ∪ Lp `e ancora una sottovariet` sa di D, e quindi per massimalit`a Lp = Lp . Quindi le sottovariet` a integrali connesse massimali di D formano una partizione di M . u Se (U, ϕ) `e una carta locale piatta per D, allora Lp ∩ U `e unione al pi` numerabile di aperti di fette di U , per la Proposizione 3.7.12. Se per una di tali fette S si avesse Lp ∩ S = S, allora Lp ∪ S sarebbe una sottovariet`a integrale connessa di D contenente propriamente Lp , contro la massimalit`a. a al pi` u numerabile di fette Quindi Lp ∩ U `e sempre unione di una quantit` di U , per cui {Lp | p ∈ M } `e una foliazione.
Gli Esercizi 4.38–4.42 mostreranno come caratterizzare le distribuzioni involutive usando le forme differenziali.
3.8 Dalle algebre di Lie ai gruppi di Lie Abbiamo visto (Proposizione 3.5.12) che a ogni sottogruppo di Lie corrisponde una sottoalgebra di Lie. Usando il teorema di Frobenius adesso siamo in grado di dimostrare il viceversa.
3.8 Dalle algebre di Lie ai gruppi di Lie
181
Teorema 3.8.1. Sia G un gruppo di Lie con algebra di Lie g. Allora per ogni sottoalgebra h di g esiste un unico sottogruppo di Lie connesso H ⊂ G con algebra di Lie h. Dimostrazione. Definiamo una distribuzione D ⊂ T G ponendo ∀g ∈ G
Dg = d(Lg )e (h) .
˜ 1 (g), . . . , X ˜ k (g) per Se {X1 , . . . , Xk } `e una base di h, allora Dg = Span X ˜ j `e, come al solito, il campo vettoriale invariante a sinistra ogni g ∈ G, dove X corrispondente a Xj ; quindi D `e una distribuzione liscia. Inoltre il fatto che h `e una sottoalgebra implica chiaramente che D `e involutiva; quindi, per il Teorema 3.7.11, `e completamente integrabile e, per il Teorema 3.7.17, determina una foliazione F di G. Indichiamo con Fg la foglia passante per g ∈ G; se dimostriamo che Fe `e un sottogruppo di Lie di G abbiamo finito, perch´e per costruzione Te Fe = h. Prima di tutto notiamo che ˜ 1 (g ), . . . , d(Lg )g X ˜ k (g ) d(Lg )g (Dg ) = Span d(Lg )g X ˜ k (gg ) = Dgg ˜ 1 (gg ), . . . , X = Span X per ogni g, g ∈ G; quindi D `e invariante per traslazioni a sinistra. Di conseguenza le traslazioni a sinistra mandano foglie in foglie: Lg (Fg ) = Fgg per ogni g, g ∈ G. Grazie a questa osservazione possiamo dimostrare che H = Fe `e un sottogruppo di G. Infatti, se h, h ∈ H abbiamo hh = Lh (h ) ∈ Lh (Fe ) = Fh = H e
h−1 = h−1 e ∈ Lh−1 (Fe ) = Lh−1 (Fh ) = Fh−1 h = Fe = H .
Per far vedere che H `e un sottogruppo di Lie rimane da dimostrare che l’applicazione (h, h ) → h−1 h `e differenziabile come applicazione da H × H in H. Ma infatti, siccome H `e una sottovariet` a immersa, questa applicazione `e chiaramente differenziabile come applicazione da H ×H in G, e quindi anche come applicazione da H × H in H, grazie al Corollario 3.7.13. ˜ Rimane da dimostrare l’unicit` a di H. Supponiamo, per assurdo, che H ˜ sia un altro gruppo di Lie connesso con algebra di Lie h. Chiaramente H `e ˜ ⊆ H. una sottovariet` a integrale connessa di D; quindi, per massimalit`a, H D’altra parte, se (U, ϕ) `e una carta piatta per D in e, la Proposizione 3.7.12 ˜ ∩ U `e unione al pi` ci dice che H u numerabile di aperti di fette di U . Siccome ˜ contiene un la fetta di U contenente e `e aperta in H, questo vuol dire che H ˜ ⊇ H, intorno aperto di e in H. Ma allora la Proposizione 3.6.7.(ii) implica H e abbiamo finito.
182
3 Fibrati
Quindi abbiamo costruito una bigezione fra sottoalgebre e sottogruppi di Lie, che fa sospettare come sia possibile studiare la struttura di un gruppo di Lie partendo dalla struttura algebrica della sua algebra di Lie. Per dimostrare un altro risultato che conferma questo sospetto ci serve una proposizione ausiliaria: Proposizione 3.8.2. Sia F : G → H un omomorfismo di gruppi di Lie fra i gruppi di Lie connessi G e H, di algebre di Lie rispettivamente g e h. Allora le seguenti affermazioni sono equivalenti: (i) (ii) (iii) (iv)
F `e surgettivo con nucleo discreto; F `e un rivestimento liscio; dFe : g → h `e un isomorfismo; F `e un diffeomorfismo locale.
Dimostrazione. (i)=⇒(ii). Sia Γ = Ker F . Gli Esercizi 2.129 e 2.128 dicono che π: G → G/Γ `e un rivestimento liscio. Inoltre F induce un isomorfismo algebrico F˜ : G/Γ → H, che `e liscio grazie all’Esercizio 2.83.(ii); quindi F = F˜ ◦π `e un rivestimento liscio. (ii)=⇒(iii). Ovvio. (iii)=⇒(iv). Per il teorema della funzione inversa, F `e un diffeomorfismo in un intorno di e. Siccome omomorfismi di gruppi di Lie hanno rango costante (Esercizio 2.131), questo implica che dim G = dim H = rk dF , e quindi F `e un diffeomorfismo locale. (iv)=⇒(i). Se F `e un diffeomorfismo locale, F −1 (h) `e discreto per ogni h ∈ H; quindi in particolare Ker F = F −1 (e) `e discreto. Inoltre, l’immagine di F contiene un intorno aperto dell’elemento neutro di H; essendo H connesso, la Proposizione 3.6.7.(ii) implica che F `e surgettivo.
Quindi: Teorema 3.8.3. Siano G e H due gruppi di Lie, con algebre di Lie rispettivamente g e h, e supponiamo che G sia semplicemente connesso. Allora per ogni morfismo di algebre di Lie L: g → h esiste un unico omomorfismo di gruppi di Lie F : G → H tale che dFe = L. ` facile vedere (Esercizio 3.55) che l’algebra di Lie del gruppo Dimostrazione. E di Lie G × H `e isomorfa a g × h. Sia ) * k = X, L(X) X ∈ g il grafico di L. Il fatto che L `e un morfismo implica che k `e una sottoalgebra di g × h: infatti 7 8 X, L(X) , Y, L(Y ) = [X, Y ], [L(X), L(Y )] = [X, Y ], L[X, Y ] . Il Teorema 3.8.1 ci fornisce quindi un sottogruppo di Lie connesso K di G × H con algebra di Lie k.
3.8 Dalle algebre di Lie ai gruppi di Lie
183
Indichiamo con π1 : G × H → G e π2 : G × H → H le proiezioni; sono chiaramente morfismi di gruppi di Lie. Sia ϕ = π1 |K : K → G. Notiamo che dϕ(e,e) = d(π1 )(e,e) |k , e che il nucleo di d(π1 )(e,e) `e {O} × h; siccome k ∩ ({O} × h) = {(O, O)}, ne segue che dϕ(e,e) : k → g `e iniettivo e quindi (essendo dim k = dim g) un isomorfismo. La Proposizione 3.8.2 allora implica che π `e un rivestimento liscio e quindi, essendo connesso, un G semplicemente isomorfismo di gruppi di Lie. Inoltre dϕ(e,e) X, L(X) = X, per cui d(π2 )(e,e) ◦ d(ϕ−1 )e (X) = L(X) .
(3.22)
Poniamo allora F = π2 |K ◦ ϕ−1 : G → H. Per costruzione `e un omomorfismo di gruppi di Lie; inoltre (3.22) dice esattamente che dFe = L, come voluto. Rimane da dimostrare l’unicit` a. Supponiamo che F˜ : G → H sia un altro omomorfismo di gruppi di Lie con dF˜e = L. La Proposizione 3.6.6.(iv) implica che ∀X ∈ g F˜ exp(X) = exp L(X) = F exp(X) . Quindi F e F˜ coincidono sull’immagine dell’applicazione esponenziale che, per la Proposizione 3.6.6.(ii) contiene un intorno aperto dell’elemento neutro; ma allora la Proposizione 3.6.7.(ii) implica che F˜ ≡ F su tutto G.
Di conseguenza i gruppi di Lie semplicemente connessi sono completamente determinati dalla loro algebra di Lie: Corollario 3.8.4. Due gruppi di Lie semplicemente connessi sono isomorfi se e solo se hanno algebre di Lie isomorfe. Dimostrazione. Una direzione `e ovvia. Viceversa, se L: g → h `e un isomorfismo fra le algebre di Lie dei gruppi di Lie semplicemente connessi G e H, allora il Teorema 3.8.3 ci fornisce due omomorfismi di gruppi di Lie F : G → H e F1 : H → G con dFe = L e d(F1 )e = L−1 . In particolare d(F1 ◦ F )e = idg , e l’unicit` a nel Teorema 3.8.3 implica F1 ◦ F = idG . Analogamente F ◦ F1 = idH , e quindi F `e un isomorfismo di gruppi di Lie, come voluto.
Osservazione 3.8.5. Si pu` o dimostrare (teorema di Ado; vedi, per esempio, [36]) che ogni algebra di Lie g di dimensione finita (come spazio vettoriale) `e isomorfa a una sottoalgebra di gl(n, R) per n abbastanza grande. Il Teorema 3.8.1 ci fornisce allora un sottogruppo di Lie connesso G di GL(n, R) con ˜ un gruppo di Lie semplicemente algebra di Lie g. Sia (Proposizione 2.5.13) G ˜ `e isomorconnesso che riveste G; chiaramente (perch´e?) l’algebra di Lie di G fa a g, per cui abbiamo costruito un gruppo di Lie semplicemente connesso (unico a meno di isomorfismi) con algebra di Lie g. In altre parole, esiste una bigezione fra (classi di isomorfismo di) algebre di Lie di dimensione finita e (classi di isomorfismo di) gruppi di Lie semplicemente connessi. Non `e difficile vedere (Esercizio 3.63) che i gruppi di Lie connessi (per quelli sconnessi vedi l’Esercizio 3.64) di algebra di Lie g sono tutti isomorfi a ˜ , dove G ˜ `e il gruppo di Lie semplicemente connesso gruppi della forma G/Γ
184
3 Fibrati
˜ `e un sottogruppo discreto contenuto nel centro di algebra di Lie g, e Γ ⊂ G ˜ di G (dove ricordiamo che il centro di un gruppo `e l’insieme degli elementi che commutano con ogni elemento del gruppo). Quindi lo studio dei gruppi di Lie connessi si riduce allo studio delle algebre di Lie e dei sottogruppi discreti dei gruppi di Lie semplicemente connessi. Questo `e solo l’inizio di una teoria estremamente ricca; rimandiamo a [36] o [12] per maggiori dettagli.
3.9 Fibrati principali Concludiamo questo capitolo discutendo altri tipi di fibrati, pi` u generali dei fibrati vettoriali. L’idea che sottende il concetto di fibrato principale `e la seguente. Sia π: E → M un fibrato vettoriale di rango r. A ogni p ∈ M possiamo associare l’insieme Pp di tutte le basi di Ep ; indichiamo con P l’unione disgiunta dei Pp al variare di p ∈ M , e con π ˜ : P → M la proiezione canonica. Le banalizzazioni locali di E inducono banalizzazioni locali di P: se {σ1 , . . . , σr } `e un riferimento locale di E su un aperto U , allora possiamo definire una bigezione χ: ˜ π ˜ −1 (U ) → U × GL(r, R) associando a ciascuna base {e1 , . . . , er } ∈ Pp la coppia (p, A), dove A = (akh ) ∈ GL(n, R) `e l’unica matrice tale che eh =
r
akh σk (p) .
k=1
Inoltre, anche senza bisogno di banalizzazioni locali, GL(r, R) agisce transitivamente su ciascuna fibra di P tramite la formula / r 0 r k k a1 ek , . . . , ar ek . (A, {e1 , . . . , er }) → k=1
k=1
In particolare, quindi, le fibre di π ˜ : P → M sono isomorfe a GL(r, R), che a sua volta agisce su ciascuna fibra. Questo `e un tipico esempio di fibrato principale, che a sua volta `e un caso particolare di fibrato (non necessariamente vettoriale). Definizione 3.9.1. Sia S una variet` a differenziabile. Un fibrato di fibra tipica S su una variet` a M `e un’applicazione differenziabile surgettiva π: E → M fra una variet` a E (detta spazio totale del fibrato) e la variet` a M (detta base del fibrato) tale che per ogni p ∈ M esista un intorno U di p in M e un diffeomorfismo χ: π −1 (U ) → U × S, detto banalizzazione locale di E, tale che il diagramma χ / U ×S π −1 (U ) t t tt t π t tt π1 yttt U
3.9 Fibrati principali
185
commuti, dove abbiamo indicato con π1 : U × S → U la proiezione sulla prima coordinata. Una collezione A = {(Uα , χα )} di banalizzazioni locali tali che {Uα } sia un ricoprimento aperto di M `e detto atlante del fibrato. Se Uα ∩ Uβ = ∅, chiaramente possiamo scrivere χα ◦ χ−1 β (p, s) = p, ψαβ (p)(s) per ogni p ∈ Uα ∩ Uβ e s ∈ S, per applicazioni ψαβ : Uα ∩ Uβ → Diff(S) opportune dette funzioni di transizione dell’atlante A, dove Diff(S) `e il gruppo dei diffeomorfismi di S con se stesso. Le funzioni di transizione soddisfano le condizioni di cociclo ψαα ≡ idS e ψαβ (p) ◦ ψβγ (p) = ψαγ (p) per ogni p ∈ Uα ∩ Uβ ∩ Uγ . Un fibrato π: E → M `e (perch´e?) sempre una sommersione surgettiva. Viceversa, sommersioni surgettive proprie forniscono esempi di fibrati: Proposizione 3.9.2. Sia M una variet` a connessa. Allora ogni sommersione surgettiva propria π: E → M `e un fibrato. Dimostrazione. Dobbiamo trovare una banalizzazione locale per ogni p0 ∈ M . ) = Rn . Per ogni Partiamo da una carta locale (U, ϕ) centrata in p0 con ϕ(U p ∈ U definiamo Xp ∈ T (U ) ponendo Xp (q) = (dϕq )−1 ϕ(p) , dove stiamo identificando ciascun spazio tangente in Rn con Rn stesso. In particolare, il flusso ΘXp di Xp `e definito su R × U ed `e dato da ΘXp (t, q) = ϕ−1 ϕ(q) + tϕ(p) . Siccome π `e una sommersione, il Corollario 2.4.18.(ii) ci fornisce per ogni q˜ ∈ π −1 (U ) una carta locale (Vq˜, ψq˜) centrata in q˜ e una carta locale (Uq˜, ϕq˜) centrata in π(˜ q ) con Uq˜ ⊆ U tali che ϕq˜ ◦ π ◦ ψq−1 sia la proiezione sulle ˜ prime n coordinate. Quindi anche il differenziale di π in queste coordinate `e la proiezione sulle prime n coordinate; questo implica che possiamo trovare un campo vettoriale Yp,˜q ∈ T (Vq˜) tale che ∀˜ p ∈ Vq˜ dπp˜ Yp,˜q (˜ p) = Xp π(˜ p) . a subordinata al ricoprimento aperto {Vq˜} Sia {ρq˜} una partizione dell’unit` di π −1 (U ), e poniamo Yp =
q˜∈π−1 (U )
ρq˜Yp,˜q ∈ T π−1 (U ) .
186
3 Fibrati
Per costruzione abbiamo quindi dπp˜(Yp ) = Xp π(˜ p) per ogni p˜ ∈ π −1 (U ). Indichiamo con ΞYp il flusso di Yp ; l’Esercizio 3.31 ci assicura che (ΘXp )t ◦ π = π ◦ (ΞYp )t per ogni t ∈ R per cui il flusso di Yp `e definito. Ma questo vuol dire che il flusso di Yp manda fibre in fibre; e quindi, essendo Xp un campo completo in U , usando il fatto che π `e propria possiamo dimostrare che anche il flusso di Yp `e definito per tutti i tempi. Infatti, supponiamo che p˜ ∈ π −1 (U ) da p˜ sia definito sull’intervallo (−t0 , t0 ) sia tale che il flusso di Yp uscente con 0 < t0 < +∞. Allora π (ΞYp )p˜((−t0 , t0 )) `e contenuto nel compatto ˜ ([−t0 , t0 ]); essendo π propria, questo vuol dire che (ΞYp )p˜((−t0 , t0 )) (ΘXp )π(p) `e relativamente compatto in π −1 (U ), e l’Esercizio 3.24 ci assicura che Yp `e completo. Poniamo ora S = π −1 (p0 ), e definiamo ψ: U × S → π−1 (U ) ponendo ψ(p, p˜) = ΞYp (1, p˜) . Prima di tutto notiamo che π ψ(p, p˜) = ΘXp (1, p0 ) = p ;
(3.23)
quindi ψ(p, p˜) = ψ(p , p˜ ) implica p = p e dunque, essendo curve integrali dello stesso campo vettoriale uscenti da punti diversi disgiunte, p˜ = p˜ , cio`e ψ `e iniettiva. Inoltre, se q˜ ∈ π −1 (U ) allora π ΞYπ(q) −1, π(˜ q ) = p0 ; (−1, q˜) = ΘXπ(q) ˜ ˜ (−1, q˜) ∈ S e q˜ = ψ π(˜ q ), p˜ , per cui ψ `e surgettiquindi p˜ = ΞYπ(q) ˜ va. Per dimostrare che `e un diffeomorfismo rimane da dimostrare che `e un diffeomorfismo locale, cio`e che ha differenziale iniettivo. Indichiamo con {∂1 , . . . , ∂n } il riferimento locale indotto da ϕ. Allora (3.23) implica dπ dψ((∂j , O)) = ∂j ; quindi i dψ (∂j , O) sono linearmente indipendenti e nessuna loro combinazione lineare (non banale) `e contenuta nel nucleo di dπ. D’altra parte, se p `e fissato ΞYp (1, ·) `e un diffeomorfismo che manda fibre in fibre; quindi dψ manda {O} × Tp˜S in modo iniettivo nello spazio tangente alla fibra su ΘXp (1, p0 ), che `e il nucleo di dπ. Ne segue che dψ `e iniettivo, per cui ψ `e un diffeomorfismo. Poniamo χ = ψ −1 : π −1 (U ) → U × S; grazie anche a (3.23) χ `e una banalizzazione locale. In particolare, tutte le fibre di π su U sono diffeomorfe a S. Ripetendo questo ragionamento per ogni p0 ∈ M otteniamo un atlante del fibrato; infatti la connessione di M e il fatto che tutte le fibre in una banalizzazione locale sono diffeomorfe ci assicura (perch´e?) che tutte le fibre di π sono diffeomorfe a S.
3.9 Fibrati principali
187
Partendo da due fibrati su una stessa variet` a, `e possibile costruire un fibrato sulla stessa variet` a con fibra tipica il prodotto cartesiano delle fibre tipiche dei due fibrati di partenza. Definizione 3.9.3. Date due applicazioni f1 : M1 → N ed f2 : M2 → N , il loro prodotto fibrato `e l’insieme M1 ×N M2 = {(p1 , p2 ) ∈ M1 × M2 | f1 (p1 ) = f2 (p2 )} , con la proiezione π: M1 ×N M2 → N data da π(p1 , p2 ) = f1 (p1 ) = f2 (p2 ). Osservazione 3.9.4. Se π1 : E1 → M e π2 : E2 → M sono due fibrati vettoriali, allora E1 ×M E2 coincide con il fibrato somma diretto E1 ⊕ E2 introdotto nell’Esempio 3.1.21. Lemma 3.9.5. Siano π1 : E1 → M e π2 : E2 → M due fibrati di fibra tipica rispettivamente S1 ed S2 . Allora π: E1 ×M E2 → M `e un fibrato di fibra tipica S1 × S2 . Dimostrazione. Prima di tutto mostriamo che E1 ×M E2 `e una sottovariet` a con π × π : E × E → M × M l’applicazione di E1 × E2 . Indichiamo 1 2 1 2 π1 × π2 (x1 , x2 ) = π1 (x1 ), π2 (x2 ) , e sia Δ = {(p, p) ∈ M × M | p ∈ M } la diagonale di M × M . Chiaramente abbiamo E1 ×M E2 = (π1 × π2 )−1 (Δ); inoltre, essendo π1 e π2 sommersioni, π1 ×π2 `e banalmente trasversa a Δ (vedi la Definizione 2.E.4). Quindi l’Esercizio 2.94 ci assicura che E1 ×M E2 `e una sottovariet`a di E1 × E2 , e l’applicazione π `e chiaramente differenziabile. Siano ora {(Uα , χjα )} atlanti di fibrato per πj : Ej → M , con j = 1, 2, dove senza perdita di generalit` a possiamo usare lo stesso ricoprimento aperto di M per entrambi i fibrati. Allora possiamo definire χα : π −1 (Uα ) → Uα × (S1 × S2 ) ponendo χα (x1 , x2 ) = π1 (x1 ), (χ1α )2 (x1 ), (χ2α )2 (x2 ) , dove (χjα )2 `e la seconda componente di χjα . Le χα sono diffeomorfismi, con inversa (χα )−1 (p, s1 , s2 ) = (χ1α )−1 (p, s1 ), (χ2α )−1 (p, s2 ) . Quindi
1 2 χα ◦ χ−1 β (p, s1 , s2 ) = p, ψαβ (p)(s1 ), ψαβ (p)(s2 ) ,
j dove ψαβ sono le funzioni di transizione per il fibrato πj : Ej → M , per cui
{(Uα , χα )} `e un atlante di fibrato per E1 ×M E2 .
Un tipo particolare (e particolarmente importante) di fibrati `e dato dai G-fibrati, dove G `e un gruppo di Lie, e le funzioni di transizione sono date da un’azione del gruppo G sulla fibra tipica S.
188
3 Fibrati
Definizione 3.9.6. Sia G un gruppo di Lie. Una G-struttura su un fibrato π: E → M di fibra tipica S `e dato da: (a) un’azione θ: G × S → S di G su S; (b) un atlante di fibrato A = {(Uα , χα )} e una famiglia di applicazioni differenziabili ϕαβ : Uα ∩ Uβ → G, dette funzioni di transizione della Gstruttura rispetto ad A, tali che le funzioni di transizione {ψαβ } di A siano date dall’azione di G: ψαβ (p, s) = θ ϕαβ (p), s = ϕαβ (p) · s a detto G-atlante. per ogni p ∈ Uα ∩ Uβ e s ∈ S. Un tale atlante A verr` Un G-fibrato `e un fibrato π: E → M di fibra tipica S con una G-struttura. Osservazione 3.9.7. Ovviamente le funzioni di transizione di una G-struttura soddisfano le condizioni di cociclo ϕαα ≡ e e ∀p ∈ Uα ∩ Uβ
ϕαβ (p)ϕβγ (p) = ϕαγ (p) .
Esempio 3.9.8. Si vede facilmente (controlla) che un fibrato vettoriale di rango r `e un GL(r, R)-fibrato di fibra tipica Rr . Un fibrato principale `e un G-fibrato con fibra tipica G e azione data dalle traslazioni sinistre: Definizione 3.9.9. Sia G un gruppo di Lie. Un fibrato principale di gruppo di struttura G (anche chiamato G-fibrato principale) `e un G-fibrato π: P → M di fibra tipica G e in cui l’azione θ: G × G → G `e data dalla traslazione sinistra. In questo caso un G-atlante si chiama atlante di fibrato principale. Un fibrato principale di gruppo G ammette sempre un’azione destra di G: Definizione 3.9.10. Sia π: P → M un fibrato principale di gruppo G. L’azione principale destra di G su P `e l’azione r: P ×G → P espressa, rispetto a un atlante {(Uα , χα )} di fibrato principale, da = χ−1 r χ−1 α (p, g), g α (p, gg ) . Siccome traslazioni sinistre e traslazioni destre commutano, l’azione r `e ben definita. Quando non ci sono ambiguit` a, scriveremo u · g per r(u, g). Osservazione 3.9.11. L’azione principale destra `e chiaramente libera. Inoltre, per ogni up ∈ Pp l’applicazione rup = r(up , ·): G → Pp `e un diffeomorfismo; indichiamo con τup : Pp → G l’inversa. Ponendo ∀(u, v) ∈ P ×M P
τ (u, v) = τu (v)
3.9 Fibrati principali
189
otteniamo un’applicazione τ : P ×M P → G la cui espressione locale (rispetto a un atlante {(Uα , χα )} di fibrato principale) `e data da −1 −1 τ χ−1 g , α (p, g), χα (p, g ) = g per cui τ `e differenziabile. Inoltre, τ `e completamente determinata dall’equazione implicita r u, τ (u, v) = v ; in particolare, τ (u, u) = e e τ (u · g, v · g ) = g−1 τ (u, v)g . L’analogo della Proposizione 3.9.2 per i fibrati principali `e la seguente: Proposizione 3.9.12. Sia π: P → M una sommersione surgettiva, e supponiamo di avere un gruppo di Lie G che agisce liberamente su P in modo che le orbite dell’azione coincidano con le fibre di π. Allora π: P → M `e un fibrato principale di gruppo G. Dimostrazione. A meno di usare l’inversione nel gruppo, possiamo supporre che l’azione di G sia destra. L’Esercizio 2.81.(i) fornisce un ricoprimento aperto {Uα } di M e sezioni locali σα : Uα → P di π. Definiamo ξα : Uα × G → π −1 (Uα ) ponendo ξα (p, g) = σα (p) · g . Le ipotesi sull’azione ci assicurano che ξα `e differenziabile, bigettiva e con differenziale invertibile (controlla); quindi `e un diffeomorfismo con l’immagine. Sia χα : π −1 (Uα ) → Uα ×G l’inversa di ξα ; rimane da dimostrare che {(Uα , χα )} `e un atlante di fibrato principale. Sia τ : P ×M P → G data dall’equazione implicita r u, τ (u, v) = v, dove r `e l’azione destra di G. Il teorema della funzione implicita (Corollario 2.3.31) ci assicura che τ `e ben definita e differenziabile. Inoltre abbiamo τ (u, v · g) = τ (u, v)g e χα (u) = p, τ (σα (p), u) per ogni p ∈ Uα e u, v ∈ π −1 (p). Quindi χα ◦χ−1 β (p, g) = χα σβ (p)·g) = p, τ (σα (p), σβ (p)·g) = p, τ (σα (p), σβ (p))g , e {(Uα , χα )} `e un atlante di fibrato principale con funzioni di transizione
ϕαβ = τ (σα , σβ ). L’esempio primario di fibrato principale, come anticipato all’inizio della sezione, `e il fibrato dei riferimenti di un fibrato vettoriale. Esempio 3.9.13 (Fibrato dei riferimenti di un fibrato vettoriale). Sia π: E → M un fibrato principale di rango r, e definiamo GL(Rr , E) come l’unione disgiunta al variare di p ∈ M degli spazi GL(Rr , Ep ) di tutte le applicazioni lineari invertibili da Rr in Ep ; nota che un’applicazione lineare invertibile
190
3 Fibrati
in GL(Rr , Ep ) `e univocamente determinata dall’immagine della base canonica, che dev’essere una base di Ep , per cui GL(Rr , Ep ) `e in corrispondenza biunivoca con l’insieme delle basi di Ep . Sia π ˜ : GL(Rr , E) → M la proiezione canonica; vogliamo dimostrare che `e un fibrato principale di gruppo GL(r, R). Prima di tutto dobbiamo mettere su a che renda π ˜ una sommersione surgettiva. GL(Rr , E) una struttura di variet` Sia {(Uα , ϕα )} un atlante che banalizza E, e sia {e1,α , . . . , er,α } il riferimento locale associato alla banalizzazione su Uα . Allora definiamo un’applicazione differenziabile χα : π ˜ −1 (Uα ) → ϕα (Uα ) × GL(r, R) ponendo χα (Lp ) = ϕα (p), Aα (Lp ) per ogni Lp ∈ GL(Rr , Ep ), dove p ∈ Uα e Aα (Lp ) `e la matrice che rappresenta Lp rispetto alla base canonica di Rr e alla base {e1,α (p), . . . , er,α (p)} di Ep . L’applicazione χα `e differenziabile (perch´e?), e invertibile: l’inversa `e data da ⎛ ⎞ r r ⎝ aij yj ⎠ ei,α ϕ−1 χ−1 α (x, A)(y) = α (x) . i=1
j=1
In altre parole, χ−1 e l’applicazione lineare da Rr a Ep rappresentata dalα (x, A) ` la matrice A rispetto alla base canonica di Rr e alla base {e1,α (p), . . . , er,α (p)} di Ep , dove p = ϕ−1 α (x). Si verifica facilmente (controlla) che A = {(˜ π −1 (Uα ), χα )} `e un atlante r ˜ `e un sommersione segue subito dall’eguaglianza per GL(R , E); e il fatto che π π1 ◦ χα = ϕα ◦ π ˜ valida su π ˜ −1 (Uα ), dove π1 `e la proiezione sulla prima coordinata. Verificando che A `e un atlante dovresti aver scritto formule che mostrano come GL(Rr , E) sia un GL(r, R)-fibrato principale. Possiamo anche verificarlo usando la Proposizione 3.9.12. Infatti, possiamo definire un’azione r: GL(Rr , E) × G → GL(Rr , E) ponendo r(Lp , A) = Lp ◦ A per ogni Lp ∈ GL(Rr , Ep ) e A ∈ GL(r, R). Le ipotesi della Proposizione 3.9.12 sono tutte verificate, e quindi GL(Rr , E) `e un GL(r, R)-fibrato principale, detto il fibrato dei riferimenti del fibrato vettoriale E. Concludiamo questa sezione mostrando come, in certi casi, sia viceversa possibile associare un fibrato vettoriale a un fibrato principale. Il risultato generale che lo rende possibile `e il seguente: Teorema 3.9.14. Sia π: P → M un G-fibrato principale, e θ: G × S → S un’azione sinistra del gruppo di struttura G sulla variet` a S. Allora: (i) l’applicazione R: (P × S) × G → P × S data da R (u, s), g) = (u · g, g −1 · s) `e un’azione destra libera di G su P × S;
3.9 Fibrati principali
191
(ii) lo spazio quoziente P ×G S = (P × S)/G ha un’unica struttura di variet` a differenziabile rispetto a cui l’applicazione quoziente ψ: P × S → P ×G S sia una sommersione; (iii) se π1 : P × S → P `e la proiezione sulla prima coordinata, il diagramma P ×S
ψ
π1
P
/ P ×G S π
π
/M
definisce un’applicazione π: P ×G S → M che `e un G-fibrato di fibra tipica S e azione sinistra θ; (iv) ψ: P × S → P ×G S `e un G-fibrato principale con azione principale destra R; (v) un atlante di fibrato principale per π: P → M `e anche un G-atlante per π: P ×G S → M . Dimostrazione. Che R sia un’azione destra `e ovvio, ed `e libera perch´e l’azione principale destra di G su P lo `e. Quindi (i) `e dimostrata; se l’azione fosse anche propria, (ii) seguirebbe dal Teorema 2.6.15. In generale, per` o, l’azione non `e propria, e quindi dobbiamo procedere in un altro modo (il ragionamento iniziale della dimostrazione del Teorema 2.6.15 comunque rimane valido per dimostrare l’unicit` a della struttura differenziabile). Prima di tutto notiamo che π ◦ π1 `e costante sulle orbite di R, in quanto l’azione principale destra conserva le fibre, e quindi π: P ×G S → M `e ben definita come applicazione. Sia {(Uα , χα )} un atlante di fibrato principale per π: P → M , con funzioni di transizione ϕαβ : Uα ∩ Uβ → G. Definiamo ξ α : Uα × S → π −1 (Uα ) ponendo ξ α (p, s) = ψ χ−1 α (p, e), s . Chiaramente π ◦ ξ α = π1 , per cui ξ α rispetta le fibre. Ora vogliamo dimostrare che ξ α (p, ·): S → π −1 (p) `e bigettiva per ogni p ∈ Uα . In altre parole, dobbiamo dimostrare che per ogni punto ψ(u, s ) ∈ π −1 (p) esiste un unico s ∈ S tale che −1 ψ(u, s ) = ψ χα (p, e), s . Quest’ultima eguaglianza `e equivalente a richiedere l’esistenza di g ∈ G tale che (u · g, g −1 s ) = χ−1 α (p, e), s ; ricordando l’Osservazione 3.9.11 vediamo subito che l’unica soluzione `e e s = g −1 · s . g = τ u, χ−1 α (p, e) Quindi le ξ α sono bigettive; indichiamo con χα : π −1 (Uα ) → Uα × S le inverse. Abbiamo −1 χ−1 β (p, s) = ψ χβ (p, e), s −1 = ψ χ−1 α (p, ϕαβ (p)e), s = ψ χα (p, e) · ϕαβ (p), s −1 = ψ χ−1 α (p, e), ϕαβ (p) · s = χα p, ϕαβ (p) · s .
192
3 Fibrati
In particolare, {(Uα , χα )} risulta essere un G-atlante per P ×G S, e vi induce una struttura di variet` a differenziabile (perch´e?) e di G-fibrato. La definizione di ξ α mostra subito che ψ `e differenziabile e una sommersione rispetto a questa struttura, e π `e differenziabile grazie all’Esercizio 2.83. Abbiamo quindi dimostrato (i), (ii), (iii) e (v), e (iv) segue immediatamente dalla Proposizione 3.9.12.
Definizione 3.9.15. Sia π: P → M un G-fibrato principale, e θ: G × S → S un’azione sinistra del gruppo di struttura G sulla variet` a S. Il G-fibrato π: P ×G S → M costruito nel teorema precedente si chiama fibrato associato all’azione θ, e lo indicheremo con P [S, θ]. Ed ecco infine la costruzione promessa: Esempio 3.9.16. Sia π: P → M un G-fibrato principale, e sia ρ: G → GL(V ) una rappresentazione di G, cio`e un omomorfismo di G nel gruppo degli automorfismi lineari di uno spazio vettoriale V (vedi l’Osservazione 2.6.6 e l’Esercizio 2.121). Una rappresentazione `e un’azione sinistra di G su V ; quindi possiamo costruire il G-fibrato associato P [V, ρ]. Ma P [V, ρ] ha fibra tipica V , e le funzioni di transizione sono (grazie alla rappresentazione ρ) a valori in GL(V ); quindi P [V, ρ] `e un fibrato vettoriale. Osservazione 3.9.17. Sia π: E → M un fibrato vettoriale di rango r. Allora possiamo costruire il GL(r, R)-fibrato principale GL(Rr , E), e il fibrato vettoriale associato GL(Rr , E)[Rr , id], usando la rappresentazione identica di GL(r, R) in se stesso. Allora GL(Rr , E)[Rr , id] `e isomorfo al fibrato vettoriale E. Infatti, l’applicazione canonica j: GL(Rn , E) × Rn → E data da j(Lp , x) = Lp (x) ∈ Ep `e chiaramente costante sulle orbite dell’azione destra di GL(r, R), per cui definisce un morfismo surgettivo di fibrati vettoriali j: GL(Rn , E)[Rr , id] → E di uguale rango, e quindi un isomorfismo di fibrati.
Esercizi FIBRATI VETTORIALI Esercizio 3.1 (Citato nella Sezione 3.1 e nell’Esercizio 3.4). Sia π: E → M un fibrato vettoriale di rango r sulla variet` a M , e S ⊂ M una sottovariet` a. Dimostra che πS : E|S → S, dove E|S = π −1 (S) e πS = π|π−1 (S) , `e un fibrato vettoriale di rango r su S, detto restrizione di E a S, e che se ι: S → M indica l’inclusione allora ι∗ E = E|S . [Suggerimento: usa l’Esercizio 2.94.] Esercizio 3.2 (Usato nell’Esempio 3.1.18). Verifica che la costruzione del fibrato normale descritta nell’Esempio 3.1.18 definisce un fibrato vettoriale.
Esercizi
193
Esercizio 3.3 (Usato nell’Esempio 3.2.13). Date carte locali ϕ = (x1 , . . . , xn ) e ϕ˜ = (˜ x1 , . . . , x ˜n ) con domini non disgiunti su una variet` a M , siano 1 n ˜1 , . . . , ∂/∂˜ v n } i corrispondenti riferimenti locali {∂/∂x , . . . , ∂/∂v } e {∂/∂ x su T (T M ) introdotti nell’Esempio 3.2.13. Determina l’espressione, analoga a (3.9), dei ∂/∂ x ˜h e dei ∂/∂˜ v k come combinazione lineare di ∂/∂x1 , . . . , ∂/∂v n , e ˜1 , . . . , ∂/∂ x ˜n ). trova un esempio in cui Span(∂/∂x1 , . . . , ∂/∂xn ) = Span(∂/∂ x Esercizio 3.4 (Citato nella Sezione 3.1 e negli Esercizi 3.6 e 3.65). (i) Definisci i concetti di sottofibrato di un fibrato vettoriale e di quoziente di un fibrato per un suo sottofibrato, e verifica che il fibrato normale NS introdotto nell’Esempio 3.1.18 pu` o essere identificato con il fibrato quoziente T M |S /T S, dove T M |S `e la restrizione di T M a S. (ii) Definisci il concetto di fibrato duale, e verifica che il fibrato cotangente `e il duale del fibrato tangente. Esercizio 3.5 (Usato nell’Esempio 3.1.21). Verifica che i fibrati somma diretta e prodotto tensoriale sono indipendenti dall’atlante usato per definirli. Esercizio 3.6 (Citato nella Sezione 3.1 e usato nella Definizione 6.3.1). Sia ˜→M ˜ . Supponendo (L, F ) un morfismo fra i fibrati vettoriali π: E → M e π ˜: E che L abbia rango costante, cio`e che dim L(Ep ) non dipenda da p ∈ M , dimostra che Ker(L, F ) = {v ∈ E | L(v) = OF (p) } ⊆ E `e un sottofibrato di E ˜ `e un sottofibrato di E. (vedi l’Esercizio 3.4), e che Im(L, F ) = L(E) ⊆ E Esercizio 3.7. Siano π: E → M e π : E → M due fibrati vettoriali su una variet` a M . Dimostra che un’applicazione F: E(M ) → E (M ) `e C ∞ (M )-lineare se e solo se esiste un morfismo F : E → E di fibrati tale che F (s) = F ◦ s per ogni s ∈ E(M ). h+k k Esercizio 3.8. Dimostra che Tlh M ⊗ Tm M `e isomorfo a Tl+m M.
SEZIONI DI FIBRATI Esercizio 3.9 (Citato nella Sezione 3.2). Sia A = {(Uα , ϕα )} un atlante su una n-variet` a M . Supponiamo di avere per ogni α una n-upla di funzioni su Uα ∩ Uβ le aα e le aβ siano aα = (a1α , . . . , anα ) ∈ C ∞ (Uα , Rn ) in modo che legate da (3.8). Dimostra che la formula X = j ajα ∂j,α , dove ∂j,α = ∂/∂xjα , definisce un campo vettoriale globale X ∈ T (M ). Esercizio 3.10 (Citato nella Sezione 3.2). Sia A = {(Uα , ϕα )} un atlante su M , e gαβ : Uα ∩ Uβ → GL(r, R) una famiglia di funzioni di transizione per un fibrato E. Supponi di avere per ogni α una r-upla di funzioni differenziabili aα = (a1α , . . . , arα ) ∈ C ∞ (Uα , Rr ) in modo che su Uα ∩ Uβ le aα e le aβ siano legate da (3.10). Dimostra che esiste un’unica sezione σ di E tale che le ajα siano i coefficienti di σ relativi a un appropriato riferimento locale su Uα .
194
3 Fibrati
Esercizio 3.11 (Citato nell’Osservazione 3.2.11). Sia π: E → M un fibrato vettoriale su M , e σ: M → E un’applicazione (non necessariamente C ∞ ) tale che π ◦ σ = idM . Dimostra che σ `e C ∞ se e solo se per ogni riferimento locale {σ1 , . . . , σr } di E su U ⊆ M si pu` o scrivere σ = a1 σ1 + · · · + ar σr con 1 r ∞ a , . . . , a ∈ C (U ) se e solo se questo avviene per una famiglia di riferimenti locali i cui domini di definizione formano un ricoprimento aperto di M . Esercizio 3.12. Sia π: E → M un fibrato vettoriale su una variet` a M ; sia inoltre K ⊆ M compatto, e U ⊆ M un intorno aperto di K. Dimostra che per ogni sezione σ ∈ E(U ) esiste una sezione σ ˜ ∈ E(M ) tale che σ ˜ |K ≡ σ|K . Esercizio 3.13 (Citato nell’Esempio 3.1.19). Per d ∈ N sia Ed il fibrato in rette su Pn (R) introdotto nell’Esempio 3.1.19. Dimostra che: (i) (ii) (iii) (iv)
Ed `e isomorfo al fibrato E1 ⊗ · · · ⊗ E1 (con d fattori); se d `e pari allora Ed `e banale; se d `e dispari allora Ed `e isomorfo a E1 ; E1 non `e banale.
[Suggerimento: un fibrato in rette `e banale se e solo se ammette una sezione mai nulla.]
Esercizio 3.14. Sia F : M → N un’applicazione differenziabile, e π: E → N un fibrato vettoriale di rango r su N . Dimostra che lo spazio delle sezioni su M del fibrato pull-back F ∗ E (vedi l’Esempio 3.1.20) `e isomorfo allo spazio delle applicazioni σ: M → E di classe C ∞ tali che σ(p) ∈ EF (p) per ogni p ∈ M . Esercizio 3.15. Sia σ: M → Tkh M una sezione (non necessariamente C ∞ ). Dimostra che σ `e C ∞ se e solo se per ogni aperto U ⊆ M , ogni k-upla di campi vettoriali X1 , . . ., Xk ∈ T (U ) e ogni h-upla di1-forme ω 1 , . . . , ω h ∈ A1 (U ) la funzione p → σp ωp1 , . . . , ωph , X1 (p), . . . , Xk (p) `e di classe C ∞ . Esercizio 3.16. Dimostra che un’applicazione τ¯: A1 (M )h × T (M )k → T l (M ) `e C ∞ (M )-multilineare se e solo se esiste un campo tensoriale τ ∈ Tkh+l (M ) tale che τ¯(ω 1 , . . . , ω h , X1 , . . . , Xk )(p)(ηp1 , . . . , ηpl ) = τp ηp1 , . . . , ηpl , ωp1 , . . . , ωph , X1 (p), . . . , Xk (p) per ogni ηp1 , . . . , ηpl ∈ Tp∗ M , ω 1 , . . . , ω h ∈ A1 (M ), X1 , . . . , Xk ∈ T (M ) e ogni p ∈ M. Esercizio 3.17. Sia τ ∈ Tkh (M ) un campo tensoriale di tipo hk . Scelti 1 ≤ i ≤ h e 1 ≤ j ≤ k, siano ω 1 , . . . , ω i ∈ A1 (M ) delle 1-forme, e X1 , . . . , Xj ∈ T (M ) dei campi vettoriali. Dimostra che l’applicazione p → τp ωp1 , . . . , ωpi , ·, X1 (p), . . . , Xj (p), · pu` o essere interpretata in modo naturale come un campo tensoriale di tih−i po k−j .
Esercizi
195
Esercizio 3.18. Sia π: E → M un fibrato vettoriale di rango k su una variet` a M , e siano σ1 , . . . , σl ∈ E(U ) sezioni di E su un aperto U ⊆ M tali che {σ1 (q), . . . , σl (q)} siano linearmente indipendenti per ogni q ∈ U . Dimostra che per ogni p ∈ U possiamo trovare un intorno V ⊆ U di p e sezioni σl+1 , . . . , σk ∈ E(V ) tali che {σ1 , . . . , σk } sia un riferimento locale di E su V . Esercizio 3.19. Per ogni z ∈ S 2n−1 ⊂ Cn sia σz : R → S 2n−1 la curva σ(t) = eit z. Dimostra che ponendo Xz = σz (0) si ottiene un campo vettoriale mai nullo X ∈ T (S 2n−1 ). Definizione 3.E.1. Diremo che una variet` a M `e parallelizzabile se T M `e un fibrato banale. Esercizio 3.20 (Utile per gli Esercizi 3.21 e 3.61). Sia H = C × C, considerato come spazio vettoriale su R, e definiamo un prodotto bilineare H × H → H con ∀(a, b), (c, d) ∈ H (a, b)(c, d) = (ac − db, da + bc) Inoltre, per ogni p = (a, b) ∈ H poniamo p∗ = (a, −b). (i) Verifica che con questo prodotto H `e un’algebra associativa ma non commutativa di dimensione 4 su R, chiamata algebra dei quaternioni. (ii) Dimostra che (pq)∗ = q ∗ p∗ per ogni p, q ∈ H. (iii) Dimostra che p, q = 12 (p∗ q + q ∗ p) `e un prodotto scalare definito positivo su H, e che la norma associata soddisfa pq = p q. (iv) Dimostra che H `e un corpo non commutativo, in cui l’inverso di p ∈ H\{O} `e dato da p−1 = p−2 p∗ . (v) Dimostra che l’insieme S dei quaternioni di norma unitaria `e un gruppo di Lie rispetto alla moltiplicazione quaternionica, e che `e diffeomorfo a S 3 . (vi) Diremo che un quaternione `e immaginario se p∗ = −p. Dimostra che se p ∈ H `e immaginario e q ∈ S allora qp ∈ Tq S (dove stiamo identificando Tq S con un sottospazio di H, come al solito). (vii) Sia {1, i, j, k} la base (come spazio vettoriale reale) di H data da 1 = (1, 0),
i = (i, 0),
j = (0, 1),
k = (0, i) ,
e definiamo X1 , X2 , X3 ∈ T (H) ponendo X1 (q) = qi,
X2 (q) = qj,
X3 (q) = qk .
Dimostra che le restrizioni di X1 , X2 e X3 a S formano un riferimento globale per T S, e deducine che S 3 `e parallelizzabile. Esercizio 3.21. Sia O = H × H, considerato come spazio vettoriale su R, e definiamo un prodotto bilineare O × O → O con ∀(p, q), (r, s) ∈ O
(p, q)(r, s) = (pr − s∗ q, sp + qr ∗ ) .
(3.24)
196
3 Fibrati
(i) Dimostra che O `e un’algebra non associativa e non commutativa di dimensione 8 su R, chiamata l’algebra degli ottetti di Cayley. (ii) Dimostra che S 7 `e parallelizzabile, imitando quanto fatto nell’Esercizio 3.20. Esercizio 3.22. Definisci su S = O × O un prodotto bilineare con la formula (3.24), dove se (p, q) ∈ O allora (p, q)∗ = (p∗ , −q). Dimostra che in questo modo si ottiene un’algebra non associativa e non commutativa di dimensione 16 su R (detta l’algebra dei sedenioni ). Perch´e procedendo come nei due esercizi precedenti non si ottiene un riferimento globale per T S 15 ? Esercizio 3.23 (Usato nell’Osservazione 3.2.6 e citato nell’Esercizio 3.37). Dimostra che il prodotto tensoriale, definito puntualmente, di un kl -tensore con k+h h -tensore `e un l+m -tensore, e che il prodotto esterno (sempre definito un m puntualmente) di una h-forma differenziale con una k-forma differenziale `e una (h + k)-forma differenziale. FLUSSI Esercizio 3.24 (Usato nella Proposizione 3.9.2). Dimostra che un campo vettoriale X ∈ T (M ) di flusso Θ `e completo se e solo se per ogni p ∈ M e ogni t0 ∈ R l’insieme θp (−t0 , t0 ) `e relativamente compatto in M . Deducine che se M `e compatto allora ogni campo vettoriale su M `e completo. Esercizio 3.25. Determina esplicitamente il flusso dei seguenti campi vettoriali su R2 : ∂ ∂ (i) y ∂x + ∂y ; ∂ ∂ (ii) x ∂x + 3y ∂y ; ∂ ∂ − y ∂y ; (iii) x ∂x ∂ ∂ + x ∂y . (iv) y ∂x
Esercizio 3.26. Dimostra che il gruppo dei diffeomorfismi di una variet` a connessa M agisce transitivamente su M facendo vedere che per ogni coppia di punti p, q ∈ M esiste un diffeomorfismo F : M → M tale che F (p) = q. [Suggerimento: dimostra prima che se M = B n , la palla unitaria in Rn , allora esiste X ∈ T (B n ) a supporto compatto tale che θ1 (p) = q, dove Θ `e il flusso di X.]
Definizione 3.E.2. Una curva σ: R → M in una variet` a M `e periodica se esiste T > 0 tale che σ(t) = σ(t + T ) per ogni t ∈ R. Esercizio 3.27. Sia X ∈ T (M ) un campo vettoriale, e σ una curva integrale massimale di X. (i) Dimostra che se σ non `e costante allora o `e iniettiva o `e periodica. (ii) Dimostra che se σ `e periodica non costante allora esiste un unico numero positivo T0 (il periodo di σ) tale che σ(t) = σ(t ) se e solo se t − t = kT0 per qualche k ∈ Z.
Esercizi
197
(iii) Dimostra che se σ non `e costante allora `e un’immersione, e l’immagine di σ ha una struttura naturale di variet` a 1-dimensionale diffeomorfa a R o a S1. Definizione 3.E.3. Sia S ⊂ M una sottovariet` a di una variet` a M . Diremo che un campo vettoriale X ∈ T (M ) `e trasverso a S se Xp ∈ / Tp S per ogni p ∈ S. Esercizio 3.28. Siano S ⊂ M una sottovariet` a compatta, e X ∈ T (M ) un campo vettoriale trasverso a S. Dimostra che esiste un ε > 0 tale che il flusso di X si restringa a un diffeomorfismo fra (−ε, ε) × S e un intorno di S in M . Esercizio 3.29. Siano S ⊂ M una sottovariet` a di una variet` a M , e X ∈ T (M ) un campo vettoriale trasverso a S. Dimostra che per ogni f ∈ C ∞ (M ) e ϕ ∈ C ∞ (S) esiste un intorno U di S in M e un’unica u ∈ C ∞ (U ) tale che ∂ ,e Xu = f e u|S = ϕ. [Suggerimento: Studia prima il caso M = S × R e X = ∂t poi usa il flusso di X per ricondurti a questo caso.]
CAMPI CORRELATI Esercizio 3.30 (Citato nella Sezione 3.4). (i) Trova un esempio di applicazione differenziabile F : M → N e di campo vettoriale X ∈ T (M ) per cui non esistono campi vettoriali F -correlati a X. (ii) Trova un esempio di applicazione differenziabile F : M → N e di campo vettoriale X ∈ T (M ) per cui esistono pi` u di un campo vettoriale F correlato a X. Esercizio 3.31 (Usato nella Proposizione 3.9.2). Sia F : M → N un’applicaa, X ∈ T (M ) e Y ∈ T (N ). Indichiamo con zione di classe C ∞ fra variet` Θ: U → M il flusso locale di X, e con Ψ : V → N il flusso locale di Y . Dimostra che Y `e F -correlato a X se e solo se per ogni t ∈ R si ha ψt ◦ F = F ◦ θt su Ut . Esercizio 3.32. Se π: M → N `e una sommersione e X ∈ T (N ), dimostra che ` unico? esiste un campo vettoriale Y ∈ T (M ) che `e π-correlato a X. E Esercizio 3.33. Sia π: M → N una sommersione surgettiva. Se X ∈ T (M ) `e tale che dπp (Xp ) = dπq (Xq ) ogni volta che π(p) = π(q), dimostra che esiste un unico Y ∈ T (N ) che `e π-correlato a X. Esercizio 3.34 (Usato nella Proposizione 3.7.8). Sia ι: S → M una sottovariet` a immersa in una variet`a M . Dimostra che per ogni X ∈ T (M ) tale che Xp ∈ Tp S per ogni p ∈ S esiste un unico campo vettoriale X|S ∈ T (S) che `e ι-correlato a X. Deduci che se X, Y ∈ T (M ) sono tali che Xp , Yp ∈ Tp S per ogni p ∈ S allora [X, Y ]p ∈ Tp S per ogni p ∈ S.
198
3 Fibrati
Esercizio 3.35 (Usato nell’Esempio 6.6.10). Sia N → M una sottovariet` a di una variet` a M , e X, Y ∈ T (N ). Dimostra che se U ⊆ M `e un intorno ˜ Y˜ ∈ T (U ) sono tali che X| ˜ N = X e Y˜ |N = Y allora aperto di N e X, ˜ ˜ [X, Y ]|N = [X, Y ] ∈ T (N ). DERIVATA DI LIE Esercizio 3.36 (Citato nella Sezione 3.4). Siano X, Y ∈ T (M ) due campi vettoriali su una variet` a M . Dimostra direttamente (cio`e senza ricorrere alle parentesi di Lie) che LX Y `e un campo vettoriale su M . Definizione 3.E.4. Sia F : M → N di classe C ∞ , e τ ∈ Tk0 (N ) un campo tensoriale covariante. Il pull-back di τ tramite F `e il campo tensoriale covariante F ∗ τ ∈ Tk0 (M ) definito da ∀p ∈ M
(F ∗ τ )p = T• (dFp )(τF (p) ) ,
dove T• (dFp ): Tk0 (TF (p) N ) → Tk0 (Tp M ) `e il morfismo definito nell’Esercizio 1.48 indotto da dFp : Tp M → TF (p) M . Esercizio 3.37. Siano F : M → N e G: N → S applicazioni differenziabili, σ ∈ Th0 (N ), τ ∈ Tk0 (N ) e f ∈ C ∞ (N ). Dimostra che: (i) F ∗ τ `e effettivamente una sezione di classe C ∞ di Tk0 (M ); (ii) si ha (F ∗ τ )p (X1 , . . . , Xk ) = τF (p) dFp (X1 ), . . . , dFp (Xk ) per ogni p ∈ M e X1 , . . . , Xk ∈ T (M ); (iii) F ∗ (f τ ) = (f ◦ F )F ∗ τ ; (iv) F ∗ (σ⊗τ ) = F ∗ σ⊗F ∗ τ (vedi l’Esercizio 3.23 per la definizione di prodotto tensoriale di campi tensoriali); (v) F ∗ : Tk0 (N ) → Tk0 (M ) `e R-lineare; (vi) (G ◦ F )∗ = F ∗ ◦ G∗ e (idN )∗ = id. Esercizio 3.38 (Citato negli Esercizi 3.39 e 4.36 e nella Sezione 6.8). Siano τ ∈ Tk0 (M ) un campo tensoriale covariante, e X ∈ T (M ) un campo vettoriale di flusso Θ. Dimostra che ponendo θ∗ (τθ (p) ) − τp d ∗ (θt τ )p , = lim t t (LX τ )p = t→0 dt t t=0 dove θt∗ τ `e il pullback di τ tramite θt (vedi la Definizione 3.E.4) si definisce un campo tensoriale covariante LX τ ∈ Tk0 (M ), detto derivata di Lie di τ lungo X. Esercizio 3.39 (Usato nel Lemma 6.8.10 e citato nella Definizione 6.E.8). Dimostra le seguenti propriet` a della derivata di Lie di campi tensoriali covarianti introdotta nell’Esercizio 3.38, dove X, Y ∈ T (M ), f ∈ C ∞ (M ) = T00 (M ), e σ e τ sono campi tensoriali covarianti:
Esercizi
(i) (ii) (iii) (iv)
199
LX f = X(f ); LX (f τ ) = (LX f )τ + f LX τ ; LX (σ ⊗ τ ) = (LX σ) ⊗ τ + σ ⊗ (LX τ ); se τ ∈ Tk0 (M ) e Y1 , . . . , Yk ∈ T (M ) allora (LX τ )(Y1 , . . . , Yk ) = X τ (Y1 , . . . , Yk ) − τ ([X, Y1 ], Y2 , . . . , Yk ) − · · · − τ (Y1 , . . . , Yk−1 , [X, Yk ]) ;
(v) LX (df ) = d(LX f ); (vi) se Θ `e il flusso di X e (t0 , p) appartiene al dominio di Θ allora d ∗ = θt∗0 (LX τ )θt0 (p) ; θt (τθt (p) ) dt t=t0 (vii) τ `e invariante rispetto al flusso di X, cio`e θt∗ τθt (p) = τp per ogni (t, p) nel dominio di Θ, se e solo se LX τ ≡ O.
GRUPPI DI LIE Esercizio 3.40. Dimostra che ogni gruppo di Lie `e parallelizzabile. Esercizio 3.41. Dimostra che l’azione di un gruppo di Lie connesso su uno spazio discreto `e necessariamente banale. Esercizio 3.42 (Utile per gli Esercizi 3.44 e 3.63). Dimostra che ogni sottogruppo normale discreto di un gruppo di Lie connesso G `e contenuto nel centro di G. ˜ → G un rivestimento liscio Esercizio 3.43 (Utile per l’Esercizio 3.44). Sia π: G di gruppi di Lie che sia anche un omomorfismo di gruppi di Lie. Dimostra che il gruppo degli automorfismi del rivestimento (Definizione 2.E.5) `e isomorfo al nucleo di π. [Suggerimento: dimostra che il rivestimento `e normale, e ricorda l’Esercizio 2.115.]
Esercizio 3.44. Dimostra che il gruppo fondamentale di un gruppo di Lie connesso `e necessariamente abeliano. [Suggerimento: usa gli Esercizi 3.42 e 3.43, e il fatto che il gruppo fondamentale `e isomorfo al gruppo degli automorfismi del rivestimento universale.]
Esercizio 3.45 (Utile per l’Esercizio 3.64). Dimostra che la componente connessa contenente l’elemento neutro di un gruppo di Lie G `e un sottogruppo normale di G. Esercizio 3.46 (Utile per l’Esercizio 3.80). Sia G un gruppo di Lie, e indichiamo con μ: G × G → G la moltiplicazione e ι: G → G l’inversione.
200
3 Fibrati
(i) Dimostra che con l’operazione (g, Xg ) · (h, Yh ) = d(Rh )g (Xg ) + d(Lg )h (Yh ) per ogni g, h ∈ G e Xg ∈ Tg G e Yh ∈ Th G il fibrato tangente T G diventa un gruppo di Lie, dove Lg `e la traslazione sinistra e Rh la traslazione destra. (ii) Poniamo su g × G l’operazione (X, g) · (Y, h) = X + d(Cg )e Y, gh , dove Cg : G → G `e il coniugio Cg (h) = ghg −1 . Dimostra che con questa operazione g×G `e un gruppo di Lie, isomorfo a T G tramite l’omomorfismo (X, g) → d(Rg )e X. APPLICAZIONE ESPONENZIALE Esercizio 3.47. Sia G un gruppo di Lie di algebra di Lie g. Dimostra che per ogni X, Y ∈ g esiste un’applicazione differenziabile Z: (−ε, ε) → g tale che Z(0) = O e (exp tX)(exp tY ) = exp t X + Y + Z(t) per ogni t ∈ (−ε, ε). Esercizio 3.48. Sia H ⊂ G un sottogruppo di Lie connesso di un gruppo di Lie connesso G, e siano h ⊂ g le loro algebre di Lie. Dimostra che H `e normale in G se e solo se (exp X)(exp Y ) exp(−X) ∈ H per ogni X ∈ g e Y ∈ h. Esercizio 3.49. Calcola l’applicazione esponenziale dei gruppi di Lie abeliani Rn e Tn . Esercizio 3.50. Sia G un gruppo di Lie di algebra di Lie g, e sia g = h ⊕ k una decomposizione di g come somma di sottospazi complementari. Dimostra che l’applicazione ψ: h ⊕ k → G data da ψ(X, Y ) = (exp X)(exp Y ) `e un diffeomorfismo fra un intorno dell’origine in g e un intorno di e in G. Esercizio 3.51. Dimostra che ∀A ∈ GL(n, R)
det eA = etr A .
Esercizio 3.52. Sia GL+ (n, R) il sottogruppo di GL(n, R) delle matrici di determinante positivo. (i) Dimostra che GL+ (n, R) `e aperto e connesso. (ii) Dimostra che ogni A ∈ GL+ (n, R) che appartiene a exp gl(n, R) ammette una radice quadrata, cio`e esiste B ∈ GL+ (n, R) tale che A = B 2 .
Esercizi
201
(iii) Dimostra che exp: gl(2, R) → GL+ (2, R) non `e surgettiva. Esercizio 3.53 (Utile per l’Esercizio 3.54). Dimostra che un omomorfismo continuo ϕ: G → H fra due gruppi di Lie `e necessariamente differenziabile. [Sug-
gerimento: Dimostra prima di tutto che ogni sottogruppo a un parametro continuo `e differenziabile.]
Esercizio 3.54. Dimostra che ogni omomorfismo bigettivo continuo ϕ: G → H fra due gruppi di Lie `e necessariamente un diffeomorfismo. [Suggerimento: dato un intorno aperto V di e in G, sia K un intorno compatto di e in G tale KK −1 ⊆ V . Scegli {gj }j∈N tali che G = j gj K. Usa il teorema di Baire dimostrare che esiste un j tale che ϕ(gj )ϕ(K) ha parte interna non vuota, cui ϕ(K) ha parte interna non vuota. Deduci da questo che ϕ `e aperta, e poi l’Esercizio 3.53.]
che per per usa
ALGEBRE DI LIE Esercizio 3.55 (Usato nel Teorema 3.8.3). Siano G e H due gruppi di Lie, con algebre di Lie rispettivamente g e h. Dimostra che l’algebra di Lie di G × H `e isomorfa all’algebra g × h, con l’operazione [(g1 , h1 ), (g2 , h2 )] = ([g1 , g2 ], [h1 , h2 ]) . Esercizio 3.56. Se F : G → H `e un omomorfismo di gruppi di Lie di algebra di Lie rispettivamente g e h, dimostra che il nucleo di dFe : g → h `e l’algebra di Lie del nucleo di F . Esercizio 3.57 (Citato nell’Esercizio 3.58). Siano sl(n, K) = {X ∈ gl(n, K) | tr X = 0} il sottospazio delle matrici quadrate a traccia nulla su un campo K qualsiasi, e o(n, K) = {X ∈ gl(n, K) | X T + X = O} il sottospazio delle matrici antisimmetriche. Dimostra che X, Y ∈ sl(n, K) implica [X, Y ] ∈ sl(n, K), e che X, Y ∈ o(n, K) implica [X, Y ] ∈ o(n, K), per cui sl(n, K) e o(n, K) sono delle algebre di Lie. Esercizio 3.58 (Citato nella Sezione 3.5 e usato nell’Esempio 7.5.12). Dimostra che l’algebra di Lie del gruppo ortogonale O(n) `e l’algebra o(n) = o(n, R) delle matrici antisimmetriche (vedi l’Esercizio 3.57). Dimostra inoltre che l’algebra di Lie di SO(n) coincide con o(n). Esercizio 3.59 (Citato nella Sezione 3.5). Dimostra che l’algebra di Lie del gruppo unitario U (n) `e l’algebra u(n) = {X ∈ gl(n, C) | X + X ∗ = O} delle matrici antihermitiane. Dimostra inoltre che l’algebra di Lie di SU (n) `e data da su(n) = u(n) ∩ sl(n, C).
202
3 Fibrati
Esercizio 3.60. Il gruppo simplettico `e il sottogruppo Sp(n, R) ⊂ GL(2n, R) delle matrici A ∈ GL(2n, R) tali che AT JA = J, dove J ∈ GL(2n, R) `e la matrice O In . J = −In O Dimostra che Sp(n, R) `e un sottogruppo di Lie di GL(2n, R), calcolane la dimensione, e determina la sua algebra di Lie sp(n, R) ⊂ gl(2n, R). Infine, definisci e dimostra i risultati analoghi per il gruppo simplettico complesso Sp(n, C) ⊂ GL(n, C). Definizione 3.E.5. Sia H l’algebra dei quaternioni (vedi l’Esercizio 3.20). Per ogni u = (u1 , . . . , un ) ∈ Hn e a ∈ H poniamo ua = (u1 a, . . . , un a). Diremo che un’applicazione R-lineare A: H → H `e H-lineare se A(ua) = A(u)a per ogni u ∈ Hn e a ∈ H. Definiamo poi una forma R-bilineare su Hn ponendo u, v = (uj )∗ v j ; j
diremo che un’applicazione H-lineare A `e H-unitaria se A(u), A(v) = u, v per ogni u, v ∈ Hn . Infine, indicheremo con Sp(n) il gruppo delle applicazioni H-unitarie su Hn . Esercizio 3.61. Dimostra che Sp(n) `e un gruppo di Lie che pu` o essere identificato con Sp(n, C) ∩ U (2n), e determina la sua algebra di Lie sp(n). Esercizio 3.62. Siano G e H due gruppi di Lie, con algebre di Lie g e h rispettivamente, e sia F : G → H un omomorfismo di gruppi di Lie. Dimostra che per ogni X ∈ T (G) invariante a sinistra esiste un unico Y = F∗ (X) ∈ T (H) che `e F -correlato a X, e che l’applicazione F∗ : g → h definita da F∗ (Xe ) = (F∗ X)e `e un morfismo di algebre di Lie. Esercizio 3.63 (Usato nell’Osservazione 3.8.5). Sia G un gruppo di Lie connesso con algebra di Lie g. Dimostra che G `e isomorfo a un gruppo della forma ˜ , dove G ˜ `e un gruppo di Lie semplicemente connesso di algebra di Lie g, G/Γ ˜ ˜ [Suggerimento: e Γ ⊂ G `e un sottogruppo discreto contenuto nel centro di G. usa l’Esercizio 3.42.]
Definizione 3.E.6. Diremo che un gruppo di Lie G `e un’estensione di un gruppo di Lie G0 tramite un gruppo di Lie H se esiste un omomorfismo di gruppi di Lie surgettivo ψ: G → H con nucleo isomorfo a G0 .
Esercizi
203
Esercizio 3.64 (Citato nell’Osservazione 3.8.5). Dimostra che un gruppo di Lie sconnesso con algebra di Lie g `e l’estensione di un gruppo di Lie connesso tramite un gruppo di Lie discreto. [Suggerimento: usa l’Esercizio 3.45.]
DISTRIBUZIONI E FOLIAZIONI Esercizio 3.65. Dimostra che una distribuzione k-dimensionale su una variet` a M `e una distribuzione liscia se e solo se `e un sottofibrato vettoriale (vedi l’Esercizio 3.4) di T M di rango k. Esercizio 3.66. Dimostra che una distribuzione liscia D `e involutiva se e solo se per ogni p ∈ M esiste un riferimento locale (Y1 , . . . , Yk ) per D su un intorno aperto U di p tale che [Yi , Yj ] ∈ TD (U ) per ogni i, j = 1, . . . , k. Esercizio 3.67 (Citato nella Sezione 3.7). Dimostra che l’unione degli spazi tangenti alle foglie di una foliazione k-dimensionale forma una distribuzione liscia k-dimensionale involutiva. Esercizio 3.68. Sia D ⊂ T R3 la distribuzione generata dai campi vettoriali X=x
∂ ∂ ∂ + + x(y + 1) , ∂x ∂y ∂z
Y =
∂ ∂ +y . ∂x ∂z
Dimostra che D `e involutiva, e determina una carta locale piatta centrata nell’origine per la foliazione indotta da D. Esercizio 3.69. Sia Q = {(x, yz) ∈ R3 | x, y, z > 0} ⊂ R3 , e sia D ⊂ T Q la distribuzione generata dai campi vettoriali X=y
∂ ∂ −z , ∂z ∂y
Y =z
∂ ∂ −x . ∂x ∂z
Dimostra che D `e involutiva, e determina una carta locale piatta centrata nell’origine per la foliazione indotta da D. Esercizio 3.70. Sia D ⊂ T R3 la distribuzione generata dai campi vettoriali X=
∂ ∂ + yz , ∂x ∂z
Y =
∂ . ∂y
Determina una sottovariet` a integrale di D passante per l’origine, e determina se D `e involutiva. Esercizio 3.71. Sia D una distribuzione involutiva su una variet` a M . Dimostra che una sottovariet`a integrale di D connessa e chiusa (in M ) `e necessariamente una foglia della foliazione indotta da D. Esercizio 3.72. Dimostra che le componenti connesse degli insiemi di livello di una sommersione F : M → N formano una foliazione di M .
204
3 Fibrati
Esercizio 3.73. Sia θ: G × M → M un’azione libera e propria di un gruppo di Lie connesso su una variet`a M . Dimostra che le orbite di G formano una foliazione di M , e trova un esempio in cui questo non `e vero se l’azione non `e libera. FIBRATI Definizione 3.E.7. Diremo che due applicazioni differenziabili f1 : M1 → N e f2 : M2 → N sono trasverse in q ∈ N se d(f1 )p1 (Tp1 M1 ) + d(f2 )p2 (Tp2 M2 ) = Tq N ogni volta che f1 (p1 ) = f2 (p2 ) = q; nota che questa condizione `e banalmente soddisfatta se q ∈ / f1 (M1 ) ∩ f2 (M2 ). Diremo poi che f1 ed f2 sono trasverse se lo sono in ogni q ∈ N . Esercizio 3.74. Siano f1 : M1 → N e f2 : M2 → N due applicazioni differenziabili trasverse. Dimostra che il prodotto fibrato M1 ×N M2 `e una sottovariet`a di M1 × M2 . [Suggerimento: usa l’Esercizio 2.94.] Esercizio 3.75. Sia π: E → M un fibrato di fibra tipica S, e F : N → M un’applicazione differenziabile, e indichiamo con F ∗ π: N ×M E → N e π ∗ F : N ×M E → E le proiezioni naturali. Dimostra che F ∗ π: N ×M E → N `e un fibrato di fibra tipica S (detto fibrato pullback ) e che π ∗ F `e un diffeomorfismo che rispetta le fibre. Esercizio 3.76. Sia G un gruppo di Lie, e H ⊂ G un sottogruppo chiuso. Dimostra che la proiezione naturale π: G → G/H `e un fibrato principale di gruppo di struttura H. [Suggerimento: ricorda l’Esercizio 2.133.] Esercizio 3.77. Sia π: E → M un G-fibrato di fibra tipica S e azione sinistra θ: G × S → S. Dimostra che esiste un G-fibrato principale π: P → M tale che E = P [S, θ]. Esercizio 3.78 (Citato nell’Esercizio 3.79). Sia π: P → M un G-fibrato principale a S. Indichiamo con e θ: G × S → S un’azione sinistra su una variet` C ∞ P, (S, θ )G l’insieme delle applicazioni differenziabili f : P → S che sono G-equivarianti nel senso che f (u · g) = g −1 · f (u) per ogni u ∈ P e g ∈ G. Di G mostra che C ∞ P, (S, θ) `e in corrispondenza biunivoca con l’insieme delle sezioni di P [S, θ]. Definizione 3.E.8. Una trasformazione di gauge di un fibrato principale π: P → M di gruppo di struttura G `e un diffeomorfismo ξ: P → P tale che π ◦ ξ = π e ξ(u · g) = ξ(u) · g per ogni u ∈ P e g ∈ G. Esercizio 3.79. Sia π: P → M un fibrato principale di gruppo di struttura G. Dimostra che il gruppo delle trasformazioni di gauge `e in corrispondenza G introdotto nell’Esercizio 3.78, dove biunivoca con l’insieme C ∞ P, (G, C) C: G × G → G `e l’azione sinistra data dal coniugio: C(g, h) = ghg−1 .
Esercizi
205
Definizione 3.E.9. Il fibrato verticale associato a un fibrato π: E → M `e dato da V E = Ker dπ ⊂ T E. Esercizio 3.80. Sia π: P → M un fibrato principale di gruppo di struttura G, e θ: G × S → S un’azione sinistra di G su una variet` a S. Dimostra che: (i) dπ: T P → T M `e un fibrato principale di gruppo di struttura T G (vedi l’Esercizio 3.46); (ii) il fibrato verticale π: V P → P `e isomorfo al fibrato banale P × g, dove g `e l’algebra di Lie di G; [Suggerimento: usa l’applicazione (u, X) → d(ru )e X, dove ru (g) = u · g.]
(iii) π ◦ π: V P → M `e un fibrato principale di gruppo di struttura T G; (iv) il fibrato tangente di P [S, θ] `e dato da T P [T S, dθ].
4 Forme differenziali e integrazione
Le forme differenziali su una variet` a hanno una struttura molto ricca che (come vedremo anche nel prossimo capitolo) permette di studiare a fondo la struttura delle variet` a differenziabili. Prima di tutto, il prodotto esterno di tensori induce immediatamente un prodotto esterno fra forme differenziali, dando all’insieme delle forme differenziali su una variet` a una struttura di algebra graduata associativa e anticommutativa. Inoltre, possiamo usare le applicazioni differenziali per trasportare, tramite l’operazione di pull-back, forme differenziali dal codominio dell’applicazione al dominio dell’applicazione. Introdurremo poi le variet` a orientabili, cio`e quelle in cui `e possibile orientare in modo coerente tutti gli spazi tangenti, e vedremo come l’orientabilit` a di una n-variet` a sia equivalente all’esistenza di una n-forma mai nulla; dimostreremo anche che una variet`a non orientabile ammette un rivestimento canonico orientabile a due fogli (per cui, in particolare, ogni variet` a semplicemente connessa `e orientabile). Vedremo inoltre come sia possibile definire l’integrale di forme differenziali a supporto compatto su variet` a orientabili. Ma l’ingrediente cruciale che rende le forme differenziali particolarmente utili `e il differenziale esterno, un’applicazione lineare che manda k-forme in (k + 1)-forme generalizzando il concetto di differenziale di funzioni (pensate come 0-forme). Usando il differenziale esterno `e possibile studiare contemporaneamente forme di grado diverso, introducendo con tecniche differenziali una struttura algebrica sullo spazio delle forme differenziali che `e in grado di rivelare propriet` a topologiche della variet` a. I dettagli li vedremo nel prossimo capitolo; concluderemo questo capitolo dimostrando il fondamentale Teorema di Stokes, che mescola differenziale esterno ed integrazione generalizzando a variet` a qualsiasi i classici teoremi di Gauss-Green e della divergenza, per non parlare del teorema fondamentale del calcolo integrale.
Abate M., Tovena F.: Geometria Differenziale. DOI 10.1007/978-88-470-1920-1_4 c Springer-Verlag Italia 2011
208
4 Forme differenziali e integrazione
4.1 Operazioni sulle forme differenziali Nel Capitolo 3 abbiamo visto alcune operazioni che si possono effettuare con i campi vettoriali. Come invece vedremo in questo capitolo, la struttura algebrica delle forme differenziali `e molto pi` u ricca; iniziamo introducendo un prodotto naturale. Definizione 4.1.1. Data una n-variet` a M , indichiamo con •
A (M ) =
n
Ar (M )
r=0
lo spazio delle forme differenziali su M . Il prodotto esterno di due forme η, ω ∈ A• (M ) `e la forma differenziale η ∧ ω definita da ∀p ∈ M
η ∧ ω(p) = η(p) ∧ ω(p) .
In particolare, le propriet` a del prodotto esterno dei tensori alternanti viste nel Capitolo 1 implicano subito (controlla!) le seguenti propriet` a del prodotto esterno di forme differenziali: (a) `e associativo; (b) `e distributivo rispetto alla somma; (c) commuta col prodotto per scalari, cio`e (λη) ∧ ω = λ(η ∧ ω) = η ∧ (λω) per ogni λ ∈ R e η, ω ∈ A• (M ); (d) `e graduato, cio`e se η ∈ Ar (M ) e ω ∈ As (M ) sono rispettivamente una r-forma e una s-forma allora η ∧ ω ∈ Ar+s (M ) `e una (r + s)-forma; (e) `e anticommutativo, nel senso che ∀η ∈ Ar (M ), ∀ω ∈ As (M )
η ∧ ω = (−1)rs ω ∧ η .
Queste propriet` a si riassumono dicendo che A• (M ) `e un’algebra graduata associativa e anticommutativa (vedi, pi` u oltre, la Definizione 5.1.8). Esempio 4.1.2. Se 3
η = x1 x2 dx3 + ex dx1 ∧ dx2
e ω = x3 dx2 + cos(x1 + x2 ) dx1 ∧ dx2 ∧ dx3
sono due forme differenziali su M = R3 allora η ∧ ω = −x1 x2 x3 dx2 ∧ dx3 . Osservazione 4.1.3. L’Esempio 3.2.14 ci dice che se (U, ϕ) `e una carta locale o su una variet` a M con ϕ = (x1 , . . . , xn ) allora ogni r-forma ω ∈ Ar (M ) si pu` scrivere localmente come ωi1 ...ir dxi1 ∧ · · · ∧ dxir , ω|U = 1≤i1 <···
per opportune funzioni ωi1 ...ir ∈ C ∞ (U ).
4.1 Operazioni sulle forme differenziali
209
Abbiamo notato nella Sezione 3.3 che, in generale, `e difficile trasportare campi vettoriali da una variet` a a un’altra usando applicazioni differenziabili. Uno dei vantaggi delle forme differenziali `e che sono invece molto semplici da trasportare: Definizione 4.1.4. Sia ω ∈ Ar (N ) una r-forma sulla variet` a N, e F: M → N un’applicazione C ∞ . Il pull-back di ω lungo F `e la r-forma F ∗ ω ∈ Ar (M ) definita da (4.1) (F ∗ ω)p (v1 , . . . , vr ) = ωF (p) dFp (v1 ), . . . , dFp (vr ) per ogni v1 , . . . , vr ∈ Tp M . Si verifica subito (Esercizio 4.1) che F ∗ ω `e rlineare, alternante e di classe C ∞ , per cui `e effettivamente una r-forma su M . Se ι: M → N `e una sottovariet` a, scriveremo anche ω|M per ι∗ ω. La prossima proposizione contiene le propriet` a principali del pull-back di forme differenziali. Proposizione 4.1.5. Sia F : M → N un’applicazione di classe C ∞ fra variet` a. Allora: (i) F ∗ : Ar (N ) → Ar (M ) `e lineare per ogni r ≥ 0, e quindi definisce per linearit` a un’applicazione lineare F ∗ : A• (N ) → A• (M ); ∗ (ii) F (η ∧ ω) = F ∗ η ∧ F ∗ ω per ogni η, ω ∈ A• (N ); (iii) se (V, ψ) `e una carta locale in N con ψ = (y 1 , . . . , y n ), e ω|V = ωi1 ...ir dy i1 ∧ · · · ∧ dy ir i1 <···
`e l’espressione in coordinate locali di una r-forma ω ∈ Ar (N ), allora (ωi1 ...ir ◦ F ) dF i1 ∧ · · · ∧ dF ir , F ∗ ω|F −1 (V ) = i1 <···
dove F i = y i ◦ F per i = 1, . . . , n; (iv) se g1 , . . . , gr ∈ C ∞ (N ) allora F ∗ (dg1 ∧ · · · ∧ dgr ) = d(g1 ◦ F ) ∧ · · · ∧ d(gr ◦ F ) ; (v) se dim M = dim N = n, e (U, ϕ), rispettivamente (V, ψ), sono carte locali su M , rispettivamente N , con ϕ = (x1 , . . . , xn ), ψ = (y 1 , . . . , y n ) e F (U ) ⊆ V , allora F ∗ (f dy 1 ∧ · · · ∧ dy n ) = (f ◦ F ) det(dF˜ ) dx1 ∧ · · · ∧ dxn per ogni f ∈ C ∞ (V ), dove F˜ = ψ ◦ F ◦ ϕ−1 ; (vi) se G: N → S `e un’altra applicazione C ∞ allora (G ◦ F )∗ = F ∗ ◦ G∗ . In particolare, se F `e un diffeomorfismo allora F ∗ `e un isomorfismo di algebre con inversa (F ∗ )−1 = (F −1 )∗ .
210
4 Forme differenziali e integrazione
Dimostrazione. (i) Ovvio. (ii) Segue subito dal fatto che sia il prodotto esterno di forme sia il pullback sono definiti puntualmente. (iii) Infatti se p ∈ F −1 (V ) e v1 , . . . , vr ∈ Tp M abbiamo (F ∗ ω)p (v1 , . . . , vr ) = ωF (p) dFp (v1 ), . . . , dFp (vr ) ωi1 ...ir F (p) dy i1 ∧ · · · ∧ dy ir dFp (v1 ), . . . , dFp (vr ) = i1 <···
=
ωi1 ...ir F (p) dF i1 ∧ · · · ∧ dF ir (v1 , . . . , vr ) ,
i1 <···
dove l’ultima eguaglianza segue dal fatto che dF i = d(y i ◦ F ) = dy i ◦ dF e dalla definizione di prodotto esterno. (iv) Segue subito da (ii) e da F ∗ (dg) = d(g ◦ F ) per ogni g ∈ C ∞ (N ). (v) La (iii) ci dice che F ∗ (f dy 1 ∧ · · · ∧ dy n ) = (f ◦ F ) dF 1 ∧ · · · ∧ dF n . D’altra parte, l’Osservazione 3.2.15 ci dice che dF h =
n ∂F h k=1
∂xk
dxk ;
h siccome il differenziale dF˜ `e rappresentato dalla matrice Jacobiana ∂F , la ∂xk tesi segue dall’Osservazione 1.4.20. (vi) Segue subito dall’identit` a d(G ◦ F )p = dGF (p) ◦ dFp , e dal fatto ovvio
che id∗ = id. Esempio 4.1.6. Sia F : R2 → R3 data da F (x, y) = (xy, x2 , y 3 ), e ω ∈ A2 (R3 ) data da ω = y dx ∧ dz. Allora F ∗ ω = 3x2 y 3 dx ∧ dy . Un’ultima operazione effettuabile con le forme differenziali che ci servir` a in seguito `e la seguente: Definizione 4.1.7. Sia X ∈ T (M ) un campo vettoriale su una variet`a M . La contrazione (o moltiplicazione interna) con X `e l’applicazione C ∞ (M )-lineare iX : Ak (M ) → Ak−1 (M ) definita da iX ω(Y1 , . . . , Yk−1 ) = ω(X, Y1 , . . . , Yk−1 ) per k ≥ 1, con la convenzione che ιX ≡ O su A0 (M ). Scriveremo anche X ω per iX ω. L’Esercizio 4.5 contiene le principali propriet` a della contrazione.
4.2 Orientabilit` a
211
4.2 Orientabilit` a In una variet` a n-dimensionale le n-forme svolgono un ruolo in un certo senso analogo a quello giocato dal determinante in Rn . Per esempio, come vedremo in questa sezione, possono essere utilizzate per caratterizzare le variet`a orientabili. Com’`e noto, orientare uno spazio vettoriale V (di dimensione finita su R) significa scegliere una base ordinata di V , e due basi inducono la stessa orientazione se e solo se la matrice di cambiamento di base ha determinante positivo. In altre parole, un’orientazione di V `e una classe d’equivalenza di basi orientate, dove due basi orientate sono equivalenti se e solo se la matrice di cambiamento di base ha determinante positivo. Chiaramente, uno spazio vettoriale ha solo due orientazioni possibili; inoltre, fissata un’orientazione, una base ordinata di V `e positiva se appartiene a (o induce) quell’orientazione, ed `e negativa altrimenti. Sia ora (U, ϕ) una carta locale in una variet`a M ; questa carta per ciascun p ∈ U determina un’orientazione su Tp M dicendo che {∂1 |p , . . . , ∂n |p } `e una base positiva di Tp M . Siccome i campi vettoriali ∂j dipendono C ∞ da p ∈ U , `e ragionevole dire che la carta locale (U, ϕ) induce un’orientazione su Tp M che dipende C ∞ da p ∈ U . Siccome la matrice di cambiamento di base fra i riferimenti locali indotti da due carte locali `e la matrice Jacobiana del cambiamento di coordinate, la prossima definizione rappresenta in modo ragionevole l’idea di orientare in maniera differenziabile tutti gli spazi tangenti di una variet` a. Definizione 4.2.1. Diremo che due carte (Uα , ϕα ) e (Uβ , ϕβ ) di una variet` a M sono equiorientate se il determinante del differenziale del cambiae positivo in tutti i punti di ϕβ (Uα ∩ Uβ ). mento di coordinate ϕα ◦ ϕ−1 β ` Un atlante A = {(Uα , ϕα )} `e orientato se ogni coppia di carte in A `e equiorientata. Due atlanti orientati sono equiorientati se la loro unione `e ancora un atlante orientato. Una variet` a M `e orientabile se ammette un atlante orientato. Un’orientazione di M `e una classe d’equivalenza di atlanti orientati rispetto alla relazione di equiorientabilit` a (che `e una relazione d’equivalenza; vedi l’Esercizio 4.6). Una variet` a orientata `e una coppia data da una variet` a e un’orientazione su di essa, ottenuta per esempio scegliendo un atlante orientato. Osservazione 4.2.2. C’`e un procedimento molto semplice per passare da una carta locale a un’altra che induce sullo stesso aperto l’orientazione opposta: basta scambiare due coordinate. Pi` u precisamente, se (U, ϕ) `e una carta locale con ϕ = (x1 , . . . , xn−1 , xn ), allora (U, ϕ) dove ϕ = (x1 , . . . , xn , xn−1 ), induce su U l’orientazione opposta. Esempio 4.2.3. Un atlante costituito da una sola carta `e banalmente orientato, per cui qualsiasi variet` a con un atlante costituito da una sola carta (cio`e qualsiasi variet` a diffeomorfa a un aperto di Rn ) `e ovviamente orientabile.
212
4 Forme differenziali e integrazione
Esempio 4.2.4. Sia M una variet` a con un atlante A costituito da due carte (U0 , ϕ0 ) e (U1 , ϕ1 ) con U0 ∩ U1 connesso; allora M `e orientabile. Infatti, det Jac(ϕ1 ◦ ϕ−1 0 ) ha segno costante su ϕ0 (U0 ∩ U1 ), in quanto non si annulla mai e U0 ∩ U1 `e connesso. Se il segno `e positivo allora A `e orientato e abbiamo finito. Se invece il segno `e negativo basta sostituire (U1 , ϕ1 ) con (U1 , ϕ1 ), dove ϕ1 `e costruita scambiando due coordinate come nell’Osservazione 4.2.2. In particolare, le sfere S n per n ≥ 2 sono tutte orientabili, in quanto l’atlante dato dalle proiezioni stereografiche (vedi l’Esempio 2.1.28) `e proprio composto da due carte con intersezione connessa dei domini. Anche S 1 `e orientabile, come puoi facilmente verificare direttamente (Esercizio 4.8). Esempio 4.2.5. Le variet` a 1-dimensionali sono tutte orientabili, in quanto diffeomorfe a R (se non compatte) o a S 1 (se compatte); vedi l’Esercizio 4.15. Vogliamo introdurre ora un modo diverso e molto utile di definire l’orientabilit` a di una variet` a. Torniamo per un attimo a ragionare sugli spazi vettoriali. Sia {e1 , . . . , en } una base di uno spazio vettoriale V , e indichiamo con {e1 , . . . , en } la base duale di V ∗ . Se {v1 , . . . , vn } `e un’altra base di V , la (1.13) ci dice che e1 ∧ · · · ∧ en (v1 , . . . , vn ) = det A , dove A `e la matrice di cambiamento di base; ne segue che {v1 , . . . , vn } determina la stessa orientazione di {e1 , . . . , en } se e solo se e1 ∧· · ·∧en (v1 , . . . , vn ) > 0. Questo suggerisce che dovrebbe essere possibile usare le n-forme differenziali per determinare se una n-variet` a `e orientabile. Definizione 4.2.6. Una forma (o elemento) di volume su una variet` a ndimensionale M `e una n-forma ν ∈ An (M ) mai nulla. Osservazione 4.2.7. Dire che ν ∈ An (M ) `e una n-forma mai nulla equivale (perch´e?) a dire che νp (v1 , . . . , vn ) = 0 per ogni p ∈ M e ogni base {v1 , . . . , vn } di Tp M . Osservazione 4.2.8. Vedremo nella prossima sezione come sia possibile usare una n-forma mai nulla per definire il volume di una variet` a compatta, giustificando il nome di “forma di volume per queste forme differenziali. % Osservazione 4.2.9. Se M una variet` a n-dimensionale, allora n M `e un fibrato vettoriale di rango 1. Di conseguenza, se ν ∈ An (M ) `e una forma di volume % allora νp `e un generatore di ( n M )p per ogni p ∈ M . In particolare, per ogni n-forma ω ∈ An (M ) esiste f ∈ C ∞ (M ) tale che ω = f ν. Possiamo quindi dimostrare che l’orientabilit` a `e equivalente all’esistenza di una forma di volume: Proposizione 4.2.10. Sia M una variet` a n-dimensionale. Allora M `e orientabile se e solo se ammette una forma di volume.
4.2 Orientabilit` a
213
Dimostrazione. Supponiamo che M abbia una forma di volume ν ∈ An (M ); vogliamo costruire un atlante orientato. Indichiamo con A l’insieme delle carte (Uα , ϕα ) compatibili con la struttura differenziabile data e tali che νp (∂1,α |p , . . . , ∂n,α |p ) > 0
(4.2)
per ogni p ∈ Uα ; vogliamo dimostrare che A `e un atlante orientato. Prima di tutto, sia (U, ϕ) `e una carta con dominio U connesso. Allora p → νp (∂1 |p , . . . , ∂n |p ) `e una funzione C ∞ mai nulla su U , e quindi di segno costante. Se il segno `e positivo, (U, ϕ) ∈ A; se invece `e negativo, allora (U, ϕ) ∈ A, dove ϕ `e ottenuta da ϕ scambiando due coordinate come nell’Osservazione 4.2.2. Siccome ogni punto di M `e contenuto in una carta con dominio connesso, abbiamo dimostrato che A `e un atlante. Per dimostrare che `e un atlante orientato, siano (Uα , ϕα ), (Uβ , ϕβ ) ∈ A. Allora (2.5) e l’alternanza di ν implicano che ∂xhα ν(∂1,α , . . . , ∂n,α ) ν(∂1,β , . . . , ∂n,β ) = det ∂xkβ su Uα ∩ Uβ . Quindi (4.2) ci dice che due carte in A sono necessariamente equiorientate, e ci siamo. Viceversa, sia A = {(Uα , ϕα )} un atlante orientato, e sia {ρα } una partizione dell’unit` a subordinata a questo atlante. Poniamo ρα dx1α ∧ · · · ∧ dxnα . ν= α
Le propriet` a delle partizioni dell’unit`a ci assicurano (perch´e?) che ν ∈ An (M ) `e globalmente definita; dobbiamo dimostrare che non `e mai nulla. Ora, ciascuna dx1α ∧ · · · ∧ dxnα non si annulla mai; inoltre ∂xhα 1 n dx1β ∧ · · · ∧ dxnβ dxα ∧ · · · ∧ dxα = det ∂xkβ su Uα ∩ Uβ , per cui dx1α ∧ · · · ∧ dxnα e dx1β ∧ · · · ∧ dxnβ differiscono per un fattore moltiplicativo strettamente positivo, in quanto l’atlante `e orientato. Quindi nell’intorno di ogni punto ν `e somma di un numero finito di termini non nulli che sono tutti un multiplo positivo l’uno dell’altro, per cui ν non si pu` o mai annullare.
La dimostrazione di questo risultato mostra esplicitamente come associare un atlante orientato (e quindi un’orientazione) a una forma di volume, e suggerisce le seguenti definizioni.
214
4 Forme differenziali e integrazione
Definizione 4.2.11. Sia ν ∈ An (M ) una forma di volume su una variet` a M. Diremo che una base {v1 , . . . , vn } di Tp M `e positiva se νp (v1 , . . . , vn ) > 0; negativa altrimenti. Una carta (U, ϕ) sar`a detta orientata se {∂1 , . . . , ∂n } `e una base positiva di Tp M per ogni p ∈ U . L’atlante costituito da tutte le carte orientate (compatibili con la struttura differenziale data) sar` a detto atlante associato a ν. Infine, l’orientazione determinata dall’atlante orientato associato a ν verr` a detta orientazione indotta. Osservazione 4.2.12. Se ν ∈ An (M ) `e una forma di volume, allora (perch´e?) per ogni f ∈ C ∞ (M ) positiva la n-forma mai nulla f ν induce la stessa orientazione di ν, mentre −f ν induce l’orientazione opposta. Osservazione 4.2.13. Sia (U, ϕ) una carta su una variet`a M orientata da una forma di volume ν ∈ An (M ), e scriviamo ϕ = (x1 , . . . , xn ). Allora dx1 ∧ · · · ∧ dxn `e una n-forma mai nulla su U , per cui deve esistere f ∈ C ∞ (U ) tale che dx1 ∧ · · · ∧ dxn = f ν|U . Siccome 1 ≡ dx1 ∧ · · · ∧ dxn (∂1 , . . . , ∂n ) = f ν(∂1 , . . . , ∂n ) , ne segue che (U, ϕ) `e una carta orientata se e solo se f > 0 su U , cio`e se e solo se dx1 ∧ · · · ∧ dxn `e un multiplo positivo di ν|U . Esempio 4.2.14. Vogliamo costruire una forma di volume sulla sfera S n . Considerando S n come sottovariet`a di Rn+1 , per ogni p ∈ S n possiamo identificare Tp S n con il sottospazio di Rn+1 ortogonale (rispetto al prodotto scalare canonico) a p. In particolare, se {v1 , . . . , vn } `e una base di Tp S n ⊂ Rn+1 la matrice A ∈ Mn+1,n+1 (R) che ha come colonne p, v1 , . . . , vn ha determinante diverso da 0. Lo sviluppo di Laplace di questo determinante rispetto alla prima colonna `e 0 = det(A) =
n+1
(−1)j+1 pj det(A1j ) ,
j=1
A1j
`e la matrice ottenuta cancellando la prima colonna e la riga j-esima dove dalla matrice A. Ora, si verifica subito (Esercizio 1.71) che :j ∧ · · · ∧ dxn+1 (v1 , . . . , vn ) , det(A1j ) = dx1 ∧ · · · ∧ dx dove il cappuccio indica che dxj non `e presente nel prodotto esterno. Di conseguenza la n-forma ν ∈ An (S n ) ottenuta restringendo νp =
n+1
:j ∧ · · · ∧ dxn+1 (−1)j+1 pj dx1 ∧ · · · ∧ dx
j=1
a Tp S n `e una forma di volume su S n , in quanto νp (v1 , . . . , vn ) = det(A) = 0. Esempio 4.2.15. Supponiamo di avere un atlante A = {(U0 , ϕ0 ), (U1 , ϕ1 )} di una variet` a M che soddisfa le seguenti condizioni:
4.2 Orientabilit` a
1. 2. 3.
215
U0 e U1 sono connessi; U0 ∩ U1 ha esattamente due componenti connesse V+ e V− ; −1 det Jac(ϕ1 ◦ ϕ−1 0 ) > 0 su ϕ0 (V+ ) e det Jac(ϕ1 ◦ ϕ0 ) < 0 su ϕ0 (V− ).
Vogliamo dimostrare che M non `e orientabile. Supponiamo per assurdo che esista una forma di volume ν ∈ An (M ). Siccome U0 e U1 sono connessi, per α = 0, 1 esiste fα ∈ C ∞ (Uα ) mai nulla e con segno costante tale che dx1α ∧ · · · ∧ dxnα = fα ν|Uα , dove ϕα = (x1α , . . . , xnα ) come al solito. Ma da questo segue che dx11 ∧ · · · ∧ dxn1 `e un multiplo di dx10 ∧ · · · ∧ dxn0 di segno costante su tutto U0 ∩ U1 , contraddicendo l’ipotesi 3. Un esempio di variet` a che soddisfa le condizioni 1.–3. `e il nastro di M¨ obius; vedi l’Esercizio 4.13. Esempio 4.2.16 (Orientabilit` a degli spazi proiettivi). Vogliamo dimostrare che Pn (R) `e orientabile se e solo se n `e dispari. Sia π: S n → Pn (R) la restrizione a S n ⊂ Rn+1 della proiezione naturale di Rn+1 \ {O} su Pn (R); chiaramente π `e un rivestimento a due fogli di Pn (R). Indichiamo poi con A: S n → S n l’applicazione antipodale A(p) = −p. Per costruzione, π ◦ A = π, per cui il gruppo degli automorfismi del rivestimento π `e costituito dall’identit` a e da A. • n Prima di tutto vogliamo dimostrare che una forma ω ∈ A (S ) `e il pull back (rispetto a π) di una forma η ∈ A• Pn (R) se e solo se A∗ ω = ω (questo `e un caso particolare dell’Esercizio 4.2). Supponiamo che ω = π ∗ η; allora usando la Proposizione 4.1.5.(v) otteniamo A∗ ω = A∗ π ∗ η = (π ◦ A)∗ η = π ∗ η = ω . Viceversa, supponiamo che A∗ ω = ω; vogliamo trovare una forma η su Pn (R) tale che π ∗ η = ω. Dato q ∈ Pn (R), sia V ⊂ Pn (R) un intorno connesso ben rivestito di q; se indichiamo con U una componente connessa di π −1 (V ) allora π −1 (V ) `e l’unione disgiunta di U e A(U ). Poniamo ∗ η|V = (π|−1 U ) ω|U ;
per dimostrare che questo definisce una forma su Pn (R) basta far vedere −1 ∗ ∗ (perch´e?) che (π|−1 A(U ) ) ω|A(U ) = (π|U ) ω|U . Ora, π ◦ A = π implica che A ◦ (π|U )−1 = (π|A(U ) )−1 ; quindi −1 ∗ ∗ −1 ∗ ∗ (π|−1 A(U ) ) ω|A(U ) = (π|U ) A (ω|A(U ) ) = (π|U ) ω|U ,
come voluto, dove l’ultima uguaglianza segue da A∗ ω = ω. Sia ora ν ∈ An (S n ) la forma di volume introdotta nell’Esempio 4.2.14; si verifica subito (controlla) che A∗ ν = (−1)n+1 ν ; in particolare se n `e dispari A conserva l’orientazione, mentre la inverte se n `e pari. Inoltre se n `e dispari A∗ ν = ν, per cui esiste una n-forma η ∈ An Pn (R)
216
4 Forme differenziali e integrazione
tale che ν = π ∗ η. Ma π `e un diffeomorfismo locale; in particolare dπ manda basi in basi, per cui η `e una forma mai nulla, e Pn (R) `e orientabile. Viceversa, supponiamo che Pn (R) sia orientabile, e sia η ∈ An Pn (R) una forma di volume. Allora π ∗ η `e una forma di volume per S n , per cui esiste f ∈ C ∞ (S n ) mai nulla tale che π ∗ η = f ν. Quindi f ν = π ∗ η = A∗ π ∗ η = A∗ (f ν) = (f ◦ A)A∗ ν = (−1)n+1 (f ◦ A)ν , cio`e f (p) = (−1)n+1 f (−p) per ogni p ∈ S n . Se n fosse pari questo implicherebbe f (p) = −f (−p) e quindi, per connessione, f dovrebbe annullarsi da qualche parte, impossibile. Quindi n `e dispari, e ci siamo. Concludiamo questa sezione descrivendo una procedura standard per ottenere una variet`a orientabile a partire da una non orientabile; per enunciare il risultato preciso ci servono una definizione e un lemma. Definizione 4.2.17. Sia F : M → N un diffeomorfismo locale fra due variet`a orientate. Diremo che F conserva l’orientazione se per ogni p ∈ M l’immagine tramite dFp di una base positiva di Tp M `e una base positiva di TF (p) N ; e diremo che F inverte l’orientazione se per ogni p ∈ M l’immagine tramite dFp di una base positiva di Tp M `e una base negativa di TF (p) N . Lemma 4.2.18. Sia F : M → N un diffeomorfismo locale fra due variet` a orientate. Allora F conserva l’orientazione (rispettivamente, inverte l’orientazione) se e solo se per ogni coppia (U, ϕ) e (V, ψ) di carte orientate rispettivamente in M ed N tali che F (U ) ⊆ V abbiamo det Jac(F˜ ) > 0 (rispettivamente, det Jac(F˜ ) < 0) su ϕ(U ), dove F˜ = ψ ◦ F ◦ ϕ−1 . Dimostrazione. Per costruzione, la matrice di cambiamento di base dalla base (positiva per ipotesi) indotta da ψ alla base immagine tramite dF della base (anch’essa positiva) indotta da ϕ `e data da Jac(F˜ ), e la tesi segue subito.
Proposizione 4.2.19. Sia M una variet` a connessa non orientabile. Allora - → M tale che M - sia una variet` esiste un rivestimento liscio a due fogli π: M a connessa orientabile. Inoltre il gruppo di automorfismi del rivestimento `e iso-→M - `e l’automorfismo diverso dall’identit` morfo a Z2 , e se F : M a allora F inverte l’orientazione di M . Dimostrazione. Per ogni p ∈ M indichiamo con +p e −p le due possibili orientazioni su Tp M ; inoltre, se {e1 , . . . , en } `e una base di Tp M indichiamo con [e1 . . . en ] l’orientazione indotta da questa base. Infine, indichiamo con M l’unione disgiunta delle coppie (p, +p ) e (p, −p ), cio`e ( -= {(p, +p ), (p, −p )} , M p∈M
- una struttura - → M data da π(p, ±p ) = p. Vogliamo definire su M e sia π: M di variet` a soddisfacente le richieste.
4.2 Orientabilit` a
217
Sia A = {(Uα , ϕα )} un atlante di M tale che ogni Uα sia connesso, e contenente abbastanza carte in modo che per ogni p ∈ M esistano due carte locali (Uα , ∂α ), (Uα , ∂α ) ∈ A in p tali che [∂1,α |p . . . ∂n,α |p ] = +p e [∂1,α |p . . . ∂n,α |p ] = −p . Per ogni (Uα , ϕα ) ∈ A definiamo ψα : ϕα (Uα ) → M ponendo ψα (x) = ϕ−1 . . . ∂n,α |ϕ−1 ] . α (x), [∂1,α |ϕ−1 α (x) α (x) Ogni ψα `e chiaramente iniettiva; la sua inversa `e data da ϕ˜α = ϕα ◦ π, definita ˜α = ψα ϕα (Uα ) . Allora A˜ = {(U ˜α , ϕ˜α )} `e un atlante su M -. Infatti, copre su U M per l’ipotesi su A, e le carte sono compatibili in quanto −1 ϕ˜α ◦ ϕ˜−1 β = ϕα ◦ π ◦ ψβ = ϕα ◦ ϕβ .
Siccome ϕα ◦ π ◦ ϕ˜−1 e differenziabile e chiaramente α = id, la proiezione π ` ˜α ⊂ M ˜ `e definito da (p, ±p ) ∈ −U ˜α se e solo se surgettiva. Inoltre se −U ˜α , allora π −1 (Uα ) = U ˜α ∪ (−U ˜α ), e π ristretto sia a U ˜α che a −U ˜α (p, ∓p ) ∈ U `e un diffeomorfismo con Uα ; quindi π `e un rivestimento liscio a due fogli. ˜α ∩ U ˜β = ∅ allora Uα ∩ Uβ = ∅ e in ogni punto di Uα ∩ Uβ si ha Ora, se U [∂1,α . . . ∂n,α ] = [∂1,β . . . ∂n,β ], per cui −1 det Jac(ϕ˜α ◦ ϕ˜−1 β ) = det Jac(ϕα ◦ ϕβ ) > 0 ,
e quindi A˜ `e orientato. - non fosse connessa, la restrizione di π a ciascuna componente conSe M nessa sarebbe un rivestimento a un foglio, cio`e un diffeomorfismo, e M sarebbe orientabile, contraddizione. Essendo π un rivestimento a due fogli, il gruppo di automorfismi di π `e necessariamente Z2 . L’automorfismo F `e dato da F (p, ±p ) = (p, ∓p ), e si verifica subito che F inverte l’orientazione. Infatti, preso p ∈ M , sia (U, ϕ) una carta in p tale che [∂1 . . . ∂n ] = +p , e indichiamo con (U, ϕ) la carta ottenuta invertendo le ultime due coordinate di ϕ. Allora ; ϕ−1 (x), −ϕ−1 (x) ; ◦ F ϕ−1 (x), +ϕ−1 (x) = ϕ ; ◦ F ◦ ϕ˜−1 (x) = ϕ ϕ = ϕ ◦ ϕ−1 (x) = (x1 , . . . , xn , xn−1 ) , e la tesi segue dal Lemma 4.2.18.
Corollario 4.2.20. Ogni variet` a connessa semplicemente connessa `e orientabile. Dimostrazione. Se non fosse orientabile, per la proposizione precedente dovrebbe avere un rivestimento a due fogli connesso e quindi non potrebbe essere semplicemente connessa.
218
4 Forme differenziali e integrazione
4.3 Integrazione di forme differenziali Il motivo per cui una n-forma mai nulla si chiama forma di volume `e che permette di integrare le funzioni a supporto compatto su una variet` a. Questo perch´e, come discuteremo fra un attimo, su una variet` a orientata di dimensione n `e sempre possibile integrare n-forme a supporto compatto; e allora se ν `e una forma di volume e g `e una funzione a supporto compatto, possiamo definire l’integrale di g come l’integrale di gν. Ma andiamo per gradi. Cominciamo con una definizione: Definizione 4.3.1. Sia M una variet` a. Il supporto supp(ω) di una forma ω ∈ A• (M ) `e la chiusura dell’insieme dei p ∈ M per cui ωp = O. Continuiamo ricordando la formula di cambiamento di variabile negli integrali multipli (vedi [32, pag. 362] per una dimostrazione): Teorema 4.3.2. Sia F : U → V un diffeomorfismo fra due aperti di Rn , e f ∈ C ∞ (V ) a supporto compatto. Allora . . f dx1 · · · dxn = (f ◦ F )| det Jac(F )| dx1 · · · dxn . (4.3) F (U )
U
Se η = f dx1 ∧ · · · ∧ dxn `e una n-forma con supporto compatto in un aperto V di Rn , per definizione l’integrale di η su V `e dato da . . η= f dx1 · · · dxn , (4.4) V
V
dove il secondo membro `e l’usuale integrale di Lebesgue. Il conto cruciale che permette di estendere questa definizione di integrale alle n-forme a supporto compatto su variet`a orientate qualsiasi `e il seguente: Lemma 4.3.3. Sia M una variet` a n-dimensionale orientata, e ω ∈ An (M ) una n-forma a supporto compatto. Supponiamo di avere due carte orientate ˜ , ϕ) ˜ . Allora (U, ϕ) e (U ˜ tali che il supporto di ω sia contenuto in U ∩ U . . −1 ∗ (ϕ ) ω = (ϕ˜−1 )∗ ω . ϕ(U )
˜) ϕ( ˜ U
Dimostrazione. Scriviamo (ϕ−1 )∗ ω = f dx1 ∧ · · · ∧ dxn e (ϕ˜−1 )∗ ω = f˜ d˜ x1 ∧ · · · ∧ d˜ xn per opportune funzioni f ∈ C ∞ ϕ(U ) e f˜ ∈ C ∞ ϕ(U ˜ ) . Siccome (ϕ˜−1 )∗ ω = (ϕ ◦ ϕ˜−1 )∗ (ϕ−1 )∗ ω , troviamo
4.3 Integrazione di forme differenziali
219
f˜ = f ◦ (ϕ ◦ ϕ˜−1 ) det Jac(ϕ ◦ ϕ˜−1 ) , grazie alla Proposizione 4.1.5.(iv). Siccome le carte sono orientate, abbiamo det Jac(ϕ ◦ ϕ˜−1 ) > 0, per cui (4.3), (4.4) e il fatto che il supporto di ω `e ˜ ci danno contenuto in U ∩ U . . . −1 ∗ −1 ∗ (ϕ˜ ) ω = (ϕ˜ ) ω = xn f˜ d˜ x1 · · · d˜ ˜) ˜) ˜) ϕ( ˜ U ϕ(U ˜ ∩U ϕ(U ˜ ∩U . = f ◦ (ϕ ◦ ϕ˜−1 ) det Jac(ϕ ◦ ϕ˜−1 ) d˜ x1 · · · d˜ xn ˜) ϕ(U ˜ ∩U . 1 = f ◦ (ϕ ◦ ϕ˜−1 )det Jac(ϕ ◦ ϕ˜−1 ) d˜ x · · · d˜ xn ˜) ϕ(U ˜ ∩U . . = f dx1 · · · dxn = (ϕ−1 )∗ ω , ˜) ϕ(U ∩U
ϕ(U )
come voluto.
Quindi se ω ∈ An (M ) `e una n-forma con supporto compatto contenuto < nel dominio di una carta orientata (U, ϕ) qualsiasi, possiamo definire M ω ponendo . . (ϕ−1 )∗ ω ,
ω= ϕ(U )
M
in quanto l’integrale a secondo membro non dipende dalla carta locale usata. La definizione dell’integrale per forme a supporto compatto qualunque si ottiene allora usando le partizioni dell’unit` a: Lemma 4.3.4. Sia M una variet` a n-dimensionale orientata, e scegliamo un a {ρα } subordinata atlante orientato A = {(Uα , ϕα )} e una partizione dell’unit` a questo atlante. Allora per ogni n-forma ω ∈ An (M ) a supporto compatto il numero . ρα ω (4.5) α
M
non dipende n´e dall’atlante orientato scelto n´e dalla partizione dell’unit` a scelta. Dimostrazione. Prima di tutto notiamo che siccome il supporto di ω `e compatto, e i supporti delle funzioni della partizione dell’unit` a formano un ricoprimento localmente finito, la somma in (4.5) contiene solo un numero finito di termini non nulli, per cui `e ben definita. ˜β , ϕ˜β )} un altro atlante orientato di M , e {˜ Sia A˜ = {(U ρβ } una partizione dell’unit` a a lui subordinata. Per ogni α abbiamo ⎛ ⎞ . . . ⎝ ρα ω = ρ˜β ⎠ ρα ω = ρ˜β ρα ω , M
M
β
β
M
220
4 Forme differenziali e integrazione
e sommando su α otteniamo . α
ρα ω =
M
.
ρ˜β ρα ω . M
α,β
L’integrando di ciascun addendo a secondo membro ha supporto compatto ˜β , per esempio), per contenuto nel dominio di una singola carta (Uα oppure U cui il valore di ciascun addendo non dipende dalla carta usata per calcolarlo. In maniera analoga otteniamo . . ρ˜β ω = ρα ρ˜β ω , β
M
M
α,β
e la tesi segue.
Definizione 4.3.5. Sia M una variet` a orientata n-dimensionale. L’integrale di una n-forma ω ∈ An (M ) a supporto compatto su M `e definito da . . ω= ρα ω , M
α
M
a subordinata a un qualsiasi dove {ρα } `e una qualsiasi partizione dell’unit` atlante orientato A = {(Uα , ϕα )}. Inoltre, se ν ∈ An (M ) `e una forma di volume che induce l’orientazione di M e f ∈ C ∞ (M ) `e a supporto compatto, poniamo . . f= fν. M M < Se M `e compatta, diremo ν-volume di M il numero volν (M ) = M ν. Osservazione 4.3.6. Il ν-volume di una variet` a compatta orientata da una forma di volume ν `e sempre un numero positivo. Infatti, se {ρα } `e una partizione dell’unit` a subordinata a un atlante orientato {(Uα , ϕα )}, scrivendo ν|Uα = fα dx1α ∧ · · · ∧ dxnα si ha . . volν (M ) = ν= ρα fα dx1α · · · dxnα > 0 M
α
ϕα (Uα )
perch´e fα > 0 su Uα grazie all’Osservazione 4.2.13. Osservazione 4.3.7. Sia M una variet` a orientata, e indichiamo con −M la variet` a M con l’orientazione opposta. Allora . . ω=− ω (4.6) −M
M
per ogni ω ∈ A (M ) a supporto compatto. Infatti, sia (U, ϕ) una carta positiva di M , e (U, ϕ) la carta negativa ottenuta scambiando due coordinate come nell’Osservazione 4.2.2. Allora la formula di cambiamento di variabile negli integrali multipli implica n
4.3 Integrazione di forme differenziali
.
(ϕ−1 )∗ ω = −
.
ϕ(U )
221
(ϕ−1 )∗ ω , ϕ(U )
e da questo (4.6) segue subito. Una conseguenza della definizione `e che i diffeomorfismi che conservano l’orientazione conservano anche gli integrali: Proposizione 4.3.8. Sia F : M → N un diffeomorfismo fra variet` a orientate di dimensione n, e supponiamo che F conservi l’orientazione (rispettivamente, inverta l’orientazione). Allora . . . . ∗ ∗ F ω= ω rispettivamente, F ω=− ω M
N
M
N
per ogni ω ∈ A (N ) a supporto compatto. n
Dimostrazione. Supponiamo prima di tutto che F conservi l’orientazione. In a subordinata a un atlante orienparticolare, se {ρα } `e una partizione dell’unit` tato {(Vα , ψα )} per N allora {ρ) ◦ F } ` e una partizione a subordinata α * dell’unit` per M . Quindi all’atlante orientato (perch´e?) F −1 (Vα ), ψα ◦ F . . . ∗ ∗ F ω= (ρα ◦ F )F ω = (F −1 ◦ ψα−1 )∗ (ρα ◦ F )F ∗ ω M
=
α
M
α
ψα (Vα )
.
α
(ψα−1 )∗ ρα ω =
.
ψα (Vα )
ω, N
come voluto. ) * Se invece F inverte l’orientazione, allora F −1 (Vα ), ψα ◦ F induce l’orientazione opposta rispetto a quella data di M ,e quindi la tesi segue dall’Osservazione 4.3.7.
Osservazione 4.3.9. Abbiamo visto come integrare n-forme su n-variet` a orientabili; in modo analogo `e possibile integrare k-forme su k-sottovariet`a (immerse o embedded) orientabili. Sia M una variet` a (non necessariamente orientabile), e F : S → M una sottovariet`a immersa, con S orientabile. Supponiamo inoltre che F sia propria (cio`e che l’immagine inversa di compatti sia compatta). Allora se ω ∈ Ak (M ) ha supporto compatto in M la< k-forma F ∗ ω ha supporto compatto in S; quindi possiamo definire l’integrale F ω di ω sulla sottovariet` a immersa ponendo . . ω= F ∗ω . F
S
In particolare, se ι: S → M `e una sottovariet` a (embedded) orientata, ι∗<ω `e semplicemente la< restrizione di ω a S, per cui scriveremo semplicemente S ω < invece di ι ω o S ω|S . Negli Esercizi 4.27–4.32 discuteremo come definire un integrale su variet`a non orientabili.
222
4 Forme differenziali e integrazione
4.4 Differenziale esterno Se f ∈ C ∞ (M ) `e una funzione differenziabile su M (ovvero una 0-forma), il differenziale df induce un’applicazione C ∞ (M )-lineare df : T (M ) → C ∞ (M ), cio`e, grazie alla Proposizione 3.2.16.(i), una 1-forma differenziale. Quindi abbiamo un’applicazione lineare d: A0 (M ) → A1 (M ) data in coordinate locali da n ∂f df = dxj . ∂xj j=1
Una delle principali propriet` a delle forme differenziali `e che possiamo estendere quest’applicazione a tutto A• (M ), cio`e possiamo definire in maniera coerente il differenziale di qualsiasi forma differenziale: Teorema 4.4.1. Sia M una n-variet` a. Allora esiste un’unica applicazione lineare d: A• (M ) → A• (M ) soddisfacente le quattro condizioni seguenti: (a) d Ar (M ) ⊆ Ar+1 (M ) per ogni r ∈ N; (b) se f ∈ C ∞ (M ) = A0 (M ) allora df ∈ A1 (M ) `e il differenziale di f ; (c) se ω ∈ Ar (M ) e η ∈ As (M ) allora d(ω ∧ η) = dω ∧ η + (−1)r ω ∧ dη ; (d) d ◦ d = O. Questa applicazione soddisfa anche le seguenti propriet` a: (i) d `e locale: se ω ≡ ω su un aperto U di M , allora (dω)|U ≡ (dω )|U ; (ii) d commuta con la restrizione: se U ⊆ M `e aperto, allora d(ω|U ) = (dω)|U ; (iii) pi` u in generale, d commuta con i pull-back: se F : M → N `e di classe C ∞ e ω ∈ Ar (N ), allora d(F ∗ ω) = F ∗ (dω); (iv) se ω ∈ A1 (M ) `e una 1-forma e X, Y ∈ T (M ), allora dω(X, Y ) = X ω(Y ) − Y ω(X) − ω([X, Y ]) ; (v) se (x1 , . . . , xn ) sono coordinate locali in un aperto di M , allora ⎛ d⎝
ωi1 ...ir dxi1 ∧ · · · ∧ dxir
1≤i1 <···
=
dωi1 ...ir ∧ dxi1 ∧ · · · ∧ dxir
(4.7)
1≤i1 <···
=
n ∂ωi
1≤i1 <···
1 ...ir
∂xj
dxj ∧ dxi1 ∧ · · · ∧ dxir .
4.4 Differenziale esterno
223
Dimostrazione. Iniziamo con il caso particolare in cui esista una carta globale (M, ϕ), con ϕ = (x1 , . . . , xn ), e definiamo d: Ar (M ) → Ar+1 (M ) per ogni r ∈ N con la (4.7); in particolare, d|Ar (M ) ≡ O per ogni r ≥ n. Chiaramente d `e lineare e soddisfa (a) e (b); dobbiamo dimostrare che soddisfa (c) e (d). Per far ci` o introduciamo la seguente notazione: se I = (i1 , . . . , ir ) `e un mul tiindice, scriveremo dxI per dxi1 ∧ · · · ∧ dxir . Inoltre, useremo il simbolo I per indicare la somma su tutti multiindici I = (i1 , . . . , ir ) crescenti, cio`e tali che 1 ≤ i1 < · · · < ir ≤ n. Quindi con queste notazioni la (4.7) diventa d ωI dxI = dωI ∧ dxI . I
I
In particolare, abbiamo d(f dx ) = df ∧ dxI per ogni multiindice crescente I, e quindi (perch´e?) per ogni multiindice I, anche non crescente. Per dimostrare (c), grazie alla linearit` a possiamo supporre ω = f dxI e J η = g dx . Allora I
d(ω ∧ η) = d(f g dxI ∧ dxJ ) = d(f g) ∧ dxI ∧ dxJ = df ∧ dxI ∧ g dxJ + dg ∧ f dxI ∧ dxJ = (df ∧ dxI ) ∧ η + (−1)r ω ∧ (dg ∧ dxJ ) = dω ∧ η + (−1)r ω ∧ dη , dove il fattore (−1)r compare perch´e dg `e una 1-forma mentre dxI `e una r-forma. Per dimostrare (d), supponiamo prima r = 0. Allora ⎞ ⎛ n n ∂f ∂2f j ⎠ ⎝ = d(df ) = d dx dxi ∧ dxj j i ∂xj ∂x ∂x j=1 i,j=1 5 6 ∂2f ∂2f = − dxi ∧ dxj = O . ∂xi ∂xj ∂xj ∂xi 1≤i<j≤n
Sia ora r > 0 qualsiasi. Allora usando il caso r = 0 e la propriet` a (c) otteniamo d(dω) = d dωJ ∧ dxj1 ∧ · · · ∧ dxjr =
J
d(dωJ ) ∧ dxj1 ∧ · · · ∧ dxjr
J r + (−1)i dωJ ∧ dxj1 ∧ · · · ∧ d(dxji ) ∧ · · · ∧ dxjr J
i=1
=O. Quindi abbiamo ottenuto un’applicazione lineare soddisfacente (a)–(d), e chiaramente valgono anche (i), (ii) e (v); si possono anche dimostrare le propriet`a (iii) e (iv), ma lo rimandiamo al caso generale.
224
4 Forme differenziali e integrazione
Vediamo ora l’unicit` a della d, sempre in questo caso particolare. Suppo˜ A• (M ) → A• (M ) sia un’altra applicazione lineare che soddiniamo che d: J r sfa (a)–(d). Presa una r-forma ω = J ωJ dx ∈ A (M ), usando (b), (c) e (d) troviamo j1 ˜ = ˜ J ∧ dxj1 ∧ · · · ∧ dxjr + (−1)0 ˜ dω ωJ d(dx ∧ · · · ∧ dxjr ) dω J
=
J
dωJ ∧ dx ∧ · · · ∧ dx j1
jr
J r ji ˜ + ωJ (−1)i−1 dxj1 ∧ · · · ∧ d(dx ) ∧ · · · ∧ dxjr i=1
J
= dω +
J
ωJ
r
˜ dx ˜ ji ) ∧ · · · ∧ dxjr (−1)i−1 dxj1 ∧ · · · ∧ d(
i=1
= dω , come voluto. In particolare, dω non dipende dalla carta globale usata in (4.7). Ora sia M una variet` a qualsiasi. Se U ⊆ M `e il dominio di una carta locale, quanto visto ci d` a un’unica applicazione lineare dU : A• (U ) → A• (U ) che soddisfa (a)–(d), (i), (ii) e (v). Sull’intersezione U ∩ U dei domini di due carte locali abbiamo (dU ω)|U ∩U = dU ∩U ω = (dU ω)|U ∩U , grazie a (ii) e all’unicit` a di dU e dU . Quindi possiamo definire un’applicazione lineare d: A• (M ) → A• (M ) ponendo (dω)p = dU (ω|U )p per ogni ω ∈ Ar (M ), p ∈ M e carta (U, ϕ) in p, e d soddisfa (a)–(d), (i), (ii) e (v). ˜ A• (M ) → A• (M ) un’alDimostriamo ora l’unicit` a nel caso generale. Sia d: ˜ tra applicazione lineare che soddisfa (a)–(d). Cominciamo col dimostrare che d r soddisfa anche (i). Chiaramente basta far vedere che se η ∈ A (M ) `e tale che η|U ≡ O per un qualche aperto U ⊆ M , allora (dη)|U ≡ O. Sia p ∈ U qualunque, e sia g ∈ C ∞ (M ) una funzione con g ≡ 1 in un intorno di p e g|M \U ≡ 0 (vedi la Proposizione 2.7.2). Allora gη ≡ O su tutto M , per cui ˜ ˜ ˜ O = d(gη) p = dgp ∧ ηp + g(p)dηp = dηp . ˜ U ≡ O. Essendo p generico, otteniamo dη| Sia ora (U, ϕ) una carta locale qualsiasi, e definiamo un’applicazione linea˜U ω)p = (d˜ ˜ω )p per ogni p ∈ U e ω ∈ Ar (U ), ˜ U : A• (U ) → A• (U ) ponendo (d re d r dove ω ˜ ∈ A (M ) `e una r-forma globale che coincide con ω in un intorno di p. ˜U ω non dipende dall’estensioL’estensione ω ˜ esiste grazie all’Esercizio 3.12, e d ˜ ˜U soddisfa (a)–(d); ma ne scelta grazie alla propriet` a (i) di d. Chiaramente, d
4.4 Differenziale esterno
225
˜U = dU . In particolare, se ω ∈ Ar (M ), p ∈ M allora, per quanto gi` a visto, d e (U, ϕ) `e una carta in p, possiamo usare ω stessa come estensione di ω|U e quindi ˜U ω|U )p = (dω) ˜ p. (dω)p = (dU ω|U )p = (d ˜ ≡ d, e l’unicit` Essendo p e ω generici, otteniamo d a `e dimostrata. Passiamo ora a verificare (iii). Grazie a (i), ci basta dimostrare (iii) nell’intorno di ciascun punto, per cui possiamo supporre di avere coordinate globali (x1 , . . . , xn ). Per linearit` a, possiamo anche supporre che ω sia della forma a ω = f dxi1 ∧ · · · ∧ dxir . Allora la Proposizione 4.1.5.(iv) d` F ∗ (dω) = F ∗ (df ∧ dxi1 ∧ · · · ∧ dxir ) = d(f ◦ F ) ∧ d(xi1 ◦ F ) ∧ · · · ∧ d(xir ◦ F ) = d (f ◦ F ) d(xi1 ◦ F ) ∧ · · · ∧ d(xir ◦ F ) = d(F ∗ ω) , come voluto. Infine, dobbiamo verificare (iv). Grazie alla linearit` a e alla propriet` a (i), ci basta (perch´e?) considerare il caso ω = u dv. Allora dω(X, Y ) = du ∧ dv(X, Y ) = du(X)dv(Y ) − du(Y )dv(X) = X(u)Y (v) − X(v)Y (u) = X(u)Y (v) + uX Y (v) 7 8 −Y (u)X(v) − uY X(v) − u X Y (v) − Y X(v) = X uY (v) − Y uX(v) − u[X, Y ](v) = X ω(Y ) − Y ω(X) − ω([X, Y ]) ,
e abbiamo finito.
Definizione 4.4.2. L’applicazione lineare d: A• (M ) → A• (M ) la cui esistenza `e dimostrata nel Teorema 4.4.1 `e detta differenziale esterno di M . Esempio 4.4.3. Se ω = x dy ∧ dz + y dz ∧ dx + z dx ∧ dy ∈ A2 (R3 ) allora dω = 3 dx ∧ dy ∧ dz ∈ A3 (R3 ). Osservazione 4.4.4. La condizione d ◦ d = O generalizza due fatti ben noti dell’Analisi Matematica classica. Se f `e una funzione C ∞ in un aperto di R3 , allora df =
∂f ∂f ∂f dx1 + 2 dx2 + 3 dx3 , ∂x1 ∂x ∂x
per cui `e naturale (saremo pi` u precisi quando introdurremo le metriche Riemanniane; vedi la Definizione 6.7.5) identificare df con il gradiente di f , che `e il campo vettoriale ∂f ∂f ∂f ∇f = . , , ∂x1 ∂x2 ∂x3
226
4 Forme differenziali e integrazione
Analogamente, a un campo vettoriale X = (X 1 , X 2 , X 3 ) definito sullo stesso aperto possiamo associare la 1-forma ηX = X 1 dx1 + X 2 dx2 + X 3 dx3 . In tal caso abbiamo ∂X 2 ∂X 1 dx1 ∧ dx2 dηX = − ∂x1 ∂x2 ∂X 3 ∂X 2 ∂X 1 ∂X 3 2 3 + − − dx ∧ dx + dx3 ∧ dx1 , ∂x2 ∂x3 ∂x3 ∂x1 per cui in un certo senso dηX rappresenta il rotore del campo X. Quindi in questo caso d(df ) = O esprime il fatto classico che il rotore di un gradiente `e identicamente nullo. Ora, a un campo Y = (Y 1 , Y 2 , Y 3 ) possiamo associare anche la 2-forma ωY = Y 3 dx1 ∧ dx2 + Y 1 dx2 ∧ dx3 + Y 2 dx3 ∧ dx1 ; in tal caso ∂Y 1 ∂Y 2 ∂Y 3 dx1 ∧ dx2 ∧ dx3 dωY = + + ∂x1 ∂x2 ∂x3 chiaramente rappresenta la divergenza di Y . Ora, se come Y prendiamo il rotore del campo X, la forma ωY associata `e esattamente quella che avevamo indicato con dηX ; quindi d(dηX ) = O esprime il fatto classico che la divergenza di un rotore `e identicamente nulla. Usando il differenziale esterno possiamo identificare due classi di forme differenziali particolarmente importanti: a M `e Definizione 4.4.5. Diremo che una k-forma ω ∈ Ak (M ) su una variet` chiusa se dω = O; diremo che `e esatta se esiste una (k−1)-forma η ∈ Ak−1 (M ) tale che dη = ω. Indicheremo con Z k (M ) il sottospazio delle k-forme chiuse, e con B k (M ) il sottospazio delle k-forme esatte, con la convenzione che B 0 (M ) = O. Esempio 4.4.6. Una 0-forma (cio`e una funzione) `e chiusa se e solo se ha differenziale identicamente nullo, cio`e se e solo se `e localmente costante. Quindi Z 0 (M ) `e lo spazio delle funzioni localmente costanti (cio`e costanti sulle componenti connesse) di M . Su una variet` a n-dimensionale M ogni n-forma `e banalmente chiusa, per cui Z n (M ) = An (M ). Siccome d ◦ d ≡ O, ogni forma esatta `e chiusa, cio`e B k (M ) ⊆ Z k (M ). L’uguaglianza Z k (M ) = B k (M ) equivale a richiedere che l’equazione dη = ω nell’incognita η abbia soluzione per ogni ω ∈ Ak (M ) che soddisfa la condizione di compatibilit` a dω = 0, per cui `e un enunciato sull’esistenza di soluzioni di particolari equazioni differenziali. Esempio 4.4.7. Dire che Z 1 (R2 ) = B 1 (R2 ) significa dire che ogni 1-forma ω = ω1 dx1 + ω2 dx2 ∈ A1 (R2 ) che soddisfa la condizione di compatibilit` a dω = 0 `e il differenziale di una funzione f ∈ C ∞ (R2 ). In altre parole, 1 Z (R2 ) = B 1 (R2 ) equivale a dire che il sistema di equazioni differenziali
4.5 Il teorema di Stokes
227
⎧ ∂f ⎪ ⎨ 1 = ω1 , ∂x ⎪ ⎩ ∂f = ω , 2 ∂x2 ammette soluzione non appena le due funzioni ω1 e ω2 soddisfano la condizione di compatibilit` a ∂ω1 ∂ω2 = . ∂x2 ∂x1 Come vedremo nel prossimo capitolo, sorprendentemente la differenza fra Z k (M ) e B k (M ) dipende soltanto dalla topologia di M , ed `e uno dei principali invarianti delle variet` a: Definizione 4.4.8. Il k-esimo gruppo di coomologia di de Rham di una variet` a M `e definito come il quoziente H k (M ) = Z k (M )/B k (M ). Se sar` a necessario ricordare esplicitamente che si tratta della coomologia di de Rham k (M ) invece di H k (M ). Infine, scriveremo scriveremo HdR H • (M ) =
dim M
H k (M ) ,
k=0
e se ω ∈ Z k (M ), indicheremo con [ω] = ω + B k (M ) ∈ H k (M ) la classe di coomologia rappresentata da ω. Diremo anche che due k-forme chiuse che rappresentano la stessa classe di coomologia (cio`e che differiscono per una forma esatta) sono coomologhe. Osservazione 4.4.9. I gruppi di coomologia di de Rham, oltre a essere dei gruppi abeliani, sono chiaramente degli spazi vettoriali. La dimensione del k-esimo gruppo di coomologia di una variet` a M `e spesso chiamata k-esimo numero di Betti della variet` a. Studieremo in dettaglio la coomologia di de Rham nel prossimo capitolo.
4.5 Il teorema di Stokes Terminiamo questo capitolo dimostrando un risultato fondamentale (il teorema di Stokes) che collega il differenziale esterno con l’integrazione di forme differenziali. Per avere l’enunciato pi` u generale del teorema di Stokes ci serve il concetto di variet` a con bordo. Definizione 4.5.1. Il semispazio superiore Hn ⊂ Rn di dimensione n `e Hn = {(x1 , . . . , xn ) ∈ Rn | xn ≥ 0} . Il bordo ∂Hn di Hn `e l’iperpiano {xn = 0}; l’interno di Hn `e Hn \ ∂Hn .
228
4 Forme differenziali e integrazione
Definizione 4.5.2. Sia M un insieme. Una n-carta di bordo `e una coppia (U, ϕ), dove U ⊆ M e ϕ: U → V `e una bigezione con un aperto V di Hn tale che V ∩∂Hn = ∅. Invece, una n-carta interna `e una coppia (U, ϕ), dove U ⊆ M e ϕ: U → V `e una bigezione con un aperto V di Hn tale che V ∩ ∂Hn = ∅; siccome l’interno di Hn `e diffeomorfo a Rn , il concetto di n-carta interna `e equivalente a quello di n-carta usuale. Due carte (Uα , ϕα ) e (Uβ , ϕβ ), di bordo o interne, sono compatibili se ϕα (Uα ∩ Uβ ) e ϕβ (Uα ∩ Uβ ) sono aperti di Hn (non necessariamente di Rn !) e ϕα ◦ ϕ−1 e un diffeomorfismo di classe C ∞ come β : ϕβ (Uα ∩ Uβ ) → ϕα (Uα ∩ Uβ ) ` n applicazione fra sottoinsiemi di R nel senso della Definizione 2.7.4, e quindi si estende a un diffeomorfismo C ∞ fra un intorno aperto (in Rn ) di ϕβ (Uα ∩ Uβ ) e un intorno aperto (in Rn ) di ϕα (Uα ∩ Uβ ). Una variet` a con bordo di dimensione n `e data da una coppia (M, A), don-carte, ve M `e un insieme e A = {(Uα , ϕα )} `e una famiglia di applicazioni interne o di bordo, compatibili a due a due e tali che M = α Uα ; inoltre supporremo sempre che la topologia indotta da A su M come nella Proposizione 2.1.8 sia di Hausdorff e a base numerabile. La famiglia A sar`a detta atlante di variet` a con bordo di dimensione n. L’insieme dei punti p ∈ M che n e il bordo ∂M appartengono a ϕ−1 α (∂H ) per qualche carta di bordo (Uα , ϕα ) ` di M ; il complementare Int(M ) = M \ ∂M del bordo `e detto interno della variet` a con bordo M . A volte, le variet` a nel senso della Definizione 2.1.5 sono dette variet` a senza bordo. Osservazione 4.5.3. Se due carte di bordo (Uα , ϕα ) e (Uβ , ϕβ ) sono compatie un’applicazione aperta, per cui manda il bordo nel bordo; di bili, ϕα ◦ ϕ−1 β ` conseguenza (perch´e?) il bordo di una variet` a con bordo `e ben definito (cio`e n n −1 se p ∈ ϕ−1 α (∂H ) per qualche carta di bordo allora p ∈ ϕβ (∂H ) per tutn te le carte di bordo contenenti p). Inoltre, la restrizione di ϕα ◦ ϕ−1 β a ∂H ∞ `e ancora C ; quindi le restrizioni a ∂M delle carte di bordo formano un atlante di ∂M di dimensione n − 1 (dove stiamo identificando ∂Hn con Rn−1 nel modo ovvio); quindi ∂M ha una struttura naturale di variet` a (n − 1)dimensionale. Infine, le carte interne chiaramente definiscono una struttura di variet` a n-dimensionale (senza bordo) su Int(M ). Osservazione 4.5.4. Anche in questo caso dovremmo definire il concetto di struttura differenziale di variet` a con bordo tramite gli atlanti massimali, e dimostrare che ogni atlante di variet` a con bordo determina un’unica struttura differenziabile di variet`a con bordo come fatto nella Sezione 2.1; ti lasciamo i dettagli per esercizio (Esercizio 4.43). Esempio 4.5.5. Sia ρ: Rn → R una funzione C ∞ e supponiamo che 0 sia un valore regolare di ρ, cio`e che ρ−1 (0) non contenga punti critici di ρ (e quindi sia una ipersuperficie di Rn ). Allora l’insieme D = {x ∈ Rn | ρ(x) ≥ 0} `e una variet` a con bordo ∂D = ρ−1 (0) e interno D = {x ∈ Rn | ρ(x) > 0}. Per dimostrarlo, dobbiamo trovare un atlante. Come carta interna `e sufficiente prendere (D, idD ); vediamo le carte di bordo. Sia p ∈ ∂D; siccome p
4.5 Il teorema di Stokes
229
non `e un punto critico di ρ, esiste un intorno U di p in Rn su cui ρ ha rango costante 1. Quindi il Teorema 2.4.17 del rango ci assicura che, a meno di rimpicciolire U , possiamo trovare una carta (U, ϕ) di Rn centrata in p e una carta (V, ψ) in R centrata nell’origine tali che ψ ◦ ρ = ϕn su U . In particolare, ρ(x) = 0 se e solo se ϕn (x) = 0, cio`e ϕ(U ∩∂D) = ϕ(U )∩∂Hn ; inoltre, a meno di cambiare segno a ϕn possiamo anche supporre ψ crescente, per cui ρ(x) > 0 se e solo se 0 < ψ ρ(x) = ϕn (x), e quindi ϕ(U ∩D) = ϕ(U )∩Int(Hn ). Dunque (U ∩ D, ϕ) `e una carta di bordo di D, e due carte di bordo costruite in questo modo sono chiaramente compatibili, in quanto ottenute come restrizione di carte di Rn . Abbiamo quindi costruito un atlante per D, come voluto. In modo analogo si dimostra (Esercizio 4.45) che se ρ: M → R `e una a M con 0 come valore regolare allora l’insieme funzione C ∞ su una variet` {p ∈ M | ρ(p) ≥ 0} `e una variet` a con bordo. Per esempio, se M `e una variet` a connessa allora (Esercizio 4.46) il cilindro finito C = M × [−1, 1] `e una variet`a con bordo, e ∂C ha due componenti connesse entrambe diffeomorfe a M . Definizione 4.5.6. Un dominio regolare di una variet` a (senza bordo) M `e una variet` a con bordo D ⊂ M della forma D = {p ∈ M | ρ(p) ≥ 0}, dove ρ ∈ C ∞ (M ) ha 0 come valore regolare. La funzione ρ `e detta funzione di definizione di D. Introduciamo ora il concetto di orientazione per variet` a con bordo. Definizione 4.5.7. Un atlante orientato di una variet` a con bordo `e un atlante in cui i determinanti jacobiani dei cambiamenti di coordinate sono tutti positivi. Una variet` a con bordo con un atlante orientato `e detta orientata. Vogliamo far vedere che il bordo di una variet` a orientata `e automaticamente orientato. Per farlo ci serve il seguente: ˜j = ∅ per j = 0, 1, dove Lemma 4.5.8. Siano U0 , U1 ⊆ Hn aperti di Hn con U n ˜ Uj = Uj ∩∂H . Sia F : U0 → U1 un diffeomorfismo con determinante jacobiano ˜0 → U ˜1 , visto sempre positivo. Allora il determinante jacobiano di F˜ = F |U˜0 : U n−1 , `e sempre positivo. come diffeomorfismo di aperti di R Dimostrazione. Scriviamo x = (x , xn ), con x = (x1 , . . . , xn−1 ), e analogamente F = (F , F n ), con F = (F 1 , . . . , F n−1 ); dunque F˜ (x ) = F (x , 0). Per ogni (x , 0) ∈ U0 ∩ ∂Hn abbiamo Jac F˜ (x ) ∂Fn (x , 0) . ∂x 0 < det Jac F (x , 0) = det ∂F n ∂F n (x , 0) (x , 0) n ∂x ∂x ˜1 implica F n (x , 0) ≡ 0; quindi ˜0 ) ⊆ U Ora, F (U 0 < det Jac F (x , 0) =
∂F n (x , 0) · det Jac F˜ (x ) . ∂xn
Infine, siccome F manda U0 ∩ Hn in U1 ∩ Hn , otteniamo tesi segue.
∂F n ∂xn (x , 0)
> 0, e la
230
4 Forme differenziali e integrazione
Questo lemma ci assicura che l’atlante di ∂M indotto da un’atlante orientato di M `e ancora orientato; possiamo quindi introdurre la seguente: Definizione 4.5.9. Sia M una variet` a con bordo di dimensione n, orientata da un atlante orientato A, e indichiamo con ∂A l’atlante orientato indotto da A su ∂M . L’orientazione indotta su ∂M `e allora quella data da ∂A se n `e pari, quella opposta se n `e dispari. Osservazione 4.5.10. La differenza di orientazione fra pari e dispari `e necessaria per ottenere un enunciato del teorema di Stokes senza segni. Possiamo definire il concetto di funzione C ∞ su una variet` a con bordo M (e di applicazioni C ∞ fra variet` a con bordo) usando le carte locali esattamente come fatto per le variet` a senza bordo; questo ci permette di definire i germi di funzione C ∞ in un punto p ∈ ∂M di bordo, e quindi anche lo spazio tangente (come insieme delle derivazioni dei germi di funzioni C ∞ ) in un punto di bordo. Questo spazio tangente Tp M ha dimensione uguale a quella di M e contiene un sottospazio canonicamente isomorfo a Tp (∂M ). Infatti, per costruzione l’inclusione ι: ∂M → M `e differenziabile ed `e un’immersione (Esercizio 4.48); quindi possiamo identificare Tp (∂M ) con la sua immagine tramite dιp , che `e il sottospazio di Tp M delle derivazioni che si annullano sui germi di funzione che sono costanti su ∂M . In termini di carte locali, se (U, ϕ) `e una carta di bordo in p allora Tp (∂M ) `e generato da {∂1 |p , . . . , ∂n−1 |p }. Gli Esercizi 4.47–4.49 contengono maggiori dettagli sulla struttura del fibrato tangente a una variet` a con bordo. Avendo definito il fibrato tangente a una variet` a con bordo M di dimensione n, possiamo definire anche le forme differenziali su M , per esempio come applicazioni C ∞ (M )-multilineari alternanti sullo spazio dei campi vettoriali (ricorda la Proposizione 3.2.16). Osservazione 4.5.11. In particolare, se ω `e una k-forma su una variet` a con bordo M di dimensione n possiamo considerare la restrizione ω|∂M = ι∗ ω al bordo di M ; nota per` o che ω|∂M potrebbe annullarsi anche se ω non `e nulla. Un esempio banale di questo fenomeno `e dato dalle n-forme, in quanto ∂M ha dimensione n − 1; ma pu` o accadere anche per k-forme con k < n. Per esempio, se p ∈ ∂Hn allora, come osservato sopra, Tp ∂M `e generato da {∂1 |p , . . . , ∂n−1 |p }; quindi ogni forma del tipo η ∧ dxn ∈ A• (Hn ) si annulla identicamente se ristretta a ∂Hn . Supponiamo ora che M sia una variet` a con bordo orientata di dimensione n, ed η una n-forma con supporto compatto in M (e non necessariamente compatto nell’interno di M ; il supporto di η pu` o intersecare il bordo di M ). Allora le argomentazioni usate nella Sezione 4.3 per definire l’integrale di η su M si applicano identiche parola per parola, per cui . η M
4.5 Il teorema di Stokes
231
risulta ben definito anche su variet` a con bordo orientate. Analogamente, se ω `e una (n − 1)-forma con supporto compatto in M , la restrizione ω|∂M `e una (n − 1)-forma a supporto compatto sulla (n − 1)-variet` a orientata (senza bordo) ∂M ; quindi `e ben definito l’integrale di ω|∂M su ∂M , che indicheremo con . ω, ∂M
sottintendendo la restrizione < (in accordo con l’Osservazione 4.3.9). Inoltre, porremo per convenzione ∂M ω = 0 quando ∂M = ∅, cio`e quando M `e una variet` a senza bordo. Con queste precisazioni siamo ora in grado di enunciare e dimostrare l’importante teorema di Stokes, una generalizzazione del teorema fondamentale del calcolo integrale, del teorema di Gauss-Green e del teorema della divergenza: Teorema 4.5.12 (Stokes). Sia M una variet` a orientata di dimensione n con bordo, e consideriamo ∂M con l’orientazione indotta. Sia ω una (n − 1)forma con supporto compatto in M . Allora . . dω = ω. (4.8) M
∂M
Dimostrazione. Cominciamo col dimostrarlo quando M = Rn . Per linearit` a, e a meno di permutare le coordinate, possiamo supporre ω = f dx1 ∧· · ·∧dxn−1 . ∂f 1 n Quindi dω = (−1)n−1 ∂x n dx ∧ · · · ∧ dx . Il teorema di Fubini sugli integrali multipli allora ci dice che . +∞ . . ∂f n dx1 · · · dxn−1 . dω = (−1)n−1 dx n Rn Rn−1 −∞ ∂x Ma
.
∞
∂f n (x , x ) dxn = lim [f (x , t) − f (x , −t)] = 0 n t→+∞ ∂x −∞ < perch´e f ha supporto compatto. Quindi Rn dω = 0; essendo Rn senza bordo, abbiamo dimostrato (4.8) in questo caso. Consideriamo ora il caso M = Hn , e scriviamo ω=
n
:j ∧ · · · ∧ dxn , gj (x , xn ) dx1 ∧ · · · ∧ dx
j=1
dove l’accento circonflesso indica che quell’elemento `e assente dal prodotto esterno. Prima di tutto, notiamo che ω|∂Hn = gn (x , 0) dx1 ∧ · · · ∧ dxn−1 perch´e, come notato nell’Osservazione 4.5.11, gli addendi contenenti dxn si annullano quando ristretti a ∂Hn . Di conseguenza
232
4 Forme differenziali e integrazione
.
. ω = (−1)n Rn−1
∂Hn
gn (x , 0) dx1 · · · dxn−1 ,
dove il segno tiene traccia della relazione fra l’orientazione indotta su ∂Hn e l’orientazione naturale di Rn−1 (vedi anche l’Osservazione 4.3.7). Calcolando il differenziale esterno di ω troviamo ⎡ ⎤ n ∂g j dω = ⎣ (−1)j−1 j (x , xn )⎦ dx1 ∧ · · · ∧ dxn . ∂x j=1 Ora, se 1 ≤ j ≤ n − 1 si ha . +∞ ∂gj n (x , x ) dxj ∂xj −∞ =
lim [gj (x1 , . . . , xj , . . . , xn ) − gj (x1 , . . . , −xj , . . . , xn )] = 0
xj →+∞
perch´e gj `e a supporto compatto in Hn . Quindi per j = 1, . . . , n − 1 si ha . ∂gj n (x , x ) dx1 · · · dxn j n ∂x H . +∞ . +∞ . ∂gj n j 1 n−1 : j = (x , x ) dx dx · · · dx · · · dx dxn j 0 −∞ ∂x Rn−2 = 0. Inoltre . 0
+∞
∂gn n (x , x ) dxn = lim gn (x , t) − gn (x , 0) = −gn (x , 0) , t→+∞ ∂xn
sempre perch´e gn `e a supporto compatto in Hn . Quindi . . ∂gn n dω = (−1)n−1 (x , x ) dx1 · · · dxn n n n ∂x H H . +∞ . ∂gn n n−1 n = (−1) (x , x ) dx dx1 · · · dxn−1 ∂xn 0 Rn−1 . . = (−1)n gn (x , 0) dx1 · · · dxn−1 = ω, Rn−1
∂Hn
e ci siamo anche in questo caso. Infine, sia M qualsiasi, e scegliamo un atlante orientato A = {(Uα , ϕα )} con ϕα (Uα ) = Rn o Hn per ogni α (Esercizio 4.44), e sia {ρα } una partizione dell’unit` a subordinata ad A. Scriviamo ω = a, basta α ρα ω; per linearit` quindi dimostrare (4.8) per ciascun ρα ω, che `e una forma a supporto compatto contenuto in Uα . Ma allora ricordando che il differenziale esterno commuta coi pull-back otteniamo
4.5 Il teorema di Stokes
.
.
(ϕ−1 )∗ d(ρα ω) . . = d(ϕ−1 )∗ (ρα ω) = (ϕ−1 )∗ (ρα ω) ϕα (Uα ) ∂ϕα (Uα ) . . = (ϕ−1 )∗ (ρα ω) = ρα ω ,
d(ρα ω) = M
233
.
d(ρα ω) =
Uα
ϕα (Uα ∩∂M )
ϕα (Uα )
∂M
come voluto, dove abbiamo usato (4.8) per Rn ed Hn .
Osservazione 4.5.13. Sia D ⊂ R2 un dominio regolare limitato nel piano. Il bordo di D `e una 1-variet` a compatta; quindi (Esercizio 4.15) `e diffeomorfo a S 1 . In altre parole, esiste una curva σ: [0, 1] → R2 liscia regolare semplice chiusa con sostegno il bordo di D; possiamo anche supporre che σ conservi l’orientazione (vedi l’Esercizio 4.53 per un viceversa). Siano f , g∈ C ∞ (D), la 1-forma ω = f dx + g dy ∈ A1 (D). e consideriamo < < ∂g dx ∧ dy e ∂D ω = σ f dx + g dy; quindi il teorema − ∂f Allora dω = ∂x ∂y di Stokes in questo caso diventa . . ∂g ∂f − dx dy , f dx + g dy = ∂x ∂y σ D cio`e il classico teorema di Gauss-Green (vedi [9, pag. 569]). Osservazione 4.5.14. Nel Capitolo 6, quando parleremo di integrazione sulle variet` a Riemanniane, vedremo (Esercizio 6.37) come anche il classico teorema della divergenza sia un caso particolare del teorema di Stokes. Concludiamo con alcune conseguenze immediate del teorema di Stokes per forme chiuse ed esatte, su cui torneremo nel prossimo capitolo: Corollario 4.5.15. Sia M una n-variet` a orientata senza bordo. Allora: < n (i) se ω ∈ A (M ) `e esatta a supporto compatto allora M ω = 0. In particolare, se M `e compatta e ν ∈ An (M ) `e una forma di volume su M allora ν non `e esatta per cui H n (M ) = (O); (ii) pi` u in generale, se S ⊂< M `e una k-sottovariet` a compatta senza bordo e ω ∈ Z k (M ) `e tale che S ω = 0, allora ω non `e esatta e S non `e il bordo di una (k + 1)-sottovariet` a di M . Dimostrazione. (i) La prima affermazione segue da (4.8) perch´e ∂M = ∅. La seconda affermazione segue perch´e le Osservazioni 4.3.6 e 4.3.7 ci assicurano < che M ν = 0. < < (ii) Se ω = dη allora ω|S = d(η|S ) per cui S ω = S dη = 0 in quanto ˜ ˜ ∂S = ∅. Analogamente, < < se fosse S = ∂ S per qualche (k + 1)-sottovariet`a S di M avremmo S ω = S˜ dω = 0 perch´e ω `e chiusa.
234
4 Forme differenziali e integrazione
Esercizi FORME DIFFERENZIALI E PULL-BACK Esercizio 4.1 (Usato nella Definizione 4.1.4). Sia F : M → N un’applicazione differenziabile fra variet`a, e ω ∈ Ar (N ). Dimostra che F ∗ ω definita in (4.1) `e effettivamente una r-forma su M . Esercizio 4.2 (Citato nell’Esempio 4.2.16). Sia π: M → N un rivestimento liscio il cui gruppo di automorfismi agisca transitivamente sulle fibre (cio`e per ogni p1 , p2 ∈ M tali che π(p1 ) = π(p2 ) esiste un diffeomorfismo γ: M → M tale che π ◦ γ = π e γ(p1 ) = p2 ). Dimostra che una forma differenziale ω ∈ A• (M ) si esprime come π∗ η per una qualche forma η ∈ A• (N ) se e solo se γ ∗ ω = ω per ogni automorfismo γ del rivestimento. Esercizio 4.3 (Usato nell’Esempio 5.3.8). Sia p: M → N un rivestimento liscio. Dimostra che p∗ : A• (N ) → A• (M ) `e iniettiva. Esercizio 4.4. Siano ω 1 , . . . , ω k ∈ A1 (M ) delle 1-forme linearmente indipendenti in ogni punto di M . Supponiamo che α1 , . . . , αk ∈ A1 (M ) siano delle altre 1-forme tali che k αj ∧ ω j = O . j=1
o scrivere come combinazione lineare di Dimostra che ciascuna αj si pu` ω 1 , . . . , ω k con coefficienti in C ∞ (M ). Esercizio 4.5 (Citato nella Sezione 4.1). Sia X ∈ T (M ) un campo vettoriale su una variet` a M . Dimostra che: (i) iX ◦ iX = O; (ii) iX (ω ∧η) = (iX ω)∧η +(−1)k ω ∧(iX η) per ogni ω ∈ Ak (M ) e η ∈ A• (M ). ORIENTAZIONE Esercizio 4.6 (Usato nella Definizione 4.2.1). Dimostra che la relazione di equiorientabilit` a `e una relazione di equivalenza sull’insieme degli atlanti orientati di una variet` a. Esercizio 4.7. Dimostra che una variet`a orientabile con c ≥ 1 componenti connesse ammette esattamente 2c orientazioni. Esercizio 4.8 (Citato nell’Esempio 4.2.4). Dimostra che S 1 `e orientabile. Esercizio 4.9 (Citato nell’Esercizio 4.22). Dimostra che il prodotto di due variet` a orientabili `e orientabile.
Esercizi
235
Esercizio 4.10. Sia M una variet` a parallelizzabile, cio`e tale che T M sia il fibrato banale. Dimostra che M `e orientabile. Esercizio 4.11. Sia F : M → N un diffeomorfismo locale fra due variet`a di dimensione n. Dimostra che se ν ∈ An (N ) `e una forma di volume su N allora F ∗ ν `e una forma di volume su M . Deduci che un rivestimento liscio di una variet` a orientabile `e orientabile. Esercizio 4.12. Sia F : M → N un diffeomorfismo locale fra due variet` a orientate di dimensione n. Dimostra che F conserva l’orientazione se e solo se F ∗ ν determina l’orientazione data su M per ogni forma di volume ν ∈ An (N ) che determina l’orientazione data su N . Esercizio 4.13 (Citato nell’Esempio 4.2.15 e negli Esercizi 4.20 e 5.10). Sia I = [0, 1], e p: I → S 1 data da p(t) = e2πit . Indichiamo inoltre con π1 : I × R → I la proiezione sul primo fattore. Sia ∼ la relazione d’equivalenza su I × R che identifica i punti (0, y) ∈ {0} × R con i punti (1, −y) ∈ {1} × R. Poniamo E = (I × R)/ ∼. Siccome p ◦ π1 : I × R → S 1 `e costante sulle classi d’equivalenza di ∼, otteniamo un’applicazione continua surgettiva π: E → S 1 . Dimostra che questo `e un fibrato vettoriale di rango 1 su S 1 (detto nastro di M¨ obius), che E `e una variet`a non orientabile, e deduci che E non `e un fibrato banale. Esercizio 4.14. Sia E un fibrato vettoriale di rango r su una variet` a ndimensionale M . Indichiamo con OE ⊂ E l’immagine della sezione nulla, e poniamo E∗ = E \ OE . Il proiettivizzato P(E) `e l’insieme ottenuto quozientando E∗ rispetto alla relazione d’equivalenza v ∼ w se e solo se esiste λ ∈ R∗ tale che v = λw. Dimostra che P(E) ha una naturale struttura di variet` a di dimensione r + n − 1 tale che la proiezione naturale π: P(E) → M sia C ∞ . Inoltre, dimostra che π −1 (p) `e diffeomorfo a Pr−1 (R) per ogni p ∈ M . Infine - introdotta nella Proposizione 4.2.19 `e diffeomorfa dimostra aM %n che la variet` a P( M ). Esercizio 4.15 (Citato nell’Osservazione 2.2.14 e nell’Esempio 4.2.5, e utilizzato nell’Osservazione 4.5.13). Sia M una variet` a connessa di dimensione 1. Dimostra che M `e diffeomorfa a R oppure a S 1 nel seguente modo: (i) Dimostra la tesi quando M `e orientabile costruendo un campo vettoriale su M mai nullo e applicando l’Esercizio 3.27. (ii) Dimostra che M `e sempre orientabile, facendo vedere che il suo rivestimento universale `e diffeomorfo a R e che ogni diffeomorfismo di R che inverte l’orientazione ha necessariamente un punto fisso. Esercizio 4.16 (Citato nell’Esercizio 4.23). Sia G un gruppo di Lie. Dimostra che G `e orientabile, e che ha esattamente due orientazioni tali che tutte le traslazioni sinistre Lg conservino l’orientazione.
236
4 Forme differenziali e integrazione
Definizione 4.E.1. Sia π: E → M un fibrato vettoriale di rango r. Diremo che E `e orientabile se per ogni atlante che banalizza E `e possibile scegliere le banalizzazioni in modo che le funzioni di transizione abbiano tutte determinante positivo. Esercizio 4.17 (Citato nell’Esercizio 5.34). Dimostra che lo spazio totale di un fibrato vettoriale orientabile su una variet` a orientabile `e orientabile. ` DI IPERSUPERFICI ORIENTABILITA Definizione 4.E.2. Sia F : S → M una sottovariet` a immersa in una variet` a M . Un campo vettoriale lungo S `e un’applicazione X: S → T M differenziabile tale che X(p) ∈ TF (p) M per ogni p ∈ S. Diremo che X `e trasverso a S se inoltre X(p) ∈ / dFp (Tp S) per ogni p ∈ S. Esercizio 4.18 (Utile per gli Esercizi 4.19, 4.52, 6.34 e 6.27). Sia F : S → M un’ipersuperficie immersa in una variet`a M orientata da una forma di volume ν ∈ An (M ). Supponi che esista un campo vettoriale N : S → T M trasverso lungo S. Dimostra che la forma νS = F ∗ (N ν) definita da (νS )p (v1 , . . . , vn−1 ) = νF (p) N (p), dFp (v1 ), . . . , dFp (vn−1 ) per ogni p ∈ S e v1 , . . . , vn−1 ∈ Tp S `e una forma di volume su S, per cui S `e orientabile. Esercizio 4.19. Sia S = f −1 (a) un’ipersuperficie di livello di una funzione differenziabile f : Ω → R con a ∈ R valore regolare, dove Ω ⊆ Rn `e aperto. Dimostra che S `e orientabile (vedi anche l’Esercizio 6.34). [Suggerimento: usa l’Esercizio 4.18.]
Esercizio 4.20. Sia ,
Ω = {(x, y, z) ∈ R3 | (
x2 + y 2 − 2)2 + z 2 < 1} ⊂ R3 ,
e sia F : R2 → Ω data da F (u, v) = (cos 2πu)(2 + cos πu tanh v), (sin 2πu)(2 + cos πu tanh v), sin πu tanh v . Dimostra che: (i) F induce un embedding G: E → Ω, dove E `e lo spazio totale del nastro di M¨ obius introdotto nell’Esercizio 4.13; (ii) S = F (R2 ) `e una sottovariet`a chiusa di Ω; (iii) non esiste un campo vettoriale trasverso lungo S; (iv) S non `e l’ipersuperficie di livello rispetto a un valore regolare di una funzione differenziabile definita su Ω.
Esercizi
237
INTEGRAZIONE Esercizio 4.21. Sia M una variet` a orientata (con bordo o senza bordo) di dimensione n, e ω ∈ An (M ) a supporto compatto. Supponi di avere k carte locali (U1 , ϕ1 ), . . . , (Uk , ϕk ) e aperti Vj ⊂ Uj per j = 1, . . . , k che soddisfano le condizioni seguenti: (i) Vj ⊂ Uj `e compatto per j = 1, . . . , k; (ii) il bordo di Dj = ϕ(Vj ) ⊂ Rn ha misura zero in Rn ; (iii) se i = j allora Vi ∩ Vj = ∅; (iv) il supporto di ω `e contenuto in V1 ∪ · · · ∪ Vk . Dimostra che . k . ∗ ω= (φ−1 j ) ω . M
j=1
Dj
Esercizio 4.22. Sia T2 = S 1 × S 1 ⊂ R4 il 2-toro realizzato come T2 = {(x, y, z, w) ∈ R4 | x2 + y 2 = z 2 + w 2 = 1} , con l’orientazione prodotto (vedi l’Esercizio 4.9). Posto ω = xzw dy ∧ dw ∈ A2 (R4 ) , calcola
< T2
ω.
INTEGRAZIONE SU GRUPPI DI LIE Definizione 4.E.3. Sia G un gruppo di Lie. Una k-forma ω ∈ Ak (G) `e invariante a sinistra se L∗g ω = ω per ogni g ∈ G, `e invariante a destra se Rg∗ ω = ω per ogni g ∈ G, ed `e biinvariante se `e invariante a destra e a sinistra. Definizione 4.E.4. Sia G un gruppo di Lie di algebra di Lie g. La rappresentazione aggiunta Ad: G → GL(g) `e data da Ad(g) = d(Cg )e : g → g per ogni g ∈ G, dove Cg : G → G `e il coniugio Cg (h) = ghg −1 . Esercizio 4.23 (Utile per l’Esercizio 6.14). Dimostra che un’orientazione di un gruppo di Lie `e invariante a sinistra (nel senso dell’Esercizio 4.16) se e solo se `e indotta da una forma di volume invariante a sinistra. In particolare, forme di volume invarianti a sinistra esistono sempre. Esercizio 4.24. Sia G un gruppo di Lie di dimensione n, e ω ∈ An (G) una n-forma invariante a sinistra. Dimostra che Rg∗ ω = det Ad(g −1 ) ω per ogni g ∈ G.Deduci che G ammette una n-forma biinvariante se e solo se det Ad(g −1 ) = 1 per ogni g ∈ G. Definizione 4.E.5. Un gruppo di Lie G `e unimodulare se | det Ad(g −1 ) | = 1 per ogni g ∈ G.
238
4 Forme differenziali e integrazione
Esercizio 4.25. Dimostra che ogni gruppo di Lie compatto `e unimodulare. Esercizio 4.26. Sia G un gruppo di Lie, e sia ν una forma di volume invariante a sinistra. Dimostra che: (i) si ha . . (f ◦ Lg )ν = G
fν G
per ogni f ∈ C ∞ (G) a supporto compatto e ogni g ∈ G; (ii) si ha . . (f ◦ Rg )ν = det Ad(g) fν G
G
per ogni f ∈ C ∞ (G) a supporto compatto e ogni g ∈ G; (iii) se G `e compatto allora ammette un’unica forma di volume ν0 biinvariante < tale che G ν0 = 1. La forma ν0 `e detta forma di volume di Haar del gruppo G. ` (Esercizi citati nella Sezione 4.3) DENSITA Definizione 4.E.6. Sia V uno spazio vettoriale di dimensione n su R. Una densit` a su V `e una funzione μ: V n → R tale che μ L(v1 ), . . . , L(vn ) = | det L|μ(v1 , . . . , vn ) per ogni L ∈ End(V ) e ogni v1 , . . . , vn ∈ V . Indichiamo con Ω(V ) l’insieme delle densit`a su V . Diremo che una densit`a μ ∈ Ω(V ) `e positiva se μ(v1 , . . . , vn ) > 0 per ogni base {v1 , . . . , vn } di V . Esercizio 4.27. Sia V uno spazio vettoriale di dimensione n su R. Dimostra che: (i) Ω(V ) ha una naturale struttura di spazio vettoriale; (ii) se μ1 , μ2 ∈ Ω(V ) sono tali che μ1 (v1 , . . . , vn ) = μ2 (v1 , . . . , vn ) per una base {v1 , . . . , vn } di V , allora μ1 ≡ μ2 ; %n ∗ V allora |ω| `e una densit` a positiva; (iii) se ω ∈ % (iv) dim Ω(V ) = 1, ed `e generato da |ω| quale che sia ω ∈ n V ∗ non nulla. Esercizio 4.28 (Usato nella Definizione 4.E.7). Sia M una variet` a di dimensione n, e indichiamo con Ω(M ) l’unione disgiunta degli spazi Ω(Tp M ) al variare di p ∈ M . Dimostra che Ω(M ) ha una naturale struttura di fibrato in rette su M . Definizione 4.E.7. Sia M una n-variet` a. Il fibrato in rette Ω(M ) definito nell’Esercizio 4.28 `e detto fibrato delle densit` a di M . Una densit` a su M `e una sezione di Ω(M ). Una densit` a μ su M `e positiva se μp ∈ Ω(Tp M ) `e positiva per ogni p ∈ M .
Esercizi
239
Esercizio 4.29. Dimostra che ogni variet` a M ha una densit` a positiva. Esercizio 4.30. Sia F : M → N un’applicazione differenziabile fra n-variet` a. Data una densit` a μ su N , definiamo F ∗ μ: M → Ω(M ) ponendo (F ∗ μ)p (v1 , . . . , vn ) = μF (p) dFp (v1 ), . . . , dFp (vn ) per ogni p ∈ M e v1 , . . . , vn ∈ Tp M . Dimostra che: a in M ; (i) F ∗ μ `e una densit` (ii) se f ∈ C ∞ (N ) allora F ∗ (f μ) = (f ◦ F )F ∗ μ; (iii) se ω ∈ An (N ) allora F ∗ |ω| = |F ∗ ω|; (iv) se G: S → M `e un’altra applicazione differenziabile fra n-variet` a allora (F ◦ G)∗ μ = G∗ (F ∗ μ); (v) se (U, ϕ), rispettivamente (V, ψ), sono carte locali su M , rispettivamente su N , con ϕ = (x1 , . . . , xn ), ψ = (y 1 , . . . , y n ) e F (U ) ⊆ V , allora F ∗ (f |dy 1 ∧ · · · ∧ dy n |) = (f ◦ F )| det(dF˜ )||dx1 ∧ · · · ∧ dxn | per ogni f ∈ C ∞ (V ), dove F˜ = ψ ◦ F ◦ ϕ−1 . Esercizio 4.31 (Utile per l’Esercizio 4.32). Sia M una variet` a n-dimensionale, e μ una densit` a a supporto compatto. Supponiamo di avere due carte (U, ϕ) ˜ , ϕ) ˜ . Allora e (U ˜ tali che il supporto di μ sia contenuto in U ∩ U . . (ϕ−1 )∗ μ = (ϕ˜−1 )∗ μ , ˜) ϕ( ˜ U
ϕ(U )
dove se μ0 = f |dx1 ∧ · · · ∧ dxn | `e una densit` a a supporto compatto in un aperto Ω ⊆ Rn poniamo . . μ0 = f dx1 · · · dxn . Ω
Ω
Esercizio 4.32. Sia M una variet` a n-dimensionale. Definisci (usando l’Esercizio 4.31 e procedendo in modo analogo a quanto visto per n-forme a supporto < a μ a supporto compatto su variet` a orientate) l’integrale M μ di una densit` compatto su M in modo da soddisfare le seguenti tre propriet` a: < (i) μ → M μ `e lineare; (ii) l’integrale di densit` a positive `e strettamente < positivo; < (iii) se F : N → M `e un diffeomorfismo allora M μ = N F ∗ μ. DIFFERENZIALE ESTERNO Esercizio 4.33. Sia M una variet` a, e ω ∈ Ar (M ). Dimostra che dω(X1 , . . . , Xr+1 )
240
4 Forme differenziali e integrazione
=
r+1 j=1
+
$j , . . . , Xr+1 ) (−1)j−1 Xj ω(X1 , . . . , X
$i , . . . , X $j , . . . , Xr+1 , (−1)i+j ω [Xi , Xj ], X1 , . . . , X
1≤i<j≤r+1
per ogni X1 , . . . , Xr+1 ∈ T (M ), dove l’accento circonflesso indica elementi omessi dalla lista. Esercizio 4.34. Sia {E1 , . . . , En } un riferimento locale per il fibrato tangente T M di una n-variet` a M sopra un aperto U , e indichiamo con {!1 , . . . , !n } il riferimento locale duale di T ∗ M sopra U . Siano inoltre ckij ∈ C ∞ (U ) tali che n [Ei , Ej ] = ckij Ek k=1
per i, j, k = 1, . . . , n. Dimostra che d!k = −
n
ckij !i ∧ !j
i,j=1
per k = 1, . . . , n. Esercizio 4.35. Sia α: R × Rn → Rn data da α(t, x) = αt (x) = tx , e indichiamo con I ∈ T (Rn ) il campo vettoriale dato da I(x) = x per ogni x ∈ Rn , dove stiamo identificando in modo naturale Tx Rn con Rn . Sia infine ω ∈ Ak (Rn ) una k-forma chiusa, con k ≥ 1. (i) Dimostra che 1t αt∗ iI ω `e una ben definita (k − 1)-forma per ogni t ∈ R. (ii) Posto . 1 1 ∗ η= αt iI ω dt , 0 t dove l’integrale `e fatto componente per componente, dimostra che dη = ω .
DERIVATA DI LIE Esercizio 4.36. Se X ∈ T (M ) `e un campo vettoriale su una variet` a M , indichiamo con LX indica la derivata di Lie lungo X (vedi l’Esercizio 3.38). Dimostra che: (i) LX (ω ∧ η) = (LX ω) ∧ η + ω ∧ (LX η) per ogni ω, η ∈ A• (M );
Esercizi
241
(ii) se ω ∈ Ak (M ) e X, Y1 , . . . , Yk ∈ T (M ) allora k (LX ω)(Y1 , . . . , Yk ) = X ω(Y1 , . . . , Yk ) − ω(Y1 , . . . , [X, Yj ], . . . , Yk ) ; j=1
(iii) [LX , LY ]ω = L[X,Y ] ω per ogni X, Y ∈ T (M ) e ω ∈ A• (M ), dove [LX , LY ] = LX ◦ LY − LY ◦ LX ; (iv) [LX , iY ] = i[X,Y ] per ogni X, Y ∈ T (M ), dove [LX , iY ] = LX ◦iY −iY ◦LX . Esercizio 4.37 (Usato nel Lemma 6.8.10, nel Teorema 6.8.11, e nell’Esercizio 6.55). Sia X ∈ T (M ) un campo vettoriale su una variet`a M , e ω ∈ A• (M ). Dimostra la formula di Cartan: LX ω = X (dω) + d(X ω) . [Suggerimento: procedi per induzione sul grado di ω.] Deduci che
LX (dω) = d(LX ω) . DISTRIBUZIONI (Esercizi citati nella Sezione 3.7) Esercizio 4.38. Sia D ⊆ T M una distribuzione k-dimensionale su una nvariet` a M . Dimostra che D `e liscia se e solo se per ogni punto p ∈ M esistono un intorno U di p e ω 1 , . . . , ωn−k ∈ A1 (U ) tali che Dq = Ker ωq1 ∩ · · · ∩ Ker ωqn−k
(4.9)
per ogni q ∈ U . Definizione 4.E.8. Sia D ⊆ T M una distribuzione k-dimensionale liscia su una n-variet` a M , e U ⊆ M aperto. Delle 1-forme ω 1 , . . . , ω n−k ∈ A1 (M ) che soddisfano (4.9) saranno dette forme di definizione locali per D. Diremo inoltre che una p-forma η ∈ Ap (M ) annichila D se η(X1 , . . . , Xp ) ≡ O per p (D) ⊆ Ap (M ) il sottospazio ogni X1 , . . . , Xp ∈ TD (M ). Indicheremo con IM • 0 n delle p-forme che annichilano D, e porremo IM (D) = IM (D) ⊕ · · · ⊕ IM (D). Esercizio 4.39. Sia D ⊆ T M una distribuzione k-dimensionale liscia su una n-variet` a M . Dimostra che una p-forma η ∈ Ap (M ) annichila D se e solo se ogni volta che esistono delle forme di definizione locali ω 1 , . . . , ω n−k ∈ A1 (U ) per D su un aperto U ⊆ M allora η|U =
n−k
ω i ∧ βi
i=1
per opportune (p − 1)-forme β1 , . . . , βn−k ∈ Ap−1 (U ).
242
4 Forme differenziali e integrazione
Esercizio 4.40. Sia D ⊆ T M una distribuzione k-dimensionale liscia su una n-variet` che D `e involutiva se e solo se per ogni aperto U ⊆ M a M . Dimostra si ha d IU1 (D) ⊆ IU2 (D). Esercizio 4.41. Sia D ⊆ T M una distribuzione k-dimensionale liscia su una n-variet` a M . Dimostra che D `e involutiva se e solo se per ogni aperto U ⊆ M e ogni (n − k)-upla di forme di definizione locali ω 1 , . . . , ω n−k ∈ A1 (U ) per D sopra U esistono delle 1-forme αji ∈ A1 (U ) tali che dω i =
n−k
ω j ∧ αji
j=1
per i = 1, . . . , n − k. Definizione 4.E.9. Un sottospazio vettoriale I ⊆ A• (M ) `e un ideale se ω ∧ η ∈ I per ogni ω ∈ A• (M ) e ogni η ∈ I. Esercizio 4.42. Sia D ⊆ T M una distribuzione k-dimensionale liscia su una • n-variet` a M . Dimostra che IM (D) `e un ideale di A (M ), e che D `e involutiva se e solo se d IM (D) ⊆ IM (D).
` CON BORDO VARIETA Esercizio 4.43 (Citato nell’Osservazione 4.5.4). Definisci, in analogia con la Definizione 2.1.6, i concetti di compatibilit` a fra atlanti di variet` a con bordo, e di struttura differenziabile di variet` a con bordo. Dimostra poi che ogni atlante di variet` a con bordo `e contenuto in una e una sola struttura differenziabile di variet` a con bordo, e che due atlanti di variet` a con bordo sono contenuti nella stessa struttura differenziabile di variet` a con bordo. Esercizio 4.44 (Usato nel Teorema 4.5.12). Sia M una n-variet` a con bordo. Dimostra che per ogni p ∈ ∂M esiste una n-carta di bordo (U, ϕ) con p ∈ U e ϕ(U ) = Hn , e che per ogni p ∈ Int(M ) esiste una n-carta interna (U, ϕ) con p ∈ U e ϕ(U ) = Rn . Esercizio 4.45 (Citato nell’Esempio 4.5.5). Dimostra che se ρ: M → R `e una funzione C ∞ su una variet` a M con 0 come valore regolare allora l’insieme {p ∈ M | ρ(p) ≥ 0} `e una variet` a con bordo. Esercizio 4.46 (Usato nell’Esempio 4.5.5). Dimostra che se M `e una variet` a allora il cilindro finito C = M × [−1, 1] `e una variet` a con bordo. Dimostra inoltre che se M `e connessa allora ∂C ha esattamente due componenti connesse entrambe diffeomorfe a M .
Esercizi
243
Esercizio 4.47 (Citato nella Sezione 4.5; usato negli Esercizi 4.48–4.49). Definisci i concetti di funzioni differenziabili su una variet` a con bordo e di applicazioni differenziabili fra variet` a con bordo, e usali per definire lo spazio tangente a una variet` a con bordo anche nei punti di bordo. Dimostra che se M `e una variet`a con bordo di dimensione n allora Tp M `e uno spazio vettoriale di dimensione n anche quando p ∈ ∂M . Esercizio 4.48 (Citato nella Sezione 4.5). Sia M una variet` a con bordo. Dimostra che l’inclusione ι: ∂M → M `e un’immersione C ∞ , e verifica che per ogni p ∈ ∂M il sottospazio dιp (Tp ∂M ) coincide con l’insieme delle derivazioni X ∈ Tp M tali che X(f) = 0 per ogni germe f ∈ C ∞ (p) per cui f ◦ ι `e costante. Esercizio 4.49 (Citato nella Sezione 4.5). Sia M una variet` a con bordo. Dimostra che il fibrato tangente di M ha una naturale struttura di variet` a con bordo. Definizione 4.E.10. Sia M una variet` a con bordo, e p ∈ ∂M . Diremo che / Tp (∂M ) ed esiste una curva liscia σ: [0, ε) → M v ∈ Tp M `e interno se v ∈ tale che σ(0) = p e σ (0) = v; diremo che `e esterno se −v `e interno. Esercizio 4.50. Sia M una variet` a con bordo, p ∈ ∂M e (U, ϕ) una carta di bordo in p. Dimostra che v ∈ Tp M `e interno (rispettivamente, esterno) se e solo se la n-esima coordinata di v rispetto alla base {∂1 |p , . . . , ∂n |p } `e strettamente positiva (rispettivamente, strettamente negativa). Esercizio 4.51 (Citato nell’Esercizio 4.52). Sia M una variet` a con bordo. Dimostra che esiste un campo vettoriale esterno lungo ∂M , cio`e un’applicazione differenziabile N : ∂M → T M tale che Np ∈ Tp M `e esterno per ogni p ∈ M . Esercizio 4.52. Sia M una variet` a n-dimensionale con bordo orientata da una forma di volume ν ∈ An (M ), e sia N : ∂M → T M un campo vettoriale esterno lungo ∂M (vedi l’Esercizio 4.51). Dimostra che la forma di volume N ν (vedi l’Esercizio 4.18) induce su ∂M l’orientazione indotta da quella di M , come definita nella Definizione 4.5.9. Esercizio 4.53 (Citato nell’Osservazione 4.5.13). Sia σ: [0, 1] → R2 una curva liscia regolare semplice chiusa nel piano; dimostra che il sostegno di σ `e il bordo di un dominio regolare del piano.
5 Coomologia
Questo capitolo `e dedicato allo studio della coomologia di de Rham di una variet` a, un oggetto algebrico definito per via differenziale (tramite il differenziale esterno di forme) che codifica propriet` a topologiche della variet` a: i gruppi di coomologia di de Rham possono infatti essere pensati come insiemi di soluzioni di speciali equazioni differenziali, modulo soluzioni banali, e quindi nascono come oggetti algebrici (spazi vettoriali) definiti per via analitica (tramite equazioni differenziali). Dimostreremo per` o il teorema di de Rham, che dice che variet` a topologicamente omeomorfe hanno coomologia di de Rham isomorfa, per cui la coomologia di de Rham risulta essere un invariante topologico. Per arrivare alla dimostrazione del teorema di de Rham dovremo introdurre diverse idee fondamentali della geometria contemporanea. Prima di tutto, gli spazi di forme differenziali assieme al differenziale esterno sono un primo esempio di complesso differenziale, una struttura algebrica alla base della Topologia Algebrica moderna, e cos`ı diffusa da essere diventata oggetto di studio di una vera e propria branca dell’algebra, l’Algebra Omologica. Una propriet` a algebrica fondamentale dei complessi differenziali `e la possibilit` a di associare a qualsiasi successione esatta corta di complessi differenziali una successione esatta lunga in coomologia, che fornisce un collegamento canonico fra fenomeni che avvengono in dimensioni diverse. Nel caso delle variet` a, una delle successioni esatte lunghe pi` u importanti costruite con questo metodo `e la successione di Mayer-Vietoris, che collega la coomologia di de Rham dell’unione U ∪ V di aperti con la coomologia dei singoli aperti U e V e della loro intersezione. Usando un’altra tecnica di Algebra Omologica, la coomologia di un complesso doppio, estenderemo la successione di Mayer-Vietoris al principio di Mayer-Vietoris, che riguarda la coomologia di famiglie numerabili qualsiasi di aperti; e in questo modo faremo vedere che la coomologia di de Rham di una variet` a compatta ha dimensione finita, e dimostreremo il teorema di K¨ unneth, che esprime la coomologia del prodotto di variet` a a partire dalla coomologia dei fattori. Per dedurre il teorema di de Rham introdurremo infine i concetti di fascio ˇ e di coomologia di Cech a coefficienti in un fascio, concetti cruciali per la Abate M., Tovena F.: Geometria Differenziale. DOI 10.1007/978-88-470-1920-1_5 c Springer-Verlag Italia 2011
246
5 Coomologia
Geometria Algebrica e la Geometria Complessa moderna, soprattutto quando si vogliono gestire le relazioni fra propriet` a locali e globali di una variet` a. Lungo la strada calcoleremo anche la coomologia degli spazi euclidei (lemma di Poincar´e ), delle sfere e degli spazi proiettivi; discuteremo l’invarianza omotopica della coomologia; parleremo della coomologia a supporto compatto, ottenuta considerando solo forme differenziali a supporto compatto; e dimostreremo la dualit` a di Poincar´e, che mostra come la coomologia a supporto compatto di una variet` a orientabile sia, in un senso preciso, duale alla coomologia di de Rham.
5.1 La successione esatta lunga in coomologia In questo capitolo vogliamo studiare in dettaglio la struttura della coomologia di de Rham di una variet`a M . Ricordiamo velocemente le definizioni: nella Sezione 4.4 abbiamo introdotto il differenziale esterno d: A• (M ) → A• (M ), un’applicazione lineare con le seguenti propriet` a fondamentali: k (a) d A (M ) ⊆ Ak+1 (M ) per ogni k ∈ N; (b) d(ω ∧ η) = dω ∧ η + (−1)r ω ∧ dη per ogni ω ∈ Ar (M ) e ogni η ∈ A• (M ); (c) d(F ∗ ω) = F ∗ (dω) per ogni ω ∈ A∗ (M ) e ogni applicazione differenziabile F: N → M; (d) d ◦ d = O. Indicheremo con Z k (M ⊆ Ak (M ) il nucleo di d, costituito dalle k-forme chiu ) k−1 k se; e con B (M ) = d A (M ) ⊆ Ak (M ) l’immagine di d, costituito dalle a (d) assicura che k-forme esatte, con la convenzione B 0 (M ) = O. La propriet` B k (M ) ⊆ Z k (M ) per ogni k ∈ N; il k-esimo gruppo di coomologia di de Rham `e allora il quoziente H k (M ) = Z k (M )/B k (M ). Se ω ∈ Z k (M ), indicheremo con [ω] = ω + B k (M ) ∈ H k (M ) la classe di coomologia rappresentata da ω. Osservazione 5.1.1. Parleremo di “gruppo di coomologia perch´e spesso saremo principalmente interessati alla struttura di gruppo abeliano (o di modulo su Z) di H k (M ), anche se pi` u precisamente H k (M ) `e uno spazio vettoriale (cio`e un modulo su R). Osservazione 5.1.2. Vale la pena notare esplicitamente che variet` a diffeomorfe hanno chiaramente (perch´e?) coomologia isomorfa. Un risultato tutt’altro evidente che dimostreremo nella Sezione 5.9 sar`a che variet`a omeomorfe hanno coomologia isomorfa (Teorema 5.9.19). Esempio 5.1.3 (Coomologia di R). Vogliamo calcolare la coomologia di R, cominciando con H 0 (R). Le 0-forme sono funzioni. L’unica 0-forma esatta `e la funzione nulla; invece, una 0-forma f `e chiusa se e solo se df ≡ 0, cio`e se e solo se `e (localmente, e quindi globalmente in quanto R `e connesso) costante. Quindi H 0 (R) = Z 0 (R) = R.
5.1 La successione esatta lunga in coomologia
247
Siccome R ha dimensione 1, chiaramente H k (R) = O per k > 1. Per lo stesso motivo, le 1-forme su R sono tutte (banalmente) chiuse; vogliamo mostrare che sono anche esatte. Infatti, data ω = f dx ∈ A1 (R), poniamo . x g(x) = f (t) dt ; 0
allora si vede subito che dg = ω. Quindi H 1 (R) = O, e riassumendo, + R se k = 0 , H k (R) = O se k > 0 .
> Osservazione 5.1.4 (Coomologia delle unioni disgiunte). Se M = M0 M1 `e unione di due aperti M0 e M1 disgiunti, allora chiaramente ogni forma differenziale su M pu` o essere identificata con una coppia di forme differenziali, una su M0 e l’altra su M1 . Quindi A• (M ) = A• (M0 ) ⊕ A• (M1 ). Siccome il differenziale esterno `e un operatore locale, questa decomposizione induce un’analoga decomposizione in coomologia, per cui > H • (M0 M1 ) = H • (M0 ) ⊕ H • (M1 ) . Analogamente, se M `e unione di una famiglia {Mα } di aperti a due a due disgiunti, abbiamo ? • Mα = H • (Mα ) , H α
α
dove usiamo il prodotto diretto invece della somma diretta perch´e una classe di coomologia in M pu` o avere componenti non nulle in tutte le variet` a Mα (vedi l’Osservazione 1.1.17 per la differenza fra prodotto diretto e somma diretta di un numero infinito di spazi vettoriali). Osservazione 5.1.5 (Coomologia 0-dimensionale). Il ragionamento fatto all’i0 nizio dell’Esempio 5.1.3 mostra a connessa M . > che H (M ) = R per ogni variet` Pi` u in generale, se M = α∈A Mα `e la decomposizione di una variet` a M nelle sue componenti connesse, dove A `e un insieme finito o numerabile, l’Osservazione 5.1.4 ci dice che H 0 (M ) = RA . Vedremo nelle prossime sezioni come calcolare la coomologia di variet`a pi` u complicate; qui vogliamo invece osservare che la propriet` a (b) del differenziale esterno ci permette di introdurre una struttura di algebra (graduata, asso ciativa, anticommutativa) su H • (M ) = k H k (M ). Infatti, se ω ∈ Z r (M ) e η ∈ Z s (M ) sono forme chiuse abbiamo d(ω ∧ η) = dω ∧ η + (−1)r ω ∧ dη = O , per cui anche ω ∧ η `e chiusa. Inoltre, se ω = ω + dφ `e coomologa a ω e η `e chiusa abbiamo ω ∧ η = ω ∧ η + d(φ ∧ η) , per cui ω ∧ η rappresenta la stessa classe di coomologia di ω ∧ η. Possiamo quindi introdurre una nozione di prodotto nella coomologia di de Rham.
248
5 Coomologia
Definizione 5.1.6. Il prodotto cup ∧: H • (M ) × H • (M ) → H • (M ) di due classi di coomologia `e definito da [ω] ∧ [η] = [ω ∧ η] per ogni [ω], [η] ∈ H • (M ). Le propriet` a del prodotto cup sono ovvie conseguenze delle analoghe propriet` a del prodotto esterno di forme viste nella Sezione 4.1. Per riassumerle, introduciamo una terminologia che ci servir` a in seguito. Definizione 5.1.7. Un gruppo abeliano (spazio vettoriale, eccetera) C • `e graduato su N se si pu`o scrivere come somma diretta di sottogruppi (sottospazi, eccetera) nella forma Ck ; C• = k∈N
Una k-cocatena (o cocatena di grado k) `e un elemento di C k . In modo analogo si definisce un gruppo abeliano (spazio vettoriale, eccetera) graduato su Z. Definizione 5.1.8. Un’algebra graduata `e uno spazio vettoriale graduato C • dotato di un prodotto ∧: C • × C • → C • che lo renda un’algebra e tale che C k ∧ C h ⊆ C h+k per ogni h, k ∈ N. Diremo inoltre che C • `e un’algebra graduata associativa se il prodotto `e associativo, e che `e anticommutativa se ∀a ∈ C h ∀b ∈ C k
b ∧ a = (−1)hk a ∧ b .
Esempio 5.1.9. Se M `e una variet` a allora H • (M ) con il prodotto cup `e un’algebra graduata associativa e anticommutativa. L’esistenza del prodotto cup e del differenziale esterno indicano chiaramente come sia utile studiare contemporaneamente tutti i gruppi di coomologia. Per poterlo fare efficacemente, nel resto di questa sezione studieremo astrattamente alcune propriet` a di gruppi graduati dotati di un’applicazione con propriet` a analoghe a quelle del differenziale esterno, introducendo tecniche di quella parte dell’algebra chiamata Algebra Omologica. Osservazione 5.1.10. Nel seguito useremo la parola “morfismo per indicare un’applicazione fra due insiemi con struttura che conserva la struttura. Per esempio, un morfismo fra gruppi sar` a un omomorfismo, un morfismo fra spazi vettoriali sar` a un’applicazione lineare, e cos`ı via. Definizione 5.1.11. Un morfismo graduato di grado d ∈ Z fra gruppi (spazi vettoriali, eccetera) graduati `e un morfismo F : C • → D• che modifica la graduazione di d livelli, cio`e tale che F (C k ) ⊆ Dk+d per ogni k ∈ N; scriveremo anche F : C • → D •+d . Se d = 0 parleremo di morfismo graduato.
5.1 La successione esatta lunga in coomologia
249
Definizione 5.1.12. Un complesso differenziale (o complesso di cocatene) `e una coppia (C • , d) composta ec k da un gruppo abeliano (spazio vettoriale, C e da un morfismo graduato d: C • → C •+1 di cetera) graduato C = k∈N
grado 1, detto differenziale, tale che d◦d=O . A volte scriveremo dk al posto di d|C k . Definizione 5.1.13. Sia (C • , d) un complesso differenziale. Un k-cociclo `e un elemento di Z k = Z k (C) = Ker dk ⊆ C k ; un k-cobordo `e un elemento di B k = B k (C) = Im dk−1 ⊆ C k (dove per convenzione poniamo B 0 = O). La condizione d ◦ d = O implica che B k ⊆ Z k per ogni k ∈ N; il k-esimo gruppo di coomologia H k (C) del complesso differenziale `e allora definito come il quoziente H k (C) = Z k (C)/B k (C). Infine, la coomologia del complesso `e il gruppo (spazio vettoriale, eccetera) graduato H k (C) . H • (C) = k∈N
Indicheremo con [c] ∈ H k (C) la classe del cociclo c ∈ Z k (C), e diremo che due cocicli sono coomologhi se rappresentano la stessa classe in coomologia, cio`e se differiscono per un cobordo. Esempio 5.1.14. Sia M una variet` a. Allora la coppia A• (M ), d `e un complesso differenziale la cui coomologia `e proprio la coomologia di de Rham. Un k-cociclo `e una k-forma chiusa; un k-cobordo `e una k-forma esatta. Nota che Ak (M ) = O se k > dim M . Osservazione 5.1.15. Un complesso di catene `e una coppia (C • , d) composta da un gruppo abeliano graduato e da un differenziale d: C • → C •−1 di grado −1, cio`e d `e tale che d ◦ d = O e d(C k ) ⊆ C k−1 . Definizione 5.1.16. Siano (A• , dA ) e (B • , dB ) due complessi differenziali. Un morfismo di cocatene `e un morfismo graduato F : A• → B •+d di grado d che commuta con i differenziali: F ◦ dA = dB ◦ F . Esempio 5.1.17. Se F : M → N `e un’applicazione differenziabile fra variet` a, allora F ∗ : A• (N ) → A• (M ) `e un morfismo di cocatene. Se F : A• → B •+d `e un morfismo di cocatene, chiaramente (controlla) abbiamo F Z k (A) ⊆ Z k+d (B) e F B k (A) ⊆ B k+d (B) per ogni k ∈ N. Quindi F induce un morfismo graduato F ∗ : H • (A) → H •+d (B) semplicemente ponendo F ∗ ([c]) = [F (c)] per ogni c ∈ Z • (A).
250
5 Coomologia
Definizione 5.1.18. Sia F : A• → B •+d un morfismo di cocatene fra complessi differenziali. Il morfismo graduato F ∗ : H • (A) → H •+d (B) appena definito `e detto morfismo indotto in coomologia da F . Esempio 5.1.19. In particolare, un’applicazione differenziabile F : M → N fra variet` a induce un morfismo in coomologia F ∗ : H • (N ) → H • (M ), detto pullback. Per semplicit`a di notazione, useremo lo stesso simbolo per indicare sia il pull-back di forme che il pull-back di classi di coomologia di de Rham. In particolare, una successione di morfismi di cocatene A•
F
/ B•
/ C•
G
induce una successione di morfismi graduati H • (A)
F∗
G∗
/ H • (B)
/ H • (C) .
Lo studio di successioni di morfismi graduati sar` a cos`ı importante in questo capitolo da richiedere l’introduzione di terminologia apposita. Definizione 5.1.20. Una successione / Vj−1
···
fj
/ Vj
fj+1
/ Vj+1
/ ···
di morfismi di gruppi abeliani (spazi vettoriali, eccetera) `e esatta in Vj se Ker fj+1 = Im fj ; ed `e esatta se lo `e in tutti i suoi elementi. In particolare, una successione esatta della forma O
/U
f
/V
g
/W
/O
(5.1)
sar`a detta successione esatta corta. Osservazione 5.1.21. Dire che una successione della forma O
/U
f
/V
`e esatta `e equivalente a dire che f : U → V `e iniettiva; e dire che una successione della forma g /W /O V `e esatta equivale a dire che g: V → W `e surgettiva. In particolare, nella successione esatta corta (5.1) il morfismo f `e iniettivo, il morfismo g `e surgettivo e W `e isomorfo al quoziente V /f (U ). Proviamo un lemma algebrico che ci servir` a in seguito.
5.1 La successione esatta lunga in coomologia
251
Lemma 5.1.22. Sia f g /V /W U una successione esatta di spazi vettoriali. Allora la successione duale
U∗ o
f∗
V∗ o
g∗
W∗
`e ancora esatta. Dimostrazione. Da g ◦f = O segue subito f ∗ ◦g ∗ = O, per cui Im g ∗ ⊆ Ker f ∗ . Viceversa, sia ϕ ∈Ker f ∗ ; dobbiamo trovare ψ ∈ W ∗ tale che ϕ = g ∗ (ψ), cio`e tale che ϕ(v) = ψ g(v) per ogni v ∈ V . Scegliamo dei sottospazi V1 di V e W1 di W tali che V = Im f ⊕ V1 e W = Im g ⊕ W1 ; l’esattezza della successione ci assicura che g induce un isomorfismo fra V1 e Im g. Quindi ogni w ∈ W di scrive in modo unico come somma w = g(v1 ) + w1 con v1 ∈ V1 e w1 ∈ W1 . Definiamo allora ψ ∈ W ∗ ponendo ψ(w) = ϕ(v1 ). Per costruzione abbiamo ϕ(v1 ) = ψ g(v1 ) per ogni v1 ∈ V1 . D’altra parte, dire che ϕ ∈ Ker f ∗ significa che ϕ si annulla su Im f ; quindi per ogni v ∈ Im f = Ker g abbiamo ψ g(v) = ψ(O) = O = ϕ(v). Ne segue che ϕ = ψ ◦ g su tutto V , e ci siamo.
Il risultato pi` u importante di questa sezione (che `e quello che ha dato vita all’Algebra Omologica) `e che una successione esatta corta di morfismi di cocatene induce una successione esatta (lunga) che collega fra loro tutti i gruppi di coomologia: Teorema 5.1.23. Sia / A•
O
F
/ B•
G
/ C•
/O
(5.2)
una successione esatta corta di morfismi di cocatene. Allora esiste un morfismo graduato d∗ : H • (C) → H •+1 (A) di grado 1 tale che la successione ···
/ H k (A)
F∗
/ H k (B)
G∗
/ H k (C)
d∗
/ H k+1 (A)
/ ··· (5.3)
`e esatta. Dimostrazione. Il fatto che (5.2) sia una sequenza esatta corta di morfismi di cocatene equivale a dire che il seguente diagramma `e commutativo a righe esatte: O O O O
/ Ak+1 O
F
d
O
/ Ak O
/ B k+1 O
G
d F
/ Bk O
/ C k+1 O
/O
d G
/ Ck O
/O
252
5 Coomologia
Sia c ∈ Z k (C); vogliamo associargli un a ∈ Z k+1 (A) in modo che a elementi coomologhi corrispondano elementi coomologhi. Siccome G `e surgettiva, troa del diagramma ci dice viamo b ∈ B k tale che G(b) = c. La commutativit` che G(db) = dG(b) = dc = O; quindi db ∈ Ker G = Im F , per cui esiste un unico a ∈ Ak+1 tale che F (a) = db. Inoltre, F (da) = dF (a) = d(db) = O; essendo F iniettiva troviamo da = O, cio`e a ∈ Z k+1 (A). a
/ db O
F
d
_ b
/c
G
Mostriamo ora che l’applicazione c → [a] `e ben definita, cio`e che scegliendo un diverso b ∈ B k otteniamo elementi coomologhi in Z k+1 (A). Infatti, se b ∈ B k `e un’altra cocatena tale che G(b ) = c, sia a ∈ Z k+1 (A) l’unica cocatena tale che F (a ) = db . Siccome G(b − b ) = O, esiste un unico a ∈ Ak tale che b − b = F (a ). Quindi db = db + dF (a ) = F (a + da ) da cui segue che a = a + da . In altre parole, a − a ∈ B k+1 (A), e la classe di coomologia [a] ∈ H k+1 (A) dipende solo da c ∈ Z k (C) e non dalla scelta di b ∈ B k . Per far vedere che abbiamo definito un morfismo da H k (C) a H k+1 (A) rimane da verificare che se c ∈ B k (C) allora a ∈ B k+1 (A). Ma infatti se c = dc per qualche c ∈ C k−1 , scriviamo c = G(b ) con b ∈ B k−1 ; allora c = dG(b ) = G(db ), per cui possiamo prendere b = db , che implica db = O e a = O ∈ B k+1 (A) come voluto.
O
/ da O
F
d
O
_ / a, a O
d
F
d
O
_ / a
/ ddb = O O _ / db, db O
G
d
F
_ / b, b O
/O
d G
d
_ b
/ dc = O O _ /c O
/O
d G
_ / c
/O
Abbiamo definito per ogni k ∈ N un’applicazione d∗ : H k (C) → H k+1 (A), che `e ovviamente (controlla) un morfismo; rimane da verificare che (5.3) `e esatta. Esattezza in H k (B): sia [b] ∈ H k (B) tale che G∗ ([b]) = O. Questo significa che esiste c ∈ C k−1 tale che G(b) = dc, dove b ∈ Z k (B) `e un qualsiasi rappresentante di [b]. Scegliamo b ∈ B k−1 tale che G(b ) = c; siccome G(db ) = dG(b ) = dc = G(b), otteniamo che b − db ∈ Ker G = Im F , per cui esiste a ∈ Ak tale che b − db = F (a). Inoltre F (da) = dF (a) = db − ddb = O, per cui da = O, cio`e a ∈ Z k (A). Mettendo il tutto insieme abbiamo
5.2 La successione di Mayer-Vietoris
253
[b]= F ∗([a]), per cui Ker G∗ ⊆ Im F ∗ . Per il viceversa, se a ∈ Z k (A) abbiamo G F (a) = O, e quindi Im F ∗ ⊆ Ker G∗ , come voluto. Esattezza in H k (C): prima di tutto, se [c] = G∗ ([b]) con b ∈ Z k (B), abbiamo db = O e quindi la costruzione del morfismo d∗ implica subito che d∗ [c] = O, cio`e Im G∗ ⊆ Ker d∗ . Viceversa, sia [c] ∈ H k (C) tale che d∗ [c] = O. Questo vuol dire che, preso b ∈ B k tale che G(b) = c, deve esistere a ∈ Ak tale che F (da) = db. Poniamo b = b − F (a); allora G(b ) = G(b) = c e db = db − dF (a) = db − F (da) = O. Quindi b ∈ Z k (B); quindi [c] = G∗ ([b ]), per cui Ker d∗ ⊆ Im G∗ , come voluto. Esattezza in H k+1 (A): se [a] = d∗ [c] ∈ H k+1 (A), per costruzione abbiamo F (a) ∈ B k+1 (B), cio`e F ∗ ([a]) = O e Im d∗ ⊆ Ker F ∗ . Infine, prendiamo [a] ∈ H k+1 (A) tale che F ∗ ([a]) = O. Questo vuol dire che se a ∈ Z k+1 (A) `e un rappresentante di [a], abbiamo F (a) = db per un opportuno b ∈ B k . Sia c = G(b); siccome dc = dG(b) = G(db) = G F (a) = O, abbiamo c ∈ Z k (C),
e per costruzione d∗ [c] = [a]. Quindi Ker F ∗ ⊆ Im d∗ , e abbiamo finito. Osservazione 5.1.24. La tecnica utilizzata in questa dimostrazione (che consiste a ogni passo nel fare l’unica scelta permessa dai morfismi a disposizione) si chiama inseguimento nel diagramma (in inglese, diagram chasing). Definizione 5.1.25. La successione (5.3) `e detta successione esatta lunga in coomologia indotta dalla successione esatta corta (5.2), e il morfismo d∗ `e chiamato morfismo di connessione. Nelle prossime sezioni useremo sistematicamente questo risultato, cominciando col far vedere come dia delle tecniche utili per il calcolo esplicito dei gruppi di coomologia di de Rham.
5.2 La successione di Mayer-Vietoris Un esempio di utilizzo della successione esatta lunga in coomologia `e la successione di Mayer-Vietoris, uno degli strumenti pi` u utili per il calcolo della coomologia. Sia U = {U0 , U1 } un ricoprimento aperto a M , formato da soli >di una variet` due aperti U0 , U1 ⊆ M>. Indichiamo con U0 U1 l’unione disgiunta di U0 e U1 , con ι> U1 l’inclusione di U0 ∩ U1 in Uj (per j = 0, 1), e con j : U0 ∩ U 1 → U 0 j: U0 U1 → M l’inclusione. Abbiamo quindi una successione di inclusioni M o
j
> o U0 U 1 o
ι0 ι1
U0 ∩ U1
che induce una successione di restrizioni di forme A• (M )
j∗
/ A• (U0 ) ⊕ A• (U1 )
ι0 ι1
/
/ A• (U0 ∩ U1 ) .
254
5 Coomologia
Prendendo la differenza degli ultimi due morfismi otteniamo la successione di Mayer-Vietoris: O
/ A• (M ) η
j∗
/ A• (U0 ) ⊕ A• (U1 )
∗ ι∗ 1 −ι0
/ (η|U0 , η|U1 ) (ω, τ )
/ A• (U0 ∩ U1 )
/O (5.4)
/ (τ − ω)|U ∩U 0 1
Il punto cruciale `e che la successione di Mayer-Vietoris `e esatta: a M. Teorema 5.2.1. Sia U = {U0 , U1 } un ricoprimento aperto di una variet` Allora la successione di Mayer-Vietoris (5.4) `e esatta, e quindi induce una successione esatta lunga in coomologia ···
/ H k (M )
/ H k (U0 ) ⊕ H k (U1 )
/ H k (U0 ∩ U1 )
d∗
/ H k+1 (M )
/ ··· (5.5)
Dimostrazione. L’esattezza di (5.4) in A• (M ) `e evidente. Anche l’esattezza in A• (U0 ) ⊕ A• (U1 ) `e facile: abbiamo (τ − ω)|U0 ∩U1 = O se e solo se τ e ω coincidono in U0 ∩ U1 se e solo se sono la restrizione di una forma globalmente definita su tutto M . Per dimostrare l’esattezza in A• (U0 ∩ U1 ), sia {ρ0 , ρ1 } una partizione dell’unit` a subordinata a U. Data ω ∈ A• (U0 ∩U1 ), notiamo che ρ1 ω `e ben definita come forma su U0 . Analogamente ρ0 ω ∈ A• (U1 ), e si ha (ι∗1 − ι∗0 )(−ρ1 ω, ρ0 ω) = (ρ0 + ρ1 )ω = ω , per cui (5.4) `e esatta. Infine, l’esistenza della successione esatta lunga segue dal Teorema 5.1.23.
Definizione 5.2.2. La successione (5.5) `e detta successione esatta lunga di Mayer-Vietoris indotta dal ricoprimento {U0 , U1 }. Osservazione 5.2.3. Calcoliamo esplicitamente il morfismo di connessione d∗ della successione esatta lunga di Mayer-Vietoris. Sia {ρ0 , ρ1 } una partizione dell’unit` a subordinata al ricoprimento aperto {U0 , U1 }, e sia [ω] ∈ H k (U0 ∩U1 ) rappresentata dalla forma chiusa ω ∈ Z k (U0 ∩ U1 ). La forma ω `e imma∗ ∗ gine tramite ι1 − ι0 della coppia (−ρ1 ω, ρ0 ω), il cui differenziale esterno `e −d(ρ1 ω), d(ρ0 ω) . Notiamo che d(ρj ω) = dρj ∧ ω in quanto ω `e chiusa, e che dρ0 + dρ1 ≡ O in U0 ∩ U1 ; quindi −[dρ1 ∧ ω] in U0 , ∗ d [ω] = in U1 . [dρ0 ∧ ω] In particolare, il supporto di d∗ [ω] `e contenuto in U0 ∩ U1 .
5.3 Il lemma di Poincar´e
255
Esempio 5.2.4 (Coomologia di S 1 ). Come primo esempio di applicazione della successione di Mayer-Vietoris calcoliamo la coomologia di S 1 . Prima di tutto, l’Osservazione 5.1.5 ci dice che H 0 (S 1 ) = R; inoltre k H (S 1 ) = O per k > 1 perch´e S 1 ha dimensione 1. Sia {U0 , U1 } il ricoprimento aperto di S 1 dato da U0 = (−1/2 − ε, 1/2 + ε) e U1 = (1/2 − ε, 3/2 + ε), dove ε ∈ (0, 1/2) e ovviamente stiamo identificando S 1 con R/Z. Siccome U0 e U1 sono diffeomorfi a R, l’Esempio 5.1.3 ci dice che H 0 (Uj ) = R e H k (Uj ) = O per j = 0, 1 e ogni k > 0. Inoltre U0 ∩ U1 consiste di due intervalli aperti, per cui l’Osservazione 5.1.4 ci d` a H 0 (U0 ∩ U1 ) = R2 e k H (U0 ∩ U1 ) = O per k > 0. La successione (5.5) diventa quindi R
/ R⊕R
δ
/ R⊕R
d∗
/ H 1 (S 1 )
/O
∼ (R ⊕ R)/ Im δ, dove δ: H 0 (U0 ) ⊕ H 0 (U1 ) → H 0 (U0 ∩ U1 ) `e il per cui H 1 (S 1 ) = morfismo indotto in coomologia da ι∗1 −ι∗0 . Chiaramente, δ(a, b) = (b−a, b−a); quindi dim Im δ = 1, e H 1 (S 1 ) ∼ = R. Riassumendo, + R se k = 0, 1 ; H k (S 1 ) = O se k > 1 . Possiamo anche trovare un generatore di H 1 (S 1 ). Sia α = (1, 0) ∈ H 0 (U0 ∩U1 ); chiaramente α ∈ / Im δ, per cui d∗ α `e un generatore di H 1 (S 1 ). Ricordando l’Osservazione 5.2.3, d∗ α `e rappresentato dalla 1-forma dρ0 su (1/2 − ε, 1/2 + ε) , ω= O altrimenti, dove {ρ0 , ρ1 } `e una partizione dell’unit` a subordinata a {U0 , U1 }.
5.3 Il lemma di Poincar´ e Il passo successivo consiste nel calcolare la coomologia di Rn . Per farlo, avremo bisogno di un’altra tecnica generale di Algebra Omologica. Definizione 5.3.1. Siano F , G: A• → B • due morfismi di cocatene. Un operatore d’omotopia fra F e G `e un morfismo graduato K: A• → B •−1 di grado −1 tale che F − G = dB ◦ K ± K ◦ dA , dove il segno pu` o dipendere dal grado delle cocatene. In altre parole, K `e un operatore di omotopia se per ogni k ∈ N esiste εk ∈ {−1, 1} tale che F (a) − G(a) = dB K(a) + εk K dA a per ogni a ∈ Ak . Se esiste un operatore di omotopia fra F e G diremo che F e G sono omotopi.
256
5 Coomologia
Osservazione 5.3.2. L’uso del termine “omotopia in questo contesto `e dovuto alla Proposizione 5.4.3. L’uso principale dei morfismi di omotopia `e contenuto nella seguente: Proposizione 5.3.3. Due morfismi di cocatene omotopi inducono lo stesso morfismo in coomologia. Dimostrazione. Sia K: A• → B • un operatore d’omotopia fra due morfismi di cocatene F , G: A• → B • . Se a ∈ Z k (A) abbiamo F (a) = G(a) + (dB ◦ K ± K ◦ dA )(a) = G(a) + dB K(a) , per cui [F (a)] = [G(a)].
Corollario 5.3.4. Sia (A, d) un complesso differenziale, e supponiamo esista un morfismo graduato K: A• → A•−1 di grado −1 tale che d ◦ K ± K ◦ d = id. Allora H • (A) = O. Dimostrazione. Infatti K `e un operatore di omotopia fra l’identit` a e il morfismo nullo, e la tesi segue dalla Proposizione 5.3.3.
La prima applicazione degli operatori di omotopia `e il seguente: Teorema 5.3.5. Sia M una variet` a. Indichiamo con π: M × R → M la proiezione sul primo fattore, e con σ: M → M × R la sezione σ(p) = (p, t0 ), dove t0 ∈ R `e fissato. Allora π ∗ : H • (M ) → H • (M × R) `e un isomorfismo, con inversa data da σ ∗ : H • (M × R) → H • (M ). Dimostrazione. Da π ◦ σ = id segue subito σ ∗ ◦ π ∗ = id; dobbiamo dimostrare che π ∗ ◦ σ ∗ = id a livello di coomologia, tenendo presente che σ ◦ π = id e che π ∗ ◦ σ ∗ = id al livello delle forme. L’idea `e costruire un operatore d’omotopia fra id e π ∗ ◦ σ ∗ , e applicare la Proposizione 5.3.3. Per ogni k ≥ 1 definiamo K: Ak (M × R) → Ak−1 (M × R) ponendo . t ∂ ω ds , (Kω)(p,t) = ∂t t0 (p,s) dove `e l’operatore di contrazione (vedi la Definizione 4.1.7), e ∂/∂t `e pensato come campo vettoriale su M × R tangente alle fibre {p} × R. In altre parole, se ω ∈ Ak (M × R) e Y1 , . . . , Yk−1 ∈ T (M × R) allora . t ∂ , Y1 , . . . , Yk−1 ds . ω(p,s) Kω(Y1 , . . . , Yk−1 )(p, t) = ∂t t0 Il nostro obiettivo `e dimostrare che (id −π ∗ ◦ σ ∗ )ω = (dK + Kd)ω
(5.6)
5.3 Il lemma di Poincar´e
257
per ogni ω ∈ Ak (M × R). Essendo d un operatore locale, `e sufficiente dimostrare questa uguaglianza su ciascun aperto della forma U × R, dove (U, ϕ) `e una carta locale di M ; quindi possiamo lavorare in coordinate locali. Ora, ogni k-forma differenziale in U × R si scrive in modo unico come combinazione lineare dei seguenti due tipi di forme: f dxi1 ∧ · · · ∧ dxik
f dt ∧ dxi1 ∧ · · · ∧ dxik−1 ,
e
dove f ∈ C ∞ (U × R) e (x1 , . . . , xn ) sono coordinate locali in U , per cui (x1 , . . . , xn , t) sono coordinate locali in U × R; in particolare, per semplicit` a di notazione stiamo indicando con lo stesso simbolo dxj (dove xj `e considerata come coordinata locale in U × R) e π ∗ dxj (dove xj `e considerata come coordinata locale in U ). Per dimostrare (5.6) ci basta allora verificarla separatamente per ciascuna di queste forme. ∂ Notiamo prima di tutto che dxi ∂t ≡ 0 implica che K(f dxi1 ∧ · · · ∧ dxik ) ≡ O . ∂ ) ≡ 1 implica Invece dt( ∂t
. K(f dt ∧ dx ∧ · · · ∧ dx i1
ik−1
t
f (p, s) ds dxi1 ∧ · · · ∧ dxik−1 .
)= t0
Inoltre, σ ∗ (dxj ) = dxj e σ ∗ (dt) = O, per cui π ∗ ◦ σ ∗ (f dxi1 ∧ · · · ∧ dxik ) = f (p, t0 ) dxi1 ∧ · · · ∧ dxik e π ∗ ◦ σ ∗ (f dt ∧ dxi1 ∧ · · · ∧ dxik−1 ) = O . Prendiamo ora ω = f dxi1 ∧ · · · ∧ dxik . Allora Kω = O; d’altra parte, dω =
n ∂f ∂f dxj ∧ dxi1 ∧ · · · ∧ dxik + dt ∧ dxi1 ∧ · · · ∧ dxik , j ∂x ∂t j=1
per cui .
t
(dK + Kd)ω = Kdω = t0
∂f (p, s) ds dxi1 ∧ · · · ∧ dxik ∂t
= f (p, t) dx ∧ · · · ∧ dxik − f (p, t0 ) dxi1 ∧ · · · ∧ dxik = ω − π ∗ ◦ σ ∗ (ω) , i1
e in questo caso (5.6) `e verificata. a notato che Sia infine ω = f dt ∧ dxi1 ∧ · · · ∧ dxik−1 . Abbiamo gi` ∗ π ◦ σ ∗ (ω) = O; inoltre
258
5 Coomologia
⎡
⎤ n ∂f Kdω = K ⎣− dt ∧ dxj ∧ dxi1 ∧ · · · ∧ dxik−1 ⎦ ∂xj j=1
=−
n .
t
t0
j=1
∂f (p, s) ds dxj ∧ dxi1 ∧ · · · ∧ dxik−1 . ∂xj
D’altra parte, 5.
6
t
f (p, s) ds dx ∧ · · · ∧ dx i1
dKω = d
ik−1
t0
= f dt ∧ dxi1 ∧ · · · ∧ dxik−1 n . t ∂f + (p, s) ds dxj ∧ dxi1 ∧ · · · ∧ dxik−1 j ∂x t 0 j=1 = ω − Kdω ,
per cui (5.6) `e verificata anche in questo caso. Come prima conseguenza otteniamo la coomologia di Rn :
Corollario 5.3.6 (Lemma di Poincar´ e). La coomologia di Rn `e data da + R se k = 0 , H k (Rn ) = O se k > 0 . Dimostrazione. Segue subito dall’Esempio 5.1.3 e dalla Proposizione 5.3.5, ragionando per induzione su n.
Usando la successione di Mayer-Vietoris ricaviamo anche la coomologia delle sfere e degli spazi proiettivi: Esempio 5.3.7 (Coomologia di S n ). Sia n ≥ 2 e scriviamo S n = U0 ∪ U1 , dove U0 = {x ∈ S n | xn+1 > −ε} ⊂ Rn+1
U1 = {x ∈ S n | xn+1 < ε}
e
per qualche ε > 0. Nota che U0 ∩ U1 `e diffeomorfo a S n−1 × R; quindi la Proposizione 5.3.5 implica H • (U0 ∩ U1 ) = H • (S n−1 ). Inoltre U0 e U1 sono diffeomorfi a Rn , per cui H • (U0 ) = H • (U1 ) = H • (Rn ). La successione di Mayer-Vietoris H k−1 (U0 ) ⊕ H k−1 (U1 )
/ H k−1 (U0 ∩ U1 )
d∗ /
H k (S n )
/ H k (U0 ) ⊕ H k (U1 )
diventa per k ≥ 2 :
O
/ H k−1 (S n−1 )
d∗
/ H k (S n )
/O
(5.7)
5.3 Il lemma di Poincar´e
per k = 1 :
R⊕R
∗ ι∗ 1 −ι0
/R
d∗
/ H 1 (S n )
/O
259
(5.8)
dove (ι∗1 − ι∗0 )(λ, μ) = μ − λ. In particolare, ι∗1 − ι∗0 `e surgettiva, per cui l’esattezza di (5.8) implica che d∗ `e il morfismo nullo; dovendo (sempre per l’esattezza) essere anche surgettivo, ne segue che H 1 (S n ) = O. L’esattezza della successione (5.7) ci dice invece che H k (S n ) = H k−1 (S n−1 ) per ogni k ≥ 2. Ragionando per induzione su n e usando l’Esempio 5.2.4 otteniamo infine + R se k = 0, n , H k (S n ) = O altrimenti. Esempio 5.3.8 (Coomologia degli spazi proiettivi reali). Fissato n ≥ 2, indichiamo con π: S n → Pn (R) la proiezione solita. con il di n Cominciamo ∗ • • n : H (R) → H (S ) `e iniettimostrare che il morfismo di pull-back π P n k ∗ vo. Sia [ω] ∈ H P (R) tale che π [ω] = O. Questo vuol dire che esiste k−1 una forma η˜ ∈ H (S n ) tale che π ∗ ω = d˜ η ; vogliamo trovare una forma n k−1 P (R) tale che ω = dη. η∈H Sia A: S n → S n l’applicazione antipodale A(p) = −p, e poniamo ηˆ =
1 (˜ η + A∗ η˜) . 2
Essendo A ◦ A =id ricaviamo A∗ ηˆ = ηˆ; quindi (vedi l’Esempio 4.2.16) esiste η ∈ H k−1 Pn (R) tale che ηˆ = π ∗ η. Inoltre da π ◦ A = π ricaviamo η= π ∗ dη = dˆ
1 1 1 (d˜ η + dA∗ η˜) = (π ∗ ω + A∗ d˜ η ) = (π ∗ ω + A∗ π ∗ ω) = π ∗ ω , 2 2 2
e l’iniettivit` a di π ∗ al livello delle forme (vedi l’Esercizio 4.3) implica ω = dη, come voluto. Una volta stabilito che π∗ : H • Pn (R) → H • (S n ) `e iniettivo, l’Esempio 5.3.7 ci dice subito che H k Pn (R) = O per k = 0, n. L’Osservazione 5.1.5 ci dice che H 0 Pn (R) = R; rimane da calcolare la coomologia in grado n. che H n (S n ) = R, sempre l’iniettivit` a di π ∗ ci dice che Ricordando n n o essere uguale solo a R oppure a O. Se n `e dispari, sappiaH P (R) pu` mo (Esempio 4.2.16) che Pn (R) `eorientabile; allora il Corollario 4.5.15.(i) del teorema di Stokes ci dice che H n Pn (R) = R. Infine, sia n pari; vogliamo dimostrare che H n Pn (R) = O. Usando l’i niettivit` a di π ∗ , questo `e equivalente a dire che per ogni ω ∈ An Pn (R) la forma π∗ ω ∈ H n (S n ) `e esatta. Fissiamo una forma di volume ν su S n . Allora il
0; in particolare, Sn l’applicazione non `e l’applicazione nulla. Ma dim H n (S n ) = 1; quindi Sn < `e un isomorfismo fra H n (S n ) e R. In altre parole, abbiamo dimostrato Sn < (perch´e?) che una n-forma η ∈ An (S n ) `e esatta se e solo se S n η = 0 (questo `e un caso particolare della dualit` a di Poincar´e che studieremo nella Sezione 5.6).
260
5 Coomologia
Tornando al nostro problema, dobbiamo dimostrare che A∗ π ∗ ω = π ∗ ω; quindi . . . π∗ ω = A∗ π ∗ ω = − π∗ ω , Sn
Sn
< Sn
π ∗ ω = 0. Ma
Sn
dove l’ultima uguaglianza segue dalla Proposizione 4.3.8 e dal fatto che quando n `e pari l’applicazione A inverte l’orientazione, come notato nell’Esem< pio 4.2.16. Quindi S n π ∗ ω = 0, come voluto, per cui ω `e esatta. Riassumendo, abbiamo dimostrato che + R se k = 0 oppure k = n con n dispari, H k Pn (R) = O altrimenti. Vedi l’Esercizio 5.2 per un altro modo di calcolare la coomologia di Pn (R) che usa direttamente la successione di Mayer-Vietoris.
5.4 Invarianza omotopica Torniamo ora alla situazione generale, dimostrando un’altra propriet` a importante della coomologia di de Rham: l’invarianza per omotopia. Definizione 5.4.1. Un’omotopia liscia fra due applicazioni differenziabili F0 , F1 : M → N `e un’applicazione differenziabile H: M × R → N tale che F0 = H(·, 0) e F1 = H(·, 1). In tal caso diremo che F0 e F1 sono C ∞ -omotope. Osservazione 5.4.2. Chiaramente, delle omotopie liscie ci interessa solo il comportamento su M × [0, 1]. Avremmo quindi potuto definire le omotopie liscie come applicazioni differenziabili definite su un intorno aperto U qualsiasi di M × [0, 1] in M × R, ma questo non ci avrebbe dato una definizione pi` u generale. Infatti, un tale intorno U contiene sempre un aperto della forma M × (−ε, 1 + ε), e non `e difficile (Esercizio 2.147) trovare un diffeomorfismo Ψ fra M × (−ε, 1 + ε) e M × R che sia l’identit` a su M × [0, 1]; quindi se H: M × (−ε, 1 + ε) → N `e un’omotopia liscia fra F e G, anche H ◦ Ψ −1 : M × R → N `e un’omotopia liscia fra F e G. Proposizione 5.4.3. Due applicazioni C ∞ -omotope inducono lo stesso morfismo in coomologia. Dimostrazione. Sia H: M × R → N un’omotopia liscia fra due applicazioni differenziabili F0 , F1 : M → N . Indichiamo con π: M × R → M la proiezione sul primo fattore, e con σ0 , σ1 : M → M × R le sezioni σj (p) = (p, j) per j = 0, 1. Notiamo che σ0∗ = σ1∗ in coomologia, in quanto (Teorema 5.3.5) sono entrambe uguali a (π ∗ )−1 ; inoltre, Fj = H ◦ σj per j = 0, 1. Quindi F0∗ = (H ◦ σ0 )∗ = σ0∗ ◦ H ∗ = σ1∗ ◦ H ∗ = (H ◦ σ1 )∗ = F1∗ , e ci siamo.
5.4 Invarianza omotopica
261
Definizione 5.4.4. Diremo che due variet` a M e N sono C ∞ -omotopicamente equivalenti se esistono due applicazioni differenziabili F : M → N e G: N → M a di N , rispettivatali che F ◦ G e G ◦ F siano C ∞ -omotope all’identit` mente M . Una variet` a C ∞ -omotopicamente equivalente a un punto `e detta C ∞ -contraibile. Definizione 5.4.5. Una retrazione liscia di una variet` a M su una sottovariet` a S `e un’applicazione differenziabile r: M → S che sia l’identit` a su S, cio`e tale che r ◦ ι: S → S sia l’identit` a di S, dove ι: S → M `e l’inclusione. Se esiste una retrazione liscia r di M su S diremo che S `e un retratto liscio a di M . Se inoltre la composizione ι ◦ r: M → M `e C ∞ -omotopa all’identit` di M diremo che r `e una retrazione di deformazione liscia e che S `e un retratto di deformazione liscio di M . Chiaramente in questo caso M e S sono C ∞ -omotopicamente equivalenti. Osservazione 5.4.6. Una retrazione liscia di una variet` a M pu` o essere definita anche come un’applicazione differenziabile ρ: M → M tale che ρ ◦ ρ = ρ. Non `e difficile dimostrare (vedi l’Esercizio 2.109) che l’immagine di una retrazione liscia ρ `e necessariamente una sottovariet`a chiusa di M su cui ρ `e l’identit` a, per cui siamo nel caso della precedente definizione. Corollario 5.4.7. Due variet` a C ∞ -omotopicamente equivalenti hanno coomologia di de Rham isomorfa. In particolare, se S `e un retratto di deformazione di M allora H • (M ) = H • (S). Dimostrazione. Segue subito dalla Proposizione 5.4.3.
Esempio 5.4.8. Vogliamo dimostrare che S n `e un retratto di deformazione liscio di Rn+1 \ {O}. Sia ρ: Rn+1 \ {O} → S n data da ρ(x) = x/x, e sia H: (Rn+1 \ {O}) × R → Rn+1 \ {O} data da x , H(x, t) = 1 − a(t) x + a(t) x dove a ∈ C ∞ (R) `e a(t) =
h(t) h(t) + h(1 − t)
(5.9)
e h ∈ C ∞ (R) `e la funzione data in (2.13), identicamente nulla sulla semiretta negativa e uguale a e−1/t nella semiretta positiva. Di conseguenza, a `e identicamente nulla nella semiretta negativa, identicamente uguale a 1 in [1, +∞), e cresce monotonicamente da 0 a 1 in [0, 1]. In particolare, H(0, x) = x e H(1, x) = ρ(x), per cui H `e un’omotopia liscia fra l’identit` a e ρ, come voluto. Osservazione 5.4.9. In realt` a vale un risultato molto pi` u forte del Corollario 5.4.7: variet` a C 0 -omotopicamente equivalenti hanno coomologia di de Rham isomorfa (dove la definizione di C 0 -equivalenza omotopica si ottiene
262
5 Coomologia
da quella di C ∞ -equivalenza omotopica usando applicazioni continue invece di applicazioni differenziabili). Infatti, si pu` o dimostrare che due variet`a sono C 0 -omotopicamente equivalenti se e solo se sono C ∞ -omotopicamente equivalenti (vedi l’Esercizio 5.20). In particolare, questo implica il teorema di de Rham: variet` a omeomorfe hanno coomologia di de Rham isomorfa. Noi dimostreremo il teorema di de Rham in altro modo (usando la coomologia dei fasci) nella Sezione 5.9. Concludiamo questa sezione con un’altra conseguenza del Teorema 5.3.5. L`ı abbiamo calcolato la coomologia di M × R a partire dalla coomologia di M . Ora, M × R pu` o essere pensato come un caso particolare di due costruzioni: un fibrato vettoriale su M , o un prodotto di M con un’altra variet` a. Il prossimo corollario ci dice come calcolare la coomologia dei fibrati vettoriali; nella Sezione 5.7 vedremo invece come calcolare la coomologia di un prodotto. Corollario 5.4.10. Sia π: E → M un fibrato vettoriale su una variet` a M. Allora π ∗ : H • (M ) → H • (E) `e un isomorfismo. Dimostrazione. Se identifichiamo M con l’immagine della sezione nulla in E, la proiezione π: E → M diventa la retrazione r(v) = Oπ(v) ; per la Proposizione 5.4.3 ci basta allora dimostrare che r `e una retrazione di deformazione di E. Sia a ∈ C ∞ (R) la funzione data in (5.9), che `e tale che a|(−∞,0] ≡ 0, a|[1,+∞) ≡ 1, e a|[0,1] : [0, 1] → [0, 1] `e un diffeomorfismo. Definiamo allora H: E × R → E ponendo H(v, t) = a(t)v; si vede subito che H `e un’omotopia liscia fra ι ◦ r e l’identit` a, dove ι `e l’inclusione della sezione nulla in E, e ci siamo.
5.5 Coomologia a supporto compatto Se M `e una n-variet` a< compatta orientabile senza bordo, il Teorema 4.5.12 di Stokes ci dice che dω = 0 per ogni (n − 1)-forma ω; quindi l’integrale M < : An (M ) → R assume uguale valore su n-forme coomologhe (cio`e che difM per una forma esatta), e quindi induce un’applicazione ben definita
5.5 Coomologia a supporto compatto
263
Siccome il differenziale esterno di una forma a supporto compatto `e ancora a supporto compatto, la restrizione d: A•c (M ) → A•c (M ) del differenziale esterno ad A•c (M ) rende A•c (M ) un complesso differenziale. Poniamo Zc• (M ) = Ker d|A•c (M ) e Bc• (M ) = Im d|A•c (M ) ; la corrispondente coomologia Hc• (M ) = Zc• (M )/Bc• (M ) `e detta coomologia a supporto compatto di M . a compatOsservazione 5.5.2. Chiaramente Hc• (M ) = H • (M ) per ogni variet` ta M ; ma su variet`a non compatte le due coomologie possono essere diverse. Infatti, una forma a supporto compatto `e chiusa se e solo se `e chiusa come forma tout-court, cio`e Zc• (M ) = Z • (M ) ∩ A•c (M ); ma una forma a supporto compatto esatta come forma non `e detto che sia esatta come forma a supporto compatto, in quanto potrebbe essere il differenziale esterno solo di forme non a supporto compatto. In particolare, Bc• (M ) potrebbe essere strettamente pi` u piccolo di B • (M ) ∩ A•c (M ). Esempio 5.5.3 (Coomologia a supporto compatto di R). Vogliamo calcolare la coomologia a supporto compatto di R, cominciando con Hc0 (R). Come per la coomologia di de Rham usuale, le 0-forme sono funzioni, l’unica 0-forma esatta `e la funzione nulla, e una 0-forma f `e chiusa se e solo se df ≡ 0, cio`e se e solo se `e costante. Ma l’unica funzione costante a supporto compatto in R `e la funzione nulla; quindi Hc0 (R) = O. Le 1-forme a supporto compatto su R sono tutte (banalmente) chiuse; vogliamo capire quando sono esatte come forme a supporto compatto. Supponiamo che si abbia ω = df , con f ∈ A0c (R); allora . . +∞ ω= f (t) dt = lim [f (t) − f (−t)] = 0 , R
−∞
t→+∞
perch´e f `e a supporto compatto (questo `e un caso molto particolare del teorema di<Stokes, ovviamente). Quindi l’integrale su R definisce un’applicazione lineare R : Hc1 (R) → R; vogliamo dimostrare che `e un isomorfismo. ` surgettiva: se f ∈ Cc∞ (R) `e una funzione non-negativa (non identicaE < < mente nulla) a supporto compatto, chiaramente R f dt > 0, per cui R non `e l’applicazione nulla (e dunque `e surgettiva,< essendo R di dimensione 1). ` iniettiva: sia ω = g dt ∈ A1c (R) con ω = 0; vogliamo dimostrare che E R ω = df per un’opportuna f ∈ Cc∞ (R). La funzione g ∈ Cc∞ (R) ha supporto compatto, contenuto diciamo nell’intervallo [a, b]. Poniamo . t g(s) ds ; f (t) = <
−∞
essendo R g dt = 0, segue che < f ha supporto compatto contenuto in [a, b], e chiaramente df = ω. Quindi R : Hc1 (R) → R `e un isomorfismo, e Hc1 (R) = R. Riassumendo, R se k = 1 , k Hc (R) = O se k = 1 .
264
5 Coomologia
Nota che il generatore naturale di Hc1 (R) `e rappresentato da una qualsiasi 1-forma a supporto compatto con integrale 1. Osservazione 5.5.4 (Coomologia a supporto compatto delle unioni disgiunte). Se M `e unione disgiunta di una famiglia {Mα } di aperti a due a due disgiunti, allora una forma ω ∈ A•c (M ) ha supporto (compatto) contenuto solo in un numero finito di Mα . Questo implica che Hc•
?
Mα
α
=
Hc• (Mα ) ,
α
che `e un comportamento diverso da quello della coomologia usuale visto nell’Osservazione 5.1.4. Osservazione 5.5.5 (Coomologia a supporto compatto 0-dimensionale). Il ragionamento fatto all’inizio dell’Esempio 5.5.3 mostra che Hc0 (M ) = O per ogni variet` a M connessa non compatta, e Hc0 (M ) = R per ogni variet` a M connessa compatta. > > > Pi` u in generale, sia M = la decomposizione α∈A Mα β∈B Mβ di una variet` a M in componenti connesse, dove le Mα sono compatte e le Mβ sono non compatte. Allora l’Osservazione 5.5.4 implica che Hc0 (M ) = R(A) , cio`e `e la somma diretta di tante copie di R quante sono le componenti connesse compatte. Osservazione 5.5.6. Se F : M → N `e di classe C ∞ e ω ∈ A•c (M ) `e una forma a supporto compatto, non `e detto che F ∗ ω sia ancora a supporto compatto, in quanto supp(F ∗ ω) = F −1 (supp ω). Quindi in generale l’operatore di pull-back sulla coomologia a supporto compatto `e definito solo per applicazioni proprie (vedi la Definizione 2.6.12), non per applicazioni differenziabili qualsiasi. Una conseguenza di questa osservazione `e che per definire una successione di Mayer-Vietoris per la coomologia a supporto compatto non possiamo usare il pull-back delle inclusioni (la restrizione a un aperto di una forma a supporto compatto non `e necessariamente a supporto compatto nell’aperto). Utilzzeremo allora un altro operatore, l’operatore di estensione, che non era disponibile per la coomologia usuale. Definizione 5.5.7. Sia U ⊆ M un aperto di una variet` a M , e indichiamo con j: U → M l’inclusione. L’operatore di estensione j∗ : A•c (U ) → A•c (M ) `e l’operatore che associa a una forma ω a supporto compatto in U la forma j∗ ω a supporto compatto in M ottenuta estendendo ω a zero fuori da U , cio`e (j∗ ω)p =
ωp O
se p ∈ U , se p ∈ / supp(ω).
5.5 Coomologia a supporto compatto
265
Sia U = {U0 , U1 } un ricoprimento aperto di una variet` a M composto di due soli aperti U0 , U1 ⊆ M . Usando l’operatore di estensione possiamo allora definire la successione di Mayer-Vietoris a supporto compatto A•c (M ) o
Oo
s
A•c (U0 ) ⊕ A•c (U1 ) o
δ
A•c (U0 ∩ U1 ) o
O, (5.10) dove s: A•c (U0 ) ⊕ A•c (U1 ) → A∗c (M ) `e definita da s(ω0 , ω1 ) = j∗ ω0 + j∗ ω1 , e δ: A•c (U0 ∩ U1 ) → A•c (U0 ) ⊕ A•c (U1 ) `e definita da δ(η) = (−j∗ η, j∗ η). Teorema 5.5.8. Sia U = {U0 , U1 } un ricoprimento aperto di una variet` a M. Allora la successione di Mayer-Vietoris a supporto compatto (5.10) `e esatta, e quindi induce una successione esatta lunga in coomologia ··· o
Hck (M ) o
Hck (U0 ) ⊕ Hck (U1 ) o
Hck−1 (M ) o
··· (5.11)
/ H k (U0 ∩ U1 )∗ d∗ / H k−1 (M )∗ c c
/ ··· (5.12)
Hck (U0 ∩ U1 ) o
d∗
Inoltre, anche la successione duale ···
/ H k (M )∗ c
/ H k (U0 )∗ ⊕ H k (U1 )∗ c c
∗
`e esatta. Dimostrazione. L’esattezza di (5.10) in A•c (U0 ∩ U1 ) `e evidente. Anche l’esattezza in A•c (U0 ) ⊕ A•c (U1 ) `e facile: s(ω0 , ω1 ) = O se e solo se j∗ ω0 = −j∗ ω1 , che accade se e solo se ω1 = j∗ η dove η ha supporto compatto contenuto in U0 ∩ U1 . Per dimostrare l’esattezza in A•c (M ), sia {ρ0 , ρ1 } una partizione dell’unit` a subordinata a U . Data ω ∈ A•c (M ), notiamo che ρ0 ω `e ben definita come forma a supporto compatto in U0 ; analogamente ρ1 ω ∈ A•c (U0 ). Inoltre, s(ρ0 ω, ρ1 ω) = (ρ0 + ρ1 )ω = ω , per cui (5.10) `e esatta. L’esistenza della successione esatta lunga (5.11) segue dal Teorema 5.1.23; l’esattezza della successione duale (5.12) segue dal Lemma 5.1.22.
Definizione 5.5.9. La successione (5.11) `e detta successione esatta lunga di Mayer-Vietoris a supporto compatto indotta dal ricoprimento {U0 , U1 }. Osservazione 5.5.10. Calcoliamo esplicitamente il morfismo di connessione d∗ in (5.11). Sia {ρ0 , ρ1 } una partizione dell’unit` a subordinata al ricoprimento aperto {U0 , U1 }, e sia [ω] ∈ Hck−1 (M ) rappresentata dalla forma chiusa ω ∈ Zck−1 (M ). La forma ω `e immagine tramite s∗ della coppia (ρ0 ω, ρ1 ω), il cui differenziale esterno `e d(ρ0 ω), d(ρ1 ω) . Notiamo che d(ρj ω) = dρj ∧ ω
266
5 Coomologia
in quanto ω `e chiusa, e che dρj ≡ O in M \ (U0 ∩ U1 ); quindi le forme d(ρj ω) sono a supporto compatto in U0 ∩ U1 , e d(ρ0 ω) = −d(ρ1 ω) in U0 ∩ U1 . Dunque d∗ [ω] `e rappresentato dalla forma chiusa τ ∈ A•c (U0 ∩ U1 ) data da τ = dρ1 ∧ ω = −dρ0 ∧ ω . Per arrivare a calcolare la coomologia a supporto compatto di Rn ci serve un risultato analogo al Teorema 5.3.5. Sia ! ∈ Hc1 (R) il generatore naturale della coomologia a supporto compatto di R; per quanto < visto nell’Esempio 5.5.3 questo vuol dire che ! = [e dt], dove e ∈ Cc∞ (R) e R e(t) dt = 1. Se M `e una variet` a, sia e∗ : Hc• (M ) → Hc•+1 (M × R) dato da e∗ ([η]) = [η] ∧ ! , dove (con un lieve abuso di notazione) a secondo membro stiamo indicando con ! e η il pull-back di queste forme rispetto alle proiezioni M × R → R e M × R → M . Allora: Teorema 5.5.11. Per ogni variet` a M il morfismo e∗ : Hc• (M ) → Hc•+1 (M ×R) `e un isomorfismo. Dimostrazione. Dobbiamo costruire un’inversa di e∗ . Cominciamo definendo (M ) ponendo π# : A•c (M × R) → A•−1 c . ∀ω ∈ Akc (M × R)
(π# ω)p = (−1)k−1
∞
−∞
∂ ω ∂t
dt , (p,t)
e π# f = O se f ∈ A0c (M × R) `e una 0-forma a supporto compatto. In altre parole, se ω ∈ Akc (M × R) e Y1 , . . . , Yk−1 ∈ T (M ) allora . ∞ ∂ , Y1 , . . . , Yk−1 dt , ω(p,t) π# ω(Y1 , . . . , Yk−1 )(p) = (−1)k−1 ∂t −∞ dove Y1 , . . . , Yk−1 e ∂/∂t sono considerati come campi vettoriali su M × R nel modo ovvio, e l’integrale `e ben definito perch´e ω `e a supporto compatto. Vogliamo dimostrare che π# `e un morfismo di cocatene, cio`e commuta col differenziale esterno, e che il morfismo π∗ : Hc• (M × R) → Hc•−1 (M ) indotto in coomologia `e l’inverso di e∗ . Cominciamo col dimostrare che π# `e un morfismo di cocatene. Siccome il differenziale esterno `e un operatore locale, possiamo lavorare usando coordinate locali (x1 , . . . , xn ) definite su un aperto U ⊆ M . Ora, ogni k-forma a supporto compatto in U × R si scrive in modo unico come combinazione lineare dei seguenti due tipi di forme: f dxi1 ∧ · · · ∧ dxik
e
f dxi1 ∧ · · · ∧ dxik−1 ∧ dt ,
5.5 Coomologia a supporto compatto
267
con f ∈ Cc∞ (M × R) (e, con il solito abuso di notazione, stiamo considerando (x1 , . . . , xn , t) come coordinate locali su U × R). In particolare, abbiamo π# (f dxi1 ∧ · · · ∧ dxik ) = O ∂ ) ≡ O, e perch´e dxi ( ∂t
. π# (f dxi1 ∧ · · · ∧ dxik−1 ∧ dt) =
∞
−∞
f (p, t) dt dxi1 ∧ · · · ∧ dxik−1 ,
∂ ) ≡ 1. perch´e dt( ∂t Sulle forme del primo tipo abbiamo quindi ⎛ ⎞ n ∂f π# d(f dxi1 ∧ · · · ∧ dxik ) = π# ⎝ dxj ∧ dxi1 ∧ · · · ∧ dxik ⎠ j ∂x j=1 ∂f i1 ik dt ∧ dx ∧ · · · ∧ dx +π# ∂t . ∞ ∂f (p, t) dt dxi1 ∧ · · · ∧ dxik = −∞ ∂t
= O = dπ# (f dxi1 ∧ · · · ∧ dxik ) , in quanto
.
∞ −∞
∂f (p, t) dt = lim f (p, t) − f (p, −t) = 0 t→+∞ ∂t
(5.13)
perch´e f `e a supporto compatto. Analogamente, sulle forme del secondo tipo, otteniamo π# d(f dxi1 ∧ · · · ∧ dxik−1 ∧ dt) ⎞ ⎛ n ∂f dxj ∧ dxi1 ∧ · · · ∧ dxik−1 ∧ dt⎠ = π# ⎝ j ∂x j=1 n . ∞ ∂f = (p, t) dt dxj ∧ dxi1 ∧ · · · ∧ dxik−1 j −∞ ∂x j=1
= dπ# (f dxi1 ∧ · · · ∧ dxik−1 ∧ dt) . Quindi π# ◦ d = d ◦ π# , e, come preannunciato, π# induce un morfismo graduato in coomologia π∗ : Hc• (M × R) → Hc•−1 (M ). Dobbiamo ora dimostrare che e∗ e π∗ sono uno inverso dell’altro. Indichia(M ) il morfismo di cocatene e# (η) = η ∧ e dt che mo con e# : A•c (M ) → A•+1 c induce in coomologia e∗ . Prima di tutto, osserviamo che π# (η ∧ e dt) = η
268
5 Coomologia
< per ogni η ∈ A•c (M ), perch´e R e(t) dt = 1; quindi π∗ ◦ e∗ = id. Dunque per far vedere che e∗ ◦ π∗ = id ci basta costruire un operatore di omotopia (M × R) fra id ed e# ◦ π# . Definiamo l’operatore K K: A•c (M × R) → A•−1 c ponendo . t . ∞ ∂ ∂ (Kω)(p,t) = ω ds − E(t) ω ds , ∂t ∂t −∞ −∞ (p,s) (p,s) dove
.
t
E(t) =
e(s) ds ; −∞
vogliamo verificare che dK + Kd = id −e# ◦ π# . Di nuovo, possiamo lavorare in coordinate locali, dove abbiamo K(f dxi1 ∧ · · · ∧ dxik ) = O e K(f dxi1 ∧ · · · ∧ dxik−1 ∧ dt) . t . f (p, s) ds − E(t) = (−1)k−1 −∞
∞
−∞
f (p, s) ds dxi1 ∧ · · · ∧ dxik−1 .
Cominciamo con ω = f dx ∧ · · · ∧ dx . Allora (5.13) ci d` a i1
ik
(dK + Kd)ω = Kdω ⎞ ⎛ n ∂f ∂f dxj ∧ dxi1 ∧ · · · ∧ dxik ⎠ = K ⎝(−1)k dxi1 ∧ · · · ∧ dxik ∧ dt + ∂t ∂xj j=1 . t . ∞ ∂f ∂f (p, s) ds − E(t) (p, s) ds dxi1 ∧ · · · ∧ dxik = −∞ ∂t −∞ ∂t = f (p, t) dxi1 ∧ · · · ∧ dxik = ω = (id −e# ◦ π# )ω , per cui in questo caso ci siamo. Prendiamo adesso ω = f dxi1 ∧ · · · ∧ dxik−1 ∧ dt. Allora . ∞ (id − e# ◦ π# )ω = ω − f (p, s) ds dxi1 ∧ · · · ∧ dxik−1 ∧ e dt ; 5.
−∞
t
f (p, s) ds − E(t)
dKω = (−1)k−1 d
−∞
k−1
= ω + (−1) . −
n . j=1
∞ −∞
t
−∞
.
∞
6 f (p, s) ds dxi1 ∧ · · · ∧ dxik−1
−∞
∂f (p, s) ds dxj ∧ dxi1 ∧ · · · ∧ dxik−1 ∂xj
f (p, s) ds dxi1 ∧ · · · ∧ dxik−1 ∧ e dt
5.6 La dualit` a di Poincar´e n .
∞
269
∂f (p, s) ds dxj ∧ dxi1 ∧ · · · ∧ dxik−1 ; j ∂x −∞ j=1 n ∂f j i1 ik−1 Kdω = K dx ∧ dx ∧ · · · ∧ dx ∧ dt ∂xj j=1 n . t ∂f k (p, s) ds dxj ∧ dxi1 ∧ · · · ∧ dxik−1 = (−1) ∂xj −∞ j=1 n . ∞ ∂f k −(−1) E(t) (p, s) ds dxj ∧ dxi1 ∧ · · · ∧ dxik−1 , j −∞ ∂x j=1 +(−1)k E(t)
e ci siamo anche in questo caso.
Come conseguenza otteniamo la coomologia a supporto compatto di Rn : Corollario 5.5.12 (Lemma di Poincar´ e per la coomologia a supporto compatto). La coomologia a supporto compatto di Rn `e data da R se k = n , Hck (Rn ) = O se k = n . Dimostrazione. Segue subito dall’Esempio 5.5.3 e dal Teorema 5.5.11, ragionando per induzione su n.
Osservazione 5.5.13. Sia e: R → R+ una funzione C ∞ a supporto compatto < con R e dt = 1, e poniamo ! = e(x1 ) · · · e(xn ) dx1 ∧ · · · ∧ dxn . < Allora ! ∈ Anc (Rn ) `e tale che Rn ! = 1, per cui il Corollario 4.5.15.(i) ci assicura che la classe [!] ∈ Hcn (Rn ) `e un generatore della coomologia a supporto compatto di Rn .
5.6 La dualit` a di Poincar´ e Il principale obiettivo di questa sezione `e dimostrare un’importante dualit` a fra la coomologia usuale e la coomologia a supporto compatto: la dualit` a di Poincar´e, una profonda conseguenza del teorema di Stokes che dice che i gruppi di coomologia possono essere canonicamente identificati con i duali dei gruppi di coomologia a supporto compatto. Ora, il Lemma 1.2.10 dice che per costruire un isomorfismo fra uno spazio vettoriale di dimensione finita e il duale di un altro `e sufficiente avere a disposizione una forma blineare non degenere; quindi vogliamo costruire un’applicazione bilineare non degenere definita su gruppi di coomologia di una variet` a M . Nella Sezione 5.1 abbiamo introdotto il prodotto cup fra due
270
5 Coomologia
classi di coomologia, come analogo in coomologia del prodotto esterno di forme. Siccome (controlla) il prodotto esterno di una forma qualsiasi con una forma a supporto compatto `e una forma a supporto compatto, il prodotto cup definisce un prodotto ∧: H h (M ) × Hck (M ) → Hch+k (M ) per ogni h, k ≥ 0. Supponiamo ora che M sia anche orientata (e senza bordo). Il Teore(M ) a supporto compatto si ma 4.5.12 ci assicura che per ogni η ∈ An−1 c ha . dη = 0 . M
Di conseguenza, l’integrazione < di n-forme a supporto compatto induce (perch´e?) un’operatore lineare M : Hcn (M ) → R. Mettendo insieme queste due cose, possiamo introdurre la seguente definizione: Definizione 5.6.1. Sia M una variet` a n-dimensionale orientata (senza bordo). Allora per ogni 0 ≤ k ≤ n indicheremo con . : H k (M ) ⊗ Hcn−k (M ) → R M
la forma bilineare data da
. (ω, η) →
ω∧η . M
Indicheremo con lo stesso simbolo anche il morfismo indotto . : H k (M ) → Hcn−k (M )∗ . M
< Il nostro obiettivo `e dimostrare che M `e un isomorfismo canonico fra H k (M ) e il duale di Hcn−k (M ). Il passo principale del ragionamento `e contenuto nella seguente Proposizione 5.6.2. Siano U , V ⊂ M due aperti di una variet` a n-dimensionale orientata M . Allora il diagramma ···
···
/
H k (U ∪V )
j∗
U ∪V
/ Hcn−k (U ∪V )∗
/
H k (U )⊕H k (V )
s∗
∗ ι∗ 1 −ι0
U + V
/ Hcn−k (U )∗ ⊕Hcn−k (V )∗
δ∗
/
/
d∗
H k (U ∩V )
/
U ∩V (d∗ )∗
Hcn−k (U ∩V )∗
/
H k+1 (U ∪V )
/ ···
U ∪V
Hcn−k−1 (U ∪V )∗
/ ···
ottenuto combinando la successione di Mayer-Vietoris (5.5) con la successione duale di Mayer-Vietoris a supporto compatto (5.12) `e commutativo a meno del segno.
5.6 La dualit` a di Poincar´e
271
Osservazione 5.6.3. Supponiamo di avere un diagramma A
/B
f
ϕ
C∗
ψ
/ D∗
g∗
,
(5.14)
dove ϕ `e indotta dalla forma bilineare · , · 1 : A × C → R e ψ `e indotta dalla forma bilineare · , · 2 : B × D → R. Allora (controlla) dire che il diagramma (5.14) `e commutativo a meno del segno `e equivalente a dire che a, g(d) 1 = ± f (a), d 2 per ogni a ∈ A e d ∈ D, dove il segno `e indipendente da a e d. Dimostrazione (della Proposizione 5.6.2). Grazie all’osservazione precedente, la commutativit` a nel quadrato a sinistra `e equivalente alla formula . . . ω ∧ (j∗ η1 + j∗ η2 ) = ω|U ∧ η1 + ω|V ∧ η2 , U ∪V
U
V
che `e verificata per ogni ω ∈ H k (U ∩ V ), η1 ∈ Hcn−k (U ) e η2 ∈ Hcn−k (V ). La commutativit` a nel quadrato centrale `e invece equivalente alla formula . . . ω1 ∧ (−j∗ η) + ω 2 ∧ j∗ η = (ω2 |U ∩V − ω1 |U ∩V ) ∧ η , U
V
U ∩V
chiaramente valida per ogni ω1 ∈ H k (U ), ω2 ∈ H k (V ) e η ∈ Hck (U ∩ V ). Infine, la commutativit`a a meno del segno nel quadrato a destra `e conseguenza della formula . . ω ∧ d∗ η = (−1)k+1 d∗ ω ∧ η , U ∩V
U ∪V
per ω ∈ H k (U ∩ V ) e η ∈ Hcn−k−1 (U ∪ V ), che dobbiamo dimostrare. Sia {ρU , ρV } una partizione dell’unit` a subordinata al ricoprimento {U, V }. Quanto visto nell’Osservazione 5.5.10 ci dice che . . . k ω ∧ d∗ η = ω ∧ dρV ∧ η = (−1) dρV ∧ ω ∧ η . U ∩V
U ∩V
U ∩V
D’altra parte, l’Osservazione 5.2.3 ci dice che . . d∗ ω ∧ η = − dρV ∧ ω ∧ η , U ∪V
e ci siamo.
U ∩V
272
5 Coomologia
Il diagramma della proposizione precedente ci permetter` a di dimostrare che se la dualit` a di Poincar´e vale per due aperti e per la loro intersezione allora vale anche per la loro unione; siccome la dualit` a di Poincar´e `e (grazie ai lemmi di Poincar´e) facile per Rn , la tesi seguir` a utilizzando un opportuno ricoprimento aperto della variet` a costituito da aperti diffeomorfi a Rn . Per realizzare questo programma ci serviranno due lemmi tecnici. Il primo `e di carattere algebrico: Lemma 5.6.4 (dei cinque). Sia dato il seguente diagramma commutativo di morfismi con le righe esatte: A
f1
α
A
/B
f2
/ B
f3
γ
β f1
/C
f2
/C
/D
f4
δ f3
/D
/E
f4
/ E
Supponiamo che β e δ siano degli isomorfismi. Allora: (i) se α `e surgettivo allora γ `e iniettivo; (ii) se ! `e iniettivo allora γ `e surgettivo. In particolare, se α, β, δ ed ! sono isomorfismi, anche γ `e un isomorfismo. Dimostrazione. (i) Sia = O. Essendo il diagramma com c ∈ C tale che γ(c) mutativo, abbiamo δ f3 (c) = f3 γ(c) = O; siccome δ `e un isomorfismo, otteniamo f3 (c) = O. L’esattezza implica c = f2 (b) per riga superiore della qualche b ∈ B; inoltre O = γ f2 (b) = f2 β(b) . Per l’esattezza della riga troviamo inferiore, esiste a ∈ A tale che β(b) = f1 (a ).Essendo α surgettivo, (a) . Ma β `e un a ∈ A tale che a = α(a); quindi β(b) = f1 α(a) = β f 1 isomorfismo; quindi b = f1 (a) e c = f2 (b) = f2 f1 (a) = O per l’esattezza della riga superiore, per cui γ `e iniettivo. (ii) Sia c ∈ C . Essendo δ un isomorfismo, esiste un unico d ∈ D tale che δ(d) = f3 (c a del diagramma e l’esattezza della riga la commutativit` ). Per inferiore, ! f4 (d) = f4 δ(d) = f4 f3 (c ) = O; essendo ! iniettivo, troviamo f4 (d) = O. Quindi esiste c ∈ C tale che f3 (c) = d. Di nuovo per lacommutativit` a del diagramma troviamo f3 (c ) = δ(d) = δ f3 (c) = f3 γ(c) ; quindi c − γ(c) ∈ Ker f3 . L’esattezza ci dice che esiste b ∈ B con f2 (b ) = c − γ(c); Infine, la commuessendo β un isomorfismo troviamo b ∈ B tale che b = β(b). tativit` a del diagramma assicura che γ f β(b) = f (b) = f 2 2 2 (b ) = c − γ(c),
per cui c = γ c + f2 (b) , e γ `e surgettiva. Il secondo invece riguarda la topologia delle variet`a: Lemma 5.6.5. Sia M una variet` a di dimensione n, e P una famiglia di sottoinsiemi aperti di M tale che: (i) ∅ ∈ P; (ii) se U1 , U2 , U1 ∩ U2 ∈ P allora U1 ∪ U2 ∈ P;
5.6 La dualit` a di Poincar´e
273
(iii) se {Uα } ⊂ P > `e una famiglia numerabile di aperti a due a due disgiunti di P allora α Uα ∈ P; (iv) se U ⊆ M `e diffeomorfo a Rn allora U ∈ P. Allora M ∈ P. Dimostrazione. La dimostrazione richiede diversi passi. (a) Se U1 , . . . , Uk ∈ P sono tali che tutte le loro intersezioni appartengono a P allora U1 ∪ · · · ∪ Uk ∈ P. Procediamo per induzione su k. Per k = 2 `e l’ipotesi (ii). Supponiamo sia vero per k − 1 aperti; in particolare, U = U1 ∪ · · · ∪ Uk−1 ∈ P. Sempre per ipotesi induttiva abbiamo U ∩ Uk =
k−1 (
Uj ∩ Uk ∈ P ;
j=1
quindi la propriet` a (ii) ci dice che U ∪ Uk ∈ P, come voluto. (b) Sia {Uj } ⊂ P una famiglia numerabile localmente finita di aperti a chiusura compatta contenuti in P, tale che tutte le intersezioni di un numero finito di elementi della famiglia appartengono a P; allora U = j Uj ∈ P. L’idea `e realizzare U come unione numerabile di elementi a due a due disgiunti di P e poi applicare (iii). Poniamo I0 = {0} e W0 = U0 . Poi per k > 0 definiamo per induzione un sottoinsieme Ik ⊂ N e un aperto Wk ponendo ( k−1 Ij Ik = {k} ∪ {j ∈ N | j > k, Uj ∩ Wk−1 = ∅} \ j=0
e Wk = j∈Ik Uk , con la convenzione che Wk = ∅ se Ik = ∅. Cominciamo col dimostrare, per induzione, che ogni Ik `e un insieme finito e che ogni Wk `e un aperto a chiusura compatta contenuto in P. Per k = 0 questo `e ovvio. Supponiamo sia vero per k − 1. In particolare, Wk−1 `e compatto; quindi interseca solo un numero finito di Uj con j ≥ k, in quanto la famiglia {Uj } `e localmente finita (vedi l’Esercizio 2.140). Di conseguenza Ik `e finito, per cui Wk , essendo un’unione finita di aperti a chiusura compatta, `e un aperto a chiusura compatta; inoltre appartiene a P, per la parte (a) se non `e vuoto, e per (i) se lo `e. Per costruzione, k Ik = N; quindi k Wk = U . Supponiamo ora che Wk ∩Wh = ∅ per qualche k > h; allora h = k−1. Infatti, se fosse Wk ∩Wh = ∅ per qualche h < k − 1, dovrebbe esistere j ≥ k > h + 1 con j ∈ Ik tale che Uj ∩ Wh = ∅; ma allora j ∈ I0 ∪ · · · ∪ Ih+1 , impossibile. Notiamo inoltre che Wk ∩ Wk−1 `e un’unione finita di intersezioni di coppie di elementi della famiglia {Uj }; quindi appartiene anch’esso a P grazie ad (a). Poniamo allora: ( ( Wp = W2j e Wd = W2j+1 . j∈N
j∈N
274
5 Coomologia
Sia Wp che Wd sono unione numerabile di elementi a due a due disgiunti di P; quindi, per la propriet` a (iii), appartengono a P. Infine, Wp ∩ Wd =
∞ (
W2j ∩ W2j−1
j=1
`e un’unione di elementi di P a due a due disgiunti; quindi anche U = Wp ∪ Wd appartiene a P, come richiesto. (c) Se (U, ϕ) `e una carta locale allora U ∈ P. Poniamo V = ϕ(U ) ⊆ Rn . Ragionando come nel Lemma 2.7.10 possiamo trovare un ricoprimento aperto localmente finito numerabile {Wj } di V tale che ogni Wj sia un policilindro, cio`e della forma Wj = (a1 , b1 ) × · · · × (an , bn ) per opportuni intervalli aperti limitati (a1 , b1 ), . . . , (an , bn ) ⊂ R; possiamo inoltre supporre che ciascun Wj abbia chiusura compatta contenuta in V . Un policilindro `e chiaramente diffeomorfo a Rn ; inoltre un’intersezione finita di policilindri `e ancora un policilindro, e quindi ogni intersezione finita dei Wj `e diffeomorfa a Rn . La famiglia {ϕ−1 (Wj )} `e allora un ricoprimento aperto numerabile localmente finito di U composto da aperti a chiusura compatta tali che ogni intersea (iv); zione finita `e diffeomorfa a Rn , e quindi appartenente a P per la propriet` allora (b) ci assicura che U ∈ P. (d) M ∈ P. Infatti, il Lemma 2.7.10 ci fornisce un atlante numerabile localmente finito {(Wβ , ϕβ )} con i Wβ a chiusura compatta. Siccome ogni intersezione finita non vuota di domini di carte locali `e ancora il dominio di una carta locale, (c) ci assicurache sia i Wβ sia le loro intersezioni finite appartengono
a P; ma allora M = β Wβ ∈ P grazie a (b), e abbiamo finito. Possiamo finalmente dimostrare la dualit` a di Poincar´e: Teorema 5.6.6 (Dualit` a di Poincar´ e). Sia M una variet` a n-dimensionale orientata. Allora per ogni 0 ≤ k ≤ n l’applicazione . : H k (M ) → Hcn−k (M )∗ (5.15) M
`e un isomorfismo. Dimostrazione. Sia ) < P = {∅} ∪ U ⊆ M U aperto e U : H k (U ) → Hcn−k (U )∗
* `e un isomorfismo per ogni 0 ≤ k ≤ n
la famiglia di aperti di M per cui la tesi `e vera; il nostro obiettivo `e dimostrare che M ∈ P. Chiaramente, per far ci` o `e sufficiente verificare che P soddisfa le condizioni (i)–(iv) del Lemma 5.6.5.
5.6 La dualit` a di Poincar´e
275
La condizione (i) `e ovvia; vediamo la condizione (ii). Siano U e V due aperti di M tali che U , V , U ∩ V ∈ P. La Proposizione 5.6.2 ci fornisce allora un diagramma commutativo (a meno del segno) della forma / Hk−1 (U ∩V) / Hk (U ∪V) / Hk (U )⊕Hk (V) / Hk (U ∩V) Hk−1 (U)⊕Hk−1 (V )
Hn−k+1 (U)∗ ⊕Hn−k+1 (V)∗ c c
/ Hn−k+1 (U ∩V)∗ / Hn−k (U ∪V)∗ / Hn−k (U)∗ ⊕Hcn−k (V)∗ / Hcn−k (U ∩V)∗ c c c
in cui la prima, seconda, quarta e quinta freccia verticale sono degli isomorfismi. Il Lemma 5.6.4 ci assicura allora che anche la terza freccia centrale `e un isomorfismo, per cui U ∪ V ∈ P come voluto. Per (iii), sia {Uk } una famiglia > numerabile di elementi a due a due disgiunti di P, e poniamo U = k Uk . Le Osservazioni 5.1.4e 5.5.4 ci di• cono che le restrizioni inducono isomorfismi r: H • (U ) → k H (Uk ) ed • • s: Hc (U ) → k Hc (Uk ); dato che il duale della somma diretta `e il prodotto diretto dei duali (vedi la Proposizione 1.1.20), abbiamo anche un isomorfismo s∗ : k Hc• (Uk )∗ → Hc• (U )∗ . Inoltre il diagramma /
r
H • (U )
k
H • (Uk )
U
Hcn−• (U )∗ o
s∗
k
k
Uk
Hcn−• (Uk )∗
< `e commutativo (controlla), dove k Uk `e il prodotto diretto delle applica< < zioni Uk (vedi l’Osservazione 1.1.7). Siccome, per ipotesi, ciascun Uk `e un isomorfismo fra H • (Uk ) e Hcn−• (Uk ), anche . . ∗ =s ◦ ◦r U
k
Uk
`e un isomorfismo, e quindi U ∈ P. Infine, per verificare (iv) ci basta (perch´e?) dimostrare la tesi per Rn . Grazie ai Lemmi di Poincar´e 5.3.6 e 5.5.12, `e sufficiente dimostrare che < n 0 : H (R ) → Hcn (Rn )∗ `e un isomorfismo; essendo< dominio e codominio Rn spazi vettoriali di dimensione 1, basta far vedere che M non `e l’applicazione nulla. Ma infatti se [!] ∈ Hcn (Rn ) `e il generatore introdotto nell’Osservazio< ne 5.5.13 e 1 ∈ H 0 (Rn ) allora il valore di M applicato a 1 e calcolato in [!] `e dato da . ! = 1 = 0 , Rn
e abbiamo finito.
276
5 Coomologia
Se M `e compatta, la coomologia a supporto compatto coincide con la coomologia usuale, e quindi la dualit` a di Poincar´e diventa: Corollario 5.6.7. Sia M una variet` a n-dimensionale orientata compatta. Allora per ogni 0 ≤ k ≤ n l’applicazione . : H k (M ) → H n−k (M )∗ M
`e un isomorfismo. Osservazione 5.6.8. Se i gruppi di coomologia di una variet` a n-dimensionale M hanno dimensione finita (per esempio se M `e compatta: vedi la Proposizione 5.8.3 nella prossima sezione) prendendo i duali otteniamo anche Hck (M ) ∼ = H n−k (M )∗ per ogni 0 ≤ k ≤ n. Questo non `e necessariamente vero se la coomologia non ha dimensione finita. Il problema `e dovuto al fatto che in generale il duale di un prodotto diretto di spazi vettoriali non > `e la somma diretta dei duali (Osservazione 1.1.21); di conseguenza, se M = α Mα `e un’unione disgiunta numerabile di n-variet` a di tipo finito, non `e detto che Hck (M ), che `e la somma diretta delle coomologie a supporto compatto degli Mα , sia isomorfa al duale di H n−k (M ), che `e il duale del prodotto diretto delle coomologie degli Mα . Concludiamo la sezione determinando la coomologia in dimensione massima. Corollario 5.6.9. Sia M una variet` a connessa di dimensione n. Allora: (i) se M `e orientabile e compatta allora H n (M ) = R; (ii) se M `e orientabile e non compatta allora H n (M ) = O; (iii) se M non `e orientabile allora H n (M ) = O; (iv) se M `e orientabile allora Hcn (M ) = R; (v) se M non `e orientabile allora Hcn (M ) = O. Dimostrazione. Le parti (i) e (ii) seguono subito da H n (M ) ∼ = Hc0 (M )∗ e dall’Osservazione 5.5.5. ˜ → M il rivestimento orientabile a due fogli dato Per la parte (iii), sia π: M ˜ →M ˜ l’automorfismo non banale del rivedalla Proposizione 4.2.19, e A: M stimento, che sappiamo invertire l’orientazione. Prima di tutto, dimostriamo ˜ ) `e iniettivo. (procedendo come nell’Esempio 5.3.8) che π ∗ : H n (M ) → H n (M n ∗ ˜) Sia ω ∈ A (M ) tale che π [ω] = O; questo vuol dire che esiste η˜ ∈ An (M 1 ∗ ∗ η . Poniamo ηˆ = 2 (˜ η + A η˜). Essendo A ◦ A = id, otteniamo tale che π ω = d˜ A∗ ηˆ = ηˆ; quindi (Esercizio 4.2) esiste η ∈ An−1 (M ) tale che ηˆ = π ∗ η. Infine, η = π ∗ dη, l’iniettivit` a di π ∗ da π ◦ A = π ricaviamo dˆ η = π ∗ ω; essendo dˆ al livello delle forme (Esercizio 4.3) ci dice che ω = dη, cio`e [ω] = O, come voluto.
5.7 Il teorema di K¨ unneth
277
˜ lo `e, e quindi (iii) in questo caso segue Se M non `e compatta, neanche M ˜ da (ii). Se M `e compatta, anche M lo `e, per cui dobbiamo ragionare ancora a di π ∗ in coomologia, un poco. Prendiamo ω ∈ An (M ); grazie all’iniettivit` ˜ . Ora, per dimostrare che [ω] = O basta far vedere che [π ∗ ω] = O in M ∗ ∗ ∗ A π ω = π ω; siccome A inverte l’orientazione, la Proposizione 4.3.8 ci dice che . . . ∗ ∗ ∗ π ω=− A π ω=− π∗ ω , <
˜ M
˜ M
˜ M
˜ implica che a di Poincar´e per M per cui M˜ π ∗ ω = 0. Ma allora la dualit` ∗ [π ω] = O, e ci siamo. Per (iv) e (v), se M `e compatta non c’`e nulla di nuovo da dire; supponiamo allora che M non sia compatta. Se `e orientabile, Hcn (M )∗ `e isomorfo a H 0 (M ) = R, per cui (iv) segue. Se M non `e orientabile, otteniamo (v) ragionando esattamente come in (iii); l’unica osservazione da fare `e che siccome ˜ ) = R ha dimensione finita, in questo caso l’integrazione su M ˜ fornisce Hcn (M n ˜ 0
anche un isomorfismo fra Hc (M ) e il duale di H (M ).
5.7 Il teorema di K¨ unneth Obiettivo di questa sezione `e calcolare la coomologia del prodotto di due spazi a partire dalla coomologia dei fattori, usando un procedimento analogo a quello usato per dimostrare la dualit` a di Poincar´e. Non ti stupir` a che per farlo abbiamo bisogno di ulteriori definizioni e lemmi algebrici. Lemma 5.7.1. Sia W uno spazio vettoriale di dimensione finita, e V uno spazio vettoriale qualsiasi. Sia poi {e1 , . . . , en } una base di W , dove n = dim W . Allora elemento α ∈ V ⊗ W esistono unici v 1 , . . . , v n ∈ V tali che nper ogni j α = j=1 v ⊗ ej . r Dimostrazione. Ogni α ∈ V ⊗W si pu` o scrivere nella forma α = k=1 v k ⊗wk per opportuni v k ∈ V , wk ∈ W e r ∈ N. Scrivendo wk = j ajk ej otteniamo r n j k α= ak v ⊗ ej , j=1
k=1
e l’esistenza `e dimostrata. Per l’unicit` a, `e sufficiente dimostrare che j v j ⊗ ej = O implica v h = O per h = 1, . . . , n. Ma infatti se {e1 , . . . , en } `e la base duale di W ∗ per ogni h = 1, . . . , n abbiamo ∀φ ∈ V ∗
φ(v h ) =
r
v j ⊗ ej (φ, eh ) = 0 ,
j=1
e quindi v h = O.
278
5 Coomologia
Corollario 5.7.2. Sia {Vα }α una famiglia di spazi vettoriali, e W uno spazio vettoriale di dimensione finita. Allora e canonicamente isomorfo α (Vα ⊗W ) ` a ( α Vα ) ⊗ W . Dimostrazione. Fissata . , en } di W , il Lemma 5.7.1 ci assicura una base {e1 , . . che l’applicazione Ψ : α (Vα ⊗ W ) → ( α Vα ) ⊗ W definita ponendo ⎞ ⎞ ⎛⎛ n n vαj ⊗ ej ⎠ ⎠ = (vαj )α ⊗ ej Ψ ⎝⎝ j=1
j=1
α
`e un isomorfismo, e si verifica facilmente (controlla) che Ψ `e indipendente dalla base scelta.
Lemma 5.7.3. Sia U
f
/V
/Z
g
una successione esatta di spazi vettoriali, e W uno spazio vettoriale di dimensione finita. Allora la successione U ⊗W
f ⊗id
/ V ⊗W
g⊗id
/ Z ⊗W
`e ancora esatta. Dimostrazione. Sia α ∈ Ker(g ⊗ id); dobbiamo trovare β ∈ U ⊗ W tale che f ⊗ id(β) = α. Data una base {e1 , . . . , e n } di W , il Lemma 5.7.1 ci dice che esistono unici v 1 , . . . , v n ∈ V tali che α = j vj ⊗ ej . Siccome O = g ⊗ id(α) =
n
g(v j ) ⊗ ej ,
j=1
sempre il Lemma 5.7.1 ci assicura che g(v 1 ), . . . , g(vn ) ∈ Ker g; quindi esistonou1 , . . . , un ∈ U tali che f (uj ) = v j per j = 1, . . . , n. Allora ponendo β = j uj ⊗ ej otteniamo f ⊗ id(β) = α, e ci siamo.
Quello che vogliamo dimostrare `e che la coomologia di un prodotto cartesiano `e (sotto opportune ipotesi) il prodotto tensoriale delle coomologie. Definizione 5.7.4. Il prodotto tensoriale di due spazi vettoriali graduati A• e B • `e lo spazio vettoriale graduato A• ⊗ B • definito da (A• ⊗ B • )n = Ap ⊗ B q p+q=n
per ogni n ∈ N. E ora possiamo enunciare e dimostrare il teorema di K¨ unneth.
5.7 Il teorema di K¨ unneth
279
Teorema 5.7.5 (K¨ unneth). Siano M ed N due variet` a, e supponiamo che N abbia coomologia di dimensione finita. Allora H • (M × N ) = H • (M ) ⊗ H • (N ) , cio`e
H k (M × N ) =
H p (M ) ⊗ H q (N )
(5.16)
p+q=k
per 0 ≤ k ≤ dim M + dim N . Dimostrazione. Se U ⊆ M `e aperto, indichiamo con π1 : U × N → M e π2 : U × N → N le proiezioni sui due fattori. Definiamo poi un morfismo ψ U : A• (U ) ⊗ A• (N ) → A• (U × N ) ponendo ψ U (ω ⊗ η) = π1∗ ω ∧ π2∗ η , ed estendendo per linearit` a. Si verifica subito (controlla) che ψU manda • • • Z (U )⊗Z (N ) in Z (U ×N ), e B • (U )⊗Z • (N ) e Z • (U )⊗B • (N ) in B • (U ×N ), per cui ψ U induce un morfismo in coomologia ψ∗U : H • (U ) ⊗ H • (N ) → H • (U × N ) ; il nostro obiettivo `e dimostrare che ψ∗M `e un isomorfismo. Poniamo ) P = {∅} ∪ U ⊆ M | U aperto e ψ∗U isomorfismo} ; se dimostriamo che P soddisfa le propriet` a (i)–(iv) del Lemma 5.6.5 abbiamo finito. La propriet` a (i) `e ovvia. Per (ii), siano U , V ⊆ M aperti, e supponiamo che U , V , U ∩ V ∈ P; vogliamo dimostrare che U ∪ V ∈ P. Fissiamo n ≥ 0, e sia 0 ≤ p ≤ n. Dalla successione di Mayer-Vietoris ···
/ H p (U ∪ V )
/ H p (U ) ⊕ H p (V )
/ H p (U ∩ V )
/ H p+1 (U ∪ V )
/ ···
tensorizzando per H n−p (N ) otteniamo la successione ···
/ H p (U ∪ V ) ⊗ H n−p (N )
/ H p (U ) ⊗ H n−p (N ) ⊕ H p (U ) ⊗ H n−p (N )
/ H p (U ∩ V ) ⊗ H n−p (N )
/ H p+1 (U ∪ V ) ⊗ H n−p (N )
/ ···
che `e ancora esatta grazie al Lemma 5.7.3, in quanto H n−p (N ) ha dimensione finita. Sommando su p otteniamo quindi la successione esatta ···
/
n
H p (U ∪V )⊗H n−p (N )
p=0
/
n p=0
/
n H p (U )⊗H n−p (N ) ⊕ H p (U )⊗H n−p (N ) p=0
H p (U ∩V )⊗H n−p (N )
/
n p=0
H p+1 (U ∪V )⊗H n−p (N )
/
···
280
5 Coomologia
Se riusciamo a dimostrare che il diagramma
n
.. .
.. .
ψ∗U ∪V
H p (U ∪V )⊗H n−p (N )
/
p=0
H n (U ∪V )×N
ψ∗U ⊕ψ∗V n / H n (U ×N )⊕H n (V ×N ) H p (U )⊗H n−p (N ) ⊕ H p (V )⊗H n−p (N )
p=0
n
ψ∗U ∩V
H (U ∩V )⊗H n−p (N ) p
p=0
/
n
ψ∗U ∪V
H p+1 (U ∪V )⊗H n−p (N )
p=0
/
H n (U ∩V )×N
H n+1 (U ∪V )×N
.. .
.. .
`e commutativo, il lemma dei cinque (Lemma 5.6.4) ci dir` a che U ∪ V ∈ P, e avremo ottenuto la propriet` a (ii). L’unico quadrato la cui commutativit` a non `e ovvia `e n
H p (U ∩ V ) ⊗ H n−p (N )
ψ∗U ∩V
p=0 d∗ ⊗id n
/ H n (U ∩ V ) × N d∗
H p+1 (U ∪ V ) ⊗ H n−p (N )
ψ∗U ∪V
p=0
.
/ H n+1 (U ∪ V ) × N
Prendiamo [ω] ⊗ [η] ∈ H p (U ∩ V ) ⊗ H n−p (N ). Allora ψ∗U ∪V (d∗ ⊗ id)([ω] ⊗ [η]) = π1∗ d∗ [ω] ∧ π2∗ [η] e
7 8 d∗ ψ∗U ∪V ([ω] ⊗ [η]) = d∗ π1∗ ω ∧ π2∗ η .
Sia {ρU , ρV } una partizione dell’unit` a subordinata al ricoprimento {U, V } a subordinata di U ∪ V , in modo che {π1∗ ρU , π1∗ ρV } sia una partizione dell’unit` al ricoprimento {U × N, V × N } di (U ∪ V ) × N . Ricordando la formula per d∗ ottenuta nell’Osservazione 5.2.3 troviamo 8 7 8 7 d∗ π1∗ ω ∧ π2∗ η = d (π1∗ ρU )π1∗ ω ∧ π2∗ η = [dπ1∗ (ρU ω)] ∧ π2∗ [η] = π1∗ [d(ρU ω)] ∧ π2∗ [η] = π1∗ d∗ [ω] ∧ π2∗ [η] come voluto, dove abbiamo utilizzato il fatto che η `e chiusa.
5.8 Il principio di Mayer-Vietoris
281
Abbiamo quindi dimostrato la propriet` a (ii). Per la propriet` a (iii), sia {Uα } ⊂ P una famiglia numerabile di elementi di P a due a due disgiunti. In particolare abbiamo l’isomorfismo α
ψ∗Uα :
H • (Uα × N ) . H • (Uα ) ⊗ H • (N ) →
α
α
Essendo H • (N ) di dimensione finita, il Corollario ci fornisce un isomor 5.7.2 fismo canonico Ψ : ( α H • (Uα )) ⊗ H • (N ) → α H • (Uα ) ⊗H • (N ) . Inoltre, > l’Osservazione implica che possiamo identificare α H • (Uα ) con 5.1.4 > • • • H ( α Uα ), e α H (Uα × N ) con H (( α Uα ) × N ). Combinando queste identificazioni otteniamo un isomorfismo ? ? Uα • • • ψ∗ Uα ⊗ H (N ) → H Uα × N , ◦ Ψ: H α
α
α
e si vede immediatamente (controlla) che questo isomorfismo coincide con U a (iii). ψ∗ α α , per cui abbiamo dimostrato anche la propriet` Rimane da dimostrare la propriet`a (iv), che `e equivalente a dire che ψ∗R : H • (Rn ) ⊗ H • (N ) → H • (Rn × N ) n
`e un isomorfismo. Ora, H • (Rn ) = R; quindi H • (Rn ) ⊗ H • (N ) = H • (N ), n n e l’applicazione ψ∗R si riduce a ψ∗R (η) = π2∗ η, che `e un isomorfismo per il Corollario 5.4.10. Abbiamo quindi dimostrato che la famiglia P gode delle propriet` a (i)–(iv) ∗ del Lemma 5.6.5; quindi M ∈ P, cio`e ψM `e un isomorfismo, come voluto.
Esempio 5.7.6. La formula (5.16) non vale senza una qualche ipotesi di dimensione finita sulla coomologia di uno dei fattori. Infatti, prendiamo per esempio M = N = N. Allora H 0 (M × N ) `e lo spazio di tutte le matrici infinite {aij }i,j,∈N con coefficienti in R, mentre H 0 (M ) ⊗ H 0 (N ) `e lo spazio delle somme finite di matrici di rango 1. Siccome una somma finita di matrici di rango 1 ha rango finito, mentre H 0 (M × N ) contiene matrici di rango infinito, H 0 (M × N ) `e strettamente pi` u grande di H 0 (M ) ⊗ H 0 (N ).
5.8 Il principio di Mayer-Vietoris I ragionamenti fatti nell’Esempio 5.3.7 e nelle dimostrazioni della dualit` a di Poincar´e e del teorema di K¨ unneth suggeriscono che, usando la successione di Mayer-Vietoris, potrebbe essere possibile ricostruire la coomologia di una variet` a partendo dalla combinatoria di un atlante con domini delle carte diffeomorfi a Rn e con intersezioni controllate. Lo strumento tecnico che permette di realizzare questo programma `e quello di ricoprimento aciclico.
282
5 Coomologia
Definizione 5.8.1. Un ricoprimento aciclico (o ricoprimento di Leray) di una variet` a n-dimensionale M `e un ricoprimento aperto {Uα } di M tale che ogni intersezione finita non vuota Uα0 ∩ · · · ∩ Uαr ha coomologia banale, nel senso che R se k = 0 , H k (Uα0 ∩ · · · ∩ Uαr ) = O se k > 0 , non appena Uα0 ∩ · · · ∩ Uαr = ∅. Una variet` a con un ricoprimento aciclico finito sar` a detta di tipo finito. Esempio 5.8.2. Se V ⊆ Rn `e un aperto di Rn , nel corso della dimostrazione del Lemma 5.6.5 abbiamo costruito un ricoprimento W = {Wj } di V costituito da policindri. Siccome un’intersezione finita non vuota di policilindri `e sempre un policilindro, e i policilindri sono diffeomorfi a Rn , il ricoprimento W `e un ricoprimento aciclico. Pi` u in generale, se (U, ϕ) `e una carta locale e {Wj } `e un ricoprimento aciclico di V = ϕ(U ), per esempio costruito con policilindri, allora {ϕ−1 (Wj )} `e un ricoprimento aciclico di U . Infine, un ricoprimento in cui ogni intersezione finita `e C ∞ -contraibile `e un ricoprimento aciclico. L’idea `e che, siccome la coomologia di qualsiasi intersezione finita di aperti di un ricoprimento aciclico `e banale, l’uso di successioni di Mayer-Vietoris per unioni di aperti del ricoprimento potrebbe ricondurre la coomologia della variet` a alla combinatoria delle intersezioni degli aperti del ricoprimento. Per poter effettivamente usare questa idea sar` a necessario introdurre un macchinario algebrico che permetta di gestire successioni di Mayer-Vietoris che coinvolgono pi` u di due aperti; ma come primo esempio di applicazione di questa idea mostriamo che variet`a di tipo finito hanno coomologia di de Rham di dimensione finita. Proposizione 5.8.3. La coomologia di de Rham una variet` a di tipo finito `e di dimensione finita. Dimostrazione. Sia U = {U0 , . . . , Ur } un ricoprimento aciclico finito di M , e procediamo per induzione su r. Se r = 1 la tesi `e ovvia. Supponiamo allora la tesi vera per tutte le variet` a con un ricoprimento aciclico composto da r − 1 aperti, e poniamo U = U1 ∪ · · · ∪ Ur−1 e V = Ur . Per ipotesi induttiva, le coomologie di U e di V hanno dimensione finita. Inoltre, {U1 ∩ Ur , . . . , Ur−1 ∩ Ur } `e un ricoprimento aciclico di U ∩V composto da r −1 aperti; quindi anche la coomologia di U ∩V ha dimensione finita. Dalla successione di Mayer-Vietoris ···
/ H k−1 (U ∩ V )
deduciamo
d∗
/ H k (U ∪ V )
r
/ H k (U ) ⊕ H k (V )
H k (U ∪ V ) ∼ = Ker r ⊕ Im r ∼ = Im d∗ ⊕ Im r .
/ ···
5.8 Il principio di Mayer-Vietoris
283
Siccome H k (U ), H k (V ) e H k−1 (U ∩ V ) hanno dimensione finita, allora anche Im d∗ e Im r, e quindi H k (U ∪ V ) = H k (M ), hanno dimensione finita, ed `e fatta.
Esempio 5.8.4. Sia M = R2 \ (N × {0}). Essendo M connesso, H 0 (M ) = R; vogliamo dimostrare che invece H 1 (M ) ha dimensione infinita, per cui M non `e di tipo finito. Cominciamo facendo vedere il seguente fatto: se U e V sono due aperti connessi con intersezione connessa e tale che H 1 (U ∩ V ) = O allora H 1 (U ∪ V ) = H 1 (U ) ⊕ H 1 (V ). Infatti, la successione di Mayer-Vietoris in questo caso ci d`a R⊕R
∗ ι∗ 1 −ι0
/R
d∗
/ H 1 (U ∪ V )
j∗
/ H 1 (U ) ⊕ H 1 (V )
/O,
dove (ι∗1 − ι∗0 )(λ, μ) = μ − λ. In particolare, ι∗1 − ι∗0 `e surgettiva, per cui d∗ `e l’applicazione nulla. Ma allora, sempre per l’esattezza, j∗ `e iniettiva e surgettiva, cio`e un isomorfismo. Definiamo ora i seguenti aperti: U = (−∞, 3/4) × R \ {(0, 0)} e
V = (1/4, +∞) × R \ {(n, 0) | n ≥ 1} .
Si vede facilmente (controlla) che V `e diffeomorfo a M . Invece, U `e diffeomorfo a R2 \{(0, 0)} (Esercizio 2.148), che ha S 1 come retratto di deformazione liscio (Esempio 5.4.8); quindi H 0 (U ) = H 1 (U ) = R. Inoltre U ∩ V `e una striscia verticale, per cui `e diffeomorfa a R2 e H 1 (U ∩ V ) = O. Essendo U ∪ V = M , il fatto appena dimostrato ci dice che H 1 (M ) = H 1 (U ) ⊕ H 1 (V ) = R ⊕ H 1 (M ) . Se H 1 (M ) avesse dimensione finita, questo chiaramente non potrebbe accaa di dere; quindi H 1 (M ) deve avere dimensione infinita, e M non `e una variet` tipo finito. Una domanda naturale a questo punto `e quando esistono ricoprimenti aciclici. La risposta `e: sempre. Per enunciare il risultato preciso, e perch´e ci servir` a in seguito, premettiamo una definizione. Definizione 5.8.5. Un insieme diretto `e un insieme I con un ordine parziale ≤ tale che per ogni a, b ∈ I esiste c ∈ I con c ≤ a e c ≤ b. Un sottoinsieme J ⊆ I `e cofinale se per ogni i ∈ I esiste j ∈ J tale che j ≤ i. Esempio 5.8.6. L’insieme dei ricoprimenti aperti di uno spazio topologico `e un insieme diretto rispetto all’ordine parziale V ≤ U se e solo se V `e un raffinamento di U , perch´e due ricoprimenti aperti U = {Uα } e V = {Vβ } hanno U ∩ V = {Uα ∩ Vβ } come raffinamento comune.
284
5 Coomologia
Esempio 5.8.7. Un altro esempio di insieme diretto che ci servir`a in seguito `e dato dalla famiglia degli intorni aperti di un punto in uno spazio topologico, rispetto all’ordine parziale dato dall’inclusione. In particolare, un sistema fondamentale di intorni `e esattamente un sottoinsieme cofinale. Possiamo quindi enunciare il teorema che ci assicura l’esistenza dei ricoprimenti aciclici: Teorema 5.8.8. Ogni variet` a ha un ricoprimento aciclico; in particolare, le variet` a compatte sono di tipo finito. Pi` u precisamente, i ricoprimenti aciclici sono cofinali nell’insieme di tutti i ricoprimenti aperti di una variet` a, rispetto all’ordine parziale dato dalla relazione di raffinamento. Vedremo la dimostrazione completa di questo teorema solo nella Sezione 7.3, quando introdurremo delle tecniche di geometria Riemanniana (vedi il Teorema 7.3.6). Lo strumento tecnico che permetter`a la dimostrazione di questo teorema `e quello di aperto geodeticamente convesso, che `e l’analogo per le variet`a Riemanniane del concetto di aperto convesso di Rn . In breve, un aperto di una variet` a Riemanniana `e geodeticamente convesso se contiene ` quindi chiaro che la geodetica che congiunge due qualsiasi dei suoi punti. E l’intersezione di due aperti geodeticamente convessi `e geodeticamente convesso; siccome si pu`o dimostrare che, esattamente come accade per gli aperti convessi, un aperto geodeticamente convesso `e C ∞ -contraibile, ne segue che un ricoprimento formato da aperti geodeticamente convessi `e aciclico. Inoltre, vedremo anche che ogni punto di una variet` a ha un sistema fondamentale d’intorni costituito da aperti geodeticamente convessi; quindi ogni ricoprimento aperto ha un raffinamento costituito da aperti geodeticamente convessi, e questo ci assicura che i ricoprimenti aciclici non solo esistono ma sono cofinali. Per estendere gli argomenti basati sulla successione di Mayer-Vietoris dal caso di ricoprimenti composti da due (o da un numero finito di) aperti al caso di ricoprimenti numerabili qualunque ci serviranno alcuni nuovi concetti di Algebra Omologica. Definizione 5.8.9. Un complesso doppio `e una terna (K •,• , d, δ) composta da un gruppo abeliano (spazio vettoriale, eccetera) K •,• con una doppia graduazione, cio`e che si decompone in una somma diretta K •,• =
K p,q
p,q∈N
di sottogruppi (sottospazi, eccetera), e da due morfismi d, δ: K → K che soddisfano le seguenti propriet` a: p,q p,q+1 p,q e δ(K ) ⊆ K p+1,q per ogni p, q ∈ N; (i) d(K ) ⊆ K (ii) d ◦ d = O e δ ◦ δ = O; (iii) d ◦ δ = δ ◦ d.
5.8 Il principio di Mayer-Vietoris
285
In altre parole, un complesso doppio `e un diagramma commutativo
d
K 0,2 O
d δ
d
K 0,1 O
d
/ K 1,2 O
δ
d δ
d
K 0,0
.. .O
.. .O
.. .O
δ
/ ···
δ
/ ···
δ
/ ···
d
/ K 1,1 O
δ
d δ
/ K 2,2 O / K 2,1 O d
/ K 1,0
δ
/ K 2,0
in cui sia le righe che le colonne sono complessi differenziali. Se a ∈ K p,q , diremo che a ha bigrado (p, q). C’`e un modo naturale per associare a un complesso doppio (K •,• , d, δ) un • complesso differenziale. Prima di tutto, sia K = n∈N K n ottenuto ponendo Kn =
K p,q .
p+q=n
Poi definiamo D: K • → K •+1 ponendo D|K p,q = δ + (−1)p d . Allora D(K n ) ⊆ K n+1 , e per ogni φ ∈ K p,q si ha D D(φ) = D δφ + (−1)p dφ = δδφ + (−1)p+1 dδφ + (−1)p δdφ + ddφ = O ; quindi D ◦ D = O e (K • , D) `e un complesso differenziale. Definizione 5.8.10. Sia (K •,• , d, δ) un complesso doppio. Il complesso differenziale (K • , D) appena definito `e il complesso differenziale indotto da (K •,• , d, δ). La coomologia del complesso doppio (K •,• , d, δ) `e per definizione • la coomologia HD (K) del complesso (K • , D) indotto. Osservazione 5.8.11. Un elemento φ ∈ K n `e, per definizione, una somma φ = φ0,n + φ1,n−1 + · · · + φn−1,1 + φn,0 con φp,q ∈ K p,q . Quindi Dφ = dφ0,n + (δφ0,n − dφ1,n−1 ) + · · · + (δφn−1,1 + (−1)n dφn,0 ) + δφn,0 , per cui
286
5 Coomologia
(Dφ)p,q
⎧ ⎨ dφ0,n = δφp−1,q + (−1)p dφp,q−1 ⎩ n,0 δφ
se p = 0 e q = n + 1 ; se 0 < p < n + 1 e q = n + 1 − p ; se p = n + 1 e q = 0 .
In particolare,
Dφ = O
⇐⇒
⎧ ⎨ dφ0,n = O , δφp,q = (−1)p dφp+1,q−1 ⎩ n,0 δφ = O ;
per 0 ≤ p < n ,
(5.17)
e
φ = Dη
⇐⇒
⎧ ⎨ φ0,n = dη 0,n−1 , φp,q = δη p−1,q + (−1)p dη p,q−1 ⎩ n,0 φ = δη n−1,0 .
per 0 < p < n , (5.18)
Una utile conseguenza di queste formule `e il Lemma 5.8.12. Sia (K •,• , d, δ) un complesso doppio con righe esatte. Allon (K) `e rappresentata da un elemento ra ogni classe di coomologia [ω] ∈ HD 0,n ω∈K che `e d-chiuso e δ-chiuso. Dimostrazione. Sia ω0 = ω 0,n + · · · + ω n,0 ∈ K n un D-cociclo rappresentante [ω]. Siccome Dω0 = O, la (5.17) ci dice che δω n,0 = O; l’esattezza delle righe implica quindi che esiste φ ∈ K n−1,0 tale che ω n,0 = δφ. Poniamo ω1 = ω0 − Dφ; allora ω1 `e ancora un D-cociclo rappresentante [ω], ma senza componente in K n,0 . La (5.17) dice allora che la componente in K n−1,1 di ω1 `e δ-chiusa; l’esattezza delle righe implica che `e anche δ-esatta, e quindi come prima possiamo sottrarre a ω1 un D-cobordo in modo da ottenere un rappresentante di [ω] senza componenti n´e in K n,0 n´e in K n−1,1 . Procedendo in questo modo otteniamo un rappresentante ω ∈ K 0,n di [ω]; e, usando ancora (5.17), da Dω ˜ = O deduciamo dω = O e δω = O, ed `e fatta.
Un complesso doppio con righe esatte pu` o essere usato per calcolare la coomologia di un complesso differenziale inserito come colonna iniziale del complesso doppio, formando un complesso doppio aumentato: Definizione 5.8.13. Un complesso doppio aumentato `e dato da un complesso doppio (K •,• , d, δ), un complesso differenziale (A• , d) e un morfismo r: A• → K •,• che soddisfano le seguenti condizioni: (i) (ii) (iii) (iv)
r(Aq ) ⊆ K 0,q per ogni q ∈ N; r `e iniettivo; r ◦ d = d ◦ r; δ ◦ r = O.
5.8 Il principio di Mayer-Vietoris
287
In altre parole, un complesso doppio aumentato `e un diagramma commutativo
d
O
d
/ A2 O
r
d
O
d δ
d
/ A1 O
r
d
O
/ K 0,2 O / K 0,1 O
r
/ K 0,0
/ K 1,2 O
d δ
d δ
d
/ A0
.. .O
.. .O
.. .O
.. .O
/ K 1,1 O / K 1,0
δ
/ ···
δ
/ ···
δ
/ ···
d δ
d δ
/ K 2,2 O / K 2,1 O d
δ
/ K 2,0
in cui sia le righe che le colonne sono complessi differenziali. Teorema 5.8.14. Sia r: (A• , d) → (K •,• , d, δ) un complesso doppio aumen• tato a righe esatte. Allora r induce un isomorfismo fra H • (A) e HD (K). Dimostrazione. Siccome D ◦ r = (δ + d) ◦ r = d ◦ r = r ◦ d , il morfismo r `e un morfismo di cocatene, e quindi induce un morfismo • (K) in coomologia; vogliamo dimostrare che r ∗ `e un isor∗ : H • (A) → HD morfismo. n (K). Per il Lemma 5.8.12, possiamo trovare un δ-cociclo e Sia [ω] ∈ HD 0,n rappresentante [ω]. L’esattezza delle righe ci fornisce allora d-cociclo ω ∈ K un φ ∈ An tale che r(φ) = ω. Inoltre r(dφ) = dr(φ) = dω = O; essendo r iniettivo troviamo dφ = O. Quindi φ `e un d-cociclo tale che r∗ [φ] = [ω], per cui r∗ `e surgettiva. Per dimostrare che r ∗ `e iniettivo, sia [φ] ∈ H n (A) tale che r ∗ [φ] = O. Questo vuol dire che dφ = O e r(φ) = Dη per un opportuno η ∈ K n−1 . Siccome r(φ) ∈ K 0,n , la (5.18) ci dice che δη n−1,0 = O. L’esattezza delle righe ci fornisce ψ ∈ K n−2,0 tale che δψ = η n−1,0 , e quindi sottraendo Dψ a η possiamo supporre che η n−1,0 = O. Procedendo in questo modo, possiamo trovare η˜ ∈ K 0,n−1 tale che D˜ η = r(φ). In particolare, δ η˜ = O, per cui l’esattezza delle righe ci fornisce ψ ∈ An−1 tale che r(ψ) = η˜. Quindi r(dψ) = Dr(ψ) = D˜ η = r(φ), per cui l’iniettivit` a di r implica φ = dψ. Dunque [φ] = O e r∗ `e iniettivo, come voluto.
Vogliamo applicare questo risultato per calcolare la coomologia di de Rham di una variet` a generalizzando la successione di Mayer-Vietoris al caso di un ricoprimento aperto numerabile. Per far ci` o abbiamo bisogno di costruire un complesso doppio aumentato.
288
5 Coomologia
Definizione 5.8.15. Sia U = {Uα }α∈J un ricoprimento aperto numerabile (o finito) di una variet` a M , dove J `e un insieme ordinato. Per r ∈ N e α0 , . . . , αr ∈ J poniamo Uα0 ...αr = Uα0 ∩ · · · ∩ Uαr . Per p, q ∈ N poniamo
C p (U, Aq ) =
Aq (Uα0 ...αp ) .
α0 <···<αp
Osservazione 5.8.16. Un elemento φ ∈ C p (U, Aq ) `e quindi ottenuto assegnando una q-forma φα0 ...αp su ciascuna intersezione di p+1 aperti Uα0 , . . . , Uαp ∈ U con α0 < · · · < αp . Per convenzione, dato φ ∈ C p (U, Aq ) definiremo φα0 ...αp anche quando gli indici non sono ordinati ponendo φατ (0) ...ατ (p) = sgn(τ )φα0 ...αp
(5.19)
per ogni permutazione τ ∈ Sp ; in particolare φα0 ...αp = O non appena αi = αj per qualche i = j. Il differenziale esterno induce un differenziale d: C p (U, Aq ) → C p (U, Aq+1 ) agendo componente per componente. Per avere un complesso doppio, ci serve un differenziale orizzontale. Lemma 5.8.17. Sia U = {Uα } un ricoprimento aperto numerabile di una variet` a M . Per ogni φ ∈ C p (U, Aq ) poniamo (δφ)α0 ...αp+1 =
p+1
(−1)j (φα0 ... αj ...αp+1 )|Uα0 ...αp+1 ,
(5.20)
j=0
dove l’accento circonflesso indica l’omissione di un indice. Allora φ → δφ definisce un differenziale δ: C p (U, Aq ) → C p+1 (U, Aq ) che commuta con d. Dimostrazione. Per vedere che δ ◦ δ = O basta osservare che (δ 2 φ)α0 ...αp+2 =
p+2
(−1)j (δφ)α0 ... αj ...αp+2
j=0
p+2 j−1
=
(−1)j (−1)i φα0 ... αi ... αj ...αp+2
j=0 i=0
+
p+2 p+2
(−1)j (−1)i−1 φα0 ... αj ... αi ...αp+2
j=0 i=j+1
=
(−1)i+j φα0 ... αi ... αj ...αp+2
0≤i<j≤p+2
−
0≤j
=O,
(−1)i+j φα0 ... αj ... αi ...αp+2
5.8 Il principio di Mayer-Vietoris
289
dove per semplicit`a di scrittura abbiamo omesso le restrizioni. Infine, che si abbia d ◦ δ = δ ◦ d `e ovvio.
Osservazione 5.8.18. Possiamo usare (5.20) per definire δ anche senza supporre che gli indici siano ordinati; infatti se φ soddisfa (5.19) anche δφ lo soddisfa. Chiaramente, `e sufficiente verificarlo per le trasposizioni. Omettendo nuovamente di scrivere le restrizioni abbiamo (δφ )α0 ...αh ...αk ...αp+1 =
h−1
(−1)j φα0 ... αj ...αh ...αk ...αp+1
j=0
+(−1)h φα0 ...αh ...αk ...αp+1 +
k−1
(−1)j φα0 ...αh ... αj ...αk ...αp+1
j=h+1 k
+(−1) φα0 ...αh ...αk ...αp+1 +
p+1
(−1)j φα0 ...αh ...αk ... αj ...αp+1
j=k+1
=−
h−1
(−1)j φα0 ... αj ...αk ...αh ...αp+1
j=0
+(−1)h (−1)k−h+1 φα0 ...αk ...αh ...αp+1 −
k−1
(−1)j φα0 ...αk ... αj ...αh ...αp+1
j=h+1
+(−1)k (−1)h−k+1 φα0 ...αk ...αh ...αp+1 −
p+1
(−1)j φα0 ...αk ...αh ... αj ...αp+1
j=k+1
= −(δφ)α0 ...αk ...αh ...αp+1 , come voluto. Definizione 5.8.19. Sia U un ricoprimento aperto numerabile di una variet` a M . Il complesso doppio C • (U, A• ), d, δ) `e detto complesso doppio di Mayer-Vietoris associato al ricoprimento U. Per applicare il Teorema 5.8.14 dobbiamo aumentare il complesso doppio di Mayer-Vietoris. Sia r: A• (M ) → C 0 (U, A• ) il morfismo dato da r(ω)α = ω|Uα per ogni α ∈ J. L’iniettivit` a di r segue subito dal fatto che U `e un ricoprimento. Inoltre δr(ω) α α = (ω|Uα1 − ωUα0 )|Uα0 α1 = O ; 0 1 quindi r: A• (M ), d → C • (U, A• ), d, δ `e un complesso doppio aumentato. Definizione 5.8.20. Sia U un ricoprimento aperto numerabile di una va riet` a M . Il complesso doppio aumentato r: A• (M ), d → C • (U, A• ), d, δ) `e detto complesso doppio aumentato di Mayer-Vietoris associato al ricoprimento U.
290
5 Coomologia
Il principio di Mayer-Vietoris dichiara allora che il complesso doppio aumentato di Mayer-Vietoris ha righe esatte: Teorema 5.8.21. Sia U un ricoprimento aperto numerabile di una variet` a M. Allora il complesso doppio aumentato di Mayer-Vietoris associato a U ha righe esatte. In particolare, il morfismo r: A• (M ) → C • (U, A• ) induce un isomorfismo fra la coomologia di de Rham H • (M ) di M e la coomologia del complesso doppio di Mayer-Vietoris. Dimostrazione. Dobbiamo dimostrare che, per ogni q ≥ 0, la successione O
/ Aq (M )
/ C 0 (U, Aq )
r
δ
/ C 1 (U, Aq )
δ
/ C 2 (U, Aq )
/ ···
a di r; l’esattezza in C 0 (U, Aq ) `e esatta. L’esattezza in Aq (M ) `e l’iniettivit` segue da δ ◦ r = O e dal fatto che se φ ∈ C 0 (U, Aq ) `e tale che δφ = O ˜ U = φα si ottiene una q-forma globale φ˜ ∈ Aq (M ) tale che allora ponendo φ| α ˜ r(φ) = φ. Grazie al Corollario 5.3.4, per dimostrare l’esattezza del resto della successione basta trovare un morfismo graduato K: C • (U, Aq ) → C •−1 (U, Aq ) di grado −1 tale che δ ◦ K + K ◦ δ = id. Scegliamo una partizione dell’unit` a {ρα } subordinata al ricoprimento U, e per φ ∈ C p (U, Aq ) poniamo j∗ (ρα φαα0 ...αp−1 ) , (Kφ)α0 ...αp−1 = α
dove j∗ `e l’operatore di estensione (Definizione 5.5.7) da Uα ∩ Uα0 ...αp−1 a Uα0 ...αp−1 . Allora (δKφ)α0 ...αp =
p
(−1)j (Kφ)α0 ... αj ...αp
j=0 p
=
(−1)j j∗ (ρα φαα0 ... αj ...αp ) ;
j=0 α
(Kδφ)α0 ...αp =
j∗ ρα (δφ)αα0 ...αp
α
=
α
ρα φα0 ...αp +
p
(−1)j+1 j∗ (ρα φαα0 ... αj ...αp )
α j=0
= φα0 ...αp − (δKφ)α0 ...αp , e ci siamo. L’ultima affermazione segue dal Teorema 5.8.14.
Il motivo che rende questo risultato utile `e che la coomologia del complesso doppio di Mayer-Vietoris associato a un ricoprimento aciclico dipende solo
5.8 Il principio di Mayer-Vietoris
291
dalla combinatoria delle intersezioni degli aperti del ricoprimento. Per vederlo, cominciamo col notare che a ogni complesso doppio (K •,• , d, δ) possiamo ˜ δ) ˜ ottenuto scambiando righe e ˜ •,• , d, associare un altro complesso doppio (K colonne, cio`e ponendo ˜ p,q = K q,p , K
˜ ˜ p,q = (−1)p δ d| K
e
˜ ˜ p,q = (−1)q d . δ| K
˜ p,q = K q,p troviamo ˜ • = K • ; inoltre se φ ∈ K Chiaramente, K ˜ = (−1)q dφ + δφ = Dφ ; ˜ + (−1)p dφ ˜ = δφ Dφ ˜ δ) ˜ hanno esattamente la stessa coomologia. ˜ •,• , d, quindi (K •,• , d, δ) e (K ˜ δ) ˜ equivale ad aggiun˜ •,• , d, Inoltre, aumentare il complesso doppio (K gere una riga iniziale al complesso doppio originale, cio`e ad avere un complesso differenziale (C • , δ) e un morfismo graduato i: C • → K •,• tali che il diagramma .. .. .. .O .O .O d
K 0,2 O
d δ
d
K 0,1 O
O
/ K 1,1 O
δ
/ K 1,0 O / C1 O O
δ
/ ···
/ K 2,1 O
δ
/ ···
δ
/ ···
δ
/ ···
d δ
i δ
/ K 2,2 O d
δ
d
i
CO 0
δ
d δ
d
K 0,0 O
/ K 1,2 O
d
/ K 2,0 O i
δ
/ C2 O O
sia commutativo con righe e colonne che sono complessi differenziali. Il Teorema 5.8.14 quindi ci dice che se le colonne di questo complesso aumentato sono esatte allora la coomologia del complesso doppio K •,• `e isomorfa alla coomologia del complesso C • . Una scelta naturale per il complesso C • `e C p = Ker(d|K p,0 ), usando come differenziale la restrizione del differenziale δ del complesso doppio, e codoppio di me morfismo i: C • → K •,0 l’inclusione. Nel caso del complesso Mayer-Vietoris, il nucleo del differenziale d in C p U, A0 `e composto dalle funzioni localmente costanti (cio`e costanti sulle componenti connesse delle intersezioni Uα0 ...αp ). Questo ci porta alla seguente definizione:
292
5 Coomologia
Definizione 5.8.22. Sia U = {Uα } un ricoprimento aperto numerabile di una variet` a M . Per p ≥ 0 indichiamo con C p (U, R) = Ker d|C p (U,A0 ) ⊂ C p (U, A0 ) lo spazio vettoriale delle funzioni localmente costanti sulle intersezioni di p + 1 elementi del ricoprimento. Il complesso differenziale C • (U, R), δ `e detˇ ˇ • (U, R) `e la to complesso di Cech del ricoprimento U, e la sua coomologia H ˇ coomologia di Cech del ricoprimento U. ` importante notare che la coomologia di Cech ˇ E di un ricoprimento dipende soltanto dalla combinatoria del ricoprimento, cio`e dalla struttura delle intersezioni dei vari aperti del ricoprimento. Abbiamo quindi il seguente diagramma commutativo: .. .O
.. .O
d
/ A2 (M ) O
O
d r
/ C 0 (U, A2 ) O
d
/ A1 (M ) O
O
r
/ C 0 (U, A1 ) O
/ A0 (M )
δ
/ C 0 (U, A0 ) O
δ
/ C 1 (U, A2 ) O
δ
δ
/ C 1 (U, A1 ) O
δ
O
δ
/ ···
/ C 2 (U, A1 ) O
δ
/ ···
δ
/ ···
δ
/ ···
d
/ C 1 (U, A0 ) O
δ
i δ
/ C 2 (U, A2 ) O d
d
i
C 0 (U, R) O
d
d
d r
.. .O
d
d
d
O
.. .O
/ C 2 (U, A0 ) O i
/ C 1 (U, R) O
δ
O
/ C 2 (U, R) O O
ˇ Nota che il complesso di Cech non `e necessariamente esatto; e infatti in ˇ generale la coomologia di Cech del ricoprimento U non `e banale. Esempio 5.8.23. Supponiamo che U = {Uα }α∈J sia un ricoprimento aperto numerabile di una variet` a M , composto da aperti connessi. Un elemento φ ∈ C 0 (U, R) `e dato dall’assegnazione di un numero reale φα ∈ R per ogni α ∈ J. Quindi δφ = O se e solo se φα = φβ ogni volta che Uα ∩ Uβ = ∅. Seˇ 0 (U, R) = RA , dove A `e l’insieme delle componenti connesse gue subito che H di M ; confronta con l’Osservazione 5.1.5. La colonna p-esima del complesso doppio di Mayer-Vietoris aumentato con ˇ il complesso di Cech `e quindi O
/ C p (U, R)
i
/ C p (U, A0 )
d
/ C p (U, A1 )
d
/ C p (U, A2 )
/ ···
5.9 Coomologia dei fasci e teorema di de Rham
293
Questa successione `e esatta in C p (U, R) e C p (U, A0 ) per costruzione. L’ostruzione all’esattezza della successione in C p (U, Aq ) per q ≥ 1 `e invece data dai gruppi di coomologia q-esima delle intersezioni di p + 1 elementi di U. Di conseguenza, se U `e un ricoprimento qualsiasi non `e detto che le colonne del complesso doppio di Mayer-Vietoris siano esatte, per cui la coomologia ˇ di Cech di U non `e necessariamente isomorfa alla coomologia del complesso doppio di Mayer-Vietoris. Ma se U `e un ricoprimento aciclico, allora la coomologia di tutte le intersezioni `e banale; quindi le colonne del complesso doppio di Mayer-Vietoris sono ˇ esatte, e il Teorema 5.8.14 dice che la coomologia di Cech di un ricoprimento aciclico `e isomorfa alla coomologia del complesso doppio. Ma il Teorema 5.8.21 implica che quest’ultima `e sempre isomorfa alla coomologia di de Rham della variet` a; quindi abbiamo dimostrato: ˇ Corollario 5.8.24. La coomologia di Cech di un ricoprimento aciclico di una variet` a M `e sempre isomorfa alla coomologia di de Rham di M . Osservazione 5.8.25. In particolare, due ricoprimenti aciclici di una variet` a ˇ hanno sempre coomologie di Cech isomorfe. Il Corollario 5.8.24 non ci permette ancora di dedurre che la coomologia di de Rham `e un invariante topologico di una variet` a, in quanto il concetto di ricoprimento aciclico `e ancora un concetto differenziale e non topologico (la definizione `e formulata in termini della coomologia di de Rham delle intersezioni). Per` o nella prossima sezione vedremo che, in realt`a, la coomologia di ˇ Cech di un ricoprimento aciclico `e un invariante topologico della variet` a; e questo implicher` a che anche la coomologia di de Rham lo `e, e avremo dimostrato il teorema di de Rham.
5.9 Coomologia dei fasci e teorema di de Rham ˇ La costruzione della coomologia di Cech di un ricoprimento `e un caso particolare di una costruzione molto pi` u generale, che descriveremo in questa sezione. Iniziamo introducendo una nozione fondamentale nella geometria contemporanea. Definizione 5.9.1. Un prefascio F su uno spazio topologico X `e un’applicazione che associa a ogni aperto U ⊆ X un gruppo (spazio vettoriale, modulo, anello, eccetera) F (U ), detto il gruppo delle sezioni di F su U , e a ogni inU U clusione di aperti ιU V : U → V un morfismo F (ιV ) = ρV : F (V ) → F (U ), detto restrizione, in modo che le seguenti propriet` a siano soddisfatte: (a) ρU = id per ogni aperto U ⊆ X; U U V U (b) ρU V ◦ ρW = ρW ogni volta che U ⊆ V ⊆ W ⊆ X.
294
5 Coomologia
Se s ∈ F(V ) e U ⊆ V , spesso scriveremo s|U per ρU V (s). Un prefascio F `e detto fascio se sono inoltre soddisfatte tre ulteriori condizioni: (c) F(∅) = {e}, il gruppo banale; (d) se {Uj }j∈J `e un ricoprimento aperto dell’aperto U ⊆ X, e s, t ∈ F(U ) sono tali che s|Uj = t|Uj per tutti i j ∈ J, allora s = t (in altre parole, le sezioni sono univocamente definite dalle loro restrizioni locali); (e) se {Uj }j∈J `e un ricoprimento aperto dell’aperto U ⊆ X, e sj ∈ F(Uj ) sono sezioni tali che si |Ui ∩Uj = sj |Ui ∩Uj per ogni i, j ∈ J, allora esiste s ∈ F(U ) tale che s|Uj = sj per ogni j ∈ J (in altre parole, sezioni locali compatibili si incollano). A volte si usa la notazione Γ (U, F) per indicare F (U ). Gli elementi di F (X) sono detti sezioni globali di F. L’Esercizio 5.54 spiega l’utilizzo della parola “sezione” in questo contesto. Esempio 5.9.2. Sia M una variet` a. Allora possiamo definire un fascio EM associando a ogni aperto U ⊆ M l’anello EM (U ) = C ∞ (U ) delle funzioni differenziabili definite su U , e a ogni inclusione di aperti l’operatore di restrizione. Il fascio EM (a volte indicato con C ∞ ) `e detto fascio dei germi di funzioni differenziabili su M ; nell’Esempio 5.9.9 giustificheremo questa terminologia. Osservazione 5.9.3. In modo analogo si pu` o definire il fascio dei germi di funzioni C k per qualsiasi k ∈ N, o il fascio ApM dei germi di k-forme su M , o il fascio dei germi di funzioni analitiche reali su una variet` a analitica reale, o il fascio O delle funzioni olomorfe su una variet` a complessa. Esempio 5.9.4. Sia G un gruppo qualsiasi. Il fascio banale di gruppo G su uno spazio topologico X `e ottenuto assegnando (all’insieme vuoto il gruppo banale e) a ciascun aperto U di X il gruppo delle funzioni localmente costanti su U a valori in G (cio`e il gruppo delle funzioni continue da U a G, dove consideriamo G con la topologia discreta), e usando come ρU V per ogni coppia di aperti U ⊆ V ⊆ X l’operatore di restrizione delle funzioni da V a U . Esempio 5.9.5. Sia F il prefascio su R che associa a ogni aperto U ⊆ R l’anello delle funzioni continue limitate su U , e a ogni inclusione di aperti l’operatore di restrizione. In questo caso F `e un prefascio ma non un fascio, in quanto la propriet` a (e) non `e soddisfatta: se Uj = (−j, j) per j ∈ N, allora le sezioni sj = idR |Uj ∈ F(Uj ) sono compatibili ma non sono la restrizione di alcuna sezione globale s ∈ F(R). Definizione 5.9.6. Un morfismo f : F → G fra due (pre)fasci F e G su uno spazio topologico X `e una collezione di morfismi fU : F (U ) → G(U ) che comU mutano con le restrizioni: G(ιU V ) ◦ fV = fU ◦ F (ιV ) per ogni coppia di aperti U ⊆ V ⊆ X. Un isomorfismo di fasci `e un morfismo invertibile (cio`e tale che fU sia invertibile per ogni aperto U ⊆ X). Un fascio costante `e un fascio isomorfo a un fascio banale.
5.9 Coomologia dei fasci e teorema di de Rham
295
Dato un fascio F su uno spazio topologico X, `e possibile associare in modo unico un gruppo (spazio vettoriale, eccetera) Fx a ogni punto x ∈ X, generalizzando a (pre)fasci qualsiasi la costruzione dei germi di funzioni differenziabili che abbiamo studiato nella Sezione 2.3. Per farlo ci serve il concetto di limite diretto di gruppi. Definizione 5.9.7. Un sistema diretto di gruppi `e dato da una famiglia {Gi }i∈I di gruppi, indicizzata da un insieme diretto I, corredato da morfismi fji : Gj → Gi definiti per ogni coppia di indici i ≤ j, che soddisfano le condizioni seguenti: (i) fii = idGi per ogni i ∈ I; (ii) fji ◦ fkj = fki per ogni tripla di elementi i ≤ j ≤ k in I. Il limite diretto (o limite induttivo) − lim → Gi del sistema diretto {Gi }i∈I `e il i∈I
quoziente lim −→ Gi = i∈I
?
@ Gi ∼
i∈I
> dell’unione disgiunta i∈I Gi rispetto alla relazione d’equivalenza ∼ definita dicendo che gi ∈ Gi `e equivalente a gj ∈ Gj se esiste k ≤ i, j tale che fik (gi ) = fjk (gj ) in Gk ; si verifica facilmente (Esercizio 5.50) che ∼ `e una relazione d’equivalenza. Inoltre, − lim → Gi ha una naturale struttura di gruppo: i∈I
se [gi ], [gj ] ∈ lim −→ Gi sono rappresentati rispettivamente da gi ∈ Gi e gj ∈ Gj , i∈I
allora poniamo [gi ] · [gj ] = [fik (gi ) · fjk (gj )] , dove k ≤ i, j. Di nuovo, si verifica facilmente (Esercizio 5.50) che quest’operazione `e ben definita e determina una struttura di gruppo. Infine, indicheremo con fj : Gj → lim −→ Gi la composizione fra l’inclusione i∈I > di Gj in i∈I Gi e la proiezione naturale sul quoziente. Se gi ∈ Gi , spesso scriveremo [gi ] invece di fi (gi ). Se F `e un (pre)fascio di gruppi su uno spazio topologico X, per ogni x ∈ X otteniamo un sistema diretto di gruppi prendendo la famiglia {F (U )}, indicizzata dagli aperti U ⊆ X contenenti x (che `e un insieme diretto rispetto all’inclusione, come visto nell’Esempio 5.8.7), con i relativi morfismi di restrizione; quindi possiamo considerarne il limite diretto. Definizione 5.9.8. Sia F un (pre)fascio su uno spazio topologico X e x ∈ X. Il limite diretto Fx del sistema diretto di gruppi {F (U )}, indicizzato dagli aperti contenenti x, `e detto spiga di F in x, e gli elementi di Fx sono detti germi di sezioni di F in x. a Esempio 5.9.9. La spiga in un punto p ∈ M del fascio EM su una variet` ∞ differenziabile M coincide (perch´e?) con l’anello CM (p) dei germi di funzioni differenziabili in p.
296
5 Coomologia
Osservazione 5.9.10. L’Esercizio 5.54 descrive come mettere una topologia sull’unione disgiunta delle spighe di un fascio in modo che le sezioni locali possano essere interpretate come funzioni continue a valori in questa unione disgiunta. ˇ Il nostro prossimo obiettivo `e definire la coomologia di Cech a valori in un prefascio. Procederemo in modo non dissimile da quanto fatto nella Sezione 5.8, usando il concetto di limite diretto per togliere la dipendenza dai singoli ricoprimenti. Definizione 5.9.11. Sia U = {Uα }α∈J un ricoprimento aperto di uno spazio topologico X, dove J `e un insieme totalmente ordinato. Per r ∈ N e α0 , . . . , αr ∈ J poniamo Uα0 ...αr = Uα0 ∩ · · · ∩ Uαr . Se F `e un prefascio su X e p ∈ N, il gruppo delle p-cocatene su U a valori in F `e C p (U, F) = F(Uα0 ...αp ) . α0 <···<αp
Una p-cocatena s ∈ C (U, F) `e quindi una collezione {sα0 ...αp } di sezioni locali del prefascio F; quando gli indici non sono ordinati, useremo la convenzione p
sατ (0) ...ατ (p) = sgn(τ )sα0 ...αp per ogni permutazione τ ∈ Sp . In particolare, sα0 ...αp = O non appena αi = αj per qualche i = j. Definizione 5.9.12. Sia U = {Uα }α∈J un ricoprimento aperto di uno spazio topologico X, dove J `e un insieme totalmente ordinato, e F un prefascio di gruppi abeliani su X. Per ogni p ∈ N sia δ: C p (U, F ) → C p+1 (U, F ) definita da p+1 (−1)j (sα0 ... (δs)α0 ...αp+1 = αj ...αp+1 )|Uα0 ...αp+1 , j=0
dove l’accento circonflesso indica l’omissione di un indice, e le restrizioni sono quelle del prefascio.Si verifica facilmente (vedi l’Esercizio 5.55) che •δ ◦ δ = O; ˇ (U, F ) di quindi C • (U, F), δ `e un complesso differenziale. La coomologia H ˇ questo complesso `e detta coomologia di Cech del ricoprimento U a valori in F . ˇ Osservazione 5.9.13. Se F `e il fascio banale di gruppo R, allora H(U, F ) coinˇ ˇ cide con la coomologia di Cech H(U, R) del ricoprimento introdotta nella Definizione 5.8.22. Come osservato nell’Esempio 5.8.6, l’insieme dei ricoprimenti aperti di uno spazio topologico `e un insieme diretto; questo suggerisce di tentare di trasforˇ • (U, F)} in un sistema diretto di gruppi mare la famiglia di coomologie {H indicizzato dai ricoprimenti aperti. Per farlo, abbiamo bisogno di definire un ˇ • (U, F) a H ˇ • (V, F ) ogni volta che V `e un raffinamento di U. morfismo da H
5.9 Coomologia dei fasci e teorema di de Rham
297
Definizione 5.9.14. Sia V = {Vβ }β∈B un raffinamento di un ricoprimento aperto U = {Uα }α∈A di uno spazio topologico X. Una funzione di raffinamento `e una ϕ: B → A tale che Vβ ⊆ Uϕ(β) per ogni β ∈ B. Dato un prefascio di gruppi abeliani F su X e una funzione di raffinamento ϕ: B → A definiamo ϕ# : C • (U, F) → C • (V, F ) ponendo (ϕ# s)β0 ...βp = sϕ(β0 )...ϕ(βp ) |Vβ0 ...βp per ogni s ∈ C p (U, F) e ogni p ∈ N. Il fatto cruciale `e che funzioni di raffinamento diverse inducono morfismi omotopi: Lemma 5.9.15. Sia V = {Vβ }β∈B un raffinamento di un ricoprimento aperto U = {Uα }α∈A di uno spazio topologico X, e F un prefascio di gruppi abeliani su X. (i) Sia ϕ: B → A una funzione di raffinamento. Allora l’applicazione indotta ϕ# : C • (U, F) → C • (V, F ) `e un morfismo di cocatene, cio`e commuta con δ. (ii) Se ϕ, ψ: B → A sono due funzioni di raffinamento allora ϕ# e ψ # sono omotopi. Dimostrazione. (i) Sia s ∈ C p (U, F). Allora (δϕ# s)β0 ...βp+1 =
p+1
(−1)j (ϕ# s)β0 ...βj ...βp+1 |Vβ0 ...βp+1
j=0
p+1
=
(−1)j (sϕ(β
j=0
0 )...ϕ(βj )...ϕ(βp+1 )
|Vβ
0 ...βj ...βp+1
)|Vβ0 ...βp+1
= (δs)ϕ(β0 )...ϕ(βp+1 ) |Vβ0 ...βp+1 = (ϕ# δs)β0 ...βp+1 , come voluto. (ii) Definiamo K: C p (U, F) → C p−1 (V, F ) ponendo (Ks)β0 ...βp−1 =
p−1 (−1)j sϕ(β0 )...ϕ(βj )ψ(βj )...ψ(βp−1 ) |Vβ0 ...βp−1 ; j=0
nota che Vβ0 ...βp−1 ⊆ Uϕ(β0 )...ϕ(βj )ψ(βj )...ψ(βp−1 ) perch´e Vβj ⊆ Uϕ(βj ) ∩ Uψ(βj ) . Allora (δKs)β0 ...βp =
p
(−1)i (Ks)β0 ...βi ...βp
i=0
=
(−1)i+j sϕ(β
0≤j
+
(−1)i+j−1 sϕ(β
0≤i<j≤p
0 )...ϕ(βj )ψ(βj )...ψ(βi )...ψ(βp )
0 )...ϕ(βi )...ϕ(βj )ψ(βj )...ψ(βp )
,
298
5 Coomologia
e (Kδs)β0 ...βp =
p
(−1)j (δs)ϕ(β0 )...ϕ(βj )ψ(βj )...ψ(βp )
j=0
=
p
(−1)j
j=0
+
j (−1)i sϕ(β i=0
p
(−1)j
j=0
(−1)i+j sϕ(β
0≤i<j≤p p
+
(−1)i+1 sϕ(β
i=j
=
p
0 )...ϕ(βi )...ϕ(βj )ψ(βj )...ψ(βp )
0 )...ϕ(βj )ψ(βj )...ψ(βi )...ψ(βp )
0 )...ϕ(βi )...ϕ(βj )ψ(βj )...ψ(βp )
sϕ(β0 )...ϕ(βj−1 )ψ(βj )...ψ(βp )
j=0
+ −
(−1)i+j+1 sϕ(β
0≤j
0 )...ϕ(βj )ψ(βj )...ψ(βi )...ψ(βp )
sϕ(β0 )...ϕ(βi )ψ(βi+1 )...ψ(βp )
i=0
= −(δKs)β0 ...βp + sψ(β0 )...ψ(βp ) − sϕ(β0 )...ϕ(βp ) , dove per semplicit`a non abbiamo indicato le restrizioni a Vβ0 ...βp . Quindi ψ # − ϕ# = K ◦ δ + δ ◦ K , e K `e un’operatore di omotopia fra ψ # e ϕ# , come richiesto.
Come conseguenza di questo lemma e della Proposizione 5.3.3, per ogni raffinamento V di un ricoprimento aperto U abbiamo un ben definito morfismo ˇ • (U, F) → H ˇ • (V, F ) indipendente dalla funzione di raffinain coomologia H mento. Siccome la composizione di funzioni di raffinamento `e chiaramente una funzione di raffinamento, abbiamo quindi ottenuto un sistema diretto di gruppi abeliani. Definizione 5.9.16. Sia F un prefascio di gruppi abeliani su uno spazio toˇ ˇ • (X, F) di X a valori in F `e il limite pologico X. La coomologia di Cech H ˇ • (U, F)} indicizzato dai ricoprimenti diretto del sistema diretto di gruppi {H ˇ aperti di X. In particolare, se G `e un gruppo abeliano, la coomologia di Cech • ˇ ˇ H (X, G) di X a coefficienti in G `e la coomologia di Cech a valori nel fascio banale di gruppo G. ˇ La coomologia di Cech di uno spazio topologico X a coefficienti in un dato gruppo G `e chiaramente un invariante topologico di X. Per` o, cos`ı ˇ com’`e definita, la coomologia di Cech sembrerebbe impossibile da calcolare esplicitamente. Un risultato che ne semplifica notevolmente il calcolo `e il seguente lemma.
5.9 Coomologia dei fasci e teorema di de Rham
299
Lemma 5.9.17. Sia {Gi }i∈I un sistema diretto di gruppi, e J ⊆ I un sottoinsieme cofinale. Allora lim −→ Gj `e canonicamente isomorfo a lim −→ Gi . j∈J
i∈I
Dimostrazione. Sia Ψ : − lim → Gj → lim −→ Gi il morfismo indotto dall’inclusione j∈J i∈I > > e un isomorfismo. j∈J Gj → i∈I Gi ; dobbiamo dimostrare che Ψ ` Prima di tutto, `e surgettivo. Sia [gi ] ∈ lim G −→ i rappresentato da gi ∈ Gi . i∈I
Essendo J cofinale, esiste j ∈ J con j ≤ i; poniamo gj = fij (gi ) ∈ Gj . Allora gj ∼ gi e Ψ [gj ] = [gi ], dove [gj ] ∈ lim −→ Gj `e l’elemento rappresentato da gj . j∈J
Infine, `e iniettivo. Supponiamo che gj ∈ Gj (con j ∈ J) sia tale che Ψ [gj ] = e ∈ lim −→ Gi . Questo significa che esiste k ∈ I con k ≤ j e i∈I
fjk (gj ) = e ∈ Gk . Scegliamo j1 ∈ J tale che j1 ≤ k; allora fjj1 (gj ) = fkj1 fjk (gj ) = e ∈ Gj1 , e quindi [gj ] = [fjj1 (gj )] = e in − lim → Gj , come voluto.
j∈J
Il Lemma 5.9.17 e il Teorema 5.8.8 ci dicono quindi che per calcolare ˇ la coomologia di Cech in una variet` a M possiamo limitarci a considerare i ricoprimenti aciclici. Nel caso particolare della coomologia a coefficienti nel ˇ fascio costante R, il Corollario 5.8.24 ci dice inoltre che la coomologia di Cech di un ricoprimento aciclico a coefficienti in R `e sempre canonicamente isomorfa ˇ alla coomologia di de Rham; questo suggerisce che la coomologia di Cech a coefficienti in R di una variet` a M dovrebbe essere canonicamente isomorfa alla coomologia di de Rham di M . Per dimostrarlo rigorosamente ci serve un ultimo risultato: Lemma 5.9.18. Sia {Gi }i∈I un sistema diretto di gruppi, e G un altro gruppo. Supponiamo di avere una famiglia di morfismi χi : Gi → G tali che χi ◦ fji = χj per ogni coppia di indici i ≤ j. Allora esiste un unico morfismo χ: − lim → Gi → G tale che χ ◦ fi = χi per ogni i ∈ I. Inoltre, χ `e un i∈I
isomorfismo se tutti i χi lo sono. Dimostrazione. Siccome le immagini dei morfismi fi : Gi → lim −→ Gi coprono i∈I
tutto il limite diretto, il morfismo χ se esiste `e univocamente determinato dalla condizione χ ◦ fi = χi . Per vericare che χ esiste, ci basta allora controllare che gi ∼ gj implica χi (gi ) = χj (gj ). Infatti, gi ∼ gj se e solo se esiste k ≤ i, j tale che fik (gi ) = fjk (gj ); allora χi (gi ) = χk fik (gi ) = χk fjk (gj ) = χj (gj ) ,
300
5 Coomologia
come voluto. Quindi χ esiste; ed `e facile verificare (controlla) che `e un morfismo. Infine, supponiamo che tutti i χi siano degli isomorfismi. In particolare, ` anche iniettivo: χ([gi ]) = e sono surgettivi, per cui anche χ `e surgettivo. E implica χi (gi ) = e, e quindi gi = e per l’iniettivit` a dei χi .
Possiamo quindi finalmente dimostrare l’importante teorema di de Rham, che implica fra le altre cose che i gruppi di cooomologia di de Rham sono degli invarianti topologici di una variet` a: Teorema 5.9.19 (de Rham). La coomologia di de Rham di una variet` a `e ˇ canonicamente isomorfa alla coomologia di Cech della variet` a a coefficienti in R. In particolare, variet` a omeomorfe hanno coomologia di de Rham isomorfa. Dimostrazione. Il Teorema 5.8.8 dice che i ricoprimenti aciclici sono cofinali nell’insieme di tutti i ricoprimenti aperti di una variet` a; quindi (Lemma 5.9.17) ˇ per calcolare la coomologia di Cech a coefficienti in R possiamo limitarci a fare il limite diretto sui ricoprimenti aciclici. Se U `e un ricoprimento aciclico della variet` a M , il Corollario 5.8.24 ci ˇ • (U, R) → H • (M ), ottenuto componendo l’isofornisce un isomorfismo χU : H ˇ • (U, R) → H • C • (U, A• ) indotto dall’inclusione con l’inverso morfismo ι∗ : H dell’isomorfismo r ∗ : H • (M ) → H • C • (U, A• ) indotto dalle restrizioni. Siccome stiamo usando inclusioni e restrizioni, `e chiaro (perch´e?) che se V `e un ˇ • (U, R) → H ˇ • (V, R) `e il morfismo ricoprimento aciclico che raffina U e ϕ∗ : H indotto da una funzione di raffinamento, abbiamo χV ◦ ϕ∗ = χU . Da questo segue (Lemma 5.9.18) che possiamo passare al limite diretto e ottenere l’isoˇ
morfismo χ: H(M, R) → H • (M ) cercato. In altre parole, i gruppi di coomologia di de Rham, pur essendo oggetti algebrici costruiti con tecniche differenziali, sono degli invarianti topologici delle variet`a.
Esercizi CALCOLI DI COOMOLOGIA Esercizio 5.1. Calcola la coomologia di de Rham del complementare in Rn di un numero finito di punti. Esercizio 5.2 (Citato nell’Esempio 5.3.8). Calcola la coomologia di de Rham degli spazi proiettivi reali usando direttamente la successione di MayerVietoris. Esercizio 5.3. Calcola la coomologia di de Rham degli spazi proiettivi complessi.
Esercizi
301
Esercizio 5.4 (Utile per gli Esercizi 5.11 e 5.12). Sia n ≥ 2 e p ∈ Rn . Posto M = Rn \ {p}, dimostra che + R se k = 0, n − 1, H k (M ) = O altrimenti. n . Esercizio 5.5. Sia n ≥ 2. Calcola la coomologia di de Rham di B n \ B1/2
Esercizio 5.6. Sia M una variet` a compatta, connessa orientabile di dimensione n ≥ 2, e p ∈ M . Esprimi la coomologia di de Rham di M \ {p} in termini della coomologia di de Rham di M . Esercizio 5.7. Sia M una variet` a connessa, non compatta oppure non orientabile, di dimensione n ≥ 2, e p ∈ M . Esprimi la coomologia di de Rham di M \ {p} in termini della coomologia di de Rham di M . a n-dimensionali, e per j = 1, 2 Esercizio 5.8. Siano M1 ed M2 due variet` scegliamo Bj ⊂ Mj aperti diffeomorfi a B n . Indicato con ψj : Bj → B n n ) e M = M \ B . Sia infine un diffeomorfismo, poniamo Bj = ψj−1 (B1/2 j j j > M1 #M2 = (M1 M2 )/ ∼, dove ∼ `e la relazione di equivalenza che identifica p1 ∈ B1 \ B1 con p2 ∈ B2 \ B2 se e solo se ψ1 (p1 ) = ψ2 (p2 ). a, detta (i) Dimostra che M1 #M2 ha una naturale struttura di n-variet` somma connessa di M1 e M2 . (ii) Esprimi la coomologia di de Rham di M1 in termini della coomologia di de Rham di M1 , distinguendo fra i casi M1 compatta orientabile e M1 non compatta o non orientabile. [Suggerimento: ricorda il Corollario 5.6.9.] (iii) Esprimi la coomologia di de Rham di M1 #M2 in termini della coomologia di de Rham di M1 e M2 . Esercizio 5.9. Una superficie di genere g ≥ 1 `e la somma connessa di g tori bidimensionali. Calcola la coomologia di de Rham di una superficie di genere g. Esercizio 5.10. Calcola la coomologia di de Rham e la coomologia a supporto compatto del nastro di M¨ obius (vedi l’Esercizio 4.13).
TEOREMA DI INVARIANZA DELLA DIMENSIONE Esercizio 5.11 (Utile per l’Esercizio 5.12). Sia n ≥ 2 e U ⊆ Rn un aperto. Dimostra che H n−1 (U \ {p}) = O per ogni p ∈ U . [Suggerimento: considera la successione di inclusioni S → U \ {p} → Rn \ {p}, dove S `e una piccola sfera centrata in p.]
Esercizio 5.12 (Citato nell’Osservazione 2.1.11). Dimostra che uno spazio topologico M non vuoto che ammette una struttura di variet` a n-dimensionale compatibile con la topologia data non pu` o ammettere anche una struttura di variet` a m-dimensionale compatibile con la topologia data se m = n (Teorema
302
5 Coomologia
di invarianza della dimensione). [Suggerimento: dimostra che se ci`o accadesse allora esisterebbe un aperto U ⊆ M contemporaneamente omeomorfo a Rn e a un aperto di Rm , e usa gli Esercizi 5.4, 5.11 e l’invarianza topologica della coomologia di de Rham per concludere.]
TEOREMA DI APPROSSIMAZIONE DI WHITNEY Esercizio 5.13 (Utile per l’Esercizio 5.18). Sia M una variet` a e δ: M → R+ una funzione continua sempre positiva. Dimostra che per ogni applicazione continua F : M → Rk esiste una applicazione differenziabile F˜ : M → Rk tale che F (p) − F˜ (p) < δ(p) per ogni p ∈ M . Inoltre, dimostra che se F `e differenziabile su un sottoinsieme chiuso A ⊆ M allora F˜ pu` o essere scelta in modo da coincidere con F su A. [Suggerimento: prima di tutto, sia F0 un’estensione C ∞ di F |A e U0 = {q ∈ M | F0 (q) − F (q) < δ(q)}. Poi costruisci una successione {(Uj , pj )}j≥1 , dove Uj ⊂ M \ A `e un intorno aperto di pj ∈ M \ A in modo che U = {Uj }j≥0 sia un ricoprimento aperto di M e F (q) − F (pj ) < δ(q) per ogni q ∈ Uj . Se {ρj } `e una partizione dell’unit` a subordinata a U, poni F˜ = ρ0 F0 + j≥1 ρj F (pj ).]
Esercizio 5.14. Sia M ⊂ Rn una m-sottovariet`a di Rn . Dimostra che per ogni p0 ∈ M possiamo trovare un intorno aperto U di p0 in Rn e un riferimento locale {E1 , . . . , En } per T U costituito da campi vettoriali ortonormali (rispetto al prodotto scalare canonico) tale che {E1 |p , . . . , Em |p } `e una base di Tp M per ogni p ∈ U ∩ M . a di Rn . Per ogni p ∈ M sia Esercizio 5.15. Sia M ⊂ Rn una sottovariet` n ⊥ Np M = (Tp M ) il sottospazio di R = Tp Rn dei vettori ortogonali a Tp M rispetto al prodotto scalare canonico. Dimostra che l’unione disgiunta degli Np M al variare di p ∈ M ha una naturale struttura di fibrato vettoriale su M isomorfa al fibrato normale N M introdotto nell’Esempio 3.1.18, e che in questo modo N M pu` o venire identificato con una sottovariet`a di T Rn . Definizione 5.E.1. Sia M ⊂ Rn una m-sottovariet`a, di fibrato normale (vedi l’Esercizio 5.15) N M ⊂ T Rn = Rn × Rn . Sia poi E: N M → Rn data da E(p, v) = p + v. Un intorno tubolare di M `e un intorno U di M in Rn che sia immagine diffeomorfa tramite E di un aperto V ⊂ N M della forma V = {(p, v) ∈ N M | v < δ(p)} per una qualche funzione continua δ: M → R+ sempre positiva. Esercizio 5.16 (Utile per l’Esercizio 5.18). Dimostra che ogni sottovariet`a di Rn ammette un intorno tubolare. Esercizio 5.17 (Utile per l’Esercizio 5.18). Sia M ⊂ Rn una sottovariet` a di Rn , e U ⊃ M un intorno tubolare di M . Dimostra che esiste una retrazione liscia ρ: U → M .
Esercizi
303
Esercizio 5.18 (Utile per gli Esercizi 5.19, 5.20 e 5.21). Dimostra il teorema di approssimazione di Whitney: ogni applicazione continua F : N → M fra variet` a `e omotopa a un’applicazione differenziabile F˜ : N → M . Inoltre, se F `e differenziabile su un sottoinsieme chiuso A ⊆ N , allora l’omotopia pu` o essere costante su A. [Suggerimento: per il Teorema 2.8.13 puoi assumere che M sia una sottovariet` a di Rn . Usando l’Esercizio 5.13, dimostra che esiste un intorno tubolare U ⊃ M e un’applicazionedifferenziabile Fˆ : N → U , che coincide con F su A, tale che l’omotopia (p, t) → ρ (1 − t)F (p) + tFˆ (p) sia ben definita, dove ρ: U → M `e la retrazione dell’Esercizio 5.17, e poni F˜ = ρ ◦ Fˆ .]
Esercizio 5.19 (Utile per gli Esercizi 5.20 e 5.21). Siano F , G: M → N due applicazioni differenziabili C 0 -omotope. Dimostra che sono C ∞ -omotope. Dimostra pi` u in generale che se esiste un’omotopia continua fra F e G che sia l’identit` a su un sottoinsieme chiuso A ⊂ M , allora esiste un’omotopia C ∞ fra F e G che `e l’identit` a su A. [Suggerimento: applica l’Esercizio 5.18 a un’estensione dell’omotopia continua H a M × (−ε, 1 + ε).]
Esercizio 5.20 (Citato nell’Osservazione 5.4.9). Dimostra che due variet`a C 0 omotopicamente equivalenti sono C ∞ -omotopicamente equivalenti. [Suggerimento: usa l’Esercizio 5.18 per passare da applicazioni continue ad applicazioni C ∞ , e poi l’Esercizio 5.19 per passare da omotopie continue a omotopie C ∞ .]
GRUPPO FONDAMENTALE E COOMOLOGIA Esercizio 5.21 (Utile per l’Esercizio 5.22). Sia M una variet` a di dimensione n. Se σ: [0, 1] → M `e una curva liscia e ω ∈ A1 (M ) poniamo . . 1 . 1 ω= σ∗ω = ω σ (t) dt . γ
0
0
(i) Dimostra che se< ω1 , ω2 <∈ A (M ) sono coomologhe e σ `e una curallora σ ω1 = σ ω2 , per cui risulta ben definito il morfismo
σ
si definisce un morfismo di gruppi Ψ : H (M ) → Hom π1 (M, p0 ), R , dove π1 (M, p0 ) `e il gruppo fondamentale di M in p0 . [Suggerimento: gli Eserci1
zi 5.18 e 5.19 implicano che ogni elemento del gruppo fondamentale pu` o essere rappresentato da una curva liscia.]
304
5 Coomologia
(iv) Dimostra che Ψ `e iniettivo. [Nota: con tecniche pi` u raffinate si pu` o dimostrare che Ψ `e un isomorfismo.] Esercizio 5.22. Dimostra che H 1 (M ) = O per ogni variet` a M con gruppo fondamentale finito. In particolare, il primo gruppo di coomologia di una variet` a semplicemente connessa `e nullo. [Suggerimento: usa l’Esercizio 5.21.] ˜ → M un rivestimento Esercizio 5.23 (Citato nell’Esempio 5.3.8). Sia π: M ∗ • ˜ ) `e iniettivo. liscio con fibra finita. Dimostra che p : H (M ) → H • (M OMOTOPIA E FIBRATI VETTORIALI Esercizio 5.24 (Utile per l’Esercizio 5.25). Siano F0 : M → N ed F1 : M → N due applicazioni differenziabili C ∞ -omotope, e π: E → N un fibrato vettoriale. Dimostra che F0∗ E ed F1∗ E sono isomorfi come fibrati vettoriali su M . Esercizio 5.25. Dimostra che ogni fibrato vettoriale su una variet` a C ∞ -contraibile `e isomorfo al fibrato banale. [Suggerimento: usa l’Esercizio 5.24.] ´ DUALE DI POINCARE Esercizio 5.26 (Utile per l’Esercizio 5.44). Sia M una variet` a n-dimensionale connessa e orientata, e i: S → M una k-sottovariet`a chiusa orientata. k (i) Dimostra che l’applicazione che associa < a kogni ω ∈ Ac (M ) l’integrale < ∗ i ω definisce un funzionale lineare S : H (M ) → R. S (ii) Dimostra che esiste un’unica [ηS ] ∈ H n−k (M ) tale che . . ∗ i ω= ω ∧ ηS S
M
per ogni k-forma chiusa ω a supporto compatto. Ogni (n − k)-forma chiusa ηS ∈ An−k (M ) che rappresenta [ηS ] `e detta duale di Poincar´e della sottovariet`a S. (iii) Se ηS `e un duale di Poincar´e di S, dimostra che ηS |M \S `e esatta in M \ S. (iv) Se j: S → M `e una<(n − k)-sottovariet`a chiusa orientata di M disgiunta da S, dimostra che S ηS = 0. GRADO Esercizio 5.27. Sia F : M → N un’applicazione differenziabile fra variet` a compatte connesse n-dimensionali orientate rispettivamente dalle n-forme νM ∈ An (M ) e νN ∈ An (M ). Il grado deg F ∈ R di F `e definito dall’eguaglianza . . F ∗ νN = (deg F )
M
νN . N
Esercizi
305
(i) Dimostra che deg F `e ben definito, nel senso che non dipende dalla scelta delle forme di volume (ma dipende solo da F e dalle orientazioni scelte); [Suggerimento: usa F ∗ : H n (N ) → H n (M ) e la dualit` a di Poincar´e.]
(ii) Dimostra che se G: M → N `e C ∞ -omotopa a F allora deg G = deg F . Esercizio 5.28. Sia F : M → N un’applicazione differenziabile fra variet` a compatte connesse n-dimensionali orientate, e q ∈ N un valore regolare di F . Dimostra che ε(p) , deg F = p∈F −1 (q)
dove ε(p) = +1 se dFp conserva l’orientazione, e ε(p) = −1 se dFp inverte l’orientazione. Deduci che: (i) deg F ∈ Z; (ii) se F non `e surgettiva allora deg F = 0; (iii) se F `e un diffeomorfismo allora deg F = ±1, a seconda che F preservi o inverta l’orientazione. Esercizio 5.29. Siano F , G: S n → S n due applicazioni differenziabili. Dimostra che: (i) (ii) (iii) (iv)
se se se se
F (p) = −G(p) per ogni p ∈ S n allora F e G sono C ∞ -omotope; F (p) = −p per ogni p ∈ S n allora deg F = 1; F (p) = p per ogni p ∈ S n allora deg F = (−1)n+1 ; n `e pari allora ogni campo vettoriale X ∈ T (S n ) ha uno zero.
[Suggerimento: se X(p) = O per ogni p ∈ S n allora F (p) =
X(p)
X(p)
definisce un’applicazione differenziabile F : S n → S n con F (p) ⊥ p per ogni p ∈ S n .]
¨ TEOREMI DI KUNNETH E DI LERAY-HIRSCH Esercizio 5.30. Usa il teorema di K¨ unneth per calcolare la coomologia di de Rham del toro Tn . Esercizio 5.31 (Utile per l’Esercizio 5.44). Siano M1 ed M2 due variet` a di tipo finito, e per j = 1, 2 indichiamo con πj : M1 ×M2 → Mj le proiezioni. Dimostra che se {ω i }i∈I `e una base di H • (M1 ) e {τ j }j∈J `e una base di H • (M2 ), allora {π1∗ ω i ∧ π2∗ τ j }(i,j)∈I×J `e una base di H • (M1 × M2 ).
306
5 Coomologia
Esercizio 5.32 (Teorema di Leray-Hirsch). Sia π: E → M un fibrato di fibra F . Supponi che la coomologia di F sia di dimensione finita, e che esistano delle classi di coomologia globali e1 , . . . , er ∈ H • (E) che ristrette a ciascuna fibra Ep = π −1 (p) siano una base della coomologia della fibra. Dimostra che H • (E) = H • (M ) ⊗ H • (F ). [Suggerimento: segui la falsariga della dimostrazione del Teorema di K¨ unneth.]
ISOMORFISMO DI THOM Esercizio 5.33 (Citato negli Esercizi 5.34 e 5.35). Se π: E → M un fibrato vettoriale di rango r, poniamo Akcv (E) = {ω ∈ Ak (E) | supp(ω) ∩ Ep `e compatto in Ep per ogni p ∈ M } . (i) Dimostra che A•cv (E), d `e un complesso differenziale. La sua coomologia • (E) `e detta coomologia a supporto compatto verticale. Hcv (ii) Se E `e orientato (vedi la Definizione 4.E.1) dimostra che integrando lungo le fibre puoi definire un morfismo π# : A•cv (E) → A•−r (M ) in modo analogo a quanto fatto nella dimostrazione del Teorema 5.5.11. (iii) Dimostra che π# commuta col differenziale esterno, e quindi induce un • (E) → H •−r (M ). morfismo π∗ : Hcv Esercizio 5.34. Sia π: E → M un fibrato vettoriale orientato di rango r su una n-variet` a M. (i) Dimostra che π∗ π ∗ η ∧ ω) = η ∧ π∗ ω • (E) → H •−r (M ) `e il per ogni η ∈ Ah (M ) e ω ∈ Akcv (E), dove π∗ : Hcv morfismo definito nell’Esercizio 5.33. (ii) Se inoltre M `e orientata, E ha l’orientazione data dall’Esercizio 4.17, ω ∈ Akcv (E) e η ∈ Am+r−k (M ), dimostra che c . . ∗ (π η) ∧ ω = η ∧ π∗ ω . E
M
Esercizio 5.35. Sia π: E → M un fibrato vettoriale orientabile di rango r su • (E) → H •−r (M ) `e un una variet` a M di tipo finito. Dimostra che π∗ : Hcv •+r isomorfismo. L’isomorfismo inverso T = (π∗ )−1 : H • (M ) → Hcv (E) `e detto isomorfismo di Thom. [Suggerimento: procedi per induzione sulla cardinalit`a di un ricoprimento aciclico come nella dimostrazione della Proposizione 5.8.3 usando un’opportuna successione di Mayer-Vietoris per la coomologia a supporto compatto verticale, dando per buono il fatto, che dimostreremo nel Teorema 7.3.6, che esistono ricoprimenti aciclici in cui tutte le intersezioni finite sono C ∞ -contraibili, e o dimostrare che π∗ `e un isomorfismo ricordando l’Esercizio 5.25.] [Nota: si pu`
anche quando M non `e di tipo finito; vedi [4, Theorem 12.2].]
Esercizi
307
Esercizio 5.36. Sia π: E → M un fibrato vettoriale orientabile di rango r su •+r una variet` a M di tipo finito, e T : H • (M ) → Hcv (E) l’isomorfismo di Thom. r La classe di Thom di E `e Φ = T (1) ∈ Hcv (E), dove 1 ∈ H 0 (M ). (i) Dimostra che T ω = π∗ ω ∧ Φ per ogni ω ∈ H • (M ). r (E) che ristretta a (ii) Dimostra che Φ `e l’unica classe di coomologia in Hcv r una qualsiasi fibra Ep di E dia un generatore di Hc (Ep ) ∼ = R. Esercizio 5.37. Sia π: E → M un fibrato vettoriale orientabile di rango r su una variet` a di tipo finito M . Dimostra che Hc• (E) `e isomorfa a Hc•−r (M ). ´ CARATTERISTICA DI EULERO-POINCARE Definizione 5.E.2. Sia M una variet` a n-dimensionale di tipo finito. La caratteristica di Eulero-Poincar´e di M `e χ(M ) =
n
(−1)j dim H j (M ) .
j=0
Esercizio 5.38. Sia O
f−1
/ V0
f0
/ V1
f1
/ V2
/ ···
fn−1
/ Vn
fn
/O
una successione di applicazioni lineari fra spazi vettoriali di dimensione finita tali che fj ◦ fj−1 = O per ogni j = 0, . . . , n, e poni Hj = Ker(fj )/ Im(fj−1 ). Dimostra che n n (−1)j dim Hj = (−1)j dim Vj . j=0
j=0
Esercizio 5.39. Siano M ed N due variet` a di tipo finito. Dimostra che χ(M × N ) = χ(M )χ(N ) . Esercizio 5.40. Sia U = {U1 , . . . , Ur } un ricoprimento aperto aciclico finito di una variet` a n-dimensionale M di tipo finito. Per j = 0, . . . , n sia cj la cardinalit` a dell’insieme delle (j + 1)-uple ordinate α0 < · · · < αj tali che Uα0 ...αj = ∅. Dimostra che χ(M ) =
n
(−1)j cj .
j=0
Esercizio 5.41 (Utile per l’Esercizio 5.45). Sia M una variet` a connessa non ˜ → M il rivestimento doppio dato dalla orientabile di tipo finito, e π: M ˜ `e di tipo finito, e che Proposizione 4.2.19. Dimostra che anche M ˜ ) = 2χ(M ) . χ(M
308
5 Coomologia
Esercizio 5.42. Sia M una variet` a compatta orientabile di dimensione n. Dimostra che: (i) se n `e dispari allora χ(M ) = 0; (ii) se n = 2(2k + 1) allora χ(M ) e dim H 2k+1 (M ) sono pari; (iii) se n = 4k allora χ(M ) e dim H 2k (M ) hanno la stessa parit`a della segnatura della forma bilineare simmetrica . : H 2k (M ) ⊗ H 2k (M ) → R . M
TEOREMA DI LEFSCHETZ Definizione 5.E.3. Sia M una n-variet` a connessa, compatta e orientata, e F : M → M di classe C ∞ . Indichiamo con Fp∗ : H p (M ) → H p (M ) l’applicazione lineare indotta. Il numero di Lefschetz L(F ) `e dato da n
L(F ) =
(−1)p tr(Fp∗ ) .
p=0
Esercizio 5.43 (Utile per l’Esercizio 5.44). Sia M una n-variet` a connessa, compatta e orientata, e fissiamo una base {ω i }i∈I di H • (M ). (i) Dimostra che esiste un’unica base {τi }i∈I di H • (M ) tale che . ω i ∧ τj = δji . ∀i, j ∈ I M
(ii) Se F : M → M `e un’applicazione differenziabile, dimostra che . deg ωi L(F ) = (−1) F ∗ ω i ∧ τi . i∈I
M
Esercizio 5.44 (Utile per l’Esercizio 5.45). Sia M una n-variet` a connessa, compatta e orientata, e per j = 1, 2 indichiamo con πj : M × M → M la proiezione sul j-esimo fattore. Sia poi F : M → M un’applicazione differenziabile. (i) Dimostra che per ogni ω1 , ω2 ∈ An (M ) si ha . . . π1∗ ω1 ∧ π2∗ ω2 = ω1 ω2 , M ×M
M
M
dove su M × M consideriamo l’orientazione prodotto. (ii) Indichiamo con i1 : M → M × M l’inclusione i(p) = (p, p), e indichiamo con Δ = i1 (M ) la diagonale in M × M . Indichiamo poi con i2 : M → M × M l’inclusione i2 (p) = p, F (p) , e con Γ = i2 (M ) il grafico di F . Se ηΓ ∈ An (M × M ) `e un duale di Poincar´e (vedi l’Esercizio 5.26) < di Γ in M × M , dimostra che se F non ha punti fissi allora Δ ηΓ = 0.
Esercizi
309
(iii) Fissata una base {ω i }i∈I di H • (M ), sia {τi }i∈I la base duale data dalll’Esercizio 5.43. Posto . lj j ij deg ωl (deg τi +deg ωj ) e Ai = !i τi ∧ F ∗ ω j , !i = (−1) M
dimostra che ηΓ =
Aji π1∗ ω i ∧ π2∗ τj .
i,j∈I
[Suggerimento: ricorda l’Esercizio 5.31.]
(iv) Dimostra che
. ηΓ ,
L(F ) = Δ
e deduci il teorema di Lefschetz: se F : M → M `e un’applicazione differenziabile di una variet` a connessa, compatta e orientabile in s´e senza punti fissi allora L(F ) = 0. Esercizio 5.45. Dimostra il teorema di Poincar´e-Hopf: se una variet` a connessa compatta M ammette un campo vettoriale mai nullo allora χ(M ) = 0. [Suggerimento: considera prima di tutto il caso M orientabile. Se χ(M ) = 0, applica il teorema di Lefschetz al flusso indotto da un campo vettoriale X ∈ T (M ) per trovare un (punto fisso del flusso e quindi) uno zero del campo vettoriale. Se M non `e orientabile, passa al rivestimento doppio orientabile e usa l’Esercizio 5.41.]
COOMOLOGIA DI DE RHAM RELATIVA Esercizio 5.46. Sia i: S → M una sottovariet` a chiusa di una variet`a M , e poniamo Ak (M, S) = {ω ∈ Ak (M ) | i∗ ω = 0} . (i) Dimostra che A• (M, S), d `e un complesso differenziale. La sua coomologia, indicata con H • (M, S), `e detta coomologia di de Rham relativa della coppia (M, S). (ii) Dimostra che la successione O
/ A• (M, S)
/ A• (M )
i∗
/ A• (S)
/O
`e esatta, e deduci l’esistenza di una successione esatta lunga ···
/ H k (M, S)
/ H k (M )
/ H k (S)
/ H k+1 (M, S)
/ ···
detta successione esatta lunga in coomologia della coppia (M, S). Esercizio 5.47. Sia i: S → M una sottovariet` a chiusa di una variet`a M , e poniamo Akc (M, S) = {ω ∈ Akc (M ) | i∗ ω = 0} .
310
5 Coomologia
(i) Dimostra che A•c (M, S), d `e un complesso differenziale. La sua coomologia, indicata con Hc• (M, S), `e detta coomologia di de Rham a supporto compatto relativa della coppia (M, S). (ii) Dimostra che la successione / A•c (M, S)
O
/ A•c (M )
i∗
/ A•c (S)
/O
`e esatta, e deduci l’esistenza di una successione esatta lunga ···
/ H k (M, S) c
/ H k (M ) c
/ H k (S) c
δ
/ H k+1 (M, S) c
/ ···
detta successione esatta lunga a supporto compatto della coppia (M, S). (iii) Se M `e una n-variet` a orientata
dove δ: Hcn−1 (∂M ) → Hcn (M, ∂M ) `e il morfismo di connessione della successione esatta lunga in coomologia a supporto compatto della coppia (M, ∂M ), `e commutativo.
COOMOLOGIA DI COMPLESSI DOPPI Definizione 5.E.4. La Hd -coomologia di un complesso doppio (K •,• , d, δ) `e la coomologia delle colonne: Hdq (K p,• ) = Ker d|K p,q / Im d|K p,q−1 . Definizione 5.E.5. Un morfismo di complessi doppi `e semplicemente un morfismo f : (K1•,• , d1 , δ1 ) → (K2•,• , d2 , δ2 ) che rispetta la graduazione, nel senso che f (K1p,q ) ⊆ K2p,q per ogni p, q ∈ N, e che commuta con i differenziali, nel senso che f ◦ d1 = d2 ◦ f e f ◦ δ1 = δ2 ◦ f . Esercizio 5.48. Sia f : (K1•,• , d1 , δ1 ) → (K2•,• , d2 , δ2 ) un morfismo di complessi • • doppi. Dimostra che f induce un morfismo f∗ : HD (K1 ) → HD (K2 ) in Dq p,• coomologia, e per ogni p, q ∈ N un morfismo f∗ : Hd (K1 ) → Hdq (K2p,• ) in d-coomologia. Esercizio 5.49. Sia f : (K1•,• , d1 , δ1 ) → (K2•,• , d2 , δ2 ) un morfismo di complessi doppi tale che f∗ : Hdq (K1p,• ) → Hdq (K2p,• ) sia un isomorfismo per ogni p, q ∈ N. n n Dimostra che f∗ : HD (K1 ) → HD (K2 ) `e un isomorfismo per ogni n ∈ N.
Esercizi
311
LIMITI DIRETTI E INVERSI Esercizio 5.50. Sia {Gi }i∈I un sistema diretto di gruppi. Dimostra che la relazione ∼ introdotta nella Definizione 5.9.7 `e una relazione d’equivalenza, e che il limite diretto lim −→ Gi ha un’unica struttura di gruppo rispetto a cui le i∈I
applicazioni fi : Gi → lim −→ Gi siano dei morfismi. i∈I
Esercizio 5.51. Sia {Gi }i∈I un sistema diretto di gruppi. Dimostra che il limite diretto G = − lim a → Gi `e l’unico gruppo che soddisfa la seguente propriet` i∈I
universale: per ogni gruppo H e ogni famiglia ϕi : Gi → H di morfismi tali che ϕj = ϕi ◦ fji per ogni i ≤ j esiste un unico morfismo Φ: G → H tale che Φ ◦ fi = ϕi per ogni i ∈ I. Definizione 5.E.6. Il limite inverso (o limite proiettivo) di un sistema diretto di gruppi {Gi }i∈I `e il seguente sottogruppo del prodotto diretto: / 0 i Gi gi = fj (gj ) per ogni i ≤ j . lim ←− Gi = g = (gi ) ∈ i∈I
Indichiamo con π i : ← lim − Gi → Gi la proiezione sull’i-esimo fattore. Esercizio 5.52. Sia {Gi }i∈I un sistema diretto di gruppi. Dimostra che il limite inverso G = ← lim a − Gi `e l’unico gruppo che soddisfa la seguente propriet` universale: per ogni gruppo H e ogni famiglia ψ i : H → Gi di morfismi tali che ψ i = fji ◦ ψ j per ogni i ≤ j esiste un unico morfismo Ψ : H → G tale che πi ◦ Ψ = ψ i per ogni i ∈ I. Esercizio 5.53. Dato il sistema diretto di gruppi {Rn }n∈N , dove fji : Rj → Ri n N per j ≥ i `e la proiezione sulle prime i coordinate, dimostra che ← lim −R = R , n (N) mentre lim ⊂ RN delle successioni definiti−→ R `e isomorfo al sottospazio R vamente nulle.
FASCI E PREFASCI Esercizio > 5.54. Sia F un fascio su uno spazio topologico X. Indichiamo con F = x∈X Fx l’unione disgiunta delle spighe del fascio, e con π: F → X l’ovvia proiezione. Se U ⊆ X `e aperto, una sezione s ∈ F(U ) determina un germe sx ∈ Fx per ogni x ∈ U , e quindi un’applicazione s: U → F tale che s(x) ∈ Fx per ogni x ∈ U . Dimostra che: (i) esiste un’unica topologia minimale su F rispetto a cui tutte queste applicazioni s: U → F sono continue e aperte; (ii) questa topologia induce la topologia discreta su ogni spiga;
312
5 Coomologia
(iii) π: F → X `e un omeomorfismo locale rispetto a questa topologia. L’insieme F con questa topologia `e detto spazio ´etal´e associato al fascio F . Esercizio 5.55. Sia U = {Uα }α∈J un ricoprimento aperto di uno spazio topologico X, dove J `e un insieme totalmente ordinato, e F un prefascio su X. Procedendo come nel Lemma 5.8.17 dimostra che il morfismo δ introdotto nella Definizione 5.9.12 soddisfa δ ◦ δ = O. Esercizio 5.56. Dimostra che H p (M, EM ) = O per ogni p ≥ 1 e ogni variet` a M , dove EM `e il fascio dei germi di funzioni differenziabili. [Suggerimento: usa le partizioni dell’unit`a.] Esercizio 5.57. Sia π: F → M un fibrato in rette su una variet` a M . Indichiamo ∗ il fascio che associa a ogni aperto U ⊆ M il gruppo moltiplicativo con EM C ∞ (U, R∗ ) delle funzioni di classe C ∞ mai nulle. (i) Sia U un atlante che banalizza F . Dimostra che le funzioni di transizione ˇ 1 (U, E ∗ ), e quindi un elemento rispetto a U definiscono un elemento di H M ˇ 1 (M, E ∗ ). di H M (ii) Dimostra che le funzioni di transizione relative a due atlanti che banalizˇ 1 (M, E ∗ ). zano F definiscono lo stesso elemento di H M ∗ ˇ (iii) Viceversa, dimostra che ogni elemento di H 1 (M, EM ) individua un fibrato in rette su M , unico a meno di isomorfismi. In altre parole, l’insieme dei fibrati in rette su M modulo isomorfismi `e in ˇ 1 (M, E ∗ ). [Suggerimento: ricorda la Proposiziocorrispondenza biunivoca con H M ne 3.1.8 e l’Osservazione 3.1.9.]
PRODOTTO CUP a M . Sia Esercizio 5.58. Sia U = {Uα } un ricoprimento aperto di una variet` ": C p (U, Aq ) × C r (U, As ) → C p+r (U, Aq+s ) definito da (ω " η)α0 ...αp+r = (−1)qr ωα0 ...αp ∧ ηαp ...αp+r |Uα0 ...αp+r per ogni ω ∈ C p (U, Aq ) e η ∈ C r (U, As ), ed esteso per bilinearit` a. Dimostra che per ogni ω ∈ C p (U, Aq ) e η ∈ C r (U, As ) si ha: (i) δ(ω " η) = (δω) " η + (−1)p+q ω " (δη); (ii) d(ω " η) = (−1)r (dω) " η + (−1)q ω " (dη); (iii) D(ω " η) = (Dω) " η + (−1)p+q ω " (Dη). Infine usando " definisci una struttura prodotto su
Esercizi
313
(a) C • (U, R); ˇ • (U, R); (b) H ˇ • (M, R). (c) H che le trasforma in algebre graduate anticommutative. ˇ q (M, R) → H ˇ p+q (M, R) ˇ p (M, R) × H Definizione 5.E.7. Il prodotto ": H ˇ definito nel precedente esercizio `e il prodotto cup in coomologia di Cech. Esercizio 5.59. Dimostra che l’isomorfismo fra la coomologia di de Rham e la ˇ coomologia di Cech dato dal teorema di de Rham `e un isomorfismo di algebre graduate rispetto ai prodotti cup.
6 Strutture su variet` a
Nei capitoli precedenti abbiamo studiato la Geometria Differenziale delle variet` a basandoci esclusivamente sulla struttura differenziale a disposizione, senza usare strutture ulteriori. In molte situazioni, interne o esterne alla matematica, si trovano invece variet` a equipaggiate con una struttura aggiuntiva, e diventa interessante studiare le conseguenze geometriche di questa struttura. L’esempio pi` u evidente di variet` a con strutture aggiuntive `e Rn . Il prodotto scalare canonico permette di introdurre una struttura metrica su Rn : possiamo misurare la lunghezza dei vettori tangenti, la lunghezza di curve, e la distanza fra due punti, ottenendo una struttura di spazio metrico completo su Rn indotta dal prodotto scalare canonico. Una struttura meno evidente (e in realt`a, come vedremo, correlata in modo non banale con il prodotto scalare canonico) `e conseguenza del fatto che il fibrato tangente a Rn `e canonicamente isomorfo a Rn × Rn , per cui i campi vettoriali si possono identificare con lo spazio C ∞ (Rn , Rn ) delle applicazioni differenziabili a valori in Rn . Quindi se X e Y sono due campi vettoriali su Rn possiamo fare agire X, interpretato come derivazione, su ciascuna delle componenti di Y interpretato come applicazione differenziabile a valori in Rn , e otteniamo (un’applicazione differenziabile a valori in Rn e quindi) un altro campo vettoriale, che a buon diritto possiamo pensare come la derivata di Y nella direzione di X. La struttura indotta dal prodotto scalare canonico `e un esempio di metrica Riemanniana su una variet` a; mentre la derivazione di un campo vettoriale nella direzione data da un altro `e un esempio di connessione. Una metrica Riemanniana permette di misurare la lunghezza di vettori tangenti, la lunghezza di curve e di introdurre una distanza fra due punti; una connessione permette di derivare campi vettoriali, e in particolare di dare una nozione di campi costanti lungo curve (che saranno chiamati campi paralleli). Come vedremo, su ogni variet` a si possono definire infinite connessioni e infinite metriche Riemanniane, con il vantaggio di poter scegliere in ogni occasione quella pi` u adeguata al problema specifico che si vuole risolvere. D’altra parte, per` o, come discuteremo soprattutto nel Capitolo 8, l’esistenza di una metrica Riemanniana o di una connessione con determinate propriet` a pu` o avere delle conseguenze Abate M., Tovena F.: Geometria Differenziale. DOI 10.1007/978-88-470-1920-1_6 c Springer-Verlag Italia 2011
316
6 Strutture su variet` a
sulla topologia della variet` a; in altri termini, variet` a con una data topologia possono non ammettere metriche Riemanniane che godono di certe propriet`a (di curvatura, per esempio). Infine, l’esistenza di un certo tipo di struttura pu` o implicare l’esistenza di un’altra: per esempio, a ogni metrica Riemanniana `e associata una connessione particolare, la connessione di Levi-Civita, che `e cruciale per lo studio delle propriet` a metriche delle variet`a equipaggiate con una metrica Riemanniana. In questo capitolo definiremo e studieremo prima di tutto le connessioni in generale. Poi introdurremo il concetto di metrica Riemanniana, e vedremo alcune costruzioni standard legate alle metriche Riemanniane, fra cui quella che porta alla connessione di Levi-Civita. I prossimi due capitoli saranno dedicati a uno studio approfondito della geometria delle metriche Riemanniane; concluderemo invece questo capitolo con una brevissima introduzione a un’altra struttura che pu` o essere introdotta su una variet` a, la struttura simplettica.
6.1 Connessioni Come accennato nell’introduzione, l’obiettivo di questo paragrafo `e trovare un modo per derivare campi vettoriali su una variet` a o, pi` u in generale, campi vettoriali definiti lungo una curva nella variet` a. Il problema `e che i valori di un campo vettoriale in punti diversi appartengono a spazi vettoriali diversi, per cui non `e possibile scrivere un rapporto incrementale. Storicamente, questo problema venne risolto introducendo una tecnica (il trasporto parallelo) che permette di confrontare spazi tangenti in punti diversi; noi invece faremo il percorso inverso, definendo prima cosa vuol dire derivare campi vettoriali e deducendo da questo il concetto di trasporto parallelo. La formalizzazione moderna del concetto di derivazione di campi vettoriali su una variet` a qualunque `e data dalla definizione di connessione su un fibrato vettoriale. Definizione 6.1.1. Sia π: E → M un fibrato vettoriale su una variet` a M. Una connessione su E `e un’applicazione ∇: T (M ) × E(M ) → E(M ), scritta (X, V ) → ∇X V , tale che (a) ∇X V `e C ∞ (M )-lineare in X: per ogni X1 , X2 ∈ T (M ), V ∈ E(M ) e f , g ∈ C ∞ (M ) si ha ∇f X1 +gX2 V = f ∇X1 V + g∇X2 V ; (b) ∇X V `e R-lineare in V : per ogni X ∈ T (M ), V1 , V2 ∈ E(M ) e a, b ∈ R si ha ∇X (aV1 + bV2 ) = a∇X V1 + b∇X V2 ;
6.1 Connessioni
317
(c) ∇ soddisfa una regola di Leibniz: per ogni X ∈ T (M ), V ∈ E(M ) e f ∈ C ∞ (M ) si ha ∇X (f V ) = f ∇X V + (Xf )V . La sezione ∇X V `e detta derivata covariante di V lungo X (e il simbolo ∇ si legge “nabla). Infine, una connessione su T M verr` a chiamata connessione lineare, o semplicemente connessione su M . Esempio 6.1.2 (Connessione piatta). Sia E = M × Rr un fibrato banale sulla r V j Ej per opportune variet` a M . Ogni sezione V ∈ E(M ) `e della forma V = j=1
V j ∈ C ∞ (M ), dove {E1 , . . . , Er } `e il riferimento globale di E ottenuto ponendo Ej (p) = (p, ej ) per ogni p ∈ M , ed {e1 , . . . , er } `e la base canonica di Rr (in altre parole, una sezione del fibrato banale di rango r `e essenzialmente una r-upla di funzioni differenziabili). Possiamo allora definire la connessione piatta su E ponendo r X(V j )Ej . ∇X V = j=1
Si verifica subito (controlla) che `e effettivamente una connessione. Usando la connessione piatta e le partizioni dell’unit` a `e facile definire connessioni su qualsiasi fibrato: Proposizione 6.1.3. Qualsiasi fibrato vettoriale π: E → M ammette una connessione. Dimostrazione. Scegliamo un atlante {(Uα , ϕα , χα )} di M che banalizza E, e sia {ρα } una partizione dell’unit` a subordinata al ricoprimento {Uα }. Su ciascun Uα definiamo una connessione ∇α ponendo 0 −1 ∀X ∈ T (Uα ) ∀V ∈ E(Uα ) ∇α X V = χα ∇X χα (V ) , dove ∇0 `e la connessione piatta su Uα × Rr . Incolliamo ora le ∇α definendo ρ α ∇α ∀X ∈ T (M ) ∀V ∈ E(M ) ∇X V = X|Uα V |Uα . α
Le propriet` a (a) e (b) della Definizione 6.1.1 sono chiaramente soddisfatte. Poi abbiamo ρ α ∇α ∇X (f V ) = X|Uα (f V |Uα ) α
=
ρα f ∇α X|Uα V |Uα + X(f )V |Uα
α
= f ∇X V +
ρα
X(f )V = f ∇X V + X(f )V ,
α
per cui vale la regola di Leibniz, e quindi ∇ `e una connessione.
318
6 Strutture su variet` a
Osservazione 6.1.4. In generale, la somma di connessioni (o il prodotto di uno scalare per una connessione) non `e una connessione, in quanto si perde la regola di Leibniz. D’altra parte, la combinazione affine di connessioni `e una connessione: se ∇1 , . . . , ∇k sono connessioni su un fibrato E e μ1 , . . . .μk ∈ R sono tali che μ1 +· · ·+μk = 1, allora si verifica facilmente (controlla) che μ1 ∇1 +· · ·+μk ∇k `e ancora una connessione. Infine, la differenza di due connessioni `e chiaramente C ∞ (M )-lineare in tutte le variabili. Una derivata direzionale in un punto dipende solo dalla direzione in quel punto e dal comportamento locale dell’oggetto che stiamo derivando. Per far vedere che le connessioni hanno il diritto di essere considerate derivazioni di sezioni di un fibrato dobbiamo allora dimostrare che ∇X V (p) dipende solo dal valore di X in p ∈ M e dal comportamento di V in un intorno di p. In realt` a, dimostreremo di pi` u: ∇X V (p) dipende solo da X(p) e dal comportamento di V ristretto a una curva tangente a X(p) in p. Lemma 6.1.5. Sia ∇: T (M ) × E(M ) → E(M ) una connessione sul fibrato vettoriale π: E → M . ˜ ∈ T (M ) e V , V˜ ∈ E(M ) sono tali che X(p) = X(p) ˜ (i) se X, X e V ≡ V˜ ˜ in un intorno di p ∈ M allora si ha ∇X V (p) = ∇X˜ V (p); (ii) per ogni aperto U ⊆ M esiste un’unica connessione ∇U : T (U ) × E(U ) → E(U ) su E|U tale che per ogni X ∈ T (M ), V ∈ E(M ) e p ∈ U si abbia ∇U X|U V |U (p) = ∇X V (p) ; (iii) se per X ∈ T (M ) e V , V˜ ∈ E(M ) esiste una curva σ: (−ε, ε) → M con σ(0) = p, σ (0) = X(p) e V ◦ σ = V˜ ◦ σ allora ∇X V (p) = ∇X V˜ (p). Dimostrazione. Prima di tutto dimostriamo che se V ≡ O in un intorno U di p allora ∇X V (p) = O per ogni X ∈ T (M ). Sia g ∈ C ∞ (M ) tale che g(p) = 1 e g|M \U ≡ 0 (vedi il Corollario 2.7.3). Allora gV ≡ O, per cui ∇X (gV ) = ∇X (0 · gV ) = 0∇X (gV ) ≡ O e quindi O = ∇X (gV )(p) = g(p)∇X V (p) + (Xg)(p)V (p) = ∇X V (p) . Dunque se V , V˜ ∈ E(M ) sono tali che V ≡ V˜ in un intorno di p, abbiamo V − V˜ ≡ O in un intorno di p, e ∇X V (p) = ∇X V˜ (p) per ogni X ∈ T (M ). Dimostriamo analogamente che se X ≡ O in un intorno U di p allora ∇X V (p) = O per ogni V ∈ E(M ). Infatti, se g ∈ C ∞ (M ) `e la stessa funzione di prima, si ha gX ≡ O, per cui ∇gX V = ∇0gX V = 0∇gX V ≡ O e quindi O = ∇gX V (p) = g(p)∇X V (p) = ∇X V (p) .
6.1 Connessioni
319
˜ in un intorno di p allora Da questo segue nuovamente che se X ≡ X ∇X V (p) = ∇X˜ V (p) quale che sia V ∈ E(M ). In particolare, quindi, il valore di ∇X V in p dipende solo dal comportamento di X e V in un intorno di p, per cui se una connessione ∇U come in (ii) esiste allora `e unica. Ma possiamo usare questa propriet` a anche per definire ∇U . Infatti, per ogni p ∈ U scegliamo, usando la Proposizione 2.7.2, una χp ∈ C ∞ (M ) tale che χp ≡ 1 in un intorno di p e con supp(χp ) ⊂ U . Allora per ogni X ∈ T (U ) il campo vettoriale χp X, esteso a zero fuori da U , `e un campo vettoriale globale che coincide con X in un intorno di p. In modo analogo, per ogni V ∈ E(U ) possiamo considerare χp V come una sezione globale di E che coincide con V in un intorno di p. Quindi se definiamo ∇U : T (U ) × E(U ) → E(U ) ponendo ∇U X V (p) = ∇χp X (χp V )(p) per quanto visto otteniamo una connessione ben definita (cio`e indipendente dalla scelta delle χp ), e abbiamo dimostrato (ii). Possiamo ora completare la dimostrazione di (i), facendo vedere che in realt`a ∇X V (p) dipende solo dal valore di X in p (e dal comportamento di V in un intorno di p). Al solito, basta far vedere che X(p) = O impliogni V ∈ E(M ). Sia (U, ϕ) una carta locale centrata in p, ca ∇X V (p) = O per e scriviamo X|U = nj=1 X j ∂j , con X j (p) = 0 per j = 1, . . . , n = dim M in quanto X(p) = O. Per quanto detto, ha senso calcolare (∇∂j V )(p), e si ha ∇X V (p) =
∇
j
X j ∂j V
(p) =
n
X j (p)∇∂j V (p) = O .
j=1
Per dimostrare (iii), basta far vedere che se V ◦σ ≡ O allora ∇X V (p) = O. Sia {E locale per E su un intorno U di p, e scriviamo 1 , . . . , Er } un riferimento V = j V j Ej . Da V (p) = V σ(0) = O ricaviamo V 1 (p) = · · · = V r (p) = 0. Per quanto detto ha senso calcolare ∇X Ej (p), e si ha ⎛ ⎞ r r 7 j 8 j ⎝ ⎠ ∇X V (p) = ∇X V (p)∇X Ej (p) + Xp (V j )Ej (p) V Ej (p) = j=1
j=1
r d(V j ◦ σ) (0)Ej (p) = O , = dt j=1
come voluto.
Osservazione 6.1.6. Per non appesantire le notazioni, nel seguito indicheremo con ∇ e non con ∇U la connessione indotta sull’aperto U ⊆ M . Osservazione 6.1.7. Nella Sezione 3.4 avevamo introdotto un altro genere di derivazione di un campo vettoriale lungo un altro campo vettoriale: la derivata di Lie. Anch’essa, come le connessioni lineari, pu`o essere pensata come
320
6 Strutture su variet` a
un’applicazione L: T (M ) × T (M ) → T (M ) che associa a una coppia (X, Y ) di campi vettoriali il campo vettoriale LX Y = [X, Y ]. Tuttavia, la derivata di Lie non `e una connessione lineare. Infatti, pur soddisfacendo le condizioni (b) e (c) della Definizione 6.1.1 non soddisfa la condizione (a), in quanto non `e C ∞ (M )-lineare nel primo argomento. Di conseguenza, per la derivata di Lie risultati analoghi al Lemma 6.1.5 non valgono, nel senso che LX Y (p) dipende dal comportamento di X in tutto un intorno di p e non soltanto in p come avviene per le connessioni (vedi l’Esercizio 6.3). Il Lemma 6.1.5.(ii) permette di dare un’espressione locale di una connessione, scegliendo coordinate locali e un riferimento locale. Infatti, sia (U, ϕ) una carta locale che banalizza E, e {E1 , . . . , Er } un riferimento locale su U . Allora si deve poter scrivere ∇∂j Eh =
r
k Γjh Ek ,
k=1 k ∈ C ∞ (U ). per opportune funzioni Γjh
Definizione 6.1.8. Le funzioni Γijk sono dette simboli di Christoffel della connessione ∇ rispetto al dato riferimento locale e alla data carta locale. Osservazione 6.1.9. I simboli di Christoffel determinano completamente la connessione: infatti se X∈ T (U ) e V ∈ E(U ) localmente possiamo scrivere X = j X j ∂j e V = h V h Eh , e abbiamo ∇X V =
n j=1
X j ∇∂ j V =
r k=1
⎡ ⎣X(V k ) +
r n
⎤ k Γjh X j V h ⎦ Ek .
(6.1)
j=1 h=1
In particolare, i simboli di Christoffel della connessione piatta su un fibrato banale sono identicamente nulli. Il Lemma 6.1.5.(iii) ci dice che per calcolare la derivata covariante di una sezione basta conoscerne il comportamento lungo una curva. Questo ci suggerisce la seguente: Definizione 6.1.10. Siano π: E → M un fibrato vettoriale e σ: I → M una curva in M , dove I ⊆ R `e un intervallo. Una sezione di E lungo σ `e un’applicazione V : I → E di classe C ∞ tale che V (t) ∈ Eσ(t) per ogni t ∈ I. Lo spazio vettoriale delle sezioni di E lungo σ verr` a indicato con E(σ), o con T (σ) se E = T M. Una sezione V ∈ E(σ) `e estendibile se esistono un intorno U dell’immagine di σ e una sezione V˜ ∈ E(U ) con V (t) = V˜ σ(t) per ogni t ∈ I.
6.1 Connessioni
321
Esempio 6.1.11. Sia σ: I → M una curva di classe C ∞ . Allora il vettore tangente σ : I → T M dato da d σ (t) = dσ dt `e un tipico esempio di sezione di T M lungo la curva σ. Inoltre, se esistono t1 , t2 ∈ I tali che σ(t1 ) = σ(t2 ) ma σ (t1 ) = σ (t2 ) allora σ non `e estendibile. Il vero significato del Lemma 6.1.5.(iii) `e contenuto nella: Proposizione 6.1.12. Sia π: E → M un fibrato vettoriale, ∇ una connessione su E, e σ: I → M una curva su M . Allora esiste un unico operatore D: E(σ) → E(σ) soddisfacente le seguenti propriet` a: (i) `e R-lineare: ∀a, b ∈ R D(aV1 + bV2 ) = aDV1 + bDV2 ; (ii) soddisfa una regola di Leibniz: ∀f ∈ C ∞ (I)
D(f V ) = f V + f DV ;
(iii) se V ∈ E(σ) `e estendibile, e V˜ `e un’estensione di V a un intorno dell’immagine di σ, si ha DV (t) = ∇σ (t) V˜ . Dimostrazione. Cominciamo con l’unicit`a. Dato t0 ∈ I, un ragionamento analogo a quello usato per dimostrare il Lemma 6.1.5.(i) mostra che DV (t0 ) dipende solo dai valori di V in un intorno di t0 . Possiamo allora fissare una carta locale (U, ϕ) in σ(t0 ) banalizzante E, e un riferimentolocale {E1 , . . . , Er } h di E su U , dove r `e il rango di E. Scrivendo V (t) = h V (t)Eh σ(t) e j 1 n σ (t0 ) = j (σ ) (t0 )∂j |σ(t0 ) , dove (σ , . . . , σ ) = ϕ ◦ σ, possiamo usare le propriet` a di D per ottenere DV (t0 ) = =
r 7 h=1 r h=1
=
r k=1
7
8 (V h ) (t0 )Eh σ(t0 ) + V h (t0 )D(Eh ◦ σ)(t0 ) 8 (V h ) (t0 )Eh σ(t0 ) + V h (t0 )∇σ (t0 ) Eh σ(t0 )
⎡ ⎣(V k ) (t0 ) +
r n
⎤
k Γjh σ(t0 ) (σ j ) (t0 )V h (t0 )⎦ Ek σ(t0 ) ,
(6.2)
j=1 h=1
dove abbiamo usato il fatto che Eh ◦ σ `e estendibile in un intorno di t0 ; quindi D `e univocamente determinato. Per l’esistenza, se l’immagine di σ `e contenuta in una sola carta locale banalizzante E, possiamo usare (6.2) per definire D, ed `e facile verificare
322
6 Strutture su variet` a
(controlla) che soddisfa le condizioni richieste. In generale, sia {Uα } un ricoprimento di σ(I) con domini di carte locali banalizzanti E, e usiamo (6.2) per definire un operatore D su ciascun σ −1 (Uα ). Nelle intersezioni, abbiamo due operatori che soddisfano (i)–(iii); per l’unicit` a, questi due operatori devono coincidere, e quindi abbiamo definito D globalmente su tutto I.
Definizione 6.1.13. L’operatore D definito sopra `e detto derivata covariante lungo la curva σ: I → M . Se t ∈ I e V ∈ E(σ), scriveremo spesso Dt V invece di DV (t). Se E = M × Rr `e il fibrato banale, ∇ `e la connessione piatta, e σ: I → M `e una curva, usando (6.2) si vede subito che V ∈ E(σ) soddisfa DV ≡ O se e solo se tutte le componenti di V sono costanti. In altre parole, DV ≡ O se V (t) `e sempre lo stesso vettore di Rr che si sposta parallelamente lungo la curva σ. Questo fatto suggerisce la seguente definizione: Definizione 6.1.14. Sia ∇ una connessione sul fibrato vettoriale π: E → M , e σ: I → M una curva. Una sezione V ∈ E(σ) `e detta parallela se DV ≡ O. La condizione di parallelismo `e localmente un sistema lineare di equazioni differenziali ordinarie: infatti (6.2) implica che DV ≡ O in una carta banalizzante E se e solo se dV k k + (Γjh ◦ σ)(σ j ) V h = 0 dt j=1 n
r
(6.3)
h=1
per ogni k = 1, . . . , r. Citiamo a questo punto il teorema di esistenza e unicit` a delle soluzioni di un sistema di equazioni differenziali ordinarie lineari (vedi [32, Teoremi 1.2 e 1.6] per una dimostrazione): Teorema 6.1.15. Dati un intervallo I ⊆ R, un numero naturale k ≥ 1, un t0 ∈ I, punti x0 , . . . , xk−1 ∈ Rn , e un’applicazione A: I × (Rn )k → Rn di classe C ∞ e lineare rispetto a (Rn )k , il problema di Cauchy ⎧ k dk−1 V d V ⎪ ⎪ ⎨ k (t) = A t, V (t), . . . , k−1 (t) dt dt (6.4) k−1 ⎪ V ⎪ ⎩ V (t ) = x , . . . , d (t0 ) = xk−1 , 0 0 dtk−1 ammette una e una sola soluzione V : I → Rn di classe C ∞ . Questo teorema ci permette di estendere parallelamente lungo una curva un qualsiasi vettore: Lemma 6.1.16. Sia ∇ una connessione sul fibrato vettoriale π: E → M , e σ: [a, b] → M una curva in M . Allora, posto p = σ(a), per ogni v ∈ Ep esiste un unico campo vettoriale V ∈ E(σ) parallelo tale che V (a) = v.
6.1 Connessioni
323
Dimostrazione. Essendo [a, b] compatto possiamo trovare un numero finito di carte (U1 , ϕ1 ), . . . , (Uk , ϕk ) banalizzanti E che coprono l’immagine di σ; possiamo anche supporre che si abbia Uj ∩ σ([a, b]) = σ([sj , tj ]) per j = 1, . . . , k, con a = s1 < s2 < t1 < s3 < t2 < · · · < sk < tk−1 < tk = b . Allora il Teorema 6.1.15 applicato a (6.3) ci fornisce un’unica sezione parallela V1 lungo σ|[s1 ,t1 ] tale che V1 (a) = v. Analogamente, il Teorema 6.1.15 ci fornisce un’unica sezione parallela V2 lungo σ|[s2 ,t2 ] tale che V2 (t1 ) = V1 (t1 ); in particolare, l’unicit` a implica che V1 e V2 coincidono in [s2 , t1 ], definendo quindi un’unica sezione parallela lungo σ|[s1 ,t2 ] . Procedendo in questo modo troviamo un’unica sezione V parallela lungo σ tale che V (a) = v.
Questo ci permette di introdurre la seguente: Definizione 6.1.17. Sia ∇ una connessione sul fibrato vettoriale π: E → M , e σ: [0, 1] → M una curva. Poniamo p0 = σ(0) e p1 = σ(1). Dato v ∈ Ep0 , l’unica sezione V ∈ E(σ) parallela lungo σ tale che V (0) = v ∈ Ep0 `e detta estensione parallela di v lungo σ. Il trasporto parallelo lungo σ (relativo a ∇) `e l’applicazione σ ˜ : Ep0 → Ep1 definita da σ ˜ (v) = V (1), dove V ∈ E(σ) `e l’estensione parallela di v ∈ Ep0 . Lemma 6.1.18. Sia ∇ una connessione su un fibrato vettoriale π: E → M , e σ: [0, 1] → M una curva. Poniamo p0 = σ(0) e p1 = σ(1). Allora il trasporto parallelo lungo σ `e un isomorfismo fra Ep0 e Ep1 . Dimostrazione. Siccome (6.3) `e un sistema lineare di equazioni differenziali ordinarie, la soluzione dipende linearmente dalle condizioni iniziali, e quindi σ ˜ `e un’applicazione lineare. Poniamo ora σ− (t) = σ(1 − t), e sia D− la derivata covariante lungo σ− ; inoltre per ogni V ∈ E(σ) poniamo V − (t) = V (1 − t), in modo da avere V − ∈ E(σ − ). La formula (6.2) mostra subito che Dt− V − = −D1−t V ; in particolare, V − `e parallelo lungo σ− se e solo se V `e parallelo lungo σ. Questo implica che se V `e l’estensione parallela di v ∈ Ep0 allora V − `e l’estensione parallela di V (1) = σ ˜ (v) ∈ Ep1 , per cui σ ˜− = σ ˜ −1 , e σ ˜ `e un isomorfismo.
Osservazione 6.1.19. Il trasporto parallelo `e definito anche lungo curve C ∞ a tratti (vedi la Definizione 7.2.1); basta fare la composizione dei trasporti paralleli lungo i singoli tratti lisci, usando il valore finale lungo un tratto come condizione iniziale per il tratto successivo. Osservazione 6.1.20. Se σ: [0, 1] → M `e una curva chiusa, con σ(0) = σ(1) = p, allora il trasporto parallelo lungo σ diventa un automorfismo di Tp M . L’insieme degli automorfismi cos`ı ottenuti si chiama gruppo di olonomia di M in p, ed `e un invariante importante della connessione.
324
6 Strutture su variet` a
Osservazione 6.1.21. Un fatto utile `e che dati una curva σ: I → M , un fibrato vettoriale π: E → M di rango r e una connessione su E esiste sempre un riferimento locale parallelo lungo σ, cio`e una r-upla di sezioni E1 , . . . , Er ∈ E(σ) parallele lungo σ tali che {E1 (t), . . . , Er (t)} sia una base di Eσ(t) per ogni t ∈ I. Infatti, basta prendere un qualsiasi t0 ∈ I, una qualsiasi base {e1 , . . . , er } di Eσ(t0 ) , ed estendere parallelamente e1 , . . . , er lungo σ. Partendo da una connessione abbiamo quindi costruito il trasporto parallelo. Chiudiamo questa sezione mostrando che, come anticipato all’inizio, possiamo fare anche il viceversa, cio`e usare il trasporto parallelo per ottenere la connessione come limite di un rapporto incrementale: Proposizione 6.1.22. Sia ∇ una connessione definita su un fibrato vettoriale π: E → M , sia σ: I → M una curva in M , e t0 ∈ I. Allora d −1 , ∀V ∈ E(σ) Dt0 V = σ ˜t V (t) dt t=t0 dove σ ˜t : Eσ(t0 ) → Eσ(t) `e il trasporto parallelo lungo σ, e D `e la derivata covariante lungo σ. In particolare, se σ(t0 ) = p e σ (t0 ) = v ∈ Tp M allora d −1 ∀V ∈ E(M ) ∇v V = σ ˜ V σ(t) . dt t t=t0 Dimostrazione. Sia {E1 , . . . , Er } un riferimento locale parallelo lungo σ (ottenuto per esempio come descritto nell’Osservazione 6.1.21), e scriviamo V (t) = j V j (t)Ej (t). Allora r V j (t)Ej (t0 ) , σ ˜t−1 V (σ(t)) = j=1
per cui
r d −1 dV j = σ ˜t V σ(t) (t0 )Ej (t0 ) . dt dt t=t0 j=1
D’altra parte, abbiamo ⎛ ⎞ 6 r r 5 dV j V j Ej ⎠ = Dt0 ⎝ (t0 )Ej (t0 ) + V j (t0 )Dt0 Ej dt j=1 j=1 =
r dV j j=1
dt
(t0 )Ej (t0 ) ,
perch´e gli Ej sono paralleli lungo σ, e ci siamo.
6.2 Connessioni e forme differenziali
325
6.2 Connessioni e forme differenziali Quello che abbiamo scelto noi non `e l’unico modo disponibile per definire il concetto di connessione; ne esistono diversi altri, tutti equivalenti, ognuno con i propri vantaggi e svantaggi. In questa e nella prossima sezione discuteremo due di queste presentazioni alternative. Definizione 6.2.1. Sia π: E → %kM un fibrato vettoriale. Unak k-forma a valori in E `e una sezione del fibrato M ⊗ E. Indicheremo con A (M ; E) lo spazio delle k-forme a valori in E. Esempio 6.2.2. Se ω ∈ Ak (M ) `e una k-forma globale e V ∈ E(M ) `e una sezione %k M ⊗ E, cio`e una k-forma a globale di E, allora ω ⊗ V `e una sezione di valori in E. Pi` u in generale, se {E1 , . . . , Er } `e un riferimento locale del fibrato vettoriale E sull’aperto U , allora una k-forma ω ∈ Ak (M ; E) a valori in E ristretta a U si esprime in modo unico (perch´e?) come ω|U =
r
ω j ⊗ Ej ,
j=1
dove ω 1 , . . . , ω r ∈ Ar (U ) sono delle k-forme su U . Osservazione 6.2.3. Sia π: E → M un fibrato vettoriale su una variet` a M. Allora T ∗ M ⊗ E `e canonicamente isomorfo (vedi la Proposizione 1.2.26.(iii)) al fibrato Hom(T M, E), per cui (vedi l’Esercizio 6.5) dare una 1-forma a valori in E `e equivalente a dare una sezione del fibrato Hom(T M, E), cio`e un’applicazione C ∞ (M )-lineare da T (M ) a E(M ). Per esempio, se la 1-forma a valori in E `e scritta come ω ⊗V per un’opportuna 1-forma ω ∈ A1 (M ) e un’opportuna sezione V ∈ E(M ) allora (controlla) l’applicazione associata `e X → ω(X)V . Se ∇ `e una connessione sul fibrato vettoriale E, e V ∈ E(M ), allora l’applicazione che associa a ciascun X ∈ T (M ) la sezione ∇X V ∈ E(M ) `e per definizione C ∞ (M )-lineare, per cui `e indotta da una 1-forma a valori in E. Questo suggerisce la prima caratterizzazione alternativa delle connessioni: Proposizione 6.2.4. Sia ∇: T (M ) × E(M ) → E(M ) una connessione su un fibrato vettoriale π: E → M . Allora ponendo DV (X) = ∇X V si ottiene un’applicazione R-lineare D: E(M ) → A1 (M ; E) tale che D(f V ) = df ⊗ V + f DV
(6.5)
per ogni f ∈ C ∞ (M ) e ogni V ∈ E(M ). Viceversa, ogni applicazione R-lineare D: E(M ) → A1 (M ; E) che soddisfa (6.5) `e indotta da un’unica connessione su E.
326
6 Strutture su variet` a
Dimostrazione. Che D sia ben definita e R-lineare segue subito da quanto detto prima dell’enunciato. Per verificare (6.5) basta notare che D(f V )(X) = ∇X (f V ) = X(f )V + f ∇X V = df (X)V + f ∇X V = [df ⊗ V + f DV ](X) , e ci siamo. Data invece D: E(M ) → A1 (M ; E), sia ∇: T (M ) × E(M ) → E(M ) definita da ∇X V = DV (X). Questa ∇ `e chiaramente C ∞ (M )-lineare in X ed Rlineare in V ; inoltre ∇X (f V ) = D(f V )(X) = [df ⊗ V + f DV ](X) = df (X)V + ∇X V = X(f )V + ∇X V , per cui ∇ `e una connessione come voluto.
Questa caratterizzazione suggerisce un altro modo per rappresentare una connessione in coordinate locali. Sia ∇: T (M ) × E(M ) → E(M ) una connessione su un fibrato vettoriale π: E → M , e D: E(M ) → A1 (M ; E) l’applicazione associata dalla Proposizione 6.2.4. Scegliamo un riferimento locale {E1 , . . . , Er } per E sopra un aperto U ⊆ M banalizzante E. Allora possiamo definire una matrice ω = (ωjk ) di 1-forme su U ponendo DEj =
r
ωjk ⊗ Ek ,
k=1
ovvero ∀X ∈ T (U )
∇X Ej =
r
ωjk (X)Ek .
k=1
Se U `e il dominio di una carta locale, in coordinate locali (x1 , . . . , xn ) chiaramente abbiamo n Γijk dxi , ωjk = i=1
sono i simboli di Christoffel di ∇ rispetto al dato riferimento locale dove e alla data carta locale. Γijk
Definizione 6.2.5. Sia ∇: T (M ) × E(M ) → E(M ) una connessione su un fibrato vettoriale π: E → M , e {E1 , . . . , Er } un riferimento locale per E su un aperto U . La matrice ω = (ωjk ) di 1-forme su U appena definita `e detta matrice delle forme di connessione rispetto al dato riferimento locale. ˜1 , . . . , E ˜r } un altro riferimento locale per E sopra U . Allora deSia {E ve esistere una matrice invertibile A = (Akh ) di funzioni C ∞ su U tali che ˜h = r Ak Ek . Se indichiamo con ω ˜ = (˜ ωih ) la matrice delle forme di E k=1 h connessione rispetto a questo riferimento locale abbiamo
6.3 Connessioni e fibrati orizzontali
A
r r k=1
B Akh ω ˜ ih ⊗ Ek =
h=1
r
ω ˜ ih ⊗
h=1
r
Akh Ek =
k=1
r
327
˜h = D E ˜i ω ˜ ih ⊗ E
h=1
⎛ ⎞ r r C 9 Aji DEj + dAji ⊗ Ej = D⎝ Aji Ej ⎠ = j=1
j=1
⎡ ⎤ r r ⎣ = Aji ωjk + dAki ⎦ ⊗ Ek . k=1
j=1
Scrivendo questa formula usando il prodotto righe per colonne di matrici ˜ = ω · A + dA, cio`e otteniamo A · ω ˜ = A−1 · ω · A + A−1 · dA . ω
(6.6)
Viceversa, si verifica facilmente (Esercizio 6.4) che dato un ricoprimento aperto {Uα } di M banalizzante E, riferimenti locali {E1α , . . . , Erα } per E definiti su Uα , e una famiglia {ω α } di matrici di 1-forme che soddisfano (6.6), con ω α definita su Uα , allora esiste un’unica connessione ∇ su E tale che ∀X ∈ T (Uα )
∇X Ejα =
r
(ωα )kj (X)Ekα .
k=1
6.3 Connessioni e fibrati orizzontali La seconda presentazione alternativa delle connessioni `e in termini di sottofibrati orizzontali. Definizione 6.3.1. Sia π: E → M un fibrato vettoriale di rango r su una n-variet` a M . Il sottofibrato verticale V ⊂ T E `e il nucleo del differenziale di π, cio`e V = ker(dπ). Siccome dπ: T E → T M `e surgettiva, il fibrato verticale (che `e un fibrato vettoriale su E, grazie all’Esercizio 3.6) ha rango r. Un sottofibrato orizzontale `e un sottofibrato H ⊂ T E di rango n tale che T E = H ⊕ V, e indicheremo con κ: T E → V la proiezione associata. Osservazione 6.3.2. Dato p ∈ M e v ∈ Ep , indichiamo con jp : Ep → E l’inclusione, e con kv : Ep → Tv (Ep ) la solita identificazione canonica. Siccome π ◦ jp ≡ p, si ha dπ ◦ djp ≡ O, per cui Vv = d(jp )v Tv (Ep ) e ιv = d(jp )v ◦ kv : Ep → Vv `e un isomorfismo fra Ep e lo spazio verticale Vv . Se χ: π −1 (U ) → U × Rr `e una banalizzazione locale sull’aperto U ⊆ M dominio di coordinate locali ϕ = (x1 , . . . , xn ), e {E1 , . . . , Er } `e il riferimento locale associato a χ, allora le coordinate locali su π −1 (U ) sono date da
328
6 Strutture su variet` a
⎛ ϕ˜ ⎝
r
⎞ v j Ej (p)⎠ = (x1 , . . . , xn ; v 1 , . . . , v r )
j=1
dove (x , . . . , x ) = ϕ(p). Indicando con {∂1 , . . . , ∂n , ∂˙1 , . . . , ∂˙r } il corrispondente riferimento locale di T E, dove ∂h = ∂/∂xh e ∂˙j = ∂/∂v j , chiaramente Vv `e il sottospazio generato da {∂˙1 |v , . . . , ∂˙r |v }, e ⎞ ⎛ r r ιv ⎝ wj Ej (p)⎠ = wj ∂˙j |v 1
n
j=1
j=1
per ogni v ∈ Ep . Un’altra formula utile per lavorare in coordinate locali `e la seguente: se V = j V j Ej ∈ E(U ) allora (controlla) ⎡ ⎤ n r j ∂V ˙ ⎦ dxh ⊗ ⎣∂h + dV = ∂j , ∂xh j=1 h=1
dove stiamo interpretando dV come un elemento di A1 (T U ; T E). Contrariamente al sottofibrato verticale, il sottofibrato orizzontale non `e unico; ci sono tanti modi per scegliere un sottofibrato complementare a V. Comunque sia, se H `e un sottofibrato orizzontale allora per costruzione dπv : Hv → Tπ(v) M `e un isomorfismo per ogni v ∈ T M . Il nostro obiettivo `e far vedere che dare una connessione `e equivalente a dare un sottofibrato orizzontale che soddisfa alcune propriet` a speciali. Cominciamo con Lemma 6.3.3. Sia D: E(M ) → A1 (M ; E) una connessione su un fibrato vettoriale π: E → M . Dati p ∈ M e v ∈ Ep , siano V , V˜ ∈ E(M ) tali che V (p) = V˜ (p) = v. Allora dV˜p − ιv ◦ (DV˜ )p = dVp − ιv ◦ (DV )p , dove stiamo identificando come al solito Tp∗ M ⊗ Ep con Hom(Tp M, Ep ). Dimostrazione. Essendo V (p) = V˜ (p) = v possiamo trovare f ∈ C ∞ (M ) con f (p) = 0 e W ∈ E(M ) tali che V˜ = V +f W . Quindi DV˜ = DV +df ⊗W +f DW e (DV˜ )p − (DV )p = dfp ⊗ W (p) . D’altra parte π ◦ V = π ◦ V˜ = id implica dπv ◦ (dV˜p − dVp ) ≡ O, per cui l’immagine di dV˜p − dVp `e contenuta in Vv . Inoltre lavorando in coordinate locali (vedi l’Osservazione 6.3.2) si verifica facilmente che (dV˜p − dVp )(w) = ιv dfp (w)W (p) = ιv ◦ dfp ⊗ W (p) (w) , per ogni w ∈ Tp M , e ci siamo.
6.3 Connessioni e fibrati orizzontali
329
Definizione 6.3.4. Sia ∇: T (M ) × E(M ) → E(M ) una connessione su un fibrato vettoriale π: E → M . Per ogni v ∈ E definiamo l’applicazione Θv : Tπ(v) M → Tv E data da Θv (X) = dVπ(v) (X) − ιv (∇X V )
(6.7)
per ogni X ∈ Tπ(v) M , dove V ∈ E(M ) `e una qualsiasi sezione tale che V π(v) = v. Il sottofibrato orizzontale H∇ associato a ∇ `e allora definito ponendo Hv∇ = Θv (Tπ(v) M ) per ogni v ∈ E. Il Lemma 6.3.3 ci assicura che l’applicazione Θv `e ben definita, e si verifica subito che in coordinate locali `e data da Θv (X) =
n
X h ∂h +
h=1
r n
j Γhk X h vk ∂˙j |v ,
h=1 k,j=1
dove X = h X h ∂x∂ h e v = k v k Ek ; in particolare, H∇ `e effettivamente un sottofibrato orizzontale, e la proiezione associata κ∇ : T E → V in coordinate locali `e data da ⎛ ⎞ r n r r n h k j ∇⎝ h j ˙ ⎠ j κv b − a ∂h + b ∂j = Γhk π(v) a v ∂˙j |v . (6.8) h=1
j=1
j=1
h=1 k=1
Non `e per`o un sottofibrato orizzontale qualsiasi; tiene traccia della struttura di fibrato vettoriale di E. Per spiegare come, introduciamo due definizioni. Definizione 6.3.5. Sia π: E → M un fibrato vettoriale. Se λ ∈ R, indichiamo con μλ : E → E la moltiplicazione per λ, cio`e μλ (v) = λv. Inoltre, indichiamo con σ: E ⊕ E → E la somma σ(v1 , v2 ) = v1 + v2 . Osservazione 6.3.6. Sia π: E → M un fibrato vettoriale con sottofibrato verticale V. Allora si verifica facilmente (Esercizio 6.8) che Vμλ (v) = d(μλ )v (Vv ) e ιμλ (v) ◦ μλ = d(μλ )v ◦ ιv per ogni v ∈ E e ogni λ ∈ R∗ , e che Vσ(v1 ,v2 ) = dσ(v1 ,v2 ) (Vv1 ⊕ Vv2 ) e ισ(v1 ,v2 ) ◦ σ = dσ(v1 ,v2 ) ◦ (ιv1 ⊕ ιv2 ) per ogni (v1 , v2 ) ∈ E ⊕ E. Definizione 6.3.7. Sia π: E → M un fibrato vettoriale, e H ⊂ T E un sottofibrato orizzontale di proiezione associata κ: T E → V. Diremo che H `e lineare se κμλ (v) ◦ d(μλ )v = d(μλ )v ◦ κv per ogni v ∈ E e ogni λ ∈ R∗ , e κσ(v1 ,v2 ) ◦ dσ(v1 ,v2 ) = dσ(v1 ,v2 ) ◦ (κv1 ⊕ κv2 ) per ogni (v1 , v2 ) ∈ E ⊕ E. Vedi l’Esercizio 6.9 per un’altra caratterizzazione dei fibrati orizzontali lineari.
330
6 Strutture su variet` a
Lavorando in coordinate locali (e usando l’Esercizio 6.10 per E ⊕ E) si vede facilmente che (6.8) implica che H∇ `e un sottofibrato lineare. Quindi a ogni connessione abbiamo associato un fibrato orizzontale lineare. Possiamo fare anche il viceversa: Definizione 6.3.8. Sia H un sottofibrato orizzontale lineare di un fibrato vettoriale π: E → M , e sia κ: T E → V la proiezione relativa. La connessione D H associata a H `e l’applicazione D H : E(M ) → A1 (M ; E) definita da DH V = ι−1 V ◦ κV ◦ dV . Usando la linearit` a del sottofibrato e l’Osservazione 6.3.6 otteniamo −1 DH (λV ) = ι−1 μλ (V ) ◦ κμλ (V ) ◦ d(μλ )V ◦ dV = ιμλ (V ) ◦ d(μλ )V ◦ κV ◦ dV H = μλ ◦ ι−1 V ◦ κV ◦ dV = λD V ,
e analogamente si dimostra che DH (V1 + V2 ) = DH V1 + DH V2 , per cui DH `e R-lineare. Per dimostrare che D H `e effettivamente una connessione, da verificare la regola di Leibniz. Sia f ∈ C ∞ (M ) e rimane h ∂ w = h w ∂xh ∈ Tp M ; allora lavorando in coordinate locali e ricordando l’Osservazione 6.3.2 abbiamo d(f V )p (w) =
n h=1
wh ∂h |f V + f (p)
r n ∂V j h=1 j=1
∂xh
wh ∂˙j |f V + dfp (w)ιf V (V ) ,
per cui usando nuovamente la linearit` a di H, l’Osservazione 6.3.6, e il fatto che κ `e l’identit` a su V, ricaviamo (controlla) che D H (f V )(w) = f (p)DH V (w) + dfp (w)V , come voluto. Dunque a ogni sottofibrato orizzontale lineare H possiamo associare una connessione, che indicheremo con ∇H . Per far vedere che abbiamo ottenuto effettivamente un’altra presentazione delle connessioni non ci resta che dimostrare: Proposizione 6.3.9. Sia π: E → M un fibrato vettoriale. Allora le corrispondenze ∇ → H∇ e H → ∇H sono corrispondenze biunivoche, una inversa dell’altra, fra connessioni su E e sottofibrati orizzontali lineari di T E. ∇
Dimostrazione. Cominciamo con il dimostrare che ∇H = ∇ per ogni connessione ∇: T (M ) × E(M ) → E(M ) su E. Infatti, (6.7) ci dice che dV (X) = ΘV (X) + ιV (∇X V )
6.4 Connessioni sui fibrati tensoriali
331
per ogni X ∈ T (M ) e V ∈ E(M ). Ora, ΘV (X) ∈ HV∇ per definizione di H∇ , ∇ e ιV (∇X V ) ∈ VV per definizione di ιV ; quindi κH dV (X) = ιV (∇X V ), e V ∇
∇
∇
H H ∇H V (X) = ι−1 ◦ dV (X) = ∇X V . X V =D V ◦ κV H
Adesso invece dimostriamo che H∇ = H per ogni sottofibrato orizzonH `e l’immagine di Tp M tramite tale lineare H ⊂ T E. Per costruzione, Hv∇ dV −ιv ◦DH V , dove V ∈ E(M ) `e tale che V π(v) = v. Ma ιv ◦DH = κH v ◦dV ; quindi dV − ιv ◦ DH V = (id −κH v ) ◦ dV . H
e la proiezione su Hv ; quindi Hv∇ `e contenuto in Hv . Trattandosi Ma id −κH v ` di due spazi vettoriali di uguale dimensione, devono coincidere, e abbiamo finito.
Osservazione 6.3.10. Esaminando con attenzione quanto fatto in questa sezione noterai che il ruolo principale `e stato svolto dalla proiezione κ: T E → V piuttosto che dal fibrato orizzontale H. Questo suggerisce una generalizzazione del concetto di connessione applicabile a qualsiasi fibrato, non necessariamente vettoriale. Sia π: E → M un fibrato di fibra generica F . Il sottofibrato verticale `e VE = ker dπ ⊂ T E; e una connessione (non lineare) `e una proiezione κ: T E → VE , lineare sulle fibre e che `e l’identit` a su VE . Un caso particolare di fibrato `e il fibrato principale GL(Rr , E) dei riferimenti di un fibrato vettoriale E; allora si pu` o dimostrare che dare una connessione su E `e equivalente a dare una connessione (lineare in un senso opportuno) su GL(Rr , E); vedi [25, Chapter IV] o [19] per dettagli.
6.4 Connessioni sui fibrati tensoriali Nel seguito lavoreremo principalmente con connessioni lineari, cio`e con connessioni definite sul fibrato tangente T M . Una delle propriet` a caratteristiche delle connessioni lineari `e che inducono una connessione su ciascun fibrato tensoriale: Proposizione 6.4.1. Sia ∇ una connessione lineare su una variet` a M . Allora esiste un unico modo di definire per ogni h, k ∈ N una connessione su Tkh M , ancora indicata con ∇, in modo da soddisfare le seguenti condizioni: (i) su T M la connessione ∇ coincide con la connessione lineare data; (ii) su T 0 M = C ∞ (M ) si ha ∇X (f ) = X(f ); h (iii) se Kj ∈ Tkjj (M ), per j = 1, 2 e X ∈ T (M ) si ha ∇X (K1 ⊗ K2 ) = (∇X K1 ) ⊗ K2 + K1 ⊗ (∇X K2 ) ; (iv) ∇ commuta con le contrazioni introdotte nella Definizione 1.3.10.
332
6 Strutture su variet` a
Inoltre, se η ∈ A1 (M ) e X, Y ∈ T (M ) si ha (∇X η)(Y ) = X η(Y ) − η(∇X Y ) .
(6.9)
Dimostrazione. Cominciamo a verificare l’unicit` a. Se ∇ soddisfa (i)–(iv) allora per ogni η ∈ A1 (M ) e X, Y ∈ T (M ) abbiamo X η(Y ) = ∇X η(Y ) = ∇X C11 (Y ⊗ η) = C11 ∇X (Y ⊗ η) = C11 (∇X Y ⊗ η + Y ⊗ ∇X η) = ∇X η(Y ) + η(∇X Y ) , per cui (6.9) `e una conseguenza. Questo vuol dire che la connessione ∇ su T ∗ M `e univocamente determinata da (i)–(iv); siccome la conosciamo anche su T M e su C ∞ (M ) la (iii) implica che ∇ `e univocamente determinata su qualsiasi Tkh M . Per l’esattezza, vale la seguente formula: (∇X K)(ω 1 , . . . , ω h , Y1 , . . . , Yk ) = X K(ω 1 , . . . , ω h , Y1 , . . . , Yk ) −
h
K(ω 1 , . . . , ∇X ω r , . . . , ω h , Y1 , . . . , Yk )
(6.10)
r=1
−
k
K(ω 1 , . . . , ω h , Y1 , . . . , ∇X Ys , . . . , Yk ) .
s=1
Per verificarla `e sufficiente considerare campi tensoriali decomponibili della forma K = X1 ⊗ · · · ⊗ Xh ⊗ η 1 ⊗ · · · ⊗ η k . La propriet` a (iii) e la formula (6.9) implicano ∇X K(ω 1 , . . . , ω h , Y1 , . . . , Yk ) =
h
(X1 ⊗ · · · ⊗ ∇X Xr ⊗ · · · ⊗ Xh ⊗ η 1 ⊗ · · · ⊗ η k )(ω 1 , . . . , ω h , Y1 , . . . , Yk )
r=1
+
k (X1 ⊗· · ·⊗Xh ⊗η 1 ⊗· · ·⊗∇X η s ⊗· · ·⊗· · ·⊗η k )(ω 1 , . . . , ω h , Y1 , . . . , Yk ) s=1
=
h
ω 1 (X1 ) · · · ω r (∇X Xr ) · · · ω h (Xh )η 1 (Y1 ) · · · η k (Yk )
r=1
+
k
ω 1 (X1 ) · · · ω h (Xh )η 1 (Y1 ) · · · ∇X η s (Ys ) · · · η k (Yk )
s=1
=
h r=1
7 8 ω 1 (X1 ) · · · X ω r (Xr ) − (∇X ω r )(Xr ) · · · ω h (Xh )η 1 (Y1 ) · · · η k (Yk )
6.4 Connessioni sui fibrati tensoriali
+
k
333
7 8 ω 1 (X1 ) · · · ω h (Xh )η 1 (Y1 ) · · · X η s (Ys ) − η s (∇X Ys ) · · · η k (Yk )
s=1
= X K(ω 1 , . . . , ω h , Y1 , . . . , Yk ) −
h
K(ω 1 , . . . , ∇X ω r , . . . , ω h , Y1 , . . . , Yk )
r=1
−
k
K(ω 1 , . . . , ω h , Y1 , . . . , ∇X Ys , . . . , Yk ) ,
s=1
e ci siamo. Per l’esistenza, cominciamo usando la (6.9) per definire ∇ su T ∗ M . Prima di tutto, ∇X η(f Y ) = X(f )η(Y ) + f X η(Y ) − η f ∇X Y + X(f )Y = f ∇X η(Y ) , per cui la Proposizione 3.2.16 ci assicura che ∇X η `e effettivamente una 1forma. Siccome ∇X η `e chiaramente C ∞ (M )-lineare in X, e per ogni Y ∈ T (M ) si ha ∇X (f η)(Y ) = X f η(Y ) − f η(∇X Y ) = [X(f )η + f ∇X η](Y ) , otteniamo effettivamente una connessione su T ∗ M . Analogamente, definiamo ∇ su ciascun Tkh M tramite la (6.10); si verifica facilmente (esercizio) che si ottiene una connessione che possiede le propriet`a volute.
Se σ: (−ε, ε) → M `e una curva in M con σ(0) = p, la Proposizione 6.1.22 ci dice che possiamo recuperare la connessione sui fibrati tensoriali usando il trasporto parallelo su ciascun Tkh M . D’altra parte, l’Osservazione 1.3.8 permette di associare al trasporto parallelo σ ˜t lungo σ in T M un isomorfismo T (˜ σt ) fra (Tkh M )p e (Tkh M )σ(t) ; `e quindi naturale chiedersi se `e possibile usare questo isomorfismo per recuperare la connessione indotta su Tkh M . La risposta `e, come prevedibile, positiva: Corollario 6.4.2. Sia ∇ una connessione lineare su una variet` a M . Allora per ogni p ∈ M , v ∈ Tp M , e K ∈ Tkh (M ) si ha 9 dC ∈ Tkh (M )p , (6.11) ∇v K = T (˜ σt )−1 K σ(t) dt t=0 dove σ: (−ε, ε) → M `e una curva in M con σ(0) = p e σ (0) = v, e σ ˜t `e il trasporto parallelo fra Tp M e Tσ(t) M . Dimostrazione. Ricordando la Proposizione 6.1.22, basta verificare che il trasporto parallelo lungo σ indotto da ∇ su ciascun Tkh M (che indichiamo provvisoriamente con σ ˆt ) coincide con l’isomorfismo T (˜ σt ). Scegliamo un riferimento locale {v1 , . . . , vn } di T M parallelo lungo σ, e sia {v 1 , . . . , v n } il riferimento
334
6 Strutture su variet` a
duale di T ∗ M lungo σ. Nota che anche i v j sono paralleli rispetto a ∇: infatti la (6.9) implica (Dt v j ) vi = σ (t) vj (vi ) − v j (Dt vi ) = O per ogni i e j, per cui Dvj ≡ O. Questo implica che ˜t vi (0) e σ ˆt v j (0) = vj (t) = T (˜ σt ) v j (0) σ ˆt vi (0) = vi (t) = σ per ogni 1 ≤ i, j ≤ n. Ma allora la propriet` a (iii) e la definizione di T (˜ σt ) implicano che σ ˆt vi1 (0) ⊗ · · · ⊗ vih (0) ⊗ v j1 (0) ⊗ · · · ⊗ v jk (0) = vi1 (t) ⊗ · · · ⊗ vih (t) ⊗ v j1 (t) ⊗ · · · ⊗ v jk (t) = T (˜ σt ) vi1 (0) ⊗ · · · ⊗ vih (0) ⊗ v j1 (0) ⊗ · · · ⊗ v jk (0) , per ogni 1 ≤ i1 , . . . , jk ≤ n, e quindi σ ˆt ≡ T (˜ σt ), come volevamo.
Ora, prendiamo K ∈ Tkh (M ). Siccome ∇ `e C ∞ (M )-lineare in X, l’applicazione (ω 1 , . . . , ω h , Y1 , . . . , Yk , X) → ∇X K(ω 1 , . . . , ωh , Y1 , . . . , Yk )
(6.12)
`e C ∞ (M )-multilineare in tutte le variabili, e quindi (Proposizione 3.2.16) definisce un campo tensoriale. Definizione 6.4.3. Sia ∇ una connessione lineare su una variet` a M . Dato h K ∈ Tkh (M ), il campo tensoriale ∇K ∈ Tk+1 (M ) definito da (6.12) si chiama derivata covariante totale di K. Se ∇K ≡ O diremo che K `e parallelo. Esempio 6.4.4. Se f ∈ C ∞ (M ) allora ∇f = df . Infatti per ogni X ∈ T (M ) si ha df (X) = X(f ) = ∇X f = (∇f )(X) . Usando la derivata covariante totale possiamo generalizzare due concetti dell’Analisi classica: Definizione 6.4.5. Sia ∇ una connessione lineare su una variet` a M . Se f ∈ C ∞ (M ) il campo tensoriale ∇2 f = ∇(∇f ) = ∇(df ) ∈ T2 (M ) `e detto Hessiano di f . Definizione 6.4.6. Sia ∇ una connessione lineare su una variet`a M , e prendiamo X ∈ T (M ). Allora ∇X ∈ T11 (M ), per cui possiamo definire la funzione div(X) = C11 (∇X) , che `e detta divergenza di X.
6.5 Variet` a Riemanniane
335
Per verificare che su Rn questi concetti si riducono agli usuali Hessiano e divergenza, calcoliamone l’espressione in coordinate locali. Se X, Y ∈ T (M ) abbiamo ∇2 f (X, Y ) = ∇(∇f )(X, Y ) = ∇Y (df ) (X) = Y df (X) − df (∇Y X) = Y X(f ) − ∇Y X(f ) . (6.13) Quindi la matrice che rappresenta ∇2 f in coordinate locali `e data da ∂2f k ∂f − Γji . j i ∂x ∂x ∂xk n
∇2 f (∂i , ∂j ) =
(6.14)
k=1
In particolare, su Rn con la connessione piatta ritroviamo l’Hessiano usuale. Nota per` o che per connessioni generali questo Hessiano non `e una forma k = Γijk . bilineare simmetrica, in quanto non `e detto che si abbia Γji n h Poi, (6.1) implica (controlla) che se X = h=1 X ∂h allora ⎛ ⎞ n n k ⎝dX k + Γjh X h dxj ⎠ ⊗ ∂k , ∇X = k=1
per cui div(X) =
j,h=1 n
k=1
∂X k k h + Γkh X ∂xk n
,
h=1
e di nuovo su Rn con la connessione piatta recuperiamo la solita divergenza.
6.5 Variet` a Riemanniane Come anticipato nell’introduzione a questo capitolo, un’altra struttura aggiuntiva molto utile che pu` o essere considerata su una variet`a permette di misurare le lunghezze dei vettori tangenti a una variet` a e quindi (come vedremo nel Capitolo 7) di dare una struttura metrica a una variet` a. Definizione 6.5.1. Una metrica Riemanniana su una variet` a M `e un campo tensoriale g ∈ T2 (M ) simmetrico (cio`e tale che gp (w, v) = gp (v, w) per ogni v, w ∈ Tp M e p ∈ M ) e definito positivo (cio`e gp (v, v) > 0 per ogni v = Op ). La coppia (M, g) `e detta variet` a Riemanniana. Spesso useremo anche la notazione v, w p al posto di gp (v, w), e indicheremo con · p la norma su Tp M indotta dal prodotto scalare gp . In altre parole, una metrica Riemanniana associa a ogni punto p ∈ M un prodotto scalare definito positivo gp : Tp M × Tp M → R che dipende in modo C ∞ dal punto p. Ci sono alcune situazioni (per esempio nello studio della relativit` a generale) in cui `e utile studiare variet` a equipaggiate con un campo tensoriale con propriet` a simili a quelle di una metrica Riemanniana ma non necessariamente definito positivo.
336
6 Strutture su variet` a
Definizione 6.5.2. Una metrica pseudo-Riemanniana su una variet` a M `e un campo tensoriale g ∈ T2 (M ) simmetrico non degenere (cio`e tale che gp (v, w) = 0 per ogni w ∈ Tp M se e solo se v = Op ) ma non necessariamente definito positivo. La coppia (M, g) `e detta variet` a pseudo-Riemanniana. Se g `e una metrica pseudo-Riemanniana su una variet`a n-dimensionale M connessa, diremo che g ha segnatura (r, s), con r, s ∈ N, se la massima dimensione di un sottospazio di Tp M su cui gp `e definita positiva (rispettivamente, definita negativa) `e r (rispettivamente, s). Per continuit` a, essendo M connessa, la segnatura non dipende dal punto p ∈ M usata per calcolarla; inoltre il teorema di Sylvester (vedi [1, Teorema 16.8]) implica che r + s = n. Una metrica pseudo-Riemanniana di segnatura (1, n−1) `e detta metrica di Lorentz. Diversi dei risultati di questo capitolo riguardanti le metriche Riemanniane (per esempio la costruzione della connessione di Levi-Civita nel paragrafo 6.6) sono validi anche per le metriche pseudo-Riemanniane; indicheremo esplicitamente i casi pi` u significativi. Vediamo ora come si esprime una metrica Riemanniana (o, pi` u in generale, un campo tensoriale g ∈ T2 (M ) simmetrico) in coordinate locali. Fissata una carta locale (U, ϕ), indichiamo con (x1 , . . . , xn ) le corrispondenti coordinate locali, e con {∂1 , . . . , ∂n } il corrispondente riferimento locale di T M . Allora possiamo definire delle funzioni ghk ∈ C ∞ (U ) ponendo ghk = g(∂h , ∂k ); e chiaramente abbiamo n ghk dxh ⊗ dxk . (6.15) g= h,k=1
Inoltre, la matrice simmetrica (ghk ) `e non degenere se e solo se g `e non degenere, ed `e definita positiva se e solo se g `e definita positiva. Osservazione 6.5.3. Attenzione: d’ora in poi useremo la convenzione di Einstein sugli indici ripetuti. Se lo stesso indice appare due volte in una formula, una volta in basso e una volta in alto, supporremo sottintesa una sommatoria su tutti i possibili valori di quell’indice. Per esempio, la (6.15) verr` a scritta g = ghk dxh ⊗ dxk , sottintendendo la sommatoria su h e k che variano da 1 a n. Vale la pena avvertire che in alcuni testi si trova scritto dxh dxk invece di dxh ⊗ dxk , e in particolare (dxj )2 invece di dxj ⊗ dxj . Infine, la matrice inversa della matrice (ghk ) sar`a indicata con (g hk ), in modo da avere ghj g jk = g kj gjh = δhk , dove δhk `e, come sempre, il delta di Kronecker.
6.5 Variet` a Riemanniane
337
Esempio 6.5.4 (Rn con la metrica piatta). Identificando come al solito Tp Rn con Rn per ogni p ∈ Rn , possiamo mettere su ciascuno spazio tangente il prodotto scalare canonico. In questo modo otteniamo una metrica Riemanniana su Rn , detta metrica euclidea o metrica piatta su Rn , data da g0 = δhk dxh ⊗ dxk = dx1 ⊗ dx1 + · · · + dxn ⊗ dxn . Pi` u in generale, fissato 0 ≤ r ≤ n su Rn possiamo mettere la metrica di Minkowski di segnatura (r, n − r), che `e la metrica pseudo-Riemanniana data da dx1 ⊗ dx1 + · · · + dxr ⊗ dxr − dxr+1 ⊗ dxr+1 − · · · − dxn ⊗ dxn . a Esempio 6.5.5 (La metrica prodotto). Siano (M1 , g1 ) e (M2 , g2 ) due variet` Riemanniane. Allora sulla variet` a M1 × M2 possiamo mettere la metrica prodotto g1 + g2 definita in questo modo: siccome per ogni (p1 , p2 ) ∈ M1 × M2 lo spazio tangente T(p1 ,p2 ) (M1 × M2 ) `e isomorfo a Tp1 M1 ⊕ Tp2 M2 , ogni elemento di T(p1 ,p2 ) (M1 × M2 ) `e della forma v = (v1 , v2 ), con vj ∈ Tpj Mj , per cui possiamo porre (g1 + g2 )(p1 ,p2 ) (v, w) = (g1 )p1 (v1 , w1 ) + (g2 )p2 (v2 , w2 ) per ogni v = (v1 , v2 ), w = (w1 , w2 ) ∈ T(p1 ,p2 ) (M1 × M2 ). Si verifica subito (controlla) che g1 + g2 `e una metrica Riemanniana (e, pi` u in generale, vedi l’Esercizio 6.12 per il prodotto di metriche pseudo-Riemanniane). Usando le partizioni dell’unit` a e la metrica piatta `e facile dimostrare l’esistenza di metriche Riemanniane su qualsiasi variet`a: Proposizione 6.5.6. Ogni variet` a M ammette una metrica Riemanniana. a subordinata a un atlante Dimostrazione. Sia {ρα } una partizione dell’unit` A = {(Uα , ϕα )} di M . Su ciascun aperto Uα introduciamo la metrica piatta g α indotta dal sistema di coordinate: se p ∈ Uα , e v = v j ∂j,α e w = wj ∂j,α `e la scrittura in coordinate locali di due vettori v, αw ∈ Tp M , allora poniamo gpα (v, w) = j vj w j (in altre parole, la matrice (ghk ) `e la matrice identica). Definiamo allora un campo tensoriale g ∈ T2 (M ) con ∀p ∈ M gp = ρα (p)gpα , (6.16) α
dove in ciascun punto p ∈ M solo un numero finito di addendi sono diversi da ` facile verificare (controlla) che questa formula definisce una metrica zero. E Riemanniana su M , in quanto la somma di campi tensoriali simmetrici definiti positivi `e ancora un campo tensoriale simmetrico definito positivo.
Osservazione 6.5.7. La dimostrazione della Proposizione 6.5.6 funziona solo per costruire metriche definite positive o negative, ma non funziona per costruire metriche pseudo-Riemanniane di segnatura data. Infatti, anche se tutte
338
6 Strutture su variet` a
le metriche locali g α hanno la stessa segnatura, niente assicura che la combinazione data in (6.16) abbia ancora la stessa segnatura — anzi, potrebbe persino essere degenere. Questo non `e un problema della dimostrazione, ma un fatto ineludibile: ci sono delle ostruzioni topologiche all’esistenza su una data variet` a di metriche pseudo-Riemanniane di segnatura fissata. Per esempio, si pu` o dimostrare che una variet` a compatta n-dimensionale ammette una metrica pseudo-Riemanniana di segnatura (1, n − 1) se e solo se ha caratteristica di Eulero-Poincar´e nulla (vedi la Definizione 5.E.2 e [11, pag. 399]). Osservazione 6.5.8. Sia (ghk ) la matrice che rappresenta una metrica (pseudo)Riemanniana g rispetto alla carta locale (U, ϕ), e (˜ gij ) la matrice che rap˜ , ϕ). presenta g rispetto a un’altra carta locale (U ˜ Ricordando la (2.5) e la formula che mostra come cambia la matrice che rappresenta un prodotto scalare cambiando base otteniamo T ∂x ∂x · (ghk ) · (˜ gij ) = ∂x ˜ ∂x ˜ ˜ , dove il · indica il prodotto di matrici. In altre parole abbiamo in U ∩ U g˜ij = In particolare,
∂xh ∂xk ghk . ∂x ˜i ∂ x ˜j
5 62 ∂x det(ghk ) . det(˜ gij ) = det ∂x ˜
(6.17)
Come prevedibile, le applicazioni che conservano la struttura Riemanniana hanno un nome particolare. ˜ , g˜) un’applicazione C ∞ fra due vaDefinizione 6.5.9. Sia H: (M, g) → (M riet` a (pseudo)Riemanniane della stessa dimensione. Diremo che H `e un’isometria in p ∈ M1 se per ogni v, w ∈ Tp M1 si ha g˜H(p) (dHp (v), dHp (w) = gp (v, w) . Se H `e un’isometria in p, il differenziale di H in p `e invertibile, e quindi H `e un diffeomorfismo di un intorno di p con un intorno di H(p). Diremo che H `e un’isometria locale in p ∈ M se p ha un intorno U tale che H|U sia un’isometria in ogni punto di U ; e che `e un’isometria locale se lo `e in ogni punto di M . Infine, diremo che H `e un’isometria se `e un diffeomorfismo globale e un’isometria in ogni punto di M . Definizione 6.5.10. Diremo che la variet` a Riemanniana (M, g) `e localmente ˜ , g˜) se per ogni p ∈ M esiste un’isoisometrica alla variet` a Riemanniana (M ˜ . Infine, diremo che (M, g) metria di un intorno di p in M con un aperto di M ˜ , g˜) sono isometriche se esiste un’isometria (globale) fra (M, g) e (M ˜ , g˜). e (M
6.5 Variet` a Riemanniane
339
Definizione 6.5.11. Data una variet` a (pseudo)Riemanniana (M, g), indicheremo con Iso(M ) il gruppo di tutte le isometrie di M con se stessa. Diremo che M `e omogenea se Iso(M ) agisce in modo transitivo, cio`e se per ogni p, q ∈ M esiste H ∈ Iso(M ) tale che H(p) = q. Diremo infine che M `e isotropa in un punto p ∈ M se per ogni v, w ∈ Tp M con gp (v, v) = gp (w, w) esiste H ∈ Iso(M ) tale che H(p) = p e dHp (v) = w. Osservazione 6.5.12. Se M `e omogenea, e isotropa in un punto, allora `e isotropa in ogni punto (perch´e?). Osservazione 6.5.13. Sia (U, ϕ) una carta locale in una variet` a Riemanniana (M, g). Se applichiamo il procedimento di Gram-Schmidt al riferimento locale {∂1 , . . . , ∂n } otteniamo un riferimento locale ortonormale {E1 , . . . , En } per T M su U . Attenzione: di solito per` o non `e possibile trovare una carta locale (U, ϕ) tale che il riferimento {∂1 , . . . , ∂n } sia ortonormale in U . Infatti, come vedremo nell’Osservazione 8.1.7, l’esistenza di un riferimento {∂1 , . . . , ∂n } ortonormale ha come conseguenza che la variet`a Riemanniana `e piatta (ha curvatura identicamente nulla), che `e una condizione invariante per isometrie (e che, di solito, non `e soddisfatta). Un’immersione in una variet` a Riemanniana induce una metrica Riemanniana anche nella variet` a di partenza: Definizione 6.5.14. Sia F : M → N un’immersione, e g una metrica Riemanniana su N . Definiamo per ogni p ∈ M un prodotto scalare (F ∗ g)p su Tp M ponendo ∀v, w ∈ Tp M (F ∗ g)p (v, w) = gF (p) dFp (v), dFp (w) . ` facile verificare (controlla) che F ∗ g `e una metrica Riemanniana su M , detta E metrica indotta da g tramite F , o metrica pull-back. Esempio 6.5.15 (Sottovariet` a Riemanniane). Se ι: S → M `e una sottovariet`a a a volte indidi una variet` a Riemanniana (M, g), la metrica indotta ι∗ g verr` cata con g|S . Dunque ogni sottovariet` a di una variet` a Riemanniana `e a sua volta una variet` a Riemanniana con la metrica indotta; per esempio, questo vale per le sottovariet` a di Rn considerato con la metrica piatta. Osservazione 6.5.16. Se F : M → N `e un’immersione e g `e una metrica pseudo-Riemanniana su N non definita positiva o negativa, non `e detto che F ∗ g sia una metrica pseudo-Riemanniana su M ; potrebbe addirittura essere identicamente nulla. Per esempio, sia N = R2 con (Esempio 6.5.4) la metrica di Minkowski g di segnatura (1, 1), e sia M la retta {x1 = x2 }. Allora si vede subito che ι∗ g ≡ O, dove ι: M → R2 `e l’inclusione. ˜ → M un rivestimento liscio, e supponiamo di avere Esempio 6.5.17. Sia π: M una metrica Riemanniana g su M . Un rivestimento liscio `e, in particolare, un
340
6 Strutture su variet` a
diffeomorfismo locale, e quindi un tipo molto speciale di immersione; possiamo ˜ con la metrica indotta π ∗ g. E ` facile (controlla) verifiquindi equipaggiare M ∗ ˜ care che π g `e l’unica metrica Riemanniana su M che rende π un’isometria locale. ˜ → M di nuovo un rivestimento liscio, ma supponiaEsempio 6.5.18. Sia π: M ˜ . Non `e detto che esista mo stavolta di avere una metrica Riemanniana g˜ su M una metrica Riemanniana g su M che renda π un’isometria locale. Infatti, ˜ →M ˜ un automorfismo del rivestimento supponiamo che g esista, e sia F : M ˜ e ogni v, w ∈ Tp˜M ˜ si (vedi la Definizione 2.E.5). Allora per ogni p˜ ∈ M dovrebbe avere g˜p˜(v, w) = gπ(p) dπF (p) ˜ dπp˜(v), dπp˜(w) = gπ(F (p)) ˜ ˜ (dFp˜(v)), dπF (p) ˜ (dFp˜(w)) = g˜F (p) ˜ dFp˜(v), dFp˜(w) , cio`e F dev’essere un’isometria per g˜. Viceversa, supponiamo che ogni automorfismo del rivestimento sia un’isometria, e che il rivestimento sia normale, per cui il gruppo degli automorfismi del rivestimento agisce in maniera transitiva sulle fibre. Allora non `e difficile dimostrare (Esercizio 6.19) che esiste un’unica metrica Riemanniana g su M per cui π risulti essere un’isometria locale: `e sufficiente per ogni p ∈ M e ogni v, w ∈ Tp M porre gp (v, w) = g˜p˜(˜ v , w) ˜ , ˜ sono tali che π(˜ ˜ e v˜, w v ) = v e dπp˜(w) ˜ = w. p) = p, dπp˜(˜ dove p˜ ∈ M ˜ ∈ Tp˜M Usando la nozione di metrica indotta possiamo esprimere in maniera concisa quando un’immersione conserva la metrica Riemanniana: Definizione 6.5.19. Un’immersione (embedding) F : (M, g M ) → (N, gN ) fra variet` a Riemanniane `e un’immersione (embedding) isometrica se F ∗ g N = g M . Abbiamo visto (Teorema 2.8.13) che ogni variet`a pu` o essere realizzata come sottovariet`a chiusa di un qualche RN , per N abbastanza grande, e quindi eredita una metrica Riemanniana indotta dalla metrica piatta di RN . Viene allora naturale chiedersi se in questo modo sia possibile ottenere tutte le variet` a Riemanniane. La risposta, positiva, `e il famoso teorema di Nash (vedi [10] per una dimostrazione): Teorema 6.5.20 (Nash). Ogni variet` a Riemanniana ammette un embedding isometrico in RN , considerato con la metrica piatta, per N abbastanza grande. Un altro teorema profondo riguardante le isometrie di una variet` a Riemanniana `e il teorema di Myers-Steenrod (vedi [31]): Teorema 6.5.21 (Myers, Steenrod). Sia M una variet` a Riemanniana. Allora il gruppo Iso(M ) ammette una struttura di gruppo di Lie tale che l’applicazione naturale (H, p) → H(p) sia un’azione liscia di Iso(M ) su M .
6.5 Variet` a Riemanniane
341
Concludiamo questa sezione descrivendo alcuni esempi importanti di variet` a Riemanniane. n Esempio 6.5.22 (La sfera). Sia SR la sfera di raggio R > 0 e centro l’origine n+1 n . La metrica su SR indotta dalla metrica piatta di Rn `e detta metrica in R sferica. Vogliamo calcolare i coefficienti gij della metrica sferica rispetto alle coorn dinate sferiche introdotte nell’Esempio 2.1.29. Il riferimento locale di Tp SR indotto dalle coordinate sferiche `e composto dai campi vettoriali locali A j−1 ∂ ∂ j+1 n j = R sin θ · · · sin θ cos θ cos θl sin θ l+1 · · · sin θj−1 l+1 ∂θj ∂x l=0 6 ∂ j − sin θ , ∂xj+1
per j = 1, . . . , n, dove (x1 , . . . , xn+1 ) sono le coordinate di Rn+1 , e dove abbiamo posto per convenzione θ0 ≡ 0. Quindi otteniamo R2 (sin θi+1 · · · sin θn )2 se i = j, gij = 0 se i = j; in particolare, la matrice (gij ) `e diagonale. Esempio 6.5.23. Gli elementi del gruppo ortogonale O(n+1) sono ovviamente n . Inoltre, O(n + 1) agisce transitivamente sulle basi ortodelle isometrie di SR n n nomali in T SR . In altre parole, per ogni p, p˜ ∈ SR e ogni coppia di basi orton n ˜ ˜ esiste A ∈ O(n+1) tale normali {E1 , . . . , En } di Tp SR e {E1 , . . . , En } di Tp˜SR ˜j per j = 1, . . . , n. Infatti, `e sufficiente (perch´e?) che A(p) = p˜ e dAp (Ej ) = E n n far vedere che per ogni p ∈ SR e ogni base ortonormale {E1 , . . . , En } di Tp SR esiste A ∈ O(n + 1) che manda il polo nord N = (0, . . . , 0, R) in p e la base can in {E1 , . . . , En }. Ma infatti sia {e1 , . . . , en , N/R} nonica {e1 , . . . , en } di TN SR che {E1 , . . . , En , p/p} sono basi ortonormali di Rn+1 , per cui esiste un’unica A ∈ O(n + 1) che manda la prima nella seconda (e dAN = A, in quanto A `e lineare). Nella Sezione 8.4 faremo vedere che, come conseguenza di questo fatto, n Iso(SR ) = O(n + 1). Esempio 6.5.24. Sia π: S n → Pn (R) il rivestimento universale dello spazio proiettivo, con n ≥ 2. Allora combinando gli Esempi 6.5.17 e 6.5.22 otteniamo una metrica Riemanniana sullo spazio proiettivo. Esempio 6.5.25 (Lo spazio iperbolico). Introduciamo ora un altro esempio importante di variet` a Riemanniana, in tre incarnazioni diverse. (a) L’iperboloide. Sia URn = {x ∈ Rn+1 | (xn+1 )2 − x 2 = R2 , xn+1 > 0} la falda superiore dell’iperboloide ellittico, dove x = (x1 , . . . , xn ) ∈ Rn . Su URn introduciamo il campo tensoriale simmetrico non degenere
342
6 Strutture su variet` a 1 gR = dx1 ⊗ dx1 + · · · + dxn ⊗ dxn − dxn+1 ⊗ dxn+1 ;
1 `e effettivamente definita positiva su dimostreremo fra un attimo che gR n T UR , per cui `e davvero una metrica Riemanniana. n (b) La palla di Poincar´e. Sia BR = {x ∈ Rn | x < R} la palla aperta di n n raggio R in R . Su BR poniamo la metrica Riemanniana 2 gR =
(R2
4R4 (dx1 ⊗ dx1 + · · · + dxn ⊗ dxn ) . − x2 )2
n (c) Il semispazio superiore di Poincar´e. Sia HR = {x ∈ Rn | xn > 0} il n n semispazio superiore in R . Su HR poniamo la metrica Riemanniana 3 gR =
R2 (dx1 ⊗ dx1 + · · · + dxn ⊗ dxn ) . (xn )2
Le tre variet` a dell’Esempio 6.5.25 sono tre rappresentazioni diverse della stessa variet`a Riemanniana: 1 n 2 n 3 ), (BR , gR ) e (HR , gR ) Proposizione 6.5.26. Le variet` a Riemanniane (URn , gR sono isometriche. n Dimostrazione. Cominciamo costruendo un’isometria F : URn → BR . Dato n+1 n n+1 n S = (0, . . . , 0, −R) ∈ R e x ∈ UR , sia F (x) ∈ R ⊂ R il punto n e la retta da S a x. Si verifica subito che d’intersezione fra BR
F (x) = e che F −1 (p) =
R n x ∈ B R , R + xn+1
2R2 p R2 + p2 , R R2 − p2 R2 − p2
.
2 1 Vogliamo dimostrare che F ∗ gR = gR . Per far ci` o ricordiamo (Proposizion ne 2.4.23) che v ∈ Tx UR se e solo se xn+1 v n+1 = x , v ; inoltre, R v n+1 v − dFx (v) = x . R + xn+1 R + xn+1
Quindi 2 2 F ∗ gR (v, v) = gR dFx (v), dFx (v) = = 1−
4 x 2 (R+xn+1 )2
= v 2 −
2 2 dFx (v) R2 − F (x)2 D D2 D D v n+1 R2 D D − x v 2 D D n+1 2 n+1 (R + x ) R+x
2v n+1 |v n+1 |2 x , v
+ x 2 R + xn+1 (R + xn+1 )2
1 = v 2 − |v n+1 |2 = gR (v, v) ,
come voluto.
4R4
6.6 La connessione di Levi-Civita
343
n n Costruiamo ora un diffeomorfismo G: BR → HR imitando la trasformata di Cayley di una variabile complessa:
G(p) =
2R2 p R2 − p 2 − |pn |2 ,R 2 2 n 2 p + (p − R) p + (pn − R)2
,
dove stavolta p = (p1 , . . . , pn−1 ) ∈ Rn−1 . L’inversa `e data da −1
G
(q) =
2R2 q q 2 + |q n |2 − R2 ,R 2 2 n 2 q + (q + R) q + (q n + R)2
,
3 2 e un conto analogo al precedente (controlla) mostra che G∗ gR = gR .
Definizione 6.5.27. Una qualunque variet` a Riemanniana isometrica a una delle tre variet` a Riemanniane della proposizione precedente `e detta spazio iperbolico di dimensione n. Vedremo in seguito (nella Sezione 8.4) che Rn , le sfere e gli spazi iperbolici sono le uniche (a meno di isometrie) variet` a Riemanniane semplicemente connesse di curvatura sezionale costante. Definizione 6.5.28. Una metrica Riemanniana g su un gruppo di Lie G `e invariante a sinistra (rispettivamente, invariante a destra) se L∗h g = g (rispettivamente, Rh∗ g = g) per ogni h ∈ G, cio`e se tutte le traslazioni sinistre (destre) sono delle isometrie. Una metrica Riemanniana invariante sia a sinistra che a destra `e detta bi-invariante. Esempio 6.5.29. Sia G un gruppo di Lie. Scegliendo arbitrariamente un prodotto scalare definito positivo · , · e sull’algebra di Lie g di G, otteniamo (perch´e?) una metrica Riemanniana invariante a sinistra ponendo E F v, w h = (dLh−1 )h (v), (dLh−1 )h (w) e . per ogni h ∈ G e ogni v, w ∈ Th G. In maniera analoga si ottengono metriche Riemanniane invarianti a destra, ed `e chiaro (perch´e?) che tutte le metriche Riemanniane invarianti a sinistra o a destra si ricavano in questo modo.
6.6 La connessione di Levi-Civita Una delle propriet` a cruciali per l’Analisi classica della metrica piatta `e che la matrice che la rappresenta `e costante, `e indipendente dal punto. Questo permette di scrivere la derivata del prodotto scalare di due campi vettoriali tramite prodotti scalari dei campi vettoriali con le loro derivate covarianti (rispetto alla metrica piatta): infatti la formula
344
6 Strutture su variet` a n n n ∂ j j ∂X j j j ∂Y j X Y = Y + X ∂xh j=1 ∂xh ∂xh j=1 j=1
valida per campi vettoriali X, Y ∈ T (Rn ) si pu` o scrivere in modo pi` u compatto come (6.18) Z X, Y = ∇Z X, Y + X, ∇Z Y per ogni X, Y , Z ∈ T (Rn ), dove ∇ `e la connessione piatta e · , · `e la metrica piatta. Possiamo interpretare (6.18) come una formula di compatibilit` a fra la metrica piatta e la connessione piatta di Rn . Il fatto che permette davvero (come vedremo in dettaglio nei prossimi due capitoli) di studiare la geometria delle variet` a Riemanniane `e che a ogni metrica (pseudo)Riemanniana `e possibile associare in modo canonico una connessione compatibile con essa, ottenendo una relazione tipo (6.18). Obiettivo di questa sezione `e esattamente costruire questa connessione. Cominciamo col definire precisamente la propriet` a di compatibilit` a che ci interessa. Definizione 6.6.1. Una connessione ∇ su una variet` a (pseudo)Riemanniana (M, g) `e compatibile con la metrica se ∇X Y, Z = ∇X Y, Z + Y, ∇X Z per tutti gli X, Y , Z ∈ T (M ), dove ricorda che si ha ∇X f = X(f ) per ogni f ∈ C ∞ (M ). La proposizione seguente contiene diverse caratterizzazioni alternative di questa condizione. Proposizione 6.6.2. Sia ∇ una connessione su una variet` a (pseudo)Riemanniana (M, g). Le seguenti propriet` a sono equivalenti: (i) ∇ `e compatibile con g; (ii) ∇g ≡ O, cio`e la metrica g `e parallela rispetto a ∇; (iii) in un qualunque sistema di coordinate si ha l l ∂k gij = glj Γki + gil Γkj ;
(iv) per ogni coppia di campi vettoriali V e W lungo una curva σ abbiamo d V, W = DV, W + V, DW ; dt (v) per ogni coppia di campi vettoriali V e W paralleli lungo una curva σ il prodotto V, W `e costante; (vi) il trasporto parallelo lungo una qualsiasi curva `e un’isometria.
6.6 La connessione di Levi-Civita
345
Dimostrazione. (i)⇐⇒(ii): per definizione di derivata covariante totale, ricordando (6.10) si ha ∇g(Y, Z, X) = (∇X g)(Y, Z) = X Y, Z − ∇X Y, Z − Y, ∇X Z , e ci siamo. (ii)⇐⇒(iii): fissato un sistema di coordinate si ha ∇g(∂i , ∂j , ∂k ) = ∂k ∂i , ∂j − ∇∂k ∂i , ∂j − ∂i , ∇∂k ∂j l l − gil Γkj , = ∂k (gij ) − glj Γki e ci siamo. (i)=⇒(iv): Basta scrivere localmente V = V h ∂h ◦ σ, W = W k ∂k ◦ σ, e usare il fatto che d ∂h , ∂k σ = σ ∂h , ∂k σ . dt (iv)=⇒(v): se DV = DW ≡ O la (iv) implica che V, W `e costante. (v)=⇒(vi): infatti la (v) dice esattamente che il trasporto parallelo conserva la metrica. (vi)=⇒(i): scelto p ∈ M , sia σ una curva con σ(0) = p e σ (0) = Xp . Fissiamo una base ortonormale {v1 , . . . , vn } di Tp M ; per (vi) possiamo estendere ciascun vj a un campo vettoriale vj (t) parallelo lungo σ in modo che {v1 (t), . . . , vn (t)} sia una base ortonormale di Tσ(t) M per ogni t. Scriviamo Y σ(t) = Y h (t)vh (t) e Z σ(t) = Z k (t)vk (t); allora n F dE d h h Y σ(t) , Z σ(t) σ(t) = Y (t)Z (t) ∇Xp Y, Z = dt dt t=0 h=1 t=0 n h h dZ dY (0)Z h (0) + Y h (0) (0) = dt dt h=1 ! h " " ! dY dZ h = (0)vh , Z(0) + Y (0), (0)vh dt dt p p = D0 Y, Z p + Y, D0 Z p = ∇Xp Y, Z p + Y, ∇Xp Z p ,
e ci siamo.
La compatibilit` a con la metrica non basta a identificare univocamente una connessione. Infatti, si pu` o dimostrare (vedi l’Esercizio 6.21) che se ∇ `e una connessione compatibile con la metrica su una variet` a (pseudo)Riemanniana (M, g), e A ∈ T21 (M ) `e tale che A(X, Y ), Z + Y, A(X, Z) = 0
(6.19)
per ogni X, Y , Z ∈ T (M ) allora ∇ + A `e ancora una connessione compatibile con la metrica.
346
6 Strutture su variet` a
Ora, (6.19) sta dicendo che per ogni X ∈ T (M ) l’operatore A(X, ·) `e antisimmetrico. Questo fa sospettare che una connessione compatibile con la metrica che sia simmetrica in un senso opportuno se esiste dovrebbe essere unica. Il concetto giusto di simmetria `e rivelato dal: Lemma 6.6.3. Data una connessione lineare ∇ su una variet` a M , definiamo τ : T (M ) × T (M ) → T (M ) ponendo τ (X, Y ) = ∇X Y − ∇Y X − [X, Y ] . Allora τ `e un campo tensoriale di tipo 12 . Dimostrazione. Siccome τ (Y, X) = −τ (X, Y ), per far vedere che τ `e un campo tensoriale di tipo 12 grazie alla Proposizione 3.2.16.(ii) `e sufficiente dimostrare che τ `e C ∞ (M )-lineare nella prima variabile. Ma infatti τ (f X, Y ) = ∇f X Y − ∇Y (f X) − [f X, Y ] = f ∇X Y − f ∇Y X − Y (f )X − f [X, Y ] + Y (f )X = f τ (X, Y ) .
Definizione 6.6.4. La torsione di una connessione lineare ∇ su una variet` a M `e il campo tensoriale τ ∈ T21 (M ) definito da τ (X, Y ) = ∇X Y − ∇Y X − [X, Y ] . La connessione ∇ `e detta simmetrica se τ ≡ O. Possiamo caratterizzare la simmetria di una connessione in altri modi equivalenti: Lemma 6.6.5. Sia ∇ una connessione su una variet` a M . Allora le seguenti affermazioni sono equivalenti: (i) ∇ `e simmetrica; (ii) i simboli di Christoffel rispetto a un qualsiasi sistema di coordinate sono h simmetrici, cio`e Γijh = Γji ; 2 (iii) l’Hessiano ∇ f `e simmetrico per ogni f ∈ C ∞ (M ). Dimostrazione. (i)⇐⇒(ii): Fissiamo una carta locale, e scriviamo X = X h ∂h e Y = Y k ∂k . Allora (6.1) ci d` a j j − Γkh ]∂j , τ (X, Y ) = X h Y k [Γhk
per cui τ (X, Y ) ≡ O per ogni X, Y ∈ T (M ) se e solo se i simboli di Christoffel sono simmetrici. (i)⇐⇒(iii): Grazie a (6.13) abbiamo ∇2 f (X, Y ) − ∇2 f (Y, X) = −[X, Y ](f ) − ∇Y X(f ) + ∇X Y (f ) = τ (X, Y )(f ) , e ci siamo.
6.6 La connessione di Levi-Civita
347
Il risultato promesso, e che permette alla geometria Riemanniana di prendere davvero vita, `e il seguente teorema di Levi-Civita: Teorema 6.6.6 (Levi-Civita). Su ogni variet` a (pseudo)Riemanniana (M, g) esiste un’unica connessione ∇ simmetrica e compatibile con la metrica. Inoltre, ∇ soddisfa ∇X Y, Z =
1) X Y, Z + Y Z, X − Z X, Y (6.20) 2 * + [X, Y ], Z − [Y, Z], X + [Z, X], Y
per ogni X, Y , Z ∈ T (M ). In particolare, se {E1 , . . . , En } `e un riferimento locale ortonormale abbiamo G 1+ ∇Ei Ej , Ek = [Ei , Ej ], Ek − [Ej , Ek ], Ei + [Ek , Ei ], Ej , (6.21) 2 mentre i simboli di Christoffel di ∇ sono dati da 1 kl ∂glj ∂gil ∂gij k Γij = g + − . 2 ∂xi ∂xj ∂xl
(6.22)
Dimostrazione. Cominciamo con l’unicit` a. Se ∇ `e una connessione compatibile con g si deve avere X Y, Z = ∇X Y, Z + Y, ∇X Z , Y Z, X = ∇Y Z, X + Z, ∇Y X , Z X, Y = ∇Z X, Y + X, ∇Z Y . Quindi se ∇ `e anche simmetrica otteniamo X Y, Z + Y Z, X − Z X, Y = ∇X Z − ∇Z X, Y + ∇Y Z − ∇Z Y, X + ∇X Y + ∇Y X, Z = − [Z, X], Y + [Y, Z], X − [X, Y ], Z + 2 ∇X Y, Z , e quindi ∇ `e data da (6.20). Viceversa, definiamo ∇: T (M )×T (M ) → T (M ) tramite (6.20); dobbiamo verificare che otteniamo una connessione simmetrica compatibile con la metrica. Iniziamo mostrando che il secondo membro di (6.20) `e C ∞ (M )-lineare in Z; infatti ∇X Y, f Z =
1) X Y, f Z + Y f Z, X − f Z X, Y 2
* + [X, Y ], f Z − [Y, f Z], X + [f Z, X], Y
= f ∇X Y, Z +
1) X(f ) Y, Z + Y (f ) Z, X 2
* − Y (f ) Z, X − X(f ) Z, Y
= f ∇X Y, Z .
348
6 Strutture su variet` a
Quindi ∇X Y, · `e una 1-forma, per cui ∇X Y `e effettivamente (perch´e?) un campo vettoriale. Poi, ∇ `e C ∞ (M )-lineare nel primo argomento: ∇f X Y, Z =
1+ f X Y, Z + Y Z, f X − Z f X, Y 2
G + [f X, Y ], Z − [Y, Z], f X + [Z, f X], Y 1+ = f ∇X Y, Z + Y (f ) Z, X − Z(f ) X, Y 2 G − Y (f ) X, Z + Z(f ) X, Y = f ∇X Y, Z ,
come voluto. In modo analogo (provvedi) si verifica la formula di Leibniz. Controlliamo ora la compatibilit` a con la metrica: ∇X Y, Z + Y, ∇X Z 1+ X Y, Z + Y Z, X − Z X, Y = 2
G + [X, Y ], Z − [Y, Z], X + [Z, X], Y
+
1+ X Z, Y + Z Y, X − Y X, Z 2
G + [X, Z], Y − [Z, Y ], X + [Y, X], Z
= X Y, Z , come desiderato. Infine `e facile vedere (controlla) che ∇ `e anche simmetrica. La (6.20) chiaramente implica la (6.21). Infine, siccome [∂h , ∂k ] = O per ogni h, k = 1, . . . , n, abbiamo gkl Γijk = ∇∂i ∂j , ∂l = e la (6.22) segue.
1 ∂i (gjl ) + ∂j (gli ) − ∂l (gij ) , 2
Definizione 6.6.7. Sia M una variet` a (pseudo)Riemanniana. L’unica connessione ∇ simmetrica e compatibile con la metrica si chiama connessione di Levi-Civita della variet` a Riemanniana M . Una conseguenza immediata dell’unicit` a della connessione di Levi-Civita `e la seguente: ˜ , g˜) un’isometria fra due variet` Proposizione 6.6.8. Sia F : (M, g) → (M a (pseudo)Riemanniane. Allora:
6.6 La connessione di Levi-Civita
349
(i) F porta la connessione di Levi-Civita ∇ di M nella connessione di Levi˜ di M ˜ nel senso che Civita ∇ ∀X, Y ∈ T (M )
˜ dF (X) dF (Y ) ; dF (∇X Y ) = ∇
(ii) se σ `e una curva in M si ha ˜ dF (V ) , dF (DV ) = D
∀V ∈ T (σ)
˜ `e la derivata covariante lungo la curva σ dove D (rispettivamente, D) ˜ (rispettivamente, σ ˜ = F ◦ σ) indotta da ∇ (rispettivamente, ∇). ˜ T (M ) × T (M ) → T (M ) Dimostrazione. (i) Definiamo un’applicazione F ∗ ∇: ponendo ˜ dF (X) dF (Y ) . ˜ X Y = (dF )−1 ∇ ∀X, Y ∈ T (M ) (F ∗ ∇) ˜ `e una connessione su M . Inoltre Si vede subito che F ∗ ∇ ˜ X Y , Z M + Y, (F ∗ ∇) ˜ X Z M (F ∗ ∇) E F E F −1 ˜ ˜ dF (X) dF (Z) = (dF ) ∇dF (X) dF (Y ) , Z M + Y, (dF )−1 ∇ M ˜ ˜ = ∇dF (X) dF (Y ), dF (Z) M˜ + dF (Y ), ∇dF (X) dF (Z) M˜ = dF (X) dF (Y ), dF (Z) M˜ = dF (X) Y, Z M ◦ F −1 = X Y, Z M , ˜ `e compatibile con la metrica. Infine per cui F ∗ ∇ ˜ X Y − (F ∗ ∇) ˜ Y X − [X, Y ] (F ∗ ∇) ˜ dF (X) dF (Y ) − ∇ ˜ dF (Y ) dF (X) − [X, Y ] = (dF )−1 ∇ = (dF )−1 [dF (X), dF (Y )] − [X, Y ] =O, ˜ `e simmetrica. Il Teore(dove abbiamo usato il Lemma 3.4.9), per cui F ∗ ∇ ˜ = ∇, come voluto. ma 6.6.6 implica allora F ∗ ∇ ˜ T (σ) → T (σ) con (ii) Se si definisce F ∗ D: ˜ (V ) , ˜ (F ∗ D)V = (dF )−1 DdF ˜ = ∇) iml’unicit` a di D enunciata nella Proposizione 6.1.12 (assieme a F ∗ ∇ ∗ ˜
plicano che F D = D, e ci siamo. Determiniamo ora la connessione di Levi-Civita in alcuni casi particolarmente significativi. Esempio 6.6.9. La connessione piatta `e ovviamente la connessione di LeviCivita per la metrica piatta di Rn .
350
6 Strutture su variet` a
Esempio 6.6.10 (Connessione di Levi-Civita per la metrica indotta). Sia M una variet` a Riemanniana con connessione di Levi-Civita ∇M , e N una sottovariet` a di M . Indicata con T: T M → T N la proiezione ortogonale (dove per ogni p ∈ N consideriamo Tp N come sottospazio di Tp M , e T|Tp M : Tp M → Tp N `e la proiezione ortogonale rispetto al prodotto scalare dato dalla metrica su M ), definiamo ∇N : T (N ) × T (N ) → T (N ) ponendo ∀X, Y ∈ T (N )
M ∇N X Y = T(∇X Y ) .
e In questa formula, ∇M X Y va inteso come una sezione su N di T M |N , che ` ben definita anche se X e Y sono definiti solo su N , in quanto per calcolarla `e sufficiente conoscere il valore di X nei punti di N e il comportamento di Y su curve tangenti a X, che quindi possono essere prese in N . Vogliamo dimostrare che ∇N `e la connessione di Levi-Civita di N considerato con la metrica indotta dalla metrica di M . Prima di tutto osserviamo che se Y ∈ T (N ) e W `e una sezione di T M |N allora W, Y M = T(W ), Y N , perch´e W − T(W ) `e ortogonale a T N essendo T `e la proiezione ortogonale. Da questo segue che M X( Y, Z N ) = X( Y, Z M ) = ∇M X Y, Z M + Y, ∇X Z M N = ∇N X Y, Z N + Y, ∇X Z N
per ogni X, Y , Z ∈ T (N ), per cui ∇N `e compatibile con la metrica indotta. Infine N M M ∇N X Y − ∇Y X = T(∇X Y − ∇Y X) = T([X, Y ]) = [X, Y ] ,
dove abbiamo usato l’Esercizio 3.35 per verificare che la parentesi di Lie calcolata in M o calcolata in N dia lo stesso risultato, e quindi ∇N `e anche simmetrica. n Esempio 6.6.11. Sia gR la metrica sferica su SR ⊂ Rn+1 (Esempio 6.5.22); vogliamo calcolare i simboli di Christoffel della connessione di Levi-Civita di gR rispetto alle coordinate sferiche. Conservando le notazioni introdotte nell’Esempio 6.5.22 abbiamo / l 2 l+1 n 2 cos θ ∂gij (sin θ · · · sin θ ) se i = j < l, 2R = sin θ l ∂θl 0 altrimenti.
Quindi (6.22) ci d` a ⎧ cos θmax{i,j} ⎪ ⎪ se k = i < j o k = j < i, ⎪ ⎨ sin θ max{i,j} k Γij = 1 ⎪ − (sin θi+1 · · · sin θk−1 )2 sin(2θ k ) se i = j < k, ⎪ ⎪ ⎩ 2 0 altrimenti.
6.6 La connessione di Levi-Civita
351
In particolare, per la sfera unitaria in R3 otteniamo 1 1 1 2 2 2 1 1 2 Γ11 = Γ22 = Γ12 = Γ21 = Γ22 = 0, Γ12 = Γ21 = ctg θ2 , Γ11 = − sin(2θ2 ) . 2 Esempio 6.6.12. Calcoliamo i simboli di Christoffel per la connessione di Levin ; una base Civita sullo spazio iperbolico (Esempio 6.5.25). Cominciamo con BR 1 n dello spazio tangente `e data da {∂/∂x , . . . , ∂/∂x }, per cui gij =
4R4 δij , (R2 − x2 )2
∂gij 16R4 xk = δij , ∂xk (R2 − x2 )3
e quindi
⎧ 2xj ⎪ ⎪ se i = k, ⎪ ⎪ R2 − x2 ⎪ ⎪ ⎪ ⎪ ⎪ 2xi ⎨ se j = k = i, k Γij = R2 − x2 ⎪ ⎪ ⎪ ⎪ 2xk ⎪ ⎪ se i = j = k, − ⎪ ⎪ ⎪ R2 − x2 ⎩ 0 altrimenti. n , la base dello spazio tangente `e la stessa, ma Nel caso di HR gij =
R2 δij , (xn )2
∂gij 2R2 = − δij δkn , ∂xk (xn )3
per cui
Γijk =
⎧ 1 ⎪ ⎪ ⎪ ⎨ xn 1 ⎪ − ⎪ ⎪ ⎩ xn 0
se i = j < k = n, se i = k < j = n o j = k < i = n o i = j = k = n, altrimenti.
Esempio 6.6.13. Sia G un gruppo di Lie equipaggiato con una metrica invariante a sinistra · , · , e indichiamo con g l’algebra di Lie di G, e con ∇ la connessione di Levi-Civita della metrica. Prima di tutto, la Proposizione 6.6.8 implica che ∇ `e invariante a sinistra, cio`e che ∇X Y (h) = dLh ∇dLh−1 (X) dLh−1 (Y )(e) (6.23) per ogni X, Y ∈ T (G) e h ∈ G, in quanto le traslazioni sinistre sono delle isometrie. Ora, sia {X1 , . . . , Xn } una base di g, ed estendiamo gli Xj a campi vettoriali invarianti a sinistra. Chiaramente otteniamo un riferimento globale per T G, e ogni campo vettoriale su G (non necessariamente invariante a sinistra) si scrive come combinazione lineare a coefficienti in C ∞ (G) di X1 , . . . , Xn . Quindi per determinare ∇ ci basta vedere quanto fa applicata agli Xj ; e per l’invarianza a sinistra ci basta effettuare questo calcolo nell’elemento neutro.
352
6 Strutture su variet` a
Ora, l’invarianza a sinistra della metrica implica che gij = Xi , Xj `e costante su G; quindi la (6.20) ci dice che ∇Xi Xj , Xk e =
1 glk clij − gli cljk + glj clki , 2
(6.24)
dove le clij sono le costanti di struttura di g rispetto alla base {X1 , . . . , Xn } (vedi la Definizione 3.5.8), e abbiamo determinato ∇. Esempio 6.6.14. Sia G = GL(n, R) il gruppo delle matrici invertibili a coefficienti reali. Prendiamo come base di gl(n, R) la base canonica {Eij }, dove Eij `e la matrice con 1 al posto (i, j) e 0 altrove, cio`e (Eij )rs = δir δjs . Abbiamo visto (Esempio 3.5.9) che le costanti di struttura di G sono (rs)
c(ij)(hk) = δir δks δjh − δhr δjs δik . Mettiamo su gl(n, R) il prodotto scalare rispetto a cui la base canonica {Eij } `e ortonormale, ed estendiamolo in modo da avere una metrica Riemanniana invariante a sinistra (che non `e la metrica indotta dalla metrica euclidea 2 di Rn ). Allora la (6.24) ci fornisce la connessione di Levi-Civita rispetto a questa metrica: 1 (rs) (ij) (hk) [c − c(hk)(rs) + c(rs)(ij) ] 2 (ij)(hk) 1 = [δir δks δjh − δhr δjs δik − δhi δsj δkr 2
∇Eij Ehk , Ers =
+ δri δkj δhs + δrh δjk δis − δih δsk δjr ] . Avendo a disposizione una connessione e una metrica, concludiamo questa sezione introducendo un’altra generalizzazione di un concetto dell’Analisi classica. Per farlo ci serve una definizione di algebra lineare. Definizione 6.6.15. Sia V uno spazio vettoriale di dimensione finita dotato di un prodotto scalare definito positivo · , · , e S: V × V → R una forma bilineare simmetrica. Indichiamo con Sˆ ∈ End(V ) l’unico endomorfismo simmerico (vedi [1, Teorema 16.1]) di V tale che ˆ S(v, w) = S(v), w per ogni v, w ∈ V . Allora la traccia tr(S) di S `e per definizione la tracˆ Vedi anche l’Esercizio 6.33 per una definizione cia dell’endomorfismo S. alternativa.
6.7 Altre costruzioni Riemanniane
353
Osservazione 6.6.16. Sia {v1 , . . . , vn } una base dello spazio vettoriale V , e poniamo gij = vi , vj . Data una forma bilineare simmetrica S: V × V → R ˆ i ) = sh v h con endomorfismo simmetrico associato Sˆ ∈ End(V ), scrivendo S(v i abbiamo ˆ i ), vj = ghj sh S(vi , vj ) = S(v i per cui shi = g hj S(vi , vj ) e tr(S) = g ij S(vi , vj ) .
(6.25)
Definizione 6.6.17. Sia M una variet` a Riemanniana. Il Laplaciano di una f ∈ C ∞ (M ) `e la funzione Δf = tr(∇2 f ) ∈ C ∞ (M ) , dove ∇ `e la connessione di Levi-Civita di M . Usando (6.25) e (6.14) si trova subito un’espressione in coordinate locali per il Laplaciano: Δf = g ij ∇2 f (∂i , ∂j ) = g ij
∂2f k ∂f − g ij Γji , i j ∂x ∂x ∂xk
che su Rn con metrica e connessione piatta si riduce all’usuale espressione del Laplaciano. Vedi l’Esercizio 6.39 per altre espressioni equivalenti del Laplaciano.
6.7 Altre costruzioni Riemanniane Descriviamo ora alcune costruzioni standard che si possono effettuare usando una metrica Riemanniana. Cominciamo con la Proposizione 6.7.1. Sia (M, g) una n-variet` a Riemanniana orientabile, e fissiamo un’orientazione. Allora esiste un’unica n-forma νg ∈ An (M ) mai nulla tale che νg (E1 , . . . , En ) = 1 per ogni p ∈ M e ogni base ortonormale positiva {E1 , . . . , En } di Tp M . Dimostrazione. Sia A = {(Uα , ϕα )} un atlante orientato, e indichiamo con α ) la matrice che rappresenta g nella carta ϕα = (x1α , . . . , xnα ). Sia poi (gij B = {E1 , . . . , En } un riferimento locale ortonormale (vedi l’Osservazione 6.5.13) positivo di T M sopra Uα ; se poniamo dxhα (Ek ) = ehk allora abbiamo α i j eh ek = δhk (perch´e Ek = ehk ∂h , e quindi det(ehk ) > 0 (perch´e B `e positivo), e gij B `e ortonormale). Prendendo il determinante di quest’ultima eguaglianza ed estraendo la radice quadrata otteniamo H α ) det(eh ) = 1 . det(gij (6.26) k
354
6 Strutture su variet` a
Supponiamo ora che esista una ν ∈ An (M ) che soddisfa le ipotesi. Per ogni indice α esiste una fα ∈ C ∞ (Uα ) tale che ν|Uα = fα dx1α ∧ · · · ∧ dxnα . Ma allora fα 1 = ν(E1 , . . . , En ) = fα det(ehk ) = H , α det(gij ) H α ), e ν ` per cui necessariamente fα = det(gij e unica. Viceversa, definiamo H α ) dx1 ∧ · · · ∧ dxn ∈ An (U ) . νgα = det(gij α α α Allora ponendo νg |Uα = νgα otteniamo una n-forma globale: infatti su Uα ∩ Uβ (6.17) d` a H ∂xkβ ∂xhα H β 1 n α det(gij ) dxβ ∧ · · · ∧ dxβ = det det(gij ) det dx1α ∧ · · · ∧ dxnα ∂xhα ∂xkβ H α )dx1 ∧ · · · ∧ dxn , = det(gij α α per cui νgα e νgβ coincidono su Uα ∩ Uβ . Chiaramente, νg non si annulla mai. Infine, νg `e come richiesto: infatti, se B = {E1 , . . . , En } `e una base ortonormale positiva di Tp M con p ∈ Uα , (6.26) implica H H α ) det dxh (E ) = α ) det(eh ) = 1 . νg (E1 , . . . , En ) = det(gij det(gij k k
Definizione 6.7.2. Sia (M, g) una variet` a Riemanniana orientabile. La nforma νg ∈ An (M ) costruita nella Proposizione 6.7.1 `e detta forma di volume Riemanniano di M . Proseguiamo con altre costruzioni. Un prodotto scalare non degenere su uno spazio vettoriale V permette di identificare V col suo duale V ∗ ; vediamo l’analogo sulle variet` a (pseudo)Riemanniane. Definizione 6.7.3. Sia (M, g) una variet` a (pseudo)Riemanniana. Allora possiamo definire un isomorfismo naturale : T M → T ∗ M ponendo ∀v ∈ Tp M
v = gp (·, v) ∈ Tp∗ M .
L’applicazione inversa sar`a denotata da
#
: T ∗M → T M .
In coordinate locali, se v = v i ∂i e g = (gij ) allora v = gij v i dxj ,
6.7 Altre costruzioni Riemanniane
355
cio`e v = ωj dxj con ωj = gij v i . Viceversa, se ω = ωi dxi allora ω # = g ij ωi ∂j , cio`e ω # = v j ∂j con v j = g ij ωi . Osservazione 6.7.4. Il motivo della notazione musicale `e che abbassa gli indici mentre # li alza. Inoltre, se ω ∈ Tp∗ M allora ω # `e l’unico vettore di Tp M tale che ω(v) = v, ω # per tutti i v ∈ Tp M . Usando queste costruzioni possiamo generalizzare altri due concetti dell’Analisi Matematica classica. Definizione 6.7.5. Sia (M, g) una variet` a (pseudo)Riemanniana. Il gradiente di una funzione f ∈ C ∞ (M ) `e il campo vettoriale gradf = (df )# ∈ T (M ) . In altre parole, il gradiente di f `e l’unico campo vettoriale su M tale che ∀X ∈ T (M )
df (X) = X, grad f .
(6.27)
A volte il gradiente `e indicato con il simbolo ∇f . In coordinate locali, ∂f ∂i , ∂xj per cui su Rn con la metrica piatta recuperiamo il gradiente usuale. gradf = g ij
Definizione 6.7.6. Sia (M, g) una variet` a (pseudo)Riemanniana (M, g). Il rotore di un campo vettoriale X ∈ T (M ) `e la 2-forma differenziale rot X = d(X ) . In coordinate locali, se X = X k ∂k allora 5 ∂(gik X i ) ∂(gij X j ) 6 ∂(gik X i ) j k rot X = dx ∧ dx = − dxj ∧ dxk , ∂xj ∂xj ∂xk 1≤j
per cui di nuovo su R con la metrica piatta recuperiamo il rotore usuale. %2 3 R `e un fibrato banale di rango 3, Osservazione 6.7.7. Su R3 , il fibrato per cui `e isomorfo a T R3 , che `e anch’esso un fibrato banale di rango 3. Per questo motivo nell’Analisi Matematica usuale il rotore di un campo vettoriale (calcolato rispetto alla metrica piatta di R3 ) viene presentato come un campo vettoriale e non come una 2-forma, esattamente come il prodotto esterno di due vettori in R3 viene presentato come un vettore di R3 (il prodotto vettore: confronta con l’Esercizio 1.69). n
356
6 Strutture su variet` a
Osservazione 6.7.8. La propriet` a cruciale d ◦ d = O del differenziale esterno implica che il rotore di un gradiente `e identicamente nullo: infatti rot(gradf ) = d (df )# ) = d(df ) = O . Concludiamo questa sezione introducendo la nozione pi` u generale di metrica Riemanniana su un fibrato vettoriale. Definizione 6.7.9. Una metrica lungo le fibre su un fibrato vettoriale E `e l’assegnazione per ogni punto p ∈ M di un prodotto scalare definito positivo · , · p : Ep × Ep → R tale che la funzione p → σ(p), τ (p) p sia di classe C ∞ per ogni coppia di sezioni σ, τ ∈ E(M ). Osservazione 6.7.10. L’Esercizio 6.11 conferma che una metrica lungo le fibre di T M `e esattamente una metrica Riemanniana. Una metrica Riemanniana su una variet` a M induce automaticamente metriche lungo le fibre su tutti i fibrati tensoriali Tkh M : Proposizione 6.7.11. Sia (M, g) una variet` a Riemanniana, e h, k ∈ N. Allora esiste un’unica metrica lungo le fibre di Tkh M tale che se {E1 , . . . , En } `e un riferimento locale ortonormale per T M e {ω 1 , . . . , ω n } `e il suo riferimento duale, allora gli Ei1 ⊗· · ·⊗Eih ⊗ω j1 ⊗· · ·⊗ω jk al variare di i1 , . . . , ih , j1 , . . . , jk in {1, . . . , n} formano un riferimento locale ortonormale per Tkh M . Dimostrazione. Sia (gij ) la matrice che rappresenta g in una qualche carta ...ih locale (U, ϕ), e prendiamo F = Fji11...j ∂i1 ⊗ · · · ⊗ ∂ih ⊗ dxj1 ⊗ · · · ⊗ dxjk e k j1 jk h ∈ Tkh U . Allora ponendo G = Gij11...i ...jk ∂i1 ⊗ · · · ⊗ ∂ih ⊗ dx ⊗ · · · ⊗ dx ...ih r1 ...rh Gs1 ...sk F, G = g j1 s1 · · · g jk sk gi1 r1 · · · gih rh Fji11...j k
`e facile verificare (confronta anche con la Proposizione 1.3.9) che otteniamo una metrica lungo le fibre che soddisfa le condizioni richieste. Siccome data una base esiste un unico prodotto scalare rispetto a cui detta base `e ortonormale, la metrica cos`ı ottenuta `e l’unica possibile.
Osservazione 6.7.12. In particolare, data una metrica Riemanniana su M otteniamo una metrica lungo le fibre di T ∗ M , e la Proposizione 1.3.9.(iv) ci dice che le applicazioni bemolle e diesis sono allora delle isometrie rispetto a queste metriche. Possiamo verificarlo anche in coordinate locali: infatti, ω # , η # = ghk g ih ωi g kj ηj = g ij ωi ηj = ω, η , e analogamente si vede che v , w = v, w .
6.8 Variet` a simplettiche
357
6.8 Variet` a simplettiche Abbandoniamo per il momento lo studio delle metriche Riemanniane per presentare un’altra struttura che possiamo mettere su una variet`a, con notevoli applicazioni anche al di fuori della Matematica. Ti consigliamo di riguardare la Sezione 1.5 prima di leggere questa sezione. Definizione 6.8.1. Una forma simplettica su una variet` a M `e una 2-forma ω ∈ A2 (M ) chiusa e non degenere (per cui ωp `e un tensore simplettico per ogni p ∈ M ). Una variet` a simplettica `e una coppia (M, ω), dove M `e una variet` a e ω ∈ A2 (M ) `e una forma simplettica. Osservazione 6.8.2. Una variet` a simplettica ha necessariamente dimensione pari, per la Proposizione 1.5.6. Inoltre, non tutte le variet` a di dimensione pari ammettono una struttura simplettica. Infatti, si pu` o dimostrare (vedi l’Esercizio 6.49) che ogni variet` a simplettica `e orientabile, e che il secondo gruppo di coomologia di una variet` a simplettica compatta `e necessariamente non banale. Definizione 6.8.3. Un simplettomorfismo fra variet` a simplettiche (M, ω) e ˜,ω ˜ tale che F ∗ ω (M ˜ ) `e un diffeomorfismo F : M → M ˜ = ω. Se (M, ω) `e una variet` a simplettica, e N `e un’altra variet` a, un’immersione F : N → M `e detta simplettica (rispettivamente, isotropa, coisotropa, Lagrangiana) se dFp (Tp N ) `e un sottospazio simplettico (rispettivamente, isotropo, coisotropo, Lagrangiano) di TF (p) M per ogni p ∈ N . In particolare, se F `e simplettica allora F ∗ ω `e una forma simplettica su N . Infine, diremo che una sottovariet`a ι: S → M `e simplettica (isotropa, coisotropa, Lagrangiana) se l’inclusione ι lo `e. Esempio 6.8.4 (Forma simplettica standard). Se (x1 , y 1 , . . . , xn , y n ) sono le coordinate standard su R2n , allora la forma ω=
n
dxj ∧ dy j
(6.28)
j=1
`e simplettica, grazie all’Esempio 1.5.2, ed `e detta forma simplettica standard di R2n . Esempio 6.8.5 (Il fibrato cotangente). La pi` u importante classe di esempi di variet` a simplettiche `e data dai fibrati cotangenti. Sia M una variet` a; cominciamo con il definire una 1-forma canonica sul fibrato cotangente π: T ∗ M → M , la forma tautologica τ ∈ A1 (T ∗ M ) data da τξ = π ∗ ξ ∈ Tξ∗ (T ∗ M ) per ogni ξ ∈ T ∗ M .
358
6 Strutture su variet` a
Per verificare che τ `e di classe C ∞ scriviamola in coordinate locali. Fissiamo una carta locale (U, ϕ) in M , con coordinate ϕ = (x1 , . . . , xn ). Se p ∈ U , un elemento ξp ∈ Tp∗ M si scrive in modo unico nella forma ξp = ξi dxi |p con ξ1 , . . . , ξn ∈ R, e una carta locale π−1 (U ), ϕ˜ per T ∗ M `e data da ϕ(ξ ˜ p ) = (x1 , . . . , xn , ξ1 , . . . , ξn ), dove (x1 , . . . , xn ) = ϕ(p). Indichiamo con ∂ ∂ ∂ ∂ ∗ { ∂x 1 , . . . , ∂xn , ∂ξ , . . . , ∂ξ } il riferimento locale di T (T M ) indotto da que1 n 1 n ste coordinate, e con {dx , . . . , dx , dξ1 , . . . , dξn } il corrispondente riferimento duale di T ∗ (T ∗ M ). −1 In queste coordinate, la proiezione π `e rappresentata da ϕ◦π◦ϕ˜ (x, ξ) = x; ∂ quindi dπ ∂xi = ∂i e dπ ∂ξ∂ i = O per ogni i = 1, . . . , n. Quindi π ∗ dxj = dxj (dove stiamo indicando con lo stesso simbolo sia la forma su M che la forma su T ∗ M ), e dunque l’espressione in coordinate locali della forma tautologica `e τξ = ξi dxi |ξ . Essendo le coordinate di τ funzioni C ∞ , anche τ lo `e, e possiamo considerare la 2-forma ω ∈ A2 (T ∗ M ) definita da ω = −dτ . Questa forma `e chiusa, essendo esatta; inoltre, in coordinate locali `e data da ω = dxi ∧ dξi , per cui `e non degenere (perch´e? Ricorda l’Esempio 1.5.2), ed `e quindi una forma simplettica su T ∗ M , come promesso. La Proposizione 1.5.6 dice che in ogni spazio vettoriale simplettico possiamo trovare delle coordinate rispetto a cui il tensore simplettico `e nella forma standard (6.28). Il nostro prossimo obiettivo `e dimostrare che questo vale localmente su ogni variet`a simplettica (teorema di Darboux). In altre parole, due variet` a simplettiche della stessa dimensione sono sempre localmente simplettomorfe; di conseguenza, lo studio delle variet` a simplettiche `e interessante solo dal punto di vista globale. La dimostrazione del teorema di Darboux che presenteremo si basa su un’idea di Moser, che ha anche diverse altre applicazioni (vedi, per esempio, l’Esercizio 6.51). L’idea consiste nell’usare il flusso di campi vettoriali dipendenti dal tempo per costruire diffeomorfismi con propriet` a opportune. Cominciamo con alcune definizioni. Definizione 6.8.6. Un campo vettoriale non autonomo su una variet` a M `e un’applicazione differenziabile X: I × M → T M , dove I ⊆ R `e un intervallo aperto, tale che X(s, p) ∈ Tp M per ogni (s, p) ∈ I × M . In particolare, per ogni s ∈ I l’applicazione Xs = X(s, ·) `e un campo vettoriale su M .
6.8 Variet` a simplettiche
359
k
Pi` u in generale, un campo tensoriale non autonomo di tipo l `e un’applicazione differenziabile K: I × M → Tlk M tale che K(s, p) ∈ (Tlk M )p per ogni (s, p) ∈ I × M . Osservazione 6.8.7. In questo contesto i campi vettoriali (o tensoriali) usuali sono a volte detti autonomi. Il prossimo risultato generalizza ai campi vettoriali non autonomi il Teorema 3.3.5 sull’esistenza del flusso di un campo vettoriale: Proposizione 6.8.8. Sia X: I × M → T M un campo vettoriale non autonomo su una variet` a M . Allora esistono un unico intorno aperto U di {(s, s, p) | s ∈ I, p ∈ M } in I × I × M e un’applicazione differenziabile Θ: U → M tali che: (i) per ogni s ∈ I e p ∈ M l’insieme U (s,p) = {t ∈ I | (t, s, p) ∈ U} `e un intervallo aperto contenente s; (ii) per ogni s ∈ I e p ∈ M la curva σ: U (s,p) → M data da σ(t) = Θ(t, s, p) `e l’unica soluzione massimale del problema di Cauchy σ (t) = X t, σ(t) , (6.29) σ(s) = p ; (iii) per ogni (t, s) ∈ I × I l’insieme Mt,s = {p ∈ M | (t, s, p) ∈ U } `e aperto in M , e l’applicazione θt,s : Mt,s → M data da θt,s (p) = Θ(t, s, p) `e un θs,t ; diffeomorfismo fra Mt,s e Ms,t con inversa (iv) se (t1 , t0 , p) ∈ U, allora t2 , t1 , θt1 ,t0 (p) ∈ U se e solo se (t2 , t0 , p) ∈ U e θt2 ,t1 ◦ θt1 ,t0 (p) = θt2 ,t0 (p) .
(6.30)
Dimostrazione. L’idea `e trasformare, aggiungendo una variabile, il problema (6.29) in un problema autonomo, a cui si pu` o applicare il Teorema 3.3.5. ˜ ∈ T (I × M ) ponendo Definiamo allora un campo vettoriale X ∂ ˜ , X(s, p) , X(s,p) = ∂s s dove s `e la coordinata su I, e stiamo identificando T(s,p) (I ×M ) con Ts I ⊕Tp M ˜ U˜ → I × M il flusso locale di X, ˜ e scriviamo come al solito. Sia Θ: ˜ t, (s, p) = χ t, (s, p) , ξ t, (s, p) , Θ dove χ: U˜ → I soddisfa ∂χ t, (s, p) = 1 , ∂t ˜ → M soddisfa mentre ξ: U
χ 0, (s, p) = s ,
360
6 Strutture su variet` a
∂ξ t, (s, p) = X χ t, (s, p) , ξ t, (s, p) , ξ 0, (s, p) = p . (6.31) ∂t In particolare, abbiamo subito che χ t, (s, p) = s + t. Poniamo allora + G U = (t, s, p) | t − s, (s, p) ∈ U˜ . Chiaramente U `e un intorno aperto di {(s, s, p)} in R × I × M perch´e U˜ `e un intorno aperto di {0} × I × M in R × I × M . Inoltre, se (t, s, p) ∈ U allora t = χ t − s, (s, p) ∈ I, per cui U ⊆ I × I × M . Infine, definiamo Θ: U → M ponendo Θ(t, s, p) = ξ t − s, (s, p) . Allora Θ `e differenziabile perch´e ξ lo `e, e usando (6.31) vediamo subito che le curve σ = Θ(·, s, p) soddisfano (6.29). Per l’unicit` a, dato s ∈ I, sia σ: I0 → M una curva che soddisfa (6.29) in un intervallo ˜ : I0 → I × M ponendo I0 ⊆ J contenente s, e definiamo σ ˜ σ ˜ (t) = t, σ(t) . Allora si verifica facilmente che σ ˜ `e una curva integrale di X, ˜ t − s, (s, p) e quindi, per l’unicit` a delle curve integrali, si deve avere σ ˜ (t) = Θ su tutto I0 , e quindi σ(t) = Θ(t, s, p). ˜ possiamo scrivere In termini di U˜ e Θ ) * Mt,s = p ∈ M t − s, (s, p) ∈ U˜ e
θt,s (p) = ξ t − s, (s, p) = π2 θ˜t−s (s, p) ,
dove π2 : I ×M → M `e la proiezione sulla seconda coordinata. Da questo abbiamo subito che Mt,s `e aperto e θt,s differenziabile. Inoltre (t1 , t0 , p) ∈ U se e solo ˜ ˜ se (t0 , p) ∈ Ut1 −t0 e t2 , t1 , θt1 ,t0 (p) ∈ U se e solo se Θ t1 −t0 , (t0 , p) ∈ U˜t2 −t1 , per cui il Teorema 3.3.5.(iv) implica (t0 , p) ∈ U˜t2 −t0 , cio`e (t2 , t0 , p) ∈ U, se e solo se t2 , t1 , θt1 ,t0 (p) ∈ U, e θ˜t2 −t1 θ˜t1 −t0 (t0 , p) = θ˜t2 −t0 (t0 , p) , da cui segue subito (6.30). Infine, siccome (s, s, p) ∈ U per ogni (s, p) ∈ I × M , abbiamo che p ∈ Ut,s implica θt,s (p) ∈ Us,t , e quindi (6.30) e il fatto ovvio che θs,s ≡ idM ci dicono che θt,s : Mt,s → Ms,t `e un diffeomorfismo.
Definizione 6.8.9. L’applicazione Θ: U → M introdotta nella Proposizione precedente `e detta flusso locale del campo vettoriale non autonomo X. Ricordiamo (vedi l’Esercizio 3.38) che se X ∈ T (M ) e τ ∈ Tk (M ) allora la derivata di Lie LX τ ∈ Tk (M ) di τ lungo X `e definita da d ∗ θt τ (p) , (LX τ )(p) = dt t=0 per ogni p ∈ M , dove Θ `e il flusso locale di X. Il prossimo risultato generalizza al caso di campi vettoriali e tensoriali non autonomi l’Esercizio 3.39.(vi).
6.8 Variet` a simplettiche
361
Lemma 6.8.10. Sia X: I × M → M un campo vettoriale non autonomo su una variet` a M , di flusso locale Θ: U → M , e sia τ : I × M → Tk0 M un campo tensoriale covariante non autonomo. Allora per ogni (t1 , t0 , p) ∈ U si ha d ∗ d ∗ τt (p) = θt1 ,t0 LXt1 τt1 + (p) , θ τt dt t,t0 dt t=t1 t=t1 dove τt = τ (t, ·). Dimostrazione. La dimostrazione procede affrontando casi di volta in volta pi` u complicati. (i) t1 = t0 e τ autonomo. Siccome θt0 ,t0 = idM , dobbiamo soltanto dimostrare che d ∗ θ τ = LXt0 τ . (6.32) dt t,t0 t=t0 Procediamo per induzione sul grado. (i.1) τ = f ∈ C ∞ (M ). In questo caso ∂ d ∗ = = X t0 , θ(t0 , t0 , p) f = X(t0 , p)f (θt,t0 f )(p) f θ(t, t0 , p) dt ∂t t=t0 t=t0 = (LXt0 f )(p) . (i.2) τ = df ∈ A1 (M ). La prima osservazione `e che la funzione ∗ f (p) = f θ(t, t0 , p) θt,t 0 `e di classe C ∞ in t e p, per cui l’operatore d/dt commuta con qualsiasi ∂/∂xi ∗ applicato a θt,t f . Ricordando l’espressione in coordinate locali del differenzia0 le esterno, questo implica che d/dt commuta anche col differenziale esterno d, e quindi abbiamo d ∗ d d ∗ ∗ = =d (θ df )(p) d(θt,t0 f )(p) (θ f )(p) dt t,t0 dt dt t,t0 t=t0 t=t0 t=t0 = d(LXt0 f )(p) = (LXt0 df )(p) , dove nell’ultimo passaggio abbiamo usato l’Esercizio 4.37 (i.3) Supponiamo che (6.32) valga per i campi tensoriali covarianti autonomi σ e τ , e dimostriamo che `e vera anche per σ ⊗ τ . Da un lato, l’Esercizio 3.39.(iii) ci dice che LXt0 (σ ⊗ τ ) = (LXt0 σ) ⊗ τ + σ ⊗ (LXt0 τ ) . D’altronde, se σ ∈ Th (M ), τ ∈ Tk (M ) e v1 , . . . , vh+k ∈ Tp M abbiamo ∗ θt,t (σ ⊗ τ )p (v1 , . . . , vh+k ) = σθt,t0 (p) d(θt,t0 )p (v1 ), . . . , (d(θt,t0 )p (vh ) 0 ×τθt,t0 (p) d(θt,t0 )p (vh+1 ), . . . , (d(θt,t0 )p (vh+k ) ,
362
6 Strutture su variet` a
da cui segue subito che d ∗ d ∗ d ∗ = ⊗τ +σ⊗ , θ (σ ⊗ τ ) θ σ θ τ dt t,t0 dt t,t0 t=t0 dt t,t0 t=t0 t=t0 e ci siamo. (i.iv) τ autonomo qualsiasi. Localmente possiamo scrivere τ come somma di tensori della forma f dxii ⊗ · · · ⊗ dxik , e la tesi segue per induzione sul grado da (i.1)–(i.3). (ii) t1 = t0 e τ autonomo. Scriviamo θt,t0 = θt,t1 ◦ θt1 ,t0 . Siccome θt∗1 ,t0 non dipende da t otteniamo d ∗ d ∗ d ∗ ∗ ∗ = θ τ = θt1 ,t0 = θt∗1 ,t0 LXt1 τ . θ τ θ θ τ dt t,t0 t=t1 dt t1 ,t0 t,t1 t=t1 dt t,t1 t=t1 (iii) τ non autonomo. Fissato p ∈ M , per ε > 0 abbastanza piccolo possiamo considerare l’applicazione differenziabile H: (t1 − ε, t1 + ε) × (t1 − ε, t1 + ε) → (Tk0 M )p data da
∗ H(s, t) = θs,t τt (p) . 0
Ora, H `e a valori in uno spazio vettoriale di dimensione finita; quindi possiamo applicare la formula di derivazione di funzioni composte e il punto (ii) per ottenere d ∂H ∂H H(t, t) (t1 , t1 ) + (t1 , t1 ) = dt ∂s ∂t t=t1 d ∗ ∗ θ τt (p) = θt1 ,t0 LXt1 τt1 (p) + dt t1 ,t0 t=t1 d = θt∗1 ,t0 LXt1 τt1 + τt (p) , dt t=t1
e ci siamo. Possiamo finalmente enunciare e dimostrare il teorema di Darboux:
a simplettica di dimenTeorema 6.8.11 (Darboux). Sia (M, ω0 ) una variet` sione 2n. Allora per ogni p ∈ M possiamo trovare una carta locale (V, ϕ) in p con ϕ = (x1 , y 1 , . . . , xn , y n ) tale che ω0 |V =
n i=1
dxi ∧ dy i .
6.8 Variet` a simplettiche
363
Dimostrazione. Fissato p0 ∈ M , il nostro obiettivo `e trovare una carta locale (V, ϕ) in p0 tale che ϕ∗ ω1 = ω0 , dove ω1 = j dxj ∧dy j `e la forma simplettica standard di R2n . Trattandosi di un enunciato locale, possiamo supporre che M sia una palla aperta U ⊂ R2n . Inoltre, la Proposizione 1.5.6 ci assicura che, a meno di un cambiamento di coordinate lineare, possiamo supporre che ω0 |p0 = ω1 |p0 . Poniamo Ω = ω1 − ω0 . Essendo Ω chiusa, il lemma di Poincar´e ci assicura l’esistenza di η ∈ A1 (U ) tale che dη = −Ω. Sottraendo a η, se necessario, una 1-forma con coefficienti costanti in U , senza perdita di generalit` a possiamo assumere ηp0 = O. Ora, per ogni t ∈ R poniamo ωt = ω0 + tΩ ∈ A1 (U ); chiaramente dωt = O e ωt |p0 ≡ ω0 |p0 per ogni t ∈ R. In particolare, ωt |p0 `e non degenere per ogni t ∈ R; allora per ogni intervallo aperto limitato I ⊃ [0, 1] possiamo trovare, per compattezza, un intorno U1 ⊂ U tale che ωt `e non degenere su U1 per ogni t ∈ I. Questo implica (vedi il Lemma 1.2.10) che l’applicazione ω ˜ t : T U1 → T ∗ U1 data da ω ˜ t (v) = ωt (v, ·) `e un isomorfismo per ogni t ∈ I. Definiamo allora un campo vettoriale non autonomo X: I × U1 → T U1 ponendo X(t, p) = ω ˜ t−1 (ηp ) , per cui in particolare X t ωt ≡ η , e sia Θ: U → U1 il flusso locale di X. La condizione ηp0 = O implica X(t, p0 ) = O per ogni t ∈ I; quindi Θ(t, 0, p0 ) = p0 per ogni t ∈ I, e dunque I × {0} × {p0 } ⊂ U. Essendo U aperto e [0, 1] compatto, esiste un intorno U0 ⊂ U1 di p0 tale che [0, 1] × {0} × U0 ⊂ U. Allora per ogni t1 ∈ [0, 1] il Lemma 6.8.10 implica d d ∗ = θt∗1 ,0 LXt1 ωt1 + ωt θ ωt dt t,0 t=t1 dt t=t1 = θt∗1 ,0 Xt1 dωt1 + d(Xt1 ωt1 ) + Ω = θt∗1 ,0 (O + dη + Ω) = O , ∗ ∗ dove abbiamo usato l’Esercizio 4.37. Dunque θt,0 ωt = θ0,0 ω0 = ω0 per ogni ∗ t ∈ [0, 1], e in particolare θ1,0 ω1 = ω0 . Per costruzione, (1, 0, p0 ) ∈ U; quindi la Proposizione 6.8.8.(iii) ci assicura che θ1,0 `e un diffeomorfismo con l’immagine in un intorno V di p0 , e prendendo ϕ = θ1,0 abbiamo trovato la carta locale cercata.
Definizione 6.8.12. Sia (M, ω) una variet` a simplettica di dimensione 2n. 1 1 n n Delle coordinate locali (x , y , . . . , x , y ) su un aperto U ⊆ M tali che ω|U = i dxi ∧ dy i sono dette coordinate di Darboux. Concludiamo questa sezione definendo l’analogo di dimensione dispari delle variet` a simplettiche.
364
6 Strutture su variet` a
Definizione 6.8.13. Sia M una variet` a di dimensione 2k + 1. Una forma di contatto `e una 1-forma η ∈ A1 (M ) tale che η ∧ (dη)k = O, dove (dη)k indica il prodotto esterno di dη con se stesso k-volte. La coppia (M, η), dove η `e una forma di contatto, `e detta variet` a di contatto. L’Esercizio 6.49 suggerisce in che senso una variet`a di contatto `e l’analogo di dimensione dispari di una variet` a simplettica.
Esercizi CONNESSIONI Esercizio 6.1. Sia π: E → M un fibrato vettoriale, e σ: I → M una curva di classe C ∞ . Sia t0 ∈ I tale che σ (t0 ) = O. Dimostra che esiste un intervallo aperto J ⊆ I contenente t0 tale che ogni X ∈ E(σ|J ) `e estendibile. Esercizio 6.2 (Usato nell’Osservazione 7.1.2). Sia ∇ una connessione su un fibrato vettoriale π: E → M , e σ: I → M una curva di classe C ∞ ; indichiamo con D: E(σ) → E(σ) la derivata covariante lungo σ. Sia poi h: J → I di clas˜ la derivata covariante se C ∞ , dove J ⊆ R `e un intervallo, e indichiamo con D lungo la curva σ ˜ = σ ◦h. Dimostra che per ogni X ∈ E(σ) si ha X ◦h ∈ E(σ ◦h) e ˜ D(X ◦ h) = h (DX ◦ h). Esercizio 6.3 (Citato nell’Osservazione 6.1.7). Sia L: T (M ) × T (M ) → T (M ) la derivata di Lie LX (Y ) = [X, Y ]. Dimostra che L non `e una connessione, e che esistono due campi vettoriali X, Y ∈ T (R2 ) tali che X(O) = O ma LX Y (O) = O. FORME DI CONNESSIONE Esercizio 6.4. Sia π: E → M un fibrato vettoriale. Supponiamo di avere una famiglia di riferimenti locali {E α } per E definiti su aperti {Uα } che ricoprono M , e di avere una famiglia di matrici di 1-forme {ω α }, con ω α definita su Uα , che soddisfano (6.6) sull’intersezione dei domini di definizione. Dimostra che esiste un’unica connessione ∇ su E per cui le ω α siano le matrici delle forme di connessione rispetto ai riferimenti locali E α . Esercizio 6.5 (Utile per l’Osservazione 6.2.3). Sia π: E → M un fibrato vettoriale su una variet` a M . Dimostra che: (i) T ∗ M ⊗ E `e canonicamente isomorfo (vedi la Proposizione 1.2.26.(iii)) al fibrato Hom(T M, E); (ii) lo spazio delle 1-forme a valori in E `e canonicamente isomorfo allo spazio delle sezioni del fibrato Hom(T M, E), che `e canonicamente isomorfo allo spazio delle applicazioni C ∞ (M )-lineari da T (M ) a E(M );
Esercizi
365
(iii) l’applicazione C ∞ (M ) lineare da T (M ) a E(M ) associata alla 1-forma a valori in E data da ω ⊗ V per un’opportuna 1-forma ω ∈ A1 (M ) e un’opportuna sezione V ∈ E(M ) `e X → ω(X)V . Esercizio 6.6. Sia ∇ una connessione lineare su una variet` a Riemanniana (M, g). Dimostra che ∇ `e compatibile con g se e solo se le 1-forme di connessione (ωji ) rispetto a qualsiasi riferimento locale {E1 , . . . , En } di T M sono tali che gjk ωik + gik ωjk = dgij , dove gij = g(Ei , Ej ), come al solito. In particolare, se ∇ `e compatibile con la metrica allora la matrice (ωji ) calcolata rispetto a un riferimento locale ortonormale `e necessariamente antisimmetrica. Esercizio 6.7. Sia ∇ una connessione lineare su una variet` a M , {E1 , . . . , En } un riferimento locale di T M , {ϕ1 , . . . , ϕn } il riferimento duale di T ∗ M , e (ωji ) la matrice delle 1-forme di connessione. Sia infine τ la torsione di ∇, e definiamo τ j : T (M ) × T (M ) → C ∞ (M ) per j = 1, . . . , n tramite la formula τ (X, Y ) = τ j (X, Y )Ej . Dimostra che τ 1 , . . . , τ n sono delle 2-forme locali (dette forme di torsione), e dimostra la prima equazione di struttura di Cartan: dϕj = ϕi ∧ ωij + τ j per j = 1, . . . , n.
FIBRATI ORIZZONTALI Esercizio 6.8 (Citato nell’Osservazione 6.3.6). Sia π: E → M un fibrato vettoriale con sottofibrato verticale V. Dimostra che: (i) Vμλ (v) = d(μλ )v (Vv ) e ιμλ (v) ◦ μλ = d(μλ )v ◦ ιv per ogni v ∈ E e ogni λ ∈ R∗ ; (ii) Vσ(v1 ,v2 ) = dσ(v1 ,v2 ) (Vv1 ⊕ Vv2 ) e ισ(v1 ,v2 ) ◦ dσ(v1 ,v2 ) = dσ(v1 ,v2 ) ◦ (ιv1 ⊕ ιv2 ) per ogni (v1 , v2 ) ∈ E ⊕ E. Esercizio 6.9 (Citato nella Definizione 6.3.7). Dimostra che un sottofibrato orizzontale H `e lineare se e solo se si ha Hμλ (v) = d(μλ )v (Hv ) per ogni v ∈ E e ogni λ ∈ R, e Hσ(v1 ,v2 ) = dσ(v1 ,v2 ) (Hv1 ⊕ Hv2 ) per ogni (v1 , v2 ) ∈ E ⊕ E. Esercizio 6.10 (Citato nella Sezione 6.1). Sia π: E → M un fibrato vettoriale. Costruisci un riferimento locale per E ⊕ E a partire da una banalizzazione locale di E.
366
6 Strutture su variet` a
METRICHE RIEMANNIANE Esercizio 6.11 (Usato nell’Osservazione 6.7.10). Sia M una variet` a, e supponiamo di avere per ogni p ∈ M un prodotto scalare definito positivo gp : Tp M × Tp M → R. Dimostra che g `e una metrica Riemanniana se e so lo se p → gp X(p), Y (p) `e di classe C ∞ per ogni X, Y ∈ T (M ). Deduci che i concetti di metrica lungo le fibre di T M e di metrica Riemanniana coincidono. a pseudoEsercizio 6.12 (Citato nell’Esempio 6.5.5). Sia (M1 , g1 ) una variet` a pseudo-Riemanniana Riemanniana di segnatura (r1 , s1 ), e (M2 , g2 ) una variet` di segnatura (r2 , s2 ). Dimostra che (M1 × M2 , g1 + g2 ) `e una variet` a pseudoRiemanniana di segnatura (r1 + r2 , s1 + s2 ). Esercizio 6.13. Sia (M, g) una variet` a Riemanniana. Dimostra che la metrica lungo le fibre di Tkh M definita nella Proposizione 6.7.11 coincide con quella che si sarebbe ottenuta applicando la Proposizione 1.3.9 alla metrica Riemanniana data su ciascun spazio tangente. Esercizio 6.14. Sia · , · una metrica Riemanniana invariante a sinistra su un gruppo di Lie compatto G, e sia ν una n-forma di volume invariante a sinistra su G (vedi l’Esercizio 4.23). Dimostra che ponendo . (dRx )g v, (dRx )g w gx ν v, w
g = G
dove g ∈ G e v, w ∈ Tg G, si ottiene una metrica Riemanniana biinvariante su G.
ISOMETRIE ˜ , g˜) di classe C ∞ Esercizio 6.15. Dimostra che un’applicazione H: (M, g) → (M fra variet` a Riemanniane `e un’isometria locale se e solo se `e un’isometria in ogni punto di M . Esercizio 6.16. Costruisci un esempio di un’isometria locale che non sia un’isometria. ˜ , g˜) tali che Esercizio 6.17. Costruisci due variet` a Riemanniane (M, g) e (M ˜ , g˜) ma (M ˜ , g˜) non `e localmente isometrica (M, g) `e localmente isometrica a (M a (M, g). Esercizio 6.18 (Usato nell’Esempio 8.4.9 e citato nell’Esercizio 8.15). Indichiamo con O(n, 1) il gruppo delle trasformazioni lineari di Rn+1 che conserva il 1 tensore gR introdotto nell’Esempio 6.5.25.(a) considerato come forma quadratica su Rn+1 , e indichiamo con O+ (n, 1) il sottogruppo che manda URn in s´e. Dimostra che gli elementi di O+ (n, 1) sono isometrie di URn , e che O+ (n, 1) agisce transitivamente sulle basi ortonormali di T URn .
Esercizi
367
˜ → M un rivestimento Esercizio 6.19 (Usato nell’Esempio 6.5.18). Sia π: M ˜ liscio, e sia g˜ una metrica Riemanniana su M . Assumi che ogni automorfismo del rivestimento sia un’isometria per g˜, e che il rivestimento sia normale, per cui il gruppo degli automorfismi del rivestimento agisce in maniera transitiva sulle fibre. Dimostra che esiste un’unica metrica Riemanniana g su M per cui π risulti essere un’isometria locale. Definizione 6.E.1. Due metriche Riemanniane g1 e g2 su una variet` a M sono dette conformi se esiste una funzione f ∈ C ∞ (M ) sempre positiva tale che a Riemanniane (M1 , g1 ) e (M2 , g2 ) sono dette conformeg2 = f g1 . Due variet` mente equivalenti se esiste un diffeomorfismo F : M1 → M2 , detto equivalenza conforme, tale che F ∗ g2 sia conforme a g1 . Diremo che (M1 , g1 ) `e localmente conforme a (M2 , g2 ) se per ogni p ∈ M1 esistono un intorno U ⊆ M1 di p e un diffeomorfismo con l’immagine F : U → M2 tale che F ∗ g2 |F (U ) sia conforme a g1 |U . Infine, diremo che (M, g) `e localmente conformemente piatta se `e localmente conforme a Rn con la metrica piatta, dove n = dim M . n Esercizio 6.20. Dimostra che SR `e localmente conformemente piatta. [Suggeri-
mento: usa la proiezione stereografica.]
CONNESSIONI E METRICHE Esercizio 6.21 (Citato nella Sezione 6.6). Dimostra che se ∇ `e una connessione compatibile con la metrica su una variet` a Riemanniana (M, g), e A ∈ T21 (M ) `e tale che A(X, Y ), Z + Y, A(X, Z) = 0 (6.33) per ogni X, Y , Z ∈ T (M ) allora ∇ + A `e ancora una connessione compatibile con la metrica. Dimostra inoltre che se ∇1 e ∇2 sono due connessioni compatibili con la metrica allora ∇1 − ∇2 `e un campo tensoriale di tipo 12 che soddisfa (6.33). Esercizio 6.22. Dimostra che se ∇ `e una connessione lineare di torsione τ allora ˜ = ∇ − 1 τ `e una connessione lineare simmetrica. ∇ 2 Esercizio 6.23. Trova una connessione lineare ∇ compatibile con una metrica ˜ = ∇ − 1 τ non sia compatibile con g, Riemanniana g tale che la connessione ∇ 2 dove τ `e la torsione di ∇. Esercizio 6.24. Dimostra che se M `e una superficie regolare di R3 equipaggiata con la metrica indotta dalla metrica piatta, allora i simboli di Christoffel introdotti nella teoria classica delle superfici (vedi [2, Definizione 4.6.1]) coincidono con quelli introdotti qui. Esercizio 6.25. Sia F : M → N un’immersione globalmente iniettiva, e g una metrica Riemanniana su N . Indichiamo con ∇ la connessione di Levi-Civita
368
6 Strutture su variet` a
su N , e per ogni p ∈ M sia πp : TF (p) N → dFp (Tp M ) la proiezione ortogonale. Definiamo F ∗ ∇: T (M ) × T (M ) → T (M ) ponendo F ∗ ∇X Y (p) = (dFp )−1 πp ∇dFp (X) dF (Y ) . Dimostra che F ∗ ∇ `e la connessione di Levi-Civita della metrica F ∗ g su M . 1 di URn rispetto Esercizio 6.26. Calcola i simboli di Christoffel della metrica gR alle coordinate locali , ϕ−1 (u1 , . . . , un ) = u1 , . . . , un , R2 + u2 .
` RIEMANNIANE IPERSUPERFICI IN VARIETA Definizione 6.E.2. Se M `e una variet` a Riemanniana e F : S → M `e una sottovariet`a immersa, un campo di versori normali lungo S `e un campo vettoriale N lungo S tale che N ≡ 1 e N (p) ⊥ dFp (Tp S) per ogni p ∈ S. Esercizio 6.27. Sia (M, g) una variet` a Riemanniana orientabile, di forma di volume Riemanniano νg , e sia F : S → M una ipersuperficie immersa, con metrica indotta gˆ = F ∗ g. Sia N un campo di versori normale lungo S. Dimostra che, rispetto all’orientazione di S determinata da N come nell’Esercizio 4.18, la forma di volume Riemanniana di (S, gˆ) `e νgˆ = F ∗ (N νg ) . Esercizio 6.28. Sia (M, g) una variet` a Riemanniana orientabile, di forma di volume Riemanniano νg , e sia F : S → M una ipersuperficie immersa, con metrica indotta gˆ = F ∗ g. Sia N un campo di versori normale lungo S, e X un altro campo vettoriale lungo S. Dimostra che F ∗ (X νg ) = X, N νgˆ . Esercizio 6.29 (Citato nell’Esempio 8.8.12). Sia M una variet` a Riemanniana orientata, e F : S → M una ipersuperficie orientata immersa. Dimostra che esiste un unico campo di versori normale lungo S che determina l’orientazione data. Esercizio 6.30. Sia M una variet` a Riemanniana orientabile, e S ⊂ M una sottovariet`a. Dimostra che S `e orientabile se e solo se il suo fibrato normale `e banale. Definizione 6.E.3. Sia M una variet` a con bordo. Un campo vettoriale X lungo ∂M `e detto esterno se dxn (Xp ) < 0 per ogni p ∈ ∂M e ogni carta di bordo ϕ = (x1 , . . . , xn ) in p.
Esercizi
369
Esercizio 6.31 (Utile per gli Esercizi 6.37, 6.38 e 6.40). Sia M una variet` a con bordo. Dimostra che: (i) se X `e un campo vettoriale lungo ∂M tale che per ogni p ∈ ∂M esiste una carta di bordo (x1 , . . . , xn ) in p tale che dxn (Xp ) < 0 allora X `e un campo esterno; (ii) data una metrica Riemanniana su M , esiste un unico campo di versori normali esterno lungo ∂M . DIVERGENZA, GRADIENTE, LAPLACIANO Esercizio 6.32. Sia ∇ una connessione sulla variet` a M . Dato X ∈ T (M ) e p ∈ M , sia AX,p : Tp M → Tp M l’applicazione lineare data da AX,p (v) = ∇v X. Dimostra che div(X)(p) = tr AX,p . Esercizio 6.33. Sia S: V × V → R una forma bilineare simmetrica definita su uno spazio vettoriale V di dimensione finita equipaggiato con un prodotto scalare definito positivo · , · . Dimostra che la traccia di S `e data da tr(S) =
n
S(vj , vj ) ,
j=1
dove {v1 , . . . , vn } `e una qualunque base ortonormale di V . Esercizio 6.34. Sia M una variet` a orientabile, e S = f −1 (a) un’ipersuperficie di livello di una funzione differenziabile f ∈ C ∞ (M ) con a ∈ R valore regolare. Dimostra che S `e orientabile (vedi anche l’Esercizio 4.19). [Suggerimento: usa l’Esercizio 4.18.]
Esercizio 6.35. Sia (M, g) una variet` a Riemanniana, X ∈ T (M ) e f ∈ C ∞ (M ). Dimostra che div(f X) = f div(X) + grad f, X , dove la divergenza `e calcolata rispetto alla connessione di Levi-Civita. Esercizio 6.36. Sia M una variet` a Riemanniana orientata di forma di volume Riemanniano νg , e X ∈ T (M ). Dimostra che d(X νg ) = div(X) νg = LX νg , dove la divergenza `e calcolata rispetto alla connessione di Levi-Civita. Esercizio 6.37 (Citato nell’Osservazione 4.5.14). Sia M una variet` a Riemanniana orientata con bordo, νg la forma di volume Riemanniana, e X ∈ T (M ) a supporto compatto. Dimostra il teorema della divergenza: . . div(X) νg = X, N νgˆ , M
∂M
dove N `e l’unico campo di versori normali esterno lungo ∂M costruito nell’Esercizio 6.31, e gˆ `e la metrica indotta su ∂M .
370
6 Strutture su variet` a
Esercizio 6.38. Sia M una variet` a Riemanniana orientata compatta con bordo, e νg la forma di volume Riemanniano. Dimostra che per ogni X ∈ T (M ) e f ∈ C ∞ (M ) si ha . . . grad f, X νg = f X, N νgˆ − f div(X)νg , M
∂M
M
dove N `e l’unico campo di versori normali esterno lungo ∂M introdotto nell’Esercizio 6.31, e gˆ `e la metrica indotta su ∂M . Esercizio 6.39. Sia (M, g) una variet` a Riemanniana, e f ∈ C ∞ (M ). Dimostra che Δf = div(grad f ) , e che in coordinate locali si ha 1 ∂ Δf = √ G ∂xk
√ jk ∂f Gg , ∂xj
dove G = det(gij ). Esercizio 6.40. Sia M una variet` a Riemanniana orientata compatta con bordo, a di Green: e νg la forma di volume Riemanniano. Dimostra le identit` . . . uΔv νg = grad u, grad v νg − uN (v)νgˆ , M ∂M . .M vN (u) − uN (v) νgˆ (uΔv − vΔu)νg = M
∂M
per ogni u, v ∈ C ∞ (M ), dove N `e l’unico campo di versori normali esterno lungo ∂M introdotto nell’Esercizio 6.31, e gˆ `e la metrica indotta su ∂M . Definizione 6.E.4. Sia M una variet` a Riemanniana, con o senza bordo. Una funzione u ∈ C ∞ (M ) tale che Δu ≡ 0 `e detta armonica. Esercizio 6.41. Sia M una variet` a Riemanniana compatta, connessa e orientabile. Dimostra che: (i) se ∂M = ∅ allora le sole funzioni armoniche su M sono le costanti; (ii) se ∂M = ∅ e u, v ∈ C ∞ (M ) sono due funzioni armoniche tali che u|∂M ≡ v|∂M allora u ≡ v. Definizione 6.E.5. Sia M una variet` a Riemanniana compatta, connessa e orientata. Una funzione u ∈ C ∞ (M ) non identicamente nulla `e una autofunzione del Laplaciano se Δu = λu per qualche λ ∈ R, detto autovalore del Laplaciano. Nel caso in cui ∂M = ∅, se u `e un’autofunzione del Laplaciano di autovalore λ con u|∂M ≡ 0, diremo che λ `e un autovalore di Dirichlet; se invece N (u)|∂M ≡ 0, dove N `e l’unico campo di versori normali esterno lungo ∂M , diremo che λ `e un autovalore di Neumann.
Esercizi
371
Esercizio 6.42. Sia M una variet` a Riemanniana compatta, connessa e orientata. (i) Se ∂M = ∅, dimostra che 0 `e un autovalore del Laplaciano, e che tutti gli altri autovalori sono strettamente negativi. del Laplaciano (ii) Se ∂M = ∅ e u, v ∈ C ∞ (M ) sono due autofunzioni < relative ad autovalori distinti, dimostra che M uv νg = 0. (iii) Se ∂M = ∅, dimostra che tutti gli autovalori di Dirichlet sono strettamente negativi. (iv) Se ∂M = ∅, dimostra che 0 `e un autovalore di Neumann, e che tutti gli altri autovalori di Neumann sono strettamente negativi. OPERATORE DI HODGE Esercizio 6.43. Sia M una n-variet` a Riemanniana orientata, di forma di volume νg . (i) Dimostra che per ogni k = 0, . . . , n esiste un unico morfismo di fibrati %n−k %k M→ M , detto operatore di Hodge, tale che $: 1 ω, η νg , k! %k M indotta dalla metrica Riedove · , · `e la metrica lungo le fibre di manniana. [Suggerimento: dimostra prima di tutto l’unicit`a, definiscilo usando ω ∧ $η =
basi ortonormali, e ricorda l’Esercizio 1.82.]
(ii) Dimostra che se f ∈ C ∞ (M ) allora $f = f νg . (iii) Dimostra che $ $ ω = (−1)k(n−k) ω per ogni k-forma ω. Esercizio 6.44. Sia $ l’operatore di Hodge su Rn considerato con la metrica e l’orientazione standard. (i) Calcola $dxi per i = 1, . . . , n. (ii) Calcola $(dxi ∧ dxj ) quando n = 4. Definizione 6.E.6. Sia M una 4-variet` a Riemanniana orientata. Una 2forma ω ∈ A2 (M ) `e detta autoduale se $ω = ω, e anti autoduale se $ω = −ω. Esercizio 6.45. Dimostra che ogni 2-forma su una 4-variet`a Riemanniana orientata si pu` o scrivere in modo unico come somma di una forma autoduale e una forma anti autoduale. Esercizio 6.46. Determina tutte le 2-forme autoduali e anti autoduali su R4 considerato con la metrica e l’orientazione standard. Esercizio 6.47. Sia M una n-variet` a Riemanniana orientata, di forma di volume Riemanniano νg . Dimostra che per ogni X ∈ T (M ) si ha X νg = $X
e
div(X) = $d$X .
372
6 Strutture su variet` a
Definizione 6.E.7. Sia M una n-variet` a Riemanniana orientata. Il codifferenziale esterno d : Ak (M ) → Ak−1 (M ) `e definito per ogni k = 1, . . . , n dalla formula d = (−1)n(k+1)+1 $d$ , e da d ≡ O su A0 (M ). Esercizio 6.48. Sia M una n-variet` a Riemanniana orientata, di forma di volume Riemanniano νg . Dimostra che: (i) d ◦ d = O; (ii) se M `e compatta, ponendo . 1 (ω, η) = ω, η νg , ∀ω, η ∈ Ak (M ) k! M %k M indotta dalla metrica dove · , · `e la metrica lungo le fibre di Riemanniana, si ottiene un prodotto scalare definito positivo su Ak (M ); (iii) si ha (d ω, η) = (ω, dη) per ogni ω ∈ Ak (M ) e η ∈ Ak−1 (M ). ` SIMPLETTICHE VARIETA Esercizio 6.49 (Citato nell’Osservazione 6.8.2). Sia M una variet` a di dimensione 2k, e ω ∈ A2 (M ). Dimostra che: (i) ω `e una forma simplettica se e solo se ω k `e una forma di volume, dove ω k rappresenta il prodotto esterno di ω con se stessa k volte; (ii) ogni variet` a simplettica `e orientabile; (iii) se M `e una variet` a simplettica compatta allora H 2 (M ) = O. Esercizio 6.50. Sia η ∈ A1 (M ), dove M `e una variet`a. Dimostra che η `e chiusa se e solo se η(M ) ⊂ T ∗ M `e una sottovariet` a Lagrangiana di T ∗ M considerato con la struttura simplettica dell’Esempio 6.8.5. Esercizio 6.51 (Citato nella Sezione 6.8). Sia M una n-variet` a connessa, comn A (M ) due forme di volume inducenti patta e orientata, e siano ν0 , ν1 ∈ < < l’orientazione di M . Dimostra che M ν1 = M ν0 se e solo se esiste un diffeomorfismo F : M → M che preserva l’orientazione tale che F ∗ ν1 = ν0 . [Suggerimento: nota che esiste ψ ∈ An−1 (M ) tale che ν1 − ν0 = dψ, e definisci un campo vettoriale non autonomo X imponendo Xt νt = −ψ, dove νt = ν0 + t(ν1 − ν0 ). ∗ Dimostra infine che θt,0 νt = ν0 per ogni t ∈ [0, 1], dove Θ `e il flusso di X.]
Esercizio 6.52. Sia M una variet` a simplettica compatta, e ω0 , ω1 ∈ A1 (M ) due forme simplettiche coomologhe. Dimostra che esiste un diffeomorfismo F : M → M tale che F ∗ ω1 = ω0 .
Esercizi
373
CAMPI HAMILTONIANI Definizione 6.E.8. Sia (M, ω) una variet` a simplettica, e sia ω ˆ : T M → T ∗M l’isomorfismo indotto da ω (vedi il Lemma 1.2.10) dato da ω ˆ (v) = ω(v, ·). Per ogni f ∈ C ∞ (M ) il campo vettoriale Hamiltoniano associato a f `e Xf = ω ˆ −1 (df ) . In altri termini, Xf ω = df , o anche ω(Xf , Y ) = df (Y ) = Y (f ) per ogni Y ∈ T (M ). Viceversa, diremo che un campo vettoriale X ∈ T (M ) `e Hamiltoniano se esiste f ∈ C ∞ (M ) tale che X = Xf , e che `e localmente Hamiltoniano se ogni p ∈ M ha un intorno su cui X `e Hamiltoniano. Diremo poi che X ∈ T (M ) `e simplettico se ω `e invariante rispetto al flusso di X, cio`e (vedi l’Esercizio 3.39) se LX ω = O. Infine, un sistema Hamiltoniano `e una tripla (M, ω, H), dove (M, ω) `e una variet` a simplettica e H ∈ C ∞ (M ) `e una funzione detta Hamiltoniana del sistema. Esercizio 6.53. Sia (M, ω) una n-variet` a simplettica, e (x1 , y 1 , . . . , xn , y n ) delle coordinate di Darboux su un aperto U ⊆ M . Dimostra che Xf |U =
n ∂f j=1
∂f ∂ ∂ − ∂y j ∂xj ∂xj ∂yj
per ogni f ∈ C ∞ (M ). Esercizio 6.54. Sia (M, ω) una n-variet` a simplettica, e f ∈ C ∞ (M ). Dimostra che: (i) f `e costante lungo il flusso di Xf , cio`e f θt (p) = f (p) per ogni (t, p) nel dominio del flusso Θ di Xf ; (ii) Xf `e tangente nei punti regolari alle ipersuperfici di livello di f . Esercizio 6.55. Sia (M, ω) una variet` a simplettica. Dimostra che: (i) un campo vettoriale `e simplettico se e solo se `e localmente Hamiltoniano; (ii) ogni campo vettoriale localmente Hamiltoniano `e (globalmente) Hamiltoniano se e solo se H 1 (M ) = O. [Suggerimento: usa la formula di Cartan (Esercizio 4.37) per la derivata di Lie.]
Esercizio 6.56. Sia (M, ω) una variet` a simplettica. Dimostra che: (i) l’insieme dei campi vettoriali simplettici `e una sottoalgebra di Lie di T (M ); (ii) l’insieme dei campi vettoriali Hamiltoniani `e una sottoalgebra di Lie dell’algebra dei campi vettoriali simplettici; (iii) il quoziente dei campi vettoriali simplettici modulo i campi vettoriali Hamiltoniani `e isomorfo (come spazio vettoriale) a H 1 (M ).
374
6 Strutture su variet` a
Definizione 6.E.9. Sia (M, ω) una variet` a simplettica. La parentesi di Poisson di due funzioni f , g ∈ C ∞ (M ) `e la funzione {f, g} ∈ C ∞ (M ) definita da una delle seguenti formule equivalenti: {f, g} = ω(Xf , Xg ) = df (Xg ) = Xg (f ) , dove Xf , rispettivamente Xg , `e il campo vettoriale Hamiltoniano associato a f , rispettivamente a g, Esercizio 6.57. Sia (M, ω) una variet` a simplettica, e f , g, h ∈ C ∞ (M ). Dimostra che: (i) la parentesi di Poisson `e R-bilineare; (ii) {f, g} = −{g, f }; (iii) {{f, g}, h} + {{g, h}, f } + {{h, f }, g} = 0; (iv) X{f,g} = −[Xf , Xg ]; (v) in coordinate di Darboux si ha {f, g} =
n ∂f ∂g ∂f ∂g . − ∂xj ∂y j ∂y j ∂xj j=1
Definizione 6.E.10. Se (M, ω, H) `e un sistema Hamiltoniano, una funzione f ∈ C ∞ (M ) costante su ogni curva integrale di XH `e detta integrale primo del sistema. Un campo vettoriale X ∈ T (M ) `e detto simmetria infinitesimale se sia ω che H sono invarianti rispetto al flusso di X. Esercizio 6.58. Sia (M, ω, H) un sistema Hamiltoniano. Dimostra che: (i) f ∈ C ∞ (M ) `e un integrale primo se e solo se {H, f } ≡ 0; (ii) X ∈ T (M ) `e una simmetria infinitesimale se e solo se `e simplettico e X(H) ≡ 0; (iii) se Θ `e il flusso di una simmetria infinitesimale X e σ `e una curva integrale del campo vettoriale Hamiltoniano XH , allora θs ◦ σ `e ancora una curva integrale (ove definita) di XH per ogni s ∈ R. Esercizio 6.59. Sia (M, ω, H) un sistema Hamiltoniano. Dimostra il teorema di Noether: (i) se f `e un integrale primo, allora Xf `e una simmetria infinitesimale; (ii) viceversa, se H 1 (M ) = O allora ogni simmetria infinitesimale `e il campo vettoriale Hamiltoniano di un integrale primo, unico a meno di un addendo costante su ogni componente connessa di M .
7 Geodetiche
Questo capitolo `e dedicato allo studio della struttura geometrica delle variet` a Riemanniane. Il concetto chiave che ci permetter`a una maggiore comprensione `e quello di geodetica rispetto ad una connessione lineare, una curva con vettore tangente parallelo. Le geodetiche svolgono un ruolo analogo a quello svolto dai segmenti in Rn , e (come illustreremo anche nel prossimo capitolo) sono uno strumento essenziale per l’investigazione della geometria delle variet` a Riemanniane. Cominceremo dimostrando che, in ogni punto, la scelta di un vettore tangente individua un’unica geodetica tangente al vettore assegnato, e che le geodetiche sono le traiettorie di un ben definito campo vettoriale sul fibrato tangente, detto campo geodetico. Le geodetiche dipendono in maniera differenziabile dalle condizioni iniziali; questo ci permetter`a di definire l’applicazione esponenziale, un’applicazione differenziabile canonica dal fibrato tangente alla variet`a che riassume in maniera sistematica il comportamento delle singole geodetiche, permettendoci di costruire delle carte locali particolarmente utili. Come prima conseguenza, mostreremo che ogni variet`a Riemanniana `e uno spazio metrico; studiando le geodetiche rispetto alla connessione di LeviCivita, definiremo infatti su ogni variet` a riemanniana una distanza, detta distanza Riemanniana, con la propriet` a che le geodetiche risulteranno essere le curve localmente di lunghezza minima. Dimostreremo anche che ogni punto di una variet` a Riemanniana ammette un sistema fondamentale di intorni geodeticamente convessi, cio`e contenenti la geodetica che unisce due qualsiasi suoi punti (teorema di Whitehead ), come i convessi di Rn contengono il segmento che unisce due loro punti qualsiasi. Saremo quindi in grado di mantenere una promessa fatta nel Capitolo 5 mostrando che ogni ricoprimento aperto di una variet` a ammette un raffinamento aciclico (vedi il Teorema 5.8.8). Lo studio dell’applicazione esponenziale permette anche di caratterizzare le variet`a Riemanniane complete, nelle quali ogni geodetica `e definita su tutta la retta reale, cio`e in cui il campo geodetico `e completo: per il teorema di Hopf-Rinow, questo accade se e solo se la distanza Riemanniana `e completa. Abate M., Tovena F.: Geometria Differenziale. DOI 10.1007/978-88-470-1920-1_7 c Springer-Verlag Italia 2011
376
7 Geodetiche
Inoltre, in una variet` a Riemanniana completa ogni coppia di punti pu` o essere collegata da una geodetica di lunghezza minima. Nell’ultima sezione studieremo l’esempio dei gruppi di Lie connessi, confrontando la nozione di applicazione esponenziale appena introdotta con quella definita nel Capitolo 3 attraverso lo studio dei sottogruppi a un parametro; vedremo che le due definizioni coincidono quando la metrica `e bi-invariante nel senso della Definizione 6.5.28. I sottogruppi a un parametro sono quindi geodetiche, rispetto a opportune connessioni lineari, uscenti dall’elemento neutro; questa osservazione motiva il nome di applicazione “esponenziale”. Per la dimostrazione, utilizzeremo una coppia di morfismi, definiti sul gruppo di Lie e sulla sua algebra di Lie rispettivamente, e detti rappresentazione aggiunta del gruppo e dell’algebra di Lie. Lo studio di questi morfismi metter` a in luce ulteriori legami tra i gruppi di Lie e le loro algebre. Infine, vale la pena di notare esplicitamente che diversi dei risultati di questo capitolo sono una generalizzazione a variet` a Riemanniane di dimensione qualsiasi di fatti noti per le geodetiche di superfici immerse in R3 : confronta, per esempio, [2, Capitolo 5].
7.1 L’applicazione esponenziale Il concetto chiave che ci permetter`a una maggiore comprensione della struttura geometrica delle variet`a Riemanniane `e quello di geodetica. Definizione 7.1.1. Sia ∇ una connessione lineare su una variet` a M . Una geodetica per ∇ `e una curva σ: I → M tale che D(σ ) ≡ 0. In altre parole σ `e una geodetica se e solo se il vettore tangente σ `e parallelo lungo σ. Osservazione 7.1.2. Nota che l’essere una geodetica dipende non solo dal sostegno ma anche dalla parametrizzazione. Infatti, sia σ: I → M una curva e σ ˜ = σ ◦ h: I˜ → M una sua riparametrizzazione, dove h: I˜ → I `e un σ ◦ h) e (Proposizione 6.1.12 ed Esercizio 6.2) diffeomorfismo. Allora σ ˜ = h (˜ ˜ σ ) = h (σ ◦ h) + (h )2 (Dσ ) ◦ h , D(˜
(7.1)
˜ σ ≡ O ˜ `e la derivata covariante lungo σ dove D ˜ , per cui Dσ ≡ O non implica D˜ a meno che h ≡ 0. Vedi anche gli Esercizi 7.1, 7.2 e la Proposizione 7.2.7. Osservazione 7.1.3. La definizione di geodetica dipende dalla scelta della connessione lineare. Gli Esercizi 7.7 e 7.8 discutono il confronto fra geodetiche relative a due differenti connessioni. Se (U, ϕ) `e una carta locale e scriviamo σ j = ϕ ◦ σ = (σ 1 , . . . , σ n ), l’equazione (6.3) (introdotta dopo la Definizione 6.1.14 di campo parallelo) assicura che la curva σ `e una geodetica se e solo se soddisfa il sistema di equazioni differenziali ordinarie
7.1 L’applicazione esponenziale
(σ k ) + (Γijk ◦ σ) (σ i ) (σ j ) = 0 ,
377
(7.2)
per k = 1, . . . , n. Si tratta di un sistema di equazioni differenziali ordinarie del secondo ordine. Possiamo trasformarlo in un sistema di equazioni differenziali ordinarie del primo ordine introducendo delle variabili ausiliarie v 1 , . . . , v n per rappresentare le componenti di σ (vedi pi` u oltre la dimostrazione della Proposizione 7.1.6 per il significato geometrico di questa operazione), in modo da ridurci al sistema equivalente del primo ordine k (v ) + (Γijk ◦ σ) v i v j = 0 , (7.3) (σ k ) = v k . In particolare: Proposizione 7.1.4. Sia ∇ una connessione lineare su una variet` a M . Allora per ogni p ∈ M e v ∈ Tp M esistono un intervallo I ⊆ R con 0 ∈ I e una ˜ : I˜ → M `e geodetica σ: I → M tale che σ(0) = p e σ (0) = v. Inoltre, se σ un’altra geodetica soddisfacente le stesse condizioni allora σ e σ ˜ coincidono ˜ in I ∩ I. Dimostrazione. Il Teorema 3.3.3 applicato a (7.3) ci dice che esistono ε > 0 e una curva σ: (−ε, ε) → U ⊂ M che sia soluzione di (7.2) con condizioni iniziali σ(0) = p e σ (0) = v. Inoltre, se σ ˜ `e un’altra geodetica che soddisfa le stesse condizioni iniziali allora σ e σ ˜ coincidono in un qualche intorno di 0. ˜ coincidono. Se Sia I0 il massimo intervallo contenuto in I ∩ I˜ su cui σ e σ ˜ esiste un estremo t0 di I0 contenuto I0 `e strettamente contenuto in I ∩ I, ˜ e possiamo applicare il solito Teorema 3.3.3 con condizioni iniziali in I ∩ I, ˜ coincidono anche in un intorno di t0 , contro la σ(t0 ) e σ (t0 ). Ma allora σ e σ ˜ definizione di I0 . Quindi I0 = I ∩ I.
Definizione 7.1.5. Sia ∇ una connessione lineare su una variet`a M , p ∈ M e v ∈ Tp M . Indicheremo con σv : I → M l’unica geodetica massimale (che esiste per la proposizione precedente) tale che σv (0) = p e σv (0) = v Vogliamo ora studiare come le geodetiche dipendono dalle condizioni iniziali. Per far ci` o, mostriamo come associare a ogni geodetica una traiettoria di un opportuno campo vettoriale definito sul fibrato tangente T M . Una curva liscia σ: I → M definisce univocamente la curva dei vettori tangenti σ : I → T M , che `e una curva con sostegno contenuto nello spazio totale del fibrato tangente. Il sistema (7.2) si pu` o allora tradurre dicendo che una curva σ `e una geodetica se e solo se la curva σ `e una curva integrale di un opportuno campo vettoriale su T M : Proposizione 7.1.6. Sia ∇ una connessione lineare su una variet` a M . Allora esiste un unico campo vettoriale G ∈ T (T M ) le cui traiettorie siano tutte e sole le curve σ : I → T M con σ: I → M geodetica in M .
378
7 Geodetiche
Dimostrazione. Cominciamo col riscrivere (7.2) in una forma pi` u utile ai nostri scopi. Come visto nell’Esempio 3.2.13, una carta locale (U, ϕ) per M determina una carta locale (T U, ϕ) ˜ di T M ponendo ϕ(v) ˜ = (x1 , . . . , xn ; v 1 , . . . , v n ) ∈ ϕ(U ) × Rn per ogni p ∈ U e v ∈ Tp M , dove (x1 , . . . , xn ) = ϕ(p) e v = j v j ∂j |p . Sia σ: I → M una curva con sostegno contenuto in U , in modo da poter scrivere in queste ϕ ◦ σ = (σ 1 , . . . , σn ). Allora la curva σ `e rappresentata coordinate locali da ϕ˜ ◦ σ = σ 1 , . . . , σn ; (σ 1 ) , . . . , (σn ) , in quanto σ = j (σ j ) ∂j |σ . Sia ora γ: I → T M una qualsiasi curva con sostegno contenuto in T U , per cui possiamo scrivere ϕ˜ ◦ γ(t) = x1 (t), . . . , xn (t); v 1 (t), . . . , v n (t) per opportune funzioni x1 , . . . , xn , v 1 , . . . , v n ∈ C ∞ (I). Allora γ `e una curva della forma σ per una qualche curva σ: I → U se e solo se v j ≡ (xj ) per j = 1, . . . , n; quindi γ `e una curva della forma σ con σ geodetica se e solo se ϕ˜ ◦ γ soddisfa il sistema di equazioni differenziali ordinarie del primo ordine ⎧ k dx ⎪ ⎪ ⎨ = vk , dt (7.4) k ⎪ ⎪ ⎩ dv = −Γijk (x)v i v j . dt Nell’Esempio 3.2.13 abbiamo visto che un riferimento locale per T (T M ) sopra T U `e definito da {∂/∂x1 , . . . , ∂/∂xn ; ∂/∂v 1 , . . . , ∂/∂v n }; la (7.4) suggerisce allora di introdurre il campo vettoriale (per il momento definito solo sopra T U e dipendente dalle coordinate locali scelte) G = vk
∂ ∂ − Γijk v i v j k . ∂xk ∂v
(7.5)
La (7.4) dice esattamente che γ: I → T U `e una traiettoria di G in T U se e solo se σ = π ◦ γ `e una geodetica per ∇ in U e γ = σ (dove π: T M → M `e la proiezione canonica). Quindi per concludere la dimostrazione rimane solo da verificare che G non dipende dalle coordinate scelte, per cui si estende a un campo vettoriale globale su T M . Per far ci` o basta far vedere che per ogni p ∈ M , v ∈ Tp M e f ∈ CT∞M (v) il numero G(v)(f ) `e indipendente dalle coordinate. Basta quindi dimostrare, per esempio, che G(v)(f ) =
d(f ◦ σv ) (0) , dt
dove f `e un qualsiasi rappresentante di f e σv `e l’unica geodetica massimale uscente da p tangente a v. Ma infatti
7.1 L’applicazione esponenziale
d(f ◦ dt
σv )
379
∂f ∂f (v)(σvk ) (0) + k (v)(σvk ) (0) k ∂x ∂v ∂f ∂f k = (v)v − k (v)Γijk (p)v i v j = G(v)(f ) , ∂xk ∂v
(0) =
e ci siamo.
Definizione 7.1.7. Sia ∇ una connessione lineare su una variet` a M . Il campo G ∈ T (T M ) definito localmente da (7.5) `e detto campo geodetico, e il suo flusso flusso geodetico. La conseguenza principale di questo risultato `e che ci permette di applicare il Teorema 3.3.5 allo studio delle geodetiche, e quindi di controllare simultaneamente il comportamento di tutte le geodetiche uscenti da un unico punto. Per enunciare al meglio questo risultato, ci servono un lemma e una definizione. Lemma 7.1.8. Sia ∇ una connessione lineare su una variet` a M, p ∈ M, v ∈ Tp M e c, t ∈ R. Allora si ha σcv (t) = σv (ct)
(7.6)
non appena uno dei due membri `e definito. Dimostrazione. Se c = 0 non c’`e nulla da dimostrare. Se c = 0, cominciamo col ˜ (t) = σv (ct); dimostrare che (7.6) vale non appena σv (ct) esiste. Poniamo σ ˜ `e una chiaramente σ ˜ (0) = p e σ ˜ (0) = cv per cui basta dimostrare che σ ˜ la derivata covariante lungo σ geodetica. Ora, se indichiamo con D ˜ , la formula (7.1) implica ˜ tσ D ˜ = c2 Dct σv = O , come voluto. Infine, supponiamo che σcv (t) esista, e poniamo v1 = cv e s = ct. Allora
σcv (t) = σv1 (c−1 s) esiste, per cui `e uguale a σc−1 v1 (s) = σv (ct), e ci siamo. Definizione 7.1.9. Sia ∇ una connessione lineare su una variet`a M . Il dominio dell’applicazione esponenziale `e l’insieme E = {v ∈ T M | σv `e definita in un intervallo contenente [0, 1]} ⊂ T M . L’applicazione esponenziale exp: E → M di ∇ `e allora definita da exp(v) = σv (1) . Inoltre, se p ∈ M scriveremo Ep = E ∩ Tp M ed expp = exp |Ep . Osservazione 7.1.10. Uno dei motivi per la presenza dell’aggettivo “esponenziale nel nome di questa applicazione deriva dalla teoria dei Gruppi di Lie; vedi il Teorema 7.5.10.
380
7 Geodetiche
Usando il Teorema 3.3.5 possiamo dedurre alcune propriet`a importanti dell’applicazione esponenziale: Teorema 7.1.11. Sia ∇ una connessione lineare su una variet` a M . Allora: (i) l’insieme E `e un intorno aperto della sezione nulla di T M , e ciascun Ep `e stellato rispetto all’origine; (ii) per ogni v ∈ T M la geodetica massimale σv `e data da σv (t) = exp(tv) per tutti i t ∈ R per cui uno dei due membri `e definito; (iii) l’applicazione esponenziale `e di classe C ∞ . Dimostrazione. Il Lemma 7.1.8 applicato con t = 1 dice esattamente che exp(cv) = σcv (1) = σv (c) non appena uno dei due membri `e definito, per cui (ii) `e soddisfatta. In particolare, se 0 ≤ t ≤ 1 e v ∈ E abbiamo che exp(tv) = σtv (1) = σv (t) `e definito, per cui ciascun Ep `e stellato rispetto all’origine. Ora, per la Proposizione 7.1.6 le geodetiche di ∇ sono la proiezione su M delle traiettorie del campo geodetico G. Indichiamo con Γ : U → T M il flusso del campo geodetico che, grazie al Teorema 3.3.5, `e definito in un intorno aperto U di {0} × T M in R × T M . In particolare, v ∈ E se e solo se (1, v) ∈ U; ma allora si ha E = π2 U ∩ ({1} × T M ) , dove π2 : R × T M → T M `e la proiezione sulla seconda coordinata, per cui E `e aperto. Infine, sempre per il Teorema 3.3.5 il flusso di G `e di classe C∞ , per cui l’applicazione esponenziale, data dalla formula exp(v) = π2 Γ (1, v) , `e anch’essa di classe C ∞ .
Dunque l’applicazione esponenziale `e differenziabile. In particolare, identificando canonicamente TOp (Tp M ) con Tp M poich`e Tp M `e uno spazio vettoriale, il suo differenziale d(expp )Op : TOp (Tp M ) ∼ = Tp M → Tp M risulta essere un endomorfismo di Tp M . Ed `e un endomorfismo molto particolare: Proposizione 7.1.12. Sia ∇ una connessione lineare su una variet` a M, e p ∈ M . Allora d(expp )Op = id. In particolare, esistono un intorno U di Op in Tp M e un intorno V di p in M tali che expp |U : U → V sia un diffeomorfismo. Dimostrazione. Dato v ∈ TOp (Tp M ) = Tp M , una curva in Tp M che parte da Op tangente a v `e γ(t) = tv. Allora d d expp γ(t) expp (tv) = = σv (0) = v . d(expp )Op (v) = dt dt t=0 t=0 La seconda affermazione segue dal Teorema 2.1.37 della funzione inversa.
7.1 L’applicazione esponenziale
381
Definizione 7.1.13. Sia ∇ una connessione lineare su una variet` a M, e p ∈ M . Un intorno aperto V di p in M diffeomorfo tramite expp a un intorno stellato U di Op in Tp M `e detto intorno normale di p. Tutto quanto visto finora si applica anche alla connessione di Levi-Civita di una variet` a Riemanniana. Inoltre, in questo caso possiamo introdurre le definizioni seguenti: Definizione 7.1.14. Sia ∇ la connessione di Levi-Civita di una variet` a Riemanniana (M, g), e p ∈ M . Indichiamo con Bε (Op ) ⊂ Tp M la palla aperta rispetto alla metrica g di centro l’origine e raggio ε > 0 in Tp M . Il raggio d’iniettivit` a injrad(p) ∈ R+ ∪ {+∞} di M in p `e definito da injrad(p) = sup{ε > 0 | expp |Bε (Op ) `e un diffeomorfismo con l’immagine} . p e raggio 0 < ε ≤ injrad(p) in M `e l’intorno La palla geodetica Bε (p) di centro normale di p della forma expp Bε (Op ) . Il suo bordo ∂Bε (p) = expp ∂Bε (Op ) `e detto sfera geodetica. Le geodetiche in Bε (p) uscenti da p sono dette geodetiche radiali. Se {E1 , . . . , En } `e una base ortonormale di Tp M , e χ: Tp M → Rn `e l’isomorfismo dato dalle coordinate rispetto a questa base, allora le coordinate n ϕ = χ ◦ exp−1 p : Bε (p) → R sono dette coordinate normali centrate in p. Osservazione 7.1.15. Vedremo in seguito (Teorema 7.2.23) che le palle geodetiche sono effettivamente delle palle rispetto a un’opportuna distanza sulla variet` a Riemanniana. Il raggio d’iniettivit` a chiaramente dipende dal punto. Non `e necessariamente continuo, ma ha estremo inferiore strettamente positivo sui compatti. Per dimostrarlo, introduciamo la seguente Definizione 7.1.16. Il raggio d’iniettivit` a di un sottoinsieme C ⊆ M `e il numero injrad(C) = inf{injrad(q) | q ∈ C} . Diremo che un aperto W ⊆ M `e uniformemente normale se ha raggio d’iniettivit` a positivo. In altre parole, W `e uniformemente normale se esiste δ > 0 tale che expq sia un diffeomorfismo in Bδ (Oq ) per ogni q ∈ W . Allora: Proposizione 7.1.17. Sia ∇ la connessione di Levi-Civita di una variet` a Riemanniana (M, g). Allora ogni p ∈ M ha un intorno aperto uniformemente normale W . Dimostrazione. Dati un intorno V di p e δ > 0, gli insiemi Vδ = {v ∈ T M | q = π(v) ∈ V, vq < δ} ,
382
7 Geodetiche
dove, come al solito, π: T M → M `e la proiezione canonica, formano un sistema fondamentale d’intorni di Op in T M . Siccome Op ∈ E, possiamo trovare V e δ1 > 0 tali che Vδ1 ⊂ E. Sia E: Vδ1 → M × M data da E(v) = π(v), expπ(v) (v) ; cominciamo col dimostrare che E `e invertibile in un intorno di Op . A meno di restringere V , possiamo supporre che sia il dominio di una carta locale ϕ = (x1 , . . . , xn ) centrata in p. Come gi`a visto nel corso della dimostrazione della Proposizione 7.1.6, ϕ induce coordinate locali ϕ˜ = (x1 , . . . , xn ; v 1 , . . . , v n ) in Vδ1 . Una base di TOp Vδ1 `e quindi {∂/∂x1 , . . . , ∂/∂xn , ∂/∂v 1 , . . . , ∂/∂v n }. Una curva γ in Vδ1 con γ(0) = Op e γ (0) = ∂/∂v j |Op `e γ(t) = t ∂/∂xj |p . Quindi ∂ d dEOp = E γ(t) ∂v j dt t=0 d ∂ j p, expp (t ∂/∂x |p ) = = Op , . j dt ∂x p t=0 D’altra parte, una curva τ in Vδ1 con τ (0) = Op e τ (0) = ∂/∂xj |Op `e τ (t) = Oexpp (t ∂/∂xj |p ) ; quindi ∂ d j exp (t ∂/∂x | ), exp (O) dEOp = j p p expp (t ∂/∂x |p ) ∂xj dt t=0 d j j expp (t ∂/∂x |p ), expp (t ∂/∂x |p ) = dt t=0 ∂ ∂ . = , ∂xj p ∂xj p Quindi dEOp , mandando una base di TOp Vδ1 in una base di Tp M ×Tp M , `e non singolare, per cui esistono un intorno W ⊆ V di p e un 0 < δ ≤ δ1 tali che E|Wδ sia un diffeomorfismo. Ma questo implica in particolare che per ogni q ∈ W l’applicazione esponenziale expq : Bδ (Oq ) → Bδ (q) `e un diffeomorfismo, e ci siamo.
Corollario 7.1.18. Sia M una variet` a Riemanniana. Allora ogni K ⊆ M compatto ha raggio d’iniettivit` a positivo. Dimostrazione. La proposizione precedente ci fornisce per ogni p ∈ K un δp > 0 e un intorno Wp di p tali che injrad(q) ≥ δp per ogni q ∈ Wp . Sia {Wp1 , . . . , Wpk } un sottoricoprimento finito di K; allora injrad(K) ≥ min{δp1 , . . . , δpk } > 0 , come affermato.
Osservazione 7.1.19. Pi` u precisamente, si pu` o dimostrare che il raggio d’iniettivit` a `e una funzione semicontinua inferiormente; vedi l’Esercizio 7.3.
7.2 La distanza Riemanniana
383
7.2 La distanza Riemanniana In questa sezione dimostreremo che una variet`a Riemanniana `e in maniera canonica uno spazio metrico; vedremo poi delle relazioni molto interessanti fra le propriet` a topologiche della distanza canonica e le propriet` a geometriche della variet` a. Cominciamo con delle definizioni che ci serviranno per introdurre la distanza. Definizione 7.2.1. Una curva continua σ: [a, b] → M in una variet` a M `e detta regolare a tratti se esiste una suddivisione a = t0 < t1 < · · · < tk = b di [a, b] tale che σ|[tj−1 ,tj ] sia di classe C ∞ e regolare (cio`e con vettore tangente mai nullo) o costante per j = 1, . . . , k. Definizione 7.2.2. Sia σ: [a, b] → M una curva regolare a tratti in una variet` a Riemanniana (M, g). La lunghezza d’arco di σ `e la funzione s: [a, b] → R+ data da . t
s(t) =
σ (u)σ(u) du ,
a
dove · p `e la norma di Tp M indotta da g. La lunghezza di σ `e .
b
L(σ) =
σ (u)σ(u) du .
a
Diremo che σ `e parametrizzata rispetto alla lunghezza d’arco se σ (u)σ(u) = 1 quando σ (u) `e definito; in particolare, σ non ha tratti costanti, e s(t) = t − a. Definizione 7.2.3. Sia (M, g) una variet` a Riemanniana connessa. La funzione d: M × M → R+ data da d(p, q) = inf{L(σ) | σ: [a, b] → M `e una curva regolare a tratti con σ(a) = p e σ(b) = q} `e detta distanza Riemanniana su M indotta da g. Proposizione 7.2.4. Sia (M, g) una variet` a Riemanniana connessa. Allora la funzione d: M × M → R+ appena definita `e una distanza che induce la topologia della variet` a. Dimostrazione. Dalla definizione `e chiaro che d(p, q) = d(q, p) ≥ 0 e che d(p, p) = 0. La disuguaglianza triangolare segue (controlla) dal fatto che possiamo combinare una curva regolare a tratti da p1 a p2 con una da p2 a p3 per ottenere una curva regolare a tratti la cui lunghezza `e la somma delle lunghezze delle prime due curve. Dimostriamo ora che se p = q allora d(p, q) = 0. Scegliamo p ∈ M , e sia ϕ: B2ε (p) → B2ε (O) ⊆ Rn un sistema di coordinate normali centrato in p, dove B2ε (O) `e la palla di centro l’origine e raggio 0 < 2ε ≤ injrad(p) in Rn rispetto alla norma euclidea · 0 . Indichiamo con g0 la metrica Riemanniana
384
7 Geodetiche
su B2ε (p) indotta tramite ϕ dalla metrica euclidea di Rn : in altre parole, se q ∈ B2ε (p) e v ∈ Tq M la norma di v rispetto a g0 `e data da v0,q = dϕq (v)0 . In particolare, se L0 (σ) `e la lunghezza rispetto a g0 di una curva regolare a tratti σ: [a, b] → B2ε (p), abbiamo D D (7.7) L0 (σ) = L0 (ϕ ◦ σ) ≥ Dϕ σ(b) − ϕ σ(a) D , dove L0 (ϕ ◦ σ) `e la lunghezza euclidea della curva ϕ ◦ σ. Ora, l’insieme K = {v ∈ Tq M | q ∈ Bε (p), v0,q = 1} ⊂ T M `e chiaramente compatto; quindi se poniamo cp = inf vπ(v) ≤ sup vπ(v) = Cp , v∈K
v∈K
dove π: T M → M `e la proiezione canonica, e · p `e la norma su Tp M indotta dalla metrica Riemanniana g, abbiamo 0 < cp ≤ Cp < +∞ e cp v0,q ≤ vq ≤ Cp v0,q per ogni q ∈ Bε (p) e v ∈ Tq M . Di conseguenza se σ `e una curva regolare a tratti la cui immagine `e contenuta in Bε (p) otteniamo cp L0 (σ) ≤ L(σ) ≤ Cp L0 (σ) .
(7.8)
Se q = p possiamo scegliere ε > 0 in modo che q ∈ / Bε (p). Quindi ogni curva regolare a tratti σ: [a, b] → M da p a q deve intersecare la sfera geodetica ∂Bε (p) in un primo punto σ(t0 ), per cui (7.7) e (7.8) danno D D L(σ) ≥ L(σ|[a,t0 ] ) ≥ cp L0 (σ|[a,t0 ] ) ≥ cp Dϕ σ(t0 ) D = cp ε > 0 . (7.9) Questo vale per ogni curva regolare a tratti σ; quindi d(p, q) ≥ cp ε > 0, come voluto. Rimane da far vedere che la topologia di M e quella indotta dalla distanza d coincidono. Siccome le palle geodetiche Bε (p) formano un sistema fondamentale di intorni di p per la topologia di M , e le palle metriche B(p, δ) formano un sistema fondamentale di intorni per la topologia metrica, `e sufficiente far vedere che B(p, cp ε) ⊆ Bε (p) ⊆ B(p, Cp ε) per ogni ε > 0 abbastanza piccolo. Prendiamo q ∈ Bε (p), e sia σ: [0, l] → Bε (p) la geodetica radiale da p a q parametrizzata rispetto alla lunghezza d’arco misurata con g0 . In altre parole,
7.2 La distanza Riemanniana
385
σ(t) = ϕ−1 (tv) per un opportuno v ∈ Rn di lunghezza unitaria, per cui l < ε e quindi d(p, q) ≤ L(σ) ≤ Cp L0 (σ) = Cp l < Cp ε , da cui segue Bε (p) ⊆ B(p, Cp ε). Viceversa, sia q ∈ B(p, cp ε), per cui esiste una curva regolare a tratti σ da p a q di lunghezza strettamente minore di cp ε. Se fosse q ∈ / Bp (ε), la (7.9) darebbe L(σ) ≥ cp ε, contraddizione. Quindi B(p, cp ε) ⊆ Bε (p), e abbiamo finito.
Osservazione 7.2.5. Faremo vedere fra poco (Teorema 7.2.23) che in realt`a vale l’uguaglianza Bε (p) = B(p, ε) per ogni 0 < ε < injrad(p). Le curve che realizzano la distanza meritano chiaramente un nome particolare. Definizione 7.2.6. Una curva regolare a tratti σ: [a, b] → M su una variet` a Riemanniana M `e detta minimizzante se ha lunghezza minore o uguale a quella di qualsiasi altra curva regolare a tratti con gli stessi estremi, ovvero se e solo se d σ(a), σ(b) = L(σ). La curva σ `e localmente minimizzante se per ogni t ∈ [a, b] esiste ε > 0 tale che σ|[t−ε,t+ε] `e minimizzante (con le ovvie convenzioni se t = a o t = b). Ovviamente, ogni curva minimizzante `e anche localmente minimizzante (perch´e?); il viceversa `e falso (un esempio `e dato dai cerchi massimi sulla sfera: vedi l’Esempio 7.2.25). Il nostro obiettivo ora `e dimostrare che una curva `e localmente minimizzante se e solo se `e una geodetica: questo risultato fornir` a il legame annunciato fra la distanza Riemanniana e la geometria della variet` a Riemanniana. Cominciamo con l’osservare che tutte le geodetiche non costanti sono parametrizzate rispetto a un multiplo della lunghezza d’arco, e quindi sono in particolare curve regolari: Lemma 7.2.7. Se σ: I → M `e una geodetica di una variet` a Riemanniana M allora σ `e costante. In particolare, σ `e una curva (costante oppure) regolare. Dimostrazione. Infatti, indicata con D la derivata covariante lungo σ, abbiamo d σ , σ = 2 Dσ , σ ≡ 0 , dt perch´e stiamo usando la connessione di Levi-Civita, e ci siamo.
Abbiamo introdotto in precedenza il concetto di campo vettoriale lungo una curva liscia. Nel seguito ci servir`a l’analogo concetto per curve regolari a tratti: Definizione 7.2.8. Sia σ: [a, b] → M una curva regolare a tratti. Un campo vettoriale X lungo σ `e dato da:
386
7 Geodetiche
(a) una suddivisione a = t0 < t1 < · · · < th = b di [a, b] tale che σ|[tj−1 ,tj ] sia di classe C ∞ per j = 1, . . . , h; e (b) campi vettoriali X|[tj−1 ,tj ] ∈ T (σ|[tj−1 ,tj ] ) per j = 1, . . . , h. Se i campi vettoriali si raccordano con continuit` a nei punti interni t1 , . . . , tk−1 della suddivisione, diremo che X `e un campo continuo. Lo spazio dei campi vettoriali lungo σ `e ancora indicato con T (σ). Infine, un campo vettoriale X ∈ T (σ) lungo σ `e detto proprio se X(a) = X(b) = O. Osservazione 7.2.9. Notiamo esplicitamente che non tutti i campi vettoriali X ∈ T (σ) sono continui; per esempio, il vettore tangente di una curva regolare a tratti non liscia `e un campo vettoriale non continuo lungo la curva. Per stabilire se una curva `e minimizzante o meno, dovremo confrontare la sua lunghezza con quella di curve vicine. Il concetto di “curve vicine `e formalizzato nella seguente Definizione 7.2.10. Sia σ: [a, b] → M una curva regolare a tratti. Una variazione di σ `e un’applicazione continua Σ: (−ε, ε) × [a, b] → M tale che, posto σs = Σ(s, ·), si ha: (i) σ0 = σ; (ii) ciascuna curva σs , detta curva principale, `e una curva regolare a tratti; (iii) esiste una suddivisione a = t0 < t1 < · · · < tk = b di [a, b] (detta suddivisione associata a Σ) tale che Σ(−ε,ε)×[tj−1 ,tj ] `e di classe C ∞ per ogni j = 1, . . . , k. Le curve trasverse alla variazione sono le curve σ t = Σ(·, t), e sono tutte curve di classe C ∞ . Infine, una variazione Σ `e detta propria se σs (a) = σ(a) e σs (b) = σ(b) per ogni s ∈ (−ε, ε). I vettori tangenti ci forniscono due campi vettoriali lungo le curve principali e trasverse di una variazione: Definizione 7.2.11. Sia Σ: (−ε, ε) × [a, b] → M una variazione di una curva regolare a tratti σ: [a, b] → M . Allora poniamo ∂Σ ∂ = (s, t) S(s, t) = (σ t ) (s) = dΣ(s,t) ∂s ∂s per ogni (s, t) ∈ (−ε, ε) × [a, b], e T (s, t) = σs (t) = dΣ(s,t)
∂ ∂t
=
∂Σ (s, t) ∂t
per ogni (s, t) ∈ (−ε, ε) × [tj−1 , tj ] e j = 1, . . . , k − 1, dove abbiamo scelto una suddivisione a = t0 < t1 < · · · < tk = b associata a Σ. In particolare, i campi t → S(s, t) e t → T (s, t) sono campi vettoriali lungo σs , e i campi s → S(s, t) e s → T (s, t) sono campi vettoriali lungo σt . Infine, il campo variazione di Σ `e V = S(0, ·) ∈ T (σ).
7.2 La distanza Riemanniana
387
Il campo variazione `e un campo continuo lungo σ. Viceversa, dato un campo vettoriale continuo lungo una curva regolare a tratti possiamo trovare una variazione che abbia quel campo come campo variazione: Lemma 7.2.12. Siano σ: [a, b] → M una curva regolare a tratti e V ∈ T (σ) un campo continuo. Allora esiste una variazione Σ di σ con V come campo variazione. Inoltre, se V `e proprio si pu` o trovare Σ propria. Dimostrazione. Essendo [a, b] compatto, il raggio d’iniettivit` a δ del sostegno di σ `e strettamente positivo (Corollario 7.1.18), e il massimo M di t → V (t)σ(t) `e finito. Se ε = δ/M > 0, l’applicazione Σ(s, t) = exp sV (t) `e definita su (−ε, ε) × [a, b], e quindi `e una variazione di σ. Siccome ∂ = d(exp)Oσ(t) V (t) = V (t) , exp sV (t) S(0, t) = ∂s s=0 il campo variazione coincide con V . Infine, se V (a) = V (b) = O `e evidente che Σ `e propria.
Nel seguito ci servir` a il seguente lemma elementare ma fondamentale: Lemma 7.2.13. Sia Σ: (−ε, ε) × [a, b] → M una variazione di una curva regolare a tratti σ: [a, b] → M in una variet` a Riemanniana M . Allora su ogni rettangolo (−ε, ε) × [tj−1 , tj ] su cui Σ `e di classe C ∞ si ha Ds T = Dt S , dove Ds `e la derivata covariante lungo le curve trasverse, e Dt quella lungo le curve principali. Dimostrazione. Basta fare il conto in coordinate locali. Scrivendo S(s, t) =
∂Σ i (s, t) ∂i |Σ(s,t) , ∂s
T (s, t) =
∂Σ j (s, t) ∂j |Σ(s,t) , ∂t
la formula (6.2) d` a 5
∂Σ i ∂2Σk + (Γijk ◦ Σ) ∂s 5 ∂s∂t i ∂2Σk ∂Σ k + (Γji = ◦ Σ) ∂t∂s ∂s
Ds T =
6 ∂Σ j ∂k |Σ ∂t 6 ∂Σ j ∂k |Σ = Dt S , ∂t
grazie alla simmetria della connessione di Levi-Civita.
Definizione 7.2.14. Sia σ: [a, b] → M una curva regolare a tratti, e scegliamo una suddivisione a = t0 < t1 < · · · < tk = b di [a, b] tale che σ sia di classe C ∞ in ciascun intervallo [tj−1 , tj ]. Per j = 0, . . . , k definiamo Δj σ ∈ Tσ(tj ) M ponendo Δ0 σ = σ (a), Δk σ = −σ (b) e − Δj σ = σ (t+ j ) − σ (tj ) − per j = 1, . . . , k − 1, dove σ (t+ j ) = lim+ σ (t), e σ (tj ) = lim− σ (t). t→tj
t→tj
388
7 Geodetiche
E ora siamo in grado di dimostrare una formula importante: Teorema 7.2.15 (Prima variazione della lunghezza d’arco). Data una curva regolare a tratti σ: [a, b] → M parametrizzata rispetto alla lunghezza d’arco in una variet` a Riemanniana M , sia Σ: (−ε, ε) × [a, b] → M una sua variazione con suddivisione associata a = t0 < t1 < · · · < tk = b. Indichiamo con V ∈ T (σ) il campo variazione di Σ, e definiamo la funzione L: (−ε, ε) → R ponendo L(s) = L(σs ). Allora dL (0) = − ds
.
b
V (t), Dt σ dt −
a
k
V (tj ), Δj σ .
(7.10)
j=0
Dimostrazione. In un intervallo [tj−1 , tj ] dove tutto `e di classe C ∞ abbiamo . tj ∂ d L(σs |[tj−1 ,tj ] ) = T, T 1/2 dt ds ∂s tj−1 . tj . tj 1 1 = Ds T, T dt = Dt S, T dt , T T tj−1 tj−1 dove abbiamo usato il Lemma 7.2.13. Ponendo s = 0 e ricordando che S(0, t) = V (t), T (0, t) = σ (t) e σ ≡ 1, otteniamo . tj d L(σs |[tj−1 ,tj ] ) = Dt V, σ (t) dt ds tj−1 s=0 6 . tj 5 d V, σ − V (t), Dt σ dt = tj−1 dt + = V (tj ), σ (t− j ) − V (tj−1 ), σ (tj−1 ) . tj V (t), Dt σ dt. − tj−1
Sommando su j otteniamo la tesi.
Siamo ora in grado di dimostrare che ogni curva localmente minimizzante `e una geodetica: Teorema 7.2.16. Ogni curva localmente minimizzante parametrizzata rispetto alla lunghezza d’arco in una variet` a Riemanniana `e una geodetica — e quindi in particolare `e di classe C ∞ . Dimostrazione. Siccome l’enunciato `e locale, senza perdita di generalit` a possiamo supporre che σ: [a, b] → M sia una curva regolare a tratti minimizzante parametrizzata rispetto alla lunghezza d’arco; dobbiamo dimostrare che `e una geodetica. Essendo una curva minimizzante, dL(σs )/ds(0) = 0 per ogni variazione propria Σ di σ; quindi il Lemma 7.2.12 ci assicura che il secondo membro di (7.10) `e nullo per ogni campo vettoriale V proprio lungo σ.
7.2 La distanza Riemanniana
389
Sia a = t0 < t1 < · · · < tk = b una suddivisione di [a, b] tale che σ sia di classe C ∞ in ciascun intervallo [tj−1 , tj ], e sia χj ∈ C ∞ (R) una funzione tale che χj > 0 in (tj−1 , tj ) e χj ≡ 0 altrove. Allora (7.10) con V = χj Dσ diventa . 0=−
tj
χj (t)Dt σ 2 dt ,
tj−1
per cui Dσ ≡ 0 in ciascun intervallo [tj−1 , tj ], e quindi σ `e una geodetica all’interno di ciascuno di questi intervalli. Ora vogliamo dimostrare che Δj σ = O per j = 1, . . . , k − 1. Ma infatti basta prendere un campo vettoriale V ∈ T (σ) tale che V (tj ) = Δj σ e V (ti ) = O per i = j; in tal caso (7.10) si riduce a 0 = −Δj σ 2 , e ci siamo. Dunque σ `e continuo; per l’unicit` a delle geodetiche tangenti a una data direzione otteniamo che σ|[tj ,tj+1 ] `e la continuazione di σ|[tj−1 ,tj ] per j − 1, . . . , k − 1, e quindi σ `e liscia e una geodetica dappertutto.
In realt` a abbiamo dimostrato qualcosina di pi` u. Definizione 7.2.17. Diremo che una curva regolare a tratti σ: [a, b] → M in una variet` a Riemanniana M `e un punto critico del funzionale lunghezza se dL(σs ) (0) = 0 ds per ogni variazione propria Σ di σ. Allora la dimostrazione del teorema precedente implica chiaramente il Corollario 7.2.18. Una curva regolare a tratti parametrizzata rispetto alla lunghezza d’arco in una variet` a Riemanniana `e un punto critico del funzionale lunghezza se e solo se `e una geodetica. Il nostro prossimo obiettivo `e dimostrare il viceversa del Teorema 7.2.16, cio`e dimostrare che ogni geodetica `e localmente minimizzante. Per far ci`o ci serve il seguente Lemma di Gauss: Lemma 7.2.19 (Gauss). Sia M una variet` a Riemanniana, p ∈ M e v ∈ Ep . Allora si ha (7.11) d(expp )v (v), d(expp )v (w) expp (v) = v, w p per ogni w ∈ Tp M , dove abbiamo identificato come al solito Tv (Tp M ) con Tp M . Dimostrazione. Cominciamo a dimostrare (7.11) per w = v. Una curva in Tp M passante per v e tangente a v `e τ (t) = v + tv; quindi d d d(expp )v (v) = expp (1 + t)v σv (1 + t) = = σv (1) , (7.12) dt dt t=0 t=0
390
7 Geodetiche
dove come sempre σv denota la geodetica massimale con σv (0) = p e σv (0) = v. Quindi d(expp )v (v), d(expp )v (v) expp (v) = σv (1)2σv (1) = v, v p , perch´e, grazie al Lemma 7.2.7, abbiamo σv (1)σv (1) = σv (0)σv (0) = vp . Per la linearit` a di d(expp )v ci basta allora dimostrare che se w `e perpendicolare a v allora d(expp )v (v), d(expp )v (w) expp (v) = 0 . Siccome w, v p = 0, il vettore w, considerato come vettore in Tv (Tp M ), `e tangente in v alla sfera ∂Bvp (Op ) di centro l’origine e raggio vp . Quindi possiamo trovare una curva τ : (−ε, ε) → Tp M con τ (0) = v, τ (0) = w e τ (s)p ≡ vp . Siccome v ∈ Ep , a meno di rimpicciolire ε possiamo supporre che τ (s) ∈ Ep per ogni s, e definire una variazione Σ: (−ε, ε) × [0, 1] → Tp M di σv ponendo Σ(s, t) = expp tτ (s) . Notiamo esplicitamente che le curve principali di Σ sono geodetiche, che Σ(0, 1) = expp (v), e che ∂ T (0, 1) = d(expp )v (v) = σv (1), S(0, 1) = expp τ (s) = d(expp )v (w) , ∂s s=0 per cui ci basta dimostrare che T (0, 1), S(0, 1) expp (v) = 0. Ora, ∂ 1 ∂ T, S Σ = Dt T, S Σ + T, Dt S Σ = T, Ds T Σ = T 2Σ = 0 , ∂t 2 ∂s dove abbiamo usato: Dt T ≡ O, in quanto ciascuna σs `e una geodetica; il Lemma 7.2.13; e T (s, t)Σ(s,t) = σs (t)σs (t) ≡ σs (0)p = τ (s)p ≡ vp . Dunque T, S Σ non dipende da t; e quindi T (0, 1), S(0, 1) expp (v) = T (0, 0), S(0, 0) p = 0 , in quanto σ0 ≡ p implica S(0, 0) = (σ 0 ) (0) = Op .
Vogliamo dare un’interpretazione pi` u geometrica di questo risultato. Definizione 7.2.20. Sia Bε (p) ⊂ M una palla geodetica di centro p in una variet` a Riemanniana M , dove ε `e tale che 0 < ε ≤ injrad(p), e poniamo Bε∗ (p) = Bε (p) \ {p}. Indichiamo con r: Bε (p) → R+ la funzione ∗ data ∞ Bε (p) . Il (q) per ogni q ∈ B (p). Chiaramente, r ∈ C da r(q) = exp−1 p ε p ∗ campo radiale ∂/∂r ∈ T Bε (p) `e il gradiente di r: ∂ = (grad r)(q) ∂r q per ogni q ∈ Bε∗ (p).
7.2 La distanza Riemanniana
391
Osservazione 7.2.21. Dimostreremo fra poco (Teorema 7.2.23) che la funzione r: Bε (p) → R+ `e la distanza Riemanniana dal punto p; nota intanto che Bδ (p) = r−1 ([0, δ)) per ogni 0 ≤ δ ≤ ε. Proposizione 7.2.22. Sia Bε (p) una palla geodetica in una variet` a Riemanniana M . Allora: (i) per ogni q = expp (v) ∈ Bε∗ (p) si ha v σ (1) ∂ = d(exp ) = σv/v (vp ) , = v p v p ∂r q vp vp e in particolare, ∂/∂r ≡ 1; (ii) le geodetiche radiali uscenti da p parametrizzate rispetto alla lunghezza d’arco sono le traiettorie di ∂/∂r; (iii) il campo radiale `e ortogonale alle sfere geodetiche ∂Bδ (p) con δ < ε. Dimostrazione. (i) Prima di tutto, derivando l’uguaglianza σv/vp (t) = σv (t/vp ) otteniamo σv/v (vp ) = p
σv (1) ; vp
quindi, ricordando la (7.12), rimane da dimostrare solo che ˜ = drexpp (v) (w)
1 d(expp )v (v), w ˜ expp (v) vp
(7.13)
per ogni v ∈ Bε (Op ) \ {Op } e ogni w ˜ ∈ Texpp (v) M . ˜ = d(expp )v (w) per un uniOra, ogni w ˜ ∈ Texpp (v) M `e della forma w co w ∈ Tp M , in quanto expp `e un diffeomorfismo fra Bε (Op ) e Bε (p) — e stiamo identificando Tv (Tp M ) con Tp M come al solito. Dunque v, w p drexpp (v) (w) ˜ = drexpp (v) d(expp )v (w) = d(r ◦ expp )v (w) = , vp dove l’ultima eguaglianza segue da r ◦ expp = · p , e quindi (7.13) `e esattamente equivalente al Lemma 7.2.19. (ii) Se q = expp (v) ∈ Bε∗ (p), la geodetica radiale parametrizzata rispetto alla lunghezza d’arco uscente da p passante per q `e esattamente t → σv/vp (t), e raggiunge q per t = vp . La tesi da (i). segue allora (iii) Siccome ∂Bδ (p) = expp ∂Bδ (Op ) , i vettori tangenti a ∂Bδ (p) nel punto q = expp (v) sono esattamente l’immagine tramite d expp dei vettori tangenti a ∂Bδ (Op ) in v, i quali sono proprio i vettori ortogonali a v. La tesi segue allora dal Lemma 7.2.19.
392
7 Geodetiche
E ora siamo arrivati ad un risultato cruciale: Teorema 7.2.23. Sia (M, g) una variet` a Riemanniana, e scegliamo p ∈ M e 0 < ε < injrad(p). Allora: (i) se q appartiene a una palla geodetica Bε (p) di centro p, allora la geodetica radiale da p a q `e l’unica (a meno di riparametrizzazioni) curva minimizzante da p a q; (ii) la funzione r introdotta nella Definizione 7.2.20 coincide con la distanza Riemanniana dal punto p, per cui ogni palla geodetica Bε (p) `e la palla di centro p e raggio ε per la distanza Riemanniana di M ; (iii) ogni geodetica di M `e localmente minimizzante. Dimostrazione. (i) Sia σ: [0, &] → M la geodetica radiale da p a q parametrizzata rispetto alla lunghezza d’arco, per cui σ(t) = expp (tv) per un opportuno vettore v ∈ Tp M di lunghezza unitaria. Siccome si ha L(σ) = & = r(q), dobbiamo dimostrare che ogni altra curva regolare a tratti da p a q ha lunghezza maggiore o uguale a &, e uguale a & se e solo se `e una riparametrizzazione di σ. Sia τ : [a, b] → M una curva regolare a tratti da p a q parametrizzata rispetto alla lunghezza d’arco, e supponiamo per il momento che l’immagine di τ sia tutta contenuta in Bε (p). Chiaramente, possiamo anche supporre che τ (t) = p per t > a. Per la proposizione precedente possiamo scrivere τ in tutti i punti in cui esiste come ∂ + w(t) , τ (t) = α(t) ∂r τ (t) per un’opportuna funzione α e un’opportuno campo w ∈ T (τ ), con la propriet` a che w(t) `e tangente alla sfera geodetica passante per τ (t). Siccome questa `e una decomposizione ortogonale abbiamo τ (t)2 = |α(t)|2 + w(t)2 ≥ |α(t)|2 . Inoltre, siccome le sfere geodetiche sono le ipersuperfici di livello della funzione r, abbiamo dr(w) ≡ 0, e quindi α(t) = dr τ (t) . Di conseguenza .
b
L(τ ) =
τ (t) dt ≥
a
.
b
|α(t)| dt a
. ≥
a
b
dr τ (t) dt =
. a
b
d(r ◦ τ ) dt = r(q) − r(p) = & , dt
come voluto. Inoltre, si ha uguaglianza se e solo se τ `e un multiplo positivo di ∂/∂r; essendo entrambi di lunghezza unitaria, dobbiamo avere τ ≡ (∂/∂r)◦τ .
7.2 La distanza Riemanniana
393
Quindi sia τ che σ sono traiettorie di ∂/∂r passanti per q al tempo t = &, e quindi τ = σ. Infine, se τ : [a, b] → M `e una qualsiasi curva regolare a tratti da p a q, sia a0 ∈ [a, b] l’ultimo valore t per cui τ (t) = p, e b0 ∈ [a, b] il primo valore t > a0 tale che τ (t) ∈ ∂Bε (p), se esiste; altrimenti poniamo b0 = b. Chiaramente, la curva τ |[a0 ,b0 ] ha supporto contenuto in Bε (t) tranne eventualmente per il punto finale; siccome L(τ ) ≥ L(τ |[a0 ,b0 ] ) , con eguaglianza se e solo se a0 = a e b0 = b, la tesi segue allora da quanto gi`a visto. (ii) Se q ∈ Bε (p), esiste un unico v ∈ Bε (Op ) tale che q = expp (v), e la geodetica minimizzante da p a q parametrizzata rispetto alla lunghezza d’arco `e σv/vp . Quindi r(q) = vp = L(σv/vp |[0,vp ] ) = d(p, q), e r coincide con la distanza Riemanniana da p. In particolare, Bε (p) `e contenuta nella palla B(p, ε) di centro p e raggio ε per la distanza Riemanniana. Viceversa, se q ∈ B(p, ε) deve esistere una curva σ da p a q di lunghezza minore di ε; ma abbiamo visto che ogni curva che esce da Bε (p) deve avere lunghezza almeno uguale a ε, per cui q ∈ Bε (p), e ci siamo. (iii) Sia σ: I → M una geodetica massimale parametrizzata rispetto alla lunghezza d’arco, t0 ∈ I e p = σ(t0 ). Scegliamo ε > 0 in modo che Bε (p) sia una palla geodetica. Allora per ogni q ∈ Bε (p) ∩ σ(I) la geodetica σ `e la geodetica radiale da p a q, e quindi `e la curva minimizzante da p a q. In altre
parole, σ `e localmente minimizzante nell’intorno (t0 − ε, t0 + ε) di t0 . Terminiamo la sezione con due esempi. Esempio 7.2.24 (Lo spazio euclideo). Le geodetiche di Rn rispetto alla metrica piatta sono i segmenti (e le rette sono le geodetiche massimali), parametrizzati con velocit` a costante. n n Esempio 7.2.25 (La sfera). Un cerchio massimo su SR `e l’intersezione di SR con un piano passante per l’origine. Vogliamo far vedere che le geodetiche n di SR sono proprio i cerchi massimi, parametrizzati rispetto a un multiplo della lunghezza d’arco. Sia σ una geodetica uscente dal polo nord N = (0, . . . , 0, 1) e tangente al vettore ∂/∂x1 . Se l’immagine di σ non fosse contenuta nel piano π di equazione x2 = · · · = xn = 0, la simmetria ρ rispetto a questo piano (che `e un’isometria della metrica sferica) manderebbe σ in una geodetica ρ ◦ σ diversa ma sempre uscente da N e tangente a ∂/∂x1 , impossibile. Quindi l’immagine di σ dev’essere contenuta in π, per cui `e necessariamente una parametrizzazione n ∩ π. Siccome, grazie all’Esema velocit`a costante del cerchio massimo SR pio 6.5.23, possiamo mandare con una rotazione il vettore ∂/∂x1 |N in un n di lunghezza unitaria, e le rotazioni mandano geoqualunque vettore di T SR detiche in geodetiche (vedi l’Esercizio 7.4) e cerchi massimi in cerchi massimi, abbiamo finito.
394
7 Geodetiche
In particolare, otteniamo esempi di geodetiche non minimizzanti: i cerchi massimi smettono di essere minimizzanti non appena si supera il punto diametralmente opposto. Pi` u precisamente, abbiamo injrad(p) = πR ed n n expp BπR (Op ) = SR \ {−p} per ogni p ∈ SR . Vedi l’Esercizio 7.16 per la descrizione delle geodetiche nello spazio iperbolico introdotto nell’Esempio 6.5.25, e [2, Capitolo 5] per esempi espliciti di geodetiche nelle superfici in R3 .
7.3 Intorni geodeticamente convessi L’obiettivo di questa sezione `e dimostrare l’esistenza su variet` a Riemanniane qualsiasi di un analogo dei convessi di Rn , mantenendo una promessa fatta nella Sezione 5.8. Definizione 7.3.1. Sia (M, g) una variet` a Riemanniana. Un sottoinsieme U ⊆ M `e geodeticamente convesso se per ogni coppia di punti p, q ∈ U l’immagine di ogni geodetica minimizzante che li congiunge `e completamente contenuta in U . Il nostro scopo `e dimostrare che palle geodetiche di raggio sufficientemente piccolo sono sempre geodeticamente convesse. Per farlo ci serve una definizione ausiliaria: a RiemanniaDefinizione 7.3.2. Una funzione f ∈ C ∞ (M ) su una variet` na M `e strettamente convessa se ∇2 f `e definito positivo, dove ∇2 f `e l’Hessiano di f rispetto alla connessione di Levi-Civita. ` possibile verificare se una funzione `e strettamente convessa usando le E geodetiche: Lemma 7.3.3. Sia M una variet` a Riemanniana, e f ∈ C ∞ (M ). Allora f `e strettamente convessa se e solo se f ◦σ `e strettamente convessa come funzione di una variabile per ogni geodetica σ in M . Dimostrazione. Scegliamo p ∈ M e v ∈ Tp M , e sia σ: I → M una geodetica con σ(0) = p e σ (0) = v. Indichiamo con σ (f ): I → R la funzione data da σ (f )(t) = σ (t)(f ) =
d (f ◦ σ)(t) . dt
L’equazione (6.13) ci d` a d2 ∇2 f σ (t), σ (t) = σ (t) σ (f ) − (Dt σ )(f ) = 2 (f ◦ σ)(t) , dt in quanto σ `e una geodetica, da cui d2 2 ∇ f (v, v) = 2 (f ◦ σ) , (7.14) dt t=0 e la tesi segue.
7.3 Intorni geodeticamente convessi
395
Un importante esempio di funzione strettamente convessa `e dato dalla distanza Riemanniana: Lemma 7.3.4. Sia M una variet` a Riemanniana connessa, e p0 ∈ M . Indichiamo con r: M → R la distanza Riemanniana da p0 , cio`e r(p) = d(p0 , p). Allora r2 `e di classe C ∞ in un intorno di p0 , e ∇2 r 2 (p0 ) `e definito positivo. e ben definito su Bε (p0 ), Dimostrazione. Sia 0 < ε < injrad(p0 ). Allora exp−1 p0 ` 2 2 e si ha r2 (p) = exp−1 (p) , per cui r ` e di classe C ∞ in Bε (p0 ). Sia ora p0 p0 v ∈ Tp0 M un vettore non nullo, e σv : (−ε, ε) → M la geodetica radiale uscente da p0 e tangente a v. Allora (7.14) ci d` a d2 (t2 v2p0 ) d2 2 2 2 = = 2vt0 > 0 , ∇ r (v, v) = 2 (r ◦ σv ) dt dt2 t=0 t=0
e ci siamo.
Ora possiamo dimostrare il teorema di Whitehead: Teorema 7.3.5 (Whitehead). Sia M una variet` a Riemanniana, e p0 ∈ M . Allora esiste δ > 0 tale che la palla geodetica Bε (p0 ) `e geodeticamente convessa per ogni 0 < ε < δ. Pi` u precisamente, per ogni p, q ∈ Bε (p0 ) la geodetica radiale che collega p e q esiste e ha immagine contenuta in Bε (p0 ). Dimostrazione. Prima di tutto, fissiamo un 0 < δ1 < injrad(p0 ), e scegliamo δ0 > 0 in modo che 3δ0 sia minore di δ1 e del raggio di iniettivit` a di Bδ1 (p0 ). Dati p, q ∈ Bδ0 (p0 ) si ha d(p, q) < 2δ0 ; quindi q ∈ B2δ0 (p), e per il Teorema 7.2.23 esiste ed `e unica la geodetica radiale minimizzante che collega p e q. Indichiamo ora con r = d(p0 , ·) la distanza Riemanniana da p0 . Il Lemma 7.3.4 ci dice che esiste 0 < δ < δ0 tale che r2 sia differenziabile e strettamente convessa in B3δ (p0 ); vogliamo dimostrare che Bε (p0 ) `e geodeticamente convessa per ogni 0 < ε < δ. Prendiamo p, q ∈ Bε (p0 ), e sia σ una geodetica minimizzante che li congiunge (che esiste perch´e ε < δ0 ). Se l’immagine di σ non fosse contenuta in B3δ (p0 ), la lunghezza di σ sarebbe (perch´e?) pari ad almeno 4δ; ma d(p, q) < 2δ, e σ non potrebbe essere minimizzante. Quindi l’immagine di σ `e contenuta in B3δ (p0 ), dove r2 `e strettamente convessa. Per il Lemma 7.3.3, r2 ◦ σ `e strettamente convessa; ma una funzione strettamente convessa di una variabile reale assume massimo negli estremi, per cui r2 ◦ σ ≤ max{r2 (p), r2 (q)} < ε2 , e quindi l’immagine di σ `e contenuta in Bε (p0 ), come voluto.
Siamo infine in grado di dimostrare il Teorema 5.8.8, che sar` a un’immediata conseguenza del risultato seguente.
396
7 Geodetiche
Teorema 7.3.6. Sia M una variet` a. Allora ogni ricoprimento aperto di M ammette un raffinamento che `e un ricoprimento aciclico. Dimostrazione. Scegliamo una metrica Riemanniana qualsiasi g su M . Se U `e un ricoprimento aperto di M , usando il Teorema 7.3.5 e la sua dimostrazione possiamo trovare un raffinamento V = {Vα } di U costituito da palle geodetiche che soddisfano le seguenti condizioni: (a) ciascun Vα `e geodeticamente convesso; (b) per ciascun Vα esiste εα > 0 tale che Vα ⊂ Bεα (p) per ogni p ∈ Vα . Chiaramente, un’intersezione finita di aperti che soddisfano (a) e (b) continua a soddisfare (a) e (b); quindi per concludere la dimostrazione (grazie al Corollario 5.4.7) ci basta dimostrare che qualsiasi aperto che soddisfa (a) e (b) `e C ∞ -contraibile. Supponiamo allora che V ⊆ M sia un aperto che soddisfa (a) e (b), fissiamo p0 ∈ V e definiamo H: R × V → M ponendo H(t, q) = expp0 a(t) exp−1 p0 (q) , dove a ∈ C ∞ (R) `e la funzione definita nell’Esempio 5.4.8, che `e identicamente nulla su (−∞, 0], identicamente uguale a 1 su [1, +∞), e cresce monoticamente da 0 a 1 in [0, 1]. Per la propriet` a (b) l’applicazione H `e ben definita e quindi di classe C ∞ ; per la propriet` a (a) ha immagine in V . Essendo H(0, ·) ≡ p0 e H(1, ·) = idV , abbiamo dimostrato che {p0 } `e un retratto di deformazione
liscio di V , cio`e V `e C ∞ -contraibile, come voluto.
7.4 Il teorema di Hopf-Rinow Possiamo finalmente affrontare il problema di quando l’esponenziale `e definito su tutto lo spazio tangente. Ricordiamo che una distanza d su uno spazio topologico X si dice completa se lo spazio metrico (X, d) `e completo, cio`e se ogni successione successione di Cauchy in (X, d) converge a un punto dello spazio. D’altro canto, un campo vettoriale `e completo (Definizione 3.3.6) se le sue curve integrali sono definite su tutto R. Il teorema di Hopf-Rinow mostra che la distanza Riemanniana `e completa se e solo se il campo geodetico `e completo: Teorema 7.4.1 (Hopf-Rinow). Sia M una variet` a Riemanniana. Allora le seguenti condizioni sono equivalenti: (i) la distanza Riemanniana `e completa; (ii) per ogni p ∈ M e ogni v ∈ Tp M la geodetica σv `e definita su tutto R; (iii) per ogni p ∈ M l’applicazione esponenziale expp `e definita su tutto Tp M ; (iv) esiste un punto p ∈ M tale che l’applicazione esponenziale expp `e definita su tutto Tp M ;
7.4 Il teorema di Hopf-Rinow
397
(v) esiste un punto p ∈ M tale che per ogni v ∈ Tp M la geodetica σv `e definita su tutto R; (vi) ogni insieme chiuso limitato di M `e compatto. Inoltre, ciascuna di queste condizioni implica che (vii) ogni coppia di punti di M pu` o essere collegata da una geodetica minimizzante. Dimostrazione. (i) =⇒ (ii): Dobbiamo dimostrare che per ogni p ∈ M e ogni v ∈ Tp M la geodetica σv `e definita su tutto R. Sia [0, t0 ) il pi` u grande intervallo aperto a destra su cui σv `e definita, e supponiamo per assurdo che t0 sia finito. Siccome d σv (s), σv (t) ≤ L(σv |[s,t] ) = v |s − t| per ogni 0 ≤ s ≤ t < t0 , se {tk } ⊂ [0, t0 ) converge crescendo a t0 la successione {σv (tk )} `e di Cauchy in M per la distanza d, e quindi converge a un punto q ∈ M , chiaramente indipendente dalla successione scelta. Dunque ponendo σv (t0 ) = q otteniamo un’applicazione continua da [0, t0 ] in M . Sia U un intorno uniformemente normale di q, con raggio d’iniettivit` a δ > 0. Per ogni k abbastanza grande, abbiamo sia |tk − t0 | < δ/v che σv (tk ) ∈ U . In particolare, le geodetiche radiali uscenti da σv (tk ) si prolungano per una lunghezza almeno uguale a δ; siccome L(σv |[tk ,t0 ] ) = |t0 − tk |v < δ, la geodetica σv si prolunga oltre t0 , contraddizione. Quindi t0 = +∞, e σv `e definita su R+ . Siccome σ−v (t) = σv (−t), lo stesso ragionamento applicato a σ−v dimostra che σv `e definita su tutto R. (ii) =⇒ (iii) =⇒ (iv): Ovvio. (iv) =⇒ (v): Per ipotesi expp (tv) = σtv (1) `e definito per ogni v ∈ Tp M e t ∈ R; quindi σv (t) = σtv (1) `e definito per ogni v ∈ Tp M e t ∈ R. (v) =⇒ (iv): Ovvio. Introduciamo ora la condizione o essere collegato a qualsiasi altro punto (vii )Esiste un punto p ∈ M che pu` con una geodetica minimizzante. (v) =⇒ (vii ): Dato q ∈ M , poniamo r = d(p, q), e sia B2ε (p) una palla geodetica di centro p tale che q ∈ / Bε (p). Sia x0 ∈ ∂Bε (p) un punto di minimo in ∂Bε (p) per la funzione continua x → d(q, x). Possiamo scrivere x0 = expp (εv) per un opportuno v ∈ Tp M di norma unitaria; vogliamo dimostrare che σv (r) = q, per cui σv risulta essere una geodetica minimizzante da p a q. Poniamo A = {s ∈ [0, r] | d σv (s), q) = r − s} .
L’insieme A `e non vuoto (0 ∈ A), ed `e chiuso in [0, r]; se dimostriamo che sup A = r abbiamo finito. Sia s0 ∈ A minore di r; ci basta far vedere che s0 + δ ∈ A per δ > 0 abbastanza piccolo (inoltre, se s0 = 0 l’argomento che
398
7 Geodetiche
stiamo per presentare dimostrer`a che ε ∈ A). una palla geodetica Prendiamo Bδ σv (s0 ) ; possiamo supporre che q ∈ / Bδ σv (s0 ) . Per costruzione, d p, σv (s0 ) ≤ s0 = d(p, q) − d σv (s0 ), q , che `e possibile se e solo se d p, σv (s0 ) = s0 . Sia x0 ∈ ∂Bδ σv (s0 ) un punto di minimo in ∂Bδ σv (s0 ) per la funzione x → d(x, q). Allora r − s0 = d σv (s0 ), q) ≤ δ + d(x0 , q) ; d’altra parte, se τ `e una curva regolare a tratti da σv (s0 ) a q, suddividendo τ nella parte fino all’ultima intersezione con ∂Bδ σv (s0 ) e nel resto, si ha L(τ ) ≥ δ + per cui abbiamo
min
x∈∂Bδ (σv (s0 ))
d(x, q) = δ + d(x0 , q) ,
r − s0 = δ + d(x0 , q) ,
e quindi d(p, x0 ) ≥ d(p, q) − d(q, x0 ) = r − (r − s0 − δ) = s0 + δ . D’altra parte, la curva σ ˜ ottenuta unendo σv |[0,s0 ] con la geodetica radiale da σv (s0 ) a x0 ha lunghezza esattamente s0 + δ; quindi d(p, x0 ) = s0 + δ. In particolare, la curva σ ˜ `e minimizzante, per cui `e una geodetica e dunque coincide con σv . Ma allora σv (s0 + δ) = x0 e quindi d σv (s0 + δ), q) = d(x0 , q) = r − (s0 + δ) , cio`e s0 + δ ∈ A, come voluto. (v)+(vii ) =⇒ (vi): basta far vedere che le palle chiuse di centro p per la distanza sono compatte. Ma infatti sono contenute, grazie a (vii ) e (iv), con le immagini tramite expp delle palle Br (Op ), che sono compatte. (vi) =⇒ (i): fissiamo un p0 ∈ M , e sia {qk } una successione di Cauchy in M . In particolare, esiste k0 ∈ N tale che d(qh , qk ) < 1 per ogni h, k ≥ k0 . Quindi d(qk , p0 ) ≤ d(qk , qk0 ) + d(qk0 , p0 ) < 1 + d(qk0 , p0 ) , ∀k ≥ k0 per cui l’intera successione `e contenuta nella palla chiusa di centro p0 e raggio 1 + max{d(q0 , p0 ), . . . , d(qk0 , p0 )}, che `e compatta per ipotesi. Dunque possiamo estrarre da {qk } una sottosuccessione {qkν } che converge a un punto q∞ ∈ M . Ora, d(qk , q∞ ) ≤ d(qk , qkν ) + d(qkν , q∞ ) ; quindi a patto di prendere k e kν sufficientemente grandi possiamo rendere d(qk , q∞ ) arbitrariamente piccolo, per cui l’intera successione converge a q∞ , come voluto. (ii) =⇒ (vii): si ragiona come in (v) =⇒ (vii ).
7.4 Il teorema di Hopf-Rinow
399
Definizione 7.4.2. Una variet` a Riemanniana la cui distanza Riemanniana `e completa sar`a detta completa. Esempio 7.4.3. In un aperto convesso limitato Ω di Rn , considerato con la metrica euclidea, la condizione (vii) del teorema di Hopf-Rinow `e verificata, ma le altre no: infatti, due punti di Ω sono sempre collegati da una geodetica minimizzante (un segmento: ricorda l’Esempio 7.2.24) contenuta in Ω, ma nessuna geodetica `e definita su tutto R (essendo limitato, Ω non contiene rette). Esempio 7.4.4. Ogni variet` a compatta (per esempio la sfera) `e automaticamente completa. Esempio 7.4.5 (Il cilindro piatto). Consideriamo M = {x ∈ Rn | (x1 )2 + · · · + (xn−1 )2 = 1} , con la metrica indotta dalla metrica euclidea di Rn . Siccome M `e omogeneo (perch´e?), possiamo limitarci a studiare le geodetiche uscenti dal punto p0 = (1, 0, . . . , 0). Lo spazio tangente a M in p0 `e l’iperpiano Tp0 M = {v ∈ Rn | v 1 = 0} , e un versore normale a M in Rn nel punto p ∈ M `e N (p) = (p1 , . . . , pn−1 , 0). Sia σ: I → M la geodetica con σ(0) = p0 e σ (0) = v ∈ Tp0 M . Allora sappiamo che |σ 1 |2 + · · · + |σ n−1 |2 ≡ 1 ,
|(σ 1 ) |2 + · · · + |(σ n ) |2 ≡ v2 ;
(7.15)
inoltre, siccome la connessione di Levi-Civita di M `e la proiezione della connessione piatta di Rn (vedi l’Esempio 6.6.10), l’equazione delle geodetiche diventa σ = λN ◦ σ (7.16) per un’opportuna funzione λ ∈ C ∞ (I). In particolare, otteniamo subito l’uguaglianza σ n (t) = v n t, e se σo = (σ 1 , . . . , σ n−1 ) l’equazione (7.16) diventa σo = λ σo . Derivando due volte σo 2 ≡ 1 troviamo (σo , σo ) + σo 2 ≡ 0, per cui λ = −vo 2 , dove vo = (0, v 2 , . . . , v n−1 ). Mettendo tutto insieme ricaviamo v2 v n−1 σ(t) = cos(vo t), sin(vo t), . . . , sin(vo t), v n t . vo vo Terminiamo questa sezione con un’ultima osservazione: una variet` a Riemanniana completa non pu` o essere ampliata, nel senso che non pu` o essere realizzata come aperto di una variet`a Riemanniana pi` u grande. Infatti si ha
400
7 Geodetiche
Proposizione 7.4.6. Sia M una variet` a Riemanniana, e supponiamo che esista un embedding F : M → N in un’altra variet` a Riemanniana N connessa tale che F (M ) ⊂ N sia un aperto, e F sia un’isometria fra M ed F (M ). Allora M non `e completa. Dimostrazione. Scegliamo un punto q0 ∈ ∂F (M ), e una geodetica radiale σ: [0, ε) → N minimizzante uscente da q0 che interseca F (M ). Siccome σ −1 F (M ) `e un aperto di (0, ε), `e unione di intervalli aperti. Se (t0 , t1 ) `e uno di questi intervalli, necessariamente σ(t0 ) ∈ ∂F (M ); quindi a meno di sostituire q0 con σ(t0 ) ed ε con t1 − t0 possiamo supporre che l’immagine tramite σ dell’intervallo (0, ε) sia tutta contenuta in F (M ). Sia {tk } ⊂ (0, ε) una successione convergente a 0, e poniamo qk = σ(tk ). Allora la successione {qk } converge a q0 ed `e di Cauchy per la distanza Riemanniana di N . Poniamo pk = F −1 (qk ). La distanza in M fra ph e pk `e minore o uguale alla lunghezza in M di F −1 ◦ σ|[th ,tk ] ; essendo F un’isometria, questa lunghezza `e uguale alla lunghezza di σ|[th ,tk ] , e quindi alla distanza in N fra qh e qk . In particolare, quindi, la successione {pk } `e di Cauchy per la distanza Riemanniana di M . Se M fosse completa, allora {pk } dovrebbe convergere a un punto p0 ∈ M ; ma allora qk = F (pk ) → F (p0 ) ∈ F (M ), contro l’ipotesi
che {qk } convergesse a un punto del bordo di F (M ).
7.5 Geodetiche nei gruppi di Lie In questa sezione studieremo le geodetiche di un gruppo di Lie connesso G; fra l’altro, daremo una motivazione per il nome dell’applicazione esponenziale. Osserviamo innanzitutto che, se sul gruppo di Lie G mettiamo una connessione lineare, ci troviamo con due applicazioni esponenziali a disposizione: quella introdotta nella Definizione 3.6.3 durante la discussione sui sottogruppi a un parametro, e quella che viene dalle geodetiche. Vogliamo determinare delle condizioni sotto cui queste due applicazioni coincidano (e, in particolare, il gruppo di Lie risulta una variet` a Riemanniana completa). Come abbiamo visto nel Lemma 3.6.2, i sottogruppi a un parametro sono curve integrali di campi vettoriali invarianti a sinistra; il nostro primo obiettivo `e dimostrare che i sottogruppi a un parametro sono geodetiche per opportune connessioni lineari invarianti a sinistra: Definizione 7.5.1. Sia G un gruppo di Lie. Diremo che una connessione lineare ∇ su G `e invariante a sinistra se d(Lg )(∇X Y ) = ∇d(Lg )(X) d(Lg )(Y ) per ogni X, Y ∈ T (G) e ogni g ∈ G. Se ∇ `e una connessione invariante a sinistra sul gruppo di Lie G di algebra di Lie g, definiamo un’applicazione bilineare α∇ : g × g → g ponendo α∇ (X, Y ) = ∇X˜ Y˜ (e) ,
7.5 Geodetiche nei gruppi di Lie
401
˜ ∈ T (G) `e l’unico campo invariante a sinistra dove per ogni X ∈ g il campo X ˜ tale che X(e) = X. Osservazione 7.5.2. Si pu` o dimostrare (vedi l’Esercizio 7.20) che l’applicazione ∇ → α∇ `e una corrispondenza biunivoca tra l’insieme delle connessioni lineari invarianti a sinistra su G e l’insieme delle applicazioni bilineari Mult(g, g; g). Ecco un primo risultato nella direzione voluta: Lemma 7.5.3. Sia ∇ una connessione lineare invariante a sinistra su un gruppo di Lie G, e X ∈ g. Allora le seguenti affermazioni sono equivalenti: (i) α∇ (X, X) = O; (ii) la geodetica σX uscente da e tangente a X `e un sottogruppo a un parametro di G. Dimostrazione. Essendo ∇ invariante a sinistra, da α∇ (X, X) = O otteniamo ˜ ≡ O, dove X ˜ ∈ T (G) `e il campo vettoriale invariante a sinistra associato ∇X˜ X ˜ uscente da e `e una geodetica a X. In particolare, la curva integrale di X per ∇, e questa geodetica risulta essere un sottogruppo a un parametro grazie al Lemma 3.6.2.(i) Viceversa, se σX (t) `e un sottogruppo a un parametro, il Lemma 3.6.2.(ii) ˜ uscente da e; ma allora abbiamo ci dice che `e la curva integrale di X ˜
∇X˜ X(e) = O, cio`e α∇ (X, X) = O. Siccome (Esercizio 7.20) le connessioni lineari su G sono in corrispondenza biunivoca con le applicazioni bilineari in Mult(g, g; g), di connessioni lineari che soddisfano le condizioni di questo lemma ce ne sono a bizzeffe; per esempio quelle ottenute prendendo α∇ (X, Y ) = c[X, Y ] per qualche c ∈ R. Ma a noi interessa sapere quando la connessione di Levi-Civita (ottenuta partendo da una metrica invariante a sinistra) soddisfa questa condizione. Per enunciare in maniera pulita il risultato, introduciamo la seguente Definizione 7.5.4. Sia g un’algebra di Lie. L’applicazione aggiunta di g `e l’applicazione lineare ad: g → gl(g) dato da ad(X)(Y ) = [X, Y ]. Osservazione 7.5.5. L’applicazione aggiunta `e un morfismo di algebre di Lie, cio`e ad([X, Y ]) = [ad(X), ad(Y )] . Infatti, 7 8 7 8 7 8 ad([X, Y ])(Z) = [X, Y ], Z = X, [Y, Z] − Y, [X, Z] = ad(X) ad(Y )(Z) − ad(Y ) ad(X)(Z) = [ad(X), ad(Y )](Z) , grazie all’identit` a di Jacobi.
402
7 Geodetiche
Proposizione 7.5.6. Sia · , · una metrica invariante a sinistra su un gruppo di Lie G, e ∇ la connessione di Levi-Civita. Allora le seguenti condizioni sono equivalenti: (i) α∇ (X, Y ) = 12 [X, Y ]; (ii) ad(X) `e antisimmetrico per ogni X ∈ g; (iii) expe = exp, cio`e i semigruppi a un parametro sono tutte e sole le geodetiche di G uscenti da e. Dimostrazione. Se X e Y sono due campi vettoriali invarianti a sinistra, l’invarianza a sinistra della metrica Riemanniana implica che la funzione X, Y `e costante. Di conseguenza, il Teorema 6.6.6 ci dice che α∇ (X, Y ), Z =
8 17 [X, Y ], Z + ad(Z)(X), Y + X, ad(Z)(Y ) , (7.17) 2
per cui l’equivalenza fra (i) e (ii) `e evidente. Il Corollario 7.5.3 ci dice che (iii) vale se e solo se α∇ (X, X) = O per ogni X ∈ g. Ora, (7.17) implica α∇ (X, X), Z = ad(Z)X, X . Quindi α∇ (X, X) = O per ogni X ∈ g se e solo se ad(Z)X, X = 0 per ogni Z, X ∈ g, e questo accade se e solo se ad(Z) `e antisimmetrico per ogni Z ∈ g.
La cosa interessante `e che tutto ci` o `e legato a quando una metrica invariante a sinistra `e anche invariante a destra. Per dimostrarlo ci servono un paio di risultati generali sui gruppi di Lie, importanti anche indipendentemente. Il primo risultato precisa il Lemma 3.5.7: Proposizione 7.5.7. Sia ψ: G → H un omomorfismo di gruppi di Lie. Allora dψe : g → h `e un morfismo delle corrispondenti algebre di Lie, e si ha ∀X ∈ g ψ exp(X) = exp dψe (X) . (7.18) Dimostrazione. Il fatto che dψe sia un morfismo di algebre di Lie `e gi`a stato dimostrato nel Lemma 3.5.7. Sia poi θX (t) = exp(tX) il sottogruppo a un a un parametro in G tangente a X ∈ g. Allora ψ ◦θX `e un sottogruppo parametro in H tangente a dψe (X), per cui ψ θX (t) = exp tdψe (X) , e (7.18) segue subito.
Ricordiamo la Definizione 4.E.4: Definizione 7.5.8. Sia G un gruppo di Lie. Come di consueto, se g ∈ G indichiamo con Cg : G → G il coniugio Cg (x) = gxg −1 , in modo che Cg ◦ Ch = Cgh per ogni g, h ∈ G. La rappresentazione aggiunta di G `e l’omomorfismo Ad: G → GL(g) definito da Ad(g) = d(Cg )e .
7.5 Geodetiche nei gruppi di Lie
Notiamo che la (7.18) implica che Cg exp(X) = exp Ad(g)(X)
403
(7.19)
per ogni X ∈ g. Da questo otteniamo il Lemma 7.5.9. Sia G un gruppo di Lie, e Ad: G → GL(g) la sua rappresentazione aggiunta. Allora d(Ad)e (X) = ad(X) per ogni X ∈ g. In particolare, quindi, ∀X ∈ g
Ad(exp X) = ead(X) .
(7.20)
Dimostrazione. Siccome t → exp(tX) `e una curva in G tangente a X in e, abbiamo d d(Ad)e (X)(Y ) = Ad(exp tX)(Y ) dt t=0 per ogni X, Y ∈ g. Indicando con Y˜ ∈ T (G) l’estensione invariante a sinistra di Y , abbiamo Ad(exp tX)(Y ) = d(Cexp(tX) )e (Y ) = d(Rexp(−tX) )exp(tX) ◦ d(Lexp(tX) )e (Y ) = d(Rexp(−tX) )exp(tX) Y˜ (exp(tX)) . Ora, per ogni g ∈ G si ha Rexp(tX) (g) = g exp(tX) = Lg exp(tX) = Lg θt (e) = θt Lg (e) = θt (g) , ˜ l’estensione invariante a sinistra di X, e abbiamo usato dove θt `e il flusso di X, l’Esercizio 7.21. Ma allora questo vuol dire che Rexp(−tX) = θ−t , per cui Ad(exp tX)(Y ) = d(θ−t )θt (e) (Y˜ ) , e la Proposizione 3.4.6 ci permette di concludere che d = LX˜ Y˜ (e) = [X, Y ] = ad(X)(Y ) , d(Ad)e (X)(Y ) = d(θ−t )θt (e) (Y˜ ) dt t=0 come voluto. Infine, (7.20) segue da (7.18) e dall’Esempio 3.6.5.
Siamo ora in grado di dimostrare: Teorema 7.5.10. Sia G un gruppo di Lie connesso, e · , · una metrica Riemanniana invariante a sinistra su G.Allora le seguenti affermazioni sono equivalenti: (i) · , · `e anche invariante a destra; (ii) Ad(g) `e un’isometria di g per ogni g ∈ G;
404
7 Geodetiche
(iii) ad(X) `e antisimmetrica per ogni X ∈ g; (iv) expe = exp, cio`e i semigruppi a un parametro sono tutte e sole le geodetiche di G uscenti da e. Dimostrazione. La metrica · , · `e invariante a destra se e solo se d(Rg )h (v), d(Rg )h (w) hg = v, w h per ogni g, h ∈ G e v, w ∈ Tg G. Usando l’invarianza a sinistra della metrica, questo si riduce a dimostrare che −1 d(L−1 hg ◦ Rg ◦ Lh )e (X), d(Lhg ◦ Rg ◦ Lh )e (Y ) e = X, Y e
per ogni h, g ∈ G e X, Y ∈ g. Ma L−1 e hg ◦ Rg ◦ Lh = Cg −1 , e quindi · , · ` invariante a destra se e solo se ogni Ad(g) `e un’isometria di g. Supponiamo ora che (ii) valga. Per il Lemma 7.5.9, allora, ead(tX) `e un’isometria per ogni X ∈ g e t ∈ R. Siccome si verifica subito che d ad(tX) e = ad(X) ◦ ead(tX) , dt
(7.21)
derivando ead(tX) (Y ), ead(tX) (Z) e = Y, Z e rispetto a t e calcolando in t = 0 otteniamo ad(X)(Y ), Z e + Y, ad(X)(Z) e = 0 per ogni X, Y , Z ∈ g, e quindi (iii) vale. Viceversa, supponiamo che (iii) valga. Usando (7.21) troviamo d ad(tX) (Y ), ead(tX) (Z) e e dt = ad(X) ◦ ead(tX) (Y ), ead(tX) (Z) e + ead(tX) (Y ), ad(X) ◦ ead(tX) (Z) e ≡0. Dunque ead(tX) (Y ), ead(tX) (Z) e `e una funzione costante, e calcolando per t = 0 e per t = 1 vediamo che ead(X) `e un’isometria per ogni X ∈ g. Ma allora Ad(exp X) `e un’isometria per ogni X ∈ g. Ora, dalla definizione si ricava subito che d expe = id; quindi l’immagine dell’esponenziale contiene un intorno U dell’elemento neutro e, e Ad(g) `e un’isometria per ogni g ∈ U . Siccome la composizione di isometrie `e un’isometria, la Proposizione 3.6.7.(ii) ci assicura allora che Ad(g) `e un’isometria per ogni g ∈ G, e abbiamo dimostrato (ii). Infine, l’equivalenza fra (iii) e (iv) `e gi`a stata dimostrata nella Proposizione 7.5.6.
Esempio 7.5.11. Non `e difficile verificare (controlla) che la metrica euclidea su gl(n, R), cio`e quella dell’Esempio 6.6.14, si pu` o esprimere scrivendo
Esercizi
∀A, B ∈ gl(n, R)
405
A, B = tr(B T A) .
Ora, se X ∈ gl(n, R) abbiamo [X, A], B = tr(B T XA) − tr(B T AX) , A, [X, B] = tr(B T X T A) − tr(X T B T A) = tr(B T X T A) − tr(B T AX T ) ,
(7.22)
dove abbiamo usato il fatto che tr(CD) = tr(DC) per ogni C, D ∈ gl(n, R). Quindi in generale ad(X) non `e antisimmetrico rispetto alla metrica euclidea, per cui i sottogruppi a un parametro visti nell’Esempio 3.6.5 non sono geodetiche per la connessione di Levi-Civita su GL(n, R) calcolata nell’Esempio 6.6.14. Esempio 7.5.12. Nell’Esercizio 3.58 abbiamo visto che l’algebra di Lie del gruppo SO(n) `e l’algebra o(n) delle matrici antisimmetriche. Ma allora (7.22) ci dice che ad(X) `e antisimmetrica rispetto al prodotto scalare dell’esempio precedente per ogni X ∈ o(n). Quindi la metrica dell’Esempio 6.6.14 ristretta a SO(n) `e bi-invariante, e i sottogruppi a un parametro sono geodetiche per la corrispondente connessione di Levi-Civita.
Esercizi GEODETICHE E APPLICAZIONE ESPONENZIALE Esercizio 7.1 (Citato nell’Osservazione 7.1.2). Nel piano euclideo, considera le curve σ1 , σ2 : R+ → R2 date rispettivamente da σ1 (t) = (t, t) e σ2 (t) = (t5 , t5 ). Dimostra che σ1 e σ2 hanno lo stesso sostegno, ma σ1 `e una geodetica mentre σ2 non lo `e. Esercizio 7.2 (Citato nell’Osservazione 7.1.2). Sia σ: I → M una geodetica non costante in una variet` a Riemanniana M . Se f : J → I `e un diffeomorfismo fra intervalli di R, dimostra che la curva σ ◦ f `e una geodetica se e solo se f `e una funzione affine. Esercizio 7.3 (Citato nell’Osservazione 7.1.19). Sia (M, g) una variet` a Riemanniana. Dimostra che la funzione injrad: M → R `e semicontinua inferiormente, dove ricordiamo che una funzione f : M → R ∪ {+∞} `e semicontinua inferiormente se per ogni c ∈ R l’insieme {p ∈ M | f (p) > c} `e aperto. Esercizio 7.4 (Usato nell’Esempio 7.2.25 e nella Proposizione 8.3.1). Dimostra che un’isometria locale fra variet` a Riemanniane manda geodetiche in geodetiche, nel senso che se H: M → N `e un’isometria locale allora σ: I → M `e una geodetica in M se e solo se H ◦ σ `e una geodetica in N .
406
7 Geodetiche
Esercizio 7.5. Sia (M, g) una variet` a Riemanniana, e sia E: E → M × M data da E(v) = π(v), exp(v) , dove π: T M → M `e la proiezione canonica. Dimostra che dEv `e invertibile se e solo se d(expp )v `e invertibile, dove p = π(v). Esercizio 7.6. Consideriamo R+ con la metrica th = h−1 |t| per ogni h ∈ R+ e t ∈ Th R+ , dove abbiamo identificato Th R+ con R come al solito. Dimostra che exph : Th R+ → R+ `e data dalla formula exph (t) = het . Esercizio 7.7 (Citato nell’Osservazione 7.1.3). Date due connessioni lineari ∇ ˜ su una variet` e∇ a M , siano B, S, A: T (M ) × T (M ) → T (M ) le applicazioni ˜ X Y − ∇X Y , definite da B(X, Y ) = ∇ S(X, Y ) =
1 B(X, Y ) + B(Y, X) 2
e
A(X, Y ) =
1 B(X, Y ) − B(Y, X) . 2
˜ Dimostra Indichiamo inoltre con τ la torsione di ∇, e con τ˜ la torsione di ∇. che: (i) B, S, A ∈ T21 (M ); (ii) 2A = τ˜ − τ ; (iii) le seguenti affermazioni sono equivalenti: ˜ hanno le stesse geodetiche (cio`e ogni geodetica di ∇ `e anche (a) ∇ e ∇ ˜ e viceversa); geodetica di ∇, (b) B(v, v) = O per ogni v ∈ T M ; (c) S ≡ O; (d) B ≡ A. ˜ hanno le stesse geodetiche e la stessa torsione se e solo se ∇ ≡ ∇; ˜ (iv) ∇ e ∇ ∗ (v) esiste un’unica connessione simmetrica ∇ che ha le stesse geodetiche di ∇. ˜ su una variet` Definizione 7.E.1. Diremo che due connessioni ∇ e ∇ a M sono riferite proiettivamente se per ogni geodetica σ: I → M di ∇ esiste un ˜ diffeomorfismo h: J → I tale che σ ◦ h sia una geodetica di ∇. Esercizio 7.8 (Citato nell’Osservazione 7.1.3). Dimostra che due connessioni ˜ su una variet` simmetriche ∇ e ∇ a M sono riferite proiettivamente se e solo ˜ − ∇ = ϕ ⊗ id + id ⊗ϕ. se esiste una 1-forma ϕ ∈ A1 (M ) tale che ∇ Esercizio 7.9. Sia (M, g) una variet` a Riemanniana, e σ: [a, b] → M una curva regolare a tratti. L’energia E(σ) di σ `e data da .
b
E(σ) =
σ (t)2σ(t) dt .
a
(i) Dimostra che L(σ)2 ≤ (b − a)E(σ), con uguaglianza se e solo se σ `e parametrizzata rispetto a un multiplo della lunghezza d’arco.
Esercizi
407
(ii) Sia σ0 : [a, b] → M una geodetica minimizzante che congiunge p = σ(a) e q = σ(b). Dimostra che E(σ0 ) ≤ E(σ), con uguaglianza se e solo se anche σ `e una geodetica minimizzante. (iii) Dimostra che σ `e una geodetica se e solo se `e un punto critico del funzionale energia, nel senso che per ogni variazione propria Σ: (−ε, ε)×[a, b] → M di σ si ha E (0) = 0, dove E: (−ε, ε) → R+ `e data da E(s) = E(σs ), e σs = Σ(s, ·). Esercizio 7.10. Sia (M, g) una variet` a Riemanniana, e f ∈ C ∞ (M ). Dimostra che se gradf ≡ 1 allora le curve integrali di gradf sono tutte geodetiche. DISTANZA RIEMANNIANA Esercizio 7.11. In una variet` a Riemanniana M , sia σ: [a, b] → M una curva regolare a tratti di lunghezza & e con σ = O dove definito. Dimostra che esiste un omeomorfismo C ∞ a tratti h: [0, &] → [a, b] tale che σ ◦h sia parametrizzata rispetto alla lunghezza d’arco. [Suggerimento: h−1 `e la lunghezza d’arco di σ.] Esercizio 7.12 (Usato nella Proposizione 8.3.1). Sia H: M → N una isometria locale fra variet`a Riemanniane, e σ: [a, b] → M una curva regolare a tratti. Dimostra che la lunghezza di σ in M `e uguale alla lunghezza di H ◦ σ in N . Esercizio 7.13. Considera la sfera S n con la metrica sferica come nell’Esempio 7.2.25. Qual `e il raggio di iniettivit` a del punto N = (0, . . . , 1)? Esercizio 7.14. Nel cilindro piatto M con la metrica dell’Esempio 7.4.5, qual `e il raggio di iniettivit` a del punto p0 = (1, 0, . . . , 0)? ` COMPLETE VARIETA Esercizio 7.15. Dimostra che ogni variet` a Riemanniana omogenea `e completa. Esercizio 7.16 (Citato nella Sezione 7.2). (i) Dimostra che le geodetiche dello spazio iperbolico (vedi l’Esempio 6.5.25) sono (parametrizzate rispetto a un multiplo della lunghezza d’arco): (a) nella falda dell’iperboloide URn le “iperboli massime”, cio`e le intersezioni di URn con piani passanti per l’origine; n (b) nella palla di Poincar´e BR i diametri e gli archi di circonferenza che n intersecano ∂BR ortogonalmente; n (c) nel semispazio di Poincar´e HR le semirette verticali e le semicirconn ferenze con centro in ∂HR . (i) Deduci dal punto precedente che lo spazio iperbolico `e completo, che il raggio d’iniettivit` a di ogni punto `e infinito, e che per ogni punto p dello spazio iperbolico l’applicazione esponenziale `e un diffeomorfismo fra lo spazio tangente nel punto e l’intero spazio iperbolico.
408
7 Geodetiche
[Suggerimento: per lo studio della palla di Poincar´e, inizia dall’esempio del disco 2 2 piano, per n = 2. La Proposizione 6.5.26 fornisce una isometria da UR a BR e 2 basta descrivere le immagini delle geodetiche di UR tramite questa isometria. Il caso generale segue dall’osservazione che ogni geodetica `e comunque contenuta in un piano. Per lo studio del semispazio di Poincar´e conviene nuovamente iniziare dallo studio del caso n = 2, che risulta pi´ u semplice utilizzando la variabile complessa.]
INTORNI GEODETICAMENTE CONVESSI Esercizio 7.17. Costruisci un esempio di sfera geodetica non geodeticamente convessa. Definizione 7.E.2. Un aperto U di una variet` a Riemanniana `e detto strettamente geodeticamente convesso se ogni palla geodetica contenuta in U `e geodeticamente convessa e ogni coppia di punti p e q di U pu` o essere collegato tramite un’unica geodetica minimizzante, la cui immagine sia interamente contenuta in U . Per ogni p ∈ M , il raggio di convessit` a `e convrad(p) = sup{ε ∈ R | Bε (p) `e fortemente geodeticamente convesso} . Esercizio 7.18. (i) Dimostra che nello spazio euclideo Rn e nella sfera S n un aperto U `e geodeticamente convesso se e solo se `e strettamente geodeticamente convesso. (ii) Dimostra che ogni punto dello spazio euclideo ha raggio di convessit` a +∞. (iii) Calcola il raggio di convessit`a di N = (1, 0, 0) ∈ SR2 . Esercizio 7.19. Dimostra che in una variet`a Riemanniana M ogni punto ammette un intorno aperto strettamente geodeticamente convesso.
GEODETICHE NEI GRUPPI DI LIE Esercizio 7.20 (Citato nell’Osservazione 7.5.2). Dimostra che esiste una corrispondenza biunivoca fra le connessioni lineari invarianti a sinistra su un gruppo di Lie G e l’insieme delle applicazioni bilineari α: g×g → g, corrispondenza ottenuta associando alla connessione ∇ l’applicazione α∇ (X, Y ) = ∇X˜ Y˜ (e), ˜ ∈ T (G) `e l’unico campo invariante a sinistra dove per ogni X ∈ g il campo X ˜ tale che X(e) = X. Esercizio 7.21 (Usato nel Lemma 7.5.9). Dimostra che se X ∈ T (G) `e un campo vettoriale invariante a sinistra su un gruppo di Lie G si ha θt ◦ Lg = Lg ◦ θt per ogni g ∈ G, dove θt = Θ(t, ·) `e il flusso di X. [Suggerimento: ricorda l’Esercizio 3.31.]
Esercizi
409
Definizione 7.E.3. Sia f : M → G un’applicazione differenziabile da una variet` a M in un gruppo di Lie G di algebra di Lie g. La derivata logaritmica destra di f `e il morfismo δf : T M → g dato da ∀v ∈ Tp M δf (v) = d(Rf (p)−1 )f (p) dfp (v) . La derivata logaritmica sinistra di f `e il morfismo δ s f : T M → g dato da ∀v ∈ Tp M δ s f (v) = d(Lf (p)−1 )f (p) dfp (v) . Scriveremo δfp e δ s fp per la restrizione delle derivate logaritmiche a Tp M . Esercizio 7.22. Siano f , g: M → G due applicazioni differenziabili da una variet` a M in un gruppo di Lie G. Dimostra che δ(f g)p = δfp + Ad f (p) δgp e
δ s (f g)p = δ s gp + Ad g(p)−1 δ s fp .
Esercizio 7.23. Sia G un gruppo di Lie di algebra di Lie g, e sia exp: g → G l’applicazione esponenziale di G. Dimostra che (δ exp)(X) =
∞
p 1 ad(X) = g(ad X) (p + 1)! p=0
per ogni X ∈ g, dove g: C → C `e data da g(z) = (ez − 1)/z. Deduci che d expX `e invertibile se e solo se ad X non ha autovalori della forma 2kπi con k ∈ Z∗ . Esercizio 7.24. Sia G un gruppo di Lie con algebra di Lie g. Dimostra che per X, Y ∈ g vicini all’origine si ha (exp X)(exp Y ) = exp C(X, Y ), dove C(X, Y ) ∈ g `e dato da ⎛ ⎞n . 1 n k (−1) ⎜ t ⎟ (ad X)k (ad Y )l ⎠ X dt C(X, Y ) = X + Y + ⎝ n+1 0 k!l! k,l≥0 n≥1
k+l≥1
8 7 8 1 1 7 = X + Y + [X, Y ] + X, [X, Y ] − Y, [Y, X] + · · · 2 12 (formula di Baker-Campbell-Hausdorff ). Definizione 7.E.4. Un sottogruppo di Lie H di un gruppo di Lie G si dice normale in G se g −1 hg ∈ H per ogni g ∈ G e ogni h ∈ H. Un sottospazio vettoriale h di un’algebra di Lie g `e un ideale in g se [X, Y ] ∈ h per ogni X ∈ g e ogni Y ∈ h. Esercizio 7.25. (i) Dimostra che il nucleo di un morfismo di algebre di Lie `e un ideale.
410
7 Geodetiche
(ii) Dimostra che se h `e un ideale di un’algebra di Lie g, allora lo spazio quoziente g/h ammette un’unica struttura di algebra di Lie tale che la proiezione canonica g → g/h sia un morfismo di algebre di Lie. (iii) Concludi che gli ideali di un’algebra di Lie g sono tutti e soli i nuclei di morfismi di algebre di Lie aventi g come dominio. Esercizio 7.26. Sia G un gruppo di Lie connesso, e H ⊆ G un sottogruppo di Lie connesso. Denota con g e h ⊆ g le corrispondenti algebre di Lie. Dimostra che (i) se U ⊂ g e V ⊂ G sono aperti (contenenti rispettivamente l’origine O e l’elemento neutro e) tali che exp: U → V sia un diffeomorfismo, `e possibile restringere opportunamente U in modo tale che la restrizione di exp a U ∩ h sia un diffeomorfismo sull’immagine; (ii) H `e normale in G se e solo se (exp X)(exp Y ) exp(−X) ∈ H per ogni X ∈ g e ogni Y ∈ h; [Suggerimento: ricorda che, per la Proposizione 3.6.7.(ii), se U `e un intorno dell’identit` a in G, ogni elemento di G pu` o essere scritto come prodotto di un numero finito di elementi di U .]
(iii) H `e un sottogruppo normale di G se e solo se h `e un ideale di g. Esercizio 7.27. Sia G un gruppo di Lie connesso con algebra di Lie g. (i) Se X, Y ∈ g, dimostra che [X, Y ] = O se e solo se (exp tX)(exp sY ) = (exp sY )(exp tX) per ogni s, t ∈ R. (ii) Dimostra che G `e abeliano se e solo se g `e abeliana (cio`e [X, Y ] = O per ogni X, Y ∈ g). (iii) Trova un controesempio a (ii) con G non connesso. Esercizio 7.28. Dimostra che ogni gruppo di Lie abeliano connesso `e isomorfo a Rk × Tl per opportuni k, l ∈ N.
8 Curvatura
Per lo studio della geometria di una variet` a Riemanniana manca ancora uno strumento essenziale: il concetto di curvatura. Il punto di partenza sar` a la curvatura Gaussiana, gi` a nota per le superfici di R3 (vedi, per esempio, [2, Capitolo 4]): essa `e legata alla curvatura delle curve (normali) passanti per un punto e, in un opportuno sistema di coordinate, pu` o essere espressa attraverso i simboli di Christoffel della connessione di Levi-Civita rispetto alla metrica indotta dalla metrica piatta di R3 . L’idea sar` a quella di misurare, in ogni punto, la curvatura Gaussiana di particolari superfici contenute in M , definite utilizzando la mappa esponenziale e le coordinate normali introdotte nel capitolo precedente. Questo tipo di curvatura `e chiamata curvatura sezionale, e vedremo come calcolarla usando il tensore di curvatura, un importante campo tensoriale definito a partire dalla connessione di Levi-Civita. Il tema principale di questo capitolo sar` a la relazione fra la curvatura della variet` a Riemanniana e la sua topologia. Il primo risultato di questo genere che dimostreremo `e il teorema di Cartan-Hadamard, che dice che ogni variet`a Riemanniana completa semplicemente connessa con curvatura sezionale non negativa `e diffeomorfa a Rn . Lo strumento principale per la dimostrazione di questo (e di altri teoremi di questo capitolo) `e fornito dai campi di Jacobi, particolari campi lungo una geodetica ottenuti tramite una sua variazione composta da geodetiche, e che forniscono una relazione quantitativa fra il comportamento delle geodetiche e la curvatura della variet` a. Saremo in grado anche di classificare le variet` a Riemanniane complete semplicemente connesse a curvatura sezionale costante, per le quali il tensore di curvatura ha una espressione univocamente individuata dal valore di una singola curvatura sezionale, facendo vedere che per ogni n ≥ 2 e ogni k ∈ R esiste un’unica variet` a Riemanniana completa semplicemente connessa di dimensione n e curvatura sezionale costante k: uno spazio euclideo se k = 0, una sfera se k > 0, o uno spazio iperbolico se k < 0. Studieremo anche variet` a Riemanniane di curvatura positiva, dimostrando il teorema di Bonnet-Myers, che dice che una variet` a Riemanniana completa Abate M., Tovena F.: Geometria Differenziale. DOI 10.1007/978-88-470-1920-1_8 c Springer-Verlag Italia 2011
412
8 Curvatura
con curvatura sezionale limitata dal basso da una costante positiva `e necessariamente compatta con gruppo fondamentale finito. Ulteriori informazioni sulla topologia di una variet` a Riemanniana compatta con curvatura sezionale positiva saranno raccolti nei teoremi di Weinstein e di Synge. Completeremo il capitolo introducendo, sempre in analogia con il caso delle superfici di R3 , la seconda forma fondamentale di una sottovariet` a, assieme a un ulteriore strumento, l’operatore di forma, che permetteranno di confrontare una varie` a Riemamanniana e le sue sottovariet`a.
8.1 Operatori di curvatura Il primo obiettivo di questa sezione `e capire quale pu` o essere un modo significativo per definire la curvatura di una variet` a Riemanniana. In dimensione 2, non c’`e dubbio che il concetto giusto di curvatura `e quello di curvatura Gaussiana. Infatti, il Teorema Egregium di Gauss dice proprio che la curvatura Gaussiana di una superficie in R3 dipende esclusivamente dalla metrica indotta sulla superficie dalla metrica piatta dell’ambiente: per la precisione, la curvatura Gaussiana K di una superficie S ⊂ R3 `e data da (vedi [2, Teorema 4.6.11]) 5 1 6 1 s 1 ∂Γ12 1 ∂Γ22 s 1 − + Γ Γ − Γ Γ K= , (8.1) 22 1s 12 2s G ∂x1 ∂x2 i sono i simboli di Christoffel della connessione di Levi-Civita della dove i Γhk metrica indotta su S dalla metrica piatta di R3 , calcolati rispetto a una carta locale ϕ = (x1 , x2 ), e G = ∂2 . Siccome la formula (8.1) dipende solo dalla metrica su S, potremmo tentare di definire un concetto di curvatura su una variet` a Riemanniana qualsiasi nel modo seguente:
Definizione 8.1.1. Sia M una variet` a Riemanniana, p ∈ M e π ⊂ Tp M un 2-piano. Diremo curvatura sezionale di M in p lungo π la curvatura Gaussiana in p della superficie expp (π ∩ Ep ) ⊂ M , calcolata usando (8.1) applicata a un sistema di coordinate normali centrate in p ottenute estendendo a Tp M una base ortonormale di π. Questa definizione, bench´e geometricamente chiara, ha per` o due problemi evidenti. Il primo `e che bisogna verificare che sia una definizione ben posta, cio`e che non dipenda dal sistema di coordinate normali scelto. La seconda `e che non `e chiaro che struttura abbia (ammesso che ne abbia una) l’insieme delle curvature sezionali in un punto. Per ovviare a questi problemi procederemo per via analitica invece che geometrica. L’idea cruciale `e che siccome (8.1) contiene i simboli di Christoffel, la curvatura dev’essere legata alla connessione di Levi-Civita. La forma di (8.1) suggerisce di considerare derivate della connessione (per la presenza delle derivate dei simboli di Christoffel), e di costruire qualcosa di antisimmetrico
8.1 Operatori di curvatura
413
(perch´e scambiando qualche indice si ottiene un cambiamento di segno). Tenendo presente anche come abbiamo proceduto per costruire a partire da una connessione il tensore di torsione, possiamo provare a definire una curvatura di una connessione come segue: Definizione 8.1.2. Sia ∇ una connessione lineare su una variet` a M . Dati X, Y ∈ T (M ) e h, k ∈ N l’endomorfismo di curvatura RXY : Tkh (M ) → Tkh (M ) della connessione `e definito da RXY = ∇X ∇Y − ∇Y ∇X − ∇[X,Y ] . u di un semplice endomorfismo: `e C ∞ (M )In realt`a, RXY `e molto di pi` lineare in tutte le variabili. Infatti, RXY (f K) = ∇X f ∇Y K + Y (f )K −∇Y f ∇X K + X(f )K − f ∇[X,Y ] K − [X, Y ](f )K = f RXY K per ogni K ∈ Tkh (M ) e ogni f ∈ C ∞ (M ). Inoltre RY X = −RXY e R(f X)f Y = f ∇X ∇Y − f ∇Y ∇X − Y (f )∇X − f ∇[X,Y ] + Y (f )∇X = f RXY . Quindi R: T (M ) × T (M ) × Tkh (M ) → Tkh (M ) determina un campo tensoriah+k (M ). Il caso per noi pi` u interessante `e il seguente: le R ∈ Th+k+2 Definizione 8.1.3. Sia ∇ una connessione lineare su una variet`a M . Il tensore di curvatura di ∇ `e il campo tensoriale R ∈ T31 (M ) dato da R(X, Y, Z) = RXY Z per ogni X, Y , Z ∈ T (M ). Nel caso in cui ∇ sia la connessione di Levi-Civita di una variet` a Riemanniana (M, g), diremo che R `e il tensore di curvatura della variet` a Riemanniana, e considereremo anche il campo tensoriale R ∈ T40 (M ) definito da R(X, Y, Z, W ) = RXY Z, W . ` importante notare esplicitamente che il tensore di curOsservazione 8.1.4. E vatura di una variet` a Riemanniana `e invariante per isometrie. In altre parole, ˜ `e un’isometria fra due variet` se H: M → M a Riemanniane di connessione di ˜ e tensori di curvatura rispettivamente R Levi-Civita rispettivamente ∇ e ∇ ˜ abbiamo eR ˜ dH (X) dH (Y ) dHp (Z), dHp (W ) H(p) . RXY Z, W p = R p p Infatti la Proposizione 6.6.8 e il Lemma 3.4.9 implicano (controlla) che ˜ dH(X) dH(Y ) dH(Z) dH(RXY Z) = R e la (8.2) segue dal fatto che dH `e un’isometria.
(8.2)
414
8 Curvatura
Il tensore di curvatura possiede diverse propriet` a di simmetria, che risulteranno utilissime: Proposizione 8.1.5. Sia R ∈ T31 (M ) il tensore di curvatura di una connessione lineare simmetrica ∇ su una variet` a M , e X, Y , Z, W ∈ T (M ). Allora: (i) RXY = −RY X ; in particolare, RXX = O; (ii) RXY Z + RY Z X + RZX Y = O (prima identit` a di Bianchi). Inoltre, se ∇ `e la connessione di Levi-Civita di una variet` a Riemanniana M si ha anche: (iii) RXY Z, W = − Z, RXY W ; in particolare, RXY Z, Z = 0; (iv) RXY Z, W = RZW X, Y . Dimostrazione. (i) Ovvia. (ii) Usando la simmetria della connessione e l’identit`a di Jacobi si ottiene RXY Z + RY Z X + RZX Y = (∇X ∇Y Z − ∇Y ∇X Z − ∇[X,Y ] Z) +(∇Y ∇Z X − ∇Z ∇Y X − ∇[Y,Z] X) +(∇Z ∇X Y − ∇X ∇Z Y − ∇[Z,X] Y ) = ∇X (∇Y Z − ∇Z Y ) + ∇Y (∇Z X − ∇X Z) + ∇Z (∇X Y − ∇Y X) −∇[X,Y ] Z − ∇[Y,Z] X − ∇[Z,X] Y = ∇X [Y, Z] + ∇Y [Z, X] + ∇Z [X, Y ] − ∇[X,Y ] Z − ∇[Y,Z] X − ∇[Z,X] Y = [X, [Y, Z]] + [Y, [Z, X]] + [Z, [X, Y ]] = O . a con la metrica (iii) Basta dimostrare che RXY Z, Z = 0. La compatibilit` d` a XY Z2 = 2X ∇Y Z, Z = 2 ∇X ∇Y Z, Z + 2 ∇Y Z, ∇X Z , Y XZ2 = 2Y ∇X Z, Z = 2 ∇Y ∇X Z, Z + 2 ∇X Z, ∇Y Z , [X, Y ]Z2 = 2 ∇[X,Y ] Z, Z . Sottraendo le ultime due dalla prima, il membro sinistro si annulla e otteniamo 0 = 2 RXY Z, Z , come voluto. (iv) Scriviamo la prima identit` a di Bianchi quattro volte, permutando ciclicamente gli argomenti: RXY Z, W + RY Z X, W + RZX Y, W = 0 , RY Z W, X + RZW Y, X + RW Y Z, X = 0 , RZW X, Y + RW X Z, Y + RXZ W, Y = 0 , RW X Y, Z + RXY W, Z + RY W X, Z = 0 ,
8.1 Operatori di curvatura
415
e sommiamo. Grazie a (iii) le prime due colonne si cancellano. Applicando (i) e (iii) all’ultima colonna otteniamo 2 RXZ W, Y − 2 RW Y X, Z = 0, che `e equivalente alla tesi.
Osservazione 8.1.6. Vediamo come si esprime il tensore di curvatura in coordinate locali. Fissata una carta (U, ϕ), con ϕ = (x1 , . . . , xn ) come al solito, i i simboli di Christoffel di ∇ rispetto a questa carta. Allora indichiamo con Γjk h se poniamo R∂i ∂j ∂k = Rijk ∂h , un conto veloce (controlla) mostra che h = Rijk
h h ∂Γjk ∂Γik r h r h − + Γjk Γir − Γik Γjr , ∂xi ∂xj
(8.3)
formula che ci conferma di stare procedendo nella direzione giusta. Inoltre, le propriet` a di simmetria della Proposizione 8.1.5.(i)–(iv) si posh . Il modo pi` u sono esprimere come propriet`a di simmetria dei simboli Rijk semplice per farlo `e tramite i simboli Rijhk = R∂i ∂j ∂h , ∂k . Chiaramente r Rijhk = grk Rijh ,
e la Proposizione 8.1.5.(i)–(iv) `e equivalente (verificalo) alle seguenti simmetrie dei simboli Rijhk : Rijhk = −Rjihk , Rijhk +Rjhik +Rhijk = 0 , Rijhk = −Rijkh , Rijhk = Rhkij . Osservazione 8.1.7. Supponiamo di avere una carta locale in cui i vettori {∂1 , . . . , ∂n } formano un riferimento locale ortonormale di T M . In questa carta, la matrice (gij ) che rappresenta la metrica Riemanniana `e costantemente uguale alla matrice identica, per cui i simboli di Christoffel sono identicamente nulli, e quindi la curvatura `e identicamente nulla. Questo conferma quanto anticipato nell’Osservazione 6.5.13; in particolare, una variet` a Riemanniana con tensore di curvatura identicamente nullo non pu` o essere (neppure localmente) isometrica a una variet`a Riemanniana con tensore di curvatura non nullo, in quanto (Osservazione 8.1.4) il tensore di curvatura `e invariante per isometrie. Le propriet` a di simmetria fanno sospettare che per conoscere l’intero tensore di curvatura sia sufficiente sapere come si comporta su alcune particolari quaterne di vettori. Le quaterne giuste sono quelle indicate nella prossima definizione: Definizione 8.1.8. Sia M una variet` a Riemanniana con tensore di curvatura R. Definiamo per ogni p ∈ M l’applicazione Qp : Tp M × Tp M → R data da Qp (v, w) = Rp (v, w, w, v) = Rvw w, v p per ogni v, w ∈ Tp M . Nota che Qp (w, v) = Qp (v, w), e che Qp (a1 v1 + a2 v2 , w) = a21 Qp (v1 , w) + 2a1 a2 Rv1 w w, v2 + a22 Qp (v2 , w) .
416
8 Curvatura
Il valore di Qp (v1 , v2 ) in realt` a dipende pi` u dal piano generato dai vettori v1 e v2 che dai vettori in s´e. Prima di tutto, se v1 e v2 sono linearmente a di simmetria dipendenti (cio`e generano una retta in Tp M ) allora le propriet` di R implicano subito (verificare, prego) che Qp (v1 , v2 ) = 0. Supponiamo invece che v1 e v2 siano linearmente indipendenti, e siano wj = aij vi (per j = 1, 2) altri due vettori generanti lo stesso piano, dove (aij ) ∈ GL(2, R) `e la matrice di cambiamento di base. Allora la multilinearit` a e le propriet` a di simmetria di R danno 2 Qp (w1 , w2 ) = det(aij ) Qp (v1 , v2 ) . %2 Tp M Ora, l’Esercizio 1.82 ci dice che la norma dell’elemento v1 ∧ v2 ∈ rispetto al prodotto scalare indotto dalla metrica Riemanniana `e data da H 1 √ v1 ∧ v2 p = v1 2p v2 2p − | v1 , v2 p |2 ; 2 nota che il secondo membro `e l’area del parallelogrammo generato da v1 e v2 in Tp M . In particolare, otteniamo anche 2 w1 ∧ w2 2p = det(aij ) v1 ∧ v2 2p . Quindi il numero 2Qp (v1 , v2 ) v1 ∧ v2 2p dipende solo dal piano generato dai vettori v1 e v2 . Abbiamo recuperato la curvatura sezionale: Proposizione 8.1.9. Sia M una variet` a Riemanniana con tensore di curvatura R. Allora per ogni p ∈ M e 2-piano π ⊂ Tp M si ha K(π) =
2Qp (v1 , v2 ) , v1 ∧ v2 2p
dove {v1 , v2 } `e una qualunque base di π. Dimostrazione. Sia {v1 , v2 } una base ortonormale di π; completiamola a una base ortonormale di Tp M , e usiamo quest’ultima base per definire coordinate normali centrate in p. Allora 2Qp (v1 , v2 ) = Qp (v1 , v2 ) = R1221 , v1 ∧ v2 2p che `e esattamente uguale a K(π), grazie a (8.1) ed (8.3).
Dunque il tensore di curvatura definito tramite la connessione di LeviCivita ci permette di calcolare la curvatura sezionale definita geometricamente. Viceversa, la curvatura sezionale determina completamente il tensore di curvatura, come segue dal risultato che ora dimostreremo.
8.1 Operatori di curvatura
417
Proposizione 8.1.10. Sia V uno spazio vettoriale di dimensione n ≥ 2 dotato di un prodotto scalare definito positivo · , · , e R, R : V × V × V → V due applicazioni multilineari soddisfacenti le propriet` a (i)–(iv) della Proposizione 8.1.5. Per ogni x, y, v, w ∈ V e ogni 2-piano π ⊂ V definiamo Q(v, w) = Rvw w, v ,
e
K(π) =
2Q(v1 , v2 ) , v1 ∧ v2 2
dove {v1 , v2 } `e una base qualunque del 2-piano π. Definiamo analogamente Q e K . Allora R = R se e solo se K = K . Dimostrazione. Una direzione `e ovvia. Supponiamo allora K = K , e quindi Q = Q . Allora R(x + v, y, y, x + v) = R (x + v, y, y, x + v) per ogni x, y, v ∈ V (dove per semplicit` a di scrittura abbiamo posto R(x, y, v, w) = Rxy v, w , e analogamente per R ), per cui R(x, y, y, x) + 2R(x, y, y, v) + R(v, y, y, v) = R (x, y, y, x) + 2R (x, y, y, v) + R (v, y, y, v) , e perci`o
R(x, y, y, v) = R (x, y, y, v) .
Dunque
R(x, y + w, y + w, v) = R (x, y + w, y + w, v) ,
per ogni x, y, v, w ∈ V , per cui R(x, y, w, v) + R(x, w, y, v) = R (x, y, w, v) + R (x, w, y, v) , o meglio R(x, y, v, w) − R (x, y, v, w) = R(y, v, x, w) − R (y, v, x, w) . Dunque la quantit` a R(x, y, v, w) − R (x, y, v, w) `e invariante per permutazioni cicliche dei primi tre elementi. Usando la prima identit` a di Bianchi, cio`e la Proposizione 8.1.5.(ii), otteniamo allora 3[R(x, y, v, w) − R (x, y, v, w)] = 0 , e ci siamo.
Uno degli obiettivi tipici dei geometri `e classificare tutti gli oggetti che hanno determinate propriet` a. Nel caso della Geometria Riemanniana, `e naturale cercare di classificare le variet`a in base alla loro curvatura. Il caso pi` u semplice, ma comunque molto importante (e che discuteremo in dettaglio nella Sezione 8.4) `e quello delle variet`a a curvatura sezionale costante.
418
8 Curvatura
Definizione 8.1.11. Una variet` a Riemanniana M ha curvatura sezionale costante k ∈ R se K(π) = k per ogni p ∈ M e ogni 2-piano π ⊂ Tp M . ` possibile dimostrare (Esercizio 8.2) che una variet` Osservazione 8.1.12. E a Riemanniana M connessa di dimensione n ≥ 3 per cui esista una funzione k: M → R tale che K(π) = k(p) per ogni p ∈ M e ogni 2-piano π ⊂ Tp M `e necessariamente a curvatura sezionale costante (cio`e la funzione k `e costante). Il tensore di curvatura di una variet` a Riemanniana a curvatura sezionale costante `e completamente determinato: Corollario 8.1.13. Una variet` a Riemanniana M ha curvatura sezionale costante k ∈ R se e solo se il suo tensore di curvatura `e dato da 7 8 (8.4) RXY Z = k Y, Z X − X, Z Y . Dimostrazione. Una direzione `e immediata (controlla). Viceversa, supponiamo che M abbia curvatura sezionale costante k ∈ R. Definiamo un campo tensoriale R ∈ T31 (M ) tramite il membro destro della (8.4). Si vede subito a (i)–(iv) della Proposizione 8.1.5, e che che R soddisfa le propriet` 8 7 Q (X, Y ) = k X2 Y 2 − | X, Y |2 quindi K = K ≡ k, e la Proposizione 8.1.10 ci assicura che R = R .
Concludiamo questa sezione introducendo altri tipi di curvature che si possono ottenere a partire dal tensore di curvatura. Definizione 8.1.14. Sia M una variet` a Riemanniana con tensore di curvatura R. Il tensore di Ricci Ric ∈ T20 (M ) `e definito dicendo che Ric(X, Y ) `e la traccia dell’operatore lineare Z → RZX Y . Osservazione 8.1.15. Un veloce richiamo di Algebra Lineare: se L: V → V `e un endomorfismo di uno spazio vettoriale di dimensione finita, e B = {v1 , . . . , vn } `e una base di V , allora scrivendo L(vi ) = aji vj (cio`e se (aij ) `e la matrice che rappresenta L rispetto alla base B) troviamo che tr(L) = aii . Se poi B `e una base ortonormale rispetto a un prodotto scalare · , · su V , allora aji = L(vi ), vj , e quindi n L(vi ), vi . tr(L) = i=1
Il tensore di Ricci `e simmetrico: se {Z1 , . . . , Zn } `e una base ortonormale di Tp M l’osservazione precedente e le simmetrie del tensore di curvatura implicano Ric(X, Y ) =
n j=1
RZj X Y, Zj =
n j=1
RZj Y X, Zj = Ric(Y, X) .
8.1 Operatori di curvatura
419
Definizione 8.1.16. Sia M una variet` a Riemanniana con tensore di curvatura R. La curvatura di Ricci `e la forma quadratica associata al tensore di Ricci: Ric(X) = Ric(X, X) per ogni X ∈ T M . L’operatore di Ricci `e l’unico operatore lineare simmetrico R ∈ T11 (M ) tale che Ric(X, Y ) = R(X), Y . Infine, la curvatura scalare S ∈ C ∞ (M ) `e la traccia dell’operatore di Ricci. Se {Z1 , . . . , Zn } `e di nuovo una base ortonormale di Tp M otteniamo Ric(X) =
n
RZj X X, Zj =
j=1
n
Q(Zj , X),
R(X) =
j=1
n
RXZj Zj ,
j=1
e quindi S(p) =
=
n
R(Zj ), Zj =
j=1 n
n
Ric(Zj , Zj ) =
j=1
n
RZi Zj Zj , Zi
i,j=1
Q(Zi , Zj ) .
i,j=1
In coordinate locali, se poniamo Rij = Ric(∂i , ∂j ) e R(∂i ) = Rij ∂j troviamo k , Rij = Rkij
k Rij = g jh Rih = g jh Rkih ,
k S = Rii = g ih Rih = g ih Rkih .
Infine, diamo una definizione che si trova spesso in letteratura. Definizione 8.1.17. Una variet` a Riemanniana (M, g) `e detta di Einstein, e la metrica g `e detta di Einstein, se esiste una funzione λ ∈ C ∞ (M ) tale che Ric = λg . Se (M, g) `e di Einstein, allora l’operatore di Ricci `e λ id; calcolando la traccia troviamo λ = n1 S, dove n `e la dimensione di M . Quindi g `e di Einstein se e solo se 1 Ric = Sg . n Osservazione 8.1.18. In realt` a, si pu` o dimostrare (Esercizio 8.3) che la curvatura scalare di una variet` a di Einstein di dimensione n ≥ 3 `e costante, per cui Ric risulta essere un multiplo costante della metrica.
420
8 Curvatura
8.2 Campi di Jacobi Obiettivo di questa sezione `e introdurre quello che risulter`a essere lo strumento essenziale per collegare la curvatura con il comportamento delle geodetiche: i campi di Jacobi. Per cominciare ci servono una definizione, un esempio e un lemma. Definizione 8.2.1. Sia Σ: (−ε, ε) × [a, b] → M una variazione di una curva regolare a tratti σ: [a, b] → M . Un campo vettoriale X lungo Σ `e dato da una suddivisione a = t0 < t1 < · · · < tk = b di [a, b] associata a Σ e da applicazioni Xj : (−ε, ε) × [tj−1 , tj ] → T M di classe C ∞ tali che Xj (s, t) ∈ TΣ(s,t) M per ogni (s, t) ∈ (−ε, ε) × [tj−1 , tj ] e ogni j = 1, . . . , k. Se i vari campi vettoriali si raccordano con continuit`a nei punti interni t1 , . . . , tk−1 della suddivisione, diremo che X `e un campo continuo. Esempio 8.2.2. Sia Σ: (−ε, ε)×[a, b] → M una variazione di una curva regolare a tratti σ: [a, b] → M . Allora i campi S e T introdotti nella Definizione 7.2.11 sono esempi di campi vettoriali lungo Σ. Inoltre, S `e un campo continuo, mentre T potrebbe non esserlo. Il prossimo risultato `e analogo al Lemma 7.2.13. Lemma 8.2.3. Sia Σ: (−ε, ε) × [a, b] → M una variazione di una curva σ: [a, b] → M regolare a tratti in una variet` a Riemanniana M . Allora per ogni campo vettoriale V lungo Σ abbiamo Ds Dt V − Dt Ds V = RST V su ogni rettangolo (−ε, ε) × [tj−1 , tj ] su cui Σ e V sono di classe C ∞ , dove Dt `e la derivata covariante lungo le curve principali, e Ds quella lungo le curve trasverse. Dimostrazione. Calcoliamo in coordinate locali. Posto V = V i ∂i abbiamo Dt V = e Ds D t V =
∂V i ∂i + V i Dt ∂i ∂t
∂2V i ∂V i ∂V i ∂i + Ds ∂i + Dt ∂i + V i Ds Dt ∂i . ∂s∂t ∂t ∂s
Analogamente, Dt Ds V =
∂2V i ∂V i ∂V i ∂i + Dt ∂i + Ds ∂i + V i Dt Ds ∂i , ∂t∂s ∂s ∂t
per cui Ds Dt V − Dt Ds V = V i (Ds Dt ∂i − Dt Ds ∂i ) . Ora, se indichiamo con Σ h le coordinate di Σ abbiamo
8.2 Campi di Jacobi
T =
∂Σ h ∂h ∂t
e
S=
421
∂Σ h ∂h . ∂s
Quindi Dt ∂i = ∇T ∂i =
∂Σ h ∇∂h ∂i ∂t
e Ds D t ∂ i = D s =
∂Σ h ∇∂h ∂i ∂t
=
∂Σ h ∂2Σh ∇∂h ∂i + ∇S ∇∂h ∂i ∂s∂t ∂t
∂2Σ h ∂Σ h ∂Σ k ∇ ∂ h ∂i + ∇ ∂ k ∇∂ h ∂ i . ∂s∂t ∂t ∂s
In maniera analoga si calcola Dt Ds ∂i . Ricordando che [∂h , ∂k ] = O otteniamo infine ∂Σ h ∂Σ k R∂k ∂h ∂i = RST ∂i Ds Dt ∂i − Dt Ds ∂i = ∂t ∂s e ci siamo.
Usando questo lemma possiamo caratterizzare i campi variazione di variazioni in cui tutte le curve principali sono geodetiche. Definizione 8.2.4. Una variazione geodetica di una geodetica σ: [a, b] → M in una variet` a Riemanniana M `e una variazione liscia Σ: (−ε, ε) × [a, b] → M tale che ogni curva principale σs = Σ(s, ·) sia una geodetica. L’esempio principale di variazione geodetica `e descritto nel prossimo: Lemma 8.2.5. Sia σ: [a, b] → M una geodetica in una variet` a Riemanniana M , e v, w ∈ Tσ(a) M due vettori tangenti. Allora esiste una variazione geodetica Σ: (−ε, ε) × [a, b] → M di σ il cui campo variazione V soddisfa V (a) = v e Da V = w. La variazione Σ `e data da Σ(s, t) = expτ (s) (t − a)(u(s) + sw(s)) , dove τ : (−ε, ε) → M `e una curva uscente da σ(a) tangente a v, mentre u, w ∈ T (τ ) sono le estensioni parallele lungo τ di σ (a) e w rispettivamente. Dimostrazione. Se τ : (−ε, ε) → M `e una curva e ψ ∈ T (τ ), allora la Σ: (−ε, ε) × [a, b] → M data da Σ(s, t) = expτ (s) (t − a)ψ(s) `e sempre una variazione geodetica della geodetica σ0 (t) = expτ (0) (t−a)ψ(0) , non appena (b − a)ψ(0) ∈ Eτ (0) ed ε `e abbastanza piccolo. Quindi vogliamo trovare τ e ψ in modo che σ0 ≡ σ e il campo variazione V di Σ soddisfi V (a) = v e Da V = w.
422
8 Curvatura
Ora, σ(t) = expσ(a) (t−a)σ (a) ; quindi per avere σ0 ≡ σ basta scegliere τ e ψ in modo che τ (0) = σ(a) e ψ(0) = σ (a). Poi Σ(s, a) = τ (s), per cui V (a) = S(0, a) = τ (0) e quindi V (a) = v non appena τ `e scelta in modo che τ (0) = v. Infine, T (s, t) = d(expτ (s) )(t−a)ψ(s) ψ(s) , per cui il Lemma 7.2.13 d` a Dt S|t=a = Ds T (s, a) = Ds ψ , per cui Da V = Dt S|t=a,s=0 = D0 ψ, e quindi Da V = w non appena ψ `e scelto in modo che D0 ψ = w. Ma il modo pi` u semplice per scegliere un campo lungo τ fissando il suo valore iniziale e il valore iniziale della sua derivata covariante lungo τ `e prenderlo lineare rispetto alla derivata covariante, cio`e della forma ψ(s) = u(s)+sw(s), con u e w paralleli lungo τ e con u(0) = σ (a) e w(0) = w. In questo modo si ha ψ(0) = σ (a) e Ds ψ = w(s), come voluto, e ci siamo.
Siamo allora in grado di caratterizzare completamente i campi variazione di variazioni geodetiche: Proposizione 8.2.6. Sia σ: [a, b] → M una geodetica in una variet` a Riemanniana M . Allora un campo J ∈ T (σ) `e il campo variazione di una variazione geodetica di σ se e solo se D2 J + RJσ σ = O .
(8.5)
Inoltre, dati v, w ∈ Tσ(a) M esiste un unico campo J ∈ T (σ) soddisfacente (8.5) e tale che J(a) = v e Da J = w. Dimostrazione. Sia Σ una variazione geodetica di σ, di campo variazione J, e indichiamo come al solito con Dt la derivata covariante lungo le curve principali di Σ, e con Ds quella lungo le curve trasverse. Per ipotesi abbiamo Dt T ≡ O; quindi O ≡ Ds Dt T = Dt Ds T + RST T = Dt Dt S + RST T , dove abbiamo usato i Lemmi 8.2.3 e 7.2.13. Siccome per s = 0 si ha S = J e T = σ , abbiamo ricavato (8.5). Ora, sia I σ (a) E1 = , E , . . . , E 2 n σ (a)σ(a) una base ortonormale di Tσ(a) M , e indichiamo con Ej (t) l’estensione parallela di Ej lungo σ, in modo che {E1 (t), . . . , En (t)} sia una base ortonormale ˆ i : [a, b] → R di Tσ(t) M per ogni t ∈ [a, b]. Definiamo inoltre funzioni R jhk ponendo ˆ i (t)Ei (t) . REj (t)Eh (t) Ek (t) = R jhk Ogni J ∈ T (σ) si pu` o scrivere come J(t) = J i (t)Ei (t) per opportune funzioni 1 n J , . . . , J : [a, b] → R; in particolare, J(a) = J i (a)Ei . Inoltre, essendo gli Ej (t)
8.2 Campi di Jacobi
423
paralleli otteniamo Dt J = (J i ) (t)Ei (t), per cui Da J = (J i ) (a)Ei . Quindi J soddisfa (8.5) se e solo se si ha i ˆ j11 (J i ) + σ (a)2σ(a) R Jj ≡ 0
per i = 1, . . . , n. Dunque (8.5) `e un sistema lineare di equazioni differenziali ordinarie del secondo ordine, per cui (Teorema 6.1.15, adattato al caso dei sistemi del second’ordine come nella dimostrazione della Proposizione 7.1.6) per ogni v, w ∈ Tσ(a) M esiste un’unica soluzione J ∈ T (σ) di (8.5) tale che J(a) = v e Da J = w. Infine, supponiamo che J soddisfi (8.5), e sia Σ: (−ε, ε) × [a, b] → M una variazione geodetica di σ il cui campo variazione V soddisfi V (a) = J(a) e Da V = Da J, costruita per esempio come nel Lemma 8.2.5. Allora anche V soddisfa (8.5), con le stesse condizioni iniziali di J; quindi V ≡ J, e ci siamo.
Definizione 8.2.7. Sia σ: [a, b] → M una geodetica in una variet` a Riemanniana M . La (8.5) `e detta equazione di Jacobi; un campo di Jacobi lungo σ `e una sua soluzione J ∈ T (σ). Lo spazio vettoriale dei campi di Jacobi lungo σ verr` a indicato con J (σ). Un campo di Jacobi J ∈ J (σ) `e detto proprio se a J(t) ⊥ σ (t) per ogni t ∈ [a, b]. Il sottospazio dei campi di Jacobi propri sar` indicato con J0 (σ). Alcune propriet` a elementari dei campi di Jacobi sono contenute nella seguente: Proposizione 8.2.8. Sia σ: [a, b] → M una geodetica in una variet` a Riemanniana M . Allora: (i) gli zeri di un campo di Jacobi J ∈ J (σ) non identicamente nullo sono isolati; (ii) per ogni J ∈ J (σ) abbiamo J(t), σ (t) σ(t) = J(a), σ (a) σ(a) + Da J, σ (a) σ(a) (t − a) ;
(8.6)
(iii) un campo di Jacobi J ∈ J (σ) `e proprio se e solo se J(a) ⊥ σ (a) e Da J ⊥ σ (a) se e solo se `e ortogonale a σ in due punti; (iv) ogni campo di Jacobi J lungo σ si pu` o scrivere in modo unico nella forma J = J0 + [c0 + c1 (t − a)]σ , dove J0 ∈ J0 (σ) e c0 , c1 ∈ R; (v) dim J (σ) = 2 dim M e dim J0 (σ) = 2 dim M − 2. Dimostrazione. (i) Se t0 ∈ [a, b] `e uno zero non isolato di J, possiamo trovare una successione {tν } ⊂ [a, b] convergente a t0 di zeri di J. Ma allora J(tν ) − J(t0 ) σ ˜t−1 0 ,tν Dt0 J = lim =O, ν→+∞ tν − t0 grazie alla Proposizione 6.1.22, dove σ ˜t0 ,tν : Tσ(t0 ) M → Tσ(tν ) M `e il trasporto parallelo lungo σ. Ma allora J ≡ O per la Proposizione 8.2.6, in quanto J ha derivata covariante nulla in un punto in cui si annulla.
424
8 Curvatura
(ii) Siccome Dσ ≡ O abbiamo
d J, σ σ dt
= DJ, σ σ e
d2 J, σ σ = D2 J, σ σ = − RJσ σ , σ σ = 0 , dt2 dove l’ultima eguaglianza segue dalle simmetrie del tensore di curvatura. In particolare, J, σ σ dev’essere lineare affine in t, e otteniamo (8.6). (iii) Segue subito da (ii). (iv) Prima di tutto, si verifica subito che [c0 + c1 (t − a)]σ `e un campo di Jacobi lungo σ quali che siano c0 , c1 ∈ R. Ora, dato J ∈ J (σ), vogliamo dimostrare che esistono unici c0 , c1 ∈ R tali che J0 = J − [c0 + c1 (t − a)]σ sia un campo di Jacobi proprio lungo σ. Per il punto (iii), J0 `e proprio se e solo se J0 (a) e Da J0 sono ortogonali a σ (a). Ma / J0 (a), σ (a) σ(a) = J(a), σ (a) σ(a) − c0 σ (a)2σ(a) , Da J0 , σ (a) σ(a) = Da J, σ (a) σ(a) − c1 σ (a)2σ(a) ; quindi J0 `e proprio se e solo se c0 =
J(a), σ (a) σ(a) σ (a)2σ(a)
e
c1 =
Da J, σ (a) σ(a) , σ (a)2σ(a)
e ci siamo. (v) Che la dimensione di J (σ) sia uguale a 2 dim M segue dall’esistenza e unicit` a della soluzione dell’equazione di Jacobi date le condizioni iniziali.
Infine, (iv) implica che dim J0 (σ) = 2 dim M − 2. Uno dei motivi per cui i campi di Jacobi sono importanti `e che ci permettono di stabilire quando expp smette di essere un diffeomorfismo locale. Definizione 8.2.9. Sia σ: [a, b] → M una geodetica in una variet` a Riemanniana M , e poniamo σ(a) = p e σ(b) = q. Diremo che q `e coniugato a p lungo σ se esiste un campo di Jacobi J ∈ J (σ) non identicamente nullo tale che J(a) = J(b) = O. L’ordine di q come punto coniugato di p `e la dimensione del sottospazio dei campi di Jacobi lungo σ (necessariamente propri) che si annullano in a e b. Chiaramente, l’ordine `e al massimo n − 1 = dim{J ∈ J0 (σ) | J(a) = O}. Allora abbiamo la: Proposizione 8.2.10. Data una variet` a Riemanniana M , scegliamo p ∈ M , un vettore v ∈ Ep ⊆ Tp M , e poniamo q = expp (v). Allora expp `e un diffeomorfismo locale nell’intorno di v se e solo se q non `e coniugato a p lungo la geodetica σ: [0, 1] → M data da σ(t) = expp (tv). Inoltre, l’ordine di q come punto coniugato di p lungo σ `e esattamente la dimensione del nucleo di d(expp )v .
8.3 Il teorema di Cartan-Hadamard
425
Dimostrazione. Grazie al teorema della funzione inversa (Corollario 2.3.29), expp `e un diffeomorfismo locale nell’intorno di v se e solo se v non `e un punto critico di expp , cio`e se e solo se d(expp )v `e iniettivo; quindi per avere la tesi ci basta costruire un isomorfismo χ fra il nucleo di d(expp )v e il sottospazio dei campi di Jacobi lungo σ che si annullano in 0 e 1. Pi` u precisamente, costruiremo un isomorfismo χ fra Tp M e {J ∈ J (σ) | J(0) = O} che mander` a Ker d(expp )v esattamente in {J ∈ J (σ) | J(0) = J(1) = O} ⊆ J0 (σ) . Dato w ∈ Tv (Tp M ) ∼ = Tp M , sia Σw : (−ε, ε) × [0, 1] → M la variazione geodetica di σ ottenuta ponendo Σw (s, t) = expp t(v + sw) . Il campo variazione Jw di questa variazione geodetica `e dato da Jw (t) = t d(expp )tv (w) ; in particolare, Jw (0) = O e D0 Jw = w. Dunque l’applicazione χ: Tp M → J (σ) data da χ(w) = Jw `e lineare e iniettiva; siccome dim Tp M = n = dim{J ∈ J (σ) | J(0) = O} , l’immagine di χ `e esattamente il sottospazio di tutti i campi di Jacobi che si annullano in 0. Ma Jw (1) = d(expp )v (w); quindi χ manda il nucleo di d(expp )v sul sottospazio dei campi di Jacobi lungo σ che si annullano in 0 e 1, e ci siamo.
8.3 Il teorema di Cartan-Hadamard In questa sezione dimostreremo il primo risultato fondamentale sulle relazioni fra la curvatura e la topologia di una variet` a Riemanniana: il teorema di Cartan-Hadamard, che dice che una n-variet` a Riemanniana completa semplicemente connessa con curvatura sezionale non positiva `e necessariamente a la diffeomorfa a Rn . Ci servir` Proposizione 8.3.1. Sia H: M → N un’isometria locale fra variet` a Riemanniane connesse, e supponiamo che M sia completa. Allora anche N `e completa, e H `e un rivestimento. Dimostrazione. Cominciamo col mostrare un fatto preliminare. Sia q ∈ H(M ), e p ∈ H −1 (q). Allora per ogni geodetica σ uscente da q esiste un’unica geodetica σ ˜ uscente da p tale che σ = H ◦ σ ˜ . Infatti, prima di tutto ricordiamo che (Esercizio 7.4) σ ˜ `e una geodetica in M se e solo se σ `e una geodetica ˜ ˜ (0) , per cui σ in N . Poi, se vale σ = H ◦ σ ˜ si deve avere σ (0) = dHp σ
426
8 Curvatura
`e l’unica geodetica di M uscente da p e tale che σ ˜ (0) = (dHp )−1 σ (0) . Viceversa, data σ indichiamo con ˜ l’unica geodetica di M uscente da p e σ ˜ dev’essere una geodetica di N tale che σ ˜ (0) = (dHp )−1 σ (0) ; allora H ◦ σ uscente da q tangente a σ (0), per cui H ◦ σ ˜ = σ, come voluto. Dimostriamo ora che N `e completa. Dato q ∈ H(M ), sia σ una geodetica radiale uscente da q, e prendiamo p ∈ H −1 (q). Essendo M completa, la geodetica σ ˜ uscente da p tale che σ = H ◦ σ ˜ `e definita su tutto R. Ma allora anche σ lo `e, e, per il teorema di Hopf-Rinow, N `e completa. Ora dimostriamo che H `e surgettiva. Siano q0 = H(p) ∈ H(M ) e q ∈ N qualsiasi. Essendo N completa, esiste una geodetica minimizzante σ da q0 a q; poniamo w = σ (0). Ma allora σ = H ◦ σ ˜ per un’opportuna geodetica σ ˜ in M uscente da p, per cui q risulta essere nell’immagine di H. Rimane da far vedere che H `e un rivestimento. Prendiamo q0 ∈ N , e sia U = Bε (q0 ) una palla geodetica di centro q0 ; vogliamo dimostrare che U `e un intorno ben rivestito di q0 . Scriviamo H −1 (q0 ) = {pα }α∈A , e indichiamo con Uα la palla di centro pα e raggio ε per la distanza Riemanniana dM di M . Cominciamo a far vedere che Uα ∩ Uβ = ∅ se α = β. Infatti, essendo M completa possiamo trovare una geodetica minimizzante σ ˜ da pα a pβ . La sua proiezione σ = H ◦ σ ˜ `e una geodetica in N da q0 a q0 . Siccome le geodetiche che partono da q0 in Bε (q0 ) sono solo quelle radiali, σ deve uscire da U e rientrarvi; quindi ha lunghezza maggiore di 2ε. Dunque σ ) = L(σ) > 2ε (dove abbiamo usato l’Esercizio 7.12), e per dM (pα , pβ ) = L(˜ la disuguaglianza triangolare Uα ∩ Uβ= ∅. Adesso mostriamo che H −1 (U ) = α Uα . Siccome H `e un’isometria locale, sempre l’Esercizio 7.12 implica che dN H(p1 ), H(p2 ) ≤ dM (p1 , p2 ) per ogni p1 , p2 ∈ M , dove dN `e la distanza Riemanniana di N . In particolare, essendo U la palla per dN di centro q0 e raggio ε (Teorema 7.2.23), otteniamo H(Uα ) ⊆ U per ogni α. Viceversa, sia p ∈ H −1 (U ). Questo significa che q = H(p) ∈ U , per cui esiste una geodetica minimizzante σ da q a q0 , e N ˜ la geodetica uscente da p tale che σ = H ◦ σ ˜ ; allora r= d (q 0 , q) < ε. Sia σ H σ ˜ (r) = σ(r) = q0 , per cui σ ˜ (r) = pα per qualche α, e p ∈ Uα come voluto. Infine, dobbiamo dimostrare che H|Uα : Uα → U `e un diffeomorfismo per ogni α. Sappiamo che H manda la geodetica radiale in Uα uscente da pα tangente a w ∈ Tpα M nella geodetica radiale in U uscente da q0 tangente a dHpα (w) ∈ Tq0 N . Ma questo vuol dire esattamente che H|Uα = expq0 ◦dHpα ◦ (exppα |Bε (Opα ) )−1 , per cui (H|Uα )−1 = exppα ◦(dHpα )−1 ◦ (expq0 |Bε (Oq0 ) )−1 , e quindi H|Uα `e un diffeomorfismo.
8.4 Spazi di curvatura costante
427
E cos`ı abbiamo il teorema di Cartan-Hadamard: Teorema 8.3.2 (Cartan-Hadamard). Sia (M, g) una variet` a Riemanniana completa. Allora: (i) se M ha curvatura sezionale K ≤ 0 allora ogni p ∈ M non ha punti coniugati; (ii) se esiste p ∈ M senza punti coniugati allora expp : Tp M → M `e un rivestimento. In particolare, ogni variet` a Riemanniana completa semplicemente connessa di dimensione n con curvatura sezionale non positiva `e diffeomorfa a Rn . Dimostrazione. (i) Dato p ∈ M , sia σ una geodetica uscente da p. Dobbiamo dimostrare che se J ∈ J (σ) `e un campo di Jacobi lungo σ non identicamente nullo che si annulla in 0 allora J(t) = O per ogni t = 0. Sia f : R → R data da f (t) = J(t)2σ(t) . Allora f = 2 DJ, J σ , per cui f (0) = f (0) = 0, e 8 7 8 7 d2 f = 2 DJ2σ + D2 J, J σ = 2 DJ2σ − RJσ σ , J σ 2 dt 7 8 = 2 DJ2σ − Qσ (J, σ ) ≥ 0 , grazie all’ipotesi sul segno della curvatura sezionale. Quindi f `e una funzione convessa non negativa con zeri isolati che si annulla in 0, per cui pu` o annullarsi in un altro punto soltanto se `e identicamente nulla, e ci siamo. (ii) Poniamo su Tp M la metrica Riemanniana g0 = (expp )∗ g; siccome p `e privo di punti coniugati, expp `e un diffeomorfismo locale grazie alla Proposizione 8.2.10, e quindi g0 `e ben definita. Per costruzione, expp : (Tp M, g0 ) → (M, g) `e un’isometria locale; quindi le rette uscenti dall’origine sono geodetiche (in quanto le loro immagini sono geodetiche in M ). Per il teorema di Hopf-Rinow,
(Tp M, g0 ) `e completa, e la tesi segue allora dalla Proposizione 8.3.1.
8.4 Spazi di curvatura costante Vogliamo ora trovare tutte le variet` a semplicemente connesse a curvatura sezionale costante. Per arrivarci ci serviranno due interessanti risultati dovuti ´ Cartan. a E. Il primo dice che, in un certo senso, il tensore di curvatura determina localmente la metrica, fornendo una specie di viceversa locale dell’Osservazione 8.1.4. ˜ due variet` Definizione 8.4.1. Siano M e M a Riemanniane di uguale dimen˜ determina una ˜ sione, p ∈ M , e p˜ ∈ M . Un’isometria lineare I: Tp M → Tp˜M corrispondenza biunivoca fra le geodetiche uscenti da p e quelle uscenti da p˜: il traalla geodetica σv si associa la geodetica σI(v) . Diremo che I preserva sporto parallelo della curvatura sezionale se KM σ ˜v (π) = KM˜ σ ˜I(v) I(π) ˜v (rispettivamente, σ ˜I(v) ) per ogni 2-piano π ⊂ Tp M e ogni v ∈ Tp M , dove σ indica il trasporto parallelo lungo σv (rispettivamente, lungo σI(v) ).
428
8 Curvatura
˜ `e Osservazione 8.4.2. Si verifica facilmente (controlla) che se H: M → M una isometria locale allora dHp preserva il trasporto parallelo della curvatura sezionale quale che sia p ∈ M . ˜ due variet` ´ Cartan). Siano M e M Proposizione 8.4.3 (E. a Riemanniane, ˜ ˜ p ∈ M , p˜ ∈ M e I: Tp M → Tp˜M un’isometria lineare che preserva il trasporto parallelo della curvatura sezionale. Scegliamo un numero 0 < δ ≤ injrad(p) ˜ . Allora tale che Bδ (Op˜) sia contenuto nel dominio E˜ dell’esponenziale di M F = expp˜ ◦I ◦ exp−1 p) p : Bδ (p) → Bδ (˜ `e un’isometria locale. In particolare, se si ha anche δ ≤ injrad(˜ p) allora F `e un’isometria. ˜ ; allora ci basta Dimostrazione. Preso v ∈ Tp M , poniamo v˜ = I(v) ∈ Tp˜M dimostrare che si ha D D Dd(expp˜)v˜ I(w) D = d(expp )v (w) (8.7) ∼ Tp M . Siccome I `e un’isometria, il Lemma 7.2.19 per ogni w ∈ Tv (Tp M ) = ci dice che basta dimostrare (8.7) quando w `e un versore ortogonale a v (nel qual caso I(w) `e un versore ortogonale a v˜). Sia {E1 , . . . , En } una base orto˜j = I(Ej ). Sia σ la normale di Tp M con E1 = v/vp e En = w, e poniamo E geodetica uscente da p tangente a v, e σ ˜ la geodetica uscente da p˜ tangente ˜j (t) l’estensione parallela di Ej ed E ˜j lungo σ a v˜; indicheremo con Ej (t) e E ˜ di σ e σ eσ ˜ rispettivamente. Definiamo ora due variazioni Σ e Σ ˜: ˜ t) = expp˜ t v˜ + sI(w) , Σ(s, t) = expp t(v + sw) , Σ(s, ˜ e siano J e J˜ i corrispondenti campi di Jacobi. Allora J(0) = O = J(0), ˜ = d(expp˜)v˜ I(w) ; D0 J = w e D0 J˜ = I(w). Inoltre J(1) = d(expp )v (w) e J(1) ˜ quindi basta dimostrare che J(1) = J(1). i h Scriviamo J(t) = J (t)Ei (t) e REi (t)Ej (t) Ek (t) = Rijk (t)Eh (t), e analogai i ˜ ˜ ˜ mente per J e R; quindi le funzioni J e J soddisfano le ⎧ 2 i ⎧ 2 i d J d J˜ ⎪ ⎪ 2 i j i ⎪ ⎪ ˜ j11 ⎨ ⎨ + v R J = 0, + I(v)2p˜R J˜j = 0, p j11 dt2 dt2 ⎪ ⎪ dJ i dJ˜i ⎪ i ⎪ ˜i ⎩ ⎩ (0) = δni , J (0) = 0, (0) = δni . J (0) = 0, dt dt Ma i Rj11 (t) = REj (t)E1 (t) E1 (t), Ei (t) σ(t) ˜ ˜˜ ˜ E ˜ ˜i = R ˜ (t) = Rj11 (t) , Ej (t)E1 (t) 1 (t), Ei (t) σ
in quanto la curvatura sezionale determina il tensore di curvatura, e la curvatura sezionale `e preservata per trasporto parallelo. Siccome vp = I(v)p˜,
8.4 Spazi di curvatura costante
429
ne segue che (J 1 , . . . , J n ) e (J˜1 , . . . , J˜n ) soddisfano lo stesso sistema lineare di equazioni differenziali ordinarie con le stesse condizioni iniziali; quindi coincidono, e J J K n K n K K i 2 L ˜ J(1) = |J (1)| = L |J˜i (1)|2 = J(1) , i=1
i=1
come volevasi dimostrare. ´ Cartan: Ci servir` a anche un altro risultato di E.
˜ M →M ˜ due isometrie locali fra ´ Cartan). Siano H, H: Teorema 8.4.4 (E. due variet` a Riemanniane connesse. Supponiamo che esista p0 ∈ M tale che ˜ 0 ) e dHp = dH ˜ p . Allora H ≡ H. ˜ H(p0 ) = H(p 0 0 ˜ ˜ p } `e Dimostrazione. L’insieme C = {p ∈ M | H(p) = H(p), dHp = dH un chiuso non vuoto di M ;) ci baster`a dimostrare che `e aperto. Prendiamo * p ∈ C, e sia 0 < δ ≤ min injrad(p), injrad H(p) , per cui Bδ (p) ⊂ M e ˜ sono palle geodetiche. Siccome H e H ˜ sono isometrie locali, Bδ H(p) ⊂ M ˜ mandano geodetiche uscenti da p in geodetiche uscenti da H(p) = H(p). Ma allora expH(p) ◦dHp = H ◦ expp
e
˜p = H ˜ ◦ expp expH(p) ◦dH ˜
su Bδ (Op ), per cui H|Bδ (p) = expH(p) ◦dHp ◦ (expp )−1 |Bδ (p) ˜ p ◦ (exp )−1 |B (p) = H| ˜ B (p) , = expH(p) ◦dH ˜ p δ δ per cui Bδ (p) ⊂ C, ed `e fatta.
Corollario 8.4.5. Sia H: M → M un’isometria di una variet` a Riemanniana connessa in s´e. Supponiamo che esista p ∈ M tale che H(p) = p e dHp = id. Allora H ≡ idM . ˜ =M eH ˜ = idM . Dimostrazione. Basta applicare il teorema precedente a M
Possiamo ora dimostrare un’affermazione fatta nell’Esempio 6.5.23: n Corollario 8.4.6. Iso(SR ) = O(n + 1). n n Dimostrazione. Sia H ∈ Iso(SR ) un’isometria qualunque di SR , indichian mo con N ∈ SR il polo nord, sia p = H(N ) e poniamo Ej = dHN (ej ) per j = 1, . . . , n, dove {e1 , . . . , en+1 } `e la base canonica di Rn+1 . Essendo n ; scegliamo H un’isometria, {E1 , . . . , En } `e una base ortonormale di Tp SR A ∈ O(n + 1) tale che A(N ) = p e A(ej ) = Ej per j = 1, . . . , n. Allora n tale che G(N ) = N e dGN (ej ) = ej per G = A−1 ◦ H `e un’isometria di SR j = 1, . . . , n; quindi dGN = id, e il Corollario 8.4.5 implica G = id, cio`e H = A ∈ O(n + 1), come voluto.
430
8 Curvatura
Come gi`a detto, il nostro obiettivo ora `e classificare le variet`a Riemanniane semplicemente connesse a curvatura sezionale costante. Vediamo quali esempi conosciamo gi` a. Esempio 8.4.7 (Curvatura zero). Lo spazio euclideo Rn con la metrica euclidea ha chiaramente curvatura sezionale costante nulla. n Esempio 8.4.8 (Curvatura positiva). Prima di tutto, la sfera SR ⊂ Rn+1 ha curvatura sezionale costante. Infatti, abbiamo visto nell’Esempio 6.5.23 che n , e transitivamente sulle il gruppo O(n + 1) agisce isometricamente su SR n n basi ortonormali in T SR . Quindi se p, p˜ ∈ SR sono due punti qualsiasi, e n n π ⊂ Tp SR e π ˜ ⊂ Tp˜SR sono due 2-piani qualsiasi, esiste (perch´e?) un’iso˜ ; essendo la metria A ∈ O(n + 1) tale che A(p) = p˜ e dAp (π) = A(π) = π curvatura sezionale invariante per isometrie, ne deduciamo che K(π) = K(˜ π ). n Per conoscere la curvatura sezionale di SR ci basta allora calcolarla su un 2-piano qualsiasi. Indichiamo con ϕ = ψ1−1 = (θ1 , . . . , θn ) le coordinate sferiche introdotte nell’Esempio 2.1.29, e con cui abbiamo lavorato negli Esempi 6.5.22 e 6.6.11. Prendiamo il punto p = (1, 0, . . . , 0) = ϕ(π/2, . . . , π/2), per cui ∂/∂θj |p = −R∂/∂xj+1 per j = 1, . . . , n. Allora
D D2 D ∂ ∂ D 4 D D D ∂θ 1 ∧ ∂θ 2 D = 2R p e Qp
∂ ∂ , 2 1 ∂θ ∂θ
= Rp
∂ ∂ ∂ ∂ , 2, 2, 1 1 ∂θ ∂θ ∂θ ∂θ
r (p) . = R1221 (p) = gr1 R122
L’Esempio 6.5.22 ci dice che g11 (p) = R2 e gr1 (p) = 0 se r = 1. Quindi usando i valori dei simboli di Christoffel calcolati nell’Esempio 6.6.11 e la formula (8.3) troviamo 5 1 6 1 ∂Γ12 r 2 ∂Γ22 1 1 2 1 1 1 2 1 gr1 R122 = R − + Γ22 Γ11 + Γ22 Γ12 − Γ12 Γ12 − Γ12 Γ22 (p) = R2 , ∂θ 1 ∂θ 2 n ha curvatura sezionale costante 1/R2 . e quindi la sfera SR
Esempio 8.4.9 (Curvatura negativa). Anche sullo spazio iperbolico esiste un gruppo di isometrie che agisce transitivamente sui 2-piani (Esercizio 6.18), per cui `e a curvatura sezionale costante. Per calcolare il valore della curn vatura sezionale possiamo usare come modello BR , prendere come punto p 1 l’origine, e come piano quello generato da ∂/∂x e ∂/∂x2 , per cui di nuovo dobbiamo calcolare R1221 (p). Usando i simboli di Christoffel determinati nell’Esempio 6.6.12 otteniamo R1221 (p) = −16/R2 e ∂/∂x1 ∧ ∂/∂x2 2p = 32, per cui lo spazio iperbolico ha curvatura sezionale costante −1/R2 .
8.4 Spazi di curvatura costante
431
Dunque per ogni k ∈ R e ogni n ≥ 2 abbiamo trovato una variet` a Riemanniana semplicemente connessa completa di dimensione n con curvatura sezionale costante uguale a k. Il fatto interessante `e che non ce ne sono altre: ˜ e M semplicemente connesse Teorema 8.4.10. Due variet` a Riemanniane M complete della stessa dimensione e con uguale curvatura sezionale costante k ∈ R sono necessariamente isometriche. Dimostrazione. Consideriamo prima il caso k ≤ 0. Scegliamo p ∈ M e ˜ , e sia I: Tp˜M ˜ → Tp M un’isometria qualsiasi. Per il teorema di Cartanp˜ ∈ M ˜ Hadamard la H = expp ◦I ◦ exp−1 e un diffeomorfismo. Inoltre, p˜ : M → M ` siccome la curvatura sezionale `e costante ed `e uguale per entrambe le variet` a, I preserva banalmente il trasporto parallelo della curvatura sezionale. Quindi per la Proposizione 8.4.3 la H `e l’isometria cercata. Supponiamo ora k = 1/R2 > 0; ci basta dimostrare che M `e iso˜ = S n , dove n = dim M . Scegliamo p0 ∈ S n , q0 ∈ M e metrica a M R R n un’isometria lineare qualsiasi I: Tp0 SR → Tq0 M . Allora (Esempio 7.2.25) n e definito su SR \ {−p0 }, per cui otteniamo un’apinjrad(p0 ) = πR, e exp−1 p0 ` −1 n plicazione H = expq0 ◦I ◦ expp0 da SR \ {−p0 } in M . Siccome di nuovo I preserva banalmente il trasporto parallelo della curvatura sezionale, la Proposizione 8.4.3 ci dice che H `e un’isometria locale. n ˜ S n \ {−p} → M ponen\ {p0 , −p0 } e definiamo H: Ora prendiamo p ∈ SR R −1 ˜ ˜ do H = expH(p) ◦dHp ◦ expp . Come prima, H `e un’isometria locale; inoltre ˜ ˜ p = dHp per definizione. Quindi il Teorema 8.4.4 ci assiH(p) = H(p) e dH n ˜ \ {−p0 , −p}. In altre parole, possiamo estendere H a cura che H ≡ H su SR n n → M . Ma SR `e completa (in quanto compatta); una isometria locale H: SR la Proposizione 8.3.1 ci assicura allora che H `e un rivestimento. Ma M `e semplicemente connessa, per cui H `e un’isometria, come voluto.
Concludiamo questa sezione calcolando i campi di Jacobi e la metrica in coordinate normali per le variet` a Riemanniane a curvatura sezionale costante. Lemma 8.4.11. Sia M una variet` a Riemanniana a curvatura sezionale costante k ∈ R, e σ: [0, r] → M una geodetica parametrizzata rispetto alla lunghezza d’arco. Allora i campi di Jacobi propri lungo σ che si annullano in 0 sono tutti e soli i campi della forma J(t) = u(t)E(t), dove E ∈ T (σ) `e un campo parallelo ortogonale a σ , e u: [0, r] → R `e la funzione ⎧ t se k = 0; ⎪ ⎪ ⎪ 1 t ⎨ se k = 2 > 0; u(t) = R sin R (8.8) R ⎪ ⎪ 1 t ⎪ ⎩ R sinh se k = − 2 < 0. R R Dimostrazione. Siccome M ha curvatura sezionale costante, il tensore di curvatura `e dato da (8.4). Quindi un campo di Jacobi proprio J deve soddisfare
432
8 Curvatura
7 8 O = D2 J + k σ 2σ J − J, σ σ σ = D 2 J + kJ . Sia allora w ∈ Tσ(0) M un vettore ortogonale a σ (0), ed E(t) l’estensione parallela di w lungo σ. Allora si vede subito che il campo J(t) = u(t)E(t) con u data da (8.8) `e effettivamente un campo di Jacobi proprio con J(0) = O e D0 J = w; siccome i campi di Jacobi propri che si annullano in 0 sono completamente determinati dalla loro derivata covariante in 0, li abbiamo trovati tutti.
Proposizione 8.4.12. Sia (M, g) una variet` a Riemanniana con curvatura sezionale costante k ∈ R. Dato un punto p ∈ M , sia {E1 , . . . , En } una base ortonormale di Tp M , e indichiamo con ϕ: U → Rn le corrispondenti coordinate normali centrate in p definite in una palla geodetica U . Infine, indichiamo euclidea in queste coordinate (nel senso che se v = v i ∂i con · 0 la norma , 1 allora v0 = (v )2 + · · · + (v n )2 ). Se q = expp (v0 ) ∈ U \ {p} e v ∈ Tq M , scriviamo v = a ∂/∂r|q + v⊥ , dove v ⊥ ∈ Tq M `e perpendicolare al campo radiale ∂/∂r|q . Allora ⎧ 2 se k = 0; |a| + v ⊥ 20 ⎪ ⎪ ⎪ ⎪ ⎨ 2 R2 2 r ⊥ 2 1 se k = 2 > 0; gq (v, v) = |a| + r 2 sin R v 0 R ⎪ ⎪ 2 ⎪ r R 1 ⎪ 2 2 ⊥ 2 ⎩ |a| + sinh v 0 se k = − 2 < 0, r2 R R dove r = v0 p = d(p, q). Dimostrazione. Trattandosi di una decomposizione ortogonale, ed essendo il campo radiale ∂/∂r un campo di versori, dobbiamo solo calcolare v ⊥ 2q . Indichiamo con σ: [0, r] → M la geodetica radiale da p a q parametrizzata rispetto alla lunghezza d’arco, in modo che si abbia q = σ(r). Scegliamo w ∈ Tp M tale che v ⊥ = d(expp )v0 (rw), e consideriamo la solita variazione geodetica di σ data da v 0 Σ(s, t) = expp t + sw . r Il campo di Jacobi di Σ `e dato da J(t) = t d(expp )tv0 /r (w) , per cui J(0) = O, D0 J = w e J(r) = v ⊥ . D’altra parte, il lemma precedente ci dice che possiamo scrivere J nella forma J(t) = u(t)E(t), dove u `e data da (8.8) ed E `e parallelo lungo σ. In particolare, essendo u (0) = 1, abbiamo w = D0 J = E(0) e quindi v ⊥ 2q = J(r)2q = |u(r)|2 E(r)2q = |u(r)|2 E(0)2p = |u(r)|2 w2p . Quindi ci rimane da calcolare la norma di w. Ora, per definizione le coordinate normali sono date da ϕ−1 (x) = expp (xi Ei ), e quindi
8.5 La seconda variazione della lunghezza d’arco
∂i |q = d(ϕ−1 )ϕ(q)
∂ ∂xi
433
= d(expp )v0 (Ei ) .
In particolare, se scriviamo v ⊥ = v i ∂i |q otteniamo rw = v i Ei , per cui w2p =
1 v ⊥ 20 . r2
Mettendo tutto insieme otteniamo la tesi.
8.5 La seconda variazione della lunghezza d’arco Abbiamo visto che le geodetiche di una variet` a Riemanniana sono i punti critici del funzionale lunghezza. Dall’Analisi Matematica classica arriva allora il suggerimento che per avere ulteriori informazioni sulle geodetiche potrebbe essere utile studiare il comportamento della derivata seconda del funzionale lunghezza. Teorema 8.5.1 (Seconda variazione della lunghezza d’arco). Data una geodetica σ: [a, b] → M parametrizzata rispetto alla lunghezza d’arco in una variet` a Riemanniana M , e una sua variazione Σ: (−ε, ε) × [a, b] → M con campo variazione V ∈ T (σ), definiamo L: (−ε, ε) → R ponendo L(s) = L(σs ). Allora b . b A 2 B d2 L d 2 V, σ σ (0) = ∇V S, σ σ + DV σ − RV σ σ , V σ − dt . ds2 dt a a (8.9) In particolare, ponendo V ⊥ = V − V, σ σ σ otteniamo b . b 7 8 d2 L DV ⊥ 2σ − RV ⊥ σ σ , V ⊥ σ dt . (8.10) (0) = ∇ S, σ
V σ + 2 ds a a Dimostrazione. Nel corso della dimostrazione del Teorema 7.2.15 abbiamo visto che . b dL 1 (s) = Ds T, T dt , ds T a dove Ds indica la derivata covariante lungo le curve trasverse (e Dt indicher` a la derivata covariante lungo le curve principali). Quindi . b d 1 d2 L D (s) = T, T
dt s ds2 T a ds 6 . b5 1 1 2 2 − Ds T + Ds Ds T, T dt Ds T, T + = T 3 T a 5 6 . b 1 1 2 2 Dt S + Ds Dt S, T dt − Dt S, T + = T 3 T a
434
8 Curvatura
.
b
= a
A
2 1 d S, T − S, Dt T − T 3 dt 6 1 d 2 Dt S + Ds S, T − Ds S, Dt T − RST T, S + dt , T dt
dove come al solito abbiamo usato i Lemmi 8.2.3 e 7.2.13 e le simmetrie del tensore di curvatura. Ma σ `e una geodetica parametrizzata rispetto alla lunghezza d’arco; quindi ponendo s = 0 otteniamo (8.9). Infine, si verifica subito che V ⊥ , σ ≡ 0. Quindi DV ⊥ , σ ≡ 0, d ⊥ V, σ σ , DV = DV − dt e le simmetrie del tensore di curvatura ci permettono di dedurre (8.10) da (8.9).
La formula (8.10) suggerisce la seguente: Definizione 8.5.2. Sia σ: [a, b] → M una geodetica parametrizzata rispetto alla lunghezza d’arco in una variet` a Riemanniana M . Indichiamo con N0 (σ) ⊂ T (σ) lo spazio dei campi vettoriali regolari a tratti continui propri (cio`e che si annullano in a e b) e normali (cio`e ortogonali a σ ) lungo σ. La forma di Morse lungo σ `e la forma bilineare simmetrica I: N0 (σ)×N0 (σ) → R definita da . b 7 8 I(V, W ) = DV, DW σ − RV σ σ , W σ dt a
per ogni V , W ∈ N0 (σ). Dunque mettendo insieme il Teorema 8.5.1 e il Lemma 7.2.12 otteniamo: Corollario 8.5.3. Sia σ: [a, b] → M una geodetica parametrizzata rispetto alla lunghezza d’arco in una variet` a Riemanniana M . Se Σ `e una variazione propria di σ con campo di variazione V ∈ N0 (σ) proprio normale, allora la derivata seconda di L(s) = L(σs ) in 0 `e esattamente I(V, V ). In particolare, se σ `e minimizzante allora I(V, V ) ≥ 0 per ogni V ∈ N0 (σ). La forma di Morse ha anche un’altra espressione che chiarisce il collegamento con i campi di Jacobi: Lemma 8.5.4. Sia σ: [a, b] → M una geodetica parametrizzata rispetto alla lunghezza d’arco in una variet` a Riemanniana M . Allora si ha .
b
I(V, W ) = − a
D2 V + RV σ σ , W σ dt −
k−1
Δi DV, W (ti ) σ(ti )
i=1
8.5 La seconda variazione della lunghezza d’arco
435
per ogni V , W ∈ N0 (σ), dove a = t0 < t1 < · · · < tk = b `e una partizione di [a, b] tale che V |[ti−1 ,ti ] sia di classe C ∞ per i = 1, . . . , k, e Δi DV = lim Dt V − lim Dt V t→t+ i
t→t− i
`e il salto di Dt V in ti , per i = 1, . . . , k − 1. Dimostrazione. Sia a = s0 < · · · < sr = b una partizione di [a, b] tale che sia V che W siano di classe C ∞ su ciascun intervallo [sj−1 , sj ]. In questi intervalli si ha d DV, W σ = D2 V, W σ + DV, DW σ , dt per cui sj . sj . sj 2 DV, DW σ dt = − D V, W σ dt + DV, W σ . sj−1
sj−1
sj−1
Siccome W `e continuo e W (a) = W (b) = 0, sommando su tutti gli intervalli otteniamo la tesi.
Usando la forma di Morse possiamo descrivere un importante collegamento fra punti coniugati e propriet` a di minimizzazione delle geodetiche: Proposizione 8.5.5. Sia σ: [a, b] → M una geodetica parametrizzata rispetto alla lunghezza d’arco in una variet` a Riemanniana M . Supponiamo che esista t0 ∈ (a, b) tale che σ(t0 ) sia coniugato a p = σ(a) lungo σ. Allora esiste X ∈ N0 (σ) tale che I(X, X) < 0. In particolare, una geodetica σ non `e mai minimizzante oltre il primo punto coniugato. Dimostrazione. Stiamo supponendo che esista un campo di Jacobi non banale J ∈ J0 (σ|[a,t0 ] ) che si annulla in a e in t0 . Sia allora V ∈ N0 (σ) dato da J(t) se t ∈ [a, t0 ], V (t) = O se t ∈ [t0 , b]. L’unica discontinuit` a di DV `e per t = t0 , dove il salto `e ΔDV = −Dt0 J. Notiamo che Dt0 J = O, perch´e altrimenti J sarebbe un campo di Jacobi con J(t0 ) = Dt0 J = O, e quindi sarebbe identicamente nullo. Scegliamo W ∈ N0 (σ) di classe C ∞ tale che W (t0 ) = −Dt0 J, e per ε > 0 poniamo Xε = V + εW . Allora Xε ∈ N0 (σ) e I(Xε , Xε ) = I(V, V ) + 2εI(V, W ) + ε2 I(W, W ) . Siccome V `e un campo di Jacobi sia su [a, t0 ] che su [t0 , b] e V (t0 ) = O, il Lemma 8.5.4 ci dice che I(V, V ) = − ΔDV, V (t0 ) σ(t0 ) = 0 , I(V, W ) = − ΔDV, W (t0 ) σ(t0 ) = −W (t0 )2σ(t0 ) . Quindi I(Xε , Xε ) = −2εW (t0 )2σ(t0 ) + ε2 I(W, W ) , e per ε abbastanza piccolo otteniamo I(Xε , Xε ) < 0.
436
8 Curvatura
8.6 Il teorema di Bonnet-Myers Vediamo che conseguenze possiamo trarre da quanto fatto finora per variet`a con curvatura sezionale positiva, cominciando con il teorema di Bonnet-Myers: Teorema 8.6.1 (Bonnet-Myers). Sia M una variet` a Riemanniana completa di dimensione n ≥ 2. Supponiamo che esista r > 0 tale che la curvatura di Ricci di M soddisfi n−1 Ric(v) ≥ >0 r2 per ogni p ∈ M e v ∈ Tp M di lunghezza unitaria. Allora: (i) M `e compatto e di diametro minore o uguale a πr; (ii) il rivestimento universale di M `e compatto, e il gruppo fondamentale di M `e finito. Dimostrazione. (i) Siano p e q due punti di M . Siccome M `e completa, esiste una geodetica minimizzante σ: [0, &] → M da p a q parametrizzata rispetto alla lunghezza d’arco; ci basta dimostrare che L(σ) ≤ πr. Infatti in tal caso d(p, q) ≤ πr, per cui il diametro di M `e minore o uguale a πr e dunque M , essendo limitata e completa, `e anche compatta, per il teorema di Hopf-Rinow. Supponiamo, per assurdo, che L(σ) = & > πr. Scegliamo una famiglia {E1 , . . . , En−1 } ⊂ T (σ) di campi paralleli tali che {E1 (t), . . . , En−1 (t), σ (t)} sia una base ortonormale di Tσ(t) M per ogni t ∈ [0, &]. Poniamo poi π t Ej (t) Vj (t) = sin & per j = 1, . . . , n − 1. Il Lemma 8.4.11 ci dice che se M fosse una variet`a con curvatura sezionale costante (π/&)2 < 1/r 2 allora i Vj sarebbero campi di Jacobi; vediamo invece di che propriet` a godono su M . Chiaramente Vj (0) = Vj (&) = O, per cui Vj ∈ N0 (σ) per j = 1, . . . , n − 1. Inoltre . D2 Vj + RVj σ σ , Vj σ dt I(Vj , Vj ) = − 0 6 . π 5 π2 t = sin2 − Q (E , σ ) dt . σ j & &2 0 Sommando su j e ricordando che Qσ (σ , σ ) ≡ 0 otteniamo n−1
. I(Vj , Vj ) = 0
j=1
6 π 5 π2 sin t (n − 1) 2 − Ric(σ ) dt . & & 2
Ma l’ipotesi ci dice che 6 5 2 π2 π 1 (n − 1) 2 − Ric(σ ) ≤ (n − 1) 2 − 2 < 0 ; & & r
8.6 Il teorema di Bonnet-Myers
437
quindi n−1
I(Vj , Vj ) < 0 .
j=1
Dunque deve esistere almeno un j0 tale che I(Vj0 , Vj0 ) < 0, per cui il Corollario 8.5.3 implica che σ non `e minimizzante, contraddizione. ˜ → M il rivestimento universale di M . Se g `e la metrica (ii) Sia π: M ˜ la metrica Riemanniana π ∗ g, Riemanniana su M , possiamo mettere su M in modo che il rivestimento π diventi un’isometria locale. In particolare, per ˜ e v ∈ Tp M ˜ il sollevamento σ ogni p ∈ M ˜ uscente da p della geodetica σ in M ˜ . Essendo M completa, uscente da π(p) tangente a dπp (v) `e una geodetica in M σ `e definita su tutto R; quindi anche σ ˜ lo `e, e il teorema di Hopf-Rinow ci ˜ , π∗ g) `e completa. assicura che anche (M Siccome la curvatura si calcola localmente, anche la curvatura di Ricci ˜ `e limitata inferiormente da (n − 1)/r2 . La parte (i) ci assicura allora di M ˜ `e compatta; in particolare, il numero dei fogli del rivestimento `e che anche M finito — e da questo segue subito che il gruppo fondamentale di M `e finito.
Corollario 8.6.2. Sia M una variet` a Riemanniana completa di dimensione n ≥ 2 con curvatura sezionale K ≥ 1/r2 > 0. Allora M `e compatta, con diametro minore o uguale a πr, e π1 (M ) `e finito. Dimostrazione. Infatti K ≥ 1/r 2 implica Ric ≥ (n − 1)/r2 , dove n = dim M .
Osservazione 8.6.3. L’ipotesi K > 0 non basta: infatti il paraboloide {(x, y, z) ∈ R3 | z = x2 + y 2 } ha curvatura sezionale positiva ma non `e compatto; vedi anche l’Esercizio 8.20 per una generalizzazione del teorema di Bonnet-Myers. Osservazione 8.6.4. La stima sul diametro `e la migliore possibile: la sfera S n ha diametro π e curvatura sezionale costante uguale a 1 (e quindi curvatura ` interessante notare che vale anche un di Ricci costante uguale a n − 1). E viceversa: infatti, si pu` o dimostrare che se M `e una variet`a Riemanniana completa di dimensione n ≥ 2 con diametro πr e la cui curvatura di Ricci soddisfa la disuguaglianza Ric ≥ (n−1)/r2 , allora M `e isometrica alla sfera Srn di raggio r > 0 (vedi [5] o [33]). Il teorema di Bonnet-Myers `e solo il primo di una serie di teoremi profondi sulla topologia di variet` a con curvatura sezionale positiva; il risultato pi` u famoso `e probabilmente il della sfera di Berger e Klingenberg (vedi [6] per una dimostrazione).
438
8 Curvatura
Teorema 8.6.5 (della sfera). Sia M una variet` a Riemanniana completa e semplicemente connessa di dimensione n. Supponiamo che esista R > 0 tale che 1 1 < K(π) ≤ 2 4R2 R n per ogni 2-piano π ⊂ T M . Allora M `e omeomorfa a SR .
8.7 I teoremi di Weinstein e Synge In questa sezione dimostreremo un risultato sulle variet` a orientate, il teorema di Weinstein, che ha come conseguenza il fatto che in certe situazioni curvatura sezionale positiva implica la semplice connessione. Per dimostrarlo ci serviranno un lemma di Algebra Lineare e un’osservazione. Lemma 8.7.1. Sia A ∈ O(n−1) tale che det A = (−1)n . Allora 1 `e autovalore di A, cio`e esiste v ∈ Rn−1 non nullo tale che Av = v. Dimostrazione. Essendo A ortogonale, gli autovalori reali di A sono ±1, e quelli complessi sono in coppie complesse coniugate di modulo 1. Quindi det A = 1 se −1 `e autovalore di A con molteplicit` a pari, e det A = −1 se −1 `e autovalore di A con molteplicit` a dispari. Se n `e pari, det A = 1, per cui −1 ha molteplicit` a pari; gli autovalori complessi coniugati sono anch’essi in numero pari, ma n−1, che `e il numero di autovalori di A, `e dispari, per cui 1 deve essere autovalore di A. Analogamente, se n `e dispari −1 ha molteplicit` a dispari, ma n − 1 `e pari, per cui di nuovo 1 dev’essere autovalore.
Osservazione 8.7.2. Sia M una variet` a Riemanniana orientata da una forma di volume ν ∈ An (M ). Allora il trasporto parallelo lungo una qualsiasi curva conserva l’orientazione, nel senso che manda basi positive in basi positive. Infatti, se {E1 (t), . . . , En (t)} `e il trasporto parallelo di una base positiva {E1 , . . . , En } lungo una curva σ: [a, b] → M , allora la funzione t → νσ(t) E1 (t), . . . , En (t) `e una funzione di classe C ∞ , mai nulla e positiva per t = a, e quindi positiva per ogni valore di t ∈ [a, b]. Teorema 8.7.3 (Weinstein). Sia F : M → M un’isometria di una variet` a Riemanniana compatta orientata M di dimensione n con curvatura sezionale positiva. Supponiamo inoltre che F conservi l’orientazione se n `e pari, e che la inverta se n `e dispari. Allora F ha un punto fisso. Dimostrazione. Supponiamo, per assurdo, che F (q) = q per ogni q ∈ M . Essendo M compatta, la funzione q → d q, F (q) assume minimo in un punto p ∈ M , e il minimo `e per ipotesi strettamente positivo. Inoltre, essendo M completa, esiste una geodetica minimizzante σ: [0, &] → M da p a F (p), parametrizzata rispetto alla lunghezza d’arco. Cominciamo col dimostrare che
8.7 I teoremi di Weinstein e Synge
dFp σ (0) = σ (&) .
439
(8.11)
Infatti, essendo F un’isometria e σ una geodetica minimizzante da p a F (p), la scelta di p implica che per ogni t ∈ (0, &) si ha d p, F (p) ≤ d σ(t), F σ(t) ≤ d σ(t), F (p) + d F (p), F σ(t) = d σ(t), F (p) + d p, σ(t) = d p, F (p) . In particolare, d σ(t), F σ(t) = d σ(t), F (p) + d F (p), F σ(t) . Siccome σ e F ◦ σ sono geodetiche minimizzanti, questo implica che la curva ottenuta unendo σ e F ◦ σ `e ancora minimizzante, e quindi una geodetica. In particolare `e liscia, per cui σ (&) = (F ◦ σ) (0) = dFp σ (0) , come voluto. Poniamo A˜ = σ ˜ −1 ◦dFp : Tp M → Tp M , dove σ ˜ `e il trasporto parallelo da p ˜ a F (p) lungo σ; chiaramente, A `e un’isometria. Inoltre, ricordando l’Osservazione 8.7.2 vediamo che A˜ manda basi positive in basi positive se n `e pari, e basi positive in basi negative se n `e dispari; in particolare, det A˜ = (−1)n .
(8.12)
Da (8.11) segue subito che A˜ σ (0) = (˜ σ −1 ◦ dFp ) σ (0) = σ ˜ −1 σ (&) = σ (0) . Dunque A˜ manda il sottospazio W = σ (0)⊥ ⊂ Tp M ortogonale a σ (0) in se stesso; indichiamo con A: W → W la restrizione di A˜ a W . L’applicazio˜ quindi ne lineare A `e un’isometria con determinante uguale a quello di A; per il Lemma 8.7.1 possiamo allora trovare un campo parallelo E1 ∈ T (σ) ortogonale a σ di lunghezza unitaria e tale che AE1 (0) = E1 (0). Sia τ : (−ε, ε) → M una geodetica con τ (0) = p e τ (0) = E1 (0). Siccome AE1 (0) = E1 (0) otteniamo dFp E1 (0) = E1 (&), per cui la geodetica F ◦ τ `e tale che F ◦ τ (0) = F (p) e (F ◦ τ ) (0) = E1 (&). Sia Σ: (−ε, ε) × [0, &] → M la variazione di σ data da Σ(s, t) = expσ(t) sE1 (t) . Allora Σ(s, 0) = τ (s) e Σ(s, &) = expF (p) sE1 (&) = F ◦ τ (s) . In particolare, S(s, 0) = τ (s) e S(s, &) = (F ◦ τ ) (s). Il campo variazione V a di Σ `e chiaramente E1 , per cui DV ≡ O. Ma allora (8.10) ci d` . . d2 L (0) = ∇E1 S, σ σ − Qσ (E1 , σ ) dt = − Qσ (E1 , σ ) dt , ds2 0 0 0
440
8 Curvatura
perch´e le curve trasverse σ 0 e σ sono geodetiche tangenti a E1 (0) e E1 (&) rispettivamente, da cui segue che ∇E1 (t) S = O per t = 0 e t = &. Ma la curvatura sezionale di M `e strettamente positiva; quindi d2 L (0) < 0 . ds2
(8.13)
Se tutte le curve principali della variazione avessero lunghezza maggiore o uguale a σ, la funzione L(s) assumerebbe minimo assoluto in s = 0, contro la (8.13); quindi deve esistere un s0 tale che L(σs0 ) < L(σ). Ma σs0 `e una curva da τ (s0 ) a F τ (s0 ) ; quindi dovremmo avere d τ (s0 ), F τ (s0 ) ≤ L(σs0 ) < L(σ) = d p, F (p) , contro la scelta di p. Abbiamo trovato una contraddizione, e la dimostrazione `e conclusa.
Come consequenza otteniamo il teorema di Synge, che rivela relazioni inaspettate fra orientabilit` a e topologia delle variet` a compatte con curvatura sezionale positiva: Teorema 8.7.4 (Synge). Sia M una variet` a Riemanniana compatta di dimensione n con curvatura sezionale positiva. Allora: (i) se n `e pari e M `e orientabile allora M `e semplicemente connessa; (ii) se n `e pari e M non `e orientabile allora π1 (M ) = Z2 ; (iii) se n `e dispari allora M `e orientabile. ˜ → M il rivestimento universale di M . Se g `e la Dimostrazione. (i) Sia π: M metrica Riemanniana di M , e ν ∈ An (M ) `e una forma di volume per M , ˜ la metrica g˜ = π∗ g e la forma di volume π ∗ ν, in modo che π mettiamo su M diventi un’isometria locale che conserva l’orientazione. Siccome M `e compatta con curvatura sezionale positiva, deve esistere δ > 0 tale che K ≥ δ. Quindi ˜ `e compatta, con curvatura possiamo applicare il Teorema 8.6.1, e anche M sezionale positiva in quanto π `e un’isometria locale. ˜ → M ˜ un automorfismo del rivestimento, per cui π ◦ F = π. Sia F : M ˜ che conserva l’orientazione (in quanto π la Allora F `e un’isometria di M conserva), e quindi il Teorema 8.7.3 implica che F ha un punto fisso. Ma l’unico automorfismo di un rivestimento che pu` o avere punti fissi `e l’identit` a, per cui F = idM˜ . Quindi il gruppo di automorfismi di π si riduce all’identit` a, e questo equivale a dire che π `e un diffeomorfismo, cio`e che M `e semplicemente connessa. ˜ → M il rivestimento a 2 fogli dato (ii) Se M non `e orientabile, sia π: M ˜ la metrica indotta dalla metrica dalla Proposizione 4.2.19. Mettendo su M ˜ il punto (i); quindi M ˜ `e semplicemente connessa, di M possiamo applicare a M per cui `e il rivestimento universale di M e π1 (M ) = Z2 . ˜ →M (iii) Supponiamo per assurdo M non orientabile, e sia di nuovo π: M il rivestimento a 2 fogli dato dalla Proposizione 4.2.19. Mettiamo di nuovo su
8.8 Sottovariet` a
441
˜ la metrica indotta, e sia F : M ˜ → M un automorfismo del rivestimenM ˜ to diverso dall’identit` a. Ma M `e compatta con curvatura sezionale positiva; ˜ e n `e dispari, possiamo applicare il siccome F inverte l’orientazione di M Teorema 8.7.3 e ottenere un punto fisso per F , contraddizione. Quindi M `e orientabile.
Concludiamo con un esempio che mostra come le differenze fra le dimensioni pari e le dimensioni dispari siano inevitabili. Esempio 8.7.5. Sia π: S n → Pn (R) il rivestimento universale dello spazio proiettivo. Siccome la mappa antipodale A(p) = −p `e un’isometria di S n , ed `e l’unico automorfismo non banale del rivestimento π, otteniamo (Esempio 6.5.17) una metrica Riemanniana su Pn (R) rispetto a cui π diventa un’isometria locan le. In particolare, quindi, P n(R) `e compatto con curvatura sezionale positiva e gruppo fondamentale π1 P (R) = Z2 . Inoltre, `e orientabile se e solo se n `e dispari (Esempio 4.2.16). Quindi P2 (R) `e un esempio di variet`a compatta, non orientabile, di dimensione pari con curvatura sezionale costante positiva, mentre P3 (R) `e un esempio di variet`a compatta, orientabile, non semplicemente connessa, con curvatura sezionale positiva e di dimensione dispari.
8.8 Sottovariet` a In questa sezione finale vogliamo determinare le relazioni fra la geometria di una variet` a Riemanniana e la geometria di una sua sottovariet` a considerata con la metrica indotta. ˜ , considerata con Sia M una sottovariet` a di una variet` a Riemanniana M la metrica indotta. In questa sezione indicheremo con la tilde tutti gli oggetti ˜ curvatura R, ˜ eccetera) relativi a M ˜ , e senza (connessione di Levi-Civita ∇, tilde i corrispondenti oggetti relativi a M . ˜. Definizione 8.8.1. Sia M una sottovariet` a di una variet` a Riemanniana M ⊥ ˜ ˜ Indicheremo con T: T M → T M e con ⊥: T M → (T M ) le proiezioni or˜ ) lo spazio delle sezioni (su M ) di T M ˜ |M , e con togonali, con T (M, M ˜ ˜ N (M ) ⊂ T (M, M ) lo spazio delle sezioni di T M |M ovunque ortogonali a T M . ˜ |M appartiene a N (M ) se e solo In altre parole, una sezione N : M → T M ⊥ se N (p) ∈ (Tp M ) per ogni p ∈ M . Chiaramente, T+ ⊥= id, e ⊥ T (M ) = T N (M ) = (O). ˜. Definizione 8.8.2. Sia M una sottovariet` a di una variet` a Riemanniana M La seconda forma fondamentale `e la forma trilineare II: N (M ) × T (M ) × T (M ) → C ∞ (M ) data da ˜ X N, Y p . II(N, X, Y )(p) = ∇
442
8 Curvatura
Proposizione 8.8.3. Sia M una sottovariet` a di una variet` a Riemannia˜ , e II la seconda forma fondamentale di M . Allora na M ˜ XY II(N, X, Y ) = − N, ∇
(8.14)
(formula di Weingarten) per ogni N ∈ N (M ) e X, Y ∈ T (M ). Inoltre, II `e C ∞ (M )-trilineare e simmetrica negli ultimi due argomenti. Dimostrazione. La C ∞ (M )-bilinearit` a negli ultimi due argomenti `e ovvia. Poi ˜ XY ˜ X Y = − N, ∇ II(N, X, Y ) = X N, Y − N, ∇ in quanto N, Y ≡ 0 perch´e N ⊥ Y per definizione. Da questo segue subito che II `e C ∞ (M )-lineare anche nel primo argomento. Infine, usando (8.14) otteniamo ˜ X Y = − N, [X, Y ] = O , ˜Y X − ∇ II(N, X, Y ) − II(N, Y, X) = N, ∇ di nuovo perch´e N `e ortogonale a T M e [X, Y ] ∈ T (M ).
Osservazione 8.8.4. Come sempre, la C ∞ (M )-multilinearit` a implica che la seconda forma fondamentale `e un campo tensoriale, cio`e il suo valore in un punto p dipende solo dal valore degli argomenti in p. Quindi per ogni p ∈ M abbiamo definito un’applicazione 3-lineare IIp : (Tp M )⊥ × Tp M × Tp M → R. Un oggetto strettamente correlato alla seconda forma fondamentale `e l’operatore di forma: ˜. Definizione 8.8.5. Sia M una sottovariet` a di una variet` a Riemanniana M L’operatore di forma di M `e l’operatore S: T (M ) × T (M ) → N (M ) dato da ˜ XY ) . S(X, Y ) = − ⊥ (∇ Proposizione 8.8.6. Sia M una sottovariet` a di una variet` a Riemannia˜ , di seconda forma fondamentale II e operatore di forma S. Allora na M II(N, X, Y ) = S(X, Y ), N per ogni X, Y ∈ T (M ) e ogni N ∈ N (M ). In particolare, l’operatore di forma `e C ∞ (M )-bilineare e simmetrico. Dimostrazione. Infatti la formula di Weingarten ci d` a ˜ X Y ), N = − ∇ ˜ X Y, N = II(N, X, Y ) . S(X, Y ), N = − ⊥ (∇
Osservazione 8.8.7. Di conseguenza, l’operatore di forma definisce per ogni p ∈ M un operatore Sp : Tp M × Tp M → (Tp M )⊥ bilineare simmetrico.
8.8 Sottovariet` a
443
˜, Definizione 8.8.8. Sia M una sottovariet` a di una variet` a Riemanniana M e N ∈ N (M ). L’endomorfismo di forma associato a N `e l’endomorfismo AN : T (M ) → T (M ) dato da ˜ XN) . AN (X) = T(∇ Osservazione 8.8.9. Chiaramente si ha AN (X), Y = II(N, X, Y ) = X, AN (Y ) per ogni X, Y ∈ T (M ) e N ∈ N (M ). In particolare, AN (X) `e C ∞ (M )multilineare in N e X; quindi per ogni p ∈ M e ν ∈ (Tp M )⊥ l’endomorfismo di forma induce un endomorfismo simmetrico Aν : Tp M → Tp M . Definizione 8.8.10. Sia M una n-sottovariet`a di una variet` a Riemannia˜ , di operatore di forma S. Il campo curvatura media η ∈ N (M ) `e definito na M da 1 η = tr S , n cio`e n 1 η(p) = Sp (ej , ej ) , n j=1 dove p ∈ M e {e1 , . . . , en } `e una base ortonormale di Tp M (vedi l’Osservazione 6.6.16). Osservazione 8.8.11. Se p ∈ M e ν ∈ (Tp M )⊥ si ha η(p), ν p =
1 1 1 Sp (ej , ej ), ν p = IIp (ν, ej , ej ) = Aν (ej ), ej p n n n n
n
n
j=1
j=1
j=1
1 = tr Aν , n dove {e1 , . . . , en } `e una base ortonormale di Tp M . ˜ , e suppoEsempio 8.8.12. Sia M un’ipersuperficie in una (n + 1)-variet`a M niamo esista N ∈ N (M ) tale che N ≡ 1 (questa condizione `e sempre verificata localmente, ed `e equivalente a richiedere che M sia orientabile; vedi l’Esercizio 6.29). Allora N (M ) `e un fibrato banale di rango 1, con riferimento globale {N }. In particolare, per ogni p ∈ M possiamo interpretare Sp come una forma bilineare a valori in R. Infine, poniamo A = AN . Nota che ˜ vN A(v) = ∇ per ogni v ∈ Tp M ; infatti ˜ v N = − ∇ ˜ v N, N , ˜ v N, N = v N, N − N, ∇ ∇ ˜ v N ∈ Tp M sempre. per cui ∇
(8.15)
444
8 Curvatura
Ora, l’endomorfismo A `e simmetrico; quindi ogni Tp M ammette una base ortonormale {e1 , . . . , en } di autovettori di A, detti direzioni principali. Gli autovalori λ1 , . . . , λn sono detti curvature principali, e la media ηp =
1 (λ1 + · · · + λn ) n
`e la curvatura media di M in p. Chiaramente, il campo curvatura media `e dato da η(p) = ηp Np . ˜ , e N ∈ N (S n ) dato da Prendiamo, per esempio, M = S n ⊂ Rn+1 = M ∀x ∈ S n
N (x) = xj
∂ . ∂xj
∂ n Allora usando (8.15) se X = X j ∂x j ∈ T (S ) troviamo ∂ j˜ k ∂ ˜ AN (X) = ∇X N = X ∇∂/∂xj x = Xk k = X . ∂xk ∂x
Quindi AN = id, per cui S(X, Y ) = X, Y N e II(N, X, Y ) = X, Y . In particolare, tutte le direzioni sono principali, e le curvature principali e la curvatura media sono tutte uguali a 1. L’operatore di forma pu` o essere usato per esprimere la connessione di Levi˜ di M ˜ in funzione della connessione di Levi-Civita ∇ di M . Infatti, Civita ∇ ˜ X Y ); quindi l’Esempio 6.6.10 ci dice che ∇X Y = T(∇ ˜ X Y = ∇X Y − S(X, Y ) ∇
(8.16)
per ogni X, Y ∈ T (M ), in quanto T+ ⊥= id. ˜ , espresse Ben pi` u interessanti sono le relazioni fra le curvature di M e M dalle equazioni di Gauss e di Codazzi-Mainardi: ˜ , di Teorema 8.8.13. Sia M una sottovariet` a di una variet` a Riemanniana M operatore di forma S. Allora ˜ XY Z), W = RXY Z, W + S(X, Z), S(Y, W ) − S(Y, Z), S(X, W ) T(R (equazione di Gauss) per ogni X, Y , Z, W ∈ T (M ), e 7 8 ˜ Y S(X, Z) − S(∇Y X, Z) − S(X, ∇Y Z) ˜XY Z) = ⊥ ∇ ⊥ (R 7 8 ˜ X S(Y, Z) − S(∇X Y, Z) − S(Y, ∇X Z) − ⊥∇ (equazione di Codazzi-Mainardi) per ogni X, Y , Z ∈ T (M ).
8.8 Sottovariet` a
445
Dimostrazione. Prima di tutto, abbiamo ˜ XY Z), W = R ˜ XY Z, W T(R ˜Y ∇ ˜ [X,Y ] Z, W . ˜ Y Z, W − ∇ ˜ X Z, W − ∇ ˜ = ∇X ∇ Ora, (8.16) d` a E F ˜ X∇ ˜ Y Z, W = ∇ ˜ X ∇Y Z − S(Y, Z) , W ∇ ˜ X S(Y, Z), W ˜ X ∇Y Z, W − ∇ = ∇ = ∇X ∇Y Z, W − S(X, ∇Y Z), W ˜ XW −X S(Y, Z), W + S(Y, Z), ∇ = ∇X ∇Y Z, W − S(Y, Z), S(X, W ) , dove abbiamo usato che l’operatore di forma `e a valori in N (M ), e quindi ortogonale a ogni elemento di T (M ), la Proposizione 8.8.6 e la formula di Weingarten. Analogamente otteniamo ˜Y ∇ ˜ X Z, W = ∇Y ∇X Z, W − S(X, Z), S(Y, W ) ∇ e ˜ [X,Y ] Z, W = ∇[X,Y ] Z, W − S([X, Y ], Z), W = ∇[X,Y ] Z, W , ∇ e quindi ricaviamo l’equazione di Gauss. Per dimostrare l’equazione di Codazzi-Mainardi, cominciamo col notare che ˜ XY Z, N ˜ XY Z), N = R ⊥ (R ˜ ˜Y ∇ ˜ [X,Y ] Z, N ˜ Y Z, N − ∇ ˜ X Z, N − ∇ = ∇X ∇ per ogni N ∈ N (M ). Ora, E F ˜ X ∇Y Z − S(Y, Z) , N ˜ X∇ ˜ Y Z, N = ∇ ∇ ˜ X S(Y, Z), N = ∇X ∇Y Z, N − S(X, ∇Y Z), N − ∇ E F ˜ X S(Y, Z) + S(X, ∇Y Z), N . =− ⊥ ∇ Analogamente, E F ˜ Y S(X, Z) + S(Y, ∇X Z), W . ˜Y∇ ˜ X Z, N = − ⊥ ∇ ∇ Inoltre, ˜ [X,Y ] N ˜ [X,Y ] Z, N = [X, Y ] Z, N − Z, ∇ ∇ E F = − S [X, Y ], Z , N = S(∇Y X, Z) − S(∇X Y, Z), N ,
446
8 Curvatura
dove abbiamo usato la Proposizione 8.8.6 e la simmetria della connessione di Levi-Civita. Siccome queste tre formule valgono per ogni N ∈ N (M ), combinandole ricaviamo l’equazione di Codazzi-Mainardi, e abbiamo finito.
˜, Corollario 8.8.14. Sia M una sottovariet` a di una variet` a Riemanniana M di operatore di forma S. Allora ˜ XY Y, X = RXY Y, X + S(X, Y )2 − S(X, X), S(Y, Y ) R per ogni X, Y ∈ T (M ). Dimostrazione. Segue immediatamente dall’equazione di Gauss.
Come esempio di applicazione dell’equazione di Gauss dimostriamo il lemma di Synge, un esempio di risultato che ci permette di confrontare la curvatura sezionale di una sottovariet` a con la curvatura sezionale dell’ambiente: Lemma 8.8.15 (Synge). Sia M una sottovariet` a di una variet` a Rieman˜ . Supponiamo che esista una geodetica σ in M ˜ la cui immagine sia niana M contenuta in M . Sia poi π ⊂ Tp M un 2-piano tangente a σ in p = σ(t0 ). Allora ˜ K(π) ≤ K(π) , ˜ `e la curvatura sezionale di M (rispettivamendove K (rispettivamente, K) ˜ te, M ). Dimostrazione. Senza perdita di generalit` a possiamo supporre che σ sia parametrizzata rispetto alla lunghezza d’arco. Sia {e1 , e2 } una base ortonormale di π con e1 = σ (t0 ). Allora il Corollario 8.8.14 e l’Osservazione 8.8.7 ci danno E F ˜ K(π) = K(π) + Sp (e1 , e2 )2p − Sp σ (t0 ), σ (t0 ) , Sp (e2 , e2 ) . Ora, per ogni ν ∈ (Tp M )⊥ abbiamo E F Sp σ (t0 ), σ (t0 ) , ν = IIp ν, σ (t0 ), σ (t0 ) = − ν, Dt0 σ p = 0 perch´e σ `e una geodetica (e abbiamo usato le Proposizioni 8.8.3 e 8.8.6). Di conseguenza ˜ K(π) = K(π) + Sp (e1 , e2 )2p ≥ K(π) , come voluto.
Le equazioni di Gauss e di Codazzi-Mainardi sono, in un certo senso, le condizioni di compatibilit` a fra la metrica Riemanniana e la seconda forma fondamentale che assicurano l’esistenza di una sottovariet` a con data metrica indotta. Per esempio, supponiamo che M sia una sottovariet` a di Rn con la
Esercizi
447
˜ ≡ O per cui le equazioni di Gauss e di Codazzimetrica euclidea. Allora R Mainardi diventano RXY Z, W + S(X, Z), S(Y, W ) − S(Y, Z), S(X, W ) = 0 , 8 7 ˜ Y S(X, Z) − S(∇Y X, Z) − S(X, ∇Y Z) (8.17) ⊥∇ 7 8 ˜ − ⊥ ∇X S(Y, Z) − S(∇X Y, Z) − S(Y, ∇X Z) = 0 Viceversa, si pu`o dimostrare (vedi [19, Vol. II, Sezione VII.7]) il seguente: Teorema 8.8.16. Sia Ω ⊆ Rn aperto, e g, II: T Ω × T Ω → R due forme C ∞ (M )-bilineari, con g definita positiva e II simmetrica. Supponiamo che valgano le equazioni di Gauss e Codazzi-Mainardi (8.17). Allora per ogni p ∈ Ω esiste un intorno U ⊆ Ω di p e un’unica funzione f ∈ C ∞ (U ) tale che il grafico Γf ⊂ Rn+1 abbia come metrica indotta g e come seconda forma fondamentale II.
Esercizi OPERATORI DI CURVATURA Esercizio 8.1 (Utile per gli Esercizi 8.2 e 8.3). Sia M una variet` a Riemanniana di connessione di Levi-Civita ∇. Dimostra la seconda identit` a di Bianchi: ∇R(X, Y, Z, V, W ) + ∇R(X, Y, V, W, Z) + ∇R(X, Y, W, Z, V ) = O per ogni X, Y , Z, V , W ∈ T (M ). Esercizio 8.2 (Citato nell’Osservazione 8.1.12). Dimostra che una variet` a Riemanniana M connessa di dimensione n ≥ 3 per cui esista una funzione k: M → R tale che K(π) = k(p) per ogni p ∈ M e ogni 2-piano π ⊂ Tp M `e necessariamente a curvatura sezionale costante (cio`e la funzione k `e costante). [Suggerimento: usa la seconda identit` a di Bianchi.]
Esercizio 8.3 (Citato nell’Osservazione 8.1.18). Dimostra che la curvatura scalare di una variet` a di Einstein di dimensione n ≥ 3 `e costante. [Suggerimento: usa la seconda identit` a di Bianchi.]
Esercizio 8.4. Sia M una variet` a Riemanniana di connessione di Levi-Civita ∇. Dimostra l’identit` a di Ricci: se K ∈ T20 (M ) allora ∇2 K(Z, W, X, Y ) − ∇2 K(Z, W, Y, X) = (RXY K)(Z, W ) per ogni X, Y , Z, W ∈ T (M ).
448
8 Curvatura
Esercizio 8.5. Sia M una variet` a Riemanniana di connessione di Levi-Civita ∇. Dimostra che 1) R(X, Y, Z, W ) = Q(Y + Z, X + W ) − Q(X + Z, Y + W ) 6 +Q(X, Y + W ) + Q(Y, X + Z) +Q(Z, Y + W ) + Q(W, X + Z) −Q(X, Y + Z) − Q(Y, X + W ) −Q(Z, X + W ) − Q(W, Y + Z) * +Q(X, Z) + Q(X, W ) − Q(Y, Z) − Q(Y, W ) . Esercizio 8.6. Se (M, g) `e una variet` a Riemanniana e k > 0, `e evidente che anche (M, kg) `e una variet` a Riemanniana. Trova che relazione esiste fra la connessione di Levi-Civita e il tensore di curvatura di (M, g) e i corrispondenti oggetti per (M, kg). Esercizio 8.7. Trova come si esprimono la connessione di Levi-Civita e il tensore di curvatura della metrica prodotto in funzione delle connessioni di Levi-Civita e dei tensori di curvatura dei due fattori. Esercizio 8.8. Sia ∇ la connessione di Levi-Civita su una variet` a Riemanniana (M, g). Indichiamo con {E1 , . . . , En } un riferimento locale di T M su un aperto U , con {ϕ1 , . . . , ϕn } il riferimento duale di T ∗ M , e con (ωji ) la matrice delle 1-forme di connessione. Definiamo Ωij : T (U ) × T (U ) → C ∞ (U ) per i, j = 1, . . . , n tramite la formula RXY Ei = Ωij (X, Y )Ej . Dimostra che le Ωij sono delle 2-forme (dette forme di curvatura), e dimostra la seconda equazione di struttura di Cartan: Ωij = dωij − ωik ∧ ωkj per i, j = 1, . . . , n. ` CON CURVATURA DI SEGNO COSTANTE VARIETA Definizione 8.E.1. Una sottovariet` a N ⊂ M di una variet` a Riemanniana `e totalmente geodetica se per ogni p ∈ N e v ∈ Tp N la geodetica di M uscente da p in direzione v `e completamente contenuta in N . Diremo invece che N `e piatta se il tensore di curvatura in N della metrica indotta `e identicamente nullo. Esercizio 8.9. Sia N1 una sottovariet` a totalmente geodetica di una variet`a Riea totalmente geodetica di una variet`a Riemanniana M1 , e N2 una sottovariet` manniana M2 . Dimostra che N1 × N2 `e una sottovariet`a totalmente geodetica di M1 × M2 .
Esercizi
449
Esercizio 8.10. Sia S 2 ⊂ R3 la sfera unitaria con la metrica indotta dalla metrica euclidea di R3 , e sia M = S 2 ×S 2 considerata con la metrica prodotto. (i) Dimostra che la curvatura sezionale di M `e non-negativa. (ii) Trova una sottovariet` a N di M totalmente geodetica, piatta e diffeomorfa a un 2-toro T2 = S 1 × S 1 . Esercizio 8.11. Sia M una variet` a Riemanniana completa, semplicemente connessa, e con curvatura sezionale K ≤ 0. Dimostra che per ogni p0 ∈ M la funzione r2 = d(p0 , ·)2 `e strettamente convessa su tutta M .
ISOMETRIE Esercizio 8.12. Dimostra che una variet` a Riemanniana (M, g) `e localmente isometrica a Rn con la metrica euclidea se e soltanto se il tensore di curvatura R di M `e identicamente nullo. Esercizio 8.13. Sia H: M → N un’isometria locale fra variet` a Riemanniane connesse, e supponiamo che N sia completa. Dimostra che se H `e un rivestimento allora anche M `e completa, e trova un esempio di un’isometria locale fra una variet` a M non completa e una variet`a N completa. Esercizio 8.14. Sia M una variet` a Riemanniana completa. (i) Dimostra che un’esaustione strettamente convessa ha un unico punto di minimo e nessun altro punto critico. (ii) Sia G un gruppo di Lie compatto di isometrie di M , μ una misura di Borel su G, e f : M → R di classe C ∞ . Dimostra che la funzione f˜: M → R data da . f g(p) dμ(g) f˜(p) = G
`e strettamente convessa. (iii) La misura di Haar di un gruppo topologico compatto G `e l’unica misura di Borel μ su G tale che μ(G) = 1 e . . f (gh) dμ(g) = f (g) dμ(g) G
G
per ogni f ∈ C 0 (G) e h ∈ G. Usando l’esistenza della misura di Haar su qualsiasi gruppo topologico compatto, dimostra che se M `e semplicemente connessa con curvatura sezionale K ≤ 0, allora ogni gruppo di Lie compatto di isometrie di M ammette un punto fisso, cio`e un punto p0 ∈ M tale che g(p0 ) = p0 per ogni g ∈ G. Esercizio 8.15. Dimostra che il gruppo delle isometrie dello spazio iperbolico URn `e il gruppo O+ (1, n) introdotto nell’Esercizio 6.18.
450
8 Curvatura
LUOGO DI TAGLIO Definizione 8.E.2. Sia M una variet` a Riemanniana completa, p ∈ M , v ∈ Tp M di lunghezza unitaria, e σv : [0, +∞) → M la geodetica parametrizzata rispetto alla lunghezza d’arco con σv (0) = p e σv (0) = v. Poniamo t0 (v) = sup{t ∈ R+ | d p, σv (t) = t} . Se t0 (v) < +∞, diremo che σv (t0 ) `e un punto di taglio di σv rispetto a p. Il luogo di taglio di M rispetto a p `e l’insieme C(p) = {σv (t0 ) | v ∈ Tp M, vp = 1, σv (t0 ) punto di taglio di σv rispetto a p}. Esercizio 8.16. Calcola il luogo di taglio di M rispetto a p quando: (i) M = S n , e p = (0, 0, . . . , 1); (ii) M `e il cilindro circolare retto di raggio unitario in R3 , e p = (1, 0, 0); (iii) M = P2 (R), e p = [1 : 0 : 0]. Esercizio 8.17. Nelle notazioni e nelle ipotesi della Definizione 8.E.2, mostra che la restrizione di σv all’intervallo [0, t0 (v)[ non ammette punti coniugati. Esercizio 8.18. Sia M una variet` a Riemanniana completa, p ∈ M , v ∈ Tp M di lunghezza unitaria, e σv : [0, +∞) → M la geodetica parametrizzata rispetto alla lunghezza d’arco con σv (0) = p e σv (0) = v. (i) Dimostra che σv (t0 ) `e un punto di taglio per p se e solo se una delle due condizioni seguenti si verifica per t = t0 e nessuna delle due si verifica per valori di t minori di t0 : (a) σv (t) `e coniugato a p lungo σv ; (b) esiste una geodetica τ = σv da p a σv (t) tale che L(τ ) = L(σv ). (ii) Sia C = {v ∈ T M | v = (v) < +∞}, e definiamo ρ: C → R+ 1, t0 ponendo ρ(v) = d π(v), σv t0 (v) , dove π: T M → M `e la proiezione canonica e d `e la distanza Riemanniana. Dimostra che ρ `e una funzione continua, e deduci che C(p) `e un insieme chiuso. (iii) Dimostra che injrad(p) = d p, C(p) . (iv) Sia q ∈ C(p) tale che d(p, q) = d p, C(p) . Dimostra che o esiste una geodetica minimizzante σ da p a q tale che q sia coniugato a p lungo σ, oppure esistono esattamente due geodetiche minimizzanti σ e τ parametrizzate rispetto alla lunghezza d’arco da p a q tali che σ d(p, q) = −τ d(p, q) . Esercizio 8.19. Scegliamo un punto p0 in una variet` a Riemanniana compatta M , e sia r: M → R+ data da r(q) = d(p0 , q) per ogni q ∈ M , dove d `e la distanza Riemanniana. Dimostra che r non `e mai di classe C 1 su M \ {p0 }. Esercizio 8.20 (Citato nell’Osservazione 8.6.3). Dimostra la seguente generalizzazione del teorema di Bonnet-Myers: sia M una variet` a Riemanniana completa. Supponiamo che esistano a > 0 e c ≥ 0 tali che per ogni coppia di punti
Esercizi
451
di M e ogni geodetica minimizzante σ parametrizzata rispetto alla lunghezza d’arco che unisce questi due punti si abbia df Ric σ (s) ≥ a + ds lungo σ, per una qualche funzione f tale che |f (s)| ≤ c lungo σ. Dimostra che M `e compatta, e trova una stima sul diametro. ` SECONDA FORMA FONDAMENTALE E SOTTOVARIETA Esercizio 8.21. Trova che relazione c’`e fra la seconda forma fondamentale, le equazioni di Gauss e le equazioni di Codazzi-Mainardi per le superfici in R3 (vedi [2, Sezione 4.6]) e quelle introdotte nel Teorema 8.8.13. Esercizio 8.22. Sia M un’ipersuperficie di una variet` a Riemanniana con cur˜ . Dimostra che la forma trilineare vatura sezionale costante M (X, Y, Z) → (∇X S)(Y, Z) `e simmetrica nelle tre variabili X, Y , Z ∈ T (M ).
Bibliografia
[1] Abate, M.: Geometria. McGraw-Hill Italia, Milano (1996). [2] Abate, M., Tovena, F.: Curve e superfici. Springer Italia, Milano (2006). [3] Barten, D., Thomas, C.: An introduction to differential manifolds. Imperial College Press, London (2003). [4] Bott, R., Tu, L.W.: Differential forms in algebraic topology. GTM 82, Springer-Verlag, Berlin (1982). [5] Cheng, S.Y.: Eigenvalues comparison theorems and its geometric applications. Math. Z. 143, 289–297 (1975). [6] do Carmo, M.P.: Riemannian geometry. Birkh¨ auser, Boston (1992). [7] Donaldson, S.K., Kronheimer, P.B.: The geometry of four-manifolds. Clarendon Press, New York (1990). [8] Freedman, M., Quinn, F.: Topology of 4-manifolds. Princeton University Press, Princeton (1990). [9] Gilardi, G.: Analisi due. McGraw-Hill Italia, Milano (1996). [10] Greene, R.E.: Isometric embeddings of Riemannian and pseudoRiemannian manifolds. Memoires Amer. Math. Soc. 97, American Mathematical Society, Providence (1970). [11] Greub, W., Halperin, S., Vanstone, R.: Connections, curvature, and cohomology, I. Academic Press, New York (1972). [12] Helgason, S.: Differential geometry, Lie groups, and symmetric spaces. Academic Press, New York (1978). [13] Hirsch, M.W.: Differential topology. Springer-Verlag, Berlin (1976). [14] Hirzerbruch, F., Mayer, K.-H.: O(n)-Mannigfaltigkeiten, Exotische Sph¨ aren und Singularitit¨ aten. Lecture Notes in Math. 57, Springer-Verlag, Berlin (1968). [15] Holm, P.: The theorem of Brown and Sard. Enseign. Math., 33, 199–202 (1987). [16] Hsiang, W.Y.: Lectures on Lie Groups. World Scientific, Singapore (2000). [17] Kelley, J.L.: General topology. GTM 27, Springer-Verlag, Berlin Heidelberg (1975).
454
Bibliografia
[18] Kervaire, M.A., Milnor, J.W.: Groups of homotopy spheres: I, Ann. Math. 77, 504–537 (1963). [19] Kobayashi, S., Nomizu, K.: Foundations of differential geometry, voll. I, II. Wiley, New York (1963, 1969). [20] Kodaira, K.: Complex manifolds and deformation of complex structures. Springer-Verlag, Berlin (2004). [21] Lang, S.: Differential and Riemannian manifolds. GTM 160, SpringerVerlag, Berlin Heidelberg (1995). [22] Lee, J.M.: Riemannian manifolds. GTM 176, Springer-Verlag, Berlin Heidelberg (1997). [23] Lee, J.M.: Introduction to topological manifolds. GTM 202, SpringerVerlag, Berlin (2000). [24] Lee, J.M.: Introduction to smooth manifolds. GTM 218, SpringerVerlag, Berlin Heidelberg (2003). [25] Michor, P.W.: Topics in differential geometry. American Mathematical Society, Providence, RI (2008). [26] Milnor, J.W.: Morse theory. Princeton University Press, Princeton (1963). [27] Milnor, J.W.: Topology from the differentiable viewpoint. Princeton University Press, Princeton (1965). [28] Moise, E.E.: Geometric topology in dimension 2 and 3. Springer-Verlag, New York (1977). [29] Montgomery, D., Zippin, L.: Transformation groups. Wiley, New York (1955). [30] Munkres, J.R.: Obstructions to the smoothing of piecewise differentiable homeomorphisms. Ann. Math. 72 521–554, (1960). [31] Myers, S.B., Steenrod, N.E.: The group of isometries of a Riemannian manifold. Ann. of Math. 40, 400–416 (1939). [32] Pagani, C.D., Salsa, S.: Analisi Matematica, Volume 2. Masson, Milano (1991). [33] Shiohama, K.: A sphere theorem for manifolds of positive Ricci curvature. Trans. Amer. Math. Soc. 275, 811–819 (1983). [34] Spivak, M.: A comprehensive introduction to differential geometry (5 voll.), Second edition. Publish or Perish, Berkeley (1979). [35] Steen, L.A., Seebach, J.A., jr.: Counterexamples in topology. Holt, Rinehart and Winston, New York (1970). [36] Varadarajan, V.S.: Lie groups, Lie algebras and their representations. GMT 102, Springer-Verlag, Berlin (1984). [37] Walter, W.: Ordinary differential equations. GTM 182, Springer-Verlag, Berlin Heidelberg (1998). [38] Whitney, H.: Differentiable manifolds. Ann. of Math. 37 645–680 (1936). [39] Whitney, H.: The self-intersections of a smooth n-manifold in 2n-space. Ann of Math. 45 220–246 (1944). [40] Whitney, H.: The singularities of a smooth n-manifold in (2n−1)-space. Ann of Math. 45 247–293 (1944).
Indice analitico
[· , ·], 157, 161 {· , ·}, 374 , 354 , 210 # , 354 , 270 M · , ·, 10 ∇, 316, 334 ∇f , 355 ∇2 , 334 , 27 j Wj , 5 ⊥,
441 j Wj , 3 ⊥ S, 35 ⊥ W , 10 ∧, 27 V , 26 pL, 49 p L, 49 V , 23 rp V , 23 M , 141 α∇ , 400 χ(M ), 307 Δ, 353 Δj σ , 387 δhk , 2 δkh , 2 Γijk , 320 σv , 377 τ , 346 θg , 99
θg (p), 99 Ω(V ), 238 A, 26 A• (M ), 208 A•c (M ), 262 Ak (M ), 144 Ak (M ; E), 325 Ad, 237, 402 ad, 401 Algebra – alternante, 27 – anticommutativa, 27 – di Grassmann, 27 – di Lie, 161, 162, 401 – esterna, 26, 27 – graduata, 248 – anticommutativa, 248 – associativa, 248 – simmetrica, 26, 27 – tensoriale, 19 – controvariante, 19 – covariante, 19 Altp (V ), 53 Ampliamento del campo degli scalari, 15 AN , 443 Annullatore, 34, 35 Antisimmetrizzazione, 26 Aperto uniformemente normale, 381 Applicazione – aggiunta, 401 – alternante, 23 – antisimmetrica, 23
456
Indice analitico
C ∞ -omotopa, 260 di classe C ∞ , 75 di Hopf, 131 di Pl¨ ucker, 53 differenziabile, 75 duale, 4 equivariante, 130 esponenziale, 165, 379 G-equivariante, 204 multilineare, 8 olomorfa, 76 omogenea, 119 – non degenere, 119 – p-lineare, 8 – propria, 101 – simmetrica, 23 – tautologica, 143 – trasposta, 4 – trasversa, 126, 204 Atlante, 61, 228 – adattato, 94 – associato, 214 – banalizzante, 136 – compatibile, 61, 63 – di fibrato principale, 188 – di un fibrato, 185 – equiorientato, 211 – orientato, 211, 229 Aut(π), 130 Autofunzione, 370 Automorfismo, 97 – di rivestimento, 130 Autovalore, 370 – di Dirichlet, 370 – di Neumann., 370 Azione – destra, 99 – fedele, 99 – libera, 100 – principale destra, 188 – propria, 101 – propriamente discontinua, 130 – sinistra, 99 – transitiva, 100 – – – – – – – – – – – –
B k (C), 249 B k (M ), 226 B n , 67 n , 67, 342 BR Bε (Op ), 381
Bε (p), 381 Bε∗ (p), 390 Banalizzazione locale, 134, 146, 184 Base, 2, 14, 19, 134, 184 – associata, 9 – duale, 4 – negativa, 214 – positiva, 213 – simplettica, 32 Biduale, 2 Bigrado, 285 Biolomorfismo, 76 Bordo, 227, 228 C • , 248 C • (U, R), 292 Cg , 97, 402 Cji , 22 C ∞ (M ), 75 C ∞ (p), 80 Cc∞ (M ), 262 C ∞ (K), 105 C ∞ (M, N ), 75 Cp,q , 52 C p (U, Aq ), 288 Cambiamento – di carta, 60 – di coordinate, 60 Campo – continuo, 420 – curvatura media, 443 – di Jacobi, 423 – proprio, 423 – di versori normali, 368 – esterno, 368 – geodetico, 379 – radiale, 390 – tensoriale, 145 – covariante, 145 – non autonomo, 359 – parallelo, 334 – simmetrico, 335 – variazione, 386 – vettoriale, 144 – autonomo, 359 – che commuta, 157 – completo, 156 – continuo, 386 – correlato, 160 – Hamiltoniano, 373
Indice analitico – invariante, 156 – invariante a sinistra, 160 – localmente Hamiltoniano, 373 – lungo una curva regolare a tratti, 385 – lungo una sottovariet` a, 236 – lungo una variazione, 420 – non autonomo, 358 – proprio, 386 – simplettico, 373 – trasverso, 197, 236 Caratteristica di Eulero-Poincar´e, 307 Carta, 60 – adattata, 94 – a un’azione, 102 – banalizzante, 136 – centrata, 60 – compatibile, 60, 63, 228 – di bordo, 228 – equiorientata, 211 – interna, 228 – locale – piatta, 175, 178 – orientata, 214 Centro, 184 Cerchio massimo, 393 Cilindro piatto, 399 Classe di Thom, 307 Cobordo, 249 Cocatena, 248, 296 Cociclo, 185, 249 – coomologo, 249 Codifferenziale esterno, 372 Codimensione, 91 Commutatore, 161 Complemento simplettico, 31 Complessificazione, 15 Complesso ˇ – di Cech, 292 – di catene, 249 – di cocatene, 249 – differenziale, 249 – indotto, 285 – doppio, 284 – aumentato, 286 – di Mayer-Vietoris, 289 Componente – identica, 128 – omogenea di un tensore, 19
457
Componenti – di un tensore rispetto ad una base, 19 Coniugio, 97, 100, 402 Connessione, 316, 330 – compatibile con la metrica, 344 – di Levi-Civita, 348, 381, 402 – invariante a sinistra, 400 – lineare, 317 – non lineare, 331 – piatta, 317 – riferita proiettivamente, 406 – simmetrica, 346 Contrazione, 22, 52, 210 Convenzione di Einstein, 336 Convesso, geodeticamente strettamente, 408 Coomologia, 249, 285 – a supporto compatto verticale, 306 – a supporto compatto, 263 ˇ – di Cech, 292, 296, 298 – di de Rham, 227 – di de Rham relativa, 309, 310 Coordinate – di Darboux, 363 – locali, 60 – normali, 381 – omogenee, 70 – sferiche, 70 Costante di struttura, 162 Crit(F ), 95 Curva – integrale, 154 – localmente minimizzante, 385 – minimizzante, 385 – periodica, 196 – principale, 386 – regolare a tratti, 383 – trasversa, 386 Curvatura – di Ricci, 419 – media, 444 – principale, 444 – scalare, 419 – sezionale, 412, 416, 417, 437 – costante, 418, 427, 431, 432 – non positiva, 427 – positiva, 440
458
Indice analitico
D, 322, 325 d, 225 d(p, q), 383 ∂Bε (p), 381 ∂/∂r, 390 ∂/∂v, 82 ∂/∂xj , 82 ∂j , 83 deg F , 304 Delta di Kronecker, 2 Densit` a, 238 – positiva, 238 Derivata – covariante, 317, 322 – covariante totale, 334 – di Lie, 158, 198 – logaritmica destra, 409 – logaritmica sinistra, 409 – parziale, 82 Derivazione, 82, 152 det(L), 49 Determinante, 49 dFp , 83 dF (X), 159 Diagonale, 308 Diffeomorfismo, 75 – locale, 79 – che conserva l’orientazione, 216 – che inverte l’orientazione, 216 Differenziale, 83, 249 – esterno, 225 Dimensione, 2, 61, 64, 70, 178, 228 – complessa, 65 Direzione principale, 444 Distanza – completa, 396 – Riemanniana, 383, 407 Distribuzione, 175 – completamente integrabile, 176 – integrabile, 175 – involutiva, 175 – liscia, 175 div, 334 Divergenza, 334 Dominio – dell’applicazione esponenziale, 379 – regolare, 229 Duale di Poincar´e, 304 Dualit` a, 35, 51 – di Poincar´e, 274
Ep , 134 E, 379 EM , 294 Ep , 379 E(σ), 320 Elemento di volume, 212 Embedding, 90 – isometrico, 340 Endomorfismo – di curvatura, 413 – di forma, 443 End(V ), 1 Energia, 406 Equazione – di Cartan, 365, 448 – di Codazzi-Mainardi, 444 – di Gauss, 444 – di Jacobi, 423 Equivalenza – conforme, 367 – omotopica, 261 Esaustione, 108 Esponenziale, 97, 128, 165, 166 Estensione, 202 – parallela, 323 – per multilinearit` a, 9 exp, 165, 379 expp , 379 F ∗ g, 339 Fp∗ , 81 (F∗ )p , 83 Fascio, 294 – banale, 294 – costante, 294 – dei germi di funzioni differenziabili, 294 Fetta, 176 Fibra, 120, 134 – tipica, 184 Fibrato, 184 – associato, 192 – banale, 135 – cotangente, 140 – dei kl -tensori, 141 – dei riferimenti, 190 – delle r-forme, 141 – delle densit` a, 238 – duale, 193 – immagine inversa, 143 – in rette, 135
Indice analitico – indotto, 143 – normale, 142 – orizzontale, 327, 329 – lineare, 329 – principale, 188 – prodotto tensoriale, 143 – pull-back, 143, 204 – quoziente, 193 – somma diretta, 143 – tangente, 139 – verticale, 149, 205, 327, 331 – vettoriale, 134 – complesso, 135 – orientabile, 236 Flusso – geodetico, 379 – locale, 156, 360 Foglia, 178 Foliazione, 178 Forma – a supporto compatto, 263 – anti autoduale, 371 – autoduale, 371 – biinvariante, 237 – bilineare – degenere, 10 – non degenere, 10 – simmetrica, 10 – che annichila, 241 – chiusa, 226 – coomologa, 227 – di connessione, 326 – di contatto, 364 – di curvatura, 448 – di definizione locale, 241 – di Haar, 238 – di Morse, 434 – di torsione, 365 – di volume, 212 – Riemanniano, 354 – differenziale, 144 – a valori in un fibrato, 325 – esatta, 226 – invariante a destra, 237 – invariante a sinistra, 237 – lineare, 2 – multilineare, 8 – simplettica, 357 – standard, 357 – tautologica, 357
459
Formula – di Baker-Campbell-Hausdorff, 409 – di Cartan, 241 – di Weingarten, 442 Funtore controvariante, 4 Funzione – armonica, 370 – di definizione, 229 – di raffinamento, 297 – di transizione, 136, 185, 188 – differenziabile – su un compatto, 105 – omogenea, 148 – semicontinua inferiormente, 405 – strettamente convessa, 394 G(k, n), 71 Gk (V ), 71 gl(n, K), 161 GL(n, C), 67 GL(n, R), 66 GL(V ), 66 G(p), 100 Gp , 100 Gp (V ), 53 G-atlante, 188 G-fibrato, 188 G-spazio, 99 G-struttura, 188 Geodetica, 376 – massimale, 377 – radiale, 381 Geodeticamente convesso, 394 Germe, 80, 295 grad, 355 Gradiente, 355 Grado, 144, 248, 304 Grafico, 65, 92 Grassmanniana, 53, 71 Gruppo – di coomologia, 249 – di isotropia, 100 – di Lie, 96, 402, 403 – di struttura, 188 – discreto, 96 – generale lineare, 66 – generale lineare complesso, 67 – graduato, 248 – ortogonale, 75, 99 – simmetrico, 23 – simplettico, 202
460 – – – – – –
Indice analitico speciale lineare, 74, 99 speciale lineare complesso, 75 speciale ortogonale, 75 speciale unitario, 75 unimodulare, 237 unitario, 75
H, 327 H, 195 Hn , 227 n HR , 342 H ⊥ , 34 H • (M ), 227 Hc• (M ), 263 • (K), 285 HD ˇ H • (U, F), 296 ˇ • (U, R), 292 H ˇ • (X, F), 298 H H k (C), 249 H k (M ), 227 Hamiltoniana, 373 Hd -coomologia, 310 Hessiano, 334 H-linearit`a, 202 Hom(V, W ), 1 p (D), 241 IM iv , 22 iX , 210 II, 441 Ideale, 242, 409 Identit` a – di Bianchi, 414, 447 – di Green, 370 – di Jacobi, 157, 161 – di Ricci, 447 Immersione, 90, 94 – coisotropa, 357 – isometrica, 340 – isotropa, 357 – Lagrangiana, 357 – simplettica, 357 injrad(C), 381 injrad(p), 381 Insieme – cofinale, 283 – di livello, 95 – di misura zero, 109, 110 – diretto, 283 – duale, 5
Integrale, 220 – primo, 374 – su sottovariet` a, 221 Interno, 227, 228 Int(M ), 228 Intorno – ben rivestito, 79 – normale, 381 – tubolare, 302 Iperboloide, 341 Ipersuperficie, 91 – di livello, 73 Iso(M ), 339 Isometria, 338 – locale, 338 Isomorfismo, 97, 135, 294 – di Thom, 306 J0 (σ), 423 J (σ), 423 K, 416 KS, 41 L∗ , 4 L(F ), 308 Lg , 97 L(σ), 383 LX , 158, 198 Laplaciano, 353 Lemma – dei cinque, 272 – di Gauss, 389 – di Poincar´e, 258, 269 – di Synge, 446 Limite – diretto, 295 – induttivo, 295 – inverso, 311 – proiettivo, 311 Lunghezza – d’arco, 383 – di una curva, 383 Luogo di taglio, 449 M/G, 100 Mm,n (K), 2 M1 ×N M2 , 187 Metrica – bi-invariante, 343 – conformemente equivalente, 367
Indice analitico – di Einstein, 419 – di Lorentz, 336 – di Minkowski, 337 – euclidea, 337 – indotta, 339 – invariante a destra, 343, 403 – invariante a sinistra, 343 – lungo le fibre, 356 – piatta, 337 – prodotto, 337 – pseudo-Riemanniana, 336 – pull-back, 339 – Riemanniana, 335 – sferica, 341 Moltiplicatori di Lagrange, 127 Moltiplicazione interna, 22, 210 Morfismo, 135, 161, 248, 294, 310 – di cocatene, 249 – di connessione, 253 – di fibrati, 135 – graduato, 248 – indotto, 250 Mult(V1 , . . . , Vp ), 8 Mult(V1 , . . . , Vp ; W ), 8 Multp (V ), 8 Multp (V ; W ), 8 N (M ), 441 N0 (σ), 434 Nastro di M¨ obius, 235 Nucleo, 10 – destro, 10 – sinistro, 10 Numero – di Betti, 227 – di Lefschetz, 308
O, 195 Op , 134 O(n), 75 o(n), 164 O(n, 1), 366 Olonomia, 323 Omomorfismo, 97 Omotopia, 255 – liscia, 260 Operatore – d’omotopia, 255 – di antisimmetrizzazione, 26 – di estensione, 264 – di forma, 442
461
– di Hodge, 371 – di Ricci, 419 – di simmetrizzazione, 26 – differenza, 40 Orbita, 100 Ordine – di un punto coniugato, 424 – lessicografico, 14 Orientazione, 211, 438 – indotta, 214, 230 Ortogonale, 34, 35 Ottetti di Cayley, 196
P(E), 235 P(V ), 42, 70 Pn (C), 70 Pn (R), 70 P [S, θ], 192 Palla, 67 – di Poincar´e, 342 – geodetica, 381 Paracompattezza, 107 Parametrizzazione – locale, 60 – per lunghezza d’arco, 383 Parentesi – di Lie, 157 – di Poisson, 374 Partizione dell’unit` a, 106, 107 – subordinata, 106 Periodo, 197 Policilindro, 274 Polinomio, 39 – omogeneo, 39 p-piano, 30 Prefascio, 293 Prima variazione della lunghezza d’arco, 388 Principio di Mayer-Vietoris, 290 Prodotto – alternante, 27 – anticommutativo, 208 – cup, 248, 313 – di Kronecker, 43 – diretto, 3 – diretto di applicazioni, 3 – esterno, 26, 208 – esterno di applicazioni, 49 – fibrato, 187 – graduato, 208 – scalare, 10
462
Indice analitico
– simmetrico, 27 – tensore, 20 – tensoriale, 12, 40, 278 – tensoriale di applicazioni, 18 – vettoriale, 52 Proiettivizzato, 235 Proiezione – lungo un sottospazio, 36 – stereografica, 68 Propriet` a universale – dell’algebra esterna, 48 – dell’algebra simmetrica, 56 – del prodotto diretto, 3 – del prodotto tensoriale, 12 – della somma diretta, 6 – dello spazio vettoriale libero, 41 Pull-back, 81, 198, 209, 250 Punto – coniugato, 424 – critico, 73, 95 – del funzionale lunghezza, 389 – di taglio, 449 – regolare, 171 – singolare, 171 Qp , 415 Quaternione, 195 – immaginario, 195 R, 413 Rg , 97 RXY , 413 Raffinamento, 106 Raggio, 67 – di convessit` a, 408 – di iniettivit` a, 381 Rango, 10, 90, 134 Rappresentante, 80 Rappresentazione, 100 – aggiunta, 237, 402 Regola di Leibniz, 82, 152, 317, 321 Relazioni di Grassmann, 55 Restrizione, 135, 192, 293 Retratto – di deformazione liscio, 261 – liscio, 261 Retrazione, 128, 261 – di deformazione liscia, 261 rg(Φ), 10 Ric(X, Y ), 418
Ricoprimento, 106 – aciclico, 282, 284 – aperto, 106 – di Leray, 282 – localmente finito, 106 Riferimento – globale, 146 – locale, 146, 175 Rivestimento, 79 – normale, 130 – universale, 79 rot, 355 Rotore, 355 S, 442 S, 26 S n , 67 n SR , 67 Sp , 23 S(n, R), 99 S(s, t), 386 s(t), 383 S(V ), 26 S p (V ), 23 Sp (V ), 23 SL(n, C), 75 SL(n, R), 75 sl(n, C), 164 sl(n, R), SO(n, R), 75 Sp(n), 202 sp(n), 202 Sp(n, C), 202 Sp(n, R), 202 sp(n, R), 202 SU (n), 75 su(n, C), 201 Seconda forma fondamentale, 441 Seconda variazione della lunghezza d’arco, 433 Sedenioni, 196 Segnatura, 336 Segno di una permutazione, 23 Semigruppo a un parametro, 404 Semispazio – di Poincar´e, 342 – superiore, 227 Sezione, 120, 144, 293, 320 – estendibile, 320 – globale, 144, 294 – locale, 120, 144, 175
Indice analitico – nulla, 144 – parallela, 322 Sfera, 67, 74, 430 – geodetica, 381 sgn, 23 Simboli di Christoffel, 320 Simbolo di Kronecker, 2 Simmetria infinitesimale, 374 Simmetrizzazione, 26 Simplettomorfismo, 357 Sistema – diretto di gruppi, 295 – Hamiltoniano, 373 164 Somma – connessa, 301 – diretta, 5 – di applicazioni, 6 Sommersione, 90, 94 Sottoalgebra, 163 Sottofibrato, 193 Sottogruppo – a un parametro, 164 – generato, 165 – di Lie, 98, 168 – normale, 409 – regolare, 98 Sottospazio – coisotropo, 31 – isotropo, 31, 57 – Lagrangiano, 31, 57 – simplettico, 31, 57 Sottovariet` a, 91 – coisotropa, 357 – immersa, 91 – integrale, 175 – isotropa, 357 – Lagrangiana, 357 – piatta, 448 – simplettica, 357 – totalmente geodetica, 448 – trasversa, 126 Spazio – delle orbite, 100 – duale, 2 – ´etal´e, 312 – euclideo, 430 – iperbolico, 343, 407 – omogeneo, 100 – proiettivo, 42, 70, 215 – complesso, 70, 71
463
– reale, 70, 71 – simplettico, 30 – tangente, 82 – del tangente, 148 – tensoriale, 22 – totale, 134, 184 – vettoriale – libero, 41 – graduato, 248 Spiga, 80, 295 Struttura – differenziabile, 61 – indotta, 91 Successione – di Mayer-Vietoris, 254 – a supporto compatto, 265 – divergente all’infinito, 120 – esatta, 250 – corta, 250 – lunga, 253, 309, 310 Suddivisione associata a una variazione, 386 Supporto, 104, 218
Tn , 70 T (L), 20 T (s, t), 386 T (σ), 320, 386 T • (V ), 19 T• (V ), 19 T (V ), 19 T ∗ M , 140 T 0 (V ), 19 T0 (V ), 19 T00 (V ), 19 T10 (V ), 19 T 1 (V ), 19 T1 (V ), 19 T01 (V ), 19 Tlk M , 141 Tlk (M ), 145 T p (V ), 19 T0p (V ), 19 Tp M , 82 Tqp (V ), 19 Tq (V ), 19 Tq0 (V ), 19 T M , 139 T (M ), 144 T (M, EM ), 441
464
Indice analitico
Tensore, 12, 19, 145 – alternante, 23 – controvariante, 19 – covariante, 19 – decomponibile, 12, 53 – di curvatura, 413 – di Ricci, 418 – di tipo pq , 19 – parallelo, 334 – simmetrico, 23 – simplettico, 30 Teorema – del rango, 93, 94 – della divergenza, 369 – della funzione inversa, 73, 89 – della sfera, 437 – di Ado, 183 – di approssimazione di Whitney, 303 – di Bonnet-Myers, 436, 450 – di Cartan-Hadamard, 426 – di Darboux, 362 – di de Rham, 262, 300 – di Frobenius globale, 180 – di Frobenius locale, 176 – di Hopf-Rinow, 396 – di invarianza della dimensione, 63, 302 – di K¨ unneth, 279 – di Lefschetz, 309 – di Leray-Hirsch, 306 – di Levi-Civita, 347 – di Myers-Steenrod, 340 – di Nash, 340 – di Noether, 374 – di Poincar´e-Hopf, 309 – di Sard, 73, 111 – di Stokes, 231 – di Synge, 440 – di Weinstein, 438 – di Whitehead, 395 – di Whitney, 114 Tipo – pq , 19 – di un tensore, 19 – di una contrazione, 22 Topologia indotta, 63 Toro, 70 Torsione, 346 tr, 45, 352 Traccia, 45, 352
Traiettoria, 154 Trasformazione di gauge, 204 Traslazione – destra, 97 – sinistra, 97, 100 Trasporto parallelo, 323, 427 n , 341 UR U (n), 75 u(n), 164 Uniformemente normale, 381
V, 327 V ⊥ , 10 V ∗, 2 V ∗∗ , 2 V C , 15 V E, 205 V1 ⊗ · · · ⊗ Vp , 12 v1 ⊗ · · · ⊗ vp , 12 Valore – critico, 73, 95 – regolare, 73, 95 Variazione, 386 – geodetica, 421 – propria, 386 Variet` a, 61 – analitica reale, 64 – complessa, 65 – con bordo, 228 – conformi, 367 – contraibile, 261 – di Brieskorn, 78, 118 – di classe C ∞ , 61 – di classe C k , 64 – di classe C r , 76 – di contatto, 364 – di Einstein, 419 – di Grassmann, 53, 71 – di Segre, 43 – di tipo finito, 282 – differenziabile, 61, 64 – isometrica, 338 – isotropa, 339 – localmente conformemente piatta, 367 – localmente conformi, 367 – localmente isometrica, 338 – omogenea, 339 – orientabile, 211 – orientata, 211, 229
Indice analitico – – – –
parallelizzabile, 195 prodotto, 65, 77 pseudo-Riemanniana, 336 Riemanniana, 335 – completa, 399 – semplicemente connessa, 431 – senza bordo, 228 – simplettica, 357 – topologica, 65, 76 Vettore – tangente, 82 – esterno, 243 – interno, 243
volν (M ), 220 Volume, 220 W (J) , 6 WJ, 3 W n1 ,...,np , 8 Xf , 373 Z k (C), 249 Z k (M ), 226
465
Collana Unitext – La Matematica per il 3+2 A cura di: A. Quarteroni (Editor-in-Chief) L. Ambrosio P. Biscari C. Ciliberto G. Rinaldi W.J. Runggaldier Editor in Springer: F. Bonadei [email protected] Volumi pubblicati. A partire dal 2004, i volumi della serie sono contrassegnati da un numero di identificazione. I volumi indicati in grigio si riferiscono a edizioni non più in commercio. A. Bernasconi, B. Codenotti Introduzione alla complessità computazionale 1998, X+260 pp, ISBN 88-470-0020-3 A. Bernasconi, B. Codenotti, G. Resta Metodi matematici in complessità computazionale 1999, X+364 pp, ISBN 88-470-0060-2 E. Salinelli, F. Tomarelli Modelli dinamici discreti 2002, XII+354 pp, ISBN 88-470-0187-0 S. Bosch Algebra 2003, VIII+380 pp, ISBN 88-470-0221-4 S. Graffi, M. Degli Esposti Fisica matematica discreta 2003, X+248 pp, ISBN 88-470-0212-5 S. Margarita, E. Salinelli MultiMath - Matematica Multimediale per l’Università 2004, XX+270 pp, ISBN 88-470-0228-1
A. Quarteroni, R. Sacco, F.Saleri Matematica numerica (2a Ed.) 2000, XIV+448 pp, ISBN 88-470-0077-7 2002, 2004 ristampa riveduta e corretta (1a edizione 1998, ISBN 88-470-0010-6) 13. A. Quarteroni, F. Saleri Introduzione al Calcolo Scientifico (2a Ed.) 2004, X+262 pp, ISBN 88-470-0256-7 (1a edizione 2002, ISBN 88-470-0149-8) 14. S. Salsa Equazioni a derivate parziali - Metodi, modelli e applicazioni 2004, XII+426 pp, ISBN 88-470-0259-1 15. G. Riccardi Calcolo differenziale ed integrale 2004, XII+314 pp, ISBN 88-470-0285-0 16. M. Impedovo Matematica generale con il calcolatore 2005, X+526 pp, ISBN 88-470-0258-3 17. L. Formaggia, F. Saleri, A. Veneziani Applicazioni ed esercizi di modellistica numerica per problemi differenziali 2005, VIII+396 pp, ISBN 88-470-0257-5 18. S. Salsa, G. Verzini Equazioni a derivate parziali – Complementi ed esercizi 2005, VIII+406 pp, ISBN 88-470-0260-5 2007, ristampa con modifiche 19. C. Canuto, A. Tabacco Analisi Matematica I (2a Ed.) 2005, XII+448 pp, ISBN 88-470-0337-7 (1a edizione, 2003, XII+376 pp, ISBN 88-470-0220-6) 20. F. Biagini, M. Campanino Elementi di Probabilità e Statistica 2006, XII+236 pp, ISBN 88-470-0330-X
21. S. Leonesi, C. Toffalori Numeri e Crittografia 2006, VIII+178 pp, ISBN 88-470-0331-8 22. A. Quarteroni, F. Saleri Introduzione al Calcolo Scientifico (3a Ed.) 2006, X+306 pp, ISBN 88-470-0480-2 23. S. Leonesi, C. Toffalori Un invito all’Algebra 2006, XVII+432 pp, ISBN 88-470-0313-X 24. W.M. Baldoni, C. Ciliberto, G.M. Piacentini Cattaneo Aritmetica, Crittografia e Codici 2006, XVI+518 pp, ISBN 88-470-0455-1 25. A. Quarteroni Modellistica numerica per problemi differenziali (3a Ed.) 2006, XIV+452 pp, ISBN 88-470-0493-4 (1a edizione 2000, ISBN 88-470-0108-0) (2a edizione 2003, ISBN 88-470-0203-6) 26. M. Abate, F. Tovena Curve e superfici 2006, XIV+394 pp, ISBN 88-470-0535-3 27. L. Giuzzi Codici correttori 2006, XVI+402 pp, ISBN 88-470-0539-6 28. L. Robbiano Algebra lineare 2007, XVI+210 pp, ISBN 88-470-0446-2 29. E. Rosazza Gianin, C. Sgarra Esercizi di finanza matematica 2007, X+184 pp,ISBN 978-88-470-0610-2 30. A. Machì Gruppi - Una introduzione a idee e metodi della Teoria dei Gruppi 2007, XII+350 pp, ISBN 978-88-470-0622-5 2010, ristampa con modifiche
31 Y. Biollay, A. Chaabouni, J. Stubbe Matematica si parte! A cura di A. Quarteroni 2007, XII+196 pp, ISBN 978-88-470-0675-1 32. M. Manetti Topologia 2008, XII+298 pp, ISBN 978-88-470-0756-7 33. A. Pascucci Calcolo stocastico per la finanza 2008, XVI+518 pp, ISBN 978-88-470-0600-3 34. A. Quarteroni, R. Sacco, F. Saleri Matematica numerica (3a Ed.) 2008, XVI+510 pp, ISBN 978-88-470-0782-6 35. P. Cannarsa, T. D’Aprile Introduzione alla teoria della misura e all’analisi funzionale 2008, XII+268 pp, ISBN 978-88-470-0701-7 36. A. Quarteroni, F. Saleri Calcolo scientifico (4a Ed.) 2008, XIV+358 pp, ISBN 978-88-470-0837-3 37. C. Canuto, A. Tabacco Analisi Matematica I (3a Ed.) 2008, XIV+452 pp, ISBN 978-88-470-0871-3 38. S. Gabelli Teoria delle Equazioni e Teoria di Galois 2008, XVI+410 pp, ISBN 978-88-470-0618-8 39. A. Quarteroni Modellistica numerica per problemi differenziali (4a Ed.) 2008, XVI+560 pp, ISBN 978-88-470-0841-0 40. C. Canuto, A. Tabacco Analisi Matematica II 2008, XVI+536 pp, ISBN 978-88-470-0873-1 2010, ristampa con modifiche
41. E. Salinelli, F. Tomarelli Modelli Dinamici Discreti (2a Ed.) 2009, XIV+382 pp, ISBN 978-88-470-1075-8 42. S. Salsa, F.M.G. Vegni, A. Zaretti, P. Zunino Invito alle equazioni a derivate parziali 2009, XIV+440 pp, ISBN 978-88-470-1179-3 43. S. Dulli, S. Furini, E. Peron Data mining 2009, XIV+178 pp, ISBN 978-88-470-1162-5 44. A. Pascucci, W.J. Runggaldier Finanza Matematica 2009, X+264 pp, ISBN 978-88-470-1441-1 45. S. Salsa Equazioni a derivate parziali – Metodi, modelli e applicazioni (2a Ed.) 2010, XVI+614 pp, ISBN 978-88-470-1645-3 46. C. D’Angelo, A. Quarteroni Matematica Numerica – Esercizi, Laboratori e Progetti 2010, VIII+374 pp, ISBN 978-88-470-1639-2 47. V. Moretti Teoria Spettrale e Meccanica Quantistica – Operatori in spazi di Hilbert 2010, XVI+704 pp, ISBN 978-88-470-1610-1 48. C. Parenti, A. Parmeggiani Algebra lineare ed equazioni differenziali ordinarie 2010, VIII+208 pp, ISBN 978-88-470-1787-0 49. B. Korte, J. Vygen Ottimizzazione Combinatoria. Teoria e Algoritmi 2010, XVI+662 pp, ISBN 978-88-470-1522-7 50. D. Mundici Logica: Metodo Breve 2011, XII+126 pp, ISBN 978-88-470-1883-9 51. E. Fortuna, R. Frigerio, R. Pardini Geometria proiettiva. Problemi risolti e richiami di teoria 2011, VIII+274 pp, ISBN 978-88-470-1746-7
52. C. Presilla Elementi di Analisi Complessa. Funzioni di una variabile 2011, XII+324 pp, ISBN 978-88-470-1829-7 53. L. Grippo, M. Sciandrone Metodi di ottimizzazione non vincolata 2011, XIV+614 pp, ISBN 978-88-470-1793-1 54. M. Abate, F. Tovena Geometria Differenziale 2011, XIV+466 pp, ISBN 978-88-470-1919-5 La versione online dei libri pubblicati nella serie è disponibile su SpringerLink. Per ulteriori informazioni, visitare il sito: http://www.springer.com/series/5418