An´ alisis Funcional vs. Matricial Demetrio Stojanoff December 3, 2010
´Indice I
An´ alisis funcional b´ asico
6
1 ...
32 downloads
996 Views
2MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
An´ alisis Funcional vs. Matricial Demetrio Stojanoff December 3, 2010
´Indice I
An´ alisis funcional b´ asico
6
1 Espacios normados 1.1 Normas de vectores, funcionales y operadores. 1.2 Ejemplos m´as famosos. . . . . . . . . . . . . . 1.3 C´alculo de algunos duales. . . . . . . . . . . . 1.4 El lema de Riesz. . . . . . . . . . . . . . . . . 1.5 Isomorfismos. . . . . . . . . . . . . . . . . . . 1.6 Subespacios finitodimensionales. . . . . . . . . 1.7 Cocientes. . . . . . . . . . . . . . . . . . . . . 1.8 Algunos ejemplos de operadores. . . . . . . . . 1.9 Ejercicios del Cap. 1 - Espacios Normados . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
7 7 15 21 24 26 28 30 33 37
2 Funcionales y Operadores 2.1 Hahn Banach: El dual es grande. . . . . . . . . 2.2 Recordando Baires. . . . . . . . . . . . . . . . . 2.3 Teorema de la imagen abierta. . . . . . . . . . . 2.4 Teorema del gr´afico cerrado. . . . . . . . . . . . 2.5 Principio de acotaci´on uniforme. . . . . . . . . . 2.6 Dualidad y adjuntos. . . . . . . . . . . . . . . . 2.7 Proyectores y subespacios complementados . . . 2.8 Ejercicios del Cap. 2 - Funcionales y Operadores
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
46 46 52 54 57 58 62 68 75
. . . . . . . .
83 83 85 89 90 94 98 101 104
3 Espacios de Hilbert 3.1 Preliminares. . . . . . . . . . . . . . . . 3.2 Ortogonalidad. . . . . . . . . . . . . . . 3.3 P Teorema de representaci´on de Riesz. . . 3.4 i∈I . . . . . . . . . . . . . . . . . . . . 3.5 Bases ortonormales. . . . . . . . . . . . . 3.6 Stone-Weierstrass . . . . . . . . . . . . . 3.7 Series de Fourier. . . . . . . . . . . . . . 3.8 Ejercicios del Cap. 3 - Espacio de Hibert
1
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
4 Operadores en espacios de Hilbert 4.1 El adjunto. . . . . . . . . . . . . . 4.2 Clases de operadores. . . . . . . . . 4.3 Positivos. . . . . . . . . . . . . . . 4.4 Descomposici´on polar. . . . . . . . 4.5 Subespacios invariantes y matrices . 4.6 Operadores de rango finito. . . . . 4.7 Ejercicios del Cap 4: Operadores en
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
108 108 113 116 122 127 131 135
5 Espacios localmente convexos 5.1 Seminormas . . . . . . . . . . . . . . . . . . . . . 5.2 Espacios localmente convexos. . . . . . . . . . . . 5.3 Hahn Banach versi´on separaci´on . . . . . . . . . . 5.4 Krein-Milman . . . . . . . . . . . . . . . . . . . . 5.5 Topolog´ıas d´ebiles en espacios normados y ELC’s 5.6 Alaoglu . . . . . . . . . . . . . . . . . . . . . . . 5.7 Una caracterizaci´on de la reflexividad . . . . . . . 5.8 Miscel´anea . . . . . . . . . . . . . . . . . . . . . . 5.9 Ejercicios del Cap 5: ELC’s . . . . . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
141 141 146 148 149 152 157 160 161 163
6 Espectro ´ 6.1 Algebras de Banach . . . . . . . . . . . . 6.2 Ejemplos y ejercicios . . . . . . . . . . . 6.2.1 El espectro depende del a´lgebra . 6.2.2 Gelfand . . . . . . . . . . . . . . 6.3 Espectro de operadores . . . . . . . . . . 6.4 Espectro de autoadjuntos . . . . . . . . . 6.5 C´alculo funcional continuo . . . . . . . . 6.6 Propiedades de la ra´ız cuadrada positiva 6.7 Ejercicios del Cap. 6 - Espectro . . . . .
. . . . . . . . . . . . . . . . . . EH’s
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
166 166 173 175 176 178 181 185 193 197
7 Operadores compactos 7.1 Definiciones y equivalencias . . . . . . . . . . 7.2 Fredholm inicia . . . . . . . . . . . . . . . . . 7.3 Espectro de compactos . . . . . . . . . . . . . 7.4 Representaciones espectrales . . . . . . . . . . 7.5 Fredholm sigue . . . . . . . . . . . . . . . . . 7.6 La traza . . . . . . . . . . . . . . . . . . . . . 7.7 Ejercicios del Cap. 7 - Operadores compactos
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
205 205 210 212 215 221 224 238
2
. . . . . . . . .
. . . . . . . . .
II
Teor´ıa Matricial de Operadores
´ 8 Angulos entre subespacios. 8.1 Preliminares y Notaciones ´ 8.2 Angulos . . . . . . . . . . 8.3 Seudoinversas . . . . . . . 8.4 M´odulo m´ınimo . . . . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
244 . . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
245 245 247 251 254
9 Complementos de Schur de operadores positivos 9.1 Factorizaci´on e inclusiones de rangos. . . . . . . . 9.2 Operadores definidos positivos. . . . . . . . . . . 9.3 Shorted de un operador. . . . . . . . . . . . . . . 9.4 Rango y N´ ucleo de los operadores shorted. . . . . 9.5 Otras caracterizaciones del Shorted. . . . . . . . . 9.6 Convergencia. . . . . . . . . . . . . . . . . . . . . 9.7 La ecuaci´on X = A − B ∗ X −1 B. . . . . . . . . . . 9.8 Ejercicios . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
260 260 262 265 267 269 272 273 277
10 Rango y Radio Num´ ericos 10.1 Definiciones y propiedades b´asicas . . 10.2 El Teorema de Hausdorff T¨oeplitz . . 10.3 Caracterizaciones del radio num´erico 10.4 Comparaci´on con NUI’s . . . . . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
279 279 280 285 289
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
11 Normas unitariamente invariantes para operadores compactos 293 11.1 Normas unitariamente invariantes . . . . . . . . . . . . . . . . . . . . . . . . 294 12 Productos escalares torcidos 12.1 Proyectores A-autoadjuntos y compatibilidad . 12.2 Caracterizaciones de la compatibilidad . . . . 12.3 Complementos de Schur . . . . . . . . . . . . 12.4 El caso R(A) v H . . . . . . . . . . . . . . . . 12.5 El caso de dos proyectores . . . . . . . . . . . 12.6 El caso A inyectivo . . . . . . . . . . . . . . . 12.7 La proyecci´on minimal . . . . . . . . . . . . . 12.8 Algunos ejemplos . . . . . . . . . . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
298 298 301 305 308 310 311 312 317
13 Proyectores escaleados 322 13.1 Problemas de cuadrados m´ınimos y proyecciones A-autoadjuntas. . . . . . . 322 13.2 Proyecciones escaleadas en dimensi´on infinita. . . . . . . . . . . . . . . . . . 329 13.3 Caracterizaciones de la B-compatibilidad . . . . . . . . . . . . . . . . . . . . 334
3
III
Marcos
337
14 Frames 14.1 Nociones B´asicas . . . . . . . . . . . . . . 14.2 Perturbaciones de frames . . . . . . . . . . 14.3 Proyecciones y frames . . . . . . . . . . . 14.3.1 Proyecciones ortogonales . . . . . . 14.3.2 Proyecciones Oblicuas . . . . . . . 14.4 Frames de Riesz y de Riesz condicionados 14.4.1 Frames de Riesz . . . . . . . . . . . 14.4.2 Un contraejemplo: . . . . . . . . . ´ 14.4.3 Angulos entre columnas . . . . . . 14.5 Yo me borro . . . . . . . . . . . . . . . . . 14.5.1 Excesos y Borrados . . . . . . . . . 14.5.2 Frames que contienen bases Riesz . 14.6 Truncaciones . . . . . . . . . . . . . . . . 14.7 Marcos de Gabor. . . . . . . . . . . . . . . 14.7.1 Motivaciones . . . . . . . . . . . . 14.7.2 Algunos resultados . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
338 338 340 343 343 344 347 347 351 352 357 357 361 364 366 366 367
15 Marcos de fusi´ on 15.1 Introducci´on . . . . . . . . . . . . . . . . 15.2 Nociones b´asicas . . . . . . . . . . . . . 15.3 Marcos de fusi´on y operadores . . . . . . 15.4 Pesos Admisibles. . . . . . . . . . . . . . 15.5 Proyectores y marcos de subespacios. . . 15.6 Refinamientos de marcos de subespacios. 15.7 Ejemplos. . . . . . . . . . . . . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
371 371 372 374 378 381 383 386
IV
. . . . . . .
Resultados Preliminares
A Topolog´ıa A.1 Definiciones b´asicas . . . . . A.2 Cerrados, l´ımites y clausuras A.3 Bases y sub-bases . . . . . . A.3.1 Topolog´ıa inducida . A.4 Clases de ET’s . . . . . . . A.4.1 Numerabilidad . . . A.4.2 Separaci´on . . . . . . A.4.3 Herencias . . . . . . A.5 Continuidad b´asica . . . . . A.6 Redes y subredes . . . . . . A.7 Convergencia . . . . . . . .
. . . . . . . . . . .
399 . . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . . 4
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
400 400 402 404 406 407 407 408 412 412 415 418
A.8 Sucesiones en espacios N1 . . . . . . . . . . . A.9 Conexos . . . . . . . . . . . . . . . . . . . . . A.10 Productos y cocientes . . . . . . . . . . . . . . A.10.1 Topolog´ıa inicial . . . . . . . . . . . . A.10.2 Topolog´ıa producto . . . . . . . . . . . A.10.3 Topolog´ıa final . . . . . . . . . . . . . A.10.4 Cocientes . . . . . . . . . . . . . . . . A.11 Espacios m´etricos completos . . . . . . . . . . A.12 Compactos . . . . . . . . . . . . . . . . . . . . A.13 Compactos en EM’s . . . . . . . . . . . . . . . A.14 Compactificaci´on de Alexandrov: Un punto . . A.15 Espacios localmente compactos . . . . . . . . ˇ A.16 Stone Cech . . . . . . . . . . . . . . . . . . . A.17 M´etricas uniformes en C(X, Y ), con Y un EM A.18 Teoremas de Baire . . . . . . . . . . . . . . .
5
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
421 423 424 424 425 430 431 433 435 439 440 442 443 446 448
Parte I An´ alisis funcional b´ asico
6
Cap´ıtulo 1 Espacios normados Llamemos K = R o C. Un espacio vectorial topol´ ogico (EVT) es un espacio topol´ogico (E, τ ) en el que E es un K-espacio vectorial, y la topolog´ıa τ es de Hausdorff y cumple que las operaciones vectoriales E × E 3 (x, y) 7→ x + y ∈ E
y
C × E 3 (λ , x) 7→ λ x ∈ E
(1.1)
son continuas, cuando en E × E y en C × E se usan las topolog´ıas producto. En particular esto hace que, para cada x ∈ E fijo, las aplicaciones Tx : E → E dada por Tx (y) = x + y y
Mx : C → E
dada por
Mx (λ) = λ x
(1.2)
sean continuas. Observar que cada Tx es un h´omeo, con inversa T−x . Esto dice que, fijado un x ∈ E, podemos calcular siempre los entornos de x como def Oτ (x) = x + Oτ (0) = x + U = Tx (U ) : U ∈ Oτ (0) . O sea que para dar una topolog´ıa de EVT, basta con conocer una base (o sub-base) de entornos del cero de E.
1.1
Normas de vectores, funcionales y operadores.
Veremos en principio los ejemplos de EVT’s dados por una m´etrica. En el contexto de espacios vectoriales, interesan particularmante las m´etricas d que cumplen dos condiciones de compatibilidad con la estructura: Fijado el par (E, d), donde E es un K-EV y d una m´etrica en E, se pide que para todo λ ∈ K y todos los vectores x, y, z ∈ E se cumpla • Que d sea invariante por translaciones, o sea que d(x + z , y + z) = d(x , y) . • Que sea homog´enea: d(λ x , λ y) = |λ| d(x , y) . Estas m´etricas se definen a traves de la noci´on de norma en el espacio vectorial. 1.1.1. Fijemos un K-espacio vectorial E. Diremos que una funci´on k · k : E → R+ es 7
1. Una norma, si cumple que (a) kαxk = |α| kxk
(α ∈ K, x ∈ E).
(b) kx + yk ≤ kxk + kyk
(x, y ∈ E).
(c) Dado x ∈ E , se tiene que kxk = 0 si y s´olo si x = 0. La m´etrica resultante se define como d (x, y) = kx − yk, para x, y ∈ E. 2. En tal caso, el par (E, k · k) pasa a llamarse una espacio normado (shortly: EN). 3. El par (E, k · k) se llamar´a espacio de Banach (adivinen: EB) si la m´etrica d hace de E un EM completo (mirar antes la Prop. 1.1.2 de abajo). 4. Si (E, k · k) es un espacio normado, denotaremos por BE = {x ∈ E : kxk ≤ 1} a su bola cerrada de radio uno. 5. Diremos que la funci´on k · k de arriba es una seminorma, si cumple (a) y (b) pero no necesariamente (c). 4 Proposici´ on 1.1.2. Sea (E, k · k) un EN. Luego: 1. La d (x, y) = kx − yk (para x, y ∈ E) es, efectivamente, una m´etrica en E. 2. Con la topolog´ıa asociada a d, E nos queda un EVT. En particular las translaciones E 3 y 7→ y + x y las flechas K 3 λ 7→ λ x (con x fijo) son continuas. 3. La funci´on norma es continua. M´as a´ un, vale la desigualdad kxk − kyk ≤ kx − yk = d (x, y) , para todo par
x, y ∈ E .
(1.3)
Demostraci´on. En principio observar que d (x, y) = kx − yk = 0 ⇐⇒ x = y, por la condici´on (c). Adem´as, una desigualdad triangular se deduce f´acilmente de la otra. Para ver que (E, τd ) es un EVT, basta mencionar que la continuidad de las aplicaciones de la Ec. (1.1) se deduce directamente de las condiciones (a) y (b) de la definici´on de norma. Por ejemplo kλ x − µ yk ≤ kλ x − µ xk + kµ x − µ yk = |λ − µ| kxk + |µ| kx − yk , para x, y ∈ E y λ, µ ∈ K cualesquiera, por lo que K × E 3 (λ, x) 7→ λ x es continua. La Ec. (1.3) es otra consecuencia f´acil de la desigualdad triangular de las normas. El hecho de que toda norma defina una m´etrica sobre un espacio vectorial dado, nos permite hablar de los conceptos topol´ogicos habituales como abiertos y cerrados; junto con ellos aparecen en forma natural otros algo m´as complejos, como por ejemplo el borde de un conjunto, un conjunto nunca denso (magro) o un conjunto denso en todo el espacio. Como en ET’s generales, diremos que un EN es separable si tiene un denso numerable. Tambi´en se puede “completar” un normado, obteniendo un Banach que tiene al anterior 8
como subespacio denso. Esto se puede hacer a mano, pero ser´a m´as f´acil un poco m´as adelante (ver Obs. 2.1.14). Adem´as tiene sentido definir funciones continuas en un EN. La cosa se pone interesante cuando uno se cuestiona la continuidad de las funciones K-lineales. Ahora daremos las notaciones sobre este tema: Notaciones 1.1.3. Sean E y F dos K-EV’s. def
1. Denotaremos por E 0 = {ϕ : E → K : ϕ es lineal } al espacio dual algebr´aico de E. def
2. Llamaremos Hom (E, F ) = {T : E → F : T es K-lineal } al espacio de transformaciones lineales (se abrevia TL) entre E y F . 3. Si T ∈ Hom (E, F ) y x ∈ E, escribiremos T x en lugar de T (x) cuando sea posible. Esto se hace por analog´ıa con las matrices, y para ahorrar par´entises. Llamaremos def
(a) ker T = T −1 ({0}) = {x ∈ E : T x = 0} ⊆ E, al n´ ucleo de T . def
(b) R(T ) = T (E) = {T x : x ∈ E} ⊆ F , al rango (o imagen) de T . Observar que tanto ker T ⊆ E como R(T ) ⊆ F son subespacios. 4. Si ahora pensamos que (E, k·k ) es un EN, no siempre vale que toda ϕ ∈ E 0 es continua respecto de k · k. Lo mismo si F es tambi´en normado y T ∈ Hom (E, F ). 5. Por ello de denomina dual “topol´ogico” de E al K-EV def E ∗ = {ϕ ∈ E 0 : ϕ es k · k-continua } = E 0 ∩ C (E, k · k), K .
(1.4)
6. Si E era un C-EV, denotaremos por ER0 y ER∗ a sus duales pens´andolo como R-EV (o sea las funcionales ϕ : E → R que son R-lineales). 4 1.1.4. El hecho de pedirle a una TL que sea continua suena raro. De hecho en Kn son mucho m´as que continuas, son las cosas por las que uno quiere aproximar otras funciones para que sean “suaves”. Sin embargo, al subir a dimensi´on infinita la “mayor´ıa” de las funcionales no son continuas. Antes de seguir con la teor´ıa mostremos un ejemplo para convencer al lector incr´edulo. Llamemos SF al subespacio de KN (todas las sucesiones en K) generado por la “base can´onica” infinita E = {en : n ∈ N}. Obviamente cada en es la sucesi´on que tiene todos ceros salvo un uno en el lugar n-´esimo. El espacio SF consta de las “sucesiones finitas”, en el sentido de que a partir de un momento todas sus entradas se anulan. Pongamos en SF la norma supremo kxk∞ = sup |xn | , para x = (xn )n∈ N ∈ SF . Definamos ahora una n∈N
funcional no continua: Sea ϕ ∈ SF0 dada por la f´ormula X ϕ(x) = n2 · xn para cada x = (xn )n∈ N ∈ SF . n∈N
Cada tal suma es en realidad finita, por lo que est´a bien definida. La linealidad es clara. Ahora bien, si tomamos la sucesi´on ( enn ) de puntos de SF , vemos que k enn k∞ = n1 −−−→ 0, por n→∞
9
lo que
en k · k∞ −−−→ n n→∞
0SF en el espacio normado SF . Sin embargo, ϕ( enn ) = n para todo n ∈ N,
que no converge a ϕ(0SF ) = 0 . Luego esta ϕ es una funcional lineal y no es continua ni en el cero de SF . Veamos, ahora s´ı, una caracterizaci´on de la continuidad de las funcionales. 4 Proposici´ on 1.1.5. Sea (E, k · k) un EN y sea ϕ ∈ E 0 . Entonces ϕ ∈ E ∗ ⇐⇒ kϕk = kϕkE ∗
def
= sup |ϕ(x)| < ∞ .
(1.5)
x∈ BE
En tal caso, se tiene la siguiente igualdad: n o kϕk = sup |ϕ(x)| = m´ın M ≥ 0 : |ϕ(x)| ≤ M kxk para todo x ∈ E .
(1.6)
kxk=1
Adem´as, ϕ 7→ kϕk es una norma en E ∗ , con la que resulta ser un espacio normado. Demostraci´on. Supongamos que kϕk = +∞. Luego para todo n ∈ N debe existir un xn ∈ BE tal que |ϕ(xn )| ≥ n2 . Si ahora consideramos la sucesi´on yn = xnn , tendremos que kyn k =
kxn k −−−→ 0 n n→∞
pero
|ϕ(yn )| =
|ϕ(xn )| ≥n n
para todo n ∈ N .
O sea que una tal ϕ no podr´ıa ser continua ni en cero (recordar que ϕ(0) = 0). Esto prueba la flecha =⇒ de la Ec. (1.5). Para ver la rec´ıproca observemos que si kϕk < ∞, entonces |ϕ(x)| ≤ kϕk kxk En efecto, si x 6= 0, tomemos y =
x kxk
para todo
x∈E .
(1.7)
. Entonces, como kyk = 1, tenemos que
|ϕ(x)| = |ϕ(y)| ≤ sup |ϕ(z)| = kϕk =⇒ |ϕ(x)| ≤ kϕk kxk . kxk z∈BE De (1.7) deducimos que |ϕ(x) − ϕ(y)| = |ϕ(x − y)| ≤ kϕk kx − yk para todo par x, y ∈ E. Esto muestra que una tal ϕ es re-continua. Sea ahora M0 el m´ınimo de la Ec. (1.6) (en principio digamos que es el ´ınfimo). Por la (1.7), es claro que M0 ≤ kϕk. La otra desigualdad surge de la definici´on de kϕk. En particular hay m´ınimo y vale la Ec. (1.6). Finalmente, el hecho de que ϕ 7→ kϕk define una norma en E ∗ es de verificaci´on inmediata, y se deja como ejercicio. Proposici´ on 1.1.6. Sean E y F dos EN’s. Dado T ∈ Hom (E, F ), definamos kT k = kT kL(E,F ) = sup kT xkF : x ∈ E y kxkE ≤ 1 . Entonces vale lo siguiente: n o 1. kT k = sup kT xkF = m´ın M ≥ 0 : kT xkF ≤ M kxkE para todo x ∈ E . x∈ BE
10
(1.8)
2. T ∈ C(E, F ) ⇐⇒ kT k < ∞. En tal caso a T se lo llama un operador acotado. Denotaremos por L(E, F ) = Hom (E, F ) ∩ C(E, F ) al espacio (normado v´ıa T 7→ kT k) de tales operadores. Demostraci´on. La prueba coincide mutatis mutandis con la de la Prop. 1.1.5. Basta cambiar ϕ por T y | · | por k · kF cuando haga falta. Como vimos, a las funcionales ϕ ∈ E ∗ y a los operadores T ∈ L(E, F ) (para E y F dos EN’s) se los suele adjetivar como “acotados” en lugar de continuos. Esto no es del todo cierto. Lo que pasa es que se asume que la acotaci´on se refiere a sus restricciones a la bola BE . Observaci´ on 1.1.7. Sean E y F dos K-EV’s y T ∈ Hom(E, F ). Entonces se tiene que T ∈ L(E, F )
⇐⇒
T es continua en el punto 0 ∈ E .
(1.9)
Esto se debe a la igualdad T (x) − T (y) = T (x − y) y a que T (0) = 0. Recordar que por la m´etrica que usamos, una sucesi´on xn −−−→ x ⇐⇒ x − xn −−−→ 0. n→∞
n→∞
0
En particular se tiene que las ϕ ∈ E cumplen que ϕ ∈ E ∗ ⇐⇒ ϕ(xn ) −−−→ 0 n→∞
para toda sucesi´on
k·k
xn −−−→ 0 . n→∞
4
Observaci´ on 1.1.8. Sea E un EN y sea ϕ ∈ E 0 . Repasando la Prop. 1.1.5 se obtiene la siguiente mec´anica para estudiar una tal ϕ : • Para mostrar que ϕ ∈ E ∗ (o sea que ϕ es continua) basta ver que existe un M >0
tal que
|ϕ(x)| ≤ M kxk
para todo
x∈E .
• En tal caso, para calcular exactamente kϕk uno candidatea un M como arriba que intuya que es el o´ptimo en el sentido de la Ec. (1.6). Luego para verificar que efectivamente lo es, y por ello valdr´ıa que kϕk = M , basta encontrar una sucesi´on (xn )n∈ N
en
BE
tal que
|ϕ(xn )| −−−→ M . n→∞
Usando las f´ormulas (1.5) y (1.6), si el candidato M cumple ambas cosas (es una cota por arriba y se lo aproxima desde la bola) ya sabremos que kϕk = M . El mismo proceso sirve para calcular la kT k de un T ∈ L(E, F ) como en la Prop. 1.1.6. Veamos un ejemplo: El normado ser´a el espacio SF de sucesiones finitas definido en 1.1.4. Consideremos la funcional ϕ ∈ SF0 dada por la f´ormula X xn ϕ(x) = para cada x = (xn )n∈ N ∈ SF . 2 n n∈N 11
P
Nuestro candidato para kϕk es el n´ umero M =
n∈N
1 n2
< ∞. En efecto observar que
X x X |xn | X 1 n |ϕ(x)| = ≤ ≤ kxk = M kxk∞ ∞ 2 2 2 n n n n∈N n∈N n∈N para todo x = (xn )n∈ N ∈ SF . As´ı que ya sabemos que ϕ ∈ SF∗ con kϕk ≤ M . El siguiente paso es aproximar desde la bola: Para cada entero k ∈ N definamos el vector k P yk = en = (1, . . . , 1, 0, 0, . . . ) ∈ SF (la cantidad de unos es k). Notemos que kyk k∞ = 1 n=1
para todo k ∈ N, por lo que la sucesi´on de vectores (yk )k∈N vive en la bola BSF . Adem´as ϕ(yk ) =
k X 1 n2 n=1
−−−→ k→∞
X 1 =M . 2 n n∈N
Luego kϕk = M y a otra cosa. Como habr´an notado, la mec´anica en cuesti´on, m´as que calcular la kϕk, sirve para probar que una cadidato M que uno saca de la galera cumple que kϕk = M . El criterio de elecci´on de tales candidatos depende del contexto y de la intuici´on del que lo busque. No se puede dar recetas para todo en la vida. Para ejercitar la intuici´on y la metodolog´ıa propuesta dejamos otro ejemplo para el lector: Se trata de calcular la norma del operador T : SF → SF dado por 1 para cada x = (xn )n∈ N ∈ SF . 4 T x = (1 − ) xn n n∈N Observaci´ on 1.1.9. Sean E, F y G tres EN’s y sean T ∈ L(E, F ) y A ∈ L(F, G). Como componer continuas da continua (y lo mismo con las K-lineales), nos queda que la composici´on AT = A ◦ T ∈ L(E, G). Pero mejor a´ un, por la definici´on de normas de operadores dada en (1.8), que utiliza supremos, tenemos la siguiente desigualdad: kA T kL(E,G) = sup kA T xk ≤ sup kAk kT xk = kAkL(F,G) kT kL(E,F ) . x∈ BE
(1.10)
x∈ BE
En particular, si llamamos L(E) = L(E, E), este espacio normado es tambi´en una K-´algebra, y la norma es “matricial”, en el sentido de que si T, A ∈ L(E) , entonces kA T k ≤ kAk kT k . Si pedimos que E sea Banach, entonces L(E) es lo que se llama un a´lgebra de Banach, porque como se ver´a en el Teo. 1.1.10 que viene a continuaci´on, el espacio L(E) sera tambi´en un EB, que es adem´as K-´algebra, con una norma matricial. 4 Teorema 1.1.10. Sean E y F dos EN’s. Pensemos a L(E, F ) como un EN con la norma de la Ec. (1.8). Entonces vale que 1. Si F es Banach, entonces tambi´en L(E, F ) es un Banach. 12
2. En particular E ∗ = L(E, K) es un Banach para cualquier espacio normado E. 3. Si asumimos que E ∗ 6= {0}, entonces L(E, F )
⇐⇒ F
es Banach
es Banach
.
Demostraci´on. Asumamos que F es un EB. Si me dan una sucesi´on (Tn )n∈ N de Cauchy en L(E, F ), para cada x ∈ E tenemos que kTn x − Tm xkF = k(Tn − Tm )xkF ≤ kTn − Tm k kxk −−−−→ 0 n,m→∞
para todo x ∈ E .
Luego (Tn x)n∈N es de Cauchy en F . Por la completitud de F podemos definir la funci´on T :E→F
dada por
T x = l´ım Tm x m∈N
para cada x ∈ E .
Es f´acil ver que T es K-lineal (l´ımites de sumas y todo eso). Y tenemos convergencia “puntual”. Para concluir que L(E, F ) es Banach nos faltar´ıa ver que T ∈ L(E, F )
kTn − T kL(E,F ) −−−→ 0 .
y que
n→∞
Veamos primero lo segundo: Dado un ε > 0, hay un n0 ∈ N tal que kTn − Tm k < que n, m ≥ n0 . Si fijamos un n ≥ n0 y tomamos cualquier x ∈ E, se tiene que ?
k(T − Tn ) xk = kT x − Tn xk = l´ım kTm x − Tn xk ≤ sup kTm x − Tn xk ≤ m→∞
m≥n0
ε 2
siempre
ε kxk . 2
?
En efecto, la igualdad = surge de que tanto sumar un vector fijo como tomar norma son funciones continuas en F (Prop. 1.1.2). Como la desigualdad de arriba vale con el mismo n para todos los x ∈ E , podemos tomar supremo sobre BE , con lo que kT − Tn k = sup k(T − Tn ) xk ≤ sup x∈BE
x∈BE
ε kxk < ε , 2
para todo n ≥ n0 .
En resumen, ya sabemos que kTn − T kL(E,F ) −−−→ 0. En particular, existe un Tm tal que n→∞
kT − Tm k ≤ 1 =⇒ kT k = kT − Tm + Tm k ≤ kT − Tm k + kTm k ≤ 1 + kTm k < ∞ . Luego T ∈ L(E, F ) y lista la completitud. La rec´ıproca sale fijando una ϕ ∈ E ∗ no nula. Si ahora tomamos una sucesi´on (yn )n∈ N de Cauchy en F , podemos definir Tn ∈ L(E, F )
dadas por
Tn x = ϕ(x) · yn
para
x∈E
y
n∈N.
Unas cuantas directas muestran que kTn − Tm k = kϕk kyn − ym kF para todo par n, m ∈ N. Usando que L(E, F ) es Banach, debe existir un T ∈ L(E, F ) tal que kTn − T k −−−→ 0. n→∞
Ahora basta elegir un x0 ∈ E tal que ϕ(x0 ) = 1 y poner y = T x0 . 13
Observaci´ on 1.1.11. En la prueba anterior hay un exceso de hip´otesis. Para el item 3 basta pedir que E 6= {0}. Si bien nadie prob´o todav´ıa que que todo EN no trivial tiene funcionales continuas no nulas, m´as adelante veremos que eso es cierto. Nos adelantamos un poco para ir motivando el teorema de Hahn-Banach. 4 Antes de terminar esta secci´on b´asica y pasar a los ejemplos, mostraremos un criterio para testear completitud de un EN que se usar´a varias veces en lo que sigue. Proposici´ on 1.1.12. Sea E un EN. Las suguientes condiciones son equivalentes: 1. El esapcio (E, k · k) es un Banach (i.e., es completo). 2. Toda serie absolutamente convergente es convergente (todo en E). M´as precisamente, dada una sucesi´on (xn )n∈ N en E, se tiene que X X kxn k < ∞ =⇒ xn es convergente (con la norma) a un punto x ∈ E . n∈N
n∈N
P
En tal caso, vale que kxk ≤
kxn k.
n∈N
Demostraci´on. Asumamos primero que E es un EB. Luego, para mostrar la convergencia de n P la serie, basta ver que la sucesi´on yn = xk es de Cauchy en E. Pero si n < m, k=1 m m
X
X
kxk k −−−−−→ 0 , kym − yn k = xk ≤ ∞ P
por la hip´otesis de que
n, m → ∞
k=n+1
k=n+1
kxn k < ∞. As´ı que existe lim yn = x = n→∞
n=1
∞ P
xn . Adem´as,
n=1
∞ n n
X
X X
kxk k , kxk k = kxk = l´ım kyn k = l´ım xk ≤ l´ım n→∞
n→∞
n→∞
k=1
k=1
k=1
donde se us´o que la funci´on y 7→ kyk es continua, Creamos ahora en la condici´on dos, y tomemos una sucesi´on de Cauchy (yn )n∈ N en E. Para cada k ∈ N elijamos un mk ∈ N
tal que kyr − ys k < 2−k
para los r, s ≥ mk .
Luego definamos inductivamente n1 = m1 y nk = max{mk , nk−1 + 1} para k > 1 (esto para que los nk sean crecientes). Nos queda una subsucesi´on (xk )k∈ N = (ynk )k∈ N tal que kxk+1 − xk k < 2−k para todo k ∈ N. Tomemos finalmente la telesc´opica z1 = x1
y
zk+1 = xk+1 − xk
para
k∈N.
Por lo anterior, la sucesi´on (zk )k∈ N es absolutamente convergente y por ello convergente. k P Pero cada zr = xk = ynk . As´ı que la subsucesi´on (ynk )k∈ N es convergente a un y ∈ E, y r=1
arrastra con ella a toda la (yn )n∈ N porque esta era de Cauchy. 14
1.2
Ejemplos m´ as famosos.
La gracia de los EVT’s y los EN’s, y por ende del an´alisis funcional en general, es que la teor´ıa se hizo como forma de abstraer propiedades ya conocidas de muchos ejemplos matem´aticos muy importantes, que se estudiaban separadamente. Esto simplific´o los conceptos involucrados, y permiti´o desarrollar una teor´ıa nueva (con aplicaciones directas a esos ejemplos y much´ısimos nuevos que fueron apareciendo). Y lo bueno es que esa teor´ıa explot´o, obteniendo gran cantidad de resultados cualitativamente importantes y generando un mundo nuevo dentro del an´alisis. A continuaci´on enumeraremos los ejemplos m´as conocidos. En general, las pruebas de que las normas descritas cumplen la desigualdad triangular requieren de cuentas no demasiado f´aciles, dentro del contexto de cada ejemplo. Dejaremos sistem´aticamente esas pruebas como ejercicios para el lector. Ejemplo 1.2.1. Es sencillo ver que toda norma k·k sobre R es de la forma kxk = a · |x| (x ∈ R), donde a = k1k > 0. En efecto, la propiedad (b) de la definici´on de norma nos dice que kxk = |x| k1k para cualquier x ∈ R. Tambi´en est´a claro que toda funci´on de la forma R 3 x 7→ a|x|, con a > 0, es una norma sobre R. Es conocido el resultado Q = R que nos dice que este espacio es separable. Ejemplo 1.2.2. Si consideramos el espacio C, vale la misma observaci´on que en el ejemplo anterior cuando se lo considera como un C-EV. Tomando Q + iQ, vemos que C es separable. Ejemplo 1.2.3. M´as generalmente, en Kn podemos definir varias normas: Dado un vector x = (x1 , . . . , xn ) ∈ Kn , consideremos 1. kxk∞ = m´ax |xk |. 1≤k≤n
2. kxkp =
n P
|xk |p
p1 para los exponentes 1 ≤ p < ∞.
k=1
3. El caso particular p = 2 se denomina generalmente espacio Eucl´ıdeo. Las mismas consideraciones que en los ejemplos anteriores nos dicen que estos espacios son separables. Ejemplo 1.2.4. Sean X un conjunto y (E, k · k) un EN. Se definen 1. `∞ (X, E) = {f : X → E acotadas }, o sea que f ∈ `∞ (X, E)
si
def
kf k∞ = sup kf (x) kE < ∞ . x∈X
Es f´acil ver que k · k∞ es una norma en `∞ (X, E). 15
2. Veamos que si E era un EB, entonces `∞ (X, E) es completo, y queda un EB. En efecto, sea (fn )n∈N una sucesi´on de Cauchy en `∞ (X, E). Dado un x ∈ X, sabemos que kfk (x) − fm (x)kE ≤ kfk − fm k∞ para todo k, m ∈ N. Luego cada sucesi´on (fn (x) )n∈N es de Cauchy en E. Como E es completo, podemos definir la funci´on f :X→E
dada por
f (x) = l´ım fn (x) , n→∞
para todo x ∈ X ,
que es nuestra candidata a l´ımite. Nos falta verificar dos cosas: ?
kfn − f k∞ −−−→ 0 n→∞
?
f ∈ `∞ (X, E) .
y
Dado ε > 0, sea n1 ∈ N tal que kfk − fm k∞ <
ε 2
para todo k, m ≥ n1 . Si k ≥ n1 ,
kfk (x) − f (x)kE = l´ım kfk (x) − fm (x)kE ≤ sup kfk (x) − fm (x)kE ≤ m→∞
m≥n1
ε < ε , (1.11) 2
para todos los x ∈ X a la vez. La igualdad = se deduce de que fm (x) −−−→ f (x), m→∞
usando la norma es continua. La Ec. (1.11) muestra que kfn − f k∞ −−−→ 0. Tomando n→∞
un n tal que kfn − f k∞ < 1, la Ec. (A.24) nos asegura que f ∈ `∞ (X, E) . 3. Si X tiene una topolog´ıa τ , consideraremos el espacio de funciones continuas y acotadas Cb (X, E) = C(X, E) ∩ `∞ (X, E) = f ∈ C(X, E) : kf k∞ = sup kf (x) k < ∞ , x∈X
En la Prop. A.17.4 se prueba que Cb (X, E) es cerrado en `∞ (X, E). Observar que eso es m´as que suficiente para asegurar que tambi´en Cb (X, E) es un EB. 4. En el caso de que el espacio X sea compacto, se tiene Cb (X, E) = C(X, E). 5. Recordemos que cuando E = K notamos Cb (X, K) = Cb (X) y C(X, K) = C(X). Si X es un compacto Hausdorff, Cb (X) = C(X) es tambi´en separable, por Weierstrass (si no lo conocen, chusmeen el Teo. 3.6.3). 6. En cambio, si X es cualquier conjunto infinito y E 6= {0}, se tiene que `∞ (X, E) nunca es separable, porque las caracter´ısticas de subconjuntos de X (multiplicadas por un y ∈ E \ {0}) son no numerables, viven en `∞ (X, E) y distan siempre kyk entre s´ı. 4 Ejemplo 1.2.5. Consideremos ahora los epacios de sucesiones escalares dentro de KN . Usaremos la notaci´on x = (xn )n∈ N para dichas sucesiones. 1. Fijado un exponente p tal que 1 ≤ p < ∞, consideremos los espacios ( ) ∞ X `p = `p (N) = x ∈ KN : |xn |p < ∞ . n=1
16
En ellos se considera la norma ! p1 kxkp =
X
|xn |p
.
n∈N
Con estas normas, cada espacio `p es un Banach (como en el Ejem. 1.2.4). 2. Miremos ahora el espacio de sucesiones “finitas” n o SF = SF (N) = K(N) = x ∈ KN : existe un n0 ∈ N tal que xn = 0 si n ≥ n0 , que puede interprestarse como la “uni´on” de todos los Kn , n ∈ N. Este K-EV tiene dimensi´on algebr´aica numerable, porque tiene a la bases can´onica {en : n ∈ N}, donde cada en es la funci´on caracter´ıstica del conjunto {n}. Observar que SF ⊆ `p para todo p ∈ [1, ∞). M´as a´ un, nuestro SF es claramente denso p en cada ` con su norma (truncando colas de series). Considerando el subconjunto Q(N) = SF ∩ QN uno muestra que todos los `p son separables. El p´arrafo anterior conlleva a una conclusi´on sorprendente: no todo subespacio de un normado E tiene porque ser cerrado como subconjunto de X. Esto contradice la intuici´on erre´enica, y hace falta que nos vayamos acostumbrando a descartar esa intuici´on e ir generando una ban´ajica. As´ı que para abreviar, en lo que sigue escribiremos SvE
para decir que S ⊆ E es un subespacio cerrado de E .
3. El espacio de sucesiones acotadas ∞ ∞ N ` = ` (N) = x ∈ K : kxk∞ = sup |xn | < ∞ n∈N
es tambi´en un Banach con dicha norma supremo. Hemos visto que este Banach no es separable. Contiene a SF , pero ahora no queda denso. 4. Dos subespacios importantes de `∞ son los siguientes: n o n o c = x ∈ `∞ : existe el l´ım xn y c0 = x ∈ c : l´ım xn = 0 . n→∞
n→∞
(1.12)
Ambos son subespacios cerrados de `∞ , lo que los transforma en sendos espacios de Banach, siempre con la norma k · k∞ . Observar que c0 v `∞ porque es, en realidad, la clausura en `∞ de SF . De paso, eso dice que c0 es separable. Por otra parte, si definimos la sucesi´on 1 ∈ c como la constantemente igual a 1, es f´acil verificar que c = c0 ⊕ K · 1, por lo que tambi´en c es separable.
17
5. Ahora podemos generalizar los ejemplos anteriores: Fijemos E un EN, y p ∈ [1, ∞). Dentro del producto E N , consideremos el subespacio ( ) X `p (N, E) = `p (E) = (xn )n∈ N ∈ E N : kxn kp < ∞ . n∈N
Obtenemos un normado con la norma p resultante. Esto se puede extender m´as a´ un, definiendo `p (I, E), donde I es cualrquier conjunto. Hace falta repasar un poco de sumas “desordenadas”, o sea series no numerables de t´erminos positivos. Q 6. Incluso m´as, podemos considerar el producto P = En , donde cada (En , k · kn ) es n∈N P p p un EN, y tomar el subespacio ` (T ) = (xn )n∈ N ∈ P : kxn kn < ∞ , d´andole una n∈N
estructura de espacio normado mediante la s´ uper-norma p.
4
Ejercicio 1.2.6. Probar que si 1 ≤ p ≤ q ≤ ∞, entonces `p (N) ⊆ `q (N). Ya que estamos, mostrar que si p < q, entonces la inculsi´on es estricta. 4 Ejemplo 1.2.7. Sea X un conjunto y sobre ´el consideremos el espacio de medida (X, Σ, µ), donde Σ es una σ-´algebra de conjuntos de X y µ : Σ → R+ ∪{+∞} es σ-aditiva. Llamaremos Med(X, Σ) al conjunto de funciones f : X → K que son Σ-medibles. 1. Fijemos un exponente p ∈ [1, +∞). Se define el espacio Z p p p |f (t)| dµ(t) < ∞ L = L (X , Σ , µ) = f ∈ Med(X, Σ) : X
que es un espacio vectorial “seminormado” con la Z
p
|f | dµ
kf kp =
p1 ,
para
f ∈ Med(X, Σ) .
X
La demostraci´on de que se trata realmente de una seminorma (lo que garantiza que Lp es un K-EV) es la famosa desigualdad de Minkowski. 2. Fijada una f ∈ Med(X, Σ), definimos su supremo esencial como el n´ umero kf k∞ = ess sup(f ) = ´ınf M > 0 : tal que µ |f | > M = 0 . Luego definimos el espacio vectorial seminormado L∞ = L∞ (X, Σ, µ) = {f ∈ Med(X, Σ) : kf k∞ < ∞ } . En este caso es trivial que k · k∞ es una seminorma en L∞ (X, Σ, µ).
18
3. Es f´acil ver que el conjunto N = N (X, Σ, µ) = f ∈ Med(X, Σ) : µ |f | 6= 0 = 0 es un subespacio de Med(X, Σ). Una cuenta directa muestra que N = {f ∈ Med(X, Σ) : kf kp = 0} ⊆ Lp
1≤p≤∞.
para cada
Luego se pueden definir los espacios normados Lp = Lp (X, Σ, µ) = Lp (X, Σ, µ)/N (asumimos conocido el cociente de EV’s), porque en ellos la k · kp baja haci´endose una buena norma. Como hace todo el mundo, abusaremos sitem´aticamente de la notaci´on dicendo que un elemento f ∈ Lp es una funci´on (en Lp ) en vez de su clase de equivalencia. En los cursos de medida seguro que se ha demostrado que el espacio (Lp , k · kp ) es completo, por lo que estamos hablando de espacios de Banach. 4. Cabe recordar que si µ (X) < ∞, entonces L∞ ⊆ Lp para todo 1 ≤ p < ∞, y adem´as lim kf kp = kf k∞
f ∈ L∞ .
para toda
p→∞
(1.13)
En efecto, dada f ∈ L∞ , podemos suponer (sin p´erdida de generalidad) kf k∞ = 1 . En tal caso, como |f |p ≤ 1 salvo un conjunto de medida nula, se tiene que Z Z p |f | dµ ≤ 1 dµ = µ (X) < ∞ =⇒ f ∈ Lp . (1.14) X
X
Para probar la Ec. (1.13), tomumos un A < 1 y llamamos E = {x ∈ X : |f (x)| > A}. Por la definici´on del supremo esencial vemos que µ (E) > 0. Adem´as 1 p
p
1 p
p1
Z
A · µ (E) = (A ) ·
χE
Z A
=
X
p
p1
Z
p
p1
|f |
≤
E
1
≤ kf kp ≤ µ(X) p ,
E
donde la u ´ltima desigualdad se sigue de la Ec. (1.14). Luego A ≤ lim inf kf kp ≤ lim sup kf kp ≤ 1 . p→∞
p→∞
Como el A < 1 era cualquiera, sale que l´ım kf kp = 1 = kf k∞ . p→∞
Por lo tanto tambi´en vale que L∞ ⊆ Lp (se divid´ıa por lo mismo). Ojo que la inclusion es de conjuntos. Porque L∞ es un EB con su norma, aunque L∞ 6v Lp porque como subespacio de los Lp es f´acil ver que es denso en cada uno de ellos con su k · kp . 4 Ejemplo 1.2.8. Dada cualquier funci´on ϕ : [a, b] → R y cualquier partici´on Π ≡ {a = t0 < t1 < .... < tn = b} definamos V (ϕ, Π) =
n P
de
([a, b] ,
|ϕ (tk ) − ϕ (tk−1 ) |. El espacio
k=1 def
BV[a, b] = {ϕ : [a, b] → R : V (ϕ) = sup V (ϕ, Π) < ∞} Π
19
cosiste de las llamadas funciones de variaci´ on acotada (VA) sobre [a, b]. Se ve f´acilmente que la flecha ϕ 7→ V (ϕ) es una seminorma. El n´ umero V (ϕ) se llama la variaci´ on de ϕ. Los ejemplos m´as f´aciles de funciones de VA son las mon´otonas. En ese caso, para cualquier partici´on Π vale que V (ϕ, Π) = |ϕ(b) − ϕ(a)| =⇒ V (ϕ) = |ϕ(b) − ϕ(a)| < ∞ . Por otro lado, no es dificil ver que V (ϕ) = 0 si y s´olo si ϕ es constante. En efecto, la igualdad V (ϕ) = 0 =⇒ V (ϕ, Π) = 0 para toda partici´on Π. Si existieran dos puntos u, v ∈ [a, b], con u > v, tales que ϕ (a) 6= ϕ(b) podr´ıamos tomar la partici´on ad hoc Π∗ = {a, , v, u, b}. Pero ella cumplir´ıa que V (ϕ, Π∗ ) ≥ |ϕ(u) − ϕ(v)| > 0. No puede ser. Ahora s´ı podemos dar una norma para el espacio BV[a, b], poniendo kϕkBV = |ϕ(a)| + V (ϕ)
para cada
ϕ ∈ BV[a, b] .
Es una seminorma por ser la suma de dos de ellas. Pero ahora tenemos que kϕkBV = 0 =⇒ ϕ ≡ 0, porque la ϕ debe ser constante y ϕ(a) = 0. Un argumento similar al del Ejem. 1.2.4 4 (espacios `∞ (X , E) ) nos dice que BV[a, b] es no separable. Ejemplo 1.2.9. Sea α ∈ R∗+ . Las funciones lipschitzianas de orden α son las funciones ϕ : [a, b] → K que satisfacen que su norma def
kϕkLα = |ϕ(a)| + sup t6=s
|ϕ(t) − ϕ(s)| <∞. |t − s|α
El hecho de que k kLα sea una norma sale igual que en el ejemplo anterior. Es facil ver que toda tal ϕ ∈ C[a, b]. M´as a´ un, si fijamos un par t 6= s en (a, b), tenemos que |ϕ(t) − ϕ(s)| |ϕ(x) − ϕ(y)| def = Sϕ < ∞ =⇒ |ϕ(t) − ϕ(s)| ≤ Sϕ · |t − s|α . (1.15) ≤ sup α α |t − s| |x − y| x6=y Por eso se las llama lipschitzianas. De hecho, es f´acil ver que una ϕ cumple la desigualdad de la derecha de (1.15) para alguna constante Sϕ < ∞ ⇐⇒ kϕkLα < ∞. Estas funciones son interesantes sobre todo cuando 0 < α ≤ 1. Porque sin´o pasa lo siguiente: Si α > 1, las u ´nicas funciones lipschitzianas de orden α son las constantes. En efecto, si kϕkLα < ∞ con α > 1, entonces ϕ tiene que ser derivable en el abierto (a, b), y adem´as se debe cumplir que ϕ0 ≡ 0. Es porque dado un x0 ∈ (a, b), el cociente incremental cumple que |ϕ(x0 ) − ϕ(x0 + h)| |h|
(1.15)
≤
Sϕ · |h|α = Sϕ · |h|1−α −−→ 0 . h→0 |h|
Luego, por alg´ un Teorema de An´alisis I ya tenemos que ϕ debe ser constante.
20
4
Ejemplo 1.2.10. Sea (X, τ ) un ET compacto Hausdorff. Llamemos B(X) ⊆ P(X) la σa´lgebra de los Borelianos de X (la σ-´algebra generada por τ ). Una medida boreliana compleja es una µ : B(X) → C que es σ-aditiva y s´olo toma valores finitos. La variaci´on total de una tal µ es la medida positiva |µ| definida por |µ|(A) =
sup
nπ X
|µ(Ek )|
para cada
A ∈ B(X) ,
(1.16)
π∈PD(A) k=1
donde PD(A) es el conjunto de particiones finitas π = {E1 , . . . , Enπ } de A (i.e., Una de las utilidades de |µ| es que se la necesita para la desigualdad Z Z f d µ ≤ |f | d |µ| , X
d S
Ek = A).
(1.17)
X
que vale para cualquier f ∈ C(X) (y para toda f que sea µ-integrable). Otra es que sirve para definir la regularidad: una medida µ es regular si |µ| cumple que |µ|(A) = sup{ |µ|(K) : K ⊆ A y K es compacto } ,
para todo A ∈ B(X) .
(1.18)
El espacio Mr (X) de medidas complejas regulares es un normado con la norma kµk = |µ|(X) ,
µ ∈ Mr (X) .
para cada
El que |µ| sea finita para toda µ ∈ Mr (X) y la triangular |µ + ν|(X) ≤ |µ|(X) + |ν|(X) son resultados t´ıpicos de teor´ıa de la medida, que asumiremos (ver 1.9.25). Observar que |µ(A)| ≤ |µ(A)| + |µ(X \ A)| ≤ |µ|(X) = kµk ,
para
µ ∈ Mr (X)
y
A ∈ B(X) .
Usando esto se puede mostrar que ( Mr (X), k · k ) es un Banach, cuenta que dejamos como ejercicio. Las pruebas de las afirmaciones de este ejemplo est´an detalladamente propuestas como una serie de ejercicios en la secci´on final: desde el 1.9.12 hasta la Obs. 1.9.25. 4
1.3
C´ alculo de algunos duales.
Calcularemos ahora “los duales” de algunos ejemplos anteriores. En general esto se hace con los llamados teoremas de representaci´on. Ellos consisten en tomar un espacio conocido y hacerlo actuar sobre otro EN como funcionales acotadas. O sea “representarlo” como el dual de otro a trav´es de una aplicaci´on lineal isom´etrica sobre. Lo dif´ıcil de este proceso suele ser ver que una representaci´on dada es sobre, o sea que toda funcional acotada debe ser alguna de las representadas del espacio conocido. Esto se entender´a mejor mirando los siguientes ejemplos. Antes de empezar, recordemos la funci´on sgn : C → S 1 ∪ {0}, dada por sgn z =
z |z|
para
z ∈ C \ {0} 21
y
sgn 0 = 0 .
Una cuenta que usaremos seguido dice que z |z|2 sgn z · z = ·z = = |z| |z| |z|
z ∈ C \ {0} .
para todo
(1.19)
La igualdad de los bordes obviamente sigue valiendo para z = 0. En los siguientes ejemplos usaremos sistematicamente la receta propuesta en la Obs. 1.1.8 para calcular normas de funcionales. 1.3.1. Queremos identificar los duales de c0 y de `1 . Empecemos representando a `1 dentro de c∗0 . Dada y = (yn )n∈ N ∈ `1 definamos la funcional X ϕy : c0 → K dada por ϕy (x) = xn yn , para cada x = (xn )n∈ N ∈ c0 . n∈N
La siguiente cuenta mostrar´a que la serie es convergente y que ϕy es acotada: Fijado x ∈ c0 , X X X |ϕy (x)| = xn yn ≤ |xn yn | ≤ kxk∞ |yn | = kxk∞ kyk1 . (1.20) n∈N
n∈N
n∈N
La parte derecha dice que la serie es absolutamente convergente y por ello converge, as´ı que ϕy (x) est´a bien definida. Mir´andola de nuevo, ahora para todo x ∈ c0 , nos dice que kϕy k ≤ kyk1 para cualquier y ∈ `1 . Entonces ya tenemos una representaci´on R ∈ L(`1 , c∗0 ) dada por R(y) = ϕy . Veamos que es isom´etrica: Fijado el y ∈ `1 y un N ∈ N, tomemos xN =
N X
sgn yk ek = (sgn y1 , . . . , sgn yN , 0 , 0 , . . . ) ∈ SF ⊆ c0 .
(1.21)
k=1
Observar que, usando la Ec. (1.19), tenemos que ϕy (xN ) =
N P
sgn yk yk =
k=1
N P
|yk | . Por otra
k=1
parte kxN k∞ ≤ 1 para cualquier N ∈ N, porque | sgn z| ≤ 1 para cualquier z ∈ C. Juntando todo y agrandadno indefinidamente el N ∈ N, llegamos a que kϕy k = sup
|ϕ(x)| ≥ sup |ϕ(xN )| = sup N ∈N
kxk∞ ≤1
N ∈N
N X
|yk | = kyk1 .
k=1
Esto muestra que la representaci´on R es isom´etrica. Falta ver que llena al dual c∗0 . Para probarlo, fijemos ϕ ∈ c∗0 y definamos yn = ϕ(en ) ∈ K para cada n ∈ N. Esto nos da la candidata y = (yn )n∈ N . Es f´acil ver que en los x ∈ SF se cumple que X X ϕ(x) = ϕ xn e n = xn yn = ϕy (x) , n∈ J
n∈ J
donde el J ∈ PF (N) es el soporte finito de x. Con las xN ∈ c0 de (1.21) relativas a ´este y se ve que kyk1 ≤ kϕk por lo que y ∈ `1 and ϕy ∈ c∗0 . Luego ϕ y ϕy son funcionales continuas que coinciden en el denso SF ⊆ c0 , por lo que deben ser la misma. En resumen, c0 ∗ ∼ = `1
v´ıa la representaci´on 22
`1 3 y 7→ ϕy ∈ c∗0 .
(1.22)
Ahora viene el dual de `1 . La idea es exactamente la misma, aunque ahora nos dar´a que (`1 )∗ ∼ = `∞ . En efecto, dada z = (zn )n∈ N ∈ `∞ , volvemos a definir X ϕz : `1 → K dada por ϕz (y) = yn zn , para cada y = (yn )n∈ N ∈ `1 . (1.23) n∈N
La Ec. (1.20) sigue valendo en ´este contexto (cambiando x por z) lo que dice que la serie camina, ϕz ∈ (`1 )∗ y kϕz k ≤ kzk∞ (porque ahora la variable es el y ∈ `1 ). La representaci´on es isom´etrica usando los vectores yN = sgn zN · eN ∈ SF ⊆ `1 . En efecto, todos tienen kyN k1 = | sgn zN | ≤ 1 y cumplen que ϕz (yN ) = |zN |, por lo que kzk∞ ≤ kϕz k. Para ver que esto llena el dual de `1 se argumenta igual que en el caso de c0 . El dato clave es que SF sigue siendo denso en `1 . Mucho m´as dif´ıcil es describir (`∞ )∗ , porque `∞ no tiene un denso en el que se puedan hacer cuentas lineales tranquilizadoras. Pero al menos se puede ver que (`∞ )∗ es “grande”, porque s´ı se puede meter a `1 adentro de (`∞ )∗ con el mismo curro de siempre (de hecho con la misma acci´on y desigualdades que describimos antes sobre c0 ). El tema es que no lo llena ni ah´ı. Observar que, dada ϕ ∈ (`∞ )∗ , se puede seguir poniendo xn = ϕ(en ) y armar un x ua como ϕ en todo `∞ porque SF no es m´as denso. 4 de `1 . Pero no se sabe si la ϕx act´ Ejercicio 1.3.2. En forma similar a lo anterior, probar que si 1 < p, q < ∞ y
1 p
+
1 q
=1
=⇒
(`p )∗ ∼ = `q .
(1.24)
La acci´on es como arriba, haciendo series de productos y usando H¨older en vez de (1.20). 4 1.3.3. Fijemos ahora un compacto Hausdorff (X, τ ) y pensemos en el dual del espacio C(X) = C(X, C), que vimos que es un Banach con la k · k∞ . Consideremos el espacio normado Mr (X) de medidas borelianas complejas regulares, del Ejem. 1.2.10. Recordemos que si µ ∈ Mr (X) se define la medida positiva finita |µ| ∈ Mr (X), llamada variaci´on total de µ, y que kµk = |µ|(X). El teorema de representaci´on de Riesz asegura que Mr (X) ∼ = C(X)∗ . Veamos la parte f´acil de eso: Dada µ ∈ Mr (X), definamos ϕµ ∈ C(X)0 por la f´ormula Z ϕµ (f ) = f d µ , para cada f ∈ C(X) . X
La definici´on es buena porque las continuas son integrables para toda µ ∈ Mr (X). Adem´as Z Z |ϕµ (f )| = f d µ ≤ |f | d |µ| ≤ kf k∞ |µ|(X) = kµk kf k∞ X
X
para toda f ∈ C(X), por la Ec. (1.17). Luego ϕµ ∈ C(X)∗ y kϕµ k ≤ kµk. Usando que µ es regular se puede mostrar que en realidad vale que kϕµ k = kµk. La cuenta es f´acil usando funciones simples sobre particiones π = {E1 , . . . , En } de X con los coeficientes sgn µ(Ek ). 23
Eso sale como en los ejemplos anteriores, porque sus integrales aproximan el valor |µ|(X) dado en la Ec. (1.16). La regularidad sirve para aproximar esas simples por continuas (salvo conjuntos |µ|-peque˜ nos), usando Tietze y la definici´on (1.18) de regularidad. Los detalles quedan para el lector regular (ver los ejercicios 1.9.12 - 1.9.26). Lo que es mucho m´as complicado es ver que toda ϕ ∈ C(X)∗ se representa como una ϕµ para µ ∈ Mr (X). Es una demostraci´on tan trabajosa como la construcci´on de la medida de Lebesgue. Para convencerse basta un ejemplo: Si en C([0, 1]) tomamos la funcional R1 f 7→ 0 f (t) dt , pero hecha con la integral de Riemann, entonces la µ que la representa no es otra que la mism´ısima medida de Lebesgue en los borelianos del [0, 1]. 4
1.4
El lema de Riesz.
Empecemos fijando una serie de notaciones sobre subespacios: Notaciones 1.4.1. Sea E un EN. 1. Escribiremos S v E para decir que S ⊆ E es un subespacio cerrado de E. 2. Dado cualquier A ⊆ E, notaremos span {A} al subespacio generado por A: \ def S ⊆ E : A ⊆ S y S es un subespacio de E . span {A} = 3. Llamaremos span {A} v E al subespacio cerrado generado por A: \ def span {A} = span {A} = S⊆E:A⊆S y SvE . Un ligero ejercicio es mostrar la segunda igualdad de arriba. Usa esto: Si S ⊆ E es un subespacio, entonces S v E. O sea que la clausura de un subespacio sigue siendo subespacio. Ya que van a hacer la cuenta, observen que vale en el contexto general de EVT’s. Solo hace falta tomar redes en vez de sucesiones para la prueba general. Y recordar la Ec. (1.1). 4 1.4.2. Sea E un EN , y fijemos un subespacio cerrado S v E. Como en cualquier EM, se tiene definida la funci´on “distancia a S”, d ( · , S) : E → R+ dada por def
d (x, S) = ´ınf kx − yk = ´ınf kzk , y∈ S
z∈x+S
para cada
x∈E .
Por ser S cerrado, vale que d (x, S) = 0 ⇐⇒ x ∈ S. Adem´as, un cambio elemental de variables asegura que en el espacio af´ın x + S la distancia con S no cambia: para todo z ∈ x + S
se tiene que d (z, S) = d (x, S) , 24
(1.25)
porque x + S = z + S. En forma a´ un m´as f´acil uno puede mostrar que λ x+S = λ (x+S) =⇒ d (λ x , S) = |λ|·d (x , S)
x∈E,
para todo
λ ∈ K . (1.26)
Ahora bien, en los espacios Eucl´ıdeos (m´as adelante en los Hilbert) se tiene que siempre existe un z0 ∈ x + S que es ortogonal a S, y por lo tanto cumple (Pit´agoras mediante) que ?
kz0 k = d (z0 , 0) = d (x, S) = m´ın kzk .
(1.27)
z∈ x+S
Naturalmente cabe preguntarse si algo semejante (que el ´ınfimo que define la distancia a un S v E sea siempre un m´ınimo) pasar´a en cualquier espacio normado E. A priori podr´ıa pensarse que alcanzar´ıa con que E sea un Banach (aproximar y tomar l´ımite). Sin embargo, en general es falso, a´ un para Banach’s, porque hace falta que la bola BE tenga un tipo especial de convexidad para que los aproximantes sean necesariamente de Cauchy. Veremos primero un contraejemplo y luego una forma muy util de reiterpretar la Ec. (1.27), pero s´olo con ´ınfimos, que vale en general. 4 Ejemplo 1.4.3. El espacio base ser´a C[0, 1], que es Banach. Consideremos el subespacio X = {f ∈ C[0, 1] : f (0) = 0} v C[0, 1] .
Luego X es un Banach .
Por otro lado, consideremos la funcional ϕ : X → C dada por R1 ϕ(f ) = 0 f (t) dt para cada f ∈ X . R1 Es claro que ϕ es lineal. La desigualdad 0 f (t) dt ≤ kf k∞ y la Prop. 1.1.5, nos dicen que ϕ ∈ X ∗ con kϕk ≤ 1. Llamemos M = ker ϕ v X . Es claro que M = 6 X , o sea que M es un subespacio de X que es cerrado y propio. Ahora supongamos que existe un f0 ∈ X tal que kf0 k∞ = 1 = d (f0 , M) como uno buscaba en la Ec. (1.27). Ya veremos ad´onde nos lleva. Para cada f ∈ X \ M definamos R1 f0 (t)dt ϕ(f0 ) = R01 que produce un g = f0 − cf · f ∈ ker ϕ = M . cf = ϕ(f ) f (t)dt 0
Por lo tanto, como d (f0 , M) = 1, podemos deducir que |cf | · kf k∞ = kcf · f k∞ = kf0 − gk∞ ≥ 1 =⇒ |ϕ(f0 )| · kf k∞ ≥ |ϕ(f )| .
(1.28)
1
Ahora consideremos la sucesi´on de funciones fn (t) = t n en X \ M. Como kfn k∞
1 t n +1 1 = 1 ∀ n ∈ N =⇒ |ϕ(f0 )| ≥ |ϕ(fn )| = 1 = +1 0 n
(1.28)
1 n
1 −−−→ 1 , + 1 n→∞
es decir que |ϕ(f0 )| ≥ 1. Pero una cuenta de An´alisis 1 nos hace ver que, por otra parte, Z 1 f0 ∈ C[0, 1] , f0 (0) = 0 y kf0 k∞ = 1 =⇒ |ϕ(f0 )| ≤ |f0 (t)| dt < 1 . 4 0
25
En cualquier caso subsiste una idea de ”cuasiortogonalidad” inducida por el famoso Lema de F. Riesz que damos ahora. Una manera de visualizar su enunciado es imaginarse al subespacio S como un plano, que uno translada con muchos vectores unitarios, y luego busca maximizar la distancia vs. S entre todos los planos paralelos que quedan. Lema 1.4.4. Sea E un EN. Dado un S v E tal que S = 6 E se tiene que, para cada ε > 0 existe alg´ un vector unitario xε ∈ E (o sea que kxε k = 1) tal que d (xε , S) ≥ 1 − ε. Demostraci´on. Vamos a suponer que ε < 1 y que S = 6 {0} (sino todo es una boludez). Como 0 ∈ S, tenemos que 0 ≤ d (x , S) ≤ kxk para todo x ∈ E. Como S es cerrado y propio, existe por lo menos un z ∈ E tal que d (z , S) = ´ınf kyk = 1. Luego y∈ z+S
existe un yε ∈ z + S
tal que
1 ≤ kyε k < (1 − ε)−1 .
La Ec. (1.25) nos asegura que d (yε , S) = d (z, S) = 1. Llamemos xε =
(1.29) yε ∈ BE . kyε k
Finalmente, usando la Ec. (1.26) y la Ec. (1.29) llegamos a que yε d (yε , S) 1 d (xε , S) = d ,S = = > 1−ε . kyε k kyε k kyε k
Ejemplo 1.4.5. Volviendo al ejemplo anterior al Lema (y usando las notaciones del mismo), se puede construir expl´ıcitamente una sucesi´on de vectores unitarios {fn }n∈N en X tales que 1 d (fn , M) −−−→ 1. Es la de antes: fn (t) = t n . Los detalles quedan a cargo del lector. 4 n→∞
1.5
Isomorfismos.
Hay dos tipos de isomorfismos en la categor´ıa de EN’s, los isom´etricos y los comunes. En el caso isom´etrico se habla de “igualdad” entre los espacios, como el los ejemplos de duales que vimos hace poco. En los dem´as casos se habla de isomorfos y no es para tanto. Pero vale la penar fijar bien qu´e cosas se preservan por cada tipo de isomorfismo. Notaciones 1.5.1. Sean E y F dos EN’s. 1. Diremos que E y F son isom´etricos (o que son el mismo) si existe un U ∈ L(E, F )
tal que U es sobre y
kU xk = kxk
para todo
x∈E .
En tal caso escribiremos que E ∼ = F y que U es un “isomorfismo isom´etrico”. 2. En cambio E y F son isomorfos si existe un T ∈ L(E, F )
biyectivo tal que tambi´en
T −1 ∈ L(F, E) .
(1.30)
En tal caso escribiremos que E ' F y a T se lo bate “isomorfismo” (o tambi´en iso). 26
A los operadores lineales biyectivos pero no bicontinuos se los mencionar´a como isomorfismos K-lineales. La palabra iso (sola) se reserva para los del item 2. 4 Los isomorfismos entre EN’s son h´omeos entre sus topolog´ıas resultantes. Pero preservan propiedades m´etricas mejores que los h´omeos a secas, porque al ser lineales son m´as que s´olo bicontinuos. Veamos: Proposici´ on 1.5.2. Sean E y F dos EN’s tales que E ' F . Sea T ∈ L(E, F ) el mentado isomorfismo. Entonces: 1. Sean M = kT k y m = kT −1 k−1 . Entonces tenemos que m kxkE ≤ kT xkF ≤ M kxkE
para todo
x∈E .
(1.31)
2. Con las mismas constantes m y M se tiene que m · BF ⊆ T (BE ) ⊆ M · BF .
(1.32)
3. Una (xn )n∈ N es E es de Cauchy ⇐⇒ (T xn )n∈N es de Cauchy en F . 4. E es Banach ⇐⇒ F es Banach. 5. La bola BE es compacta ⇐⇒ BF lo es. Demostraci´on. Es claro que para cualquier x ∈ E vale que kT xkF ≤ kT k kxkE . Adem´as, kxkE = kT −1 (T x)kE ≤ kT −1 k kT xkF =⇒ m kxkE ≤ kT xkF . Veamos (1.32): Si y ∈ m BF y tomamos el u ´nico x ∈ E tal que T x = y entonces, por (1.31), m kxk ≤ kT xk = kyk ≤ m =⇒ x ∈ BE =⇒ y ∈ T (BE ) . La otra inclusi´on de (1.32) sale por la definici´on de kT k. Usando (1.31) y que T es lineal, sale el item 3. Los otros dos son consecuencias directas de 3, porque al ser continuas, tanto T como T −1 preservan convergencias y compacidad. Para probar 5 hay que usar (1.32) y que x 7→ λ x (con λ 6= 0) es h´omeo tanto en E como en F . Ejercicio 1.5.3. Sean E y F dos EN’s y tomemos T ∈ Hom(E, F ). Probar que tanto la Ec. (1.31) como la Ec. (1.32) (para dos constantes m y M dadas) implican que T ∈ L(E, F ) y que es un iso bicontinuo. Incluso sale que kT k ≤ M y que kT −1 k ≤ m−1 . 4 1.5.4. Sea E un K-EV, y sean N1 y N2 dos normas en E. En tal caso se dice que N1 y N2 son normas equivalentes si existen m, M > 0 tales que m N1 (x) ≤ N2 (x) ≤ M N1 (x)
para todo
x∈E .
(1.33)
Esto equivale a que (E, N1 ) ' (E, N2 ) como espacios normados, por ejemplo con el isomorfismo IE1,2 = IE : (E, N1 ) → (E, N2 ). En efecto, basta tomar M = kIE1,2 k. La acotaci´on por 27
abajo equivale a que IE2,1 = (IE1,2 )−1 sea acotada. La rec´ıproca sale tomando cualquier otro isomorfismo T , y se deja como ejercicio. Ejemplos de normas equivalentes son todas las k · kp con 1 ≤ p ≤ ∞, siempre que uno las use solo en Kn , con el n fijo . De hecho vale que, si 1 < p < ∞, entonces P |xk | ≤ n · kxk∞ para todo x ∈ E . kxk∞ ≤ kxkp ≤ kxk1 = k∈In
La aparici´on de ese n hace ya sospechar que la cosa se arruina al agrandar las dimensiones. En efecto, si ahora uno labura con el espacio SF del Ejem. 1.2.5 (las sucesiones “finitas”), ahi tienen sentido todas las k · kp , pero nunca son equivalentes entre s´ı. Eso se puede probar a mano, o usando que si lo fueran, los respectivos `p en los que SF es denso (o c0 para p = ∞), tendr´ıan que ser iguales como conjuntos (Prop. 1.5.2). Es f´acil ver que eso no pasa. En la mayor´ıa de los ejemplos infinitodimensionales, es raro que aparezcan dos normas equivalentes (salvo buscarlas ad hoc, por ejemplo tomando 2 · k · k). En cambio, como veremos en la siguiente secci´on, en los finitodimensionales todas las normas que uno pueda inventar para un espacio fijo son equivalentes. 4
1.6
Subespacios finitodimensionales.
Un problema t´ıpico del AF es que la bola BE de un normado E no siempre es compacta. En ´esta secci´on dilucidaremos exactamente cuando s´ı lo es y cuando no. Adivinen. Proposici´ on 1.6.1. Sea E un EN tal que dim E = n < ∞. Luego todo K-isomorfismo (s´olo lineal) Ψ ∈ Hom(Kn , E) es autom´aticamente un iso de EN’s, o sea que es un h´omeo. En Kn usamos, en principio, la norma Eucl´ıdea k · k2 . Demostraci´on. Tomemos la base {x1 , . . . , xn } de E dada por xk = Ψ(ek ) , k ∈ In . Luego Ψ(α) =
n X
α k xk ,
para
α = (α1 , . . . , αn ) ∈ Kn .
k=1
Veamos que la Ψ es continua (de ida). En efecto, para todo α ∈ Kn vale que kΨ(α)k ≤
n X
|αk | kxk k ≤ m´ax kxk k ·
k=1
k∈In
n X
|αk | ≤ n · m´ax kxk k kαk2 , k∈In
k=1
por lo que Ψ ∈ L(Kn , E). Nos falta mostrar que Φ = Ψ−1 ∈ L(E , Kn ). Lo enunciamos as´ı: Todo K-iso
Φ ∈ Hom(E , Kn )
debe ser continuo.
Supongamos que no lo es, i.e. kΦk = ∞. Entonces existe una sucesi´on (xn )n∈ N en BE \ {0} cuyas im´agenes yn = Φ(xn ) cumplen que an = kyn k −−−→ +∞. Luego la sucesi´on de los n→∞
zn = a−1 −−→ 0 mientras que del otro lado kΦ(zn )k = a−1 n xn − n kyn k = 1 para todo n ∈ N. n→∞
28
Sin embargo la c´ascara S n−1 = {w ∈ Kn : kwk = 1} es compacta en el espacio Eucl´ıdeo Kn . Luego existe una subsucesi´on (ynk )k∈ N de (yn )n∈ N tal que esta otra sucesi´on Φ(znk ) = a−1 −−→ w nk ynk −
para cierto
k→∞
w ∈ S n−1 .
Como ya vimos en la primera parte que Ψ = Φ−1 ∈ L(Kn , E) (tiene que ser continuo), sale que znk = Ψ Φ(znk ) −−−→ Ψ(w). Pero arriba vimos que znk −−−→ 0. Encima Ψ es un k→∞
k→∞
K-iso, por lo que tiene que valer que w ∈ S n−1 =⇒ w 6= 0 =⇒ Ψ(w) 6= 0. Todo este desastre provino de suponer que Φ no era continuo. As´ı que s´ı lo es y a otra cosa. Corolario 1.6.2. Sea E un EN de dim E = n < ∞. Entonces: 1. Si F es otro EN con dim F = n, entonces E ' F v´ıa cualquier iso lineal. 2. Dos normas N1 y N2 en E son equivalentes. O sea que existen m, M > 0 tales que m N1 (x) ≤ N2 (x) ≤ M N1 (x)
para todo
x∈E .
(1.34)
3. Nuestro E con cualquier norma queda Banach. 4. Tambi´en cumple que BE (con una norma cualquiera) es compacta. Demostraci´on. Si A : E → F es un iso lineal, y T ∈ L(E , Kn ) es alg´ un iso, la Prop. 1.6.1 nos asegura que tanto T como AT −1 : Kn → F deben ser isos de los buenos. Componiendo queda que A era anche h´omeo. O sea que E ' F v´ıa cualquier iso lineal. En particular, la identidad IE1,2 = IE : (E, N1 ) → (E, N2 ) es continua para los dos lados, o sea que es iso. Luego las desigualdades de (1.34) son consecuencia de la Ec. (1.31). La completitud y la compacidad de la bola BE salen combinando la Prop. 1.6.1 con la Prop. 1.5.2, usando que lo que se pide lo cumple Kn con la norma Eucl´ıdea. Corolario 1.6.3. Sea E un EN. Luego todo subespacio finitodimensional es cerrado. Demostraci´on. Sea S ⊆ E un tal subespacio. Por el Cor. 1.6.2, el tal S es un normado con la norma de E que debe ser completo. As´ı que tiene que ser cerrado en E. Corolario 1.6.4. Sea E un EN. Si tenemos que dim E = ∞, entonces la bola cerrada BE = {x ∈ E : kxk ≤ 1} no es compacta. Demostraci´on. Por un proceso inductivo y aplicando sistematicamente el Lema de Riesz 1.4.4, podemos construir una sucesi´on (xn )n∈ N de vectores unitarios de E tales que 1 , 2 para todo n ∈ N. Notar que el Lema 1.4.4 pide que los subespacios sean cerrados y propios. Por un lado los Sn 6= E porque dim E = ∞. Por otro lado, el Cor. 1.6.3 nos asegura que dim Sn < ∞ =⇒ Sn v E para cada n ∈ N, por lo que el proceso inductivo funciona. def
si Sn = span {x1 , . . . , xn }
entonces
d ( xn+1 , Sn ) ≥
En particular tenemos que kxn − xm k ≥ 12 para todo par n, m ∈ N tal que n 6= m. Y todos los xn viven en BE , por lo que la bola no puede ser compacta. 29
Corolario 1.6.5. Sean E y F dos EN’s y asumamos que dim E < ∞. Entonces todo operador A ∈ Hom (E , F ) es continuo (i.e., acotado). No se presume que A sea mono. P yk xk ∈ E, Demostraci´on. Fijemos una base {x1 , . . . , xn } de E como K-EV. Si y = k∈In
P
P
|yk | A xk ≤ y k A xk ≤ kA yk = k∈In
k∈In
m´ax kA xk k
P
k∈In
|yk | .
k∈In
Llamemos C = m´ax kA xk k < ∞ y definamos otra norma en E por la f´ormula k∈In
|ky |k
def
=
P
|yk |
para cada
y=
P
yk xk ∈ E .
k∈In
k∈In
Por el Cor. 1.6.2 existe M > 0 tal que |ky |k ≤ M kyk para todo y ∈ E. Luego kA yk ≤ C |ky |k ≤ C M kyk
1.7
para todo
y ∈ E =⇒ A ∈ L(E , F ) .
Cocientes.
Sea E un EN. Dado un S v E, consideramos la relaci´on de equivalencia usual x ∼S y
si
x−y ∈S
para pares
x, y ∈ E .
def
Es claro que E/S = E/∼s = {x + S : x ∈ E} es un K-EV (para eso no hace falta que S sea cerrado). La proyecci´on ΠS : E → E/S es un epimorfismo K-lineal, dado por def
ΠS x = x = x + S ∈ E/S
para cada
x∈E .
Pero ahora queremos definir en E/S una norma adecuada: La mejor candidata ser´a tomar la k x k como la distancia de x a S. Observar que, como S v E, para cada x ∈ E vale que d (x , S) = 0 ⇐⇒ x ∈ S ⇐⇒ x = 0. Adem´as, calcular la d (x , S) = ´ınf kzk no es z∈ x+S
otra cosa que minimizar las normas entre todos los integrantes de la clase de x (que es la variedad af´ın paralela a S “puesta” arriba de x). As´ı que eso usaremos: Proposici´ on 1.7.1. Sean E un EN y S v E tal que S = 6 E. Luego la f´ormula def
kx + Sk = d (x , S) = ´ınf kzkE z∈ x+S
para x + S ∈ E/S
con x ∈ E
define una norma en E/S que lo hace EN. Adem´as valen estas propiedades: 1. La proyecci´on ΠS al cociente cumple que ΠS ∈ L(E, E/S) con kΠS k = 1. 2. Si E era Banach, tambi´en lo ser´a E/S con su nueva norma.
30
(1.35)
Demostraci´on. Por lo que dec´ıamos arriba, la u ´nica clase con norma cero es la trivial. Ya vimos en la Ec. (1.26) que d (λ x , S) = |λ| d (x , S) para cualesquiera λ ∈ K y x ∈ E. Para ver la desigualdad triangular fijemos x, y ∈ E y w ∈ S. Luego kx + y + Sk = k(x + w) + y + Sk = ´ınf k(x + w) + (y + z)k ≤ kx + wk + ´ınf ky + zk . z∈S
z∈S
Tomando ahora ´ınfimo sobre w ∈ S nos queda que kx + y + Sk ≤ kx + Sk + ky + Sk. Es sabido que ΠS es K-lineal. Como d (x , S) ≤ kxk (para todo x ∈ E), vemos que kΠS k ≤ 1. La desigualdad kΠS k ≥ 1 es otra manera de enunciar el Lema de Riesz 1.4.4. Asumamos ahora que E es completo, y sea (xn )n∈ N una sucesi´on en E tal que (xn + S)n∈N es de Cauchy en E/S. Para ver que converge, alcanza mostrarlo para alguna subsucesi´on, por lo que podemos suponer (como en la prueba de la Prop. 1.1.12) que k(xn+1 − xn ) + Sk < 2−n
para todo
n∈N.
(1.36)
Fijemos y1 = x1 . La Ec. (1.36) nos premite construir inductivamente, para cada n ∈ N, un vector yn+1 ∈ xn+1 + S tal que kyn+1 − yn k < 2−n . El criterio para series dado en la Prop. 1.1.12 nos da que la sucesi´on (yn )n∈ N es de Cauchy en E y converge a un y ∈ E. Luego k·k
xn + S = ΠS (xn ) = ΠS (yn ) −−−→ ΠS (y) = y + S . n→∞
En general no es cierto en los espacios normados que una suma de subespacios cerrados tenga que seguir siendo cerrada. Contraejemplos de esto se mostrar´an a su debido tiempo (Ejer. 2.7.4). Hay en el medio una sutil noci´on de ´angulo entre subespacios, que veremos m´as adelante, y ´este a´ngulo decide cuando s´ı y cuando no. Pero ahora veremos que si uno de los subespacios es de dimesi´on finita, entonces la cosa seguro que anda bien: Corolario 1.7.2. Sea E un EN. Si tenemos dos subespacios S, F v E y adem´as asumimos que dim F < ∞, entonces se tiene que S + F = {x + y : x ∈ S e y ∈ F} v E. Demostraci´on. Consideremos el cociente ΠS : E → E/S. El curro es notar primero que F + S = Π−1 Π (F) , lo cual es una cuenta algebr´aica estandard. S S Ahora bien, el Cor. 1.6.3 nos asegura que ΠS (F) v E/S, porque es un subespacio de dimensi´on no menos finita que la de F. Pero como ΠS es continua, trae para atr´as cerrados en cerrados. Ejercicio 1.7.3. Sea E un EN. Dado un S v E, probar que 1. La ΠS ∈ L(E, E/S) es abierta, por lo que la topolog´ıa de abajo es la cociente. 2. Si tanto S como E/S son Banach’s con sus normas, entonces anche E es Banach. 4 Sin necesidad de usar que la proyecci´on al cociente es abierta, veremos que los cocientes tienen su versi´on “acotada” de la propiedad universal: 31
Proposici´ on 1.7.4. Sean E y F dos EN’s y sea S v E. Consideremos el normado E/S con la norma cociente, y la proyecci´on ΠS ∈ L(E , E/S). Luego: 1. Un operador lineal A : E/S → F es acotado ⇐⇒ A ◦ ΠS ∈ L(E , F ). 2. Adem´as vale que kAk = kA ◦ ΠS k. def
Demostraci´on. Para probar 1, lo no trivial es ver que A es continuo siempre que B = A◦ΠS lo sea. Para mostralo tomemos un ρ = ΠS x ∈ E/S con x ∈ E. Para todo z ∈ S vale que
kA ρk = kA ( ΠS x )k = A ( ΠS (x − z) ) ≤ kBkL(E , F ) kx − zk . Usando que kρk = inf kx − zk, deducimos que kA ρk ≤ kBk kρk para todo ρ ∈ E/S . Con z∈S
eso hemos probado que A ∈ L(E/S , F ) con kAk ≤ kBk. La otra desigualdad se deduce de 1.7.1 que kBk = kA ◦ ΠS k ≤ kAk kΠS k y de que kΠS k = 1. Corolario 1.7.5. Sean E y F dos EN’s y sea S v E. Luego: 1. Dado un T ∈ L(E , F ) tal que S ⊆ ker T , el “bajado algebr´aico” e T ∈ Hom (E/S , F )
definido por la ecuaci´on
e T ◦ ΠS = T ,
(1.37)
cumple que e T ∈ L(E/S , F ) i.e., un operador acotado baja acotado al cociente. 2. Adem´as vale que k e T k = kT k, Demostraci´on. Es una consecuencia directa de la Prop. 1.7.4, porque el bajado e T (cuya BD e y propiedades algebr´aicas damos por conocidas) cumple que T ◦ ΠS = T ∈ L(E , F ).
Hiperplanos Es claro que el n´ ucleo de un operador acotado es cerrado. Pero la rec´ıproca de eso es falsa en general. Basta tomar la identidad de un E pensado con dos normas no equivalentes (n´ ucleo ni tiene). Sin embargo, la cosa es m´as agradable para las funcionales: Ser el ker de una funcional puede caracterizarse as´ı: Dado un subespacio H ⊆ E (propio), existe ϕ ∈ E 0 tal que H = ker ϕ ⇐⇒ existe un x ∈ E tal que E = H ⊕ span {x} , (1.38) y a tales H se los llama hiperplanos. En efecto, como ϕ 6= 0, tomando cualquier x ∈ / ker ϕ ϕ(y) la prueba de ⇒ en (1.38) es f´acil, ya que y − ϕ(x) · x ∈ ker ϕ para todo y ∈ E. La rec´ıproca sale cocientando por H, porque E/H 'K span {x} 'K K. En otras palabras, tenemos que los hiperplanos son aquellos subespacios H ⊆ E tales que E/H 'K K. Una cosa interesante de los hiperplanos es que tienen que ser cerrados o densos. Esto es as´ı porque H ⊆ H ⊆ E y no queda mucho lugar (recordar que H v E). Ahora veremos que cuando el codominio de una TL es finitodimensional (y esto incluye a las funcionales), entonces la cerraz´on del ker s´ı alcanza para asegurar continuidad: 32
Proposici´ on 1.7.6. Sean E y F dos EN’s y asumamos que dim F < ∞. Sea T : E → F una transformaci´on K-lineal no nula. Entonces se tiene que T ∈ L(E, F ) (i.e., T es continua) ⇐⇒ ker T v E . En particular, una ϕ ∈ E 0 \ {0} cumple que ϕ ∈ E ∗ ⇐⇒ ker ϕ es un hiperplano cerrado. Demostraci´on. Observar que T se puede “bajar” a un K-monomorfismo T˜ : E/ ker T → F tal que T˜ ◦ Πker T = T =⇒ dim E/ ker T ≤ dim F < ∞ . Si asumimos que ker T v E, entonces la Prop. 1.7.1 dice que E/ ker T es un EN con la norma cociente. Entonces, por el Cor. 1.6.5, sabemos que T˜ ∈ L(E/ ker T , F ). Finalmente, como tambi´en Πker T es continua, queda que T = T˜ ◦ Πker T ∈ L(E, F ). La rec´ıproca sale porque ker T = T −1 ({0}) y los m´etricos son T1 .
Proposici´ on 1.7.7. Sea E un EN. Dados x ∈ E y ϕ ∈ E ∗ \ {0} se tiene que d (x , ker ϕ ) = |ϕ(x)| kϕ k−1
(1.39)
Demostraci´on. Llamemos S = ker ϕ v E. Sea ϕ e ∈ (E/S)∗ el bajado de ϕ al cociente E/S definido en (1.37). Como S es un hiperplano tenemos que E/S ' K, por lo que |ϕ( e x )| = kϕ ek k x k
para toda clase
x ∈ E/S
con
x∈E .
Por otro lado, el Cor. 1.7.5 asegura que kϕk = kϕ e k. Luego, todo x ∈ E cumple que (1.35)
d (x , ker ϕ ) = k x k =
1.8
|ϕ( e x )| kϕ ek
(1.37)
=
|ϕ(x)| . kϕ k
Algunos ejemplos de operadores.
El lector habr´a notado que apenas definimos espacios normados ya empezamos a trabajar con sus operadores acotados. Esto se justifica porque la teor´ıa es una especie de a´lgebra lineal topol´ogica-m´etrica y los objetos que interesan son las funciones lineales en este nuevo ambiente. Vimos algunos ejemplos de funcionales, pero faltan ver operadores acotados para ir acostumbr´andose a las macanas que hacen. Como dec´ıamos antes, los principales ejemplos ya exist´ıan antes de que se pergre˜ nara la teor´ıa. Fundamentalmente los operadores diferenciales (aunque estos no suelen ser acotados), integrales, y las diferenciales de funciones suaves entre normados, a las que se les pide acotaci´on. Sin embargo, en esta secci´on focalizaremos en operadores que hacen cosas a las que uno no est´a acostumbrado al laburar en Kn . El principlal generador de contraejemplos para intuiciones pifiadas es el famoso operador shift que presentamos a continuaci´on.
33
1.8.1 (El shift). Trabajemos en un espacio E de sucesiones, por ejemplo c0 o `p (N) para cualquier p ∈ [1 , ∞]. Definamos al operador S ∈ L(E), que llameremos el shift, como S(x) = (0 , x1 , . . . , xn , . . . )
para
x = (xn )n∈ N ∈ E .
(1.40)
Es decir que S “corre” o “shiftea” las entradas de x a la derecha en un lugar, y completa con un cero en la primera. Formalmente se puede escribir que S(x) = (yn )n∈ N ,
donde
y1 = 0
e
yn+1 = xn
para cada
n∈N.
Observar que S es mono, m´as a´ un es isom´etrico (normas con series o supremos ni ven al nuevo cero, y las dem´as entradas son las mismas de antes aunque en otros lugares). Pero ovbiamente S no es epi. De hecho R(S) = {(yn )n∈ N ∈ E : y1 = 0} v E. Esto s´olo ya contradice el Teor. de la dimensi´on de las matrices, que dice que si son endos y monos deben ser epis. Pero es a´ un peor, porque S es inversible a izquierda pero no a derecha. En principio es claro que no puede haber un A ∈ L(E) tal que SA = IE porque S no era epi. Pero si definimos T ∈ L(E) como el shift para el otro lado: T (y) = (y2 , y3 , . . . , yn , . . . )
para
y = (yn )n∈ N ∈ E ,
nos queda que T tacha el y1 y corre el resto de y al principio. Es claro que kT k = 1 y que este T s´ı es epi, pero ahora no es mono. Adem´as se ve inmediatamente que T S = IE . Otra cosa que pasa con S es que no tiene autovalores (a´ un si ponemos K = C). En efecto, λ = 0 no sirve porque S era mono. Y si tomamos λ 6= 0 y existiera un x ∈ E tal que S x = λ x, entonces tendr´ıamos que S n x = λn x para todo n ∈ N. Pero si miramos bien, vemos que S n x tiene n ceros al principio. Paso a paso, uno muestra que todas las entradas de x son nulas y x = 0, lo que no nos sirve como autovector. Pero la cosa es a´ un m´as rara con T , porque tiene “demasiados” autovalores. Fijens´en que si tomamos λ tal que |λ| < 1 y hacemos el vector xλ = (λn )n∈N , entonces xλ ∈ E porque tanto el supremo como las series a la p convergen bien para las geom´etricas. Ahora, T xλ = (λ2 , λ3 , . . . , λn , . . . ) = λ xλ . Creer o reventar. Todo un disco D de autovalores para T . Y ninguno para S. A pesar de que son operadores buen´ısimos. Ya los volveremos a ver a estos shifts (conocidos como los shifts unilaterales) a lo largo del texto. 4 1.8.2. Operadores de multiplicaci´ on. Caso continuo: Pongamos que E = Lp = Lp (X, Σ, µ), para alg´ un p ∈ [1 , ∞]. Fijemos una f ∈ L∞ y definamos su operador de multiplicaci´on Mf ∈ L(Lp )
dado por
Mf h = f · h
para las
h ∈ Lp .
(1.41)
Es claro que multiplicarlas por una acotada no saca a las h de su Lp . De hecho vale que 1/p 1/p R R kMf hkp = X |f |p · |h|p d µ ≤ kf k∞ |h|p d µ = kf k∞ khkp . X 34
Esto muestra que efectivamente Mf ∈ L(Lp ) con kMf k ≤ kf k∞ . Pero vale que kMf k = kf k∞
para toda
f ∈ L∞ .
(1.42)
Para verlo, fijemos un ε ∈ (0, kf k∞ ). Si llamamos Aε = {x ∈ X : |f (x)| ≥ kf k∞ − ε} (para un representante de la “clase” f ), sale que µ(Aε ) > 0. Si la medida fuera infinita, cambiemos Aε por alguien de medida positiva y finita dentro de ´el. Tomemos ahora la funci´on hε (x) = µ(Aε )−1/p · ℵAε
para
x∈X .
Una cuenta directa muestra que khε kp = 1, por lo que hε ∈ BLp . Pero si calculamos kMf hε kp = kf · hε kp =
≥
µ(Aε )
−1
R
p
Aε
µ(Aε )−1
R
|f | d µ
1/p
(kf k∞ − ε)p d µ Aε
1/p
= kf k∞ − ε .
Esto nos dice que kMf k ≥ kf k∞ − ε para cualquier tal ε, o sea que kMf k ≥ kf k∞ . El espacio L∞ , adem´as de ser Banach, es una K-´algebra, usando el producto punto a punto de las funciones. Observar que kf · gk∞ ≤ kf k∞ kgk∞ para cualquier par f, g ∈ L∞ . Una cosa as´ı se llama ´algebra de Banach y se estudiar´a sistem´aticamente m´as adelante (en el Cap. 6). Otra a´lgebra as´ı es L(E) para cualquier espacio E de Banach. El producto ah´ı es la composici´on de los operadores. M
La idea de este ejemplo es que da una representaci´on isom´etrica L∞ ,→ L(Lp ) por operadores de multiplicaci´on que, en el caso discreto (o sea `p ), se ver´an como operadores “diagonales”. Notar que M ∈ L L∞ , L(Lp ) . Al decir esto, impl´ıcitamente aseguramos que M es Klineal. Esto es bien f´acil de probar, y tambi´en es f´acil que Mf ·g = Mf ◦ Mg para f, g ∈ L∞ cualesquiera. As´ı que M es un morfismo isom´etrico de a´lgebras. Caso discreto: Si X = N, Σ = P(N) y µ es “contar”, uno tiene que Lp = `p . All´ı esta representaci´on M se ve as´ı: Dada la sucesi´on x = (xn )n∈ N ∈ `∞ , tenemos que Mx y = (xn yn )n∈N ∈ `p
para cada
y = (yn )n∈ N ∈ `p ,
(1.43)
por lo que podemos pensar que Mx es una matriz infinita diagonal actuando en las columnas infinitas de `p , porque lo que hace es multiplicar cada coordenada por un n´ umero distinto. Sigue valiendo que kMx k = kxk∞ y que Mx My = Mx y para todo par x , y ∈ `∞ , donde el producto en `∞ est´a dado por x y = (xn yn )n∈N ∈ `∞ . Autovalores: Observar que Mx en = xn en para todo n ∈ N. Por ello todas las entradas xn de x pasan a ser autovalores para Mx , con autovector en (los can´onicos). Sin embargo, en el caso X = [0, 1] con la medida usual, podemos tomar el operador Mt que multiplica las h por la funci´on f (t) = t, para t ∈ [0, 1]. Y lo que pasa es que el tal Mt no tiene nig´ un autovalor. En efecto, si Mt h = λ h, entonces (t − λ)h(t) = 0 (ctp). Esto obligar´ıa a que la h sea nula (ctp), y no nos servir´ıa como autovector. 35
Inversibles: Dejamos como ejercicio caracterizar las f ∈ L∞ (o las x ∈ `∞ ) tales que Mf es un iso en el sentido de la Ec. (1.30), o sea que Mf sea “inversible” en L(Lp ). Observar que si existiera la inversa de un Mf , no le quedar´ıa otra que ser M1/f . El tema es ver cu´ando eso existe y es acotado. Sugerimos hacerlo primero en el caso discreto, usando la Ec. (1.31). Despu´es eso se generaliza al caso continuo con los supremos esenciales (onda los Aε ). Veamos un ejemplo raro: Sea x = ( n1 )n∈N ∈ `∞ , que produce el operador Mx ∈ L(`p ). Por un lado Mx no tiene al cero como autovalor, porque es mono. Sin embargo Mx no es epi (y por ende no es iso), por ejemplo porque el mism´ısimo x ∈ `p (si p > 1) pero x ∈ / R(Mx ) (si p 6= ∞). Observar que su supuesta inversa ser´ıa “multiplicar por n en la n-´esima entrada”, lo que seguro no camina (no es acotado y ni siquiera “cae” siempre en `p ). 4 1.8.3 (N´ ucleos). Laburemos ahora en L2 = L2 (X, Σ, µ). Pensemos en el espacio X × X con la medida producto µ × µ. Si me dan una funci´on k ∈ L2 (X × X), que llamaremos un n´ ucleo, observar que es una funci´on de dos variables k(x, y) para x, y ∈ X (m´as bien es una clase). Definamos el operador Tk ∈ L(L2 ) por la f´ormula Z (Tk f )(x) = k(x, y) f (y) dµ(y) para cada f ∈ L2 y cada x ∈ X . (1.44) X k
x Observar que, como k ∈ L2 (X × X), las funciones X 3 y 7−→ k(x, y) viven en L2 (X) para casi todo x ∈ Y (por Fubini-Tonnelli). Por H¨older, eso muestra que los valores
|(Tk f )(x)| ≤ kkx k2 kf k2 < ∞
para casi todo
x∈X .
Como siempre, la linealidad de Tk sale sin problemas. Ahora calculemos Z Z 2 2 2 |(Tk f )(x)| dµ(x) ≤ kf k2 kkx k22 dµ(x) kTk f k2 = X
= kf k22
X
Z Z X
|k(x, y)|2 dµ(y) dµ(x) = kkk22 kf k22 .
X
En resumen, vemos que efectivamente Tk ∈ L(L2 ) con kTk k ≤ kkk2 . Es interesante observar que la f´ormula (1.44) que define a Tk tiene una clara semejanza con el producto de una matriz por un vector. Se multiplica escalarmente la “fila x” de k, moviendo su ´ındicey, por las entradas en y del vector f . De hecho, en el caso discreto `2 , el n´ ucleo k = k i,j i,j∈N es una matriz infinita y f´ormula (1.44) se traduce exactamente a X (Tk x)i = k i,j xj para cada x = (xj )j∈N ∈ `2 y cada i ∈ N , (1.45) j∈N
que es la multiplicaci´on matricial sin vueltas. Si bajamos m´as a´ un al caso finito, donde es un producto com´ un de una matriz por un vector, veremos que la cota kTk k ≤ kkk2 es demasiado grande. De hecho kkk2 es la norma Frobenius de la matriz k, que suele ser mucho mayor que la norma “espectral”, que es su norma como operador sobre Kn con la norma Eucl´ıdea. Esto nos hace pensar, con raz´on, que puede haber n´ ucleos k mucho m´as “grandes” que los de cuadrado integrable, que produzcan v´ıa (1.44) un operador Tk ∈ L(L2 ). Continuar´a. 4 36
1.9
Ejercicios del Cap. 1 - Espacios Normados
Ejercicios aparecidos en el texto 1.9.1. Completar los detalles de la prueba de la Prop. 1.1.2: Sea (E, k · k) un EN. Luego: 1. La d (x, y) = kx − yk (para x, y ∈ E) es una m´etrica en E. 2. Con la topolog´ıa asociada a d, E nos queda un EVT. En particular las translaciones E 3 y 7→ y + x y las flechas K 3 λ 7→ λ x (con x fijo) son continuas. 3. La funci´ on norma es continua. M´ as a´ un, vale la desigualdad para todo par kxk − kyk ≤ kx − yk = d (x, y) ,
x, y ∈ E .
4
1.9.2. Completar los detalles de la prueba de la Prop. 1.1.6: Sean E y F dos EN’s. Dado T ∈ Hom (E, F ), def
kT k = kT kL(E,F ) = sup
kT xkF : x ∈ E
y
kxkE ≤ 1 .
Entonces vale lo siguiente: n o 1. kT k = sup kT xkF = m´ın M ≥ 0 : kT xkF ≤ M kxkE para todo x ∈ E . x∈ BE
2. T ∈ C(E, F ) ⇐⇒ kT k < ∞. 1.9.3. Calcular la norma del operador de multiplicaci´on T ∈ L(SF ) dado por T x =
(1 −
1 n
) xn
n∈N
para cada x = (xn )n∈ N ∈ SF . Probar que se puede extender a L(`p ) manteniendo su norma, para todo exponente p ∈ [1 , ∞]. 1.9.4. Hacer los detalles de las cuentas de todos los ejemplos de las Secciones 1.2 y 1.3. Parte de este laburo (medidas, espacios Lp ) se propone con bastante detalle en subsecciones posteriores de esta secci´on. 1.9.5. Sea E un EN, y fijemos un subespacio cerrado S v E. Recordar la funci´on “distancia a S” d ( · , S) : E → R+
dada por
dS (x) = d (x, S) = ´ınf kx − yk , y∈ S
para cada
x∈E .
Probar que para todo x ∈ E se cumple que 1. La d (x, S) = 0 ⇐⇒ x ∈ S. 2. Para todo z ∈ x + S se tiene que d (z, S) = d (x, S). 3. Dado λ ∈ K, vale que la d (λ x , S) = |λ| · d (x , S). 4. La flecha E/S 3 x + S 7→ d (x , S) define una norma en E/S. 1.9.6. Sean E y F dos EN’s y tomemos T ∈ Hom(E, F ). Las siguientes condiciones son equivalentes: 1. Nuestro T ∈ L(E, F ) y es un iso bicontinuo. 2. Existen m, M > 0 tales que m kxkE ≤ kT xkF ≤ M kxkE para todo x ∈ E. 3. Existen m, M > 0 tales que m · BF ⊆ T (BE ) ⊆ M · BF . En tal caso se tiene que kT k ≤ M y que kT −1 k ≤ m−1 . Comparar con el Ejer. 1.5.3.
37
1.9.7. Probar que si 1 ≤ p ≤ q ≤ ∞, entonces `p (N) ⊆ `q (N). Ya que estamos, mostrar que si p < q, entonces la inculsi´ on es estricta. Sugerios mostrar que para toda x ∈ CN vale que kxkq ≤ kxkp . 4 1.9.8. Probar que si 1 < p, q < ∞ y
1 p
+
1 q
=1
=⇒
(`p )∗ ∼ = `q .
La acci´ on es la misma que en 1.3.1 haciendo series de productos, pero usando H¨older en vez de (1.20).
4
1.9.9. Completar los detalles de la prueba del Cor. 1.7.2: Sea E un EN. Si tenemos dos subespacios S, F v E y adem´ as asumimos que dim F < ∞, entonces se tiene que S + F = {x + y : x ∈ S e y ∈ F} v E. 1.9.10. Sea E un EN. Dado un S v E, probar que 1. La ΠS ∈ L(E, E/S) es abierta, por lo que la topolog´ıa de abajo es la cociente. 2. Si tanto S como E/S son Banach’s con sus normas, entonces anche E es Banach.
4
1.9.11. Caracterizar las f ∈ L∞ (o las x ∈ `∞ ) tales que su operador de multiplicaci´on Mf ∈ L(Lp ) es un iso (o sea que Mf es “inversible” en L(Lp ) ). Comparar con las f que son “inversibles” en el ´algebra L∞ .
Repaso de medidas complejas y signadas Sea X un conjunto y Σ una σ-´ algebra en X. Definamos las medidas complejas: 1. Una µ : Σ → C es una medida compleja si es una funci´on σ-aditiva que nunca toma el valor ∞. En tal caso el triplette (X , Σ , µ) es un espacio de medida compleja. 2. Denotaremos por M (X) = M (X , Σ) al conjunto de todas las medidas complejas definidas en Σ. 3. Dada µ ∈ M (X) diremos que µ es (a) Signada si µ(∆) ∈ R para todo ∆ ∈ Σ. (b) Positiva si es signada con signo + : µ(∆) ≥ 0 para todo ∆ ∈ Σ. (c) Dadas µ , ν ∈ M (X) ambas signadas, se pone que µ ≤ ν si µ(∆) ≤ ν(∆) para todo ∆ ∈ Σ. 4. Fijado ∆ ∈ Σ, denotaremos PD(∆) a las particiones finitas de ∆ en conjuntos medibles (y disjuntos). T´ıpicamente notaremos por Π = {A1 , . . . , An } ∈ PD(∆) a tales particiones. 1.9.12. Demostrar las siguientes propiedades de las medidas complejas: 1. El conjunto M (X) es un C-EV. Es decir que las CL’s de medidas complejas se quedan en M (X). 2. Si µ ∈ M (X) , entonces tambi´en µ, Re(µ) y Im(µ) ∈ M (X). La que deja de ser medida es la flecha Σ 3 ∆ 7→ |µ(∆)|, pero esto se arregla con algo de laburo: 1.9.13. Sea µ ∈ M (X , Σ). La variaci´ on total de µ es la funci´on ( |µ| : Σ → [0 , +∞]
dada por
|µ|(∆) = sup
n X
) |µ(Ak )| : Π = {A1 , . . . , An } ∈ PD(∆)
k=1
para cada ∆ ∈ Σ. Probar que |µ| ∈ M (X), por lo que es una medida positiva y finita. 1.9.14. Sea (X , Σ , µ) un espacio de medida compleja. Probar que 1. |µ(A)| ≤ |µ|(A) para todo A ∈ Σ.
38
,
2. Si λ ∈ M (X) es positiva y |µ(A)| ≤ λ(A) para todo A ∈ Σ, entonces |µ| ≤ λ. 3. M´ as a´ un, |µ| = min{λ ∈ M (X) : λ es positiva y |µ(A)| ≤ λ(A) para todo A ∈ Σ}. Definici´ on 1.9.15. Sean µ ∈ M (X) y E ∈ Σ. Decimos que µ esta concentrada en E si µ(A) = µ(A ∩ E) para todo A ∈ Σ . Definici´ on 1.9.16. Sean µ1 y µ2 ∈ M (X). Decimos que µ1 y µ2 son mutuamente singulares (µ1 ⊥ µ2 ) si existe Π = {E1 , E2 } ∈ PD(Σ) tal que µi est´a concentrada en Ei para i = 1, 2. 1.9.17. Sean µ1 , µ2 y λ ∈ M (X), con λ positiva. Demostrar que: 1. Si µ1 est´ a concentrada en E ∈ Σ, entonces |µ1 | tambi´en. 2. Si µ1 ⊥ µ2 , entonces |µ1 |⊥ |µ2 |. 3. Si µ1 ⊥ λ y µ2 ⊥ λ, entonces (µ1 + µ2 )⊥ λ. Definici´ on 1.9.18. Sean µ1 y µ2 ∈ M (X). Decimos que µ1 es absolutamente continua respecto de µ2 (se denota por µ1 µ2 ) si |µ2 |(A) = 0 =⇒ |µ1 |(A) = 0 para todo A ∈ Σ. 1.9.19. Sean µ1 , µ2 y λ ∈ M (X), con λ positiva. Demostrar que: 1. Si µ1 λ, entonces |µ1 | λ. 2. Si µ1 λ y µ2 ⊥ λ, entonces µ1 ⊥ µ2 . 3. Si µ1 λ y µ2 λ, entonces (µ1 + µ2 ) λ. 4. Si µ1 λ y µ1 ⊥ λ, entonces µ1 = 0. e. Si µ1 λ, entonces Re(µ1 ) λ and Im(µ1 ) λ. 1.9.20. Sea λ ∈ M (X) signada. Demostrar que existen dos (´ unicas) medidas λ+ y λ− ∈ M (X) positivas + − + − tales que λ = λ − λ y adem´ as λ ⊥ λ . 1.9.21. Sean µ , λ ∈ M (X), con λ signada. Demostrar que: λµ
⇐⇒
λ+ µ
y
λ− µ.
def
1.9.22. Probar que la flecha M (X) 3 µ 7−→ kµk = |µ|(X) define una norma en M (X). 1.9.23. Sea (X , Σ , µ) un espacio de medida (positiva) y sea f ∈ L1 (µ). Definimos la funci´on Z µf : Σ → C
dada por
µf (∆) =
f dµ , ∆
para cada ∆ ∈ Σ (observar la definici´ on es buena). Probar que 1. Toda tal µf es una medida compleja. 2. Su variaci´ on total cumple que |µf | = µ|f | . 3. Deducir que kµf k = kf k1 .
39
1.9.24. Supongamos que (X , τ ) es un espacio topol´ogico Hausdorff. Sea Σ una σ-´algebra que contenga a τ (y por ello a los Borelianos de X). Una medida µ ∈ M (X) es regular si cumple que |µ|(∆) = ´ınf |µ|(U ) : U es abierto y ∆ ⊆ U = sup |µ|(F ) : F es cerrado y F ⊆ ∆ , (1.46) para todo ∆ ∈ Σ. Probar que 1. Una µ es regular ⇐⇒ dados ∆ ∈ Σ y ε > 0, existen un abierto U y un cerrado F tales que F ⊆∆⊆U
y
|µ|(U \ F ) < ε .
2. El conjunto Mr (X) = {µ ∈ M (X) : µ es regular } ⊆ M (X) cumple que (a) Es un subespacio, o sea que suma de regulares es regular. (b) M´ as a´ un, Mr (X) v M (X), o sea que es un subespacio cerrado. def
(c) Si en Mr (X) consideramos la norma µ 7−→ kµk = |µ|(X), nos queda que Mr (X) es un Banach. 1.9.25. Supongamos ahora que (X , τ ) es un espacio topol´ogico compacto Hausdorff. Sea Σ la σ-´algebra de los Borelianos de X. Fijemos µ ∈ Mr (X) (insistimos: es regular). Probar que 1. Toda f ∈ C(X) (o sea que f es continua) es µ-integrable. 2. Por otro lado, se tiene la desigualdad Z Z ≤ f dµ X
|f | d |µ| ≤ kf k∞ kµk .
(1.47)
X
3. La funcional ϕµ : C(X) → C dada por Z ϕµ (f ) =
f dµ
para cada
f ∈ C(X)
X
es lineal y continua, por lo que ϕµ est´a en C(X)∗ . M´as a´ un, se tiene que kϕµ k =
sup |ϕµ (f )| = |µ|(X) = kµk .
(1.48)
kf k∞ =1
Observar que una desigualdad sale usando (1.47). Para probar la otra es donde se usa que la µ es regular, como se decribe en el Ejem. 1.3.3. Observaci´ on 1.9.26. El Teorema de Riesz dice que esta flecha Mr (X) 3 µ 7→ ϕµ ∈ C(X)∗ produce que ∗ ∼ C(X) = Mr (X). El Ej. anterior es la parte f´acil de su prueba, pero ya dice mucho porque asegura que una µ ∈ Mr (X) est´ a caracterizada por c´ omo actua en las continuas. Sin embargo, mucho m´as dif´ıcil (y m´as u ´til) es ver que dicha flecha es epi. La idea no es tan rara: dada ϕ ∈ C(X)∗ una funcional positiva (esto significa que ϕ cumpla que ϕ(f ) ≥ 0 siempre que f ≥ 0), se define la candidata a medida positiva µϕ : Σ → R ∪ {∞} dada por µϕ (∆) = sup ϕ(g) : g ∈ C(X) y 0 ≤ g ≤ ℵ∆ . Largas p´ aginas de laburo permiten ver que esta idea alcanza para mostrar que la flecha era epi.
4
1.9.27. Sea X un espacio Hausdorff y Cb (X) el espacio de todas las funciones continuas acotadas definidas en X que toman valores complejos. En Cb (X), definimos la norma kf k∞ = max |f (x)|. x∈X
Probar que (Cb (X), k · k∞ ) es un espacio de Banach. 1.9.28. Sea X un espacio LKH y C0 (X) el espacio de todas las funciones continuas f : X → C tales que para todo ε > 0 el conjunto {x ∈ X : |f (x)| ≥ ε} es compacto. Probar que que C0 (X) es un subespacio cerrado de Cb (X) y en consecuencia es un espacio de Banach.
40
Los espacios Lp . A partir de ahora decimos que (X , Σ , µ) es us espacio de medida si µ es positiva y no necesariamente finita. Para evitar dividir por la relaci´ on “difieren en un conjunto de medida nula”, definamos 1. Med(X) = Med(X , Σ) = {f : X → C : f es Σ-medible }, que es un C-EV. 2. N (X) = N (X , Σ , µ) = f ∈ Med(X) : µ |f | = 6 0 = 0 , que es un subespacio. 3. L(X) = L (X , Σ , µ) = Med(X)/N (X), el C-EV de clases en c.t.p. de funciones medibles. Es f´ acil ver que todas las operaciones que uno hace en L(X) para definir los espacios Lp estar´an bien definidas en toda la clase de cada f ∈ Med(X). 1.9.29. Sea (X , Σ , µ) un espacio de medida. 1. Para 1 ≤ p < ∞ definimos Lp = Lp (X, Σ, µ) = {f ∈ L(X) : tales que
Z
|f |p dµ < ∞ } ,
X
con la norma kf kp =
1/p . Probar que (Lp , k · kp ) es un espacio de Banach. |f |p dµ
R X
2. Fijada una f ∈ Med(X, Σ), definimos su supremo esencial como el n´ umero kf k∞ = ess sup(f ) = ´ınf M > 0 : tal que µ |f | > M = 0 . Es claro que la k · k∞ baja bien definida a L(X). Luego definimos el espacio normado L∞ = L∞ (X, Σ, µ) = {f ∈ L(X) : kf k∞ < ∞ } . Probar que (L∞ , k · k∞ ) es un espacio de Banach. 1.9.30. Sea (X , Σ , µ) un espacio de medida finita. Probar que 1. Si 1 ≤ p ≤ q ≤ ∞, entonces Lq ⊆ Lp . 2. Si f ∈ L∞ (X, Σ, µ) entonces kf k∞ = lim kf kp . p→∞
3. Dar un contraejemplo del item 1 si µ no es finita. 1.9.31. Sea (X , Σ , µ) un espacio de medida. Probar que 1. Si 1 ≤ p ≤ q ≤ ∞ entonces Lp ∩ L∞ ⊆ Lq . 2. Si f ∈ Lp ∩ L∞ entonces kf k∞ = lim kf kp . p→∞
1.9.32. Sea (X , Σ , µ) un espacio de medida finita. Fijemos 1 ≤ p , q ≤ ∞ exponentes conjugados (i.e. 1 1 on R : Lq → (Lp )∗ dada por p + q = 1). Consideremos la representaci´ Lq 3 g 7→ R(g) = ϕg
Z donde
ϕg (f ) =
f g dµ
para cada
f ∈ Lp (X, Σ, µ) .
X
Mostrar que esta representaci´ on es un isomorfismo isom´etrico sobre que permite identificar (Lp )∗ con Lq . La prueba de que es “sobre” requiere del Teorema de Radon-Nikodym. Si no lo conocen lo suficiente pueden ir a la p´ agina http://es.wikipedia.org/wiki/Teorema de Radon-Nikodym. Lo anterior se extiende al caso en que (X , Σ , µ) es σ-finito (i.e. X es uni´ on numerable de cachos de medida finita), que es hasta donde llega el TRN. Con eso R y los Rn safan.
41
1.9.33. Sea (X , Σ , µ) un espacio de medida. Consideremos el espacio S0 (X) de todas las “funciones” f ∈ L(X) que son simples (i.e. CL de caracter´ısticas) tales que µ{x ∈ X : f (x) 6= 0} < ∞. Probar que S0 (X) es denso en Lp para todo p ∈ [1 , ∞). 1.9.34. Supongamos que en el ejercicio anterior X es un espacio topol´ogico LKH y que Σ es la σ-´algebra de Borel. Probar que el subespacio Cc (X) de las funciones continuas definidas en X con soporte compacto es denso en Lp para todo p ∈ [1 , ∞). 1.9.35. Supongamos ahora que X ⊆ Rn es un abierto y que Σ consta de los Borelianos de X. Probar que el subespacio Cc∞ (X) de las funciones definidas en X con infinitas derivadas continuas y soporte compacto es denso en Lp para todo p ∈ [1 , ∞).
Los espacios de Sobolev. Definici´ on 1.9.36. Sean Ω ⊆ R un intervalo y Cc∞ (Ω) las funciones definidas en Ω infinitamente deribables con soporte compacto. Dada f ∈ L1loc (Ω), decimos que una funci´on g ∈ L1loc (Ω) es la k-´esima derivada d´ebil de f , y lo escribimos Dk f = g, si para toda φ ∈ Cc∞ (Ω) se satisface la siguiente identidad: Z Z (k) k f φ dx = (−1) g φ dx. Ω
Ω
4
Se puede probar que estas derivadas en el sentido d´ebil son u ´nicas.
1.9.37 (Espacios de Sobolev). Para 1 ≤ p ≤ ∞ definamos el espacio de Sobolev W n,p como el espacio de todas las funciones f ∈ Lp (Ω) tales que para cada k ∈ In la derivada Dk f existe en el sentido d´ebil y pertenece a Lp (Ω). En dicho espacio se define la siguiente norma:
kf kW n,p =
1/p n P p kD f k k p k=0
n P
kDk f k∞
si 1 ≤ p < ∞
si
p=∞ .
k=0
Probar que (W n,p , k · kW n,p ) es un espacio de Banach.
Ejemplos de operadores acotados. 1.9.38 (Shift). Sea 1 ≤ p ≤ ∞. Consideremos los operadores S : `p → `p y T : `p → `p dados por S(x) = (0 , x1 , x2 , . . .)
y
T (x) = (x2 , x3 , x4 , . . .)
para
x = (xn )n∈ N ∈ `p .
1. Probar que S ∈ L(`p ) y que es mono. Calcular kSk. 2. Probar que T ∈ L(`p ) y que es epi. Calcular kT k. 3. Probar que T S = I, pero ST 6= I. 4. Probar que S no tiene autovalores, mientras que los de T son todo el D = {λ ∈ C : |λ| < 1}. 1.9.39. Operadores de Multiplicaci´ on. 1. Dada una ϕ ∈ C[0, 1], consideremos el operador Mϕ : C[0, 1] → C[0, 1] definido por Mϕ (f ) = ϕf
para cada
Probar que Mϕ ∈ L(C[0, 1]) y calcular su norma.
42
f ∈ C[0, 1] .
(1.49)
2. Dada ϕ ∈ L∞ [0, 1], definimos Mϕ : L2 [0, 1] → L2 [0, 1] igual que el (1.49). Probar: (a) Mϕ ∈ L(L2 [0, 1]) con kMϕ k = kϕk∞ . (b) La representaci´ on M : L∞ [0, 1] → L(L2 [0, 1]) dada por M (ϕ) = Mϕ para cada ϕ ∈ L∞ [0, 1], es un morfismo isom´etrico de ´ algebras (i.e. es K-lineal y respeta productos). (c) Mϕ2 = Mϕ ⇐⇒ ϕ es una caracter´ıstica. 1.9.40. Sea a = (an )n∈ N ∈ CN una sucesi´on de n´ umeros complejos. Fijado p ∈ [1 , ∞), definimos el operador Ma : `p → `p por Ma x = (an xn )n∈N , para cada x = (xn )n∈ N ∈ `p . Probar que 1. Este Ma est´ a bien definido (cada Ma x cae en `p ) ⇐⇒ Ma ∈ L(`p ) ⇐⇒ a ∈ `∞ . 2. En tal caso se tiene que kMa k = kak∞ . 3. La representaci´ on M : `∞ → L(`p ) dada por M (a) = Ma para cada a ∈ `∞ , es un morfismo isom´etrico de ´ algebras (i.e. es K-lineal y respeta productos). 4. Un Ma es mono ⇐⇒ an 6= 0 para todo n ∈ N. def
∞ 5. Un Ma es un isomorfismo (y h´ omeo) ⇐⇒ a es inversible en `∞ ⇐⇒ a−1 = (a−1 n )n∈N ∈ ` .
6. Sea D = {Ma : a ∈ `∞ } = R(M ). Dado un A ∈ L(`p ), son equivalentes: (a) El tal A est´ a en D. (b) Est´ a en el comnutante: A ∈ D0 , o sea que A conmuta con todos los Ma ∈ D. (c) Algo menos: A Men = Men A para todos los en de la base can´onica de SF ⊆ `p . Comparar esta descripci´ on de D con las matrices diagonales de L(Kn ).
4
1.9.41. Si k ∈ L2 ([0, 1] × [0, 1]), sea Tk : L2 ([0, 1]) → L2 ([0, 1]) dado por Z (Tk f )(s) =
1
k(s, t) f (t) dt
para cada
f ∈ L2 [0, 1] .
0
Probar que Tk ∈ L(L2 [0, 1]) y que kTk k ≤ kkk2 .
4
Funcionales Lineales. 1.9.42. Sean E un EN y ϕ : E → C una funcional lineal tal que ϕ 6= 0. Probar que ϕ(E) = C.
4
1.9.43. Sean E un EN y ϕ ∈ ER0 . Probar que 1. Si ϕ ∈ / ER∗ entonces toma todos los valores reales en cualquier entorno de 0. 2. ϕ ∈ ER∗ ⇐⇒ para cada c ∈ R, los conjuntos {x : ϕ(x) < c} y {x : ϕ(x) > c} son abiertos. 3. Si A ⊆ E tiene interior no vac´ıo y existe a ∈ R tal que ϕ(A) ⊆ {x : ϕ(x) ≤ a}, entonces ϕ ∈ ER∗ . 4 1.9.44. Probar que las siguientes funcionales son lineales, continuas y hallar sus normas. 1. ϕ ∈ c0 dada por ϕ(x) = lim xn para cada x = (xn )n∈ N ∈ c el espacio definido en (1.12). n→∞
2. ϕ ∈ L2 [−1, 1]0 dada por ϕ(f ) =
R1 −1
t f (t) dt para cada f ∈ L2 [−1, 1].
43
3. ϕ ∈ (`∞ )0 dada por ϕ(x) = x1 + x2 para cada x = (xn )n∈ N ∈ `∞ . 4. ϕ ∈ (`2 )0 dada por ϕ(x) = x1 + x2 para cada x = (xn )n∈ N ∈ `2 . ∞ P
5. ϕ ∈ (`2 )0 dada por ϕ(x) =
xk k
k=1
6. ϕ ∈ c00 dada por ϕ(x) =
∞ P k=1
xk 2k
para cada x = (xk )k∈ N ∈ `2 .
para cada x = (xk )k∈ N ∈ c0 .
4
1.9.45. Sean E un espacio de Banach, ϕ ∈ E ∗ and y ∈ E tal que ϕ(y) 6= 0. Probar que: 1. Se tiene la descomposici´ on E = ker ϕ ⊕ span {y}. 2. Vale la igualdad d (y , ker ϕ) =
|ϕ(y)| kϕk
. Probarla “a mano”, sin usar la Prop. 1.7.7.
3. Dado a ∈ C, sea H = ϕ−1 (a) = {x ∈ E : ϕ(x) = a}. Entonces d (0 , H) =
|a| kϕk
.
1.9.46. Sean E un EN y ϕ, ψ ∈ E ∗ tales que ϕψ ≡ 0. Probar que en tal caso ϕ ≡ 0 o bien ψ ≡ 0.
4 4
Potpurr´ı. 1.9.47. Sea (E, k · k) un EN. Son equivalentes: 1. E es un espacio de Banach. 2. La bola BE es completa. 3. La c´ ascara SE = {x ∈ E : kxk = 1} es completa. P P 4. Para toda sucesi´ on (xn )n∈N en E vale que kxn k < ∞ =⇒ xn converge en E. n∈N
4
n∈N
1.9.48. Sean E un EN, F ⊆ E un subespacio de dimensi´on finita y x ∈ E. Probar que existe un y0 ∈ F que realiza la distancia, o sea que kx − y0 k = d (x , F). 4 1.9.49. Sea E un EN. Dados S , T v E definamos def
A(S , T ) = ´ınf { ks − tk : s ∈ S , t ∈ T
y
ksk = ktk = 1} .
Demostrar que S + T v E ⇐⇒ A(S , T ) > 0.
4
1.9.50. Sea E un EN. Dado S v E, probar que 1. Si E es separable entonces tambi´en lo es E/S . 2. Si S y E/S son separables entonces tambi´en lo es E. 3. Dar un ejemplo en el cual E/S es separable pero E no lo es.
4
1.9.51. Sea E un EN. Probar que 1. Dados A , B ∈ L(E) vale que kABk ≤ kAk kBk. 2. La flecha L(E) × L(E) 3 (A , B) 7→ AB ∈ L(E) es continua respecto de la norma de L(E).
44
4
1.9.52. Sea E un EB. Dado A ∈ L(E) tal que kAk < 1. Demostrar que 1 − A es inversible con (1 − A)−1 =
∞ X
An
y
k(1 − A)−1 k ≤
n=0
1 . 1 − kAk
4
1.9.53. Sea E un EB. Denotemos Gl (E) = {T ∈ L(E) : T es inversible }. Probar que Gl (E) es un abierto de L(E). Sug: Probar que si T ∈ Gl (E) entonces B(T , kT −1 k−1 ) ⊆ Gl (E). 4 k·k
1.9.54. Sea E un EB. Dada una sucesi´ on (An )n∈N en Gl (E), mostrar que si An −−−−→ A pero A ∈ / Gl (E), n→∞
entoces debe pasar que kA−1 −−−→ ∞. n k−
4
n→∞
45
Cap´ıtulo 2 Funcionales y Operadores 2.1
Hahn Banach: El dual es grande.
El teorema de Hahn Banach es una aplicaci´on clave del Lema de Zorn que permite levantar a dimesi´on infinita buena parte de la intuici´on de Kn . En principio resolver´a un problema que mencionamos anteriormente: Si bien en los ejemplos concretos vimos que el dual de un normado suele ser bien grande, en el contexto abstracto uno no sabe ni siquiera si hay alguna funcional continua (ϕ 6= 0) para un espacio no nulo. El teorema, cuyo enunciado es m´as general que lo que uno necesita para contruir funcionales en los normados, servir´a tambi´en para poder ver que los EVT’s dados por familias de seminormas tienen suficientes funcionales continuas (por ejemplo, familias que separen puntos del dominio). Tambi´en ser´a clave para tratar las propiedades de los conjuntos convexos en estos espacios. Pero para estas aplicaciones habr´a que esperar hasta el Cap. 5. Definici´ on 2.1.1. Sea E un R-EV. Una funci´on q : E → R se llama sublineal si cumple la desigualdad triangular q(x + y) ≤ q(x) + q(y) y una versi´on parcial de sacar escalares: q(λ x) = λ q(x)
(sin m´odulo)
, para todo x ∈ E y todo λ ∈ R+ .
4
Teorema 2.1.2. [Hahn-Banach] Sea E un R-EV, q : E → R una funci´on sublineal, S ⊆ E un subespacio y ϕ ∈ S 0 una funcional que cumple la acotaci´on ϕ(y) ≤ q(y) ,
para todo
y∈S .
Entonces existe una funcional Φ ∈ E 0 que cumple lo siguiente: 1. Φ(x) ≤ q(x), para todo x ∈ E. 2. Φ extiende a ϕ, o sea que Φ(y) = ϕ(y), para todo y ∈ S. Demostraci´on. Por una Zornificaci´on, alcanzar´a hacer el “paso inductivo”, que viene ahora: Caso 1: Supongamos que S es un hiperplano, o sea que E = S ⊕ R · x para alg´ un x ∈ / S. 0 En tal caso, cualquier Φ ∈ E que extienda a ϕ debe actuar as´ı: Φ(y + tx) = ϕ(y) + t α ,
para 46
y∈S ,
t∈R,
para alg´ un α = Φ(x) ∈ R a elegir. Pero se busca un α tal que ϕ(y) + t α ≤ q y + t x , para todo par y ∈ S , t ∈ R . Si t = 0 sabemos que vale. Si t > 0, esto significa que para cualquier y ∈ S valga −ϕ(y) + q y + t x y y α≤ = −ϕ +q +x . t t t Reemplazando
y t
por y (todo sigue en S), esto a su vez equivale a que α ≤ −ϕ(y) + q y + x para todo y ∈ S .
(2.1)
Similarmente, si t < 0 necesitamos que todos los z ∈ S cumplan −ϕ(z) + q z + t x −t >0 −z −z α≥ −q −x = ϕ t t t Nuevamente, esto equivale a que α ≥ ϕ(z) − q z − x
para todo
z∈S .
Juntando (2.1) y (2.2), para que un α as´ı pueda existir, habr´ıa que ver que ϕ(z) − q z − x ≤ −ϕ(y) + q y + x para todo par z, y ∈ S .
(2.2)
(2.3)
Y eso alcanzar´ıa porque, poniendo a α en el medio, las cuentas anteriores salen bien “hacia arriba”. Afortunadamente podemos hacer lo siguiente: Dados z , y ∈ S se tiene que ϕ(z) + ϕ(y) ≤ q(y + z) = q (y + x) + (z − x) ≤ q y + x + q z − x =⇒ (2.3) . 4 Caso general: Ahora viene Zorn. Notemos GS (E) al conjunto de subespacios de E que contienen a S. Tomemos el conjunto de las extensiones de ϕ acotadas por q, n o 0 C = (M, ρ) : M ∈ GS (E) , ρ ∈ M , ρ ≤ q y ρ S = ϕ ordenado por (M, ρ) ≤ (T , σ) si M ⊆ T y σ M = ρ. Miren que C 6= ∅ porque (S, ϕ) ∈ C. Dada una cadena (Mi , ρi )i∈I en C, la podemos acotar por el par (M, ρ), donde [ M= Mi y ρ(x) = ρi (x) para los x ∈ Mi . i∈I
El orden total de la cadena hace que M ∈ GS (E) (se suma en el i m´as grande), que ρ est´e bien definida, que sea menor que q y lineal en todo M. Claramente (M , ρ) ∈ C. Por definici´on sale que (Mi , ρi ) ≤ (M , ρ) para todo i ∈ I. Listo el pollo. Por Zorn hay un par (M0 , Φ) ∈ C que es maximal. Y por el paso inductivo del Caso 1, este M0 tiene que ser todo E. 47
Observaci´ on 2.1.3. Como muchas de las cuentas que siguen se hacen con funcioneales R-lineales, sus extensiones al caso complejo se har´an tomando partes reales de funcionales complejas. Para que esto camine bien, hacen falta unas cuentitas: Sea E un C-EV. 1. Dada φ ∈ ER0 (R-lineal), se verifica que la funcional φC : E → C
dada por
φC (x) = φ(x) − i φ(ix) , x ∈ E ,
(2.4)
es C-lineal (o sea que φC ∈ E 0 ). Esto sale porque φC es R-lineal y φC (ix) = φ(ix) + iφ(x) = i φC (x) ,
para todo
x∈E .
Observar que uno puede “volver” a ER0 usando que Re φC = φ. 2. Dada ϕ ∈ E 0 (C-lineal), luego Re ϕ = toda
ϕ ∈ E0
ϕ+ϕ 2
∈ ER0 . Adem´as se tiene que
se recupera de su parte real:
ϕ = (Re ϕ)C .
En efecto, para cualquier x ∈ E, igualando las partes reales de la igualdad Re ϕ(ix) + i Im ϕ(ix) = ϕ(ix) = iϕ(x) = − Im ϕ(x) + i Re ϕ(x) , obtenemos que Im ϕ(x) = − Re ϕ (ix). Mirando ahora (2.4) vemos que ϕ = (Re ϕ)C . 3. Por lo tanto, dadas ϕ1 , ϕ2 ∈ E 0 , tenemos que Re ϕ1 = Re ϕ2 =⇒ ϕ1 = ϕ2 . 4. Si me dan una C-seminorma p para E, y una funcional φ ∈ ER0 , vale que φ≤p
⇐⇒
|φC | ≤ p .
(2.5)
La implicaci´on ⇐ es obvia, porque φ = Re φC ≤ |φC | . Veamos la otra: Dado un punto x ∈ E, pongamos que φC (x) = eiθ |φC (x)|, y consideremos ahora y = e−iθ x ∈ E. Luego |φC (x)| = e−iθ φC (x) = φC (y) = Re φC (y) = φ(y) ≤ p(y) = p(e−iθ x) = p(x) . Observar que podemos decir lo mismo al rev´es: Si ϕ ∈ E 0 , |ϕ| ≤ p ⇐⇒ Re ϕ ≤ p.
4
Teorema 2.1.4 (H-B con seminormas y m´odulos). Sea E un K-EV, p : E → R+ una seminorma, S ⊆ E un subespacio y ϕ ∈ S 0 una funcional que cumple la acotaci´on | ϕ(y)| ≤ p(y) ,
para todo
y∈S .
Entonces existe una funcional Φ ∈ E 0 que cumple lo siguiente: 1. | Φ(x)| ≤ p(x), para todo x ∈ E. 2. Φ extiende a ϕ, o sea que Φ(y) = ϕ(y), para todo y ∈ S. 48
Demostraci´on. El caso K = R sale a partir del Teo. 2.1.2, usando que las seminormas son sublineales, y que p(−x) = p(x) para todo x ∈ E, por lo que Φ ≤ p =⇒ |Φ| ≤ p. El caso K = C se deduce del anterior usando la Obs. 2.1.3: Empiezo con una C-lineal ϕ ∈ S 0 , y llamo φ = Re ϕ ∈ SR0 , que tambi´en est´a acotada por p. Extiendo φ a una R-lineal Ψ ∈ ER0 por el caso anterior, y tomo ahora Φ = ΨC . Luego Φ sigue acotada por p, y veo que tanto ϕ como Φ S tienen la misma parte real φ, por lo que deben coincidir. Teorema 2.1.5 (H-B y el dual). Sea E un EN. Sean S ⊆ E un subespacio y ϕ ∈ S ∗ . Entonces existe una funcional Φ ∈ E ∗ que cumple lo siguiente: 1. Φ extiende a ϕ, o sea que Φ(y) = ϕ(y), para todo y ∈ S. 2. kΦkE ∗ = kϕkS ∗ . Demostraci´on. El hecho de que ϕ ∈ S ∗ significa que kϕkS ∗ < ∞ ,
y que
|ϕ(y)| ≤ kϕkS ∗ kyk
para todo
y∈S .
Como la flecha E 3 x 7→ p(x) = kϕkS ∗ kxk es una (semi)norma en E, y sabemos que ϕ ≤ p en S, se puede usar el usar el Teo. 2.1.4. Aparece la exensi´on Φ ∈ E 0 que cumple que |Φ(x)| ≤ kϕkS ∗ kxk para todo x ∈ E. Esto muestra que Φ ∈ E ∗ con kΦkE ∗ ≤ kϕkS ∗ . La otra desigualdad es trivial porque Φ extiende a ϕ, que alcanza su norma en BS ⊆ BE . Corolario 2.1.6. Sea E un EN. 1. El espacio dual topol´ogico (respecto a la norma) E ∗ separa puntos de E. 2. M´as a´ un, dado x ∈ E, existe una ϕ ∈ E ∗ tal que kϕk = 1
y
|ϕ(x)| = kxk .
(2.6)
3. Esto dice que se puede calcular kxk en forma dual usando a E ∗ . Es decir que para cualquier x ∈ E vale que kxk = m´ax |ϕ(x)| : ϕ ∈ BE ∗ .
(2.7)
Demostraci´on. La prueba es directa a partir del Teo. 2.1.5. Veamos 2: La clave es definir una buena ϕ0 en el dual del subespacio S = span {x} = K x. Buena significa que ϕ0 (x) = kxk
por lo que
|ϕ0 (λ x)| = |λ| kxk = kλ xk
para todo λ ∈ K .
Observar que kϕ0 kS ∗ = 1, ya que |ϕ0 (z)| = kzk para todo z ∈ S. Si ϕ ∈ E ∗ extiende a ϕ0 y cumple que | ϕ(y)| ≤ kyk para todo y ∈ E, es claro que kϕk = 1 como aspir´abamos. A partir de 2, la Ec. (2.7) se deduce sin dificultad. Ejercicio 2.1.7. Sea E un EN. Dado un subespacio S v E y un x ∈ / S, probar que existe ∗ una ϕ ∈ E tal que S ⊆ ker ϕ , kϕk = 1 pero |ϕ(x)| = d ( x , S ) . Se sugiere probarlo primero a mano en S ⊕ span {x} y extender por Hanh-Banach. Reci´en despu´es hacerlo usando la Ec. (2.6) en E/S . 4 49
Ejercicio 2.1.8. Sea E un EN. Dado un subespacio S ⊆ E, probar que \ S = { ker ϕ : ϕ ∈ E ∗ y S ⊆ ker ϕ } . M´as adelante veremos que esto significa que S es el “doble anulador” de S.
4
Ejercicio 2.1.9. Sea E un EN. 1. Dado un x ∈ E y una ϕ ∈ E ∗ como en la Ec. (2.6), mostrar que ah´ı s´ı vale que (1.39)
d (x , ker ϕ) = kxk. Comparar con la Ec. (1.27) y el Ejem. 1.4.3. 2. Asumamos que dim E = ∞. Usando recursivamente el item anterior, probar que existen una sucesi´on (xn )n∈ N en E y una familia de subespacios Sn v E tales que (a) La dim Sn = ∞ y la kxn k = 1 para todo n ∈ N. (b) Los subespacios decrecen: Sm ⊆ Sn si n ≤ m. (c) Para todo n ∈ N vale que xn ∈ Sn . Luego xm ∈ Sn para todo m ≥ n. (d) Pero adem´as vale que Sn = Sn+1 ⊕ K xn para todo n ∈ N. (e) Observar que nos queda que E = Sn+1 ⊕ span {x1 , . . . , xn } para todo n ∈ N. (f) Por u ´ltimo pedimos que la d (xn , Sn+1 ) = 1 para todo n ∈ N. Sugerencia: Empezar con S1 = E y x1 ∈ E un unitario cualquiera. El paso inductivo es encontrar una ϕn ∈ Sn∗ tal que d (xn , ker ϕn ) = 1 (todo en Sn ). Luego se podr´a definir Sn+1 = ker ϕn ⊆ Sn y elegir el xn+1 al azar all´ı dentro. 3. Asumiendo adem´as que E es un EB, exhibir un T ∈ L(`∞ , E) que sea mono.
4
Sugerencia: Construir la sucesi´on (xn )n∈ N en E de vectores P unitarios y los Sn del item 2. Luego mandar cada a = (an )n∈ N ∈ `∞ a la serie T (a) = n∈N 2−n an xn ∈ E. Ejercicio 2.1.10. Sea E un EB infinitodimensional, con dim E = α (dimensi´on algebr´aica). 1. Usando el Teor. de Baire 2.2.4, probar que α > |N| = ℵ0 . 2. M´as a´ un, usando el Ejer. 2.1.9 y Vandermonde, mostrar que α ≥ |R| = c. Sug: Considerar los vectores (λn )n∈N ∈ `∞ para cada λ ∈ C con |λ| < 1.
4
Veamos un ejemplo de como el Teo. de H-B nos permite maniobrar en un EN gen´erico: Proposici´ on 2.1.11. Sea E un EN. Dado un S v E tal que n = dim S < ∞, existe un “proyector” acotado P ∈ L(E) tal que P ◦ P = P y R(P ) = S.
50
Proof. Por el Cor. 1.6.5, tenemos que S ∗ = S 0 . Sea B = {x1 , . . . , xn } una base de S. Luego existe una base dual B 0 = {ϕ1 , . . . , ϕn } ⊆ S ∗ , es decir que ϕm (xn ) = δmn . Estendamos estas funcionales a todo E ∗ preservando sus normas (se puede por H-B) y manteniendo sus nombres. Ahora podemos definir el proyector X P ∈ L(E) dado por P x = ϕk (x) xk para cada x ∈ E . k∈In
P Es f´acil testear que kP k ≤ k∈In kϕk k < ∞, que P y = y para los y ∈ S (ac´a se usa que la base B 0 es dual de B) y que R(P ) = S. De ah´ı sale de inmediato que P ◦ P = P . Corolario 2.1.12. Sean E y F dos EN’s. Dado un S v E tal que n = dim S < ∞, vale que todo operador acotado T0 ∈ L(S , F ) se puede extender a un T ∈ L(E , F ). Se cumple que T |S = T0 y que kT k ≤ K kT0 k, donde la constante K ≥ 1 depende de E y de S, pero es la misma para todos los operadores T0 ∈ L(S , F ) (y todos los espacios F ). Proof. Sea P ∈ L(E) el proyector sobre S de la Prop. 2.1.11, y sea K = kP k. Como def R(P ) = S tiene sentido definir la composici´on T = T0 ◦ P ∈ L(E , F ). Eso es todo.
La inmersi´ on en el doble dual 2.1.13. Sea E un EN. Usando el Cor. 2.1.6, tenemos los siguientes hechos: 1. Como E ∗ es tambi´en un normado (es un Banach), podemos considerar a su dual topol´ogico E ∗∗ = (E ∗ )∗ . 2. Definamos la inmersi´on can´onica J = JE : E → E ∗∗ como el morfismo inducido por la dualidad (x, ϕ) 7→ hx, ϕi = ϕ(x). O sea que, dado un x ∈ E, definimos JE x = Jx ∈ E ∗∗
por la f´ormula Jx (ϕ) = ϕ(x) , para toda ϕ ∈ E ∗ .
(2.8)
O sea que hacemos actuar a E en el espacio E ∗ v´ıa “ser evaluado en”. 3. La Ec. (1.7) nos dice que J reduce normas (en particualar que las funcionales Jx son continuas en E ∗ ). Pero el Cor. 2.1.6 asegura que J es isom´ etrica: kJx kE ∗∗
(1.6)
=
(2.8)
sup |Jx (ϕ)| = ϕ∈BE ∗
(2.7)
sup |ϕ(x)| = kxkE . ϕ∈BE ∗
4. El espacio E se dice que es reflexivo si ´ esta isometr´ıa JE : E ,→ E ∗∗ es sobre. 5. Ojo que existen espacios F que son isom´etricamente isomorfos a su F ∗∗ , pero que no son reflexivos (o sea que LA inmersi´on JF : F ,→ F ∗∗ no era sobre). 4
51
Ya conocemos casos de espacios reflexivos (como los `p y los Lp si 1 < p < ∞) y no reflexivos ∼ 1 ∗∼ ∞ ∼ ∞ como c0 , porque c∗∗ 0 = (` ) = ` . En este caso una sabe gratis que no vale que c0 = ` porque uno es separable y el otro no. Pero mejor a´ un, mirando los isomorfismmos en cuesti´on, es f´acil ver que la Jc0 : c0 ,→ `∞ no es otra cosa que la inclusi´on (ver el Ejem. 2.6.4 para m´as detalles). Es porque `∞ act´ ua en `1 igual a como c0 es “actuado” por `1 . Y esa inclusi´on no es sobre. Observaci´ on 2.1.14. Sea E un EN. Hab´ıamos mencionado que a E se lo puede completar a un Banach que lo tenga como subespacio denso. Eso se hace con las sucesiones de Cauchy como a cualquier otro EM, aunque ac´a adem´as hay que definir las operaciones y toda esa vaina. Pero en los normados ahora hay un camino que es casi gratis. El tema es identificar E con su imagen JE (E) ⊆ E ∗∗ . Esto vale porque JE es un iso isom´etrico. Pero E ∗∗ es el dual de E ∗ y, como todo dual de un normado, es autom´aticamente un Banach (por el Teo. 1.1.10). Luego el completado natural para E es EC = JE (E) v E ∗∗ , def
que es Banach por ser cerrado en otro. Como dec´ıamos, E ∼ = JE (E) ⊆ EC vive dentro de su completado como un subespacio denso. 4
2.2
Recordando Baires.
Repasemos el Teorema de Baire. Como es la herramienta clave para los importantes teoremas sobre espacios de Banach de este cap´ıtulo, daremos una prueba completa del mismo. Para ver una discusi´on previa y la versi´on del teorema para espacios LKH, sugerimos ir a la Prop. A.11.3 y el Teo. A.18.1 del Ap´endice. 2.2.1. Empecemos fijando notaciones sobre bolas: Si E es un EN, llamaremos BEa (x, ε) = {y ∈ E : kx − yk < ε}
y
BE (x, ε) = BEa (x, ε) = {y ∈ E : kx − yk ≤ ε},
donde se fij´o un x ∈ E y un ε > 0. Observar que si x = 0 y tomamos otro δ > 0, entonces BEa (0 , δ) =
δ a B (0 , ε) ε E
y
BE (0 , δ) =
δ BE (0 , ε) , ε
(2.9)
cosa que nombraremos como “homogeneidad”. Si ε = 1 abreviaremos BEa = BE (0, 1) y BE = {y ∈ E : kyk ≤ 1} . Observar que, dados x ∈ E y ε > 0, tenemos que BEa (x, ε) = x + ε · BEa
y
BE (x, ε) = x + ε · BE .
(2.10)
Si bien las Eqs. (2.9) y (2.10) s´olo tienen sentido en EN’s, se usar´an los mismos nombres B a (abierta) y B (cerrada) para bolas en un EM cualquiera X. 4 Lema 2.2.2 (Encaje). Sea (X, d) un EM completo. Sea {Fn }n∈N una familia de subconjuntos cerrados y no vac´ıos de X tales que 52
(a) Para todo n ∈ N, se tiene que Fn+1 ⊆ Fn 6= ∅ . def
(b) La sucesi´on diam (Fn ) = sup{d(x, y) : x, y ∈ Fn } −−−→ 0. n→∞ T Luego se debe cumplir que Fn 6= ∅. n∈N
Demostraci´on. Si tenemos la sucesi´on {Fn }n∈N , elijamos un xn ∈ Fn para cada n ∈ N. Las condiciones (a) y (b) aseguran que x = (xn )n∈ N es de Cauchy (dado ε > 0, basta tomar n0 ∈ N tal que diam (Fn ) < ε para n ≥ n0 ). Observar que fijado un n ∈ N, toda la cola (xk )k≥n se queda dentro de Fn (por las inclusiones pedidas en (a) ). Si xk −−−→ x, el hecho k→∞ T de los Fn sean todos cerrados termina de mostrar que x ∈ Fn 6= ∅. n∈N
Sea (X, d) un EM. Recordemos que si A ⊆ X su interior es el conjunto def
a A◦ = {x ∈ A : BX (x, ε) ⊆ A para cierto ε > 0} .
Ejercicio 2.2.3. Sea (X, d) un EM y sea A ⊆ X. Entonces X \ A = (X \ A)◦
y
X \ A◦ = X \ A .
(2.11)
Teorema 2.2.4 (Baire). Sea X es un espacio m´etrico completo. Entonces para toda familia numerable {Fn }n∈N de cerrados de X se tiene que [ ◦ Fn◦ = ∅ para todo n ∈ N =⇒ Fn = ∅ . (2.12) n∈N
Existen otras dos maneras de enunciar lo mismo, que conviene explicitar: S ◦ S B2: Si Fn 6= ∅ (por ejemplo si Fn = X), entonces alg´ un Fn◦ 6= ∅. n∈N
n∈N
B3: Dada una sucesi´on {Un }n∈N de abiertos densos, se tiene que
T
Un es tambi´en densa.
n∈N
Demostraci´on. Probaremos el enunciado B3. Observar que, si tenemos cerrados Fn como en B2 o (2.12), y para cada n ∈ N hacemos Un = X \ Fn , por la Ec. (2.11) nos queda que ◦ S T S (2.11) (2.11) U n = X \ Fn = X \ Fn◦ y que Un = X \ Fn = X \ Fn , n∈N
n∈N
n∈N
por lo que B3 =⇒ B2 y (2.12). Sea x ∈ X y ε > 0. Tomemos la bola cerrada B0 = B(x, ε). Como U1 es denso, tenemos que U1 ∩ B a (x, ε) 6= ∅ y es abierto. Luego existe una bola cerrada B1 = B(x1 , ε1 ) ⊆ U1 ∩ B a (x, ε), donde podemos asumir que ε1 ≤ ε2 . Ahora cortamos B1◦ ⊆ B a (x1 , ε1 ) con U2 . Por la densidad de U2 podemos armar una bola cerrada B2 , de radio no mayor a ε4 , tal que B2 ⊆ B1◦ ∩ U2 ⊆ U1 ∩ U2 . Recursivamente, obtenemos una sucesi´on (Bn )n∈N de bolas cerradas tales que, para todo n ∈ N, Bn ⊆
\
Uk , Bn+1 ⊆ Bn◦
y
k∈ In
53
diam (Bn ) ≤
ε 2ε n = n−1 . 2 2
T El Lema 2.2.2 nos dice ahora que existe un y ∈ Bn . Y la primera condici´on de arriba n∈N T nos da que y ∈ Un , adem´as de estar en B1 ⊆ B a (x, ε), que era un entorno gen´erico de x. n∈N T As´ı llegamos a que el puntito x est´a en la clausura de Un , cualquiera sea el x ∈ X. n∈N
Observaci´ on 2.2.5. Como primera aplicaci´on directa en espacios de Banach, mostremos que ellos no pueden tener dimensi´on infinita numerable: Sea E un espacio de Banach, y agarremos un conjunto linealmente independiente B = {xn : n ∈ N} en E. Para cada n ∈ N llamemos Fn = span {x1 , . . . , xn }. El Cor. 1.6.3 nos dice que los Fn son / Fn todos cerrados. Tienen interior vac´ıo porque si fijamos un y ∈ Fn , se ve que y + 1k xn+1 ∈ para ning´ un k ∈ N aunque, con k grande, entran en cualquier bolita alrededor de y. S Si B fuera una base (o sea si generara E), tendr´ıamos que Fn = E. Pero el Teor. de n∈N
Baire no permite que pase esto, as´ı que de bases numerables (para un Banach) ni hablar. 4
2.3
Teorema de la imagen abierta.
Observaci´ on 2.3.1. Hace unas secciones discutimos los isomorfismos entre normados. Se hizo mucho incapi´e en que, dados dos normados E y F , para que un T ∈ L(E, F ) biyectivo sea iso de normados, hace falta verificar que T −1 ∈ L(F, E). Es decir que la continuidad de T no asegura a priori la de T −1 , aunque sepamos que T −1 existe. Veamos un ejemplo de lo anterior, un T ∈ L(E, F ) tal que T −1 existe pero no es continuo: Tomemos la identidad ISF : (SF , k · k1 ) → (SF , k · k∞ ). Como kISF xk∞ = kxk∞ ≤ kxk1 para todo x ∈ SF , nos queda que ISF es continua a la ida. Pero 1 2
1 k
, 0 , 0 , . . . ) ∈ SF cumple que kxk k∞ = 1 para todo k ∈ N , P 1 mientras que kxk k1 −−−→ = ∞. As´ı que, a la vuelta, ISF deja de ser continua. m xk = (1 ,
, ... ,
k→∞ m∈N
En cambio, si ya supi´eramos que tanto E como F son Banach’s, el Teorema de la imagen abierta que daremos a continuaci´on dice que alcanza testear la continuidad de T para un lado, porque la de la inversa ser´ıa autom´atica. Pongamos en un Lema, para el que usaremos sistem´aticamente las notaciones de 2.2.1, la parte m´as t´ecnica del Teorema: 4 Lema 2.3.2. Sean E y F dos espacios de Banach y T ∈ L(E, F ). Si existe un r > 0 tal que BFa (0, r) ⊆ T (BEa ) , entonces para cualquier r0 < r se cumple que BFa (0, r0 ) ⊆ T BEa , ahora sin clausurar. 0 Demostraci´ on. Escribamosa r = λ · r con λ ∈ (0, 1) y ε = 1 − λ ∈ (0, 1). Denotemos por a V = T BE . Dado y ∈ BF (0, r), por hip´otesis existe un y1 ∈ V tal que
ky − y1 k < ε · r , o sea que y − y1 ∈ BFa (0, ε · r) .
54
Por la Ec. (2.9) y la h´omeo-ness de x 7→ ε · x, vemos que BFa (0, ε · r) = ε · BFa (0, r) ⊆ ε · V = ε · V
ε · V = T ε · BEa = T (BEa (0, ε) ) .
y que
Luego existe un y2 ∈ ε·V tal que ky−y1 −y2 k < ε2 ·r. Siguiendo inductivamente, construimos una sucesi´on (yn )n∈ N en F que verifica las siguientes condiciones: yn ∈ εn−1 · V
and
n
y − P yk < εn · r
n∈N.
para todo
k=1
Para cada n ∈ N, podemos ir eligiendo un xn ∈ E tal P que T (xn ) = yn y kxn k < εn−1 . Como E es Banach, la Prop. 1.1.12 nos dice que existe x = xn ∈ E. Adem´as n∈N
Tx =
X n∈N
T xn =
X
yn = y
kxk <
and
n∈N
X
εn−1 = (1 − ε)−1 = λ−1 .
n∈N
Luego z = λx ∈ BEa y T (z) = λy, un elemento gen´erico de λ · BFa (0, r) = BFa (0, r0 ).
Teorema 2.3.3 (Imagen abierta, o TIA). Sean E y F dos espacios de Banach. Si T ∈ L(E, F ) es sobre
=⇒
T
es abierto ,
o sea que T (U ) es abierto en F para todo U que sea abierto en E. Demostraci´on. Veamos al principio que alcanza con probar que existe un ε > 0 tal que BFa (0, ε) ⊆ T (BEa ) .
(2.13)
En efecto, si U ⊆ E es abierto y T (x) ∈ T (U ) (para un x ∈ U ), debe existir un s > 0 tal que BEa (x, s) ⊆ U . Usando la homogeneidad (2.9) y transalciones (2.10), tendr´ıamos que (2.13) BFa T (x), ε · s = T (x) + s · BFa (0, ε) ⊆ T (x) + s · T (BEa ) = T x + BEa (0, s) ⊆ T (U ) .
As´ı que probemos (2.13). En principio, tomemos las Bn = BEa (0, n), para todo n ∈ N. Como S S S E= Bn y T es sobre , entonces F = T (Bn ) = T (Bn ) . n∈N
n∈N
n∈N
Por el Teor. de Baire 2.2.4 (ac´a es donde se usa que F es Banach) existe un n ∈ N tal que T (Bn ) ◦ 6= ∅ . Pero todas las Bn = n · B1 , por lo que T (Bn ) ◦ = n · T (B1 ) ◦ , para todo n ∈ N (el h´omeo y 7→ n · y respeta clausuras e interiores). Luego, m´as que “existe un n”, lo de arriba vale para todo n ∈ N. En particular para n = 1. Entonces debe existir una bola BFa (y, r) ⊆ T (B1 ) = T (BEa ) . Finalmente, si x ∈ BFa (0, r), usando (2.10) se lo puede escribir como x=
(y + x) − (y − x) B a (y, r) − BFa (y, r) T (B1 ) − T (B1 ) ∈ F ⊆ ⊆ T (B1 ) , 2 2 2 55
donde la u ´ltima inclusi´on sale tomando sucesiones y usando que B1 es convexa. Luego, tambi´en tenemos que BFa (0, r) ⊆ T (BEa ). Aplicando ahora el Lema 2.3.2 (ac´a se usa que E es Banach), probamos que la Ec. (2.13) se cumple para cualquier ε < r. Corolario 2.3.4 (Teor. de la funci´on inversa TFI). Sean E y F dos espacios de Banach. Si T ∈ L(E, F ) es biyectivo
=⇒
T
es iso de EN’s ,
o sea alcanza con que T sea continuo para que tambi´en T −1 ∈ L(F, E). Demostraci´on. Biyectivo implica sobre. Luego, el TIA 2.3.3 dice que T es abierto. Pero eso es lo mismo que decir que T −1 es continuo. Observaci´ on 2.3.5. Si E es un K-EV (de cualquier dimensi´on) y tenemos dos normas N1 y N2 en E tales que ambas lo hacen Banach, entonces cada una de las desigualdades de la Ec. (1.34) implica la otra y que son equivalentes. Esto es consecuencia del TFI 2.3.4 aplicado a la identidad de E. 4 Corolario 2.3.6. Sean E y F dos EB’s y T ∈ L(E , F ) un epi. Entonces el “bajado” T˜ ∈ L(E/ker T , F ) del Cor. 1.7.5 es un isomorfismo y un h´omeo. Demostraci´on. El Cor. 1.7.5 aseguraba que T˜ era continuo. Recordemos que T˜ ◦ Πker T = T . A partir de eso es claro que R(T˜) = R(T ) = F y que ker T˜ = {0} (es decir la clase nula en el T˜
cociente E/ker T ). Luego el iso E/ker T ' F se deduce del TFI 2.3.4. No olvidar que estamos usando la Prop. 1.7.1 para poder asegurar que E/ker T es tambi´en un EB. Veremos a continuaci´on que todo EB separable es isomorfo (en el sentido de arriba) a un cociente de `1 (N). Esto se puede leer como que no hay “tantos” de esos espacios, o bien como que hay una inesperada multitud de subespacios cerrados de `1 = `1 (N). Proposici´ on 2.3.7. Sea E un EB separable. Luego existen 1. Un epimorfismo T ∈ L(`1 , E). 2. Si M = ker T v `1 , entonces existe un iso T˜ : `1 /M ←→ E. Demostraci´on. Como asumimos que E es separable, podemos tomar un conjunto numerable D = {zn : n ∈ N} ⊆ BE que sea denso en la bola BE . A partir de ´el definimos X T (x) = xn zn ∈ E para cada x = (xn )n∈ N ∈ `1 . n∈N
Sale f´acil que T est´a BD y es lineal-continua. El hecho de que sea sobre cuesta algo m´as: Sea y ∈ BE . Tomemos un zn1 ∈ D tal que 0 < ky − zn1 k < 12 . Definamos las constantes an1 = 1 y an2 = ky − zn1 k < 12 . Luego tomemos otro zn2 ∈ D \ {zn1 } tal que
1
y−z
n1 −1 0< − zn2 = ky − zn1 k y − an1 zn1 − an2 zn2 < . ky − zn1 k 2
56
def
Observar que an3 = ky − an1 zn1 − an2 zn2 k < 12 ky − zn1 k = 21 an2 < 14 . Siguiendo as´ı encontramos un a = (am )m∈ N ∈ `1 y unos {znk : k ∈ N} ⊆ D tales que, para cada k ∈ N,
y − Pk an zn
1 j j
j=1 0< − znk+1 < Pk 2 ky − j=1 anj znj k
con
ank+1 = ky −
k X
anj znj k <
j=1
1 , 2k
mientras que los am = 0 para m ∈ / {nk : k ∈ N}. Por la construcci´on deducimos de inmediato que T a = y, por lo que T es epi. El iso T˜ se construye pasando al cociente al epi T reci´en construido y aplicando el Cor. 2.3.6.
2.4
Teorema del gr´ afico cerrado.
Sean E y F dos EN’s y T : E → F un operador K-lineal. Su gr´afico es Gr (T ) = (x, y) ∈ E × F : x ∈ E e y = T x = (x, T x) : x ∈ E ⊆ E × F . La linealidad de T hace que Gr (T ) sea un subespacio de E × F . Por otra parte, la flecha E × F 3 (x, y) 7−→ k(x, y)kE×F = kxkE + kykF ∈ R+
(2.14)
es evidentemente una norma para E × F . Observar que produce la topolog´ıa producto, porque la convergencia en E × F equivaldr´a a la convergencia en ambas entradas a la vez. Si ahora suponemos que T ∈ L(E, F ), es bien f´acil ver que Gr (T ) v E × F . k · kE
k · kF
n→∞
n→∞
Esto es porque sabemos que xn −−−→ x =⇒ T xn −−−→ T x. Luego si tomamos una sucesi´on (xn , yn )n∈N en Gr (T ) tal que (xn , yn ) −−−→ (x, y) ∈ E × F , como T es continuo n→∞
k · kE
la convergencia xn −−−→ x asegura que las (yn )n∈ N = (T xn )n∈N convergen (aunque ya lo n→∞
sab´ıamos), y que su l´ımite debe ser y = T x. As´ı que (x, y) ∈ Gr (T ), que queda cerrado. Como uno supone por lo de arriba, la rec´ıproca, Gr (T ) v E × F =⇒ T ∈ L(E, F ) es falsa en general. Porque el dato de que Gr (T ) v E × F significa que k · kE
xn −−−→ x n→∞
k · kF
T xn −−−→ y ∈ F
y
n→∞
=⇒ y = T x ,
mientras que afirmar la continuidad de T es probar primero que si xn −−−→ x, los T xn n→∞ tienen que converger a algo, y reci´en despu´es que el l´ımite es T x. Que el gr´afico sea cerrado ya asume que esa convergencia sucede, y s´olo entonces dice que el l´ımite es el correcto. De las consideraciones anteriores se concluye que encontrar un contexto donde la f´ormula T ∈ Hom (E, F )
y
Gr (T ) v E × F
=⇒ T ∈ L(E, F )
sea cierta, ayudar´ıa notablemente a testear la acotaci´on de operadores. Todo esto es el marketing del Teorema del gr´afico cerrado que viene ahora. Lo que dice es que dicha f´ormula 57
s´ı es cierta, siempre que uno suponga que tanto E como F son Banach’s. Y la propaganda de antes no es s´olo verso. En repetidas ocasiones a lo largo del texto veremos que la mejora de hip´otesis que se mencionaba arriba es la clave para poder probar la acotaci´on de muchos operadores altamente interesantes. Antes del enunciado, un contraejemplo si no son Banach’s los espacios: Es el mismo ejemplo de la Obs. 2.3.1, pero para el lado opuesto. El operador es ISF : (SF , k · k∞ ) → (SF , k · k1 ), que ya vimos que no es continuo. Sin embargo, el gr´afico es la diagonal Gr (ISF ) = ∆SF = {(x, x) : x ∈ SF } ⊆ (SF , k · k∞ ) × (SF , k · k1 ) , que es cerrado porque la convergencia con la k · k1 implica convergencia en k · k∞ . En el ejemplo anterior ni E ni F son Banach’s. Un ejercicio interesante es ver que si s´olo uno de los dos espacios no es Banach, ya la cosa puede fallar. Decimos “un” ejercicio porque en el anterior pod´ıamos cambiar el codominio por `1 (N), el gr´afico sigue siendo cerrado y el operador no acotado. As´ı que faltar´ıa uno donde E s´ı es completo pero F no lo es. Teorema 2.4.1 (Gr´afico cerrado, alias TGC). Sean E y F dos espacios de Banach y sea T ∈ Hom(E, F ). Luego vale que Gr (T ) v E × F
=⇒ T ∈ L(E, F ) .
O sea que si su gr´afico es cerrado, el opreador debe ser continuo. Demostraci´on. La idea es considerar el operador biyectivo P ∈ L(Gr (T ) , E)
dado por
P (x, y) = x
para
(x, y) ∈ Gr (T ) .
Notar que la continuidad de P se deduce de que kxkE ≤ k(x, y)kE×F , por la definici´on dada en (2.14). Que P es biyectivo es una paponia (es porque T es una funci´on!). La gracia es que E × F es Banach porque tanto E como F lo son (Ejercicio: Verificarlo). Luego Gr (T ), al ser un subespacio cerrado, tambi´en es Banach. As´ı que podemos aplicar el Teor. de la funci´on inversa 2.3.4 a este P , y deducir que P −1 ∈ L(E, Gr (T ) ). Ahora bien, si miramos atentamente veremos que P −1 x = (x, T x) para todo x ∈ E. Luego kT xkF ≤ k(x, T x)kE×F = kP −1 xkGr(T ) ≤ kP −1 kL(E,Gr(T ) ) kxkE
para todo x ∈ E .
Esto muestra que T ∈ L(E, F ) con kT k ≤ kP −1 k < ∞.
2.5
Principio de acotaci´ on uniforme.
El teorema de ´esta secci´on es m´as raro para entender, pero suele ser el m´as u ´til de los tres Teoremas de espacios de Banach (los otros son el TIA y el TGC). Aparte PAU suena mejor. Como siempre, fijemos E y F dos Banach’s. Ac´a la idea es dar una familia 58
(Ti )i∈I en L(E, F ) y buscar condiciones para que
M = sup kTi k < ∞ . i∈ I
La posta ser´a pedir que sean puntualmente acotados, o sea que Mx = sup kTi xk < ∞
para todo
x∈E .
(2.15)
i∈ I
Es claro que esto es necesario, porque porque todos los Mx ≤ M kxk. Como antes, miremos al espacio SF con la k · k∞ para ver que (2.15) no es suficiente en general. Para hacer el contraejemplo pongamos que F = K, los ´ındices son I = N y tomemos las funcionales ϕn ∈
SF∗
dadas por
ϕn (x) =
n X
xk ,
para
x = (xk )k∈ N ∈ SF .
k=1 N P
|xk | para todo n ∈ N. Por lo tanto P la condici´on (2.15) se cumple para las ϕn . Pero kϕn k = k nk=1 ek k1 = n para todo n ∈ N.
Si un x ∈ SF termina en el xN , se ve que |ϕn (x)| ≤
k=1
El problema es un t´ıpico desfasaje de AF: Cada ϕn “alcanza” su norma en un x ∈ BSF distinto. Por ello el “barrido horizontal” de todas las ϕn evaluadas en un x fijo no alcanza a describir el supremo “doble” M = sup kϕn k = sup sup |ϕn (x)|. n∈N x∈BSF
n∈N
En vista del PAU que se viene, conviene observar que en realidad SF∗ ∼ = c∗0 , porque SF = `1 ∼ es denso en c0 . Y lo anterior no caminaba para aquellas ϕn ∈ `1 porque el “test” de (2.15) lo hac´ıamos s´olo para puntos x de SF y no en todo c0 que es Banach. Observar que all´ı (2.15) falla porque hay elementos de z ∈ c0 que no est´an en `1 , y para algunos de ellos Mz = ∞. Bueno, ahora s´ı. Lo que falla en general veremos que no falla cuando E y F son espacios de Banach. Les presentamos al famoso PAU: Teorema 2.5.1 (PAU). Sean E y F dos EB’s. Entonces toda familia (Ti )i∈I de operadores en L(E, F ) que sea “puntualmente acotada”, es tambi´en acotada en norma. Es decir que Mx = sup kTi xkF < ∞
para todo
x∈E
=⇒
M = sup kTi kL(E,F ) < ∞ ,
i∈ I
i∈ I
o sea que la familia es “uniformemente acotada” en BE . Demostraci´on. Consideremos el espacio `∞ (I, F ) = {f : I → F acotadas } del Ejem. 1.2.4. All´ı se vi´o que, como F es completo, entonces `∞ (I, F ) es otro EB con la k · k∞ . Sea A ∈ Hom(E, `∞ (I, F ) )
dada por
Ax = (Ti x)i∈I
para
x∈E ,
o sea que cada Ax es la funci´on I 3 i 7→ Ti x ∈ F . Hay buena definici´on porque, mirando quienes son los Mx , da que kAxk∞ = Mx < ∞ por lo que Ax ∈ `∞ (I, F ) para todo x ∈ E. La linealidad es f´acil, usando la de cada Ti . Para probar el PAU alcanzar´ıa con ver que este A ∈ L(E, `∞ (I, F ) ). En efecto, notar que M = sup kTi k = sup sup kTi xk = sup sup kTi xk = sup kA xk∞ = kAk . i∈ I
i∈ I x∈BE
x∈BE i∈ I
59
x∈BE
El cambio de orden de los supremos es legal, como podr´a demostrar f´acilmente el lector desconfiado. Para probar que A es acotado, usaremos nuevamente el TGC (dominio y codominio son Banach’s, asi que vale). Tomemos entonces una sucesi´on Gr (A) 3 (xn , A xn ) −−−→ (x, (yi )i∈ I ) ∈ E × `∞ (I, F ) . n→∞
k · kE
k · k∞
k · kF
n→∞
n→∞
n→∞
Esto dice que xn −−−→ x y que A xn −−−→ (yi )i∈ I , por lo que Ti xn −−−→ yi para cada uno de los i ∈ I. Pero como los Ti ∈ L(E, F ), deducimos inmediatamente que cada yi = Ti x. Luego (yi )i∈ I = A x, lo que nos asegura que el l´ımite (x, (yi )i∈ I ) ∈ Gr (A), que era cerrado. Luego A ∈ L(E, `∞ (I, F ) ) por el TGC. Corolario 2.5.2. Sea E un EB y sea B ⊆ E un subconjunto cualquiera. Luego B es k · k-acotado ⇐⇒ B es w-acotado , donde w-acotado significa que para toda ϕ ∈ E ∗ el conjunto ϕ(B) es acotado en C. Demostraci´on. La ida es obvia (porque las ϕ ∈ E ∗ son acotadas, justamente). Para la vuelta, pongamos a B en E ∗∗ v´ıa la JE : E → E ∗∗ definida en 2.1.13. Total, como JE es isom´etrica alcanza ver que B es acotado all´a. Pero ahora los elementos de B pasaron a ser funcionales sobre E ∗ , y la hip´otesis de w-acotaci´on ahora significa que B es puntualmente acotado. En efecto, tenemos el conjunto Bb = JE (B) = {b x : x ∈ B}, y fijada ϕ ∈ E ∗ , Mϕ = sup |b x(ϕ)| = sup |ϕ(x)| = sup {|y| : y ∈ ϕ(B)} < ∞ por la w-acotaci´on de B . x∈ B
x∈ B
Todo termina felizmente usando el PAU 2.5.1 (tanto E como C son Banach’s).
Observaci´ on 2.5.3. Una consecuencia del Cor. 2.5.2 es que una sucesi´on (xn )n∈ N en un Banch E que es d´ebilmente convergente a un x ∈ E (i.e., ϕ(xn ) −−−→ ϕ(x) para toda n→∞
ϕ ∈ E ∗ ) tiene que ser acotada en norma. El siguiente teorema avanza en esa direcci´on:
4
Corolario 2.5.4 (Teor. de Banach-Steinhaus). Sean E y F dos Banach’s y sea (Tn )n∈N una sucesi´on de operadores en L(E, F ). Si se asume que para todo x ∈ E
existe un yx ∈ F tal que Tn x −−−→ yx , n→∞
entonces valen las siguientes propiedades: 1. La sucesi´on es acotada, o sea que M = sup kTn k < ∞. n∈N
2. El operador T : E → F dado por T x = yx = l´ım Tn x n→∞
es K-lineal, acotado, y tiene kT k ≤ M .
60
para cada
x∈E
Demostraci´on. Observar que, fijado un x ∈ E, la sucesi´on (Tn x)n∈N es convergente (esa es la hip´otesis). Luego tiene que ser acotada (por eso N y no I). Pero esa es exactamente la condici´on que pide el PAU 2.5.1 (junto con que E y F sean Banach’s). Luego ya tenemos que M < ∞ por el PAU. El hecho de que el l´ımite puntual T sea K-lineal es inmediato tomando l´ımites y usando que los Tn lo son. Finalmente, kT xk = l´ım kTn xk ≤ sup kTn xk ≤ sup kTn k kxk ≤ M kxk n→∞
n∈N
n∈N
para todo x ∈ E. Eso muestra que T ∈ L(E, F ) con kT k ≤ M .
Observaci´ on 2.5.5. El Teor. de Banach-Steinhaus es bueno pero no tanto. Queremos decir que, con las notaciones de arriba, no tiene porqu´e valer que Tn −−−→ T en el sentido de la n→∞
norma de L(E, F ). O sea que nadie asegura que kT − Tn kL(E,F ) −−−→ 0. n→∞
Sin embargo saber que las sucesiones que tienen l´ımites puntuales tienen que ser acotadas, y que el operador al que convergen sea siempre continuo ya es bastante. Veremos muchas aplicaciones de esto en la parte de convergencias d´ebiles. Mostremos anticipadamente un ejemplo interesante. Fijemos E = c0 y F = K. Tomemos la sucesi´on de las ϕn que aparecen como la imagen de en ∈ `1 en c∗0 . O sea que ϕn (x) = xn
para cada
x = (xk )k∈ N ∈ c0
y cada
n∈N.
Como estamos justamente en c0 , vemos que ϕn (x) = xn −−−→ 0 para cualquier elemento n→∞
x = (xk )k∈ N ∈ c0 . Luego el l´ımite puntual de las ϕn es la funcional nula. Bueno, acotada es. Pero a la cota k0k ≤ sup kϕn k = 1 le sobra bastante. n∈N
Adem´as, como kϕn − 0k = kϕn k = ken k1 = 1 para todo n ∈ N, deducimos que en este k·k
ejemplo NO se cumple que ϕn −−−→ 0, como mencion´abamos arriba que pod´ıa ocurrir. n→∞
Un ejemplo que es casi el mismo pero en otro contexto es cambiar las ϕn por los operadores Pn ∈ L(c0 ) dados por Pn x = ϕn (x) · en , para x ∈ c0 . Un Pn de estos, lo que hace es tachar todas las coordenadas del x dej´andole ´solo la n-´esima en el lugar n en que estaba. Observar que para cada x ∈ c0 tenemos que kPn xk = |ϕn (x)| ken k = |ϕn (x)| −−−→ 0. As´ı n→∞
que ac´a los Pn convergen puntualmente al operador nulo 0 ∈ L(c0 ). En este caso tampoco le convergen en norma, porque kPn k = kϕn k = 1 para todo n ∈ N. Este contexto es interesante porque los Pn son lo que se llama un sistema de proyectores para c0 . Esto significa lo siguiente: Los Pn cumplen que • Son proyectores, o sea que Pn2 = Pn · Pn = Pn para todo n ∈ N. • Son ortogonales entre s´ı, es decir que Pn · Pm = 0 si n 6= m.
61
• Aproximan puntualmente a la identidad (suman uno). Esto se escribe as´ı: Qn =
n X
puntual
Pk −−−−→ Ic0 ,
k=1
n→∞
en el sentido de la convergencia puntual del Teor. de B-S. Las tres cosas se verifican sin dificultad. Por ejemplo Qn x es truncar al x a sus n primeras coordenadas. La resta contra Ic0 x = x es quedarse con las u ´timas. Como estamos en c0 , eso converge en k · k∞ a cero, para cualquier tal x fijo. Sin embargo, los Qn tampoco van hacia la identidad en norma, porque lo que les falta (truncar a las u ´ltimas coordenadas) sigue teniendo siempre norma uno en L(c0 ) (basta evaluar en em con m muy grande). Fijens´e que en este caso la cota de las normas del Teor. de B-S da justito, porque kIc0 k = 1 = kQn k para todo n ∈ N. Dos cosas m´as. Primero que los Qn son tambi´en proyectores (sale S distribuyendo el cuadrado o mirando qu´e hacen) y sus im´agenes crecen hacia el denso n∈N R(Qn ) = SF . La otra es que todo este ejemplo (en sus mitades con ϕn , Pn y Qn ) se puede hacer exactamente igual en los espacios `p para todo 1 ≤ p < ∞. Se usa que todos esos `p ⊆ c0 y que las colas de las series convergentes van hacia el cero (para los Qn ). En cambio, en `∞ pasa que las ϕn no convergen puntualmente (porque los elementos de `∞ no siempre tienen l´ımite). 4
2.6
Dualidad y adjuntos.
Vimos en los ejemplos de representaciones de espacios duales que por lo general el espacio que act´ ua es a su ves actuado por el otro. Esto se vi´o concretamente en el caso de c0 (o `∞ ) y `1 (tambi´en con `p y `q ), donde la clave fu´e una forma bilineal X def `1 × `∞ 3 (x , y) 7−→ hx , yi = xn yn . n∈N
R O con C(X) y Mr (X) donde la dualidad surge de hacer hf , µi = f dµ. Ya m´as en general, tenemos la dualidad que implementa la inmersi´on de un normado E al doble dual: E × E ∗ 3 (x , ϕ) 7−→ hx , ϕi = ϕ(x) .
(2.16)
La idea es que cualquier cordenada fija de un espacio produce una funcional en el otro. Las ϕ ∈ E ∗ act´ uan en E por su naturaleza intr´ınseca, pero los x ∈ E tambi´en act´ uan en E ∗ , y eso es lo que produce las funcionales JE (x) ∈ E ∗∗ . Generalicemos m´as: 2.6.1. Sean E y F dos EN’s. Diremos que ellos est´an en dualidad si existe una funcional bilineal h· , ·i : E × F → K tal que ρx
1. Para cada x ∈ E fijo, la flecha F 3 y 7−→ hx , yi est´a en F ∗ . 2. Estas funcionales separan puntos de F , o sea que si y1 6= y2 (ambos en F ), entonces 62
existe un x ∈ E
tal que hx , y1 i = 6 hx , y2 i , o sea que hx , y1 − y2 i = 6 0.
Esto equivale a pedir que
T
ker ρx = {0}.
x∈E ρ0y
3. Para cada y ∈ F fijo, la flecha E 3 x 7−→ hx , yi est´a en E ∗ . T 4. Las ρ0y separan puntos de E, es decir que ker ρ0y = {0}. y∈F
Observar que la dualidad natural entre E y E ∗ dada en la Ec. (2.16) cumple 4 por Hahn Banach, y se “extiende” a la natural entre E ∗∗ y E ∗ , siempre que incorporemos a E dentro de E ∗∗ con la JE . Un hecho que conviene explicitar es que las condiciones 1 y 3 aseguran que la dualidad es continua “en cada cordenada”. Por ejemplo dice que k·k
xn −−−→ x en E =⇒ hxn , yi −−−→ hx , yi para todo y ∈ F . n→∞
n→∞
4
Lo mismo movi´endose con los y’es contra un x fijo.
Definici´ on 2.6.2. Sean E y F dos EN’s, y sea T ∈ L(E, F ). Definimos su operador adjunto ∗ T ∈ L(F ∗ , E ∗ ) como el u ´nico que cumple la siguiente f´ormula: hx , T ∗ ϕi = hT x , ϕi
para todo par
x ∈ E , ϕ ∈ F∗ .
(2.17)
Podemos decir expl´ıcitamente c´omo act´ ua el adjunto. Basta poner T ∗ (ϕ) = ϕ ◦ T ∈ E ∗
para cada
ϕ ∈ F∗ .
Este cumple la igualdad (2.17) (m´as bien la “traduce”), y es el u ´nico que lo hace, por el ∗ hecho de que los x ∈ E separaban puntos de E a traves de sus Jx . 4 2.6.3 (Propiedades del adjunto). El tema de adjuntar operadores tiene buenas propiedades funtoriales, la mayor´ıa de ellas quasitriviales, que enumeramos a continuaci´on: 1. Dados tres normados E, F y G, si me dan un T ∈ L(E, F ) y un S ∈ L(F, G), vale que ϕ ◦ (S T ) = (ϕ ◦ S) ◦ T
para toda ϕ ∈ G∗ =⇒ (ST )∗ = T ∗ S ∗ .
2. La adjunta de la identidad es otra identidad: (IE )∗ = IE ∗ . Es porque ϕ ◦ IE = ϕ. 3. Si T ∈ L(E, F ) es un iso, entonces T ∗ hace que E ∗ ' F ∗ , con (T ∗ )−1 = (T −1 )∗ . 4. Si el T de arriba era isom´etrico, tambi´en lo ser´a T ∗ . Esto sale porque componer con una isometr´ıa sobre preserva la norma de las funcionales. El hecho clave es que un iso T es isometr´ıa ⇐⇒ T (BE ) = BF . Luego se calcula normas por definici´on. 5. Lo anterior se traduce a que E ∼ = F =⇒ E ∗ ∼ = F ∗ (∼ = era ser isom´etricamente '). Esto de hecho ya lo usamos en los ejemplos de espacios (s´ı y no) reflexivos.
63
6. La igualdad kyk = sup |φ(y)| para todo y ∈ F , vista en (2.7), muestra que φ∈BF ∗
kT ∗ kL(F ∗ ,E∗ ) = sup kT ∗ φkE∗ = sup kφ ◦ T kE∗ φ∈BF ∗
φ∈BF ∗
= sup
sup |φ(T x)|
φ∈BF ∗ x∈BE
= sup
(2.7)
sup |φ(T x)| = sup kT xkF = kT kL(E,F ) ,
x∈BE φ∈BF ∗
x∈BE
para cualquier T ∈ L(E, F ). En resumen, siempre vale que kT k = kT ∗ k.
4
Ejemplo 2.6.4. En lo que sigue usaremos una convenci´on notacional: Para evitar el doble par´entesis, cuando un operador va hacia un dual (o cualquier espacio de funciones), la variable ir´a abajito, onda Tx y en lugar de T (x)(y), donde Tx es el valor (en el dual de los y’es) que toma el operador T en el punto x, antes de aplic´arselo a y. Sea T ∈ L(`1 , c∗0 ) el iso (isom´etrico) visto en 1.3.1, que implementa la dualidad X xn y n . c0 × `1 3 (x , y) 7−→ hx , yi = Ty x = n∈N
Esto se extiende con el iso (isom´etrico) S ∈ L(`∞ , (`1 )∗ ) que nos da X zn yn . `∞ × `1 3 (z , y) 7−→ hz , yi = Sz y = n∈N 1 ∗ etrico. Una consecuencia Observar que T ∗ ∈ L(c∗∗ 0 , (` ) ) ahora sabemos que es otro iso isom´ ∞ −1 ∗ ∗∗ ∗∗ ∼ ∞ de esto es que c0 = ` v´ıa el iso isom´etrico S T ∈ L(c0 , ` ).
Cuando dec´ıamos que c0 no es reflexivo, mencion´abamos que la Jc0 : c0 ,→ c∗∗ ıa” 0 “coincid´ con la inclusi´on Ic0 : c0 ,→ `∞ . Veamos ahora mejor eso. La identificaci´on v´alida entre las incrustaciones Jc0 e Ic0 se basa en la siguiente igualdad: c0 S ◦ Ic0 = T ∗ ◦ Jc0 ∈ L(c0 , (`1 )∗ )
v´ıa el diagrama
Ic0
Jc0 /
`∞ o
S
/
cO ∗∗ 0
T∗
(`1 )∗
En particular, eso implica que Jc0 es sobre ⇐⇒ Ic0 es sobre (los otros dos son iso-isos). Y sabemos que Ic0 no lo es, as´ı que c0 minga reflex. Pobemosl´a. Si x ∈ c0 e y ∈ `1 , entonces X (T ∗ ◦ Jc0 )x y = TJ∗x y = (Jx ◦ T ) y = Jx (Ty ) = Ty x = xn yn = Sx y = (S ◦ Ic0 )x y . n∈N
64
Como valen igual para todo y ∈ `1 , vemos que (T ∗ ◦ Jc0 )x = (S ◦ Ic0 )x en (`1 )∗ para todo x ∈ c0 . Ah´ı s´ı llegamos a que S ◦ Ic0 = T ∗ ◦ Jc0 en L(c0 , (`1 )∗ ). Un festival semejante de dualidades, isometr´ıas y diagramas justifica que si 1 < p, q < ∞ Tq
cumplen que
1 p
+
1 q
= 1, entonces el iso isom´etrico `q ∼ = (`p )∗ de (1.24) produce que J`p
Tp
`p ∼ = (`q )∗
(Tq∗ )−1
∼ =
(`p )∗∗
y da un diagrama
`p Fb F / (`pO )∗∗ FF FF Tq∗ F Tp FF" (`q )∗
cuya conmutatividad se prueba exactamente igual que la del de arriba. Esto muestra que la inmersi´on J`p : `p ,→ (`p )∗∗ es un iso isom´etrico. Concretamente, J`p = (Tq∗ )−1 ◦ Tp que por ello es sobre, lo que prueba que `p (y ya que estamos tambi´en `q ) s´ı es reflex. 4 Definici´ on 2.6.5. Sea E un EN. Dados sendos subespacios S ⊆ E y T ⊆ E ∗ , definamos 1. El anulador S ⊥ de S como el subespacio de funcionales que anulan a S: S ⊥ = {ϕ ∈ E ∗ : ϕ ≡ 0} = {ϕ ∈ E ∗ : S ⊆ ker ϕ} v E ∗ . S
2. El preanulador ⊥ T de T como los x ∈ E anulados por las funcionales de T : \ ⊥ T = {x ∈ E : ϕ(x) = 0 para toda ϕ ∈ T } = ker ϕ v E . ϕ∈T
Las mismas definiciones pueden aplicarse a cualquier dualidad h· , ·i : E × F → K, reemplazando ϕ(x) por hx, yi en donde haga falta. 4 Observaci´ on 2.6.6. La idea de anuladores asociados a dualidades hace observar que el concepto de preanulador depende de que el espacio E ∗ est´e presentado como el dual de E y no como espacio aislado. Esto no es ser excesivamente puntilloso, porque existen espacios de Banach que se pueden representar como el dual de dos normados bien distintos. Sin ir m´as lejos, si E no era Banach, vale que E ∗ = EC∗ , donde EC es la completaci´on de E (la igualdad es una “casi” igualdad, porque las ϕ ∈ E ∗ se extienden sin drama a EC ). Pero la cosa es peor: puede haber dos Banach’s E1 ∼ 6= E2 tales que E1∗ ∼ = E2∗ . El ejemplo m´as conocido es el de c0 y c (las sucesiones con l´ımite, no necsariamente nulo). Ambos tienen al dual identificable con `1 pero no vale que c0 ∼ = c (Ejercicio: Verificar estas cosas). Por ello el concepto de “predual”, que est´a impl´ıcito en la definici´on de los ⊥ T , es lindo pero no siempre es muy correcto. Un comentario parecido se puede hacer sobre el operador adjunto T ∗ . Sin embargo, al incluir en su notaci´on al viejo T , uno ya sabe de qu´e espacios preduales se est´a hablando. 4
65
Proposici´ on 2.6.7. Sea E un EN. Dados sendos subespacios S ⊆ E y T ⊆ E ∗ , se tiene que ⊥ ⊥ S⊥ = S y T ⊆ ⊥T , (2.18) donde la ⊆ de la derecha puede ser estricta. Sin embargo, siempre vale que JE (⊥ T ) = T ⊥ ∩ JE (E) ( en E ∗∗ ) y ⊥ JE (S) = S ⊥ ( en E ∗ ) . ⊥ En particular, si E era reflex, ah´ı s´ı vale que T = ⊥ T .
(2.19)
Demostraci´on. El hecho de que tanto anuladores como preanuladores sean cerrados se deduce directamente de sus definiciones. Por otra parte, tambi´en es evidente que al ir y volver uno incluye por lo menos al subespacio original. Por ello que las clausuras est´an dentro de los doble anuladores es claro. Luego alcanza probar que \ ⊥ ker ϕ : ϕ ∈ S ⊥ ⊆ S . S⊥ = Esto se deduce del Teor. de Hahn Banach 2.1.5, y ya fue planteado en el Ejer. 2.1.8. La idea ∗ es tomar un x ∈ / S y definir una ϕ0 ∈ S ⊕ span {x} tal que S ⊆ ker ϕ0 pero ϕ0 (x) 6= 0. Si tomamos el espacio E = `1 y el subespacio T = c0 v `∞ ∼ = (`1 )∗ , es f´acil ver que ⊥ c0 = {0} ⊥ (basta actuar con los en ∈ c0 para tachar todo). Luego ( c0 )⊥ es todo `∞ . La Ec. (2.19) se deduce directamente (aunque trabajosamente) de las definiciones. Cuando E es reflex, nos queda que T ⊥ = JE (⊥ T ). Pensando a T como un S, vemos que (2.19) ⊥ (2.19) ⊥ ⊥ (2.18) T = ⊥ T⊥ = JE (⊥ T ) = T . En resumen, si E era reflex, hay dos igualdades en (2.18).
Proposici´ on 2.6.8. Sean E y F dos EN’s y T ∈ L(E, F ). Luego ker T ∗ = R(T )⊥ ( en F ∗ )
y
ker T =
⊥
R(T ∗ ) ( en E ).
(2.20)
Por otra parte, el operador T ∗∗ ∈ L(E ∗∗ , F ∗∗ ) cumple que E T
∗∗
◦ JE = JF ◦ T
v´ıa el diagrama
JE
T
E ∗∗
/
F
T ∗∗
(2.21)
JF
/ F ∗∗
Demostraci´on. Si φ ∈ F ∗ vale que φ ∈ ker T ∗ ⇐⇒ φ ◦ T = 0 ⇐⇒ R(T ) ⊆ ker φ. Eso muestra la igualdad ker T ∗ = R(T )⊥ . En cambio, dado un x ∈ E tenemos que \ x ∈ ker T ⇐⇒ φ(T x) = 0 para toda φ ∈ F ∗ ⇐⇒ x ∈ ker (T ∗ φ) = ⊥ R(T ∗ ) . φ∈ F ∗
Respecto del diagrama, fijemos un x ∈ E y una φ ∈ F ∗ . Pongamos x b = Jx . Luego Txb∗∗ φ = (b x ◦ T ∗) φ = x b(T ∗ φ) = x b (φ ◦ T ) = φ(T x) = JF (T x) φ . Como esto pasa para toda φ ∈ F ∗ , nos queda que T ∗∗ (JE x) = JF (T x) para todo x ∈ E. 66
Observaci´ on 2.6.9. Tratemos de traducir la Prop. anterior. El diagrama (2.21) dice que, si tanto E como F son reflex, entonces T “ = ” T ∗∗ cuando identificamos los espacios con sus dobleduales. M´as precisamente, T ∗∗ = JF T JE−1 . En general, si ahora identificamos los ∗∗ . espacios con sus im´agenes en los dobleduales, nos quedar´ıa que T “ = ” T E
De la Ec. (2.20) se pueden deducir f´ormulas para los rangos: R(T ) =
⊥
ker T ∗
R(T ∗ ) ⊆ (ker T )⊥ .
y
(2.22) 4
Esto surge de aplicarle la Ec. (2.18) a las igualdades de (2.20). Ejercicio 2.6.10. Sea E un EN y sea S v E. Probar que 1. El dual S ∗ se caracteiza como S ∗ ∼ = E ∗ /S ⊥ v´ıa el iso-isom´etrico Φ ∈ L(E ∗ /S ⊥ , S ∗ )
dado por
Φ (ϕ + S ⊥ ) = ϕ|S .
Se necesita verificar buena definici´on, linealidad, isometricidad y epiness (por H-B). 2. An´alogamente, probar que (E/S)∗ ∼ = S ⊥ por el hecho de que Π∗S ∈ L (E/S)∗ , E ∗ es isom´etrica y R(Π∗S ) = S ⊥ v E ∗ .
(2.23)
Recordar que Π∗S (φ) = φ ◦ ΠS para cada φ ∈ (E/S)∗ . El curro es “bajar” al cociente las ϕ ∈ S ⊥ , v´ıa el Cor. 1.7.5, que tambi´en da el isometrismo. 4 2.6.11. Sean E y F dos normados. Diremos que un T ∈ L(E, F ) es acotado inferiormente (y abreviamos AI) si existe un ε > 0 tal que ε · kxkE ≤ kT x kF
para todo
x∈E .
(2.24)
Es claro que ser AI implica ser mono. Pero si E es un Banach se puede decir m´as: Si T es AI, entonces debe pasar que R(T ) v F (se suele decir “T es un rango cerrado”). En efecto, T xn −−−→ y ∈ F =⇒ kxn − xm kE ≤ ε−1 kT xn − T xm kF −−−−→ 0 . n→∞
n,m→∞
Luego (xn )n∈ N es Cauchy y hay un x ∈ E tal que xn −−−→ x. As´ı que T x = y ∈ R(T ). n→∞
Es interesante observar que si tanto E como F son Banach’s, entonces T ∈ L(E, F )
es AI
⇐⇒ T
es mono
y
R(T ) v F .
(2.25)
La ida ya la vimos en general. La vuelta sale as´ı: Sea G = R(T ) v F . Luego G es un Banach y podemos pensar a T ∈ L(E, G) para hacerlo K-iso. Por el TFI 2.3.4, tenemos que T −1 ∈ L(G, E). Observar que dado x ∈ E, si llamamos y = T x ∈ G, entonces kxkE = kT −1 ykE ≤ kT −1 k kykG = kT −1 k kT xkF . Luego se cumple la Ec. (2.24) con el n´ umero ε = kT −1 k−1 > 0, por lo que T es AI. 67
4
Proposici´ on 2.6.12. Sean E y F dos Banach’s y sea T ∈ L(E, F ). Luego T
es inversible
⇐⇒
T∗
es inversible .
Demostraci´on. Ya sabemos que =⇒ vale, con (T ∗ )−1 = (T −1 )∗ . Si asumimos que T ∗ es biyectiva (en particular epi), como E ∗ y F ∗ son Banach’s podemos aplicar el TIA 2.3.3, que asegura T ∗ es abierta, por lo que existe un ε > 0 tal que BEa ∗ (0 , 2ε) ⊆ T ∗ (BFa ∗ ) =⇒ ε · BE ∗ ⊆ BEa ∗ (0 , 2ε) ⊆ T ∗ (BFa ∗ ) ⊆ T ∗ BF ∗ ) . Usando esto sale que T es acotado inferiormente. En efecto, dado x ∈ E, tenemos que kT xk = sup |hT x , φi| = sup |hx , T ∗ φi| = φ∈BF ∗
≥
φ∈BF ∗
sup
|hx , ϕi|
ϕ∈T (BF ∗ )
sup |hx , ϕi| = ε · sup |hx , ϕi| = ε · kxk . ϕ∈ εBE ∗
ϕ∈BE ∗
Luego la Ec. (2.25) nos dice que T es mono y R(T ) v F . Pero al mismo tiempo, a partir de la Ec. (2.22) llegammos que R(T ) = ⊥ (ker T ∗ ) = ⊥ {0F ∗ } = F (porque T ∗ es mono). As´ı que R(T ) es cerrado y denso, por lo que T es tambi´en epi.
2.7
Proyectores y subespacios complementados
Mostremos una serie de aplicaciones de los teoremas anteriores. Supongamos que tenemos un Banach E y dos subespacios S, T ⊆ E tales que E = S ⊕ T . El s´ımbolo ⊕ (suma directa) significa que S ∩ T = {0} y S + T = E. Luego tenemos bien definido el proyector PS/T : E → S ⊆ E
dado por
PS/T (x + y) = x
para
x∈S
e
y∈T .
(2.26)
La definici´on es buena porque todo z ∈ E se escribe en forma u ´nica como z = x + y con x ∈ S e y ∈ T . Y adem´as PS/T es K-lineal, por esa misma unicidad. La pregunta es qu´e hace falta pedir para que este PS/T ∈ L(E). Claramente la hip´otesis que uno se imagina es que S, T v E, o sea que ambos sean cerrados. De hecho, seguro que hace falta pedir esto, porque T = ker PS/T y S = ker(IE − PS/T ) . Sin embargo, a´ un bajo esa suposici´on, cuando uno intentar un prueba directa la cosa se empasta mal. Sugerimos al lector esc´eptico que trate de mostrar esto directamente, sin usar los teoremas que tenemos hasta ahora. Le auguramos que le aparecer´a un problemita muy similar al que se mencionaba en el marketing previo al TGC. Antes de ver como se arregla va un poco de notaci´on y la caracterizaci´on algebr´aica de los PS/T acotados: Observaci´ on 2.7.1. Sea E un Banach. Sabemos que L(E) es otro Banach con la norma de operadores. Pero tambi´en es un anillo con la suma usual y el producto dado por la composici´on. De hecho es una K-´algebra (de Banach, ver Cap. 6) con unidad IE . 68
Diremos que un operador P ∈ L(E) es un proyector si es un idempotente: P ◦ P = P . Y P(E) = {P ∈ L(E) : P ◦ P = P }
(2.27)
es la notaci´on para el espacio de proyectores acotados. Notar que si P ∈ P(E) enotnces: • Tambi´en el operador Q = IE − P ∈ P(E). Notar que P Q = Q P = 0 (el ◦ ya vol´o). • Nuestro P opera como la identidad en su rango S = R(P ). • Vale que S = R(P ) = ker Q v E, y que T = R(Q) = ker P v E. • Se cumple la descomposici´on S ⊕ T = R(P ) ⊕ ker P = E. • Por lo tanto nuestro P no era otro que P = PS/T , donde S = R(P ) y T = ker P . Las pruebas son todas directas. Veamos un poco la de la suma directa: Dado x ∈ E, es obvio que el elemento y = P x ∈ S. Pero tambi´en tenemos que z = x − y = x − P x = (IE − P ) x = Q x ∈ T . x∈T
x∈S
Como x = y + z ya sale que S + T = E. Que S ∩ T = {0} es facilongo (0 = P x = x). As´ı que hemos visto que todos los P ∈ P(E) son del tipo PS/T , el de la Ec. (2.26) para la descomposici´on S ⊕ T = R(P ) ⊕ ker P = E. Ahora viene la novedad, que dice que toda tal descomposici´on produce un proyector acotado. 4 Proposici´ on 2.7.2. Sea E un Banach y sean S, T v E tales que E = S ⊕ T . Luego el proyector PS/T de la Ec. (2.26) es acotado, o sea que PS/T ∈ P(E). Demostraci´on. Por el TGC 2.4.1 (y el hecho de que E es Banach), para ver que PS/T ∈ L(E) bastar´ıa probar que el gr´afico Gr PS/T v E × E. Sea entonces una sucesi´on (zn , PS/T zn )n∈N
en
Gr (T )
tal que
(zn , PS/T zn ) −−−→ (z, x) ∈ E 2 . n→∞
Llamemos xn = PS/T zn que es una sucesi´on en S. El dato de arriba significa que zn −−−→ z n→∞
y que
xn −−−→ x . n→∞
Como S v E, tenemos al menos que x ∈ S. Pero adem´as tenemos que todas las diferencias yn = zn − xn ∈ T , por lo que y = z − x = lim yn ∈ T (tambi´en T v E). n→∞
Finalmente, basta observar que z = x + y con x ∈ S e y ∈ T . Por la definici´on de PS/T , esto muestra que x = PS/T z. Entonces (z, x) ∈ Gr PS/T , que nos queda cerrado. Ejercicio 2.7.3. Con las notaciones de la Prop. 2.7.2, probar que kPS/T k = N −1 , para N = m´ax{M ≥ 0 : kx + yk ≥ M kxk
para todos los
x∈S , y∈T} (2.28)
= ´ınf{kx + yk : y ∈ T , x ∈ S1 } = d (S1 , T ) , 69
def
donde se usa la notaci´on S1 = {x ∈ S : kxk = 1}. def
Sug. 1 : Utilizar en el espacio producto S × T la norma dada por k(x , y)k1 = kxk + kyk, para cada par (x , y) ∈ S × T , con la que nos queda un EB. Sug. 2 : Por el Cor. 1.7.5 se tiene que kPS/T k = kPeS/T k, donde PeS/T ∈ L(E/T , E) es el bajado al cociente que cumple PS/T = PeS/T ◦ ΠT . Dado un x ∈ S1 nos queda que 1 = kxk = kPS/T xk = kPeS/T xk ≤ kPeS/T k k x k = kPS/T k d (x , T ) . Despues se toma ´ınfimo sobre tales x ∈ S1 . Usar tambi´en que ΠT (S) da todo E/T .
4
Ejercicio 2.7.4. Sea E = `p (N), con p ∈ (1, ∞). Tomemos el operador Mx ∈ L(E) producido como en la Ec. (1.43) por x = ( n1 )n∈N ∈ `∞ (N). Consideremos los subespacios S = E × {0} v E × E y T = Gr(Mx ) = ( y , Mx y ) : y ∈ E v E × E , donde en E × E se usa la norma definida en (2.14). El hecho de que ker Mx = {0} dice que S ∩ T = {0}. Sin embargo, proponemos probar que d (S1 , T ) = 0 =⇒ S ⊕ T 6v E × E , (2.28)
porque sin´o sumar´ıan un Banach mientras que kPS/T k = ∞. Ya que est´an, prueben que S ⊕ T = E × R(Mx ) que es denso en E × E. 4 Definici´ on 2.7.5. Sea E un EB. Diremos que un subespacio cerrado S v E es complementado (COM) en E
si existe un T v E tal que S ⊕ T = E .
Remarquemos que complementos algebr´aicos siempre hay (completando bases). Lo clave ac´a es que exista un complemento T para S que sea tambi´en cerrado. 4 Proposici´ on 2.7.6. Sea E un EB y sea S v E. Las suguientes condiciones son equivalentes: 1. Nuestro S es COM en E. 2. Existe un proyector P ∈ P(E) tal que R(P ) = S (el complemento es ker P ). 3. Existe un proyector Q ∈ P(E) tal que ker Q = S (el complemento es R(Q) ). 4. Si consideramos el cociente E/S como EB con la norma cociente, y la proyecci´on ΠS ∈ L(E , E/S) como en la Prop. 1.7.1, existe una secci´on lineal y continua: Existe U ∈ L(E/S , E)
tal que
En este caso el complemento para S es R(U ).
70
ΠS ◦ U = IE/S .
(2.29)
Demostraci´on. Es claro que 2 ⇐⇒ 3 poniendo Q = I − P o viceversa. Si existe el proyector P sobre S, basta tomar T = ker P , que es cerrado y es un buen complemento de S. En cambio si tenemos el T v E tal que S ⊕ T = E, podemos aplicar la Prop. 2.7.2 que nos asegura que el proyector P = PS/T es acotado y tiene rango S. Veamos ahora que 3 ⇐⇒ 4. Si existe la secci´on U ∈ L(E/S , E) de (2.29), basta definir el proyector Q = U ◦ ΠS ∈ P(E) . Como U es mono sale que ker Q = ker ΠS = S. Si existe el Q ∈ P(E) con ker Q = S del item 3, el Cor. 1.7.5 nos dec´ıa que existe un ˜ ∈ L(E/S , E) tal que U ◦ ΠS = Q. Observar que esta U es continua y cumple que U =Q ΠS ◦ U (ΠS x) = ΠS (Q x) = ΠS (x)
para todo
x∈E ,
porque x − Q x ∈ ker Q = S. Esto muestra que ΠS ◦ U = IE/S .
Ejercicio 2.7.7. Sea E un EB. Si nuestro subespacio S v E cumple que dim S < ∞
o que
def
codim S = dim E/S < ∞ =⇒ S es COM en E . 4
Recordar la Prop. 2.1.11 y el Cor. 1.6.5, aplicado a E/S .
En general es un problema bastante complicado (e importante en algunas aplicaciones) el poder decidir si un S v E es COM o no. De hecho no hay m´etodos sistem´aticos y hay que estudiar el problema con herramientas propias de cada ejemplo concreto. Se cae de maduro, por todo lo que venimos diciendo, que suelen existir muchos subespacios S v E que no son COM’s en E, siempre que E sea un EB con dim E = ∞ y no sea isomorfo a un Hilbert (de ellos se habla en el Cap. 3, sobre todo en la Prop. 3.2.5). M´as a´ un, se ha probado que todo tal espacio E tiene al menos uno de esos subespacios noCOM. Sin embargo no es demasiado f´acil mostrar ejemplos concretos. Ahora van un par: Un caso t´ıpico es la imagen de un Banach F no reflexivo en su dobre dual, v´ıa la JF . Veamos el caso F = c0 . Ejemplo 2.7.8. Probaremos que c0 v `∞ no es COM en `∞ . Para ello llamemos X = `∞ /c0 que es un EB, y cosideremos la proyecci´on Π = Πc0 ∈ L(`∞ , X). ´ dice que existe una famila {Ai }i∈I de Ahora necesitamos un lindo ejercicio de cardinales: El subconjuntos de N tales que todos los Ai son infinitos, el cardinal de I es el de R, pero Ai ∩ Aj
es finito siempre que
i 6= j .
No daremos los detalles del c´omo hacerlo, porque es una l´astima quemarlo. Sin embargo diremos que sale de dos maneras tradicionales (al lector entusiasta le sugerimos no leer lo que sigue, hasta que le salga): Una es tomando bandas oblicuas (que sean bastante anchitas) en el reticulado N × N, con el “angulo” movi´endose en (0 , π/2). La otra es tomar sucesiones adecuadas de n´ umeros racionales. Luego la familia {Ai }i∈I cumple las siguientes propiedades: • Para cada i ∈ I sean xi = 1Ai ∈ `∞ and yi = Π(xi ) ∈ `∞ /c0 . Vale que kyi kX = 1. 71
• M´as a´ un, si fijamos unP F ∈ PF (I) y tenemos umeros αi ∈ C tales que |αi | = 1 para P n´ todo i ∈ F, entonces k αi yi kX = kΠ( αi xi )kX = 1. i∈ F
i∈ F
• En particular todos los yi son vectores distintos de X, porque kyi − yj kX = 1 si i 6= j. P La idea de la prueba se basa en que la sucesi´on αi xi tiene s´olo finitas entradas donde se i∈ F
suman m´as de un αi , pero infinitas donde vale cada αi fijo. Por ello dista uno de c0 . def
Sea ahora ϕ ∈ X ∗ . De lo anterior se sigue que Iϕ = {i ∈ I : ϕ(yi ) 6= 0} debe ser numerable. En efecto, veremos que Fk = {i ∈ I : |ϕ(yi )| ≥ k} es finito para todo k ∈ N: Pongamos αi = sgn ϕ(yi ) para cada i ∈ Iϕ , y fijemos un F ∈ PF (Fk ). Luego tenemos que
P P P P
|F| αi yi = 1 . mientras que ϕ αi yi = αi ϕ(yi ) = |ϕ(yi )| ≥ k i∈ F
As´ı vemos que
i∈ F
|F| k
i∈ F
i∈ F
X
≤ kϕk, por lo que el cardinal |Fk | no se puede pasar de k kϕk < ∞.
Volvamos ahora a nuestro problema de que c0 no puede ser COM en `∞ : Asumiremos que existe una secci´on lineal y continua U ∈ L(X , `∞ ) para Π como en (2.29), y llegaremos a una contradicci´on. Aplicando la Prop. 2.7.6, eso nos dir´ıa que c0 no era COM en `∞ . Consideremos las funcionales ϕn ∈ X ∗ dadas por ϕn = kn ◦ U , donde las kn ∈ (`∞ )∗ son tomar la entrada n-´esima de un x ∈ `∞ , para cada n ∈ N. Observar que si un elemento z = (zn )n∈ N ∈ `∞ cumple que zn = kn (z) = 0 para todo n ∈ N, entonces z = 0. S Finalmente notemos que I0 = n∈N Iϕn es numerable. Luego, como I era no numerable, existe alg´ un i ∈ I \ I0 y para ´el tenemos que el vector z = U (yi ) ∈ `∞ debe cumplir que i∈I / 0 kn (z) = kn U (yi ) = ϕn (yi ) = 0
para todo
n∈N
=⇒
z = U (yi ) = 0 .
Pero eso contradice el hecho de que kyi kX = 1 junto con que U debe ser mono (porque era la secci´on de Π, o sea que Π ◦ U = IX ). Observar que la linealidad-continuidad de la supuesta U se us´o para que las ϕn ∈ X ∗ . Llegamos a una contradicci´on lo suficientemente flagrante como para concluir que no hay tal U y por ello c0 no era COM en `∞ . 4 El ejemplo que viene se basa en un resultado sobre `1 = `1 (N) que es interesante en s´ı mismo. Lo pondremos como un ejercicio para el lector. Para abreviar damos una definici´on: Definici´ on 2.7.9. Sea E un EB. Diremos que E tiene la porpiedad L si dada cualquier sucesi´on (xk )k∈ N en E, se tiene que k · kE
xk −−−→ 0 ⇐⇒ ϕ(xk ) −−−→ 0 k→∞
k→∞
para toda
ϕ ∈ E∗ .
O sea que la convergencia d´ebil de sucesiones implica su convergencia en norma.
72
(2.30) 4
Ejercicio 2.7.10. Probar que `1 (N) tiene la propiedad L. Sugerencia: La gracia es la flecha ⇐= de (2.30). Si empezamos con una sucesi´on (xk )k∈N en B`1 (N) que no converge a cero con la norma uno de `1 (N) (eso alcanza por la Obs. 2.5.3), pasando a una subsucesi´on (y teniendo mucho cuidado) podemos suponer que • kxk k1 ≥ ε para todo k ∈ N. • Existe una sucesi´on creciente de enteros positivos αk (con α0 = 0) tales que αk−1
X m=1
1 |xk (m)| ≤ k
pero
αk X
|xk (m)| ≥ kxk k1 −
m=αk−1 +1
2 k
para todo
k∈N.
En tal caso definir z ∈ `∞ por z(m) = sgn xk (m) para αk−1 < m ≤ αk y ver que pasa con la funcional ϕz ∈ (`1 )∗ , definida como en la Ec. (1.23). 4 En realidad, casi ning´ un EB tiene la L. Es una propiedad muy espec´ıfica de `1 (N) (y de sus subespacios). Sugerimos mostrar que todos los otros Banachs que conocemos no la tienen. Le pusimos nombre s´olo para clarificar las cuentas en el ejemplo que viene. Pero antes otro ejercicio que dice que la L se hereda y se transporta por isomorfismos entre EB’s : Ejercicio 2.7.11. Sea E un EB que tiene la propiedad L. Probar que 1. Cualquier S v E tiene tambi´en la propiedad L. 2. Si F es otro EB tal que E ' F , entonces tambien F es L. Sugerencia: Para probar 1, observar que se puede mandar toda ϕ ∈ E ∗ hacia ϕ|S ∈ S ∗ . Para ver 2 recordar que si T ∈ L(E , F ) es un iso, entonces tambi´en T ∗ ∈ L(F ∗ , E ∗ ) lo es. 4 Ejemplo 2.7.12. Ahora veremos una gran familia de subespacios no complementados se puede “encontrar” dentro de `1 (N). Ya ver´an el porqu´e de las comillas: Fijemos E un EB separable. Recordando la Prop. 2.3.7 tenemos un epi T ∈ L(`1 (N) , E) y, si llamamos M = ker T v `1 (N), sabemos que hay un iso T˜ ∈ L(`1 (N)/M , E). Si el subespacio M que nos aparece tuviera un complemento N v `1 (N), tambi´en tendr´ıamos que E ' `1 (N)/M ' N , v´ıa una secci´on U de la proyecci´on ΠM que provee la Prop. 2.7.6. Ahora vienen las propiedades L: Por el Ejer. 2.7.10 el ambiente `1 (N) tiene la L. Pero usando ahora el Ejer. 2.7.11, podr´ıamos deducir que N v `1 (N) y tambi´en E ' N deben ser L. Por ende, para “tener” un M v `1 (N) no COM en `1 (N), bastar´ıa encontrar un EB separable E que no cumpla la propiedad L, poniendo M = ker T para un epi T ∈ L(`1 (N) , E). Por ejemplo c0 no puede ser L, porque si (en )n∈N es la sucesi´on can´onica de c0 , vale que ϕ(en ) −−−→ 0 para toda ϕ ∈ c∗0 ∼ = `1 . Tampoco los `p para 1 < p < ∞ son de tipo L (sale n→∞
usando la misma sucesi´on), as´ı que hay noCOM’s para tirar al techo dentro de `1 (N).
4
Veremos a continuaci´on un par de propiedades que sirven para ver que algunos subespacios s´ı son COM’s en su ambiente. En alg´ un sentido generalizan la Prop. 2.7.6 : 73
Proposici´ on 2.7.13. Sean E y F dos EB’s y T ∈ L(E , F ). Luego se tiene que 1. Si asumimos que T era un epi, entonces ker T es COM en E ⇐⇒ existe A ∈ L(F , E) tal que T ◦ A = IF .
(2.31)
2. Si en cambio asumimos que T era un mono, entonces R(T ) v F y es COM en F
⇐⇒ existe B ∈ L(F , E) tal que B ◦ T = IE .
(2.32)
Demostraci´on. Empecemos con el caso en que T es epi. Si tiene un A que es inverso a derecha como en (2.31), entonces vale que Q = A ◦ T ∈ P(E) y ker Q = ker T . Por la Prop. 2.7.6 vemos que ker T era COM en E. Pero si tenemos un N v E tal que ker T ⊕ N = E, entonces nos queda que T |N ∈ L(N , F ) es un iso. Por el TFI 2.3.4 sabemos que su inversa A = (T |N )−1 ∈ L(F , N ) ⊆ L(F , E). Pero tenemos que T ◦ A = T |N ◦ A = IF . Si T era mono y existe el B de (2.32) (o sea que T tiene inversa a izquierda), entonces el operador P = T ◦ B ∈ P(F ) y vale que R(T ) = R(P ) v F (la igualdad sale porque B tiene que ser epi). Por la Prop. 2.7.6 vemos que R(T ) es adem´as COM en F . Si asumimos que S = R(T ) v F , entonces podemos pensar a T ∈ L(E , S) con nombre T0 , y all´ı es un iso entre EB’s. Por el TFI 2.3.4, su inversa B0 = T0−1 ∈ L(S , E). Si adem´as existe un N v F tal que R(T ) ⊕ N = F , y llamamos P = PS/N ∈ P(F ) (es acotado por la Prop. 2.7.2), entonces podemos definir al candidato B = B0 ◦ P ∈ L(F , E). Veamos: ∗
B ◦ T = B0 ◦ P ◦ T = B0 ◦ T0 = IE , ∗
donde = vale porque P act´ ua como la identidad en S y R(T ) = S.
74
2.8
Ejercicios del Cap. 2 - Funcionales y Operadores
Ejercicios aparecidos en el texto 2.8.1. Sea E un EN. Dado un subespacio S v E y un x ∈ / S, probar que existe una ϕ ∈ E∗
tal que
S ⊆ ker ϕ , kϕk = 1
pero
|ϕ(x)| = d ( x , S ) .
(2.33)
Se sugiere probarlo primero a mano en S ⊕ span {x} y extender por Hanh-Banach. Reci´en despu´es hacerlo usando la Ec. (2.6) en E/S . Comparar con la igualdad |ϕ(x)| = d ( x , ker ϕ ) de la Prop. 1.7.7. 4 2.8.2. Sea E un EN. Probar que 1. Dado un subespacio S ⊆ E, se tiene que S =
T
{ ker ϕ : ϕ ∈ E ∗ y S ⊆ ker ϕ } .
2. M´ as a´ un, si X ⊆ E entonces un punto y0 ∈ span {X } ⇐⇒ todo ϕ ∈ E ∗ tal que X ⊆ ker ϕ cumple que ϕ(y0 ) = 0.
4
2.8.3. Sea E un EN. 1. Dado un x ∈ E y una ϕ ∈ E ∗ como en la Ec. (2.6) (o sea que kϕk = 1 pero ϕ(x) = kxk ), mostrar que (1.39)
ah´ı s´ı vale que d (x , ker ϕ) = kxk. Comparar con la Ec. (1.27) y el Ejem. 1.4.3. 2. Asumamos que dim E = ∞. Usando recursivamente el item anterior, probar que existen una sucesi´ on (xn )n∈ N en E y una familia de subespacios Sn v E tales que (a) La dim Sn = ∞ y la kxn k = 1 para todo n ∈ N. (b) Los subespacios decrecen: Sm ⊆ Sn si n ≤ m. (c) Para todo n ∈ N vale que xn ∈ Sn . Luego xm ∈ Sn para todo m ≥ n. (d) Pero adem´ as vale que Sn = Sn+1 ⊕ K xn para todo n ∈ N. (e) Observar que nos queda que E = Sn+1 ⊕ span {x1 , . . . , xn } para todo n ∈ N. (f) Por u ´ltimo pedimos que la d (xn , Sn+1 ) = 1 para todo n ∈ N. Sugerencia: Empezar con S1 = E y x1 ∈ E un unitario cualquiera. El paso inductivo es encontrar una ϕn ∈ Sn∗ tal que d (xn , ker ϕn ) = 1 (todo en Sn ). Luego se podr´a definir Sn+1 = ker ϕn ⊆ Sn y elegir el xn+1 al azar all´ı dentro. 3. Asumiendo adem´ as que E es un EB, exhibir un T ∈ L(`∞ , E) que sea mono.
4
Sugerencia: Construir la sucesi´ on (xn )n∈ NPen E de vectores unitarios y los Sn del item 2. Luego mandar cada a = (an )n∈ N ∈ `∞ a la serie T (a) = n∈N 2−n an xn ∈ E. 4 2.8.4. Sea E un EB infinitodimensional, con dim E = α (dimensi´on algebr´aica). 1. Usando el Teor. de Baire 2.2.4, probar que α > |N| = ℵ0 . 2. M´ as a´ un, usando el Ejer. 2.1.9 y Vandermonde, mostrar que α ≥ |R| = c. Sug: Considerar los vectores (λn )n∈N ∈ `∞ para cada λ ∈ C con |λ| < 1.
4
2.8.5. Mostrar un ejemplo de un T ∈ Hom(E , F ) que no es acotado aunque Gr (T ) v E × F y E es un EB. Repaso: Sean E , F dos EN’s. Recordemos que un operador T ∈ L(E, F ) es acotado inferiormente (y abreviamos AI) si existe un ε > 0 tal que ε · kxkE ≤ kT x kF para todo x ∈ E .
75
2.8.6. Sean E , F dos EN’s y sea T ∈ L(E, F ). Asumamos que E es Banach. Probar que: 1. Si T es AI, entonces T es mono y R(T ) es cerrado. 2. Se tiene que T es AI y epi ⇐⇒ T ∈ Gl (E). 3. Si tambi´en F era un EB, entonces T es AI ⇐⇒ T es mono y R(T ) es cerrado. 2.8.7. Probar que una sucesi´ on (xk )k∈N en `1 cumple que k·k
1 xk −−−−→ 0 ⇐⇒ ϕ(xk ) −−−−→ 0
k→∞
k→∞
para toda
ϕ ∈ (`1 )∗ ∼ = `∞ .
En el Ejer. 2.7.10 se da una sugerencia bastante expl´ıcita. Pero all´ı se ped´ıa que (xk )k∈N fuera acotada. Ahora agregamos al ejercicio el mostrar que cualquiera de las dos convergencias asegura esa acotaci´on. 4 2.8.8. Sea E un EB y sea B ⊆ E un subconjunto cualquiera. Probar el Cor. 2.5.2: B es k · k-acotado ⇐⇒ B es w-acotado , donde w-acotado significa que para toda ϕ ∈ E ∗ el conjunto ϕ(B) es acotado en C.
4
2.8.9. Dados tres normados E, F y G, un T ∈ L(E, F ) y un S ∈ L(F, G), probar lo que sigue: 1. Usando la igualdad kyk = sup |φ(y)| para todo y ∈ F , ver que kT k = kT ∗ k. φ∈BF ∗
2. El adjunfo del producto da el producto al rev´es de los adjuntos: (S T )∗ = T ∗ S ∗ . 3. La adjunta de la identidad es otra identidad: (IE )∗ = IE ∗ . 4. Si T ∈ L(E, F ) es un iso, entonces T ∗ hace que E ∗ ' F ∗ , con (T ∗ )−1 = (T −1 )∗ . 5. Nuestro T es isomorfismo e isometr´ıa ⇐⇒ T (BE ) = BF . 6. En tal caso, tambi´en T ∗ ser´ a isomorfismo e isometr´ıa. Deducir que E∼ = F =⇒ E ∗ ∼ = F∗
(∼ =
era ser isom´etricamente ') . 4
¿ Vale la rec´ıproca? 2.8.10. Consideremos los EB’s c0 y c = c0 + K 1 = {(xn )n∈ N ∈ `∞ : existe el lim xn ∈ K }. n→∞
1. Probar que hay isomorfismos isom´etricos naturales c∗0 ∼ = `1 (N) ∼ = c∗ 2. Sin embargo, probar que no existe iso isom´etrico entre ellos, o sea que c0 ∼ 6 c. = 3. Mostrar que por lo menos s´ı vale que c0 ' c con un iso no isom´etrico. Sug: Para el primero conviene observar que `1 (N) es “lo mismo” si uno empieza en x0 o en x1 . Para el segundo se sugiere buscar extremales de las bolas cerradas (si no saben que son vean la Def. 5.4.1). 4 Ahora repasar la Def. 2.6.5 de anuladores y preanuladores. 2.8.11. Sea E un EN. Dados sendos subespacios S ⊆ E y T ⊆ E ∗ , probar que 1. Se cumple que S ⊥ v E ∗ y 2. Adem´ as
⊥
⊥
T v E.
(S ⊥ ) = S y (⊥ T )⊥ ⊇ T .
76
3. Pensemos a c0 ⊆ `∞ = (`1 )∗ . Probar que (⊥ c0 )⊥ contiene extrictamente a c0 . 4. Probar en detalle la Ec. (2.19): Si JE es la inmersi´on can´onica de E dentro de E ∗∗ , JE (⊥ T ) = T ⊥ ∩ JE (E) ( en E ∗∗ )
y
⊥
JE (S) = S ⊥ ( en E ∗ ) .
2.8.12. Sean E y F dos EN’s y T ∈ L(E, F ). Probar la Ec. (2.20) : ker T ∗ = R(T )⊥ ( en F ∗ )
y
ker T =
⊥
R(T ∗ )
( en E ).
Por otra parte, mostrar el operador T ∗∗ ∈ L(E ∗∗ , F ∗∗ ) cumple la Ec. (2.21) :
T
∗∗
T
E ◦ JE = JF ◦ T
/ F
que se ve bien en el diagrama JE
E ∗∗
T ∗∗
JF
/ F ∗∗
Finalmente deducir la f´ ormula (2.22), que dec´ıa que R(T ) =
⊥
ker T ∗
y
R(T ∗ ) ⊆ (ker T )⊥ .
2.8.13. Sea E un EN y sea S v E. Probar que 1. El dual S ∗ se caracteiza como S ∗ ∼ = E ∗ /S ⊥ v´ıa el iso-isom´etrico Φ ∈ L(E ∗ /S ⊥ , S ∗ )
dado por
Φ (ϕ + S ⊥ ) = ϕ|S .
Se necesita verificar buena definici´ on, linealidad, isometricidad y epiness (por H-B 2.1.5). 2. An´ alogamente, probar que (E/S)∗ ∼ = S ⊥ por el hecho de que Π∗S ∈ L (E/S)∗ , E ∗
es isom´etrica
R(Π∗S ) = S ⊥ v E ∗ .
y
(2.34)
Recordar que Π∗S (φ) = φ ◦ ΠS para cada φ ∈ (E/S)∗ . El curro es “bajar” al cociente las ϕ ∈ S ⊥ , v´ıa el Cor. 1.7.5, que tambi´en da el isometrismo. 4 Repaso: Sea E un EN y sean S, T v E tales que E = S ⊕ T . El proyector PS/T de la Ec. (2.26) era PS/T : E → S ⊆ E
dado por
PS/T (x + y) = x
para
x∈S
e
y∈T .
Recordemos adem´ as que otro operador P ∈ L(E) es un proyector si P 2 = P y que llam´abamos P(E) = {P ∈ L(E) : P 2 = P }
(2.35) 4
al espacio de proyectores acotados. 2.8.14. Sea E un EN. Probar que si P ∈ P(E) enotnces: 1. Tambi´en el operador Q = IE − P ∈ P(E), y cumple que P Q = Q P = 0. 2. Nuestro P opera como la identidad en su rango S = R(P ). 3. Vale que S = R(P ) = ker Q v E, y que T = R(Q) = ker P v E.
77
4. Se cumple la descomposici´ on S ⊕ T = R(P ) ⊕ ker P = E. 5. Por lo tanto nuestro P no era otro que P = PS/T , donde S = R(P ) y T = ker P .
4
2.8.15. Sea E un EB y sean S, T v E tales que E = S ⊕ T . En la Prop. 2.7.2 vimos que, como E es Banach, entonces PS/T ∈ P(E). Probar ahora que kPS/T k = N −1 , para el n´ umero N dado por N
= m´ ax{M ≥ 0 : kx + yk ≥ M kxk
para todos los
x∈S , y∈T}
= ´ınf{ kx + yk : y ∈ T , x ∈ S1 } = d (S1 , T ) , def
donde se usa la notaci´ on S1 = {x ∈ S : kxk = 1}. def
Sug. 1 : Utilizar en el espacio producto S × T la norma dada por k(x , y)k1 = kxk + kyk, para cada par (x , y) ∈ S × T , con la que nos queda un EB. Sug. 2 : Por el Cor. 1.7.5 se tiene que kPS/T k = kPeS/T k, donde PeS/T ∈ L(E/T , E) es el bajado al cociente que cumple PS/T = PeS/T ◦ ΠT . Dado un x ∈ S1 nos queda que 1 = kxk = kPS/T xk = kPeS/T xk ≤ kPeS/T k k x k = kPS/T k d (x , T ) . Despues se toma ´ınfimo sobre tales x ∈ S1 . Usar tambi´en que ΠT (S) da todo E/T .
4
p
2.8.16. Sea F = ` (N), con p ∈ (1, ∞). Tomemos el operador Mx ∈ L(F ) producido como en la Ec. (1.43) por la sucesi´ on x = ( n1 )n∈N ∈ `∞ (N). Consideremos los siguientes subespacios de F 2 = F × F : S = F × {0} = ( y , z ) ∈ F 2 : z = 0 y T = Gr (Mx ) = ( y , Mx y ) : y ∈ F . Probar ahora las siguientes cosas: 1. Ambos son cerrados: S v F 2 y T v F 2 , usando en F 2 la norma k · k1 definida en (2.14). 2. El operador Mx es mono. Recordemos que Mx y = ( n1 yn )n∈N para y = (yn )n∈ N ∈ `p (N) = F . 3. Deducir que S ∩ T = { (0 , 0) } = {0F 2 }. 4. Sin embargo, proponemos mostrar que N = d (S1 , T ) = 0, donde S1 = {w ∈ S : kwk1 = 1}. 5. Usando el Ejer. 2.8.15 deducir que S ⊕ T 6v F 2 . 2.8.15
Sug: Si E = S ⊕ T fuera un EB, valdr´ıa que PS/T ∈ L(E) y tambi´en que kPS/T k = N −1 = ∞. 6. Otra forma: Mostrar que el mism´ısimo (0 , x) ∈ S ⊕ T pero no est´a en S ⊕ T . Por este lado sale f´ acil que en realidad S ⊕ T es denso en F 2 (porque R(Mx ) es denso en F ). 7. Probar que a pesar de lo anterior, pensados solitos S y T s´ı son COM dentro de F 2 . Para el caso no trivial de T sugerimos usar la Ec. (2.32). 4 2.8.17. Sea E un EB. Si un subespacio S v E cumple que dim S < ∞
o que
def
codim S = dim E/S < ∞ =⇒ S es COM en E .
4
2.8.18. Probar que existe una famila {Ai }i∈I de subconjuntos de N tales que |Ai | = ∞
para todo
i∈I ,
|I| = |R|
pero
Ai ∩ Aj
es finito
siempre que
i 6= j .
Sug: No indicaremos los detalles del c´ omo hacerlo, porque es una l´astima quemarlo. Sin embargo diremos que sale de dos maneras tradicionales (al lector entusiasta le sugerimos no leer lo que sigue, hasta que le salga): Una es tomando bandas oblicuas (que sean bastante anchitas) en el reticulado N × N, con el “angulo” movi´endose en (0 , π/2). La otra es tomar sucesiones adecuadas de n´ umeros racionales. 4
78
2.8.19. Hacer todas las cuentas del Ejem. 2.7.8 que mostraba que c0 v `∞ no es COM en `∞ .
4
Definici´ on 2.8.20. Diremos que un Banach E tiene la porpiedad L si dada cualquier sucesi´on (xk )k∈ N en E , se tiene que k · kE
xk −−−−→ 0 ⇐⇒ ϕ(xk ) −−−−→ 0 k→∞
k→∞
para toda
ϕ ∈ E∗ .
(2.36) 4
O sea que la convergencia d´ebil de sucesiones acotadas implica convergencia en norma. 1
2.8.21. Probar que ` (N) tiene la propiedad L. Sugerencia: La gracia es la flecha ⇐= de (2.30). Si empezamos con una sucesi´on (xk )k∈N en B`1 (N) que no converge a cero con la norma uno de `1 (N) (eso alcanza por la Obs. 2.5.3), pasando a una subsucesi´ on (y teniendo mucho cuidado) podemos suponer que • kxk k1 ≥ ε para todo k ∈ N. • Existe una sucesi´ on creciente de enteros positivos αk (con α0 = 0) tales que αk−1
X
|xk (m)| ≤
m=1
1 k
pero
αk X
|xk (m)| ≥ kxk k1 −
m=αk−1 +1
2 k
para todo
k∈N.
En tal caso definir z ∈ `∞ por z(m) = sgn xk (m) para αk−1 < m ≤ αk y ver que pasa con la funcional ϕz ∈ (`1 )∗ , definida como en la Ec. (1.23). 4 2.8.22. Sean E , F dos EN’s tales que E ∼ = F v´ıa un iso T ∈ L(E, F ). Si x = (xi )i∈ I es una red en E probar que, dado un candidato a l´ımite x ∈ E k·k
k·k
i∈ I
i∈ I
1. Se tiene que xi −−→ x en E ⇐⇒ T xi −−→ T x en F . 2. Adem´ as ϕ(xi ) −−→ ϕ(x) para toda ϕ ∈ E ∗ ⇐⇒ φ(T xi ) −−→ φ(T x) para toda φ ∈ F ∗ . i∈ I
i∈ I
3. La red x es acotada en E ⇐⇒ la red T x = (T xi )i∈I lo es en F .
4
2.8.23. Sea E un EB que tiene la propiedad L. Probar que 1. Cualquier S v E tiene tambi´en la propiedad L. 2. Si F es otro EB tal que E ' F , entonces tambien F es L.
Ejercicios nuevos 2.8.24. Sea E un EN y sea S ⊆ E un subespacio. Probar que 1. Si S no es denso en E debe existir una funcional ϕ ∈ E ∗ no nula tal que ϕ|S ≡ 0. 2. Comparar con el Ejer. 2.8.1 2.8.25. Sean E, F dos EN’s, T ∈ L(E, F ) y x ∈ E. Probar la siguiente igualdad: d (x , ker T ) = max{|φ(x)| : φ ∈ (ker T )⊥ , kϕk ≤ 1}. 2.8.26 (El operador de Volterra.). Sea V : L2 [0, 1] → L2 [0, 1] el operador de Volterra, dado por Z x f (t) dt para cada f ∈ L2 [0, 1] . V f (x) = 0
Probar que V no es acotado inferiormente.
79
4
2.8.27. Consideremos a E = L1 (1, +∞) como un R-EB. Sea T : E → E dado por T f (x) = que T es acotado pero no abierto. (Sug. 0 ∈ T (B(0, 1)) no es punto interior).
f (x) x
. Probar
2.8.28. Sean E y F espacios normados y T ∈ L(E, F ). Probar que el Gr (T ) v E × F ⇐⇒ para toda sucesi´ on (xn )n∈ N en E tal que xn −−−−→ 0 y T xn −−−−→ y ∈ F , se tiene que y = 0. n→∞
n→∞
0
1
2.8.29. Sea C [0, 1] = {f ∈ C[0, 1] : existe f ∈ C[0, 1] } con la norma infinito de C[0, 1]. Sea D : C 1 [0, 1] → C[0, 1]
dado por
D(f ) = f 0
para cada
f ∈ C 1 [0, 1] .
Probar que Gr (D) v C 1 [0, 1] × C[0, 1] pero D no es acotado. ¿Por qu´e esto no contradice el TGC? 2.8.30. Sea (E, k · k) un EB separable. Fijemos una base algebraica E = {ei }i∈I de E tal que kei k = 1 para todo i ∈ I. Con ella definamos en E otra norma k · kE del siguiente modo: Si x ∈ E se escribe x =
X
αi ei
entonces ponemos
kxkE =
i∈I
X
|αi | .
i∈I
Probar ahora las siguientes cosas: 1. Antes que nada, verificar que k · kE es en efecto una norma. 2. La identidad IE : (E, k · kE ) → (E, k · k) es una contracci´on. 3. Si I es infinito, su “inversa” IE : (E, k · k) → (E, k · kE ) tiene gr´afico cerrado pero no es acotada. 4. Ahora bien, ¿Por qu´e el item anterior no contradice el TGC? 2.8.31. Sean E y F dos EB’s. Probar que para todo operador T ∈ L(E , F ), su gr´afico Gr (T ) v E × F , Recordar la Ec. (2.32) y el P
−1
adem´as de ser cerrado
es COM en E × F . 4
de la prueba del TGC.
2.8.32. Sea E = `p (N), con p ∈ (1, ∞) e identifiquemos E ∗ con `q (N) en la forma usual. Fijado un a ∈ `∞ (N) consideremos el operador Ma ∈ L(E) producido como en la Ec. (1.43). Probar que su adjunto Ma∗ ∈ L(E ∗ ) = L(`q (N) )
es el mismo
Ma
actuando ahora en
`q (N) .
4
Definici´ on 2.8.33. Sean E y F dos EB’s. Fijemos una sucesi´on (Tn )n∈N y un T , todos en L(E, F ). Decimos S.O.T.
k·k
n→∞
n→∞
que Tn −−−−→ T (se lee “Tn converge fuertemente a T ”) si para cualquier x ∈ E se tiene que Tn x −−−−→ T x 4
(en la norma de F ).
2.8.34. Sean E y F dos EB’s. Dados T, S y dos sucesiones (Tn )n∈N y (Sn )n∈N , todos en L(E, F ), probar: S.O.T.
k·k
k·k
n→∞
n→∞
n→∞
S.O.T.
S.O.T.
S.O.T.
n→∞
n→∞
n→∞
1. Si Tn −−−−→ T y xn −−−−→ x (todos en E y con su norma) entonces Tn xn −−−−→ T x. 2. Si Tn −−−−→ T y Sn −−−−→ S, entonces Tn Sn −−−−→ T S. 3. Supongamos que para cada x ∈ E la sucesi´on {Tn x}n∈N es de Cauchy. Probar que existe un operador S.O.T. A ∈ L(E, F ) tal que Tn −−−−→ A. 4 n→∞
2.8.35. Sean E y F dos Banach’s. 1. Si S v E llamemos IS : S ,→ E la inclusi´on. Probar que IS∗
es epi
y que est´ a dada por IS∗ ϕ = ϕ ◦ IS = ϕ S
80
,
para cada
ϕ ∈ E∗ .
2. Dado T ∈ L(E, F ), probar que R(T ) v F ⇐⇒ R(T ∗ ) v E. Sug: Si vale que R(T ) v F , bajamos T a T˜ : E/ ker T → R(T ) que es iso. Notar que ∗ T = IR(T ) ◦ T˜ ◦ Πker T =⇒ T ∗ = Π∗ker T ◦ T˜∗ ◦ IR(T ) . 2.8.13
Pero por otro lado sabemos que R(Π∗ker T ) = (ker T )⊥ v E ∗ . La vuelta es similar.
4
Bases Σ y bases de Schauder. Definici´ on 2.8.36. Sea E un EN separable. Un conjunto (LI) B = {bn : n ∈ N} es una Σ-base de E si P para todo x ∈ E existe una u ´ nica sucesi´on c(x) = (ϕn (x) )n∈ N ∈ KN tal que x = ϕn (x) bn , n∈N
donde la serie converge con la norma de E. En tal caso se definen las funcionales E 3 x 7→ ϕn (x) ∈ K. Diremos que B es una S-base (o base de Schauder) si todas las funcionales ϕn ∈ E ∗ . Asociado a B se define el espacio de sucesiones FB ⊆ KN dado por X FB = a = (an )n∈ N ∈ KN : la serie an bn converge en E , n∈N m
P
def ak bk E , para cada a = (an )n∈ N ∈ FB . dotado de la norma kakB = sup m∈N
4
k=1
2.8.37. Sea E un EN separable con una Σ-base B = {bn : n ∈ N}. Probar que 1. La unicidad asegura que las funcionales cordenadas ϕn ∈ E 0 , i.e. son lineales. 2. El conjunto FB ⊆ KN es un subespacio de KN . 3. La norma k · kB est´ a bien definida (el sup es finito) y es una norma para FB . P 4. Consideremos la flecha TB : FB → E dada por TB a = an bn para cada a = (an )n∈ N ∈ FB . n∈N
Mostrar que este TB ∈ L(FB , E) con kTB k ≤ 1, y que es un isomorfismo K-lineal. 5. Concluir que FB = {c(x) : x ∈ E}, el conjunto de las “coordenadas” de los x ∈ E. Supongamos ahora que E era un Banach. En tal caso se tiene que 6. El espacio de coordenadas FB con su norma k · kB es otro Banach. 7. El operador TB ∈ L(FB , E) de arriba es un iso de EB’s, o sea que es tambi´en h´omeo y E ' FB . 8. Nuestra base B era tambi´en una base de Schauder. Ya que est´an prueben (2.37) de abajo. 9. Concluir que en los Banach’s las nociones de Σ-base y de S-base coinciden. 10. Caracterizar a E ∗ como otro espacio de sucesiones en forma similar a las dualidades de `p con `q . 4 2.8.38. Sea E un EB con una S-base B = {bn : n ∈ N}. Probar que 1. Si sus funcionales coordenadas son ϕn ∈ E ∗ para cada n ∈ N, se tiene que 1 ≤ kϕn kE ∗ kbn kE ≤ 2 k TB−1 k
para todo
n∈N.
2. Si una a = (an )n∈ N ∈ FB =⇒ kan bn kE −−−−→ 0 (obvio pero ahora se la va a usar). n→∞
81
(2.37)
3. Vale que sup kbn kE < ∞ ⇐⇒ ´ınf kϕn kE ∗ > 0 ⇐⇒ `1 (N) ⊆ FB . n∈N
n∈N
4. Vice versa con un agregado. Las suguientes condiciones son equivalentes: (a) El ´ınf kbn kE > 0 n∈N
(b) El sup kϕn kE ∗ < ∞. n∈N
(c) Toda a = (an )n∈ N ∈ FB cumple que an −−−−→ 0, i.e. FB ⊆ c0 . n→∞
(d) Una m´ as d´ebil: FB ⊆ `∞ (N). def
5. Fijado un n ∈ N denotemos por En = span {bm : m 6= n} v E. Luego (a) Se tiene que En = ker ϕn . (b) Adem´ as vale que d (bn , En ) ≥
kbn k . Luego para todo n ∈ N, E = En ⊕ K bn . 2 k TB−1 k
4
2.8.39. A una S-base B = {bn : n ∈ N} de un Banch E se le dice acotada si def
m = ´ınf kbn kE > 0 n∈N
y
def
M = sup kbn kE < ∞ ⇐⇒ `1 ⊆ FB ⊆ c0 , n∈N
y se le dice unitaria si m = M = 1. Probar que si B es acotada existe una nueva norma en E que es equivalente a la original, tal que B se hace unitaria. 4 2.8.40. Probar que la base can´ onica E = {en : n ∈ N} de SF se transforma en una S-base acotada de todos los `p (N) para p < ∞ y tambi´en de c0 . Con `∞ no se plantea porque no es separable. 4
82
Cap´ıtulo 3 Espacios de Hilbert 3.1
Preliminares.
Definici´ on 3.1.1. Sea H un K-EV. Un producto interno (PI) en H es una funci´on h· , ·i : H × H → K que cumple las siguientes condiciones: Dados x, y, z ∈ H y λ ∈ K, vale que 1. Es sequilineal (lineal en la primera y antilineal en la segunda): hλ x + y , zi = λ hx , zi + hy , zi
y
hx , λ y + zi = λ hx , yi + hx , zi ,
2. Es conjugadamente sim´etrico (o Hermitiano): hx , yi = hy , xi. 3. Es definido positivo: hx , xi ≥ 0 y s´olo se anula si x = 0. 4. Denotaremos kxk = hx , xi1/2 , lo que pronto veremos que es la norma de x. En el caso real la conjugaci´on no hace nada, por lo que un PI es bilineal, sim´etrico y definido positivo. Se lo llama semi PI si permitimos que hx , xi = 0 para algunos x 6= 0. 4 3.1.2 (F´ormulas con un PI). Sea H , h· , ·i un K-EV con un semi PI asociado. 1. Para todo par x, y ∈ H y todo λ ∈ K se tiene que 0 ≤ kλ x + yk2 = hλ x + y , λ x + yi = |λ|2 kxk2 + 2 Re λ hx , yi + kyk2 .
(3.1)
La prueba es directa y se deja como ejercicio. Observar que tiene una consecuencia agradable: Tomando y = 0 en (3.1) nos queda que kλxk = |λ| kxk para todo x ∈ H .
83
2. Por otra parte, la forma sesquilineal se puede recuperar de la cuadr´atica con la so called “identidad de polarizaci´on”. Tiene dos versiones: Dados x, y ∈ H, 4 hx , yi =
3 X
ik kx + ik yk2
(siempre que K = C) ,
(3.2)
k=0
mientras que cuando K = R se tiene una versi´on m´as agradable: 4 hx , yi = kx + yk2 − kx − yk2 .
(3.3)
Las pruebas tambi´en son directas (aunque m´as largas) y se dejan como ejercicio. 3. Por u ´ltimo, veamos la famos´ısima igualdad del paralelogramo: kx + yk2 + kx − yk2 = 2kxk2 + 2kyk2
x, y ∈ H .
para todo par
(3.4)
La prueba no es m´as que poner dos veces la Ec. (3.1), para kx + yk2 y k − x + yk2 , para despu´es cancelar. Dejamos como ejercicio dar una versi´on para n vectores. 4 Proposici´ on 3.1.3 (Cauchy-Schwarz). Sea H , h· , ·i un K-EV con un semi PI asociado. Entonces para todo x, y ∈ H vale que | hx , yi | ≤ kxk kyk .
(3.5)
Demostraci´on. Usando la Ec. (3.1), podemos considerar el siguiente polinomio en R[x] : (3.1) P (t) = kt x + yk2 = kxk2 t2 + 2 Re hx , yi t + kyk2 ,
para
t∈R.
Observar que P tiene grado dos y que s´olo toma valores positivos. Luego su discriminante no puede ser positivo, o sea que 2 0 ≥ b2 − 4ac = 4 Re hx , yi − 4 kxk2 kyk2 =⇒ | Re hx , yi | ≤ kxk kyk . (3.6) Para sacar la parte real escribamos hx , yi = ei θ | hx , yi |. Luego h e−i θ x , yi = | hx , yi |. Aplic´andole ahora (3.6) a los vectores x0 = e−i θ x and y, llegamos a (3.5). Corolario 3.1.4. Sea H , h· , ·i un K-EV con un semi PI asociado. Entonces la flecha x 7→ kxk = hx , xi1/2 es una seminorma. Si ten´ıamos un buen PI, entonces es una norma. Demostraci´on. Ya vimos que saca escalares en m´odulo y toma valores no negativos. Tambi´en sabemos que si h· , ·i es un PI entonces kxk = 0 =⇒ x = 0. S´olo falta la DT. Dados x, y ∈ H, apliquemos la Ec. (3.1) con λ = 1 y Cauchy-Schwarz (3.5): kx + yk2
(3.1)
= kxk2 + 2 Re hx , yi + kyk2 ≤ kxk2 + 2|hx , yi| + kyk2
C−S
≤
kxk2 + 2kxk kyk + kyk2 = kxk + kyk
Tomando ra´ıces cuadradas tenemos la DT y es una (semi) norma. 84
2
.
Definici´ on 3.1.5. A partir de ahora, cuando H , h· , ·i es un K-EV con un PI asociado, diremos que H = (H , k · k ) es un espacio de pre-Hilbert (escribimos EPH). Si con esa m´etrica resulta ser un Banach, lo llamaremos espacio de Hilbert (EH).
4
Observaci´ on 3.1.6. Sea H un EPH. La desigualdad de Cauchy Schwarz muestra que el PI es continuo en cada coordenada (respecto de la norma que ´el produce). Por ejemplo, si k·k
tomamos un vector y junto con una sucesi´on xn −−−→ x, todos en H, entonces n→∞
|hx − xn , yi|
C−S
≤
kx − xn k kyk −−−→ 0 =⇒ hxn , yi −−−→ hx , yi . n→∞
n→∞
4
Lo mismo se puede hacer en la segunda coordenada.
3.2
Ortogonalidad.
Notaciones 3.2.1. Sea H un EPH. 1. Dados x, y ∈ H, si hx , yi = 0 diremos que son ortogonales y escribiremos x ⊥ y . 2. Dado A ⊆ H denotaremos por A⊥ = {y ∈ H : x ⊥ y para todo x ∈ A}. 3. Dados A, B ⊆ H, diremos que A ⊥ B si B ⊆ A⊥ (o A ⊆ B⊥ , que es lo mismo). 4. Diremos que un B ⊆ H es un sistema ortonormal (SON) si cumple que, kxk = 1 ∀ x ∈ H
y
hx , yi = 0
siempre que
x 6= y , x, y ∈ B.
Si no pedimos normas uno, diremos que B es un sistema ortogonal. 5. Dado S v H, un B ⊆ S es una base ortonormal de S (se abrevia BON de S) si B
es un SON y
span {B} = S .
6. Diremos que B es una BON (a secas) si lo es para todo H. Observaci´ on 3.2.2. Sea H un EPH. En vista de la Obs. 3.1.6 es f´acil ver que la flecha A 7→ A⊥ cumple las siguientes propiedades: Dado un A ⊆ H, 1. Su ortogonal A⊥ v H (es subespacio y es cerrado). 2. Tambi´en vale que, si S = span {A}, entonces A⊥ = S ⊥ = S ⊥ . Observar que por definici´on, A ⊆ B =⇒ B ⊥ ⊆ A⊥ . El hecho de que A⊥ ⊆ S ⊥ sale por la linealidad del PI en la primera coordenada. Y el que S ⊥ ⊆ S ⊥ sale por la continuidad que ofrece la Obs. 3.1.6. El mismo tipo de argumento muestra el item 1. 4
85
Proposici´ on 3.2.3 (Teor. de Pit´agoras). Sea H un EPH. Si tenemos una familia finita B = {x1 , x2 , . . . , xn } ⊆ H que es un sistema ortogonal, entonces se tiene que
X 2 X
kxk k2 . xk =
k∈ In
k∈ In
Demostraci´on. Hay que hacer inducci´on en |B| = n ∈ N. Si n = 1 es muy dif´ıcil. El caso en que n = 2 sale porque kx1 + x2 k2 = kx1 k2 + 2 Re hx1 , x2 i + kx2 k2 . La prueba para n ≥ 3 la dejamos como ejercicio para el lector inductivo. Se usa que {xn }⊥ es un subespacio. Sea E un K-EV, y sea A ⊆ E. Decimos que A es convexo si, dados x, y ∈ A se tiene que def
[x, y] = {(1 − λ) x + λ y : λ ∈ [0, 1] } ⊆ A . Observar que [x, y] denota al “segmento” recto que une a x con y dentro de E. Teorema 3.2.4. Sea H un EH (ac´a es esencial que H sea completo). Dado un A ⊆ H que sea cerrado y convexo, se tiene que para todo x ∈ H existe un u ´nico
k0 = PA x ∈ A
tal que
d (x , A) = kx − k0 k .
Demostraci´on. Empecemos cambiando A por Ax = A − x = {k − x : k ∈ A}. Este Ax sigue siendo cerrado y convexo, pero ahora hay que realizarle la distancia al x = 0. Es decir que se busca un k0 ∈ Ax tal que kk0 k = m´ın kkk. Y despu´es hay que ver que el tal k0 es u ´nico. k∈Ax
Para ello llamemos M = ´ınf kkk = d (0 , Ax ) y tomemos una sucesi´on (kn )n∈ N en Ax tal k∈Ax
que kkn k −−−→ M . Ahora viene el paralelogramo (3.4): n→∞
kkn + km k2 + kkn − km k2 = 2 kkn k2 + 2 kkm k2 −−−−→ 4 M 2 . n,m→∞
Sin embargo, por la convexidad de Ax , sabemos que
k + k 2 kn + km
n m ∈ Ax =⇒ kkn + km k2 = 4
≥ 4 M2 2 2
para todo
n, m ∈ N .
Mirando fijo las dos ecuaciones de arriba podemos convencernos que no queda otra que kkn − km k −−−−→ 0 =⇒ (kn )n∈ N n,m→∞
es de Cauchy
=⇒ kn −−−→ k0 ∈ Ax . n→∞
Acabamos de usar que H es completo y que Ax es cerrado. Bueno, ahora ya sabemos que kkn k −−−→ kk0 k = M y que k0 ∈ Ax como anunciamos. Para ver la unicidad tomemos otro n→∞
k ∈ Ax tal que kkk = M . Aplicl´andoles el paralelogramo (3.4) a k y k0 queda que kk + k0 k2 + kk − k0 k2 = 2 kkk2 + 2 kk0 k2 = 4 M 2 . Como antes vemos que kk + k0 k2 ≥ 4 M 2 , as´ı que kk − k0 k = 0 y k = k0 . 86
El Teorema anterior es particularmente util cuando el rol de convexo cerrado lo cumple un subespacio S v H. En ese caso se define PS : H → S ⊆ H dada por PS x = y ,
el u ´nico y ∈ S tal que
kx − yk = d (x , S) .
(3.7)
Veremos que este PS es un proyector en L(H) con muchas propiedades agradables. Pero vamos paso a paso. Proposici´ on 3.2.5. Sea H un EH. Dado un S v H, se tienen las siguientes propiedades: 1. La diferencia x − PS x ∈ S ⊥ para todo x ∈ H. 2. El subespacio S ⊥ es un complemento de S, o sea que S ⊕ S ⊥ = H. 3. PS ∈ L(H) con kPS k = 1 (si S = 6 {0}). Eso significa que es lineal, y que es acotado. 4. De hecho, PS = PS/S ⊥ ∈ P(H), el proyector de la Ec. (2.26) asociado a S ⊕ S ⊥ = H. 5. Por ello se cumple que PS = PS 2 , R(PS ) = S y ker PS = S ⊥ . Demostraci´on. El hecho clave es el item 1, que sugerimos ilustrar haciendo un dibujito en un papel ⊆ R2 . Sean y = PS x y z = x − y. La idea es que si z no estuviera en S ⊥ se podr´ıa mejorar al y ∈ S para que la diferencia quede m´as ortogonal a S, y por ello mas corta. Para formalizar eso, fijemos cualquier s ∈ S \ {0} y calculemos la distancia de x al vector movidito y + ts ∈ S, con t ∈ R. Por la minimalidad que da el Teo. 3.7 sabemos que 0 ≤ kx − (y + ts)k2 − kx − yk2 = kz − tsk2 − kzk2 = −2 t Rehz , si + t2 ksk2 = ksk2 t t −
2 Rehz , si ksk2
.
Si Rehz , si 6= 0, el polinomio de la derecha tendr´ıa dos ra´ıces distintas y no podr´ıa ser siempre positivo. Luego podemos afirmar que Rehz , si = 0 para todo s ∈ S. Con el curro de cambiar s por un eiθ s, llegamos a que z = x − PS x ∈ S ⊥ como se afirmaba. Cualquier subespacio cumple que S ∩S ⊥ = {0}, porque los de la intersecci´on son ortogonales a s´ı mismos. Pero ahora sabemos que todo x ∈ H cumple que x = PS x + (x − PS x) ∈ S + S ⊥ =⇒ S ⊕ S ⊥ = H .
(3.8)
La f´ormula de la izquieda de paso prueba que PS = PS/S ⊥ , el proyector asociado a la descomposici´on S ⊕S ⊥ = H, porque PS x es la coordenada S-´esima de cada x ∈ H. Sabiendo esto, la unicidad de la descomposici´on en coordenadas en S y S ⊥ hace que la funci´on PS sea lineal (recordar la Ec. (2.26) y la charla que la rodea). Esto prueba tambi´en el item 5. Por Pit´agoras vemos que kxk2 = kPS xk2 + kx − PS xk2 ≥ kPS xk2 para todo x ∈ H, por lo que PS ∈ L(H) con kPS k ≤ 1. Salvo en el caso in´ util de que S = {0}, vale que kPS k = 1, porque PS act´ ua como la identidad en la bola BS . 87
Corolario 3.2.6. Sea H un EH. Dados S v H y x ∈ H, tenemos el siguiente criterio para identificar a PS x : Fijado un y ∈ S, las suguientes condiciones son equivalentes: 1. Nuestro y = PS x , o sea que es el u ´nico en S tal que kx − yk = d (x , S). ´ cumple que x − y ∈ S ⊥ , adem´as de que y ∈ S. 2. El 3. Para todos los dem´as s ∈ S vale que hx , si = hy , si. Proof. Como hx , si − hy , si = hx − y , si, es claro que 2 ⇐⇒ 3. La equivalencia de 1 con ellos se deduce de la igualdad PS = PS/S ⊥ que mostramos en la Prop. 3.2.5. Corolario 3.2.7. Sea H un EH. Luego tomar “el doble ortogonal” hace esto: 1. Si A ⊆ H es cualquier cosa, entonces (A⊥ )⊥ = span {A}. 2. En particular, si S ⊆ H es un subespacio, entonces (S ⊥ )⊥ = S. 3. Es de remarcar que, si S v H, entonces S = (S ⊥ )⊥ . Demostraci´on. La Obs. 3.2.2 asegura que A⊥ = ( span {A} )⊥ , as´ı que alcanza probar la igualdad S = (S ⊥ )⊥ para los S v H. Es claro que S ⊆ (S ⊥ )⊥ . Pero si x ∈ (S ⊥ )⊥ y llamamos y = PS x ∈ S ⊆ (S ⊥ )⊥ , entonces el Cor. 3.2.6 dice que x − y ∈ S ⊥ ∩ (S ⊥ )⊥ = {0}. En resumen, x = y ∈ S, por lo que (S ⊥ )⊥ ⊆ S y vale la igualdad. Corolario 3.2.8. Sea H un EH. Dado un subespacio M ⊆ H se tiene que M
es denso en
H ⇐⇒ M⊥ = {0}
(3.9)
En particular, si S v H, entonces S ⊥ = {0} ⇐⇒ S = H. Demostraci´on. El Cor. 3.2.7 dice que M = (M⊥ )⊥ . De ah´ı sale de una la flecha ⇐= , porque 3.2.2 {0}⊥ = H. La otra sale porque M⊥ = M ⊥ mientras que H⊥ = {0}. Observaci´ on 3.2.9. Los proyectores de la Prop. 3.2.5 se llaman proyectores ortogonales. Hay uno para cada S v H. Son un caso particular de los proyectores PS/T ∈ P(H) estudiados en la Ec. (2.26) y la Prop. 2.7.2, el caso asociado a las descomposiciones de un Hilbert H en suma directa de subespacios cerrados ortogonales entre s´ı: PS = PS/S ⊥ . Recoremos aqu´ı algunas propiedades vistas en la Obs. 2.7.1: Todo P ∈ P(H) (idempotente o proyector oblicuo, y adem´as acotado) era uno de los PS/T de la Ec. (2.26), relativo a H = R(P ) ⊕ ker P . Es decir que que P = PR(P )/ ker P . Por otro lado, salvo el caso P = 0, todos los P ∈ P(H) cumplen que kP k ≥ 1, porque act´ uan como la identidad en su rango. Lo llamativo es que, si llamamos S = R(P ), se tiene que kP k = 1 ⇐⇒ ker P = S ⊥ ⇐⇒ P = PS .
(3.10)
En efecto, las implicaciones ⇐= ya las probamos en la Prop. 3.2.5. La otra sale as´ı: Llamemos Q = I − P , y M = R(Q) = ker P . Si kP k = 1, entonces para cada x ∈ H y cada y ∈ M, como sabemos que Q y = y, tenemos que kx − Q xk = kx − y + y − Q xk = k(x − y) − Q(x − y)k = kP (x − y)k ≤ kx − yk . 88
Esto dice que la distancia de cada x ∈ H al subespacio cerrado M se alcanza en su Q x. En resumen, podemos asegurar que este Q = PM , el de la Prop. 3.2.5. Luego S = ker Q = M⊥ . Por el Cor. 3.2.7 llegamos a que S ⊥ = (M⊥ )⊥ = M = ker P . Finalmente, en la misma Prop. 3.2.5 vimos que PS es el proyector asociado a la descomposici´on H = S ⊕ S ⊥ , al igual que P . Luego son el mismo proyector. De paso probamos esto: Para todo S v H vale que
3.3
P S ⊥ = I − PS .
4
Teorema de representaci´ on de Riesz.
Ahora viene el dual de un Hilbert. En todos los ejemplos que vimos (aquellos en que el p = 2 = q), sale que su dual es ´el mismo. Incluso la notaci´on h· , ·i es sugestiva, porque se usa tanto para dualidades entre Banach’s como para PI’es en Hilbert’s. Sin embargo hay un problemita, el PI es antilineal en la segunda coordenada, mientras que las bilineales son lineales en ambas. Por eso lo que obtendremos en una “anti-isometr´ıa” de H sobre H∗ . En la pr´actica esa incosistencia no es significativa, porque al dual de los Hilberts ni se lo usa. Se usan los mismos vectores de H (a la derecha del PI) y a otra cosa. Veamos: Sea H un EH. Dado un y ∈ H definamos ϕy ∈ H∗ por la f´ormula ϕy (x) = hx , yi ,
para cada
x∈H.
(3.11)
Observar que cada ϕy es lineal bien, porque los λ ∈ K salen indemnes si est´an a la izquierda. Adem´as Cauchy-Schwarz 3.5 asegura que |ϕy (x)| = | hx , yi | ≤ kyk kxk para todo x ∈ H, por lo que ϕy ∈ H∗ con kϕy k ≤ kyk. Sin embargo la flecha y 7→ ϕy es anti-lineal porque, si bien respeta sumas, cumple que ϕλ y = h · , λ yi = λ h · , yi = λ ϕy para los λ ∈ K. Teorema 3.3.1 (Riesz). Sea H un EH. La aplicaci´on H 3 y 7→ ϕy ∈ H∗ definida en (3.11) produce un anti-isomorfismo isom´etrico de H sobre H∗ . En otras palabras, para toda ϕ ∈ H∗ existe un u ´nico y ∈ H tal que ϕ = h · , yi, que adem´as cumple kϕk = kyk. Demostraci´on. Ya vimos que las ϕy ∈ H∗ con kϕy k ≤ kyk. Fijemos ahora un y ∈ H \ {0}. y ´ realiza la norma de ϕy : Consideremos el vector x = kyk ∈ BH . El kϕy k ≥ |ϕy (x)| = ϕy (x) =
hy , yi = kyk ≥ kϕy k =⇒ kϕy k = kyk . kyk
Con esto probamos que la representaci´on y 7→ ϕy es isom´etrica. Veamos ahora que es sobre: Sea ϕ ∈ H∗ \ {0}, y llamemos S = ker ϕ. Como S = 6 H, el Cor. 3.2.8 asegura que S ⊥ 6= {0}, ⊥ por lo que existe un z ∈ S con kzk = 1. Sea y = ϕ(z) z ∈ S ⊥ . Luego S ⊆ ker ϕy
mientras que
ϕy (z) = hz , ϕ(z) zi = ϕ(z) kzk2 = ϕ(z) .
Pero sabemos que S es un hiperplano, por lo que que H = S ⊕ K · z . Como ϕ y ϕy son ambas lineales y coinciden en los dos sumandos, queda que ϕ = ϕy . 89
Observaci´ on 3.3.2. Tampoco era antojadiza la notaci´on S ⊥ , que se usa tanto para anuladores en Banach’s como para ortogonales en Hilbert’s. El tema es que, v´ıa la identificaci´on de H∗ con H del Teo. 3.3.1, el anulador de un S v H es lo mismo que su ortogonal. 4 Corolario 3.3.3. Sea H un EH. Luego, para todo x ∈ H y todo T ∈ L(H) se tiene que kxk = sup |hx , yi|
y
kT k =
sup
|hT x , yi| .
(3.12)
x , y ∈BH
y∈BH
Demostraci´on. El Teor. de Riesz 3.3.1 nos asegura que la bola del dual BH∗ coincide con el conjunto {ϕy : y ∈ BH }, donde las ϕy son las de la Ec. (3.11). Luego basta que recordemos aquella f´ormula (2.7) que calculaba normas v´ıa el dual. La segunda f´ormula sale porque moviendo los y ∈ BH se van calculando las kT xk para los x ∈ BH .
3.4
P
i∈I
Sea H un EPH. Si tenemos un SON finito B = {x1 , x2 , . . . , xn } ⊆ H y consideramos el subespacio S = span {x1 , . . . , xn }, hay una f´ormula expl´ıcita para PS : X hx , xk i xk para todo x ∈ H . (3.13) PS x = k∈ In
Para verlo, llamemos y =
P
hx , xj i xj ∈ S . Usando que B es un SON sale directo que
j∈ In
hy , xk i =
D P
E
hx , xj i xj , xk =
j∈ In
P
hx , xj i hxj , xk i = hx , xk i para cada k ∈ In .
j∈ In
Por linealidad sale que hy , si = hx , si para todo s ∈ S. Recordando ahora el Cor. 3.2.6, esto determina que y = PS x y que (3.13) est´a probada. Por lo tanto, si X {x1 , . . . , xn } ⊆ H es un SON =⇒ | hx , xk i |2 ≤ kxk2 para todo x ∈ H . (3.14) k∈ In
Esto se deduce de aplicarle Pit´agoras al PS x que nos da (3.13), y de que kPS k ≤ 1. Las cuentas de arriba se generalizan f´acil a sistemas numerables usando la Ec. (3.14) que asegurar´ıa que si {xk : k ∈ N} es un SON adentro de un Hilbert H, entonces la sucesi´on hx , xk i k∈N ∈ `2 (N) para todo x ∈ H. Pero como nos interesan SON’s de cualquier cardinal, hay que desarrollar un poquito el concepto de series no numerables, y en particular estudiar el espacio `2 (I) para cualquier conjunto I. Empecemos. 3.4.1 (Series desordenadas). Sea I un conjunto y tomemos una familia a = (ai )i∈ I ∈ RI+ . Recordemos que PF (I) denota las partes finitas de I. Diremos que a es sumable si la serie X X def ai = ai < ∞ . sup i∈ I
F∈PF (I) i∈ F
90
En el caso en que I es numerable, esto es la definici´on usual de serie sumable (de t´erminos no negativos), a la que no le importa el orden en que se sumen las cosas. En el caso que I def no es numerable, se ve f´acil que el sop(a) = {i ∈ I : ai 6= 0} s´ı debe cumplir que es a lo sumo numerable (porque cada conjunto {i ∈ I : ai ≥ n1 } debe ser finito). Sumemos ahora en un normado E. Tomemos P una x = (xi )i∈ I ∈ E I y consideremos la red de sumas finitas (xF )F∈PF (I) , donde cada xF = xi ∈ E. Es una red porque el orden en los i∈ F
´ındices PF (I) dado por la inclusi´on es reductivo (ver A.6). Ahora decimos que X def la serie de x es convergente si existe xi = l´ım xF en E y con su norma . F∈PF (I)
i∈ I
Observar que esta definici´on es coherente con la de t´erminos positivos, porque P P P ai = sup ai = l´ım ai . a = (ai )i∈ I ∈ RI+ =⇒ F∈PF (I) i∈ F
i∈ I
F∈PF (I) i∈ F
Como pasaba con las series comunes, cuando E es un Banach vale que X X kxi k < ∞ =⇒ xi es convergente . si x = (xi )i∈ I ∈ E I y i∈ I
(3.15)
i∈ I
La prueba es similar a la de la Prop. 1.1.12: P Para cadaP i ∈ I, llamemos ai = kxi k. Dado un ε > 0, se encuentra un F0 ∈ PF (I) tal que i∈ I ai − i∈ F0 ai < ε. Luego se ve que para toda parte finita G ∈ PF (I) tal que G ∩ F0 = ∅ debe verificarse que
P
P P P kxG k = ± xi ≤ ai ≤ ai − ai < ε . (3.16) i∈ G
i∈ G
i∈ I
i∈ F0
Con esto sale bien f´acil que la red (xF )F∈PF (I) es de Cauchy en E, por lo que la serie de x debe ser convergente. En el caso numerable, no es lo mismo ser convergente en un orden prefijado para I (que transforma x en una sucesi´on) que serlo en el sentido de arriba, porque a la definici´on que dimos no le interesa ning´ un orden para I (ver el Ejer. 3 de abajo). Es un hecho conocido, aunque no lo probaremos, que la x es convergente ⇐⇒ la serie de sus normas es finita. La idea es pensar la medida de contar en la σ-´algebra P(I) del conjunto I. Luego las funciones x “sumables” son lo mismo que las “integrables”, y deben serlo en m´odulo. Finalizamos esta presentaci´on con una “serie” de ejercicos f´aciles pero necesarios: 4 Ejercicio 3.4.2. Sea E un EN y asumamos P que las series P de las familias x = (xi )i∈ I and y = (yi )i∈ I ∈ E I son ambas convergentes: xi = x and yi = y. Luego vale que i∈I
1. La serie
P
i∈I
xi + yi es convergente, con suma x + y.
i∈I
2. Para cualquier λ ∈ K, queda convergente la serie
P i∈I
91
λ · xi = λ · x.
3. Si σ : I → I es biyectiva, la serie
P
i∈I
xσ(i) tambi´en converge a x.
4. Si J ⊆ I y E era un Banach, entonces valen dos cosas: P (a) La subserie xi tambi´en converge. i∈J
(b) Lo mismo pasa con la otra mitad, y se tiene que x =
P
xi +
i∈J
P
xi .
i∈I\J
Se pide que E sea Banach porque lo u ´nico que se puede probar es que las redes involucradas son de Cauchy. Contraejemplificar si E no es EB (sale con sucesiones). P P 5. Si F es otro EN y T ∈ L(E, F ), entonces T xi = T xi . i∈I
i∈I
P 6. Si E era un EH y z ∈ H, entonces la serie hxi , zi converge hacia hx , zi. i∈I
7. Si pasara que E = C, tambi´en convergen los conjugados:
P
4
xi = x.
i∈I
Ejemplo 3.4.3. Sea I un conjunto. Entonces el K-EV n o X `2 (I) = x = (xi )i∈ I ∈ KI : |xi |2 < ∞ , i∈ I
dotado del PI dado por una serie que ahora veremos que converge:
X x, y = xi yi , para x = (xi )i∈ I , y = (yi )i∈ I ∈ `2 (I) , i∈I
resulta ser un espacio de Hilbert, al que le queda la norma kxk2 =
P
|xi |2
1/2
.
i∈I
Verifiquemos todo lo que hemos dicho: Si x ∈ `2 (I), es claro que lo que definimos como su norma kxk2 < ∞. Notemos por xF a la truncaci´on xF = (xi )i∈ F ∈ K|F| , y lo mismo para y, para cada F ∈ PF (I). Por Cauchy-Schwarz en los Kn vale que X |xi | |yi | ≤ kxF k2 kyF k2 ≤ kxk2 kyk2 . i∈ F
Esto prueba que la serie que define al hx , yi es absolutamente convergente y por ello converge a un n´ umero de K, para todo par x , y ∈ `2 (I). De paso, esto sirve para probar que `2 (I) es un K-EV (cada |xi + yi |2 ≤ |xi |2 + |yi |2 + 2|xi | |yi | ). Por el Ejer. 3.4.2, sabiendo que las series que definen al candidato a PI siempre convergen, sale que es lo que tiene que ser: sesquilineal, sim´etrico y positivo. Con esto ya sabemos que `2 (I) es un EPH, con el PI y la norma definidos arriba. La completitud sale as´ı: Dada una {x(n) }n∈N de Cauchy en `2 (I), es f´acil ver que podemos definir un candidato x = (xi )i∈ I
dado por
(n)
xi = l´ım xi n→∞
92
∈K,
para cada
i∈I.
(n)
Por si no qued´o claro, cada t´ermino de la sucesi´on de Cauchy es un x(n) = (xi )i∈I ∈ `2 (I) . Observar que, como la norma 2 acota el tama˜ no de las entradas, podemos usar que al fijar (n) cada i ∈ I, la sucesi´on num´erica {xi }n∈N es de Cauchy en K y tomar su l´ımite. Dado ε > 0, sea n0 ∈ N tal que kx(n) − x(m) k2 < ε si n, m ≥ n0 . Luego, para cada cacho finito F ∈ PF (I) y cada n ≥ n0 fijos, podemos ver que P
(n)
|xi − xi |2 = l´ım
P
m→∞ i∈ F
i∈ F
(m)
|xi
(n)
− xi |2 ≤ sup kx(n) − x(m) k22 ≤ ε2 . m≥n0
Tomando supremo en PF (I) queda que kx−x(n) k2 ≤ ε, por lo que x ∈ `2 (I) y la convergencia es en esa norma. Hemos llegado a que `2 (I) es un Hilbert de ley. 4 Ejercicio 3.4.4. Q Si en el ejemplo anterior las familias x = (xi )i∈ I viven en el producto cartesiano P = Hi de sendos Hilbert’s (Hi , h· , ·ii ), podemos definir una especie de `2 : i∈I
M
Hi =
x∈P:
X
i∈I
kxi k2i < ∞
,
i∈I
con el PI y la norma definidos por: Dados x = (xi )i∈ I , y = (yi )i∈ I ∈
L
Hi , se hace
i∈I
X hxi , yi ii hx , y =
y
i∈I
Con ´estos atributos
L
kxk =
X
kxi k2i
1/2
.
i∈I
Hi es un EH. Una forma de probarlo es definir ese PI en
i∈I
P
Hi (las
i∈I
familias con solporte finito), y luego completar. La otra es hacer la misma cuenta de arriba, pero adaptada a los objetos L de este caso. El ejercicio es hacer ambas cosas. La idea es que el viejo espacio `2 (I) = K es un caso particular. i∈I
Los nombres son:
L
Hi es el producto Hilbertiano de los Hi , y si uno repite los espacios
i∈I
se obtienen tres notaciones usuales M L H = H I = `2 (I) ⊗ H = `2 (I , H) , i∈I
que se llama potencia Hilbertiana de H. Observar que cada uno de los Hj se puede incrustrar L Hi poniendo ceros en las otras entradas. Eso queda isom´etrico y adentro del porducto i∈I L L L Hi siempre se hace la identificaci´on usual Hj v Hi . Tambi´en pensamos que Hi v i∈I
i∈J
i∈I
que J ⊆ I. Observar que esta identificaci´on no se pod´ıa hacer en productos de espacios no vectoriales porque no hay “ceros” para elegir en las coordenadas que faltan. 4
93
3.5
Bases ortonormales.
Antes de usar todo el armamento de la secci´on anterior para ver qu´e lo que hacen las BON’s de un Hilbert, veamos que siempre hay muchas de ellas. Proposici´ on 3.5.1. Sea H un EH. Si B1 = {vi : i ∈ J} ⊆ H es un SON, siempre existe otro B2 = {vj : j ∈ L} ⊆ H que lo completa a una BON de H. Es decir que B2
es un SON , y
B = B1 ∪ B2 = {vi : i ∈ J ∪ L}
es una BON de H .
Demostraci´on. Esto sale Zorneando. Es bien f´acil ver que el conjunto de extensiones Z = C ⊆ H : C es un SON y B1 ⊆ C , ordenado por inclusi´on, cumple lo de las cadenas con supremos (la uni´on). Pero si B es un maximal de Z tiene que ser una BON de H. En efecto, si no lo fuera, uno podr´ıa tomar el subespacio S = span {B} 6= H y sabr´ıa, por la Prop. 3.2.5, que S ⊥ 6= {0}. Luego le podr´ıa agregar a B un vector unitario de S ⊥ y quedar´ıa un SON m´as grande. As´ı que B ser´ıa minga maximal. Teniendo ahora la BON B tal que B1 ⊆ B, basta tomar B2 = B \ B1 . Veamos ahora c´omo se generalizan las Ec’s. (3.13) y (3.14): Dado un S v H caracterizaremos completamente al proyector PS , siempre y cuando tengamos una BON para S: Antes hagamos un lema donde se testea que todas las series que se necesiten van a converger bien: Lema 3.5.2. Sea H un EH y sea B = {vi : i ∈ I} ⊆ H un SON. Denotemos como S = span {B} v H. Enotnces se tienen las siguientes propiedades: 1. P Para toda familia de coeficientes a = (ai )i∈ I ∈ `2 (I), podemos asegurar que la serie as cumple i∈I ai vi converge (con la norma de H) a un za ∈ S que adem´ kza k = kak`2 (I)
y
hza , vj i = aj
2. Para cada x ∈ H, la familia de coeficientes hx , vi i
j∈I.
para todo i∈I
(3.17)
∈ `2 (I).
2 Proof. Dado 2 el a2 = (ai )i∈ I ∈ ` (I) y un ε > 0, podemos fijar un F ∈ PF (I) tal que P ai < ε . Si me dan ahora G, H ∈ PF (I) tales que F ⊆ G ∩ H, entonces usando i∈I\F Pit´agoras y razonando como en la Ec. (3.16) se tiene que 2 2 P P P P P 2 ai + ai ≤ ai < ε2 . k ai vi − ai vi k2 = i∈G
i∈H
i∈G\(H∩G)
i∈H\(H∩G)
i∈I\F
Por lo tanto sabemos que las sumas finitas (que viven en S) son de Cauchy y podemos tomar P su l´ımite za = i∈I ai vi ∈ S. Para ver la igualdad de las las normas, basta hacer
P
2
P
2
kza k = ai vi = l´ım ai vi = l´ım 2
i∈I
F∈PF (I)
P 2 P 2 ai = ai = kak22 .
F∈PF (I) i∈F
i∈F
94
i∈I
Si fijamos un j ∈ I y llamamos Bj = {vi : i 6= j}, el hecho de que B sea SON asegura que
P vj ∈ Bj⊥ = span {Bj }⊥ =⇒ za , vj = aj vj , vj + ai vi , vj = aj , i6=j
porque
P
i6=j
ai vi ∈ span {Bj } al ser el l´ımite de las sumas finitas. Listo el item 1.
Por otro lado, P dado un F ∈ PF (I) llamemos SF = span {vi : i ∈ F}. En la Ec. (3.13) vimos que PSF = h · , vi i vi , de donde deduc´ıamos (por Pit´agoras y la Prop. 3.2.5) que i∈ F
X
| hx , vi i | 2 = kPSF xk2 ≤ kxk2
para todo
x∈H
y todo
F ∈ PF (I) .
i∈ F
Tomando supremo sobre los F ∈ PF (I) sale que hx , vi i
i∈I
∈ `2 (I) para todo x ∈ H.
Proposici´ on 3.5.3. Sea H un EH y sea B = {vi : i ∈ I} ⊆ H un SON. Denotemos como S = span {vi : i ∈ I}. Enotnces se tienen las siguientes propiedades: 1. E el proyectado PS x es una serie con esos coeficientes: X PS x = hx , vi i vi , para todo
x∈H,
(3.18)
i∈I
donde la convergencia de la serie es con la norma de H. 2. Esos mismos coeficientes producen la “norma 2” de PS x, es decir que: X hx , vi i 2 ≤ kxk2 , para todo x ∈ H . kPS xk2 =
(3.19)
i∈I
Demostraci´on. Para ver la igualdad (3.18), fijemos x ∈ H. Combinando los items 1 y 2 del Lema 3.5.2 podemos deducir que la serie X (3.17) def hx , vi i vi ∈ S y que hz , vi i = hx , vi i para todo i ∈ I . z = i∈I
En otras palabras, tenemos que z ∈ S y que P x − z ∈ B ⊥ = span {B}⊥ = S ⊥ . Luego el Cor. 3.2.6 nos permite asegurar que PS x = z = i∈I hx , vi i vi . La f´ormula (3.19) se deduce de la Ec. (3.18) y de la igualdad de las normas en la Ec. (3.17). Observaci´ on 3.5.4. Sean H y K dos EH’s y Φ ∈ L(H , K) un isomorfismo isom´ etrico sobre. Entonces φ tambi´en preserva el producto interno, o sea que hΦ x , Φ yi = hx , yi ,
para todo par
x, y ∈ H .
(3.20)
Esto sale usando que Φ preserva normas, o sea que hΦ x , Φ xiK = hx , xiH para todo x ∈ H. Para generalizarlo a (3.20) basta usar polarizaci´on (3.2). El hecho de que Φ preserve el PI tiene numerosas consecuencias, como por ejemplo que Φ(S ⊥ ) = Φ(S)⊥ para todo S v H. Pero la mejor es que Φ manda SON’s de H en SON’s de K. Mejor a´ un: 95
si B es una BON de H , entonces Φ(B) es otra BON de K . En efecto, que B sea SON significa que hx, yi = δxy para todo par x, y ∈ B. Y por la iyectividad de Φ + la Ec. (3.20), eso lo siguen cumpliendo los elementos de Φ(B). Pero siendo SON, el hecho de que B sea BON equivale a que span {B}sea denso. Y al ser Φ un h´omeo lineal, nos queda que tambi´en span {Φ(B) } = Φ span {B} es denso, ahora en K. 4 Ahora s´ı un re-teorema donde decimos todo lo que pasa con una BON: Teorema 3.5.5. Sea H un EH y sea B = {vi : i ∈ I} ⊆ H una BON de H. Luego: 1. Cada x ∈ H se representa un´ıvocamente como una serie con esos coeficientes: X x = hx , vi i vi , para todo x ∈ H ,
(3.21)
i∈I
donde la convergencia de la serie es con la norma de H. 2. Esos mismos coeficientes producen la “norma 2” del los vectores: X hx , vi i 2 , para todo x ∈ H . kxk2 =
(3.22)
i∈I
3. Tambi´en el producto interno de H se representa como X hx , vi i hy , vi i , para todo par hx , yi =
x, y ∈ H .
(3.23)
i∈I
4. En resumidas cuentas, la flecha Φ : H → `2 (I) dada por Φ x = hx , vi i i∈I para cada x ∈ H es un iso isom´etrico sobre, que adem´as respeta los productos internos, o sea que hΦ x , Φ yi`2 (I) = hx , yiH ,
para todo par
x, y ∈ H .
(3.24)
El operador Φ−1 ∈ L(`2 (I) , H) est´a dado por la f´ormula P Φ−1 a = ai vi ∈ H , para cada a = (ai )i∈ I ∈ `2 (I) . i∈I
Demostraci´on. Los primeros tres items son una versi´on en detalle del item 4. Empecemos por ´el: Como B es una BON, es en particular un SON y podemos aplicar la Prop. 3.5.3, pero asumiendo que S = span {B} es ahora todo H. El operador Φ est´a bien definido por el Lema 3.5.2 y es acotado por la Ec. (3.19). Adem´as, aplicando la Ec. (3.17), podemos definir X Ψ ∈ L(`2 (I), H) por Ψ(a) = za = ai vi ∈ H para a = (ai )i∈ I ∈ `2 (I) , i∈I
96
que queda isom´etrica. M´as a´ un, la Ec. (3.18) dice que Ψ ◦ Φ = PH = IH , mientras que los PI’es de la Ec. (3.17) muestran que Φ ◦ Ψ = I`2 (I) . Esto prueba que Φ es un isomorfismo isom´etrico con la inversa anunciada. Por lo tanto la igualdad (3.24) sale por la Ec. (3.20). Ahora podemos traducir: La Ec. (3.21) significa que Ψ ◦ Φ = IH , la Ec. (3.22) que Φ es isom´etrica y (3.23) es lo mismo que (3.24). Corolario 3.5.6. Sean H y K dos Hilbert’s. 1. Dos BON’s del mismo H tienen que tener el mismo cardinal. 2. Dadas BH una BON de H y BK una BON de K, vale que H∼ = K (isom´etricamente isomorfos) ⇐⇒ |BH | = |BK | .
(3.25)
En resumen estamos afirmando que, m´odulo isomorfismos isom´etricos, el cardinal de una BON es un invariante completo para los EH’s . Demostraci´on. Sean B1 = {vi : i ∈ I} y B2 = {wj : j ∈ J} dos BON’s para H. Veamos que |J| = |I|. Si alguna de las dos es finita, la cosa es solo ´algebra lineal, porque en tal caso ambas son bases en el sentido algebr´aico. Si son infinitos, consideremos los conjuntos Si = {j ∈ J : hvi , wj i = 6 0} para cada i ∈ I . P Como cada kvi k2 = j∈Si | hvi , wj i|2 < ∞ , podemos deducir que todos los Si son numerables. Pero como ning´ un wj puede ser ortogonal a todos los vi , llegamos a que [ J= Si =⇒ |J| ≤ ℵ0 · |I| = |I| . i∈I
La simetr´ıa es evidente, por lo que de ah´ı sale que |J| = |I| como afirm´abamos. El ⇐= de (3.25) es consecuencia del Teo. 3.5.5 pasando por un `2 (I), donde I es un conjunto Φ del cardinal de las dos bases. Si H ∼ ´ltima igualdad = K, entonces |BH | = |Φ(BH )| = |BK |. La u se debe a que Φ(BH ) es otra BON de K por la Obs. 3.5.4. Definici´ on 3.5.7. Sea H un EH. Diremos que la dimensi´on Hilbertiana de H es el n´ umero cardinal dim H = |B|, donde B es cualquier BON de H. 4 Observaci´ on 3.5.8. El corolario anterior ahora se lee as´ı: H ∼ = K ⇐⇒ dim H = dim K. Por otra parte tenemos modelos standard para todos los Hilberts: Si H es un EH e I es un conjunto tal que |I| = dim H, entonces H ∼ = `2 (I) v´ıa tomas coordenadas (o coeficientes) en una BON fija de H. Eso es lo que dice el Teo. 3.5.5. 4 Corolario 3.5.9. Si tenemos dos espacios de Hilbert H y K que son infinitodimensionales pero separables, entonces ellos son isom´etricamente isomorfos: H ∼ =K∼ = `2 (N). Demostraci´on. Basta ver que si H es separable entonces dim H ≤ ℵ0 . La prueba sale usando la misma BON que se usa para calcular la dim H. En efecto, dados u, v ∈ B, entonces podemos calcular que ku − vk2 = 2(1 − δuv ) . As´ı que no valen BON’s no numerables si uno asume separabilidad. 97
3.6
Stone-Weierstrass
Sea (X, τ ) un ET compacto Hausdorff. Estudiaremos el a´lgebra C(X) con su k · k∞ . M´as precisamente, buscamos condiciones sobre una sub´algebra A ⊆ C(X) para que sea uniformemente densa en C(X). Todo empez´o con el Teor. de Weierstrass de 1895 que mostraba que los polinomios lo son en CR [a, b]. Con las d´ecadas aparecieron numerosos resultados semejantes, hasta que Stone prob´o en 1948 la versi´on m´as conspicua, que incluye a las que hab´ıa hasta entonces, y qued´o ah´ı. Eso daremos ahora. Las cuentas se har´an en CR (X), y al final veremos qu´e hace falta para que caminen tambi´en en el caso complejo. Sirve el caso real, porque se usan los siguientes conceptos: Dadas f, g ∈ CR (X), definimos f ∨ g(x) = m´ax{f (x) , g(x)}
y
f ∧ g(x) = m´ın{f (x) , g(x)} ,
para cada
x∈X .
Es claro que tanto el m´aximo f ∨ g como el m´ınimo f ∧ g siguen en CR (X) (sale f´acil con redes). Diremos que un A ⊆ CR (X) es cerrado por minimax si cumple que f ∨g y f ∧g ∈A
siempre que
f y g ∈A.
Lema 3.6.1. Sea (X, τ ) un ET compacto Hausdorff. Sea A ⊆ CR (X) un subespacio cerrado por minimax. Si f ∈ CR (X) cumple que para todo par x, y ∈ X existe una (fn )n∈ N en A tal que fn (x) −−−→ f (x) y fn (y) −−−→ f (y) , n→∞
entonces se tiene que f ∈ A
k·k∞
n→∞
, o sea kf − gn k∞ −−−→ 0 para alguna (gn )n∈ N de A. n→∞
Demostraci´on. Fijemos un ε > 0. Para cada par x, y ∈ X existe una fxy ∈ A tal que el n´ umero m´ax{|f (x) − fxy (x)| , |f (y) − fxy (y)|} < ε. Sean Uxy = {z ∈ X : f (z) − fxy (z) < ε}
y
Vxy = {z ∈ X : fxy (z) − f (z) < ε} .
Observar que ambos son abiertos, y que x, y ∈ Uxy ∩ Vxy . Fijando S x y moviendo y, los Uxy cubren a X. Por la compacidad, existen y1 , . . . , yn W tales que X = k∈In Uxyk . Como A era cerrada por minimax, tenemos que el m´aximo fx = k∈In fxyk ∈ A. Esta fx cumple que f (z) − fx (z) < ε =⇒ f (z) < fx (z) + ε
z∈X . T Pero tambi´en vale que fx (z) < f (z) + ε, al menos para los z ∈ Wx = k∈In VxykS. Ahora se cubre a X con estos abiertos W Vx , y se encuentran x1 , . . . , xm tales que X = k∈Im Wxk . Podemos armar ahora la fε = k∈Im fxk ∈ A y comprobar que fε (z) − ε < f (z) < fε (z) + ε
para todo
para todo
z∈X .
Lema 3.6.2. Sea (X, τ ) un ET compacto Hausdorff. Si A v CR (X) es una sub´ algebra cerrada (con la k · k∞ ), entonces A es cerrada por minimax.
98
Demostraci´on. Observar que se pueden obtener los m´aximos y m´ınimos con este curro: f ∨g =
f + g + |f − g| 2
y
f ∧g =
f + g − |f − g| . 2
Luego, para ver que A es cerrada por minimax, alcanzar´ıa mostrar que es cerrada por “tomar m´odulos”. Pero si f ∈ A, tenemos que |f | = (f 2 )1/2 . Como A era sub´algebra, f 2 ∈ A. As´ı que lo que hay que probar es que si 0 ≤ g ∈ A, entonces g 1/2 ∈ A. Esto se hace extrapolando un curro de An´alisis I. Veamos. Dado un ε > 0, tomemos la funci´on h : [0, 1] → R dada por h(t) = (t + ε2 )1/2 , t ∈ [0, 1]. Esta h tiene un desarrollo en serie de potencias que le converge uniformemente en el intervalo [0, 1]. Para ello basta desarrollar en el punto medio t = 1/2. Esto da un caso particular de Weierstrass, o sea que existe un polinomio P ∈ R[x] tal que kh − P k∞ < ε (en el [0, 1]). En particular vale que |P (0)| < 2 ε. Luego Q = P − P (0) ∈ R[x] tambi´en aproxima. Pero tiene la ventaja de que, al no tener t´ermino constante, cumple que Q(g) ∈ A para toda g ∈ A. Fijemos ahora una 0 ≤ g ∈ A con kgk∞ ≤ 1, por lo que g(X) ⊆ [0, 1]. Entonces, kQ(g) − g 1/2 k∞ = sup P (g(x) ) − P (0) − g(x)1/2 ≤ sup P (t) − P (0) − t1/2 x∈X
x∈[0,1]
≤ 2ε + sup [P (t) − h(t)] − [h(t) − t1/2 ] x∈[0,1]
≤ 3ε + sup (t + ε2 )1/2 − t1/2 ≤ 4ε . x∈[0,1]
Achicando con constantes y usando que A es k · k∞ -cerrada, sale que A es cerrada por tomar ra´ıces cuadaras. Por todo lo anterior, tambi´en para minimax. Teorema 3.6.3 (Stone-Weierstrass). Sea (X, τ ) un ET compacto Hausdorff. Si tenemos una sub´algebra A ⊆ C(X) que cumple las siguientes condiciones: 1. Es cerrada por tomar conjugaci´on (f ∈ A =⇒ f ∈ A). 2. Las funciones constantes viven en A. 3. Separa puntos de X (si x 6= y ambos en X, existe f ∈ A tal que f (x) 6= f (y) ). Entonces A es k · k∞ -densa en C(X). Demostraci´on. Llamemos AR = A ∩ CR (X). Antes que nada, si f ∈ A, tanto su parte real como su parte imaginaria se quedan en AR , por la condici´on 1. Su clausura B = AR k·k∞ es ahora una sub´algebra cerrada de CR (X), por lo que se aplica el Lema 3.6.2 y B es cerrada por minimax. Pero B tambi´en separa puntos de X (las partes reales o imaginarias de las de A ya lo hacen). Para ver que A es densa nos alcanza mostrar que B = CR (X). Y para mostrar esto, basta ver que toda f ∈ CR (X) cumple (respecto de B) las hip´otesis del Lema 3.6.1, porque B ya 99
es cerrada y tomar l´ımites no le agrega nada. Fijemos entonces una f ∈ CR (X) y tomemos x, y en X tales que f (x) 6= f (y) (sin´o “toco” a f en x e y con la funci´on f (x) 1 ∈ B). Como B separa puntos, existe una g ∈ B tal que g(x) 6= g(y). Cambiando g por λ g ∈ B (λ ∈ R), podemos asumir que g(x) − g(y) = f (x) − f (y). Luego h = g + f (x) − g(x) 1 ∈ B cumple que h(x) = f (x) y h(y) = f (y) . En resumen, hay funciones de B que tocan (m´as que aproximan) a f en cualquier par de puntos. Por el Lema 3.6.1 llegamos a que CR (X) = B por lo que A es densa en C(X). Corolario 3.6.4. Sea (X, τ ) un ET que es LKH. Sea A ⊆ C0 (X) una sub´algebra que cumple las siguientes condiciones: 1. Es cerrada por tomar conjugaci´on (f ∈ A =⇒ f ∈ A). 2. Separa puntos de X (si x 6= y ambos en X, existe f ∈ A tal que f (x) 6= f (y) ). 3. Para todo x ∈ X existe f ∈ A tal que f (x) 6= 0. Entonces A es k · k∞ -densa en C0 (X). ˜ = X ∪ {∞}. Metamos tambi´en el par Demostraci´on. Metamos a X en su compactado X ˜ A ⊆ C0 (X) ,→ C(X), haciendo f (∞) = 0. Ahora consideremos el a´lgebra A1 = A ⊕ C1 ˜ Para ver que A1 cumple las tres condiciones del Teo. 3.6.3, s´olo pensada dentro de C(X). falta que separe al ∞ de los puntos de X. Eso se consigue con alguna f ∈ A porque todas ellas cumplen que f (∞) = 0, pero tenemos la condici´on 3. ˜ Ahora, si fijamos una Por el Teor. de S-W 3.6.3, ya sabemos que A1 es densa en C(X). ˜ y un ε > 0, existe una h = g + λ 1 ∈ A1 tal que kf − hk∞ < ε. Pero f ∈ C0 (X) ⊆ C(X) |λ| = |h(∞)| = |f (∞) − h(∞)| < ε. Por lo tanto kf − gk∞ < 2 ε, con g ∈ A. Ejemplos 3.6.5. Si en el Teor. de SW 3.6.3 trabajamos con una A ⊆ CR (X), para que sea densa en CR (X) alcanza que A cumpla las condiciones 2 y 3 (separa puntos y tiene constantes). Esto sale haciendo de nuevo la cuenta, o fij´andose que eso era lo que cumpl´ıa la AR de all´ı. Lo mismo vale para el Teo. 3.6.4 si A ⊆ C0 (X, R) para un X que es LKH. Ya contamos que el teorema de Weierstrass dec´ıa que los polinomios de R[x] son uniformemente densos en CR ([a, b]) para cualquier intervalo cerrado (idem con C[x] en C[a, b]) ). Esto es porque 1 ∈ R[x] y x ∈ R[x], y con ellos alcanza. Otro caso es el de las f ∈ C(R) que son 2π peri´odicas. Ellas se pueden identificar con C(S 1 ) (enrroll´andolas). All´ı el denso posta son los polinomios en z y z (z ∈ C). Observar que no hay productos mezclados porque z z ≡ 1 en S 1 . Es f´acil ver que, volviendo a R, quedan los llamados polinomios tigonom´etricos (en sen nx y cos nx). Es interesante observar que, si bien la serie de Fourier de una f peri´odica continua no siempre aproxima bien a f (uniformemente), s´ı hay siempre alguna sucesi´on de polis trigos que lo hace. Veamos un ejemplo famoso en que no hay densidad porque falla la condici´on “cerrada por conjugaci´on”. Sea B = D = {z ∈ C : |z| ≤ 1}, el disco cerrado en C. Consideremos 100
A(D) ⊆ C(B) el a´lgebra de las f ∈ C(B) que son holomorfas en D. Es sabido (y f´acil de probar) que A(D) es cerrada para la k·k∞ , aunque separa puntos y tiene a las constantes. De hecho, A(D) es la clausura del a´lgebra de polinomios C[z] que tambi´en cumple aquello, pero no llega a ser densa en todo C(B). Lo que les falta es z. Por ello, como antes la sub´algebra 4 que sirve para C(B) es C[z, z].
3.7
Series de Fourier.
Sea B = {vi : i ∈ I} una BON de un Hilbert H y tomemos un elemento x ∈ H. Los coeficientes hx , vi i que, seg´ un el Teo. 3.5.5, resultan ser las coordenadas de x en B en la serie de (3.21), se suelen llamar coeficientes de Fourier de x relativos a B. Eso se debe a un ejemplo seminal debido al tal Fourier que veremos en seguida. El ejemplo m´as Hilbertiano de BON de un Hilbert es la base can´onica EI = {ei : i ∈ I} del espacio `2 (I), donde cada ei es la funci´on caracter´ıstica del conjunto unipersonal {i} ⊆ I. Lo bueno de esa base, y por eso el mote de “can´onica”, es que para cada x = (xi )i∈ I ∈ `2 (I), sus coeficientes coinciden con sus coordenadas: hx , ei i = xi para cada i ∈ I. Pero el ejemplo m´as famoso, que con mucho es anterior al invento de Hilbert de los espacios que estamos mostrando, es la BON de Fourier de las funciones 2π-peri´odicas de R en R, que podemos pensar como L2 ([0 , 2π]). Mejor a´ un, si llamamos T = S 1 = {z ∈ C : |z| = 1}, las pensaremos como L2 (T), ya enrolladas. La medida que usaremos en T ser´a la de Lebesgue normalizada para que m(T) = 1 (o sea la medida de longitud usual, dividida por 2π). La verdadera BON de Fourier en el c´ırculo son las funciones en ∈ L2 (T)
dadas por
en (z) = z n
para
n∈Z
y
z∈T.
Si pensamos a la variable t ∈ [0 , 2π], de tal modo que z = eit , entnces en (t) = eint = cos nt + i sen nt
para
n∈Z
y
t ∈ [0 , 2π] .
Por ello, la serie tradicional de Fourier se expresa en t´erminos de las funciones arm´onicas sen nt y cos nt. Para cada f ∈ L2 (T), sus coeficientes de Fourier est´an dados por Z 2π 1 b f (eit ) e−int dt para cada n ∈ Z . (3.26) f (n) = hf , en i = 2π 0 Reemplazando f por em , para otro m ∈ Z, y usando que las primitivas de ei(m−n)t valen lo mismo en 0 que en 2π siempre que m 6= n, llegamos f´acilmente a que F = {en : n ∈ Z} es un SON dentro de L2 (T). Cuando veamos que F es una BON de de L2 (T), sabremos que X X f= fb (n) en y kf k2 = |fb (n)|2 para toda f ∈ L2 (T) . (3.27) n∈Z
n∈Z
Esto ser´ıa la Ec. (3.21) y la Ec. (3.22) en este caso, y se llaman igualdades de Bessel y de Parseval. Si tomamos el subespacio P = span {F}, como z −1 = z para todo z ∈ T, 101
podemos notar de inmediato que resulta ser ni m´as ni menos que el conjunto de polinomios P = {P (z , z) : P ∈ C[x, y]}. M´as a´ un, por como z z ≡ 1 en T nos queda que n P k P = f (z) = αk z : n ∈ N y αk ∈ C , −n ≤ k ≤ n . k=−n
Esta es la famosa ´algebra de polinomios trigonom´etricos. La prueba de su densidad en L2 (T) pasa por usar Stone Weirstrass 3.6.3 en el ambiente intermedio C(T): Proposici´ on 3.7.1. La familia F = {en : n ∈ Z} definida arriba es una BON de L2 (T). Demostraci´on. Ya vimos que es un SON. Por ello solo necesitamos ver que span {F} = P es denso en L2 (T). Tambi´en vimos que P = {P (z , z) : P ∈ C[x, y]}. Observar que esta P es una sub´algebra de las continuas C(T). Adem´as P contiene a las constantes, es cerrada por conjugaci´on, y separa puntos de T (para ello alcanza el elemento e1 (z) = z de F ⊆ P). Como T es un compacto Hausdorff, estamos en las hip´otesis del Teor. de Stone-Weierstrass 3.6.3. Luego P es densa en C(T) con la k · k∞ y por ello tambi´en con la k · k2 . Queda como ejercicio para el lector integrador culminar el asunto verificando que las continuas de C(T) son k · k2 -densas en el espacio L2 (T). Recordar el Ejer. 1.9.34. Corolario 3.7.2 (Riemman-Lebesgue). Para cualquier f ∈ L2 (T), se cumple que sus coeficientes de Fourier convergen a cero. En f´ormulas esto se escribe: Z 2π 1 f (eit ) e−int dt −−−−→ 0 . fb (n) = n→±∞ 2π 0 Demostraci´on. Basta mirar la iguadad de Parseval que est´a en la Ec. (3.27).
Observaci´ on 3.7.3. Hemos visto el Ejemplo 1.8.1 del shift y su adjunto en los espacios p ` (N). Ese shift se llama el unilateral. Si bajamos a p = 2, pero subimos a `2 (Z), tenemos tambi´en dos shifts bilaterales (correr a la derecha o a la izquierda) que ahora son isomorfismos isom´etricos, porque como las entradas no se terminan, uno las corre pero ni tacha nada ni le quedan ceros sueltos. Pong´amosle nombres U , V ∈ L(`2 (Z) ), dados por U x = (xn−1 )n∈Z
y
V x = (xn+1 )n∈Z ,
para cada
x = (xn )n∈Z ∈ `2 (Z) .
Si ahora pensamos en el iso-iso entre L2 (T) y `2 (Z) que nos brinda el Teo. 3.5.5 v´ıa la base F de Fourier, nos aparece que los shifts de arriba se transforman en hermosos operadores de multiplicaci´on, como los de 1.8.2. De hecho queda que U ∼ = Mz y V ∼ = Mz . En efecto, Z 2π Z 2π 1 1 [ eit f (eit ) e−int dt = f (eit ) e−i(n−1)t dt = fb (n − 1) , M z f (n) = 2π 0 2π 0 porque el Mz actuaba haciendo (Mz f ) w = wf (w) para f ∈ L2 (T) y w ∈ T. Por lo tanto vemos que Mz corre los coeficientes de Fourier de las f de la misma manera que U lo hace con las coordenadas de los x (que son sus coeficientes en la can´onica). Al tomar el isomorfismo Φ : L2 (T) → `2 (Z) de tomar coeficientes, queda que U ◦Φ = Φ◦Mz . Es decir que U = Φ ◦ Mz ◦ Φ−1 . Por una cuenta similar (o porque son los inversos de los anteriores), vemos que V = Φ ◦ Mz ◦ Φ−1 . 4 102
3.7.4. La transformaci´on L2 (T) 3 f 7−→ fb ∈ `2 (Z) se llama la transformada de Fourier (discreta). Es un hecho general que esta transformada es un isomorfismo isometrico. En nuestro caso eso sale directamente por el Teo. 3.5.5. Se la puede definir tambi´en, siguiendo la f´ormula (3.26), para funciones de Lp (T), porque las en est´an en todos los Lq (T). Uno de los problemas inici´aticos de lo que hoy se llama an´alisis arm´onico fue el estudio de n P fb (k) ek a la f original, de acuerdo al Lp (T) en el que c´omo converge la serie de Fourier k=−n
est´e la f . En los a˜ nos 60 se pudo probar que cuando p > 1 hay convergencia en c.t.p. (eso no lo probamos nosotros ni para p = 2, a´ un ah´ı es un teoremazo del 67 de Carlesson). Mucho antes Kolmogorov hab´ıa mostrado que no hay tal convergencia para todas las f ∈ L1 (T). 4
103
3.8
Ejercicios del Cap. 3 - Espacio de Hibert
Ejercicios aparecidos en el texto 3.8.1 (F´ ormulas con un PI). Sea H , h· , ·i un K-EV con un semi PI asociado. 1. Para todo par x, y ∈ H y todo λ ∈ K se tiene que 0 ≤ kλ x + yk2 = hλ x + y , λ x + yi = |λ|2 kxk2 + 2 Re λ hx , yi + kyk2 . Deducir que kλxk = |λ| kxk
(3.28)
x∈H.
para todo
2. Mostrar que la forma sesquilineal se puede recuperar de la cuadr´atica con la so called “identidad de polarizaci´ on”. Tiene dos versiones: Dados x, y ∈ H, si estamos con K = C, 4 hx , yi =
3 X
ik kx + ik yk2 = kx + yk2 − kx − yk2 + i kx + iyk2 − kx − iyk2 ,
(3.29)
k=0
mientras que cuando K = R se tiene una versi´on m´as agradable: 4 hx , yi = kx + yk2 − kx − yk2 .
(3.30)
3. Probar la famos´ısima igualdad del paralelogramo: kx + yk2 + kx − yk2 = 2kxk2 + 2kyk2
para todo par
x, y ∈ H .
(3.31)
4. Sea n ∈ N y An = {−1 , 1}n , cuyos elementos llamaremos ε = (ε1 , . . . , εn ) ∈ An . Probar que
2 P
P
εk xk
ε∈An
= 2n
k∈In
kxk k2
P k∈In
para toda n-unpla x1 , . . . , xn en H. Observar que para n = 2 queda (3.31) dos veces.
4
3.8.2. Sea H un EPH. Dado A ⊆ H denot´abamos A⊥ = {y ∈ H : x ⊥ y para todo x ∈ A}. Probar que la flecha A 7→ A⊥ cumple las siguientes propiedades: Para todo A ⊆ H, se cumple que 1. Su ortogonal A⊥ v H (es subespacio y es cerrado). 2. Tambi´en vale que, si S = span {A}, entonces A⊥ = S ⊥ = S ⊥ .
4 4
3.8.3. Probar la Prop. 3.2.3 (multiPit´ agoras) para n > 2. 3.8.4. Sea H un EH. Probar que para todo x ∈ H y todo T ∈ L(H) se tiene que kxk = sup |hx , yi|
y
kT k =
sup
|hT x , yi| .
4
x , y ∈BH
y∈BH
3.8.5. A diferencia de las series comunes, probar que cuando E es un Banach, si x = (xi )i∈ I ∈ E I
vale que
X
kxi k < ∞ ⇐⇒
i∈ I
X
xi es convergente .
4
i∈ I
3.8.6. Sea E P un EN y asumamos que las series de las familias x = (xi )i∈ I , y = (yi )i∈ I ∈ E I son ambas P convergentes: xi = x and yi = y. Luego vale que i∈I
i∈I
104
1. La serie
P
xi + yi es convergente, con suma x + y.
i∈I
P
2. Para cualquier λ ∈ K, queda convergente la serie
λ · xi = λ · x.
i∈I
3. Si σ : I → I es biyectiva, la serie
P
xσ(i) tambi´en converge a x.
i∈J
4. Si J ⊆ I y E era un Banach, entonces valen dos cosas: P (a) La subserie xi tambi´en converge. i∈J
(b) Lo mismo pasa con la otra mitad, y se tiene que x =
P i∈J
5. Si F es otro EN y T ∈ L(E, F ), entonces T
P
xi
i∈I
P
6. Si E era un EH y z ∈ H, entonces la serie
=
P
P
xi +
xi .
i∈I\J
T xi .
i∈I
hxi , zi converge hacia hx , zi.
i∈I
7. Si pasara que E = K, tambi´en convergen los conjugados:
P
4
xi = x.
i∈I
Q
3.8.7. Consideremos el producto cartesiano P =
Hi de sendos Hilbert’s (Hi , h· , ·ii ), cuyos elementos son
i∈I
las familias x = (xi )i∈ I ∈ P. Definamos el espacio M
def
Hi =
x∈P:
i∈I
X
kxi k2i < ∞
,
i∈I
con el PI y la norma definidos por: Dados x = (xi )i∈ I , y = (yi )i∈ I ∈
L
Hi , se hace
i∈I
X hx , y = hxi , yi ii
y
kxk =
L
kxi k2i
1/2
.
i∈I
i∈I
Probar que, con ´estos atributos,
X
Hi es un EH. Una forma de probarlo es definir ese PI en
i∈I
P
Hi (las
i∈I
familias con solporte finito), y luego completar. La otra es hacer la misma cuenta del Ejem. 3.4.3, pero adaptada a los objetos de este caso. El ejercicio es hacer ambas cosas. Probar adm´as que L 1. Cada uno de los Hj se puede incrustrar adentro del porducto Hi poniendo ceros en las otras i∈I
entradas. 2. Eso queda lineal e isom´etrico y se hace la identificaci´on usual Hj v
L
Hi .
i∈I
3. Tambi´en vale que
L i∈J
Hi v
L
Hi siempre que J ⊆ I.
i∈I
4. Observar que esta identificaci´ on no se pod´ıa hacer en productos de espacios no vectoriales porque no hay “ceros” para elegir en las coordenadas que faltan. 4 3.8.8. Probar que las continuas de C(T) son k · k2 -densas en el espacio L2 (T).
105
Ejercicios nuevos 3.8.9. Sea B : H × K → C una forma sesquilineal (no necesariamente sim´etrica ni positiva), donde H y K son dos C-EV’s cualesquiera. Probar que vale la f´ormula de polarizaci´on: 4 B(x , y) =
3 X
ik B(x + ik y , x + ik y)
para todo par
(x , y) ∈ H × K .
(3.32)
k=0
La novedad sobre (3.29) es que no se le pide nada a B. Obs: El tema es que al hacer las 4 cuentas, los t´erminos ik B(x , ik y) = B(x , y), porque el ik sale conjugado, mientras que los ik B(ik y , x) = (−1)k B(y , x), y por eso estos se cancelan. 4 3.8.10. Sea H un EH real (o sea que K = R). Probar que H × H es un espacio de Hilbert complejo cuando su estructura lineal y producto interno son definidos del siguiente modo: Dados (x , y) , (u , v) ∈ H × H, 1. Suma: (x, y) + (u, v) = (x + u, y + v), 2. Escalares: Si α + iβ ∈ C, se pone (α + iβ)(x, y) = (αx − βy, βx + αy) 3. El PI: h(x, y), (u, v)i = hx, ui + hy, vi + i hy, ui − i hx, vi. 3.8.11. 1. Sea E un EN. Probar que existe un producto escalar que induce la norma de E (y que hace de E un EPH) si y s´ olo si k k verifica la identidad del paralelogramo: kx + yk2 + kx − yk2 = 2 (kxk2 + kyk2 )
para todo par
x, y ∈ E .
(Sugerencia: Para la vuelta, definir el producto interno via la identidad de polarizaci´on) 2. Deducir que (`p , k kp ), si p 6= 2 y (C[0, 1], k k∞ ) no son espacios de Hilbert. 3.8.12. Sobre bases ortonormales: 1. Probar que la can´ onica {en }n∈N de `2 , donde (en )k = δk , n es una BON de `2 . int
e 2. Probar (con detalles) que { √ : n ∈ Z} es una BON de L2 [−π, π]. 2π
3.8.13. Probar que el conjunto { xn : n ∈ N0 } es LI y genera un subespacio denso en el EH real L2 [−1, 1]. Probar que su ortogonalizaci´ on de Gram-Schmidt {en }n∈N0 satisface que en (x) =
2n + 1 1/2 Pn (x) 2
donde
Pn (x) =
1 2n n!
d n 2 (x − 1)n dx
son los polinomios de Legendre. Lo de arriba vale para todo n ∈ N0 y todo x ∈ [−1 , 1]. 3.8.14. En (R2 , k k∞ ), K = {(0, t) : −1 ≤ t ≤ 1} es un convexo cerrado. Si h = ( 12 , 1), probar que existen infinitos k ∈ K tales que kh − kk = d(h, K). ¿Qu´e hip´otesis del Teorema de proyecci´on sobre un convexo cerrado no se cumple? 3.8.15. Supongamos que {e1 , e2 , e3 , . . .} es una base ortonormal de un espacio de Hilbert H y definamos S del siguiente modo: ) ( 2 ∞ X 1 2 | hy, en i | ≤ 1 . S= y∈H: 1+ n n=1 Probar que S es un conjunto convexo acotado y cerrado que no posee un elemento con norma m´axima. 4 Un U ∈ L(H) es unitario si es un iso isom´etrico sobre. Llamaremos U(H) = {U ∈ L(H) : U es unitario }. 3.8.16. Sea H un EH. Probar que
106
1. Si B = {vi : i ∈ I} es una BON de H, entonces un U ∈ L(H)
es unitario
⇐⇒
{U vi : i ∈ I}
es otra BON de H .
2. M´ as a´ un, si C = {wi : i ∈ I} es cualquier otra BON de H, entonces existe un U ∈ U(H)
tal que
U vi = wi
para todo
i∈I.
3. El conjunto U(H) es un subgrupo cerrado de Gl (H). ¿Es compacto? 4. Dado A ⊆ H convexo y cerrado, sea U (A) = {U ∈ U(H) : U (A) = A}. Luego def
AU (A) =
{ y ∈ A : Uy = y
para todo
U ∈ U (A) } = 6 ∅.
4
3.8.17. Sea H un EH. Fijemos S , M v H tales que dim S < ∞ y que dim S < dim M. Probar que con esas condiciones debe cumplirse que S ⊥ ∩ M = 6 {0}. 4 3.8.18. El “cubo de Hilbert” de `2 (N) es el conjunto Q=
x = (xn )n∈ N ∈ CN : |xn | ≤
1 n
para todo
n∈N
⊆ `2 (N) .
Probar que Q es convexo y compacto (con la norma). Realizar a Q = T (BE ) para ciero T ∈ L(E , `2 ) donde E es alg´ un EB. De paso calcular kT k. 4 3.8.19 (Repaso del texto). Sea H un EH. Dado S v H un subespacio propio, probar que 1. Existe x ∈ H \ S tal que x⊥ S. Es decir que S ⊥ = {x ∈ H : x⊥ S} 6= {0}. 2. Se tiene que S ⊥ v H y S ⊕ S ⊥ = H. 3. Para estos S vale que (S ⊥ )⊥ = S. 4. Dar contraejemplos de (2) y (3) si S no es cerrado. P 3.8.20. En `2 (N) sea S = {x ∈ `1 (N) : xn = 0}. Probar que S es un subespacio denso de `2 (N). n∈N
Observar que si lo pensamos dentro de `1 (N), se tiene que S v `1 (N), porque S = ker ϕ1 . 3.8.21. Sea H un EH. Si {xn : n ∈ N} una BON de H y C = {yn : n ∈ N} es un SON en H que verifica X
kxn − yn k2 < 1 =⇒
C
era otra BON de H .
4
n∈N
3.8.22. Sea H un EH. Probar que si x ∈ H es unitario, entonces es un punto extremal de la bola unidad. 3.8.23. Sean µ y ν medidas positivas y finitas sobre un espacio (X, Σ) tales que ν << µ. Probar que 1. Vale que L2 (µ + ν) ⊆ L2 (µ) (¿Qu´e pasa con coincidir en c.t.p. ?). R 2. La funcional ϕ dada por L2 (µ) 3 f 7→ ϕ(f ) = X f dµ , no s´olo esta bien definida sino que ϕ ∈ L2 (µ)∗ . ¿Cu´ al es la h ∈ L2 (µ) que la realiza v´ıa el Teor. de Riesz? 3. Si restringimos ϕ a L2 (µ + ν) queda m´as acotada que antes, al pensarla con la norma de L2 (µ + ν). dν ¿Qu´e relaci´ on existe entre dµ y la funci´on g ∈ L2 (µ + ν) que la realiza ahora? 4
107
Cap´ıtulo 4 Operadores en espacios de Hilbert Dados H1 y H2 dos EH’s, denot´abamos por L(H1 , H2 ) al EB de operadores acotados entre ellos. Dado T ∈ L(H1 , H2 ), su norma era kT k = sup kT xkH2 = m´ın{M ≥ 0 : kT xkH2 ≤ M kxkH1 para todo x ∈ H1 } . x∈BH1
Si ahora fijamos un Hilbert H y trabajamos en L(H) = L(H , H), le daremos un nuevo nombre a los isomorfismos que est´an en L(H). De hecho, como L(H) es una K-´algebra, a partir de ahora pasar´an a llamarse operadores inversibles. Observar que, de existir su inverso T −1 , el TFI 2.3.4 asegura que T −1 tambi´en vive en L(H), por lo que es su inverso para el producto del ´algebra L(H) (que es la composici´on). Denotaremos por n o n o Gl (H) = T ∈ L(H) : ker T = {0} y R(T ) = H = T ∈ L(H) : existe T −1 ∈ L(H) . Es importante remarcar que Gl (H) es un grupo con el producto de L(H). De hecho es mucho m´as que eso. M´as adelante veremos que Gl (H) es abierto en L(H).
4.1
El adjunto.
A los operadores de L(H1 , H2 ) se les puede aplicar la teor´ıa de los adjuntos que vimos en la secc´on 2.6. Sin embargo, en vista del Teor. de Riesz 3.3.1, definiremos a los adjuntos operando en los mismos EH’s y no en sus duales. Por simplicidad de la presentaci´on, y porque es el caso m´as importante, lo haremos en principio solo para endomorfismos de un L(H), donde H es un EH con respecto al cuerpo C. Dejaremos como ejercicio la generalizaci´on al caso de operadores en L(H1 , H2 ) con el cuerpo K. Definici´ on 4.1.1. Sea H un EH, y sea B : H×H → K una forma sesquilineal (FS). Diremos que B es acotada (y B ser´a una FSA) si existe una M ≥ 0 tal que |B(x , y)| ≤ M kxk kyk
para todo par
x, y ∈ H .
La norma de B ser´a la mejor tal constante: kBk = sup |B(x , y)|. Al espacio (normado) x , y∈BH
de todas estas FSA’s lo denotaremos por Sq(H). 108
4
El siguiente resultado, conocido como el Teor. de Lax-Milgram, dice que como pasa en dimensi´on finita donde las sesquilineales est´an dadas por una matriz (o sea un operador), las B ∈ Sq(H) para un Hilbert H tambi´en se representan con un operador de L(H). Proposici´ on 4.1.2. Sea H un EH. La flecha L(H) 3 T 7→ BT ∈ Sq(H) dada por la f´ormula BT (x , y) = hT x , yi
para todo par
x, y ∈ H ,
(4.1)
define un isomorfismo isom´etrico entre esos Banach’s. Es decir que toda sesquilineal acotada en H proviene de un T ∈ L(H) (de la misma norma) v´ıa el PI. Demostraci´on. La linealidad sale f´acil. Para ver que es isom´etrica (en particular que es mono y que cada BT es una FSA) basta recordar que para todo T ∈ L(H) (3.12)
kT k =
def
|hT x , yi| = kBT k .
sup x , y ∈BH
Para mostrar que es epi, fijemos una B ∈ Sq(H). Para cada x ∈ H tenemos la funcional φx ∈ H∗
dada por
φx (y) = B(x , y)
y∈H,
para
que tiene norma no mayor que kBk kxk. Observar que cada funcional φx esputa bien los escalares que multiplican al y porque se los conjuga dos veces. Por el Teor. de Riesz 3.3.1 debe existir un (´ unico) vector que h´abilmente llamaremos Tx∈H
tal que
kT xk = kφx k
φx (y) = hy , T xi
y
para todo
y∈H.
Luego llegamos a la igualdad que necesitamos: B(x , y) = φx (y) = hy , T xi = hT x , yi
para todo par
x, y ∈ H .
La flecha x 7→ T x es claramente lineal, porque al multiplicar al x por un λ ∈ K, al sacarlo se lo conjuga dos veces: una al hacer φλx y la otra la del Teor. de Riesz. Adem´as vimos que kT xk = kφx k ≤ kBk kxk, por lo que T ∈ L(H) y B = BT . Final de la porf´ıa. Observaci´ on 4.1.3. Hay una consecuencia trivialonga de la Prop. 4.1.2, que sin embargo es una de las cosas que m´as se usa en la pr´actica: Dados S , T ∈ L(H) vale que hS x , yi = hT x , yi
para todo par
x , y ∈ H =⇒ S = T .
(4.2)
No es otra cosa que la inyectividad de la flecha del Prop. 4.1.2. En particular dice que si todos los hT x , yi = 0 entonces T = 0. Si K = C se puede mejorar esta condici´on: 4 Corolario 4.1.4. Sea H un EH. Se asume que K = C. Dados T , S ∈ L(H) se tiene que hS x , xi = hT x , xi
para todo
109
x ∈ H =⇒ S = T .
(4.3)
Proof. Hace falta mejorar la polarizaci´on vista en (3.2): Dados x , y ∈ H, vale que 4 B(x , y) =
3 X
ik B(x + ik y , x + ik y)
B ∈ Sq(H) .
para toda
(4.4)
k=0
Es importante aclarar que no se asume que B sea sim´etrica como en (3.2). La Ec. (4.4) ya se plante´o en el Ejer. 3.8.9 con una ayuda m´as que suficiente, as´ı que la aceptaremos (tambi´en vale hacer la cuenta, que sale). Poniendo B(x , y) = h (T − S) x , y i para todo par x , y ∈ H vemos que usando (4.4) sale que (4.3) =⇒ (4.2) =⇒ S = T . Observaci´ on 4.1.5. Observar que en cambio, la polarizaci´on real vista en (3.3) s´ı usa la 0 1 simetr´ıa y no hay tu t´ıa: La matriz ∈ L(R2 ) nos muestra que la Ec. (4.3) falla −1 0 cuando K = R. ¿Porque no falla si a esa matriz la pensamos en L(C2 )? 4 Teorema 4.1.6. Sea H un EH. Para todo T ∈ L(H) existe un u ´nico T ∗ ∈ L(H) tal que hT x , yi = hx , T ∗ yi
para todo par
x, y ∈ H .
(4.5)
Adem´as, se cumplen las siguientes propiedades: Dados T, S ∈ L(H), se tiene que 1. (T S)∗ = S ∗ T ∗ y (T ∗ )∗ = T . 2. kT ∗ k = kT k y kT ∗ T k = kT k2 . 3. La flecha T 7→ T ∗ es antilineal y, por lo de arriba, isom´etrica sobre e involutiva. 4. En particular, Tn −−−→ T =⇒ Tn∗ −−−→ T ∗ . n→∞
n→∞
Demostraci´on. Dado T ∈ L(H), tomemos la B ∈ Sq(H) dada por B(x , y) = hx , T yi, para cada par x , y ∈ H. El testeo de que efectivamente B ∈ Sq(H) con kBk ≤ kT k es directo. Llamemos T ∗ ∈ L(H) el operador asociado a B que da el Teo. 4.1.2. Luego se tiene que hy , T xi = B(y , x) = hT ∗ y , xi
conjugar
=⇒
hT x , yi = hx , T ∗ yi para todo par x , y ∈ H .
La unicidad del T ∗ sale de la Ec. (4.2). Sean ahora S , T ∈ L(H). hT S x , yi = hS x , T ∗ yi = hx , S ∗ T ∗ yi para todo x , y ∈ H
unicidad
=⇒
(T S)∗ = S ∗ T ∗ .
Por otro lado, por la Ec. (4.5) sale que para todo par x , y ∈ H se tiene que hT ∗∗ x , yi = hy , T ∗∗ xi = hT ∗ y , xi = hx , T ∗ yi = hT x , yi
(4.2)
=⇒
T ∗∗ = T .
Para el item 2 hagamos la siguiente cuenta: Para cualquier x ∈ BH vale que kT xk2 = hT x , T xi = |hx , T ∗ T xi| ≤ kT ∗ T k kxk2 ≤ kT ∗ T k . 110
Deducimos que kT k2 ≤ kT ∗ T k ≤ kT ∗ k kT k (la u ´ltima vale siempre con un producto). Esta desigualdad implica las dos del item 2. Primero que kT k ≤ kT ∗ k (para todo T ∈ L(H) ), por lo que tambi´en kT ∗ k ≤ kT ∗∗ k = kT k. Mirando arriba llegamos a que kT k2 = kT ∗ T k. La antilinealidad es trivial y se deja como ejercicio para el lector obsesivo. Observar que dados T ∈ L(H) y dos vectores x , y ∈ H, tambi´en vale que hx , T yi = hT y , xi = hy , T ∗ xi = hT ∗ x , yi . As´ı que, al cambiar T por T ∗ , se lo puede pasar libremente hacia cualquiera de los dos lados del PI. Usaremos esa herramienta hasta el cansancio en todo el texto. Otra cosa que se usar´a sin m´as aclaraciones es que I ∗ = I. Si uno mira (4.5) no lo duda ni un segundo. Proposici´ on 4.1.7. Sea H un EH. Dado un T ∈ L(H) se tienen las siguientes igualdades: ker T ∗ = R(T )⊥
y
R(T ∗ ) = (ker T )⊥ .
(4.6)
Demostraci´on. Veamos primer la f´ormula para el n´ ucleo. Dado un x ∈ H, se tiene que x ∈ R(T )⊥
⇐⇒ hx , T yi = 0
y∈H
para todo
⇐⇒ hT ∗ x , yi = 0
y∈H
para todo
⇐⇒ T ∗ x = 0 . Luego R(T )⊥ = ker T ∗ . Aplicando esta igualdad a T ∗ ∈ L(H), nos queda que 3.2.7
R(T ∗ )⊥ = ker T ∗∗ = ker T =⇒ R(T ∗ ) =
R(T ∗ )⊥
⊥
= (ker T )⊥ .
En la Prop. 2.6.12 vimos el siguiente resultado para los viejos adjuntos que operaban en los duales. Lo reprobamos ahora con las t´ecnicas Hilbertianas para este contexto. Antes def adelantemos una notaci´on: Llamaremos A(H) = {A ∈ L(H) : A∗ = A} (los autoadjuntos). Corolario 4.1.8. Sean H un EH y T ∈ L(H). Las suguientes condiciones son equivalentes: 1. Nuestro T ∈ Gl (H). 2. Su adjunto T ∗ ∈ Gl (H). 3. Tanto T como T ∗ son AI (acotados inferiormente). 4. Ambos dos T y T ∗ son monos y tienen sus rangos cerrados. Si todo esto pasa, vale que (T ∗ )−1 = (T −1 )∗ . O sea que invertir y adjuntar conmutan. Esto dice, en particular que si T ∈ A(H) ∩ Gl (H) =⇒ T −1 ∈ A(H).
111
4.1.6
Demostraci´on. Si T ∈ Gl (H) entonces T −1 T = I =⇒ T ∗ (T −1 )∗ = I ∗ = I. An´alogamente se ve que T T −1 = I =⇒ (T −1 )∗ T ∗ = I. O sea que (T −1 )∗ es el inverso de T ∗ . Si aplicamos esto a T ∗ y asumimos que T ∗ ∈ Gl (H), como T ∗∗ = T ya tenemos que 1 ⇐⇒ 2. Ya hemos visto que si T ∈ Gl (H) =⇒ T es AI. La cota inferior era kT −1 k−1 . En el mismo lugar, la Ec. (2.25), vimos que AI ⇐⇒ mono y rango cerrado (se usa que H es completo). Por lo tanto el tandem de 1 y 2 implica el de 3 ⇐⇒ 4. Si ahora asumimos 4, tenemos que ker T ∗ = {0} y adem´as que R(T ∗ ) = (ker T )⊥ = H, porque tambi´en T era mono. Llegamos a que R(T ∗ ) es denso y cerrado. En resumen, ya sabemos que T ∗ es mono + epi, o sea que T ∗ ∈ Gl (H). Ejemplos 4.1.9. 1. Sea H = Cn con su PI tradicional. Fijemos B = {v1 , . . . , vn } una BON de Cn . A cada T ∈ L(Cn ) se le asigna v´ıa B una matriz A = [T ]B ∈ Mn (C) dada por Aij = hT vj , vi i
para cada par
i , j ∈ In .
Esto hace que las coordenadas de T x sean el producto de matrices [T ]B [x]B , donde [x]B es el vector columna de entradas hx , vj i, para j ∈ In . Observar que la columna j-´esima de A tiene a los coeficientes de Fourier de T vj . Como uds. seguro ya saben, la matriz B = [T ∗ ]B se calcula usando la de T : Basta hacer Bij = hT ∗ vj , vi i = hvj , T vi i = Aji
para
i , j ∈ In =⇒ B = At .
O sea que al fijar una BON de Cn , el proceso de adjuntar un operador de L(Cn ) consiste en transponer y conjugar su matriz. En presencia de una BON “larga” de un Hilbert H cualquiera, se puede hacer la matriz (infinita) igual que arriba, y opera bien el las columnas largas de coeficientes de los x ∈ H. Tambi´en sale que adjuntar es transponer y conjugar. Pero no es tan util como en el caso finito, porque es dif´ıcil saber cuando una de esas supermatrices proviene o no de un operador acotado. M´as adelante veremos algunos criterios al respecto. Por ejemplo el llamado “test de Schur” del Ejer. 4.7.21. 2. Sea ahora H = `2 y S, T ∈ L(`2 ) los shifs del Ejem. 1.8.1. Una cuenta directa muestra que T = S ∗ . De hecho, de sus definiciones se desprende que P hSx , yi = hx , T yi = xn yn+1 para los x = (xn )n∈ N , y = (yn )n∈ N ∈ `2 . n∈N
Si miramos ahora los bilaterales U, V ∈ L(`2 (Z) ) definidos en la Obs. 3.7.3, es igual de f´acil ver que V = U ∗ . La suma es la misma de arriba, pero con n ∈ Z. 3. Sea ahora f ∈ L∞ (para X, Σ , µ fijos) y Mf ∈ L(L2 ) el operador de multiplicaci´on Mf g = f g para g ∈ L2 , definido en el Ejem. 1.8.2. Como los Mf son los an´alogos a las matrices diagonales, era de esperar que Mf ∗ = Mf . La verificaci´on es directa mirando las integrales, ya que (f g) h = g( f h ). 112
4. En los operadores nucleares del Ejem. 1.8.3, si k(s, t) ∈ L2 (X × X) y tomamos el nuclear Tk , entonces Tk ∗ = Tk∗ , donde k ∗ (s, t) = k(t, s) para s, t ∈ X. La prueba no es m´as que aplicar un Fubini adecuado a funciones de L1 . Observar la analog´ıa de estas f´ormulas con la idea de transponer y conjugar matrices.
4.2
Clases de operadores.
Usando que dado un T ∈ L(H), su T ∗ tambi´en vive en el ´algebra L(H), podemos hacerlos interactuar. Eso enriquece notablemente la teor´ıa de operadores en EH’s por sobre la de EB’s. A los distintos comportamientos interactivos de T y T ∗ se les pondr´a distintos nombres, todos ellos ya conocidos de las matrices. Definici´ on 4.2.1. Sean H un EH y T ∈ L(H). Diremos que T es: 1. Normal si T T ∗ = T ∗ T , o sea si T y T ∗ conmutan. 2. Autoadjunto o Hermitiano si T = T ∗ . Denotaremos por A(H) = {T ∈ L(H) : T = T ∗ } , que es un R-subespacio cerrado de L(H). 3. Positivo (se escribe T ≥ 0) si T ∈ A(H) y hT x , xi ≥ 0 para todo x ∈ H. Denotaremos L(H)+ = {T ∈ L(H) : T ≥ 0} , que es un cono convexo cerrado dentro de A(H). 4. Su interior es el conjunto Gl (H)+ de los estrictamente positivos (va como T > 0), que son aquellos T ∈ L(H)+ tales que hT x , xi ≥ ckxk2 para cierto c > 0. 5. Isom´ etrico si T ∗ T = I. Ya veremos que la notaci´on es consistente. 6. Isometr´ıa parcial si (T ∗ T )2 = T ∗ T . Eso significa que T ∗ T ∈ P(H). 7. Unitario si T ∈ Gl (H) y T −1 = T ∗ . Denotaremos por U(H) = {T ∈ L(H) : T es unitario } ⊆ Gl (H) , que es un subgrupo de Gl (H). Es cerrado por composiciones porque tanto adjuntar como invertir dan vuelta el producto. 4 A continuaci´on viene una serie de caracterizaciones alternativas elementales de las clases reci´en definidas de operadores. Recordemos la Ec. (4.3) del Cor. 4.1.4 que dec´ıa que, para que un T ∈ L(H) sea nulo, alcanza con ver que hT x , xi = 0 para todo x ∈ H. Por supuesto, vimos que eso s´olo vale si K = C. Esta ser´a la herramienta clave para lo que viene ahora. 113
4.2.2. Sean H un EH sobre C y T ∈ L(H). Empecemos con los normales: T
es normal
⇐⇒ kT xk = kT ∗ xk
para todo
x∈H.
(4.7)
En efecto, ambas implicaciones salen usando (4.3) y observando la siguiente igualdad: kT xk2 − kT ∗ xk2 = h T x , T xi − hT ∗ x , T ∗ xi = h (T ∗ T − T T ∗ ) x , xi para todo x ∈ H. Observar que la Ec. (4.7) dice en particular que T
es normal
=⇒
(4.6)
ker T = ker T ∗ =⇒ ker T = R(T )⊥ .
(4.8)
Con respecto a los autoadjuntos tenemos otra buena: T ∈ A(H) ⇐⇒ hT x , xi ∈ R
x∈H.
para todo
(4.9)
Esta sale porque h (T − T ∗ ) x , xi = hT x , xi − hT x , xi para todo x ∈ H. En particular T ∈ L(H)+ ⇐⇒ hT x , xi ≥ 0
para todo
x∈H,
(4.10)
porque lo de la derecha ya sabemos que asegura que T ∈ A(H). Una f´ormula semejante vale tambi´en para chequear si T > 0. Usando esto salen f´acil las afirmaciones de arriba de que L(H)+ es un cono convexo y cerrado dentro de de A(H), y que Gl (H)+ es exactamente el interior de L(H)+ . Hay una forma usual de exhibir positivos: Si B ∈ L(H) =⇒
B ∗ B ∈ L(H)+ .
(4.11)
La prueba surge de que hB ∗ B x , xi = hB x , B xi = kB xk2 ≥ 0 para todo x ∈ H. En realidad vale que todo positivo es como los de (4.11), pero todav´ıa nos falta data para probarlo. Veamos ahora que las isometr´ıas U ∈ L(H) son lo que son: U es una isometr´ıa (i.e. U ∗ U = I) ⇐⇒ kU xk = kxk
para todo
x∈H.
(4.12)
Como antes, esto se deduce de (4.3) y de que cada kU xk2 − kxk2 = h (U ∗ U − I) x , xi. Otra caracterizaci´on, si bien es bastante obvia, es sumamente util en las aplicaciones: U es una isometr´ıa
⇐⇒ hU x , U yi = hx , yi
para todo par
x, y ∈ H .
(4.13)
Es decir de dos maneras que U ∗ U = I. Vamos ahora hacia los unitarios: U ∈ U(H)
(i.e. U ∗ = U −1 )
⇐⇒
U
es una isometr´ıa sobre .
(4.14)
En realidad, es una consecuencia de (4.12), porque al asumir que U ∈ Gl (H), un inverso a izquierda tiene que ser EL inverso de U . Observar que los U ∈ U(H) son normales. Falta decir algunas cosas sobre las isometr´ıas parciales, pero hace falta avanzar un poco m´as para poder hacerlo, as´ı que esperen un poco. No olvidemos remarcar que casi todas las implicaciones ⇐ de esta lista fallan si K = R, aunque las ⇒ valen en general. 4 114
Recordemos que, si H es un EH, llam´abamos P(H) = {E ∈ L(H) : E 2 = E}. Ahora caracterizaremos una subclase especial de P(H). Proposici´ on 4.2.3. Sean H un EH y P ∈ P(H). Llamemos S = R(P ) v H. Ahora podemos agregar nuevas condiciones a la Ec. (3.10): Son equivalentes 1. P = PS , es decir que ker P = S ⊥ . 2. kP k = 1. 3. P ∈ L(H)+ . 4. P ∈ A(H), o sea que P ∗ = P . 5. P es normal. Demostraci´on. Vimos en la Ec. (3.10) que 1 ⇐⇒ 2. Si asumimos ahora que P = PS y me dan cualquier x = y + z ∈ S ⊕ S ⊥ = H, entonces (4.10)
hP x , xi = hy , y + zi = hy , yi ≥ 0 =⇒ P ∈ L(H)+ . Hemos visto que L(H)+ ⊆ A(H) ⊆ los normales. Pero si P fuera normal, entonces la Ec. (4.8) ya nos da que ker P = ker P ∗ = R(P )⊥ = S ⊥ . Y qued´o todo enrrollado. 4.2.4. Es usual restrigir la palabra “proyector” para los de la Prop. 4.2.3. Tambi´en se los bate proyectores ortogonales o autoadjuntos. Hay una formulita abreviada para describirlos: Un P ∈ L(H) es un tal proyector ⇐⇒ P = P ∗ P (lo u ´ltimo incluye la info de que P 2 = P ) En adelante denotaremos por P(H) = {P ∈ L(H) : P = P ∗ P } = {P ∈ P(H) : P = P ∗ }
(4.15)
al espacio de todos los proyctores (autoadjuntos) de L(H). Observar que P(H) ⊆ BH y que el conjunto P(H) est´a en correspondencia biun´ıvoca con la “Grasmanniana” de H, que consta de todos los S v H. Los E ∈ P(H) que s´olo cumplen que E 2 = E se quedan con otros nombres. A veces les diremos proyectores oblicuos. Otras idempotentes a secas. 4 4.2.5 (Partes real e imaginaria). Sean H un EH y T ∈ L(H). Denotaremos por T − T∗ T + T∗ ∈ A(H) e Im T = ∈ A(H) . 2 2i Es f´acil ver que ellos son los u ´nicos A, B ∈ A(H) tales que T = A + i B. Re T =
(4.16)
Se suele decir que un C ∈ L(H) es antihermitiano si C ∗ = −C. Es f´acil ver que el conjunto de tales operadores coincide con i A(H), o sea que todo C antihermitiano cumple que C = i B para alg´ un B ∈ A(H). Lo que dec´ıamos arriba se expresa como que L(H) = A(H) ⊕ i A(H) ,
(4.17)
y que T 7→ Re T y T 7→ i Im T son las dos proyecciones (R-lineales) asociadas. Observar que ambas son contractivas, o sea que k Re T k ≤ kT k y lo mismo con las partes Im’s. 4 115
Ejercicio 4.2.6. Sea T ∈ L(H). Probar que T es normal ⇐⇒ A = Re T
conmuta con B = Im T ,
(4.18)
y que en tal caso T ∗ T = T T ∗ = A2 + B 2 . Suena conocido, no?
4.3
4
Positivos.
4.3.1. Ven´ıamos diciendo que L(H)+ es un cono cerrado dentro de A(H). Aclaremos y usemos aquello. El conjunto L(H)+ cumple, dentro del R-EV ambiente A(H), que (a) Es cerrado (con la norma). (b) Es cerrado por sumas y por multiplicaci´on por escalares positivos. (c) Es convexo, i.e., A, B ∈ L(H)+ y λ ∈ [0, 1] =⇒ λA + (1 − λ)B ∈ L(H)+ . (d) Para todo A ∈ A(H) se tiene que A + kAk I ∈ L(H)+ y que A + µ I ∈ Gl (H)+
µ > kAk .
para todo
Las tres primeras porpiedades se deducen inmediatamente de la Ec. (4.10). La cuarta tambi´en, si uno se aviva de usar que para todo A ∈ A(H) y todo x ∈ H vale que
|hA x , xi| ≤ kA xk kxk = kAk kxk2 = kAk hx , xi =⇒ (A + kAk I) x , x ≥ 0 . Con todas esas propiedades es evidente que podemos definir el siguiente orden en A(H): Dados A, B ∈ A(H)
decimos que
A≤B
si
B − A ∈ L(H)+ .
(4.19)
Esto es un orden (es antisim´etrico, reflexivo y transitivo). Pero este orden no es total (pensar en matrices 2 × 2) y ni siquiera es un reticulado (no siempre hay supremos e ´ınfimos, ni siquiera de a dos operadores). Observar que, dados A, B ∈ A(H), se tiene que A ≤ B ⇐⇒ hA x , xi ≤ hB x , xi
para todo
x∈H.
(4.20)
Las mejores propiedades de este orden necesitan de la “ra´ız cuadrada” positiva de los operadores positivos, que veremos m´as adelante. Pero empecemos por lo m´as f´acil: 4 Proposici´ on 4.3.2. Sea H un EH. Dados A, B ∈ A(H) tales que A ≤ B, se tiene que 1. Para cualquier T ∈ L(H) tambi´en T ∗ AT ≤ T ∗ BT . 2. Si adem´as pasaba que A ∈ L(H)+ , entonces kAk ≤ kBk. 3. A cualquier A ∈ A(H) se lo ensangucha con m´ ultiplos de la identidad: −kAk I ≤ A ≤ kAk I . 116
(4.21)
4. A ∈ Gl (H)+ ⇐⇒ A ≥ c I para cierto c > 0. Demostraci´on. Antes que nada, obervar que tanto T ∗ AT como T ∗ BT sigen estando en A(H) (basta estrellarlos y ver). Ahora bien, dado un x ∈ H podemos hacer lo siguiente: hT ∗ AT x , xi = hA T x , T xi
(4.20)
≤
(4.20)
hB T x , T xi = hT ∗ BT x , xi =⇒ T ∗ AT ≤ T ∗ BT . def
Si A ∈ L(H)+ , entonces la sesquilineal H2 3 (x, y) 7→ hx , yiA = hA x , yi es un semi PI. Esto se deduce de la Ec. (4.10) y de que L(H)+ ⊆ A(H). Luego, si x, y ∈ BH , se tiene que |hA x , yi|2 = |hx , yiA |2
C−S
≤
hA x , xi hA y , yi ≤ hB x , xi hB y , yi
C−S
≤
kBk2 .
Aplicando ahora la Ec. (3.12) del Cor. 3.3.3, podemos ver que kAk2 = sup kA xk2 = sup |hA x , yi|2 ≤ kBk2 . x ∈BH
x , y ∈BH
As´ı llegamos a que kAk ≤ kBk. Finalmente, observar que
hA x , xi ≤ kAk kxk2 = kAk I x , x para todo x ∈ H . Eso claramente implica las desigualdades de (4.21). Una cuenta similar muestra 4.
El siguiente teorema es un adelanto del c´alculo funcional continuo para operadores autoajuntos. Lo queremos dar antes, para poder aplicarlo a muchas propiedades m´as b´asicas de L(H), porque el desarrollo de aquel c´alculo requiere mucho m´as andamiaje te´orico. Para hacerlo de la nada, no nos queda otra que hacer un mont´on de cuentas. A apechugar. Ejercicio 4.3.3 (Criterio de Dini). Sea f = (fn )n∈ N una sucesi´on en C[0, 1] que cumple: 1. Existe f ∈ C[0, 1] tal que fn (t) −−−→ f (t) para todo t ∈ [0, 1]. n→∞
2. La sucesi´on f es creciente: fn (t) ≤ fn+1 (t) para todo n ∈ N y todo t ∈ [0, 1]. Con esas hip´otesis probar que la convergencia fn −−−→ f es uniforme en todo [0, 1]. n→∞
4
Lema 4.3.4. Sea f ∈ C[0, 1] dada por f (t) = 1 − (1 − t)1/2 para t ∈ [0, 1]. Afirmamos que existe una sucesi´on (qn )n∈N de polinomios tales que 1. Todos tienen coeficientes reales y no negativos. 2. Tambi´en las restas qm − qn para n < m tienen coeficientes no negativos. 3. qn (t) ∈ [0, 1] para todo t ∈ [0, 1] y todo n ∈ N. 4. kf − qn k∞ −−−→ 0 (convergencia uniforme en el [0, 1]). n→∞
117
Demostraci´on. La sucesi´on se define inductivamente. Se empieza por q0 ≡ 0, q1 (t) = qn+1 (t) =
1 2
t + qn (t)2
para
t ∈ [0, 1]
y
n∈N.
t 2
,y
(4.22)
Inductivamente vemos que los coeficientes de los qn son no negativos y que en todos los n ∈ N y todos los t ∈ [0, 1] vale que tambi´en qn (t) ∈ [0, 1]. Observar que 2 2(qn+1 − qn ) = qn2 − qn−1 = (qn − qn−1 ) (qn + qn−1 )
para todo
n∈N.
Luego vemos (inductivamente) que todas las diferencias qn+1 −qn tambi´en tienen coeficientes no negativos (sumando, eso da el item 2). En particular, en cada t ∈ [0, 1], se tiene que la sucesi´on (qn (t) )n∈N es creciente y acotada por 1, por lo que qn (t) −−−→ q(t) ∈ [0, 1]. n→∞
2
Pero por (4.22), los l´ımites cumplen la ecuaci´on 2q(t) = t + q(t) . Luego 1 − t = q(t)2 − 2q(t) + 1 = 1 − q(t)
2
=⇒ q(t) = 1 − (1 − t)1/2 = f (t)
para todo t ∈ [0, 1]. (la otra ra´ız q(t) − 1 es negativa). O sea que tenemos convergencia puntual. Pero al estar f y todas las qn en C[0, 1] y ser crecientes, el criterio de Dini visto en el Ejer. 4.3.3 nos asegura que la convergencia qn −−−→ f es uniforme. n→∞
Para construir la ra´ız positiva de un A ∈ L(H)+ evaluaremos polinomios de coeficientes positivos en A. Para que todo camine nos falta esto: Lema 4.3.5. Sean H un EH y A ∈ L(H)+ . Luego An ∈ L(H)+ para todo n ∈ N. Demostraci´on. Se hace por inducci´on. El caso n = 1 es joda. Para n = 2, basta observar que A2 = A∗ A ∈ L(H)+ por la Ec. (4.11). Si ahora tomamos n > 2, la HI dice que 0 ≤ An−2 . Conjugando con A llegamos a que 0 ≤ A An−2 A = An por la Prop. 4.3.2. Teorema 4.3.6. Sean H un EH y A ∈ L(H)+ . Luego existe un u ´nico B ∈ L(H)+ tal que 2 1/2 B = A. De ahora en m´as la denotaremos B = A . Adem´as, se tiene que: Si C ∈ L(H) cumple que AC = CA =⇒ tambi´en A1/2 C = CA1/2 .
(4.23)
Demostraci´on. Asumamos en principio que A ≤ I. Si tomamos S = I − A vemos que tambi´en 0 ≤ S ≤ I. Por la Prop. 4.3.2, esto implica que kSk ≤ kIk = 1. Tomemos los polis qn del Lema 4.3.4 y definamos Sn = qn (S) para cada n ∈ N. Por las propiedades de 4.3.1, el Lema 4.3.5 y los coeficientes positivos de los qn , sale con fritas que todos los Sn ∈ L(H)+ . Recordemos que los qn convergen uniformemente en el [0, 1]. Por ello, dado un ε > 0 existe n0 ∈ N tal que cualquier par n, m ≥ n0 con n < m cumple que 0 ≤ qm (t) − qn (t) =
M X
αk (n , m) tk < ε
k=0
118
para todo
t ∈ [0, 1] ,
(4.24)
donde los αk (n , m) son ciertos coeficientes (los que den la cuenta) todos no negativos (por el item 2 del Lema 4.3.4) que terminan en alg´ un M ∈ N. Entonces vemos que M M
X
X k
Sm − Sn = qm (S) − qn (S) = αk (n , m) S ≤ αk (n , m) kSkk < ε .
k=0
k=0
Luego Sn = qn (S) −−−→ R ∈ L(H)+ . Haciendo una cuenta como la de reci´en sale que n→∞
kSn k = kqn (S)k ≤ qn ( kSk ) ≤ 1
(4.21)
n ∈ N =⇒ kRk ≤ 1 =⇒ 0 ≤ R ≤ I .
para todo
(4.22)
Nuestro candidato a ra´ız de A es I − R ∈ L(H)+ . Como qn (t)2 = 2 qn+1 (t) − t, entonces 2 (I − R)2 = l´ım I − Sn = l´ım I − 2 qn (S) + qn (S)2 n→∞
(4.22)
=
l´ım
n→∞
n→∞
I − 2 qn (S) + 2 qn+1 (S) − S
= I − S + 2 l´ım
n→∞
Sn+1 − Sn = I − S = A .
Luego podemos tomar A1/2 = I −R ∈ L(H)+ y tenemos al menos una ra´ız cuadrada positiva para A. Observar que, en tanto l´ımite de polinomios evaluados en A, nuestro A1/2 cumple la condici´on (4.23) sin problemas (en la Obs. 4.3.7 se ve bien de qu´e polinomios se trata). Tomemos ahora otra B ∈ L(H)+ tal que B 2 = A. Por (4.23), esta B (como conmuta con su cuadrado, que es A) conmuta con A1/2 . Entonces hagamos esta cuenta: (A1/2 − B)(A1/2 + B) x = (A − B 2 ) x = 0
para todo
x∈H.
def
Eso dice que (A1/2 − B) y = 0 para todo y ∈ S = R(A1/2 + B). Ya sabemos que en el subespacio S, las dos ra´ıces A1/2 y B coinciden. Veamos que pasa en S ⊥ = ker(A1/2 + B). El tema es que all´ı ambas se anulan. Mostr´emoslo para B: 0 ≤ hB z , zi ≤ h(A1/2 + B) z , zi = 0
para todo
z ∈ S⊥ .
Como ya hemos probado que alg´ un B 1/2 existe (no olvidar que B ∈ L(H)+ ), vemos que kB 1/2 zk2 = hB 1/2 z , B 1/2 zi = hB z , zi = 0 =⇒ B 1/2 z = 0
para esos z .
1/2 1/2 ⊥ Por lo tanto ver B z = B (B z) = 0 para z ∈ S . La misma cuenta se puede hacer para 1/2 que A S ⊥ ≡ 0. Despu´es de todo este laburo podemos afirmar (usando que S ⊕ S ⊥ = H) que B = A1/2 por lo que la ra´ız cuadrada positiva de A es u ´nica.
El caso general se pasa al anterior, porque todo A ∈ L(H)+ \ {0} cumple que (4.21)
A
≤
kAk I =⇒ C =
A ≤I . kAk
Luego basta tomar A1/2 = kAk1/2 C 1/2 . La unicidad tambi´en sale achicando. 119
Observaci´ on 4.3.7. Mantengamos las notaciones de los resultados anteriores sobre la ra´ız cuadrada. Si tenemos un A ∈ L(H)+ tal que 0 ≤ A ≤ I, los polinomios que convergen hacia su ra´ız A1/2 son, rastreando las cuentas del Teo. 4.3.6, los siguientes: k · k∞
pn (t) = 1 − qn (1 − t) −−−→ t1/2 n→∞
uiformemente en
[0, 1] .
En efecto, la convergencia sale de que los qn del Lema4.3.4 convergen a 1 − (1 − t)1/2 , y adem´as vimos en el Teo. 4.3.6 que A1/2 = I − R = l´ım I − qn (I − A) = l´ım pn (A). n→∞
n→∞
Lo importante del asunto es que los mismos polinomios pn cumplen que pn (A) −−−→ A1/2 n→∞
para todo
A ∈ L(H)+
tal que
0≤A≤I .
(4.25)
Repetimos: los polis no dependen de A. La misma sucesi´on produce la ra´ız de cualquier positivo menor que I. Otra cuesti´on importante es que pn (0) −−−→ 01/2 = 0. Luego podemos n→∞
cambiar a esos pn por Pn = pn − pn (0) y siguen produciendo las ra´ıces. Pero ahora todos tienen t´ermino constante nulo. Estos hechos se usar´an repetidamente en lo que sigue. 4 Corolario 4.3.8. Sea H un EH y sea A ∈ L(H). Luego vale que 1. Nuestro A ∈ L(H)+ ⇐⇒ existe un B ∈ L(H) tal que B ∗ B = A. 2. Si A ∈ L(H)+ y x ∈ H, entonces hA x , xi = 0 ⇐⇒ A x = 0 ⇐⇒ A1/2 x = 0. Demostraci´on. En la Ec. (4.11) vimos que cualquier B ∗ B ∈ L(H)+ . En cambio, si asumimos que A ∈ L(H)+ , basta tomar B = A1/2 . Si ahora A = B ∗ B ∈ L(H)+ y x ∈ H, entonces 0 = hA x , xi = hB ∗ B x , xi = hB x , B xi = kB xk2 =⇒ Ax = B ∗ (B x) = 0 .
Corolario 4.3.9. Sea H un EH y sean A, C ∈ A(H) tales que AC = CA. Entonces: 1. El producto AC ∈ A(H). 2. Si tanto A como C estaban en L(H)+ , entonces tambi´en AC ∈ L(H)+ . Demostraci´on. En principio (AC)∗ = C ∗ A∗ = CA = AC ∈ A(H). Si son positivos, el Teo. 4.3.6 dice que A1/2 C = CA1/2 . Luego, por la Prop. 4.3.2, tenemos que 0 ≤ C =⇒ 0 = A1/2 0 A1/2 ≤ A1/2 CA1/2
(4.23)
=
A1/2 A1/2 C = A C .
Ahora vamos a justificar la notaci´on de Gl (H)+ para los estrictamente positivos. Antes podemos refrasear su definici´on: Un A ∈ Gl (H)+ ⇐⇒ A ≥ c I para cierto c > 0. Proposici´ on 4.3.10. Sea H un EH. Luego Gl (H)+ = L(H)+ ∩ Gl (H). O sea que los estrictamente positivos son los positivos inversibles. Adem´as, si A ∈ Gl (H)+ vale que 1. A−1 ∈ Gl (H)+ . 120
def
2. A1/2 ∈ Gl (H)+ y su (A1/2 )−1 = (A−1 )1/2 = A−1/2 . 3. Si me dan un B ≥ A, entonces B ∈ Gl (H)+ y B −1 ≤ A−1 . Demostraci´on. Sea A ∈ Gl (H)+ . Es claro por las definiciones que ker A = {0}. Como A es (4.8)
normal, vale que R(A)⊥ = ker A =⇒ R(A) es denso. Si A no fuera epi no podr´ıa ser AI. Pero si existiera una sucesi´on (xn )n∈ N de unitarios tales que A xn −−−→ 0, entonces tambi´en n→∞
pasar´ıa que hA xn , xn i −−−→ 0, y eso contradice la definici´on de que A ∈ Gl (H)+ . n→∞
Sea ahora A ∈ L(H)+ ∩ Gl (H). Notar que la igualdad A = A1/2 A1/2 dice que H = R(A) ⊆ R(A1/2 )
y
{0} = ker A ⊇ ker A1/2 =⇒ A1/2 ∈ Gl (H) ∩ L(H)+ .
En particular existe una b > 0 tal que bkxk ≤ kA1/2 xk para todo x ∈ H (se puede tomar la constante b = k(A1/2 )−1 k−1 ). Luego hA x , xi = hA1/2 x , A1/2 xi = kA1/2 xk2 ≥ b2 kxk2 = b2 hx , xi
para todo
x∈H.
Tomando c = b2 nos queda que A ≥ c I por lo que A ∈ Gl (H)+ . Vimos que A ∈ Gl (H)+ =⇒ A1/2 ∈ Gl (H)+ . Llamemos B = (A1/2 )−1 ∈ A(H). Entonces A B 2 = (A1/2 )2 B 2 = I =⇒ A−1 = B 2 = B ∗ B ∈ L(H)+ =⇒ A−1 ∈ Gl (H)+ .
(4.26)
Probado el item 1, se lo podemos aplicar a A1/2 ∈ Gl (H)+ . Nos queda que su inverso B = (A1/2 )−1 ∈ Gl (H)+ . Por otro lado, la igualdad A−1 = B 2 significa (usando la unicidad del Teo. 4.3.6) que (A1/2 )−1 = B = (A−1 )1/2 . Desde ahora ser´a A−1/2 . Agarremos ahora un C ≥ I. Aplicando la Prop. 4.3.2 tenemos que I = C −1/2 C C −1/2 ≥ C −1/2 I C −1/2 = C −1 . def
Si tomamos ahora un B ≥ A ≥ cI, sale igual que C = A−1/2 BA−1/2 ≥ I. Luego I ≥ C −1 = A1/2 B −1 A1/2 =⇒ A−1 = A−1/2 A−1/2 ≥ A−1/2 (A1/2 B −1 A1/2 )A−1/2 = B −1 , como se aseveraba.
Observaci´ on 4.3.11. La notaci´on A > 0 es pol´emica. Bien podr´ıa haberse definido la noci´on de estrictamente positivo como que hA x , xi > 0 para todo x 6= 0. Cabe destacar que esto no equivale a que A ∈ Gl (H)+ . Al menos cuando dim H = ∞. Por ejemplo, podemos tomar el operador diagonal Mx ∈ L(`2 ) dado por la sucesi´on x = ( n1 )n∈N ∈ `∞ . Luego hMx y , yi =
X yn X |yn |2 yn = > 0 n n n∈N n∈N
para todo
y = (yn )n∈ N ∈ `2 \ {0} .
Sin embargo Mx ∈ / Gl (H) porque Mx en = enn para todo n ∈ N, por lo que el operador Mx no puede ser AI y menos inversible. De hecho hMx en , en i = n1 −−−→ 0 y no est´a acotado n→∞
121
desde abajo por ninguna c > 0. Nosotros elegimos que los re-positivos sean los inversibles, y estos otros ser´an muy positivos, pero no estrictamente. Una raz´on alternativa es que el interior de L(H)+ es solo Gl (H)+ , y estos muy positivos igual quedan en el borde de L(H)+ . En el ejemplo anterior es claro que Mx − m1 I −−−→ Mx , o sea que a Mx le converge una sucesi´on desde afuera de L(H)+ .
m→∞
Recordemos que, como siempre, esta disyuntiva desaparece si dim H < ∞. Esto es as´ı porque la c´ascara de la bola SH = {x ∈ H : kxk = 1} es compacta en ese caso. Luego, si nunca se anulan ah´ı, los productos hA x , xi deben quedar acotados desde abajo. 4 Ejercicio 4.3.12. Sea H un EH. Probar que el orden ≤ de A(H), restringido al conjunto P(H) de los proyectores, ah´ı s´ı produce un reticulado (con sup e ´ınf de a muchos). M´as espec´ıficamente, dados P, Q ∈ P(H) con R(P ) = S y R(Q) = M, entonces son equivalentes 1. P ≤ Q 2. S ⊆ M 3. P Q = QP = P def
4. Q − P ∈ P(H) (y proyecta sobre M S = M ∩ (S ∩ M)⊥ ). Luego el orden de P(H) coincide con el de la inclusi´on entre los S v H. Y estos subespacios cerrados tienen sup e ´ınf (a´ un de familias infinitas) sin dramas. Sugerimos usar que, v´ıa Pit´agoras, x ∈ M ⇐⇒ kxk2 = kQ xk2 .
4.4
4
Descomposici´ on polar.
Recordemos de la Ec. (4.11) que, dado un T ∈ L(H), se tiene que T ∗ T ∈ L(H)+ . Adem´as ker T ∗ T = ker T
para todo
T ∈ L(H) ,
(4.27)
porque hT ∗ T x , xi = kT xk2 para cada x ∈ H y T ∗ T ∈ L(H)+ . Definici´ on 4.4.1. Sea H un EH. A cada operador T ∈ L(H) le adjuntaremos un operador positivo |T | = (T ∗ T )1/2 ∈ L(H)+ llamado m´ odulo de T . 4 Dado T ∈ L(H), la principal semejanza entre T y |T | es que kT xk2 = hT x , T xi = hT ∗ T x , xi = h|T | x , |T | xi = k |T | xk2 para todo x ∈ H . (4.28) Luego es natural pensar que se los puede relacionar usando alg´ un tipo de isometr´ıa entre sus im´agenes. Esa es la idea de la descomposici´on polar. Antes de presentarla en sociedad necesitamos estudiar mejor las isometr´ıas parciales que ser´an un ingrediente clave:
122
4.4.2 (Isometr´ıas parciales). Sea H un EH. Dado un U ∈ L(H), dec´ıamos que U es isometr´ıa parcial (I P) si P = U ∗ U ∈ P(H) (o sea que es un proyector). Llamemos S = R(P ) v H. Veremos que en tal caso U se comporta de la siguiente manera: U S : S → U (S) es isom´etrico , mientras que U S ⊥ ≡ 0 . (4.29) En efecto, si recordamos que U ∗ U = P = PS , entonces vemos que kU zk2 = hU z , U zi = hP z , zi
para todo
z∈H.
Si el z ∈ S = R(P ), entonces tenemos que kU zk2 = hP z , zi = hz , zi = kzk2 . En cambio, si z ∈ S ⊥ = ker P , lo de arriba implica que U z = 0. Observar que (4.29) implica que ker U = S ⊥
y que
R(U ) = U (S) v H .
(4.30)
Otra consecuencia de (4.29) es la siguiente: Como R(I − P ) = S ⊥ = ker U , U (I − P ) = 0 =⇒ U P = U =⇒ U U ∗ U = U =⇒ (U U ∗ )(U U ∗ ) = U U ∗ ∈ P(H) , por lo que tambi´en U ∗ es una I P. Si ahora llamamos M = R(U U ∗ ), vimos antes que M⊥ = ker U ∗ = R(U )⊥ =⇒ M = R(U ) = R(U ) = U (S) . An´alogamente sale que U ∗ (M) = R(U ∗ ) = S y que ker U ∗ = M⊥ . Resumamos:
4
Proposici´ on 4.4.3. Sean H un EH y U ∈ L(H). Se cumple que U una I P ⇐⇒ existe un S v H tal que U cumple la Ec. (4.29) respecto de S .
(4.31)
En tal caso, si llamamos M = R(U ) y S = R(U ∗ ), valen las siguiente propiedades: 1. Tambi´en U ∗ es una I P. 2. Tanto M = (ker U ∗ )⊥ v H como S = (ker U )⊥ v H. 3. U U ∗ = PM y U ∗ U = PS . 4. U = PM U = U PS = PM U PS . En adelante, para decir que U es una I P, diremos que U : S → M es una I P “de S en M” , con “dominio” S e “imagen” M . Demostraci´on. Ya hicimos casi todo en 4.4.2. Solo falta el ⇐ de (4.31). Si existe un S v H tal que U cumple (4.29) con respecto a S y S ⊥ y denotamos por P = U ∗ U ∈ L(H)+ , es bien f´acil ver que kP k = kU k2 ≤ 1, por lo que 0 ≤ P ≤ I. Si z ∈ S, entonces hP z , zi = kU zk2 = kzk2 = hz , zi =⇒ h(I − P ) z , zi = 0 . Aplicando el Cor. 4.3.8 y el hecho de que I − P ≥ 0, llegamos a que P z = z para todo z ∈ S. Por otro lado, en S ⊥ tanto U como P deben anularse. En resumen, hemos probado que el producto U ∗ U = P = PS ∈ P(H), por lo que U : S → U (S) es una I P. 123
Teorema 4.4.4. Sea H un EH. Para todo operador T ∈ L(H) existe una U ∈ L(H) que es una I P, u ´nica si le exigimos que U : (ker T )⊥ → R(T ), tal que T = U |T |. Adem´as 1. U ∗ T = |T |. 2. T T ∗ = U (T ∗ T )U ∗ . 3. El otro m´odulo |T ∗ | = (T T ∗ )1/2 cumple que |T ∗ | = U |T |U ∗ . 4. Por lo tanto T = |T ∗ |U . La igualdad T = U |T | es la descomposici´on polar (DP) de T , mientras que T = |T ∗ |U (que sale con la misma U ) es la DP a derecha de T . Demostraci´on. Observar que (4.28) asegura que ker T = ker |T |. Luego si definimos U0 : R(|T |) → R(T ) ⊆ H
dada por
U0 (|T | x) = T x
para
x∈H,
(4.32)
tenemos que U0 est´a bien definida, es lineal e isom´etrica, otra vez por (4.28). Es claro que U0 se puede extender, manteniendo aquellas propiedades y su nombre, a una isometr´ıa U0 : R(|T |) → R(T ) v H . def
Observar que R(|T |) = (ker T )⊥ = S. Luego si extendemos a U0 a una U : H → H tal que U S = U0 y U S ⊥ ≡ 0 , nos queda que U = U0 ◦ PS ∈ L(H) y por la Ec. (4.31) ya tenemos que U : S → R(T ) es una I P. Adem´as, ella cumple que U |T | = U0 |T | = T por la Ec. (4.32). Si le fijamos el dominio S, esta U es la u ´nica I P que cumple T = U |T | porque cualquier otra, a trav´es de una cuenta tipo (4.32), tiene que coincidir con ella en R(|T |) que es denso all´ı. Como S = R(|T |) y U ∗ U = PS (Prop. 4.4.3), es claro que U ∗ T = U ∗ U |T | = |T |. Adem´as T T ∗ = (U |T |) (U |T |)∗ = U |T |2 U ∗ = U (T ∗ T )U ∗ . Observar U ∗ U = PS =⇒ T U ∗ U = T . Luego (T T ∗ )n = U (T ∗ T )n U ∗ para todo n ∈ N. Por ello, si tenemos un polinomio p ∈ R[x] tal que p(0) = 0, vale que p(T T ∗ ) = U p(T ∗ T )U ∗ . Asumamos que T ∗ T ≤ I y tambi´en T T ∗ ≤ I. Tomemos ahora los polinomios Pn ∈ R[x] de la Obs. 4.3.7. Recordar que Pn (0) = 0 para todo n ∈ N. Luego |T ∗ | = (T T ∗ )1/2 = l´ım Pn (T T ∗ ) = l´ım U Pn (T ∗ T )U ∗ n→∞
=U
n→∞
l´ım Pn (T ∗ T ) U ∗ = U (T ∗ T )1/2 U ∗ = U |T |U ∗ .
n→∞
El caso en que no sean menores que I se arregla con una constante positiva ad hoc. Finalmente, observar que T = T U ∗ U = (U |T |U ∗ )U = |T ∗ |U . 124
Notaci´ on 4.4.5. Sea T ∈ L(H). De ahora en adelante diremos que “ T = U |T | es la DP de T ” , o bien que “la DP de T est´a dada por T = U |T | ” cuando asumimos (o afirmamos) que U es la u ´nica I P del Teo. 4.3.6, con dominio (ker T )⊥ (la imagen no hace falta fijarla porque la igualdad T = U |T | dice quien es). En cambio diremos que “ T = V |T | es una DP de T ” si V ∈ L(H) es alguna I P que lo cumple, pero no aseguramos que es la I P posta del Teorema. 4 Observaci´ on 4.4.6. Sea T ∈ L(H) cuya DP est´a dada por T = U |T |. La iso parcial U no es u ´nica (en general) si uno no le fija el dominio S = (ker T )⊥ = R( |T | ). En efecto, si S 6= H y R(T ) no es denso en H, entonces se puede “extender” U a otra iso parcial V : N → M, definida en alg´ un N m´as grande que S, y tal que V S = U . Esto se ⊥ puede hacer mandando gente de S hacia R(T )⊥ isom´etricamente. Cualquiera de estas V cumplir´a que V |T | = U |T | = T , porque V S = V R( |T | ) = U . Lo natural que a uno se le ocurre es querer extender U hasta un V ∈ U(H). Lamentablemente, eso no siempre puede hacerse. En el Ejer. que viene veremos contraejemplos, pero tambi´en daremos una serie de condiciones bajo las cuales s´ı existe tal unitario V . Desde y´a podemos comentar que si T es mono, entonces su U es una isometr´ıa (ya no es parcial porque su dominio es (ker T )⊥ = H). Por ende si T es mono pero no tiene rango denso, la U ser´a una isometr´ıa que no es sobre (no queda unitaria) y no se la puede extender porque ya no queda lugar. 4 Observaci´ on 4.4.7. Veamos algunos casos especiales en los que la DP se describe bien. Las pruebas son directas y se dejan como ejercicio: Sea T ∈ L(H) cuya DP est´a dada por T = U |T |. Luego 1. Dada una constante λ = ei θ |λ| ∈ C, entonces |λ T | = |λ| |T |
y que
λ T = ei θ U
|λ| |T |
es la DP de
λT .
2. La (´ unica) DP de T ∗ est´a dada por T ∗ = U ∗ |T ∗ |. 3. Si T es normal y S = (ker T )⊥ es el dominio de U , entonces: (a) |T | = |T ∗ |. (b) Los tres operadores T , U y |T | conmutan entre s´ı. (c) Se tiene que U : S → S (recordar que ker T = R(T )⊥ ). 4. Si T ∈ A(H) entonces tambi´en U ∈ A(H) (porque U ∗ sirve como I P para T ). 5. Si empezamos con un T ∈ L(H)+ , entonces se tiene que |T | = T y que su DP estar´a dada por T = PR(T ) T (muy util en este caso).
125
6. Si T es una isometr´ıa, entonces T ∗ T = |T | = I y U = T . Es decir que la DP de T est´a dada por T = T I (m´as util a´ un). Notar que aqu´ı U es u ´nica (S = H). 7. Si T ∈ Gl (H), entonces s´ı vale que U = T |T |−1 ∈ U(H), y tambi´en en este caso esa U es la u ´nica I P posible para la DP de T . 8. Exhibir algunos ejemplos en que U no pueda ser reemplazada por un V ∈ U(H) (tal que T = V |T | ). Pensar en nuestro amigo el shift. ¿Qu´e pasa con su adjunto? 9. Si se cumple alguna de estas condiciones: (a) T es normal. (b) T es inversible. (c) dim H < ∞. Entonces s´ı existe un V ∈ U(H) que extiende a U , o sea que T = V |T | con V ∈ U(H). En el caso donde T es normal se usa que U : S → S. En el que dim H = n < ∞, sale porque dim R( |T | ) = dim R(T ) = n − dim ker T . 4 Ejercicio 4.4.8. Sea H un EH. Dada U : S → M una I P en L(H), a veces conviene presentarla como U : P → Q, donde P, Q ∈ P(H) son P = PS y Q = PM . Probar que 1. Dados P, Q ∈ P(H), vale que U : P → Q es una I P ⇐⇒ U ∗ U = P y U U ∗ = Q. 2. En particular toda P ∈ P(H) es una I P pensadda como P : P → P . 3. Definamos en P(H) la siguiente relaci´on: Dados P, Q ∈ P(H), P ∼ Q si existe una U ∈ L(H) tal que U ∗ U = P
y UU∗ = Q .
Obvio que tal U debe ser una I P. Esta relaci´on cumple lo que sigue: (a) Es una relaci´on de equivalencia. (b) Como tal es poco novedosa: Dados P, Q ∈ P(H), vale que P ∼Q
⇐⇒
dim R(P ) = dim R(Q) .
La gracia de ∼ es que su definici´on v´ıa las I P’s no usa los rangos, lo que permitir´a definirla en a´lgebras de operadores donde se´a mucho m´as util. 4
126
4.5
Subespacios invariantes y matrices
Sea T ∈ L(H). Uno de los problemas m´as famosos de la teor´ıa de operadores es el de caracterizar los subespacios invariantes de un tal T . Lo famoso es una conjetura que dice que todo T debe tener alguno, aparte de los obvios H y {0}. Entre las matrices la cosa no tiene gracia, porque uno sabe que hay autovectores, que por serlo generan “rectas” invariantes. Pero si alguno de los amigos lectores pudiese probar tal conjetura para H = `2 (N), seguro que inventar´ıan el Nobel de matem´atica para d´arselo. Les anticipo que casi todos los matem´aticos, cuando curs´abamos funcional, encontramos alguna prueba de eso. L´astima que todav´ıa no hubo ni una que fuera correcta. As´ı que revisen los detalles. En esta secci´on no iremos para ese lado, pero s´ı daremos algunas propiedades interesantes que aparecen cuando uno ya tiene a tales subespacios. Y las matrices que se usan para ello. Definici´ on 4.5.1. Sean H un EH y T ∈ L(H). Dado un subespacio S ⊆ H diremos que – S es invariante por T , o que es T - invariante, si T (S) ⊆ S. – S reduce a T si tanto S como S ⊥ son T - invariantes. – Daremos la siguiente notaci´on para las familias de tales subespacios Lat (T ) = S v H : T (S) ⊆ S y Latr (T ) = S v H : S reduce a T . Observaci´ on 4.5.2. Sean H un EH y T ∈ L(H). Hay varias cosas para comentar sobre la definici´on anterior. Las pruebas son f´aciles y van como ejercicio. 1. Notar que si un S es T -invariante, entonces S ∈ Lat (T ). 2. Si ahora S v H y consideramos el PS ∈ P(H), entonces S ∈ Lat (T )
⇐⇒ T PS = PS T PS
y (4.33)
S ∈ Latr (T )
⇐⇒ T PS = PS T
i.e., si T y PS conmutan .
Identificando S ←→ PS pordemos pensar que Latr (T ) ⊆ Lat (T ) ⊆ P(H). 3. La notaci´on Lat viene de latice o reticulado. Observar que dados S , M ∈ Lat (T ), def
S ∧ M = S ∩ M ∈ Lat (T )
y
def
S ∨ M = S + M ∈ Lat (T ) .
Lo mismo vale para Latr (T ), porque dados S , M v H cualesquiera (S ∨ M)⊥ = (S + M)⊥ = S ⊥ ∧ M⊥
y
(S ∧ M)⊥ = S ⊥ ∨ M⊥ .
(4.34)
La primera sale f´acil y la segunda de deduce de la primera poniendo otro ⊥ . El orden en cuati´on es ⊆ . Adivinen quienes son max Latr (T ) y m´ın Latr (T ). 4
127
Proposici´ on 4.5.3. Sean H un EH y T ∈ L(H). Dado un S v H, las suguientes condiciones son equivalentes: 1. El tal S reduce a T , o sea que S ∈ Latr (T ). 2. Lo mismo para T ∗ : S ∈ Latr (T ∗ ). 3. Se cumple que T (S) ⊆ S y T ∗ (S) ⊆ S, es decir S ∈ Lat (T ) ∩ Lat (T ∗ ). Demostraci´on. Sea P = PS ∈ P(H). Del hecho de P sea autoadjunto se ve en seguida que
T P = P T ⇐⇒ P T ∗ = T ∗ P
(4.33)
=⇒
S ∈ Latr (T ) ⇐⇒ S ∈ Latr (T ∗ )
.
Es claro que cualquiera de las anteriores implica que S ∈ Lat (T )∩Lat (T ∗ ). Pero si asumimos esto, por (4.33) sale que T P = P T P y adem´as T ∗ P = P T ∗ P =⇒ P T = T P . Listo. Corolario 4.5.4. Sea H un EH. Si A ∈ A(H) entonces Lat (A) = Latr (A), por lo que todo S v H que sea A-invariante cumple autom´aticamente que S ⊥ es tambi´en A-invariante. Demostraci´on. Evidente a partir de la Prop. 4.5.3.
Ejemplo 4.5.5. Sea H = `2 (Z) y U ∈ U(H) el shift unitario hacia la derecha. Hay libros enteros sobre c´omo es el conjunto Lat (U ). Pero veamos algunos ejemplos sencillos: Sea B = {en : n ∈ Z} la BON can´onica de H. Recordemos que U est´a caracterizado por el hecho de que U (en ) = en+1 para todo n ∈ Z. Por lo tanto todos los subespacios Sn = span {em : m ≥ n} v H cumplen que Sn ∈ Lat (U ). De hecho podemos ser m´as espec´ıficos, porque uno muestra de inmediato que U (Sn ) = Sn+1 ⊆ Sn
para todo
n∈Z.
(4.35)
Observar que U , en tanto unitario, es normal. Cuando uno labura en un Hilbert de dimensi´on finita, es un ejercicio f´acil ver que el Cor. 4.5.4 se generaliza a matrices normales. Sin embargo el shift tiene una actitud contraejemplar. En efecto, U es normal, todos los Sn ∈ Lat (U ), pero ninguno de ellos est´an en Latr (U ). Para mostrarlo basta ver que en ∈ Sn
pero
U ∗ = U −1 =⇒ U ∗ en = en−1 ∈ / Sn =⇒ Sn ∈ / Lat (U ∗ )
para todo n ∈ Z. Luego la Prop. 4.5.3 no permite que los Sn reduzcan a U .
4
Matrices de 2 × 2 4.5.6. Sea H un EH. Fijado un S v H llamemos P1 = PS y P2 = PS ⊥ = I − P1 . Para dar coherencia a los sub´ındices pongamos que S1 = S y S2 = S ⊥ . Si ahora agarramos un T ∈ L(H), a partir de la descomposici´on H = S ⊕ S ⊥ podemos pensar que la acci´on de T : S ⊕ S ⊥ → S ⊕ S ⊥ se describir´a completamente con cuatro mitades del T operado entre los cuatro sumandos en cuesti´on. Concretamente, de ahora en m´as escribiremos T11 T12 S T11 T12 S1 T = donde Tij = Pi T Pj ∈ L(Sj , Si ) , (4.36) ⊥ = T21 T22 S T21 T22 S2 128
para i , j ∈ {1 , 2}. Tambi´en podr´ıamos pensar que cada Tij = Pi T |Sj ∈ L(Sj , Si ). Es muy importante remarcar que estamos pensando a los Tij operando desde Sj hacia Si y no en todo L(H). Estos datos recuperan a T , porque si me dan un x ∈ H y lo descompongo como x = x1 + x2 ∈ S1 ⊕ S2 , entonces podemos ver f´acimente que T x = P1 T x + P2 T x = T11 x1 + T12 x2 + T21 x1 + T22 x2 ∈ S1 ⊕ S2 = H . Pero mejor todav´ıa es pensar que x = (x1 , x2 ) (vector columna) y entonces T11 T12 x1 S1 T11 x1 + T12 x2 Tx= = ∈ S1 ⊕ S2 = H . T21 T22 x2 S2 T21 x1 + T22 x2 La gracia de hacer esta representaci´on es que tiene las propiedades usuales de las matrices: 1. Si B ∈ L(H) y le hacemos su matriz como en (4.36), queda que la matriz de B T se calcula como el producto formal de sus dos matrices de bloques de 2 × 2: B11 T11 + B12 T21 B11 T12 + B12 T22 S1 B11 B12 T11 T12 BT = = . B21 B22 T21 T22 B21 T11 + B22 T21 B21 T12 + B22 T22 S2 Observar que todos los productos y sumas en cuesti´on tienen sentido, y quedan ubicados de acuerdo al dominio y codominio de cada bloque que interviene. 2. Lo que vimos hasta ahora se puede hacer en un contexto m´as general: Basta que P12 = P1 y que P2 = I − P1 , pero no es imprescindible que ellos sean ortogonales. La f´ormula del producto de arriba y otras que veremos m´as adelante seguir´an valiendo en aquel contexto. Esto es importante sobre todo si uno labura en L(E) donde E es s´olo un Banach, por lo que autoadjuntos ni hay. Sin embargo, nos quedaremos en el caso de que P1 , P2 ∈ P(H) porque en tal caso la representaci´on matricial funciona bien con la operaci´on de tomar adjuntos. En efecto, si T ∈ L(H), nos quedar´a que ∗ S A C∗ A B S ∗ , (4.37) =⇒ T = T = ∗ ∗ ⊥ B D S⊥ C D S es decir que la matriz de T ∗ es una especie de transpuesta conjugada de bloques. La prueba es inmediata a aprtir de (4.36). Observar que todo camina porque cada proyector Pi∗ = Pi . Por eso la observaci´on anterior es clave para esto. Ejercicio 4.5.7. En lo anterior se us´o impl´ıcitamente esto: Sean H , K dos EH’s. Generalizar a los T ∈ L(H , K) la noci´on de adjunto T ∗ ∈ L(K , H) tal que hT x , yiK = hx , T ∗ yiH
para todo par
x ∈ H, y ∈ K ,
(4.38)
y todas las propiedades que puedan sobrevivir en este contexto. Se sugiere considerar 0 0 H 0 S H ∗ (4.37) AT = ∈ L(H ⊕ K) usando que AT = , T 0 K 0 0 K y que el tal S ∈ L(K , H) cumple (4.38) contra T , as´ı que uno define T ∗ = S. 129
4
3. Fijens´e que la Ec. (4.37) nos dice c´omo son las matrices de los autoadjuntos: A B S T = ∈ A(H) ⇐⇒ A ∈ A(S) , D ∈ A(S ⊥ ) C D S⊥
(4.39)
y C = B ∗ ∈ L(S , S ⊥ ) . 4. Remarquemos c´omo quedan nuestros proyectores en esta repre: IS 0 S 0 0 S PS = y PS ⊥ = . 0 0 S⊥ 0 IS ⊥ S⊥
(4.40) 4
Ahora veremos una conscuencia interesante de estos hechos: Proposici´ on 4.5.8. Sean H un EH , S v H y T ∈ L(H). Si T = 1. El S ∈ Lat (T ) ⇐⇒ C = 0 ⇐⇒ T =
A B 0 D
A B C D
S , luego S⊥
es “triangular superior” de bloques.
2. En cambio nuestro subespacio S reduce a T si y s´olo si A 0 B = 0 y C = 0 ⇐⇒ T = es “diagonal” de bloques . 0 D Demostraci´on. Usando la versi´on matricial de P = PS dada en (4.40), tenemos que (4.33) A 0 A 0 S ∈ Lat (T ) ⇐⇒ T P = P T P ⇐⇒ T P = = = PTP , C 0 0 0 A B I 0 A 0 porque por ejemplo T P = = . Otra forma de verlo es que si C D 0 0 C 0 x ∈ S entonces T x ∈ S ⇐⇒ PS ⊥ T x = 0. Pero PS ⊥ T |S es justamente C ∈ L(S , S ⊥ ). Sabiendo esto, para probar la otra parte basta recordar que Latr (T ) = Lat (T ) ∩ Lat (T ∗ ) (por la Prop. 4.5.3), y despu´es aplicar la Ec. (4.37). Ejercicio 4.5.9.
1. Dado S v H, probar que un Q ∈ L(H) cumple que IS X S 2 Q = Q con R(Q) = S ⇐⇒ Q = , 0 0 S⊥
para alg´ un X ∈ L(S ⊥ , S). ¿C´omo ser´an lo idempotentes R tales que ker R = S? 1/2 2. Deducir que kQk = 1 + kXk2 = kIH − Qk. Es interesante observar que la igualdad kQk = kIH − Qk, que vale para todos los proyectores oblicuos Q ∈ P(H) en un espacio de Hilbert, no sigue siendo cierta para proyectores en un espacio de Banach, a pesar de la f´ormula (2.28) que parec´ıa tan sim´etrica. 4 130
Ejercicio 4.5.10. Sean T ∈ L(H) y S ∈ Lat (T ). Si vale que dim S < ∞ probar que 1. Si T ∈ Gl (H), entonces T (S) = S y por ello S ∈ Lat (T −1 ). 2. Usando lo anterior, probar que se tiene esta equivalencia: A B S T = ∈ Gl (H) ⇐⇒ A ∈ Gl(S) y 0 D S⊥
D ∈ Gl(S ⊥ ) .
(4.41)
Ac´a es imprescindible recordar que A y D operan s´olo en sus “lugares”. 3. Mostrar un ejemplo donde lo anterior falle si dim S = ∞. 4. Probar que a´ un en tal caso, la flecha ⇐= de (4.41) sigue siendo v´alida. 5. Si ahora S ∈ Latr (T ) y tiene cualquier dimensi´on, postular y probar una versi´on de (4.41) para ese caso. 4
4.6
Operadores de rango finito.
Notaciones 4.6.1. Sea H un EH. Dado T ∈ L(H), notamos rk(T ) = dim R(T ) (es un cardinal). Por otra parte, conbsideraremos los siguientes conjuntos de operadores: 1. L1 (H) = {T ∈ L(H) : rk(A) ≤ 1}. 2. LF (H) = {T ∈ L(H) : rk A < ∞}. Observar que LF (H) es un subespacio de L(H), porque rk(A + B) ≤ rk A + rk B < ∞ para cualquier par A , B ∈ LF (H). Su clausura la estudiremos a fondo m´as adelante. A continuaci´on daremos una caracterizaci´on muy util de los A ∈ L1 (H). 4 Observar que un x ∈ H se puede pensar como un operador x : K → H por la f´ormula x ∈ L(K , H)
dado por
x(λ) = λ x
para
λ∈K.
Es claro que su norma como operador coincide con la que ten´ıa como vector. Por lo tanto tenemos que H ∼ = L(K , H), donde una flecha es la de arriba, y su inversa es x 7→ x(1). Pensado as´ı, el teorema de representaci´on de Riesz 3.3.1 lo que dice es que todas las funcionales acotadas ϕ ∈ H∗ son del tipo ϕ = y ∗ para alg´ un y ∈ H ∼ = L(K , H). En efecto, si tomamos tal y, pensado como operador, su adjunto cumple que y ∗ ∈ L(H , K) = H∗
and
y ∗ (z) = hy ∗ (z) , 1i = hz , y(1)i = hz , yi ,
para todo z ∈ H, por lo que y ∗ es nuestra vieja ϕy de Riesz. Ahora los tensores:
131
Definici´ on 4.6.2. Sea H un EH. Dados x , y ∈ H consideremos el operador x y = x ◦ y ∗ ∈ L(H) . def
(4.42)
Observar que x y act´ ua en H de la siguiente manera: x y(z) = x ◦ y ∗ (z) = y ∗ (z) · x = hz, yi x
para todo z ∈ H .
Por lo tanto, se tiene que R(x y) ⊆ span {x}, por lo que x y ∈ L1 (H).
(4.43) 4
def
Por ejemplo, si x ∈ H tiene kxk = 1, entonces Px = x x ∈ P(H) ∩ L1 (H) es el proyector sobre span {x}. En efecto, observar que x x(z) = hz, xi · x, la conocida f´ormula de dicho proyector. Otra forma de verlo es que el tal x ∈ L(K , H) es una isometr´ıa, por lo que x x∗ ∈ P(H) con el mismo rango que x, o sea K · x = span {x}. Proposici´ on 4.6.3. Sea H un EH. Si A ∈ L(H), se tiene que A ∈ L1 (H) ⇐⇒ existen z , w ∈ H tales que A = z w . Es decir que L1 (H) = {z w : z , w ∈ H}. Demostraci´on. Si rkA = 1, tomemos z ∈ R(A) unitario. Luego R(A) = K · z. Entonces para todo x ∈ H vale que A x = ϕ(x) · z, donde uno verifica sin dificultad que la ϕ ∈ H∗ . Todo termina eligiendo el w ∈ H que cumple que ϕ = ϕw = w∗ . A continuaci´on va un lista con las propiedades b´asicas de los tensores: Proposici´ on 4.6.4. Sea H un EH. Fijemos x , y ∈ H. Luego: 1. La norma: kx yk = kxk kyk. 2. El adjunto: (x y)∗ = (xy ∗ )∗ = y x∗ = y x. 3. El espectro: El u ´nico autovalor de x y que puede ser no nulo es λ1 = hx, yi. 4. Si A , B ∈ L(H), se tiene que A ◦ x = A x ∈ L(K , H). Luego ∗ A · (x y) = A · x · y ∗ = (Ax) y and (x y) · B = B ∗ · (y x) = x (B ∗ y) . 5. Dados v , w ∈ H, se tiene que (x y) · (v w) = hv, yi · x w ∈ L1 (H). 6. Si x 6= 0, el proyector Px =
x kxk
x kxk
=
1 kxk2
x x .
Demostraci´on. Algunos items vienen con su prueba. Veamos el de las normas: Tenemos que kx y(z)k = |hz , yi| kxk = | y ∗ (z)| kxk
para todo
z∈H.
Recordar que y 7→ y ∗ = h · , yi era isom´etrica. As´ı sale que kx yk = kxk kyk.
132
4.6.5 (I P’s con rango finito). Si ahora tomamos x , y ∈ H ambos unitarios, entonces U = x y : Py → Px
es una I P .
En efecto, se tiene que U ∗ U = (y x) · (x y) = y y mientras que U U ∗ = x x. Esto se puede generalizar del siguiente modo: Si B1 = {uk : k ∈ In } y B2 = {vk : k ∈ In } son dos SON’s finitos del mismo cardinal, y llamamos S = span {B1 } , M = span {B2 }, entonces X U= vk uk : S → M es una I P . k∈ In
En efecto, si B1 = B2 , usando (3.13) sale que PS =
P
Puk = U . Si no son iguales,
k∈ In
U ∗U =
X
uj vj · vk uk =
j , k∈ In
X
hvk , vj i uj uk =
j , k∈ In
X
uk uk = PS
k∈ In
An´alogamente sale que U U ∗ = PM . Observar que cada vk = (vk uk ) uk = U uk . De hecho, as´ı se representa cualquier V ∈ LF (H) que sea I P. M´as concretamente, si la I P es V : N → T y nos dan B = {wk : k ∈ In } que es una BON de N , entonces V (B) es una BON de T y, si llamamos yk = V wk para cada k ∈ In , queda que X yk wk . V = k∈ In
En efecto, como V es iso desde N hasta T , luego dim N = dim T = n < ∞. El resto de la cuenta sale porque ambas expresiones tienen el mismo dominio y coinciden en cada wk . 4 4.6.6 (Operadores de rango finito). Si tomamos ahora cualquier T ∈ LF (H) y tomamos B1 = {uk : k ∈ In } una BON de S = (ker T )⊥ , entonces vale la f´ormula P P T = T PS = T uk uk = T uk uk . k∈ In
k∈ In
Esto muestra que LF (H) = span {L1 (H)}. Observar que LF (H) no s´olo es un subespacio, sino que es un ideal bil´atero del a´lgebra L(H). Esto sale por el item 4 de la Prop. 4.6.4. Pero mejor a´ un, si T = U |T | es la DP de T , podemos pensar a |T | : S → S. Ah´ı |T | tiene una BON de autovectores, as´ı que asumimos que cada |T | uk = sk (T ) uk , donde los sk (T ) > 0 son los autovalores de |T | dentro de S, tambi´en llamados valores singulares de T . Adem´as, como U : S → U (S) = R(T ), nos queda que U (B) es una BON de R(T ). Si llamamos a cada U uk = vk , nos queda la hermosa f´ormula P P T = U |T | = U sk (T ) uk uk = sk (T ) vk uk , (4.44) k∈ In
k∈ In
que describe todo T ∈ LF (H) en t´erminos de dos SON’s (uno genera S y el otro el R(T ) ) y de los valores singulares de T . Observar que la Ec. (4.44) nos asegura de una que si T ∈ LF (H), entonces tambi´en T ∗ ∈ LF (H). Este tipo de expresiones ser´an generalizadas (a series) en el Cap´ıtulo de operadores compactos. 4 133
Observaci´ on 4.6.7. Casi todo lo que vimos en esta secci´on se puede generalizar a operdores entre dos Hilberts distintos. Por ejemplo, si x ∈ K and y ∈ H, entonces x y ∈ L1 (H , K), y ellos generan el subespacio LF (H , K) (con las definiciones obvias). M´as a´ un, todo lo anterior (salvo lo que use la * y la DP) se puede generalizar a un espacio de Banach E y sus operadores L(E). All´ı habr´a que usar tensores ϕ x para x ∈ E y ϕ ∈ E ∗ . As´ı podemos hacer que act´ uen haciendo ϕ x(z) = ϕ(z) · x para z ∈ E. Y ya que estamos, tambi´en se hace en L(E , F ) donde F es otro EB. Dejamos como ejercicio (para el lector ten´az) reescribir toda la secci´on en cada uno de estos contextos nuevos. 4
134
4.7
Ejercicios del Cap 4: Operadores en EH’s
Ejercicios aparecidos en el texto 4.7.1. Veamos m´ as detalles en un espacio producto tipo el del Ejer. 3.8.7, cuando son 2 coordenadas. Sean H y K dos EH’s. Luego el espacio H ⊕ K con la estructura usual de C-EV (sumando y multiplicando por escalares en cada coordenada) y el PI dado por
(x1 , y1 ) , (x2 , y2 ) = hx1 , x2 iH + hy1 , y2 iK
para
(x1 , y1 ) , (x2 , y2 ) ∈ H ⊕ K
es un nuevo EH. Se llama la “suma ortogonal” de H y K. Probar que 1. Dado un (x , y) ∈ H ⊕ K su norma cumple que k (x , y) k2 = kxk2H + kyk2K . 2. La convergencia es en las dos coordenadas a la vez. Deducir que H ⊕ K era completo. 3. Dados subespacios S ⊆ H y T ⊆ K su suma S ⊕ T ⊆ H ⊕ K es un subespacio tal que S ⊕T =S ⊕T
ya que
(S ⊕ T )⊥ = S ⊥ ⊕ T ⊥ .
4. La flecha H 3 x 7→ (x , 0) ∈ H ⊕ {0} v H ⊕ K es una isometr´ıa y por ello h´omeo con la imagen. 5. Idem para K ,→ {0} ⊕ K v H ⊕ K. 6. Con las identificaciones del caso, queda que H⊥ = K y que K⊥ = H, siempre dentro de H ⊕ K. Dados ahora M ∈ L(H) y N ∈ L(K), sea M ⊕ N ∈ L(H ⊕ K)
dado por
M ⊕ N (x , y) = (M x , N y) ∈ H ⊕ K
para cada par (x , y) ∈ H ⊕ K. Se los llama “diagonales”. Probar las siguientes cosas: 1. Primero hay que verificar que efectivamente M ⊕ N ∈ L(H ⊕ K). 2. M´ as a´ un, se tiene que kM ⊕ N k = max{ kM k , kN k }. 3. Entre estos operadores, las operaciones sumar, multiplicar (i.e. componer), adjuntar e invertir (si se puede), se hacen en cada coordenada. 4. Dado λ ∈ K se tiene que M ⊕ N − λ IH⊕K ∈ Gl (H ⊕ K) ⇐⇒ M − λ IH ∈ Gl (H) y N − λ IK ∈ Gl (K). 5. R(M ⊕ N ) = R(M ) ⊕ R(N ) ⊆ H ⊕ K, y es cerrado ⇐⇒ ambos rangos lo son. 6. ker(M ⊕ N ) = ker M ⊕ ker N v H ⊕ K. 7. Un T ∈ L(H ⊕ K) es de estos diagonales ⇐⇒ conmuta con las proyecciones a PH y PK .
4
4.7.2. Sea T ∈ L(H). Probar que T es normal ⇐⇒ A = Re T
conmuta con B = Im T ,
y que en tal caso T ∗ T = T T ∗ = A2 + B 2 . Suena conocido, no? 4.7.3. Sea H un EH. Trabajemos dentro de A(H) pensado como un R-EN. Probar que 1. El conjunto L(H)+ es un cono convexo cerrado dentro de A(H). 2. Gl (H)+ = {A ∈ A(H) : A ≥ c I para alg´ un c > 0} es exactamente el interior de L(H)+ .
135
(4.45) 4
3. Deducir que Gl (H)+ es abierto en A(H).
4
4.7.4 (Criterio de Dini). Sea f = (fn )n∈ N una sucesi´on en C[0, 1] que cumple: 1. Existe f ∈ C[0, 1] tal que fn (t) −−−−→ f (t) para todo t ∈ [0, 1]. n→∞
2. La sucesi´ on f es creciente: fn (t) ≤ fn+1 (t) para todo n ∈ N y todo t ∈ [0, 1]. Con esas hip´ otesis probar que la convergencia fn −−−−→ f es uniforme en todo [0, 1].
4
n→∞
4.7.5. Sea H un EH. Probar que el orden ≤ de A(H), restringido al conjunto P(H) de los proyectores, es un reticulado (con sup e ´ınf de a muchos). M´as espec´ıficamente, probar que 1. Dados P, Q ∈ P(H) con R(P ) = S y R(Q) = M, entonces son equivalentes (a) P ≤ Q (b) S ⊆ M (c) P Q = P
o tambi´en
(c’) QP = P
(d) Q − P ∈ P(H). def
2. En tal caso Q − P = PM S , donde M S = M ∩ (S ∩ M)⊥ . 3. Deducir que el orden de P(H) coincide con el de la inclusi´on entre los S v H. 4. Verificar que los subespacios cerrados tienen sup e ´ınf (a´ un de familias infinitas) sin dramas. Sugerimos usar que, v´ıa Pit´ agoras, x ∈ M ⇐⇒ kxk2 = kQ xk2 .
4
4.7.6. Sea T ∈ L(H) cuya DP est´ a dada por T = U |T |. Probar que: 1. Dada una constante λ = ei θ |λ| ∈ C, entonces |λ T | = |λ| |T |
y que
λ T = ei θ U
|λ| |T |
es la DP de
λT .
2. La (´ unica) DP de T ∗ est´ a dada por T ∗ = U ∗ |T ∗ |. 3. Si T es normal y S = (ker T )⊥ es el dominio de U , entonces: (a) |T | = |T ∗ |. (b) Los tres operadores T , U y |T | conmutan entre s´ı. (c) Se tiene que U : S → S (recordar que ker T = R(T )⊥ ). 4. Si T ∈ A(H) entonces tambi´en U ∈ A(H) (porque U ∗ sirve como I P para T ). 5. Si T ∈ Gl (H), entonces s´ı vale que U = T |T |−1 ∈ U(H), y que U es la u ´nica I P posible para la DP de T . 6. Si T es una isometr´ıa, entonces T ∗ T = |T | = I y U = T . Es decir que la DP de T est´a dada por T = T I (muy util en este caso). Tambi´en aqu´ı U es u ´nica (S = H). 7. Exhibir algunos ejemplos en que U no pueda ser reemplazada por un V ∈ U(H) (tal que T = V |T | ). Pensar en nuestro amigo el shift. ¿Qu´e pasa con su adjunto? 8. Si se cumple alguna de estas condiciones: (a) T es normal.
136
(b) T es inversible. (c) dim H < ∞. Entonces s´ı existe un V ∈ U(H) que extiende a U , o sea que T = V |T | con V ∈ U(H). Sug: En el caso de T normal usar que U : S → S. En el que dim H = n < ∞, usar que dim R( |T | ) = dim R(T ) = n − dim ker T . 4 4.7.7. Sea H un EH. Dada U : S → M una I P en L(H), a veces conviene presentarla como U : P → Q, donde P, Q ∈ P(H) son P = PS y Q = PM . Probar que 1. Dados P, Q ∈ P(H), vale que U : P → Q es una I P ⇐⇒ U ∗ U = P y U U ∗ = Q. 2. En particular toda P ∈ P(H) es una I P pensadda como P : P → P . 3. Definamos en P(H) la siguiente relaci´on: Dados P, Q ∈ P(H), P ∼ Q si existe una U ∈ L(H)
tal que
U ∗U = P
y UU∗ = Q .
Obvio que tal U debe ser una I P. Esta relaci´on cumple lo que sigue: (a) Es una relaci´ on de equivalencia. (b) Como tal es poco novedosa: Dados P, Q ∈ P(H), vale que P ∼Q
⇐⇒
dim R(P ) = dim R(Q) .
La gracia de ∼ es que su definici´ on v´ıa las I P’s no usa los rangos, lo que permitir´a definirla en ´algebras de operadores donde se´ a mucho m´ as util. 4 4.7.8. Sean H un EH y T ∈ L(H). Probar que 1. Si un subespacio S es T -invariante, entonces S ∈ Lat (T ). 2. Si ahora S v H y consideramos el PS ∈ P(H), entonces S ∈ Lat (T )
⇐⇒ T PS = PS T PS
y (4.46)
S ∈ Latr (T )
⇐⇒ T PS = PS T
i.e., si T y PS conmutan .
Identificando S ←→ PS pordemos pensar que Latr (T ) ⊆ Lat (T ) ⊆ P(H). 3. La notaci´ on Lat viene de latice o reticulado. Mostrar que dados S , M ∈ Lat (T ), def
S ∧ M = S ∩ M ∈ Lat (T )
y
def
S ∨ M = S + M ∈ Lat (T ) .
4. Lo mismo vale para Latr (T ), porque dados S , M v H cualesquiera (S ∨ M)⊥ = (S + M)⊥ = S ⊥ ∧ M⊥
y
(S ∧ M)⊥ = S ⊥ ∨ M⊥ .
4
4.7.9. Sea H un EH. Dado T ∈ L(H), probar que Latr (T ) = Lat (T ) ∩ Lat (T ∗ ). 4.7.10. Sea H un EH. En el Cor. 4.5.4 se prob´o que si A ∈ A(H) entonces Lat (A) = Latr (A), o sea que todo S v H que sea A-invariante cumple autom´aticamente que S ⊥ es tambi´en A-invariante. 1. Probar a mano que lo de arriba es cierto.
137
2. Si ahora N ∈ L(H) es normal, mostrar que la igualdad Lat (N ) = Latr (N ) sigue valiendo si uno asume que dim H < ∞. 3. Sean H = `2 (Z) y U ∈ U(H) el shift unitario hacia la derecha. Observar que U , en tanto unitario, es normal. Sea B = {en : n ∈ Z} la BON can´onica de H. (a) Mostrar que U est´ a caracterizado por el hecho de que U (en ) = en+1 para todo n ∈ Z. (b) Los subespacios Sn = span {em : m ≥ n} v H cumplen que Sn ∈ Lat (U ). (c) De hecho podemos ser m´ as espec´ıficos: U (Sn ) = Sn+1 ⊆ Sn
n∈Z.
para todo
(4.47)
(d) Probar que, sin embargo, ningumo de los Sn ∈ Latr (U ). Sug: Mostrar primero que Sn ∈ / Lat (U ∗ ) para todo n ∈ Z.
4
4.7.11. Verificar los detalles de todas las cuentas matriciales de 4.5.6.
4
4.7.12.
1. Dado S v H, probar que un Q ∈ L(H) cumple que Q2 = Q
con
R(Q) = S ⇐⇒ Q =
IS 0
X 0
S , S⊥
para alg´ un X ∈ L(S ⊥ , S). ¿C´ omo ser´an lo idempotentes R tales que ker R = S? 2. Deducir que kQk = 1 + kXk2
1/2
= kIH − Qk.
4
4.7.13. Sean T ∈ L(H) y S ∈ Lat (T ). Si vale que dim S < ∞ probar que 1. Si T ∈ Gl (H), entonces T (S) = S y por ello S ∈ Lat (T −1 ). 2. Usando lo anterior, probar que se tiene esta equivalencia: S A B ∈ Gl (H) ⇐⇒ A ∈ Gl(S) T = 0 D S⊥
y
D ∈ Gl(S ⊥ ) .
(4.48)
Ac´ a es imprescindible recordar que A y D operan s´olo en sus “lugares”. 3. Si se cumple lo de (4.48), describir la matriz de T −1 . 4. Mostrar un ejemplo donde (4.48) falle si dim S = ∞. 5. Probar que a´ un en tal caso, la flecha ⇐= de (4.48) sigue siendo v´alida. 6. Si S ∈ Latr (T ) y tiene cualquier dimensi´on, postular y probar una versi´on de (4.48) para ese caso. 7. De nuevo en el caso S ∈ Latr (T ), comparar la representaci´on matricial de T con los operadores diagonales A ⊕ D ∈ L(S ⊕ S ⊥ ) del Ejer. 4.7.1. 4 4.7.14. Sean H , K dos EH’s. Generalizar a los T ∈ L(H , K) la noci´on de adjunto T ∗ ∈ L(K , H) tal que hT x , yiK = hx , T ∗ yiH
para todo par
x ∈ H, y ∈ K ,
y de todas las propiedades que puedan sobrevivir en este contexto. Se sugiere considerar el operador 0 0 H 0 T∗ H ∈ L(H ⊕ K) usando que A∗T = . AT = T 0 K 0 0 K
138
(4.49)
4
4.7.15. Sea H un EH. Fijemos x , y ∈ H. Recordemos que el tensor x y ∈ L1 (H) era x y(z) = x ◦ y ∗ (z) = y ∗ (z) · x = hz, yi x
para todo z ∈ H .
Probar las siguientes cosas: 1. Vale que R(x y) = span {x} y que su n´ ucleo es ker x y = {y}⊥ . 2. La norma: kx yk = kxk kyk. 3. El adjunto: (x y)∗ = y x. 4. El espectro: El u ´nico autovalor de x y que puede ser no nulo es λ1 = hx, yi. (adivinen qui´en es el autovector). 5. Si A , B ∈ L(H), las composiciones con x y quedan as´ı : A ◦ (x y) = (Ax) y
and
(x y) ◦ B = x (B ∗ y) .
6. Dados v , w ∈ H, se tiene que (x y) · (v w) = hv, yi · x w ∈ L1 (H). 7. Si x 6= 0, el proyector Px =
x kxk
x kxk
=
1 kxk2
x x .
8. Los espacios L1 (H) = {z w : z , w ∈ H} y LF (H) = span {z w : z , w ∈ H} = span {L1 (H)}. 9. Concluir que LF (H) es un ideal bil´ atero de L(H).
Ejercicios nuevos 4.7.16. Sea H un EH. Dados S , M v H, llamemos P = PS y Q = PM . Probar que son equivalentes: 1. Ellos conmutan P Q = QP . 2. S = S ∩ M ⊕ S ∩ M⊥ . 3. M = M ∩ S ⊕ M ∩ S ⊥ . 4. P Q = PS∩M ∈ P(H). 5. QP = PS∩M ∈ P(H). Deducir que 2 y 3 por lo general NO son v´ alidas. Convencerse de eso dibujando tres rectas en R2 . De paso mostrar que si dim S = dim M = 1 entonces lo de arriba vale ⇐⇒ S = M o bien S ⊥ M. 4 4.7.17. Sea H un EH. Probar que los puntos extremales de la bola BL(H) = {T ∈ L(H) : kT k ≤ 1} son las isometr´ıas {U ∈ L(H) : kU xk = kxk para todo x ∈ H}. Sug. Usar que los puntos extremales de la bola BH son los vectores de norma uno, Ejer. 3.8.22. 4.7.18. Sea H un EH. Probar que las proyecciones de P(H) son los puntos extremales del conjunto: def
[0, I] = {A ∈ L(H) : 0 ≤ A ≤ I} . 4.7.19. Sea P ∈ P(H) cuyo rango es R(P ) = S. Esta proyecci´on induce una descomposici´on de los operadores de A ∈ L(H) en matrices de 2 × 2, del siguiente modo: S A11 A12 A= A21 A22 S⊥ donde A11 ∼ P AP pero pensado en L(S), y an´alogamente se toman las compresiones A12 = P A(I − P ), A21 = (I − P )AP y A22 = (I − P )A(I − P ) a los espacios donde act´ uan. Probar:
139
1. Si A ∈ A(H), entonces su matriz asociada tiene la siguiente forma: A=
C B∗
B D
S S⊥
con
C ∈ A(S)
D ∈ A(S ⊥ ) .
y
M´ as a´ un, si A ∈ L(H)+ entonces C ∈ L(S)+ y D ∈ L(S ⊥ )+ . S C 0 2. Si un A ∈ L(H) se representa A = y nos dan un P ∈ C[X], entonces 0 D S⊥ P (A) =
P (C) 0 0 P (D)
S S⊥
4
.
4.7.20. Sea A ∈ L(H)+ y tomemos su raiz cuadrada A1/2 ∈ L(H)+ . Probar que ker A = ker A1/2
pero
R(A) ⊆ R(A1/2 ) ⊆ R(A) .
Mostrar adem´ as que si R(A) 6v H entonces las inclusiones son estrictas. 4.7.21. [Test de Schur] Sean {anm }n , m∈N ∈ K
N×N
P
|anm | λn
≤ b λm
m ∈ N,
para todo
4
y {λn }n∈N ∈ R+ tales que N
y
n∈N
P
|anm | λm ≤ c λn
para todo
m∈N,
m∈N
para ciertas constantes b , c ∈ R. Probar que 1. Existe un operador T ∈ L(H) que tiene a {anm } como matriz (respecto a una BON de H). 2. Adem´ as vale que kT k2 ≤ bc.
4
4.7.22 (Matriz de Hilbert). Sea H un EH con una BON {en : n ∈ N}. Queremos un T ∈ L(H) tal que hT em , en i =
1 n+m−1
n, m ∈ N .
para todo par
Probar que el tal T existe. Mostrar adem´ as que T = T ∗ y que kT k ≤ π. Sug.: usar el test de Schur con λn = (n − 1/2)−1/2 y estimar las series usando integrales. +
2
4.7.23. Sea T ∈ L(H) . Probar que T ≤ kT k T .
4 4
4.7.24 (Dilaci´ on unitaria de contracciones). Sea T ∈ L(H) tal que kT k ≤ 1. Probar que 1. Se tiene la igualdad T (I − T ∗ T )1/2 = (I − T T ∗ )1/2 T . 2. Trabajando en L(H ⊕ H), tendremos que el operador UT =
T (I − T ∗ T )1/2
(I − T T ∗ )1/2 −T ∗
140
es unitario .
4
Cap´ıtulo 5 Espacios localmente convexos Recordemos que un espacio vectorial topol´ ogico (EVT) es un espacio topol´ogico (E, τ ) en el que E es un K-espacio vectorial, y la topolog´ıa τ es de Hausdorff y cumple que las operaciones vectoriales E × E 3 (x, y) 7→ x + y ∈ E
y
C × E 3 (λ , x) 7→ λ x ∈ E
(5.1)
son continuas, cuando en E × E y en C × E se usan las topolog´ıas producto. En particular esto hace que, para cada x ∈ E fijo, las aplicaciones Tx : E → E dada por Tx (y) = x + y y
Mx : C → E
dada por
Mx (λ) = λ x
(5.2)
sean continuas. Observar que cada Tx es un h´omeo, con inversa T−x . Esto dice que, fijado un x ∈ E, podemos calcular siempre los entornos de x como def Oτ (x) = x + Oτ (0) = x + U = Tx (U ) : U ∈ Oτ (0) . O sea que para dar una topolog´ıa de EVT, basta con conocer una base (o sub-base) de entornos del cero de E. Repasemos que una p : E → R es una seminorma si dados x , y ∈ E y λ ∈ K, se cumple que 1. p(x) ≥ 0. 2. p(λx) = |λ| p(x). 3. p(x + y) ≤ p(x) + p(y). Remarquemos que puede pasar que p(x) = 0 aunque x 6= 0 (por eso el “semi”).
5.1
Seminormas
Vimos que una sola norma produce una estructura m´etrica en E. Una seminorma no alcanza (la d asociada es solo un seudodistancia, como la k · kp antes de cocientar a Lp ). Sin embargo, es muy com´ un construir topolog´ıas en espacios vectoriales usando familias de muchas seminormas. Como se pide Hausdorff, hagamos una definici´on: 141
Definici´ on 5.1.1. Sea E un K-espacio vectorial. 1. Una familia F de seminormas en E se llama separadora si para cada par de puntos x 6= y de E existe p ∈ F tal que p(x − y) 6= 0. Esto implica que la familia de funciones dz,p : E → R+ dadas por dz,p (x) = p(x−z), para x ∈ E (con par´ametros (z, p) ∈ E ×F) separe los puntos de E. 2. Llamaremos σ(E, F) a la topolog´ıa inicial inducida por esta familia de funciones. Es decir, la menor topolog´ıa sobre E que hace continuas a las funciones dz,p (para todo z ∈ E y toda p ∈ F). Observaciones: 5.1.2. Si la familia F de seminormas separa puntos de E, resulta que σ(E, F) es una topolog´ıa de Hausdorff. En efecto, observar que: 1. Dado x ∈ E, una sub-base de entornos de x est´a constituida por conjuntos de la forma Uz , p , ε = {y ∈ E : |dz,p (y) − dz,p (x)| < ε} = {y ∈ E : |p(y − z) − p(x − z)| < ε} , donde z ∈ E, p ∈ F y ε > 0. 2. M´as a´ un, para obtener una sub-base de Oσ(E,F ) (x) alcanza con tomar los conjuntos Ux , p , ε = Up , ε = {y ∈ E : p(y − x) < ε}
para todo par
p∈F , ε>0.
En efecto, la desigualdad triangular asegura que Up , ε ⊆ Uz , p , ε para todo z ∈ E. 3. Con estos semibasicos alcanza para testear que σ(E, F) es Hausdorff. Para verlo basta con recordar que fijados x, y ∈ E, se tiene que p(x − y) ≤ p(x − z) + p(y − z)
para todo
z∈E
y toda
p∈F .
4. Fijado un x ∈ E, los entornos Oσ(E,F ) (x) tienen una base formada por conjuntos \
Upk , ε = y ∈ E : pk (y − x) < ε , k ∈ In ,
(5.3)
k∈In
moviendo n ∈ N, n-uplas (pk )k∈In en F y ε > 0. 5. Veamos ahora que σ(E, F) hace de E un EVT: Fijados x , y ∈ E y un ε > 0, consideremos el entorno Vp = Ux , p , ε × Uy , p , ε alrededor de (x, y). Luego se tiene que |p x + y − (x0 + y 0 ) | ≤ p(x − x0 ) + p(y − y 0 ) < 2 ε para todo (x0 , y 0 ) ∈ Vp , por lo que la flecha E × E 3 (z, w) 7→ z + w manda Vp adentro de Ux+y , p , 2 ε . Un entorno b´asico U de x + y es una intersecci´on de estos entornos de x + y, relativos a 2 ε
142
T
y finitas p1 , . . . , pn ∈ F. Si tomamos V =
Vpk , resulta ser un entorno de x + y
k∈ In
en E × E tal que “la suma” lo manda adentro de U . Por otra parte, |p(λ x) − p(λ0 x0 )| ≤ p(λ x − λ0 x0 ) = p(λ x − λ0 x + λ0 x − λ0 x0 ) ≤ |λ − λ0 | p(x) + |λ0 | p(x − x0 ) , para x , x0 ∈ E y λ , λ0 ∈ K cualesquiera. Tomando entornos adecuados de un par (λ , x) ∈ K × E fijo, sale la continuidad de la flecha K × E 3 (µ , y) 7→ µ y. 4 La verdadera utilidad de estos procesos para producir topolog´ıas EVT radica en que ellos permiten encontrar la topolog´ıa que se adecue a una convergencia dada en el espacio E. Sin entrar en detalles, pensemos en convergencias “de la f y de todas sus derivadas”, o convergencia uniforme en compactos, etc. Una familia muy importante de convergencias en el contexto de espacios normados (llamadas “la d´ebil w” y “la d´ebil estrella w∗ ”), acompa˜ nadas de sus topolog´ıas onda σ(E, F), se ver´a en las secciones siguientes. Veamos ahora en qu´e sentido la topolog´ıa σ(E, F) se describe en t´erminos de convergencias: Proposici´ on 5.1.3. Sea E un K-EV, y sea σ(E, F) la topolog´ıa inducida por una familia F de seminormas que separa puntos de E. Dada una red x = (xi )i∈ I en E, se tiene que σ(E,F )
R
i∈ I
i∈ I
xi −−−−→ x ∈ E ⇐⇒ p(x − xi ) −−→ 0
para toda
p∈F .
(5.4)
Demostraci´on. Para mostrarlo basta fijarse quienes son los σ(E, F)-entornos del x, como se describe en la Ec. (5.3). O bien, recordar qu´e pasaba con las topolog´ıas iniciales. La Proposici´on anterior ayuda notablemente a la hora de testear si una funci´on dada (que sale de, o que llega a un EVT dado por seminormas) es continua. Como estamos en un contexto “lineal”, lo primero que uno debe estudiar es la continuidad de los operadores lineales. Para ello pongamos (y recordemos) algunos nombres: Notaciones 5.1.4. Sea E un K-EV. 1. Denotaremos por E 0 = {ϕ : E → K : ϕ es lineal } al espacio dual algebr´aico de E. 2. Los ejemplos m´as usuales de seminormas en E consisten en tomar una funcional lineal ϕ ∈ E 0 y definir p = pϕ = |ϕ|. 3. Por lo general, uno toma un subespacio F ⊆ E 0 de funcionales, le pide que separe puntos de E, y toma la familia separadora de seminormas F = {pϕ : ϕ ∈ F }. En tal caso suele escribirse σ(E, F ) en lugar de σ(E, F). 4. Si me dan cualquier topolog´ıa τ que haga de E un EVT, no toda ϕ ∈ E 0 debe ser autom´aticamente continua. De hecho, si dim E = ∞, la “mayor´ıa” de las funcionales no lo son. Por ello de denomina dual “topol´ogico” de E al K-EV Eτ∗ = (E, τ )∗ = {ϕ ∈ E 0 : ϕ es τ -continua } = E 0 ∩ C (E, τ ), K . (5.5) En el caso que τ provenga de una norma k · k, se escrib´ıa E ∗ a secas. 143
5. Observar que para cualquier ϕ ∈ E 0 , se tiene que ϕ ∈ (E, τ )∗ ⇐⇒ ϕ es τ -continua en el punto 0 ∈ E .
(5.6)
Esto se debe a la igualdad ϕ(x) − ϕ(y) = ϕ(x − y) (y a que ϕ(0) = 0). Recordar que la condici´on (5.1) asegura que una red xi −−→ x ⇐⇒ x − xi −−→ 0. i∈ I
i∈ I
6. Si E era un C-EV, denotaremos por ER0 y (E, τ )∗R a sus duales pens´andolo como R-EV (o sea las funcionales ϕ : E → R que son R-lineales). 4 Proposici´ on 5.1.5. Sea E un K-EV y sea ϕ ∈ E 0 . Dada una familia separadora F de seminormas para E, las suguientes condiciones son equivalentes: 1. La funcional ϕ es σ(E, F)-continua. 2. Existen un M ≥ 0 y una n-upla (pk )k∈In en F tales que |ϕ(x)| ≤ M m´ax pk (x) , k∈In
para todo
x∈E .
Demostraci´on. Si ϕ ∈ (E, σ(E, F) )∗ , por ser continua en 0 debe existir un entorno b´asico del 0, pongamos que dado por un ε > 0 y una n-upla (pk )k∈In en F, tales que \ {x ∈ E : pk (x) < ε} ⊆ {x ∈ E : |ϕ(x)| < 1} . (5.7) k∈In
Es algo engorroso, aunque elemental, verificar que esto implica que |ϕ(x)| ≤
1 m´ax pk (x) , ε k∈In
para todo
x∈E .
En efecto, el caso |ϕ(x)| = 0 no tiene gracia. Si |ϕ(x)| > 0 y sucediera que pk (x) < ε|ϕ(x)| para todo k ∈ In , la Ec. (5.7) asegurar´ıa que vale la siguiente contradicci´on flagrante: x |ϕ(x)| x pk < ε para todo k ∈ In =⇒ 1 = = ϕ <1. |ϕ(x)| |ϕ(x)| |ϕ(x)| 1 Poniendo M = , tenemos que 1 =⇒ 2. La rec´ıproca es inmediata (v´ıa redes), ya que las ε pk son continuas en 0 por hip´otesis. Teorema 5.1.6. Sea E un K-espacio vectorial y sea F ⊆ E 0 un subespacio vectorial que separa puntos de E. Consideremos en E la topolog´ıa σ(E, F ). Luego se tiene que ∗ E , σ(E, F ) = F . (5.8) Es decir que las u ´nicas funcionales lineales sobre E que son σ(E, F )-continuas son las que ya estaban en F . 144
Demostraci´on. Es claro que toda ϕ ∈ F queda σ(E, F )-continua (si no lo ve claro, repase la Ec. (5.4) ). Para la rec´ıproca, hace falta el siguiente lema algebr´aico: Lema 5.1.7. Sean f y (fk )k∈In funcionales lineales en el K-espacio vectorial E. Las siguientes condiciones son equivalentes: P αk fk , para ciertas α1 , ..., αn ∈ K. 1. f = k∈In
2. Existe α > 0 tal que |f (x)| ≤ α m´ax |fk (x)| para todo x ∈ E. k∈In
3.
T
ker fk ⊆ ker f .
k∈In
Demostraci´on. La u ´nica implicaci´on que no es evidente es (3) =⇒ (1). Si A : E → Kn es el operador lineal dado por Ax = (f1 (x), ..., fn (x) ) para x ∈ E, consideremos el diagrama / Kn CC CC g f CC!
E CC
A
K Como ker A =
T
ker fk ⊆ ker f , existe una funcional lineal g : Kn → C tal que g ◦ A = f .
k∈In
O, si se prefiere, la condici´on ker A ⊆ ker f permite definirla (bien) como g : R(A) → K
dada por
g(Ax) = f (x) ,
y luego extenderla Kn . Pero toda funcional lineal sobre Kn es de la forma X g(z) = αk zk para z = (z1 , . . . , zn ) ∈ Kn . k∈In
En particular, tomando z = Ax = (f1 (x), ..., fn (x) ) obtenemos que X f (x) = g(Ax) = αk fk (x) para todo x ∈ E ,
4
k∈In
Seguimos con el Teorema: Si ϕ ∈ E 0 es σ(E, F )-continua, la Prop. 5.1.5 asegura que existen M > 0 una n-upla (ϕk )k∈In en F tales que Lema 5.1.7
|ϕ(x)| ≤ M m´ax |ϕk (x)| k∈In
para todo x ∈ E
=⇒
ϕ=
n X
αk ϕ k ,
1
para ciertos αk en K. Esto dice que ϕ ∈ F .
Observaci´ on 5.1.8. M´as adelante veremos la importancia del Teo. 5.1.6 para el caso de dos topolog´ıas (dadas por seminormas) que son muy importantes en el contexto de los EN’s. Ellas son las llamadas “debil” o “w” y la “debil * ” o w∗ . Para no ser tan reiterativos mandamos al lector interesado al p´arrafo 5.5.1 donde se las define, describe y estudia. 4 145
5.2
Espacios localmente convexos.
Una de las ventajas de trabajar en K-espacios vectoriales es que en ellos tiene sentido la noci´on de convexidad: Sea E un K-EV, y sea A ⊆ E. Recordemos que A es convexo si, dados x, y ∈ A se tiene que def
[x, y] = {(1 − λ) x + λ y : λ ∈ [0, 1] } ⊆ A . Observar que [x, y] denota al “segmento” recto que une a x con y dentro de E. La teor´ıa de conjuntos convexos dentro de EVT’s est´a muy desarrollada, y algunas cosas de ella veremos en lo que sigue. Empecemos con algunas propiedades quasitriviales, para entrar en tema. Proposici´ on 5.2.1. Sea E un K-EV. Se tienen las siguientes propiedades: 1. La intersecci´on de cualquier cantidad de conjuntos convexos en E queda convexa. 2. El transladar a un convexo le conserva esa propiedad. Es decir que si A ⊆ E es convexo, tambi´en lo ser´a A + x = {a + x : a ∈ A}, para todo x ∈ E. 3. M´as a´ un, si A, B ⊆ E son ambos convexos, tambi´en A + B = {a + b : a ∈ A y b ∈ B} queda convexo. 4. Si A ⊆ E es convexo, para todo λ ∈ K se tiene que λA = {λa : a ∈ A} es convexo. 5. Dada un topolog´ıa τ que haga de E un EVT, para todo convexo A ⊆ E se tiene que τ su τ -clausura A es tambi´en convexo. Demostraci´on. Es un ejercicio ideal para rumiar la definici´on de convexidad. Hagamos la τ prueba del item 5, que no es tan f´acil: Si x ∈ A pero y ∈ A , tomemos una red y = (yi )i∈ I en A tal que yi −−→ y. Entonces, para todo λ ∈ [0, 1] sale que i∈ I
A 3 λyi + (1 − λ)x −−→ λy + (1 − λ)x i∈ I
=⇒
Haciendo lo mismo, pero ahora del lado del x, sale que A
τ
[x, y] ⊆ A
τ
.
es tambi´en convexo.
Volviendo a la secci´on anterior, en particular a la Ec. (5.3), notamos que si nos dan una familia F separadora de seminormas en E, resulta que la topolog´ıa σ(E, F) tiene, en cada punto x ∈ E, una base de entornos formada por abiertos convexos. A esta propiedad le daremos un nombre: Definici´ on 5.2.2. Sea (E, τ ) un ETV. Decimos que E es un espacio localmente convexo (se abrevia ELC) si, para cada x ∈ E existe una base βx de Oτa (x) que consiste de abiertos convexos. 4 Observaci´ on 5.2.3. Dado (E, τ ) un ETV, se tiene que 1. Si queremos verificar que E es ELC, la condici´on anterior (bases de entornos convexos para cada punto x) basta testearla en x = 0, porque todo U ∈ Oτa (x) se puede escribir como U = W + x con W ∈ Oτa (0). 146
2. Si uno sabe que E es un ELC, se puede asumir que la base β0 consta de convexos sim´etricos, en el sentido de que V = −V = {−x : x ∈ V }. En efecto, dado un W de la base que uno ten´ıa, se lo cambia por V = W ∩ −W , que es m´as chico, sigue siendo abierto y convexo, pero ahora queda sim´etrico. 3. M´as a´ un, se puede hacer una base de Oτa (0) que consta de abiertos de la forma V = U − U = {x − y : x , y ∈ U }
para alg´ un U abierto convexo sim´etrico .
Para ello, observemos que si V es sim´etrico y convexo como en 2, y tomamos U = 12 V , 4 entonces V = U − U . En efecto, si x, y ∈ U , luego x − y = 21 (2x + 2(−y) ) ∈ V . Esta observaci´on ser´a clave a la hora de sacarle el jugo al siguiente Teorema de Minkowski, que de alguna manera dice que toda topolog´ıa en E que lo haga ELC viene dada como una σ(E, F) v´ıa una familia adecuada de R-seminormas. Recordemos que, dado E un K-EV, una funci´on q : E → R se llamaba sublineal si cumple la desigualdad triangular (q(x + y) ≤ q(x) + q(y) para todo par x, y ∈ E) y adem´as q(λ x) = λ q(x)
(sin m´odulo)
, para todo x ∈ E y todo λ ∈ R+ .
(5.9)
Teorema 5.2.4. Sean E un ETV y U ⊆ E un abierto convexo tal que 0 ∈ U . Entonces 1. La funci´on pU : E → R+ dada por pU (x) = ´ınf{ s > 0 :
1 x∈U }, s
para x ∈ E ,
(5.10)
es una funci´on sublineal, y se denomina la funcional de Minkowski de U . 2. Se tiene adem´as que U = { x ∈ E : pU (x) < 1 }. Demostraci´on. Recordemos que, por la Ec. (5.1), si fijamos un x ∈ E se tiene que la funci´on K 3 λ 7→ λ x es continua. En particular, tenemos que nx −−−→ 0 ∈ U , por lo que n1 x ∈ U n→∞
a partir de cierto n0 . Luego pU (x) ≤ n0 < ∞. La comprobaci´on que pU es homog´enea respecto a escalares positivos es un ejercicio elemental sobre ´ınfimos, que omitiremos. Fijemos x, y ∈ E y tomemos escalares s, t > 0 tales que
1 s
x y
1 t
y ∈ U . Como U es convexo
1 s 1 t 1 (x + y) = ( x )+ ( y ) ∈ U =⇒ pU (x + y) ≤ s + t . s+t s+t s s+t t Esto muestra que pU (x + y) ≤ pU (x) + pU (y). Veamos ahora el item 2: Si x ∈ U , debe existir un ε > 0 tal que tambi´en (1 + ε)x ∈ U (esto vale por el comentario del principio). Entonces 1 tenemos que pU (x) ≤ 1+ε < 1. Rec´ıprocamente, si pU (x) < 1, debe existir un s < 1 tal que 1 x ∈ U . Como 0 ∈ U y U es convexo nos queda que x = (1 − s)0 + s 1s x ∈ U . s 147
Observaci´ on 5.2.5. Si uno asume que (E, τ ) es un R-ELC, y toma β0 una base de entornos abiertos, convexos y sim´etricos del 0 ∈ E (se usa la Obs. 5.2.3), cada U ∈ β0 produce, v´ıa el Teo. 5.2.4 una sublineal pU tal que U = {x ∈ E : pU (x) < 1}. Ahora bien, el hecho de que los U ’es sean sim´etricos implica que pU (−x) = pU (x) para todo x ∈ E (esto se deduce de la Ec. (5.10) ). Pero esto sumado a la homogeneidad para t ≥ 0, asegura que las pU son R-seminormas. Si ahora uno toma la familia F = {pU : U ∈ β0 } , es f´acil ver que τ = σ(E, F), como asegur´abamos antes.
5.3
4
Hahn Banach versi´ on separaci´ on
Teorema 5.3.1 (de separaci´on de H-B). Sea (E, τ ) un EVT y sean U, V ⊆ E dos convexos disjuntos y no vac´ıos, tales que U es abierto. Luego existen ϕ ∈ (E, τ )∗ y t ∈ R tales que Re ϕ(x) < t ≤ Re ϕ(y)
x∈U , y∈V .
para todo par
Demostraci´on. Caso real. Fijemos x0 ∈ U , y0 ∈ V , y consideremos el conjunto [ y0 − x0 − y + U , W = y0 − x0 + U − V . Como W = y∈V
vemos que W es abierto. Es claro que 0 ∈ W , y una cuenta directa muestra que W es, adem´as, convexo. Tomemos la funcional de Minkowski pW de la Teo. 5.2.4 y el punto z = y0 − x0 . Usando que U ∩ V = ∅, concluimos que z ∈ / W , por lo que pW (z) ≥ 1. Definamos ϕ0 : Rz → R por ϕ0 (az) = a, (a ∈ R). Entonces si a ≥ 0, se tiene que ϕ0 (az) = a ≤ apW (z) = pW (az) . Si a < 0, tenemos que ϕ0 (az) = a < 0 ≤ pW (az). As´ı, ϕ0 ≤ pW en todo R z. Por el teorema de Hahn-Banach 2.1.2, podemos extender ϕ0 a una funcional R-lineal ϕ : E → R tal que ϕ(x) ≤ pW (x), ahora para todo x ∈ E. Veamos que esta ϕ ∈ (E, τ )∗ . Basta ver la continuidad en 0 ∈ E. Para ello, observemos que si x ∈ W , se tiene que ϕ(x) ≤ pW (x) < 1. Si ahora me dan un ε > 0, podemos deducir de lo anterior que |ϕ(w)| < ε
para todo
w ∈ −εW ∩ εW ,
que es un entorno de 0. Lista la continuidad. Si x ∈ U , y ∈ V entonces x−y+z ∈W
ϕ(z)=1
=⇒ ϕ(x − y + z) < 1 =⇒ ϕ(x) < ϕ(y) .
Adem´as ϕ(U ) y ϕ(V ) son intervalos reales disjuntos, puesto que U y V son convexos y ϕ es lineal. Por otra parte ϕ(U ) es abierto pues U lo es. Basta entonces tomar t = sup ϕ(U ). 4 Caso complejo. Consideremos a E como R-EV, y encontremos, por el caso anterior, una funcional R-lineal φ ∈ (E, τ )∗R tal que φ(U ) < t ≤ φ(V ) ,
para cierto
t∈R.
Luego ϕ(x) = φ(x) − iφ(ix) cumple que es C-lineal, τ -continua, y que Re ϕ = φ. 148
Corolario 5.3.2. Sea (E, τ ) un ELC y sean K, F ⊆ E dos convexos disjuntos y no vac´ıos, tales que K es compacto y F cerrado. Luego existen ϕ ∈ (E, τ )∗R , ε > 0 y t ∈ R tales que ϕ(x) ≤ t − ε < t ≤ ϕ(y)
para todo par
x∈K , y∈F .
(5.11)
Demostraci´on. Si existiera un abierto convexo U tal que 0 ∈ U y (K +U )∩F = ∅ estar´ıamos hechos, porque en tal caso existir´ıan una ϕ ∈ (E, τ )∗R y un t ∈ R tales que ϕ(x) < t ≤ ϕ(y)
para todo par
x∈K +U , y ∈F .
Eso saldr´ıa aplicando el Teo. 5.3.1 al abierto convexo K + U y al convexo F . Pero como tenemos que K es compacto, K ⊆ K + U y ϕ continua, existir´ıa el ε > 0 tal que valga (5.11). Para construir el U se hace as´ı: Para cada x ∈ K tomemos un convexo sim´etrico Ux ∈ Oτa (0) tal que, a´ un tomando Vx = Ux − Ux valga que x + Vx ⊆ E \ F . Existen porque F es cerrado y por la Obs. 5.2.3. Es calro que existen x1 , . . . , xn ∈ K tales que [ [ K⊆ xk + Uxk ⊆ x k + V xk ⊆ E \ F . k∈ In
Tomemos ahora U =
T
k∈ In
Uxk . Observemos que, dado x ∈ K, existe un k ∈ In tal que
k∈ In
x ∈ xk + Uxk . Luego x + U ⊆ xk + ( Uxk + U ) ⊆ xk + Vxk ⊆ E \ F . Como esto pasa para S todos los x ∈ K llegamos a que (K + U ) ∩ F = x + U ∩ F = ∅. x∈K
Corolario 5.3.3. Sea (E, τ ) es un ELC. Dados F ⊆ E un convexo cerrado, y x ∈ E \ F , existen una ϕ ∈ (E, τ )∗R tal que ϕ(x) < m´ın ϕ(y). y∈F
Proof. Los puntos son compactos.
Corolario 5.3.4. Si (E, τ ) es un ELC, su dual Eτ∗ = (E, τ )∗ separa puntos de E. Demostraci´on. Sabemos que E es Hausdorff. Luego los puntos son tambi´en cerrados.
5.4
Krein-Milman
Definici´ on 5.4.1. Sea E es un K-EV y fijemos K ⊆ E. 1. Un subconjunto A ⊆ K es extremal en K si para cada par x, y ∈ K se cumple que (x, y) ∩ A 6= ∅ =⇒ x , y ∈ A , donde (x, y) = {(1 − λ) x + λ y : λ ∈ (0, 1)} es el segmento “abierto” que va de x a y. 2. Un z ∈ K es un punto extremal de K si el conjunto {z} es extremal en K, o sea si para cada par x, y ∈ K se cumple que z ∈ (x, y) =⇒ x = y = z . 149
3. Denotaremos por Ext(K) al conjunto de puntos extremales de K. Ejemplo 5.4.2. Sea E es un K-EV y sea K ⊆ E. Los subconjuntos extremales de K se pueden visualizar como v´ertices, lados o caras de K (sobre todo si es convexo y cerrado). Intuitivamente, una manera de encontrar ese tipo de partes es cortar a K con un hiperplano de E, e ir corri´endose hasta los dos bordes, a ver que queda. Esto se puede hacer anal´ıticamente cortando a K con hiperplanos afines del tipo {x ∈ E : ϕ(x) = λ} para una ϕ ∈ ER∗ , y distintos valores de λ. En efecto, si K es acotado, los conjuntos mϕ (K) = x ∈ K : ϕ(x) = ´ınf ϕ(y) y Mϕ (K) = x ∈ K : ϕ(x) = sup ϕ(y) (5.12) y∈K
y∈K
son, efectivamente, extremales para K. La prueba es directa, y queda como ejercicio. Lo interesante es que, si K era compacto, entonces mϕ (K) 6= ∅ 6= Mϕ (K). Esto se prueba tomando, por ejemplo, una red x = (xi )i∈ I en K tal que ϕ(xi ) −−→ ´ınf ϕ(y), y luego una i∈ I
y∈K
subred convergente, cuyo l´ımite debe caer en mϕ (K).
4
Ejercicio 5.4.3. Sea E es un K-EV y sea K ⊆ E. Si me dan un conjunto A0 ⊆ K que es extremal para K, y otro A1 ⊆ A0 que es extremal para A0 , probar que A1 es tambi´en extremal para K. 4 Ejercicio 5.4.4. Sea E es un K-EV. Sean K ⊆ E un convexo, y x ∈ K. Probar que x ∈ Ext(K) ⇐⇒ K \ {x}
sigue siendo convexo .
4
Proposici´ on 5.4.5. Sea E un K-ELC. Si K ⊆ E es compacto, entonces Ext(K) 6= ∅. Demostraci´on. Sea C = {A ⊆ K : A es extremal en K, cerrado y no vac´ıo }, ordenado por la inclusi´on al rev´es. El conjunto C 6= ∅ porque K ∈ C. Para usar el Lema de Zorn, veamos que elTorden de C es inductivo: Sea A ⊆ C una familia totalmente ordenada. Llamemos A= A. Como ∅ ∈ / C y el orden en A es total, vemos que A tiene la PIF. Como K es compacto, el Teo. A.12.3 nos da que A 6= ∅. El hecho de que una intereseci´on de extremales es extremal es bien f´acil. Y de cerrados ni hablar. As´ı que A ∈ C y es una buena cota inferior de A. Ahora s´ı, Zorn asegura que existe un A0 ∈ C maximal (o sea que A0 es minimal para la ⊆). Veremos que A0 contiene un u ´nico punto, que ser´a entonces un punto extremal de K. Supongamos que existieran x1 , x2 ∈ A0 dos puntos distintos. Como E es un ELC, el Cor. 5.3.4 nos asegura que existe una ϕ ∈ ER∗ tal que ϕ(x1 ) 6= ϕ(x2 ). Observar que, como A0 es cerrado y vive en K, debe ser compacto. Por el Ejem. 5.4.2, el conjunto mϕ (A0 ) = {x ∈ A0 : ϕ(x) = ´ınf ϕ(y)} ⊆ A0 y∈A0
es cerrado, no vac´ıo y extremal para A0 . Por el Ejer. 5.4.3, vemos que mϕ (A0 ) es tambi´en extremal para K. Sin embargo, tenemos que A0 6= mϕ (A0 ), porque mϕ (A0 ) no puede 150
contener simult´aneamente a los puntos x1 y x2 . Como esto contradice la maximalidadminimalidad de A0 , vemos que A0 = {x} y que x ∈ Ext(K). El resultado m´as importante de esta secci´on es el Teorema de Krein Milman, que formaliza un enunciado intuitivamente natural: un convexo compacto es el conjunto de combinaciones convexas de sus puntos extremales. Uno se imagina pol´ıgonos o elipses y parece convincente. Adem´as, ahora ya sabemos que los compactos en un ELC tienen extremales. Definamos ahora las c´apsulas convexas: Definici´ on 5.4.6. Sea E un R-EV, y sea A ⊆ E. La c´apsula convexa de A es el conjunto Conv (A) = { combinaciones convexas de elementos de A } . P O sea que los elementos de Conv (A) son todos los del tipo λk ak , donde los ak ∈ A y k∈In P λk = 1. Si ahora tenemos que (E, τ ) es un EVT, los λk viven en R+ y cumplen que k∈In
denotaremos por Conv (A) = Conv τ (A) a la τ -clausura de Conv (A).
4
Veamos ahora una propiedades obvias de estas nociones: Sea E un EVT, y sea A ⊆ E. 1. Tanto Conv (A) como Conv (A) son convexos. 2. M´as a´ un, se puede caracterizar a Conv (A) (resp. Conv (A) ) como el menor convexo (resp. convexo cerrado) que contiene a A. 3. A es convexo si y s´olo si A = Conv (A). 4. Conv (Conv (A) ) = Conv (A) y Conv (Conv (A) ) = Conv (Conv (A) ) = Conv (A). Teorema 5.4.7 (Krein - Milman). Sea E un ELC y sea K ∈ E compacto. Entonces K ⊆ Conv Ext(K) . En particular, se tienen las siguiente igualdades: 1. Conv Ext(K) = Conv K. 2. Si asumimos que K es convexo (y compacto), entonces K = Conv Ext(K). Demostraci´on. Llamemos K0 = Conv Ext(K), y supongamos que existe un x0 ∈ K \ K0 . Por el teorema de separaci´on de Hahn-Banach 5.3.1, deben existir ϕ ∈ ER∗ y t ∈ R tales que ϕ(x0 ) < t ≤ ϕ(K0 ). Llamemos K1 = mϕ (K) ⊆ K, que ya sabemos que es un subconjunto no vac´ıo, cerrado (luego compacto) y extremal en K. Por la Prop. 5.4.5, podemos tomar un x ∈ Ext(K1 ) que, por el Ejer. 5.4.3 es tanbi´en extremal para K. Sin embargo, ϕ(x) = inf ϕ(y) ≤ ϕ(x0 ) < t ≤ ϕ Ext(K) . y∈K
Esta contradicci´on muestra que K ⊆ Conv Ext(K). 151
Ejercicio 5.4.8. Sean (E, τ ) un ELC y K ⊆ E un un compacto. 1. Dado x ∈ / K, existe U ∈ Oτa (0) convexo tal que (x + U ) ∩ (K + U ) = ∅. 2. Deducir que, si K fuera tambi´en convexo, existe ϕ ∈ ER∗ tal que ϕ(x) < t < t + ε < ϕ(K)
para ciertos t ∈ R y ε > 0 .
3. Encontrar un compacto K (ahora no convexo) tal que Conv K no es compacto. 4. En cambio, si tambi´en Conv K es compacto, entonces Ext Conv K ⊆ K.
5.5
4
Topolog´ıas d´ ebiles en espacios normados y ELC’s
Sea E un espacio de Banach. Se dice que E es reflexivo si la imagen de E por la isometr´ıa JE : E ,→ E ∗∗ es todo el espacio E ∗∗ . En otras palabras, si las u ´nicas funcionales continuas ∗ sobre E son las evaluaciones en puntos de E. Esto es siempre as´ı cuando dim E < ∞, y tambi´en para los Lp (X, Σ, µ) y los `p , para 1 < p < ∞. Pero muchas veces deja de pasar en el caso infinitodimensional (sin ir m´as lejos, L1 (X, Σ, µ) no es reflexivo). Mucha teor´ıa de espacios de Banach sale bien redonda en los espacios reflexivos, por lo que est´a muy desarrollado el estudio de condiciones que aseguren la reflexividad. Algunos de estos criterios, en particular aquellos que involucran el comportamiente de E relativo a sus topolog´ıas d´ebiles, ser´an tratados en este texto. Sin embargo, la mayor´ıa de los espacios de Banach importantes no son reflexivos. Para desfacer este entuerto, las topolog´ıas d´ebiles tambi´en ayudan lo suyo. Esto se debe a una especie de reflexividad d´ebil que es autom´atica, como veremos enseguida. Otras grandes ventajas de usarlas provienen de dos teoremas muy profundos, el de Goldstine (que da otro suced´aneo de la reflexividad), y fundamentalmente el de Alaoglu, que asegura que en ciertos espacios de Banach (aquellos que son el dual de otro) la bola es, al menos, w∗ -compacta. 5.5.1. Hay dos ejemplos importantes de topolog´ıas inducidas por seminormas, en el contexto de espacios normados y ELC: 1. Sea E un espacio normado y E ∗ su dual (topol´ogico). Consideremos sobre E la familia de seminormas F = {pϕ : ϕ ∈ E ∗ } ,
donde pϕ (x) = |ϕ(x)| , (x ∈ E) .
Como ya vimos, la topolog´ıa inducida por F sobre E se denota σ(E, E ∗ ) y se denomina la topolog´ıa d´ ebil de E. A veces se la abrevia como “w”. 2. La topolog´ıa σ(E ∗ , E) en E ∗ , es la inducida por la familia de seminormas F = {px : x ∈ E} ,
donde px (ϕ) = |Jx (ϕ)| = |ϕ(x)| , (ϕ ∈ E ∗ ) .
A σ(E ∗ , E) se la denomina topolog´ıa d´ ebil ∗ de E ∗ , y se la abrevia con w∗ . 152
(5.13)
3. Observar que, en realidad, la σ(E ∗ , E) est´a producida por un subespacio de E ∗∗ , que no es otro que JE (E), donde JE : E → E ∗∗ es la isometr´ıa definida en la Ec. (2.8). Pero como la acci´on de estas funcionales sobre E ∗ es justamente operar por evaluaci´on en los x ∈ E, la notaci´on σ(E ∗ , E) es justa, y por supuesto es m´as econ´omica que poner σ(E ∗ , JE (E) ). 4. M´as a´ un, si ahora suponemos que (E, τ ) es solo un ELC, tambi´en tenemos un dual topol´ogico Eτ∗ = (E, τ )∗ que separa puntos. Luego podemos definir: (a) En E una topolog´ıa d´ebil σ(E, Eτ∗ ), tambi´en llamada w. (b) En Eτ∗ , que a priori no tiene ninguna topolog´ıa el pobre, ponemos tambi´en la topolog´ıa w∗ , o sea la σ(Eτ∗ , E), con la misma definici´on que en la Ec. (5.13) (pero ac´a el Jx ∈ (Eτ∗ )0 ). 5. Observar que σ(E, Eτ∗ ) y σ(Eτ∗ , E) tienen una linda propiedad (esto incluye el caso en que E es normado): Por el Teo. 5.1.6, vemos que ∗ ∗ ∼ E , σ(E, Eτ∗ ) = Eτ∗ y Eτ∗ , σ(Eτ∗ , E) (5.14) = E, donde el ∼ = es lo que uno se imagina. 6. Las topolog´ıas w y w∗ se describen bien por convergencias (de hecho es de ah´ı de donde nacen): Por la Ec. (5.4), se tiene que w
xi −−→ x ⇐⇒ ϕ(xi ) −−→ ϕ(x) i∈ I
i∈ I
ϕ ∈ E∗
para toda
(o ϕ ∈ Eτ∗ ) .
(5.15)
w∗
En forma similar, ϕi −−→ ϕ ⇐⇒ ϕi (x) −−→ ϕ(x) para todo x ∈ E. i∈ I
i∈ I
En otras palabras, la convergencia w es la convergenicia “contra toda ϕ del dual”, y la w∗ es ni m´as ni menos que la puntual. Observar que estas caracterizaciones muestran, en particular, que las topolog´ıas d´ebies reci´en definidas son efectivemente m´as d´ebiles que las del ambiente (cuando las hay). Veremos ahoran una important´ısima consecuencia del teorema de separaci´on de HB 5.3.1, que va en la otra direcci´on: 4 Proposici´ on 5.5.2. Sea (E , τ ) un ELC, y sea A ⊆ E un conjunto convexo. Luego A
τ
= A
σ(E , Eτ∗ )
.
Es decir que, para un convexo, las clausuras fuerte y d´ebil coinciden. τ
σ(E , E ∗ )
τ Demostraci´on. Es claro que σ(E, Eτ∗ ) ⊆ τ =⇒ A ⊆ A , por ejemplo porque τ en τ es m´as dif´ıcil converger. Tomemos ahora cualquier x ∈ E \ A . Como E es ELC, τ existe un entorno abierto y convexo U de x tal que U ∩ A = ∅. Adem´as, la Prop. 5.2.1
153
τ
nos asegura que A sigue siendo convexo. Estamos en las condiciones del Teo. 5.3.1, que asegura la existencia de una ϕ ∈ Eτ∗ y un t ∈ R tales que τ τ Re ϕ( U ) < t ≤ Re ϕ A =⇒ Re ϕ(x) < t ≤ Re ϕ A . def
Por un lado vemos que A ⊆ F = {y ∈ E : Re ϕ(y) ≥ t}. Por el otro, como nuestra ϕ ∈ Eτ∗ , entonces ella y su parte real deben ser σ(E, Eτ∗ )-continuas y por ende el conjunto F debe ser σ(E , Eτ∗ ) σ(E, Eτ∗ )-cerrado. As´ı que ya tenemos la inclusi´on A ⊆ F. σ(E , Eτ∗ )
Sin embargo, el puntito x cumpl´ıa que Re ϕ(x) < t =⇒ x ∈ / F =⇒ x ∈ /A τ σ(E , Eτ∗ ) τ ⊆A . ese x era un punto cualquiera de E \ A , hemos probado que A
. Como
Corolario 5.5.3. Sea (E , τ ) un ELC. Si A ⊆ E es convexo y τ -cerrado, entonces debe ser tambi´en σ(E , Eτ∗ )-cerrado. Observar que podemos aplicar el Cor. 5.5.3 a subespacios, para los que ser´a lo mismo ser fuerte o debilmente cerrados. Por otra parte, en el caso de que E fuera normado, vale para las bolas cerradas. Esto dice que la convergencia w no puede “agrandar normas”: Ejercicio 5.5.4. Sean E un EN, un punto x ∈ E y una sucesi´on x = (xn )n∈N en E tales w que xn −−−→ x. Probar que n→∞
1. Nuestra x = (xn )n∈ N debe ser acotada en norma (remember Cor. 2.5.2). 2. Adem´as kxk ≤ lim inf kxn k. n→∞
3. Existe otra sucesi´on (zn )n∈N que ahora vive en la c´apsula convexa Conv {xn : n ∈ N} k· k
que cumple la condici´on m´as fuerte zn −−−→ 0.
4
n→∞
El siguiente resultado dice, en particular, que el Cor. 5.5.3 falla si no pedimos que los conjuntos sean convexos. Por lo general, sucede el fen´omeno de que las clausuras d´ebiles “llenan agujeros”, como veremos a continuaci´on: Proposici´ on 5.5.5. Si E es un espacio de Banach de dimensi´on infinita, entonces la clausura de SE = {x ∈ E : kxk = 1} en la topolog´ıa w = σ(E, E ∗ ) es toda la bola BE . Demostraci´on. Antes que nada, el Cor. 5.5.3 asegura que BE es σ(E, E ∗ )-cerrada. Para σ(E,E ∗ ) probar que B1 = {x ∈ E : kxk < 1} ⊆ SE basta demostrar que todo entorno V de todo x0 ∈ B1 corta a la esfera SE . Tomemos un b´asico V = {x ∈ E : |ϕk (x) − ϕk (x0 )| < ε, k ∈ In } , T para ciertos ε > 0 y ϕ1 , ..., ϕn ∈ E ∗ . Observemos que M = ker ϕk 6= {0}, porque si k∈ In
no la funci´on lineal E 3 z 7→ (ϕ1 (z) , ..., ϕn (z) ) ∈ Cn ser´ıa inyectiva, por lo que E tendr´ıa dimensi´on finita. Notemos que x0 + M ⊆ V . A esta altura sugerimos hacer un dibujo: 154
Un subespacio puesto arriba de un punto x0 ∈ B1 tiene que “cortar” a la cascara SE . Gr´aficamente no quedan dudas. Veamoslo en letras: Tomemos un z0 ∈ M \ {0}, y la funci´on f :R→R,
f (t) = kx0 + t z0 k .
dada por
Es claro que f es continua, f (0) = kx0 k < 1 y l´ım f (t) = +∞. Luego existe un s ∈ R tal t→∞
que f (s) = kx0 + s z0 k = 1. Esto significa que x0 + s z0 ∈ (x0 + M ) ∩ SE ⊆ V ∩ SE .
La Prop. 5.5.2 estudia clausuras con la topolog´ıa w de un normado. En caso de que este sea el dual de alguien, tiene tambi´en su w∗ (que es m´as debil a´ un que su w, porque usa solo funcionales de su pre-dual, que son muchas menos que las de su post-dual). Veremos a continuaci´on el renombrado teorema de Goldstine que dice que clausuras en norma y en la w∗ pueden no coincidir, a´ un en conjuntos convexos, y muy famosos. Pero antes de enunciarlo repasemos unas cosas. Recordemos que, dado un espacio normado E, denotamos por JE : E ,→ E ∗∗ denota a la isometr´ıa natural, que en general no es epi. Por ello, JE (BE ) es cerrada en la norma de E ∗∗ (siempre que E sea un Banach), pero por lo general (si E no es reflexivo) es mucho m´as chica que BE ∗∗ . Sin embargo, para la otra topolog´ıa usual de E ∗∗ , que es la σ(E ∗∗ , E ∗ ) (o sea la w∗ de E ∗∗ ), veremos que JE (BE ) es siempre densa en la bola BE ∗∗ . Teorema 5.5.6 (Goldstine). Sea E es un espacio normado y JE : E ,→ E ∗∗ es la isometr´ıa natural. Llamemos B = JE (BE ) ⊆ E ∗∗ . Luego vale que B
es σ(E ∗∗ , E ∗ ) densa en BE ∗∗ , o sea que JE (BE )
w∗
= BE ∗∗ .
(5.16)
Si bien esta formulaci´on es muy rimbombante, demos tambi´en esta otra m´as concreta: Para toda ρ ∈ BE ∗∗ existe una red x = (xi )i∈ I en BE tal que ϕ(xi ) −−→ ρ(ϕ) , i∈ I
para todas las ϕ ∈ E ∗ (con la misma red). w∗
Demostraci´on. En principio hace falta ver que B ⊆ BE ∗∗ , lo que significa que el tomar ∗ l´ımites w no agranda las normas. En efecto, si tomamos una red x = (xi )i∈ I en BE , y w∗ asumimos que JE xi −−→ ρ ∈ E ∗∗ , para cada ϕ ∈ BE ∗ nos da que i∈ I
ρ(ϕ) = lim JE xi (ϕ) = lim ϕ(xi ) . i∈I
i∈I
Como todos los t´erminos ϕ(xi ) cumplen que |ϕ(xi )| ≤ kϕk kxi k ≤ 1, vemos que |ρ(ϕ)| ≤ 1. Como ϕ ∈ BE ∗ era cualquiera, deducimos que kρk ≤ 1, o sea que ρ ∈ BE ∗∗ . w∗
Llamemos A = B , que es convexo y w∗ -cerrado (incluso m´as: en breve veremos que es w∗ -compacto por Alaoglu). Supongamos que existe un ρ ∈ BE ∗∗ \ A. Como (E ∗∗ , w∗ ) es un ELC, podemos encontrar un abierto U ∈ σ(E ∗∗ , E ∗ ) que cumpla las siguientes condiciones: U es convexo ,
ρ∈U 155
y
U ∩A=∅ .
Les podemos aplicar el teorema separaci´on de H-B 5.3.1 a los convexos A y U (con ´este ´ nos dice que existe una funcional Φ ∈ (E ∗∗ , w∗ )∗ tal que u ´ltimo w∗ -abierto). El Re Φ A ≤ t < Re Φ U , para cierto t ∈ R . Como 0 ∈ A, vemos que t ≥ 0. Observar que, por el Teo. 5.1.6, sabemos que ∗ E ∗∗ , σ(E ∗∗ , E ∗ ) = JE ∗ (E ∗ ) ⊆ E ∗∗∗ =⇒ Φ = JE ∗ ϕ para cierta ϕ ∈ E ∗ . As´ı que, si tomamos un x ∈ BE , como JE x ∈ A, tendremos que t ≥ Re Φ(JE x) = Re JE ∗ ϕ JE x = Re JE x (ϕ) = Re ϕ(x) . Pero si ϕ(x) = eiθ |ϕ(x)|, la misma desigualdad vale para y = e−iθ x ∈ BE . Luego, |ϕ(x)| = e−iθ ϕ(x) = ϕ(y) = Re ϕ(y) ≤ t . Esto dice que kΦk = kϕk = sup |ϕ(x)| ≤ t. Lamentablemente, por otro lado tendremos que x∈BE
kΦk ≤ t < Re Φ(ρ) ≤ |Φ(ρ)| ≤ kΦk kρk ≤ kΦk
(porque ρ estaba en BE ∗∗ ) .
Este desastre provino de suponer que BE ∗∗ \ A 6= ∅, y a otra cosa mariposa.
Observaci´ on 5.5.7. El Teorema de Goldstine tiene aplicaciones en la direcci´on de caracterizar la reflexividad de espacios de Banach (que ya veremos). Sin embargo, su formulaci´on concreta es tambi´en muy util en varios contextos. El m´as interesante lo contaremos someramente a continuaci´on, a pesar de que habr´a que creer un mont´on de cosas. Sea X un ET compacto Hausdorff. Tomemos el espacio de Banach C(X) = C(X, C), con la norma k·k∞ . En 1.3.3 mencionamos el Teor. de Riesz, que dice que C(X)∗ = Mr (X), que es el espacio de medidas Borelianas, complejas y regulares, dotado de la norma kµk = |µ|(X), donde |µ| es la variaci´on total de µ (que es una medida positiva finita). La acci´on de Mr (X) sobre C(X) est´a dada por la integraci´on: Z Fijada µ ∈ Mr (X) , hacemos ϕµ (f ) = f dµ , para cada f ∈ C(X) . X
Ahora bien, el espacio C(X)∗∗ = Mr (X)∗ es inabordable. Pero uno conoce muchos de sus elementos. Por ejemplo, si g : X → C es medible Borel y acotada, se puede definir Z ∗ ρg ∈ Mr (X) dada por ρg (µ) = g dµ , para cada µ ∈ Mr (X) . X
M´as a´ un, es f´acil ver (si uno sabe algo de estas cosas) que kρg k = kgk∞ . Por ejemplo, Z Z g dµ ≤ |g| d|µ| ≤ kgk∞ |µ|(X) = kgk∞ kµk , para toda µ ∈ Mr (X) . X
X
156
La otra desigualdad sale usando las medidas puntuales µx ∈ Mr (X), (x ∈ X) que integran ´ evaluando en x y tienen norma uno. Ahora llegamos al Teorema de Goldstine 5.5.6. El nos dice que, para cada g : X → C medible Borel y acotada, se puede encontrar una red f = (fi )i∈ I en C(X) tal que kfi k∞ ≤ kρg k = kgk∞ para todo i ∈ I, que adem´as cumple que Z Z fi dµ −−→ g dµ , para toda µ ∈ Mr (X) . X
i∈ I
X w∗
Es divertido observar que el hecho de que fi −−→ g significaba que convergen “puntualmente”, i∈ I
pero que en este contexto los “puntos” vendr´ıan a ser todas las medidas µ ∈ Mr (X). Como ellas incluyen a las µx para los x ∈ X, eso es decir mucho m´as que la la otra noci´on de convergencia “puntual” dada por fi (x) −−→ g(x) para todo x ∈ X. i∈ I
Esta aproximaci´on de las acotadas por las continuas (del mismo tama˜ no y para todas las medidas con una sola red) es interesante en s´ı misma, pero es de capital importancia al estudiar el teorema espectral para operadores acotados autoadjuntos en espacios de Hilbert. Todo lo anterior se puede generalizar al caso en que X sea tan solo LKH, y el Banach sea C0 (X), cuyo dual sigue siendo Mr (X). Aplicando esto a X = N con la topolog´ıa discreta, releemos lo anterior como: c0 ∗ = `1 = Mr (N) , (`1 )∗ = `∞
y que truncar aproxima w∗ a los elementos de `∞ .
Esto sale a mano, pero da una idea del tipo de teorema que hemos visto.
5.6
4
Alaoglu
El siguiente teorema es lo m´as importante de todo el Cap´ıtulo. Para medir su impacto, baste recordar que ning´ un espacio normado infinitodimensional puede tener bolas compactas. El tema es que los espacios de Banach, a´ un siendo m´etricos completos, no son casi nunca localmente compactos. Y para peor, la falta compacidad local hace fallar casi la mitad de los teoremas que uno quisiera probar, y que uno hasta se cree que deben ser ciertos, porque en caso finito parecen elementales. Sin embargo el hecho de que, en ciertos casos, uno pueda usar que la bola es compacta, aunque sea para una topolog´ıa dr´asticamente m´as d´ebil, muchas veces saca las papas del fuego. Teorema 5.6.1 (Alaoglu). Sea E un espacio normado. Entonces se tiene que BE ∗ = {ϕ ∈ E ∗ : kϕk ≤ 1}
es σ(E ∗ , E)- compacta .
Demostraci´on. Abreviemos BE ∗ = B. Cada una de las ϕ ∈ B cumplen que |ϕ(x)| ≤ kxk para todo x ∈ E. Llamemos Dx = Q {λ ∈ K : |λ| ≤ kxk}. Entonces ϕ(x) ∈ Dx para cada x ∈ E. Hagamos el producto D = Dx , dotado de la topolog´ıa producto. Sabemos que x∈E
D es compacto, por el teorema de Tychonoff. Para probar el teorema mostraremos que (B, σ(E ∗ , E) ) es homeomorfo a un subconjunto cerrado de D. 157
Definamos Φ : B → D por Φ(ϕ) = {ϕ(x)}x∈E , para ϕ ∈ B. Veamos que, si n o C = {λx }x∈E ∈ D : λx+y = λx + λy y λαx = αλx para todo x, y ∈ E , α ∈ K , entonces Φ(B) = C. En efecto, si ϕ ∈ B entonces Φ(ϕ) cumple las condiciones de linealidad que definen a C. Rec´ıprocamente, si λ = {λx }x∈E ∈ C, entonces consideremos la funcional ϕλ : E → K
dada por
ϕλ (x) = λx ,
para
x∈E .
Las propiedades del conjunto C hacen que ϕλ sea lineal. Pero adem´as |ϕλ (x)| = |λx | ≤ kxk, para todo x ∈ E. Luego tenemos que que ϕλ ∈ B. De lo anterior deducimos que Φ es una biyecci´on de B sobre C. Para ver que C es cerrado, basta notar que C coincide con la intersecci´on de las contraim´agenes de {0} para las funciones continuas de D en C de la forma D 3 λ 7→ λy+z − λy − λz
(y, z ∈ E)
y
D 3 λ 7→ λαy − αλy
(y ∈ E, α ∈ K) .
Solo falta ver que que Φ : B → C es h´omeo (si en C usamos la topolog´ıa inducida por la producto de D). Pero esto u ´ltimo es inmediato, pues basta observar que en ambos conjuntos la convergencias coinciden: ambas son la convergencia cordenada a cordenada, para cada x ∈ E. En C porque as´ı es la la topolog´ıa producto. En B porque all´ı usamos la w∗ . Corolario 5.6.2. Todo espacio de Banach E es isom´etricamente isomorfo a un subespacio cerrado de C(K) para un conveniente ET compacto Hausdorff K. Demostraci´on. Sea K = BE ∗ , σ(E ∗ , E) , que sabemos que es compacto por el teorema de Alaoglu. Definamos ahora la funci´on T : E → C(K) dada por la composici´on J
·|B
∗
E E −→ E ∗∗ −−−E→ C(K) ,
o sea
Tx = JE x B
E∗
, x∈E .
Es f´acil ver que cada Tx : K → C es σ(E ∗ , E)-continua, porque esta topolog´ıa es la de la convergencia puntual, y Tx act´ ua en las ϕ ∈ BE ∗ por evaluaci´on en el punto x. Por otro lado, la funci´on T , adem´as de ser evidentemente lineal, es isom´etrica. Esto se testea directamente a partir de las definiciones invlucradas (se usa la Ec. (2.7) ). La imagen de T es un subespacio cerrado de C(K), pues E es completo y T es isom´etrica. Mejoraremos el resultado anterior en el caso en que E es separable. Para ello, necesitamos un lema espc´ıfico: Lema 5.6.3. Sea (K, τ ) un ET compacto tal que C(K) tiene un subconjunto numerable F que separa puntos de K. Entonces el espacio K es metrizable. Demostraci´on. Pongamos que F = {ϕn : n ∈ N} ⊆ C(X) separa puntos de K. Entonces d(x , y) =
X 1 |ϕn (x) − ϕn (y)| , n 2 1 + |ϕ n (x) − ϕn (y)| n∈N
x, y ∈ K ,
define una distancia sobre K. Como todas las ϕn son τ -continuas, tambi´en lo ser´an las funciones dx : K → R dadas por dx (y) = d(x, y), (y ∈ K). Como Bd (x, ε) = d−1 x (−ε, ε) ∈ τ , 158
deducimos que la topolog´ıa m´etrica τd ⊆ τ . Por otro lado, si F ⊆ K es τ -cerrado, entonces F es τ -compacto, y por ende τd -compacto. Como τd es de Hausdorff (es m´etrica), queda que F es tambi´en τd -cerrado. Todo esto dice que τd = τ . O sea que K era metrizable. Proposici´ on 5.6.4. Si E es un espacio de Banach separable, entonces para todo K ⊆ E ∗ que sea σ(E ∗ , E)-compacto, el espacio topol´ogico (K , w∗ ) es metrizable. Demostraci´on. Si {xn : n ∈ N} es denso en E entonces {JE xn : n ∈ N} distingue los puntos de E ∗ y, con mayor raz´on, los de K. Luego se aplica el lema anterior. Corolario 5.6.5. Si E es un Banach separable, entonces BE ∗ , σ(E ∗ , E) es un ET compacto metrizable y E es isom´etricamente isomorfo a un subespacio cerrado de C(BE ∗ ). Observaci´ on 5.6.6. Fijemos un espacio de Banach E con dim E = ∞. En la demostraci´on de la Prop. 5.5.5 vimos que todo entorno b´asico del 0 en w = σ(E, E ∗ ) contiene subespacios de codimensi´on finita. En particular, esto muestra que todos los w-entornos b´asicos son no acotados. Pero sirve adem´as para probar que la topolog´ıa σ(E, E ∗ ) no puede ser N1 . Observar que, en el caso en que E sea separable, reflexivo y por ello en E coincidan la w con la w∗ de su predual (esto lo probaremos detalladamente en breve), esto marca una diferencia esencial entre el comportamiento de las topolog´ıas d´ebiles, entre su restricci´on a una bola cerrada (donde queda metrizable), y lo que pasa en todo el espacio (no es ni N1 ). Veamos que no queda N1 : Supongamos que tenemos β = {Un : n ∈ N} una familia numerable en entornos b´asicos del 0. Para cada Un ∈ β, definamos por Sn ⊆ E ∗ al subespacio generado por las finitas funcionales de E ∗ que lo generan. Llamemos \ Mn = Sn0 = ker ϕ ⊆ E , ϕ∈Sn
que es un subespacio cerrado de codimension finita (basta intersectar los nucleos de los finitos generadores del entorno Un ). Observar que Mn ⊆ Un para todo n ∈ N. Por el Teor. de Baire 2.2.4, una uni´on numerable de subespacios finitodimensionales no puede cubrir a todo S el Banach E ∗ (son cerrados de interior vac´ıo). Tomemos entonces una funcional ϕ0 ∈ E ∗ \ Sn 6= ∅. Para cada n ∈ N, el Lema 5.1.7 nos dice que n∈N
\
ϕ0 ∈ / Sn ⇐⇒ Mn =
ker ϕ 6⊆ ker ϕ0 ,
(5.17)
ϕ∈Sn
de nuevo porque podemos realizar a Mn como una intersecci´on finita de n´ ucleos. Ahora bien, tomemos el entorno U0 = {x ∈ E : |ϕ0 (x)| < 1}. Si me dan ahora un n ∈ N, por la Ec. (5.17) puedo encontrar un xn ∈ Mn tal que ϕ0 (xn ) 6= 0. Luego existe un N ∈ R∗+ tal que |ϕ0 (N xn )| = N |ϕ0 (xn )| > 1, por lo que N xn ∈ / U0 , aunque sigue pasando que N xn ∈ Mn ⊆ Un . En otras palabras, ning´ un Un vive adentro de U0 , as´ı que β no puede ser una base de entornos del cero. Por todo ello, E , σ(E, E ∗ ) NO es N1 . 4
159
Observaci´ on 5.6.7. Recordemos el Ejer. 2.7.10 sobre `1 = `1 (N), que decia que para que una sucesi´on acotada de `1 converja a cero alcanza que lo haga “contra” las funcionales de su dual (`1 )∗ ∼ = `∞ , lo que ahora llamar´ıamos “converge d´ebilmente a cero”. Ahora bien, en el Cor. 2.5.2 (y el Ejer. 5.5.4) vimos que si una sucesi´on va d´ebilmente a cero ya ten´ıa que ser acotada. Luego la hip´otesis de acotaci´on del Ejer. 2.7.10 estaba de m´as. Recapitulando, podemos deducir que en `1 una sucesi´on converge en norma ⇐⇒ converge d´ebilmente. Como la convergencia caracteriza la topolog´ıa, uno tiende a pensar que las topolog´ıas de la norma y la d´ebil deber´ıan coincidir en `1 . Sin embargo ese enunciado es bien falso. Por ejemplo porque los entornos b´asicos de la d´ebil no pueden ser acotados, y no podemos meter ninguno dentro de una bolita de la norma. ¿Porque ser´a? 4
5.7
Una caracterizaci´ on de la reflexividad
Teorema 5.7.1. Si E es un espacio de Banach, entonces las siguientes propiedades son equivalentes: 1. E es reflexivo. 2. E ∗ es reflexivo. 3. σ(E ∗ , E) = σ(E ∗ , E ∗∗ ), o sea que, en E ∗ , coinciden la w y la w∗ . 4. BE es σ(E, E ∗ )-compacta (i.e., la bola de E es w-compacta). Demostraci´on. 1 ⇒ 4: El Teo. de Alaoglu 5.6.1 dice que BE ∗∗ es σ(E ∗∗ , E ∗ )-compacta. Luego, dada una red x = (xi )i∈ I en BE , ella tiene una subred y = (yj )j∈ J tal que ybj (ϕ) = ϕ(yj ) −−→ ρ(ϕ) para j∈ J
una cierta ρ ∈ BE ∗∗ y toda ϕ ∈ E ∗ . La reflexividad de E asegurar´ıa que existe un x ∈ BE w tal que ρ = JE x, por lo que yj −−→ x. Eso dice que BE es σ(E, E ∗ )-compacta. j∈ J
4 ⇒ 1: Sea F = JE (E) v E ∗∗ . Como JE es isom´etrica, BF = JE (BE ). La topolog´ıa inducida por σ(E ∗∗ , E ∗ ) en BF coincide con la w que se trae de BE , porque de ambos lados la convergencia es contra todas las ϕ ∈ E ∗ . Luego la hip´otesis de 4 se traduce a que BF sea w∗ -compacta en E ∗∗ . Sin embargo, el Teo. de Goldstine 5.5.6 dice que BF es w∗ -densa en BE ∗∗ . Ambos hechos prueban que BF = BE ∗∗ , por lo que JE debe ser epi, y E reflexivo. 1 ⇒ 3: Como JE : E → E ∗∗ es sobre, las topolog´ıas σ(E ∗ , E) y σ(E ∗ , E ∗∗ ) est´an generadas por las mismas funcionales, por lo que coinciden. 3 ⇒ 2: Por el Teo. de Alaoglu 5.6.1, BE ∗ es σ(E ∗ , E)-compacta. Si asumimos ahora la condici´on 3, traducimos a que BE ∗ es σ(E ∗ , E ∗∗ )-compacta. Aplic´andole al espacio E ∗ la implicaci´on 4 ⇒ 1 ya demostrada, nos queda que E ∗ es reflexivo.
160
2 ⇒ 1: Sigamos con la notaci´on JE (E) = F ⊆ E ∗∗ . Recordemos que, por la Prop. 5.5.2, la bola BF ⊆ E ∗∗ , al ser k · k-cerrada y convexa, debe ser tambi´en σ(E ∗∗ , E ∗∗∗ )-cerrada. Como E ∗ es reflexivo BF es tambi´en σ(E ∗∗ , E ∗ )-cerrada (ya vimos que 1 ⇒ 3, y se lo podemos aplicar a E ∗ ). Pero el Teo. de Goldstine 5.5.6 dec´ıa que BF es σ(E ∗∗ , E ∗ )-densa en BE ∗∗ . As´ı, BF coincide con BE ∗∗ y, como en 4 ⇒ 1, E nos queda reflexivo.
5.8
Miscel´ anea
Recordemos que, si E es un EN y B ⊆ E, dec´ıamos que B es w-acotado si para toda ϕ ∈ E ∗ el conjunto ϕ(B) es acotado en C. En el Cor. 2.5.2, justo despu´es del PAU, mostr´abamos que si E es Banach, entonces ser w-acotado alcanza para ser acotado en la norma de E. Proposici´ on 5.8.1. Sean E , F dos EB y sea T : E → F un operador lineal. Llamemos T 0 : F 0 → E 0 su adjunto lineal. Entonces las suguientes condiciones son equivalentes: 1. T ∈ L(E , F ). 2. φ ◦ T ∈ E ∗ para toda φ ∈ F ∗ . Es decir que T 0 (F ∗ ) ⊆ E ∗ . 3. T : E , σ(E, E ∗ ) → F , σ(F, F ∗ ) es tambi´en continuo. Es decir que w
w
i∈ I
i∈ I
si xi −−→ x (en E) =⇒ T xi −−→ T x (en F ) .
(5.18)
Demostraci´on. Es claro que 1 =⇒ 2. Asumamos ahora 2. Sean x = (xi )i∈ I una red en E w y x ∈ E tales que xi −−→ x. Dada una φ ∈ F ∗ , tenemos que T 0 (φ) = φ ◦ T ∈ E ∗ . Luego i∈ I
φ T xi ) = φ ◦ T xi −−→ φ ◦ T x = φ T x) . i∈ I
w
Como esto pasa para toda φ ∈ F ∗ ya tenemos que T xi −−→ T x. Esto fue 2 =⇒ 3. i∈ I
Observar que si T : E → F es lineal y cumple (5.18), entonces para cualquier φ ∈ F ∗ se ∗ tiene que φ ◦ T ∈ E , w (i,e., es una funcional w-continua). Pero en la Ec. (5.14) vimos ∗ que E , w = E ∗ . En resumen, sale que T 0 (F ∗ ) ⊆ E ∗ . Esto fue 3 =⇒ 2. Finalmente, dada una φ ∈ F ∗ , usando que φ ◦ T ∈ E ∗ podemos ver que x ∈ BE =⇒ |φ(T x)| = | φ ◦ T x| ≤ kφ ◦ T kE ∗ kxk ≤ kφ ◦ T kE ∗ . Esto significa que T (BE ) es w-acotada en F . Aplicando ahora el Cor. 2.5.2 llegamos a que T (BE ) es acotada en norma, por lo que T ∈ L(E , F ). Esto fue 2 =⇒ 1. Basta. Corolario 5.8.2. Sean E , F dos EB y sea T ∈ L(E , F ). Asumamos que E es reflex. Entonces T manda la bola BE a una elipse T (BE ) que es k · k- cerrada dentro de F .
161
k·k
Demostraci´on. Sea x = (xn )n∈ N una sucesi´on en la BE tal que T xn −−−→ z ∈ F . El n→∞
reciente Teo. 5.7.1 nos dice que BE es w-compacta. Luego hay una subred y = (yj )j∈ J de x w tal que yj −−→ y ∈ BE . Por un lado, la subredicidad nos asegura que j∈ J
k·k
T xn −−−→ z n→∞
=⇒
k·k
T yj −−→ z
=⇒
j∈ J
w
T yj −−→ z . j∈ J
Por otro lado, usando la Prop. 5.8.1 sabemos que T respeta convergencias d´ebiles. Luego w
yj −−→ y ∈ BE j∈ J
=⇒
w
T yj −−→ T y ∈ T (BE ) . j∈ J
Como la topolog´ıa w es Hausdorff, los dos l´ımites tienen que coincidir. En otras palabras, llegamos a que z = T y ∈ T (BE ). As´ı que T (BE ) era cerrada, nom´as. Lo de la elipse era medio una joda, que no deber´ıa eclipsar la importancia del resultado.
S´e como el sol, que a´ un en eclipse el foco sigue siendo de la elipse.
162
5.9
Ejercicios del Cap 5: ELC’s
Ejercicios aparecidos en el texto 5.9.1. Sea E un K-EV. Se tienen las siguientes propiedades: 1. La intersecci´ on de cualquier cantidad de conjuntos convexos en E queda convexa. 2. El transladar a un convexo le conserva esa propiedad. Es decir que si A ⊆ E es convexo, tambi´en lo ser´ a A + x = {a + x : a ∈ A}, para todo x ∈ E. 3. M´ as a´ un, si A, B ⊆ E son ambos convexos, tambi´en A + B = {a + b : a ∈ A y b ∈ B} queda convexo. 4. Si A ⊆ E es convexo, para todo λ ∈ K se tiene que λA = {λa : a ∈ A} es convexo. 5. Dada un topolog´ıa τ que haga de E un EVT, para todo convexo A ⊆ E se tiene que su τ -clausura τ A es tambi´en convexo. 5.9.2. Sea (E, τ ) es un ELC. Dados K ⊆ E convexo compacto y F ⊆ E convexo cerrado tales que K ∩F = ∅, existen una ϕ ∈ (E, τ )∗R y un α ∈ R tales que m´ ax ϕ(x) < α ≤ m´ın ϕ(y) . x∈K
4
y∈F
5.9.3. Sea E es un K-EV. Dados K ⊆ E acotado y ϕ ∈ E 0 , probar que 1. Los siguientes dos conjuntos son extremales para K (o vac´ıos): mϕ (K) = x ∈ K : ϕ(x) = ´ınf ϕ(y) y∈K
y
Mϕ (K) = x ∈ K : ϕ(x) = sup ϕ(y) . y∈K
2. Si E era un ELC, K era compacto y ϕ ∈ E ∗ , entonces mϕ (K) 6= ∅ 6= Mϕ (K). 3. Si x ∈ Ext(K), existe una φ ∈ E ∗ tal que x ∈ mφ (K). 4. Haciendo dibujos de convexos en R2 uno podr´ıa arriesgar que en el item anterior se podr´ıa conseguir una φ ∈ E ∗ tal que mφ (K) = {x} solito. Pero eso es falso en general (a´ un si K es compacto). Contraejemplificarlo en R2 . 4 5.9.4. Sea E es un K-EV y sea K ⊆ E. Si me dan un conjunto A0 ⊆ K que es extremal para K, y otro A1 ⊆ A0 que es extremal para A0 , probar que A1 es tambi´en extremal para K. 4 5.9.5. Sea E es un K-EV. Sean K ⊆ E un convexo, y x ∈ K. Probar que x ∈ Ext(K) ⇐⇒ K \ {x}
sigue siendo convexo .
4
5.9.6. Sean (E, τ ) un ELC y K ⊆ E un un compacto. 1. Dado x ∈ / K, existe U ∈ Oτa (0) convexo tal que (x + U ) ∩ (K + U ) = ∅. 2. Deducir que, si K fuera tambi´en convexo, existe ϕ ∈ ER∗ tal que ϕ(x) < t < t + ε < ϕ(K)
para ciertos t ∈ R y ε > 0 .
3. Encontrar un compacto K (ahora no convexo) tal que Conv K no es compacto. 4. En cambio, si tambi´en Conv K es compacto, entonces Ext Conv K ⊆ K.
163
4
w
5.9.7. Sean E un EN, x ∈ E y una sucesi´ on x = (xn )n∈N en E tales que xn −−−−→ x, probar que n→∞
1. Nuestra x = (xn )n∈ N debe ser acotada en norma (remember Cor. 2.5.2). 2. Adem´ as kxk ≤ lim inf kxn k. n→∞
3. Existe otra sucesi´ on (zn )n∈N que ahora vive en la c´apsula convexa Conv {xn : n ∈ N} que cumple la k· k
condici´ on m´ as fuerte zn −−−−→ 0.
4
n→∞
Ejercicios nuevos 5.9.8. Sea E un EB. Dados x ∈ E y una sucesi´on (xn )n∈N en E, probar que w
1. Si xn −−−−→ x entonces xn −−−−→ x. n→∞
n→∞
w
2. Si dim E < ∞, ah´ı vale que xn −−−−→ x ⇐⇒ xn −−−−→ x. n→∞
n→∞
5.9.9. Sean E y F espacios de Banach y T : E → F una transformaci´on lineal. Entonces, las siguientes afirmaciones son equivalentes: 1. T es acotada. 2. T ∗ (F ∗ ) ⊆ E ∗ . 3. T es continua de (E, w) en (F, w). a = {x ∈ E : kxk < 1} tiene interior vac´ıo 5.9.10. Sea E un EB de dimensi´ on infinita. Probar que la bola BE (!!) si la pensamos en (E , w).
5.9.11. Sea E un EB. Dados ϕ ∈ E ∗ y una sucesi´on (ϕn )n∈N en E ∗ , probar que w
w∗
n→∞
n→∞
1. ϕn −−−−→ ϕ =⇒ ϕn −−−−→ ϕ =⇒ ϕ −−−−→ ϕ. n→∞
2. Si dim E < ∞, las tres convergencias son equivalentes. 5.9.12. Sea E = `∞ (N). Si (ϕn )n∈N es la sucesi´on en E ∗ dada por ϕn (x) = xn para x = (xn )n∈ N ∈ E y n ∈ N. Probar que 1. Las ϕn ∈ BE ∗ para todo n ∈ N. 2. Sin embargo, (ϕn )n∈N no tiene ninguna subsucesi´on w∗ −convergente. ¿Contradice esto el hecho de que BE ∗ es w∗ −compacta? 5.9.13. Sean 1 < p < ∞. Dados x, x(n) ∈ `p (n ∈ N), probar que x(n) −−−−→ x ⇐⇒ sup kx(n) kp < ∞ n→∞
(n)
y
lim xk
n→∞
n∈N
= xk
para todo
5.9.14. Sea H un EH. Dados x ∈ H y una sucesi´on (xn )n∈N en H, probar que w
1. xn −−−−→ x ⇐⇒ hxn , yi −−−−→ hx , yi para todo y ∈ H (este es Rieszible). n→∞
n→∞
w
2. Si {en : n ∈ N} es un SON en H, entonces en −−−−→ 0. n→∞
164
k∈N.
5.9.15. Sean ϕ ∈ L∞ [0, 1] y (ϕn )n∈N una sucesi´on en L∞ [0, 1]. Consideremos los operadores de multiplicaci´ on asociados Mϕ y Mϕn (n ∈ N ) todos ellos en L(L2 [0, 1]). Probar que w∗
ϕn −−−−→ ϕ n→∞
en L∞ [0, 1] = L1 [0, 1]∗
w
⇐⇒
Mϕn f −−−−→ Mϕ f n→∞
para toda
f ∈ L2 [0, 1] .
5.9.16. Probar que C[0, 1] es cerrado en L∞ [0, 1] con la topolog´ıa inducida por la norma k · k∞ pero no en la topolog´ıa w∗ . 5.9.17. Sea E un EVT. Dados K , V ⊆ E tales que K es compacto y V es abierto y K ⊆ V , probar que existe un entorno U del cero tal que K + U ⊆ V . 5.9.18. Sea E un espacio vectorial y A y B subconjuntos convexos de E. Probar que para todo par de n´ umeros reales a y b el conjunto aA + bB es convexo. 5.9.19. Sea E un espacio vectorial y A un subconjunto convexo de E. Probar que si
x ∈ A◦
and
y∈A
=⇒
def
[x, y) = {(1 − λ) x + λ y : λ ∈ [0, 1) } ⊆ A◦ .
5.9.20. Sea E un espacio de Banach reflexivo y F un subespacio cerrado de E. Probar que para todo x ∈ /F existe un un x0 ∈ F tal que kx − x0 k = min{kx − yk : y ∈ F }. 5.9.21. Sean E , F dos EB y sea T ∈ L(E , F ). Probar que T ∗ pensado como T ∗ : (F ∗ , w∗ ) → (E ∗ , w∗ ) es tambi´en continua. Deducir como en el Cor. 5.8.2 que T ∗ (BF ∗ ) es k · k cerrada en E ∗ . w∗
Sug: Si ϕi −−→ ϕ en F ∗ y x ∈ E, entonces Tϕ∗i x = ϕi (T x) −−→ ϕ(T x) = Tϕ∗ x. i∈ I
i∈ I
2
( xnn )n∈N
1
Veamos un ejemplo: Sea T ∈ L(` , ` ) dada por T x = para x = (xn )n∈ N ∈ `2 . P 1. Usando Cauchy-Schwarz mostrar que kT k2 ≤ n∈N 1/n2 . 2. Su adjunto T ∗ ∈ L(`∞ , `2 ) se define (en las entradas) igual que T , multiplicando por
1 n
.
3. Mostrar que T ∗ (B`∞ ) es compacta. Observar que da justo el cubo de Hilbert del Ejer. 3.8.18.
4
Definici´ on 5.9.22. Sean E y F dos EB’s. Fijemos una red T = (Ti )i∈ I y un T , todos en L(E, F ). S.O.T.
1. Decimos que Ti −−−−→ T (se lee “Ti converge fuertemente a T ”) si para cualquier x ∈ E se tiene que i∈I
k·k
Ti x −−→ T x (en la norma de F ). i∈ I
W.O.T.
2. En cambio Ti −−−−→ T (se lee “Ti converge debilmente a T ”) si para cualquier x ∈ E se tiene que i∈I
w
Ti x −−→ T x (en la d´ebil σ(F , F ∗ ) de F ). En otras palabras, si i∈ I
hTi x , ϕi −−→ hT x , ϕi
para todo par
i∈ I
x ∈ E , ϕ ∈ F∗ .
4
5.9.23. Sean E y F dos EB’s. En L(E , F ) se consideran las topolog´ıas S.O.T y W.O.T v´ıa las convergencias hom´ onimas. 1. Caracterizar las familias de seminormas que producen las topolog´ıas S.O.T y W.O.T de L(E , F ). 2. Describir los entornos (sub)b´ asicos del 0 de las mismas. 5.9.24. Probar que si una sucesi´ on (An ) est´a en A(H) , es decreciente (resp. creciente) y acotada (sus S.O.T. normas), entonces existe A ∈ A(H) tal que An −−−−→ A. En este caso, al l´ımite se lo llama A = ´ınf n∈N An n→∞
(resp. A = supn∈N An ), porque hA x , xi = ´ınf n∈N hAn x , xi para todo x ∈ H. Sug: Ya sabemos qu´e deben dar los productos hA x , xi. El resto sale polarizandolo.
165
Cap´ıtulo 6 Espectro La noci´on de autovalores no es la m´as adecuada para operadores en un espacio de Banach. Por ejemplo los shifts a izquierda y derecha T y S en L(`p ) definidos en 1.8.1, tienen o demasiados o demasiado pocos autovalores (S no tinen ninguno). El tema es que la noci´on de autovalor se basa en que el ker (λ IE − T ) 6= {0}, para un T ∈ L(E) y un λ ∈ K. Eso en el caso de que dim E < ∞ equivale a muchas otras cosas (onda el polinomio caracter´ıstco, usando determinantes). Cuando la dim E = ∞, lo que conviene es usar la condici´on de que λ IE − T ∈ / Gl (E), a´ un permiti´endole que sea mono. Eso permitir´a reproducir muchas de las propiedades estructurales que uno conoce para las matrices. Pero antes de desarrollar esa idea describiremos el contexto natural para la teor´ıa espectral, que son las ´algebras de Banach complejas.
6.1
´ Algebras de Banach
Se puede hacer la teor´ıa de ´algebras de Banacha a coeficientes reales, pero tiene poca gracia porque en ellas la noci´on de espectro se pifia, como para las matrices reales. Recordemos que A es una C-´algebra si • A es un C-EV. • Es adem´as un anillo con la misma suma que ten´ıa como EV, y un producto nuevo. • A tiene unidad 1 = 1A (para el producto) a menos que se diga lo contrario. • Vale la compatibilidad algebr´aica de los dos productos: λ(a b) = (λ a) b = a (λ b)
para
a, b ∈ A
y
λ ∈ C cualesquiera .
Los m´ ultiplos λ 1 = λ 1A para λ ∈ C y 1A el “uno” para la multiplicaci´on de A, se abreviar´an escribiendo λ 1A = λ, en el sentido de identificar a C con su copia C · 1A ⊆ A.
166
Definici´ on 6.1.1. Un ´algebra de Banach (abreviaremos AB) es una C-´algebra A que adem´as tiene una norma k · k que la hace un EB, junto con la condici´on de submultiplicatividad: ka bk ≤ kak kbk
para todo par
a, b ∈ A .
(6.1)
Asumimos que A tiene un 1 = 1A y k1A k = 1. Adem´as : 1. Diremos que un a ∈ A es inversible si existe a−1 ∈ A, que es el u ´nico elemento de A tal que a a−1 = a−1 a = 1 (cuando existe). 2. El grupo de elementos inversibles de A se denota por GA . En caso de que 1 ∈ / A diremos que A es un AB sin unidad.
4
Ejemplos 6.1.2. Los ejemplos m´as comunes de AB’s son: 1. Dado K un compacto Hausdorff, el espacio C(K) con la k · k∞ es un AB conmutativa. 2. Si K era LKH, se toma Cb (K) o su ideal C0 (K), que es un AB sin uno. 3. L∞ (X, Σ, µ) con el producto usual y su norma. En el caso de que X = B = D ⊆ C, tenemos que L∞ tiene una sub´algebra muy importante: el a´lgebra de Hardy H ∞ de las holomorfas en D y acotadas (en ctp) en B. Se puede mostrar que ellas son exactamente las f ∈ L∞ (T) tales que sus coeficientes fb(n) = 0 para los n < 0. 4. Otra AB sin uno famosa es L1 (R) con el producto de convoluci´on. En cambio `1 (Z) con la convoluci´on s´ı tiene uno, porque la delta de Dirac existe en el caso discreto. 5. La familia de ejemplos que m´as nos interesa ahora es la de L(E) para E un EB complejo, con la norma de operadores (vimos que es submultiplicativa). De paso eso incluye las a´lgebras de matrices (cuando dim E < ∞). Observar que los ejemplos anteriores eran todos conmutativos, mientras que los L(E) (y las matrices) son el paradigma del ´algebra no conmutativa. 4 Ejercicio 6.1.3. Sea A0 una AB sin uno. Consideremos entonces un 1 virtual y definamos el ´algebra A = C · 1 + A0 con los siguientes datos: Dados λ1 + a y µ1 + b ∈ A, • Suma: (λ1 + a) + (µ1 + b) = (λ + µ)1 + (a + b). • Producto: (λ1 + a) · (µ1 + b) = (λ µ)1 + (µ a + λ b + a b). • Norma: kλ1 + ak = |λ| + kak. Probar que entonces A es un a´lgebra de Banach con uno (adivinen quien), de la que A0 es un ideal bil´atero cerrado y maximal (y las nuevas operaciones coinciden con las viejas). 4
167
Teorema 6.1.4. Sea A un AB. Tenemos las siguientes propiedades: 1. Si c ∈ A tiene kck < 1, entonces se verifica que 1 − c ∈ GA
con
(1 − c)
−1
=
∞ X
cn
k(1 − c)−1 k ≤
y
n=0
1 . 1 − kck
(6.2)
2. Si a ∈ GA y b ∈ A cumple que kb − ak < ka−1 k−1 , entonces, b ∈ GA . 3. GA es abierto en A y la flecha GA 3 a 7→ a−1 ∈ GA es un h´omeo. Demostraci´on. Para probar el item 1, observemos que kck < 1
y
m
kc k ≤ kck
m
∀ m ∈ N =⇒
∞ X
k
kc k ≤
k=0 ∞ P
Luego, la serie
ck converge a un a ∈ A tal que kak ≤
k=1
(1 − c)
N P k=0
ck =
N P k=0
ck −
NP +1
∞ X
kckk =
k=0 1 1−kck
1 . 1 − kck
. Entonces cn −−−→ 0 y n→∞
ck = 1 − cN +1 −−−→ 1 =⇒ (1 − c) a = 1 . N →∞
k=1
Analogamente se prueba que a (1 − c) = 1 por lo que a = (1 − c)−1 . Veamos ahora que 1 ⇒ 2. En efecto, observar que ka−1 (b − a)k ≤ ka−1 k kb − ak < 1. Luego kb − ak < ka−1 k−1 =⇒ b = a − (a − b) = a 1 − a−1 (b − a) ∈ GA . −1 −1 Adem´as se tiene que b−1 = 1 − a−1 (b − a) a , por lo que kb−1 k ≤
ka−1 k ka−1 k 1 ≤ = −1 −1 . −1 −1 1 − ka (b − a)k 1 − ka k kb − ak ka k − kb − ak
(6.3)
Usando 2 sale de una que GA es abierto en A. Para ver la continuidad de invertir, tomemos −1 −1 bn −−−→ a (todos en GA ). A partir de alg´ un momento se tendr´a que kbn − ak < ka 2k . n→∞
Luego la Eq. (6.3) nos asegura que sup kb−1 n k < ∞ . Despues se usa que n∈N
−1 −1 −1 −1 a−1 − b−1 =⇒ ka−1 − b−1 −−→ 0 . n = a (bn − a)bn n k ≤ ka k kbn k kbn − ak − n→∞
Finalmente, la continuidad de invertir implica que es h´omeo, porque su inversa (ahora como funci´on) es ella misma.
168
Ahora s´ı tenemos el backround b´asico como para definir el espectro: Definici´ on 6.1.5. Sean A una C-AB y a ∈ A. Definimos las siguientes nociones: 1. El espectro de a es el conjunto σ(a) =
λ∈C : λ−a∈ / GA
.
(6.4)
2. El radio espectral de a es ρ(a) = sup |λ|. λ∈σ(a)
3. La resolvente de a es el conjunto Res(a) = C \ σ(a). 4. La funci´ on resolvente de a es Ra : Res(a) → A y est´a dada por Ra (λ) =
λ−a
−1
∈ GA
para cada
λ ∈ Res(a) .
(6.5) 4
Por el Teo. 6.1.4 ya podemos decir que Ra es continua. Ejercicio 6.1.6. Sea A un AB. Dados a, b ∈ A, probar que si ab = ba
y adem´as
ab ∈ GA =⇒ a y b ∈ GA .
Sugerimos mostrar que tanto a como b conmutan con ab, y por ello con (ab)−1 .
(6.6) 4
Antes de probar las propiedades b´asicas del espectro y de dar los ejemplos m´as ilustrativos, necesitamos un par de resultados t´ecnicos de an´alisis complejo en este contexto. Proposici´ on 6.1.7. Sea A un AB y sea a ∈ A. Luego se cumplen las siguientes propiedades: 1. Dado un poli P ∈ C[X], se tiene la igualdad espectral def σ P (a) = P σ(a) = {P (λ) : λ ∈ σ(a) } .
(6.7)
2. El radio espectral no le gana a la norma: ρ(A) ≤ kak. 3. Mejor a´ un, vale que ρ(a) ≤ ´ınf kan k1/n . n∈N
Demostraci´on. Fijemos el P ∈ C[X]. Dado λ ∈ σ(a), definamos el poli Q(x) = P (x) − P (λ) = (x − λ)B(x)
con
B ∈ C[X] ,
donde la factorizaci´on existe porque Q(λ) = 0. Luego, si µ = P (λ), tenemos que P (a) − µ = P (a) − P (λ) = Q(a) = (a − λ)B(a) ∈ / GA =⇒ µ ∈ σ P (a) , donde hemos usado que (a − λ) y B(a) conmutan, por lo que el hecho de que λ ∈ σ(a) (6.6) asegura que (a − λ) ∈ / GA =⇒ (a − λ)B(a) ∈ / GA . As´ı que P σ(a) ⊆ σ P (a) . 169
Dado ahora un µ ∈ σ P (a) , definamos y factoricemos el poli Q ∈ C[X] dado por Q(x) = P (x) − µ = cn
n Y
(x − λk )
donde las ra´ıces de Q son
λk ∈ C , k ∈ In .
k=1
Nos queda que Q(a) = P (a) − µ = cn
n Q
(a − λk ) ∈ / GA . Luego alguno de los factores
k=1
(a − λk ) ∈ / GA (esto sale porque GA es un grupo), por lo que λk ∈ σ(a) y µ = P (λk ). Probemos ahora el item 2: Tomemos un λ ∈ C tal que |λ| > kak. Entonces tenemos que k λa k < 1. Ahora podemos usar el Teo. 6.1.4 y llegamos a que (λ − a) = λ 1 −
a ∈ GA =⇒ λ ∈ / σ(a) . λ
(6.8)
Eso implica que ρ(a) ≤ kak. Por otro lado, vimos arriba (item 1 con P (x) = xn ) que σ(an ) = σ(a)n =⇒ ρ(a)n = ρ(an ) ≤ kan k =⇒ ρ(a) ≤ kan k1/n para todo n ∈ N. Y eso fue todo.
Observaci´ on 6.1.8. Sea A un AB y sea a ∈ A. Dado un λ ∈ C tal que |λ| > kak, ahora sabemos que λ ∈ Res(a). Pero usando las Eqs. (6.2) y (6.8) tenemos m´as data: Ra (λ) = (λ − a)
−1
∞ a −1 X −n−1 n λ a = 1− λ n=0
−1
=λ
siempre que
|λ| > kak .
(6.9) 4
Usaremos esta expresi´on m´as adelante. Ejercicio 6.1.9. Sea A un AB . Probar las siguientes afirmaciones:
1. Sea f : Ω → C una funci´on holomorfa en el conjunto abierto Ω ⊆ C. Supongamos que (i) La bola cerrada BM = {z ∈ C : |z| ≤ M } ⊆ Ω. ∞ P (ii) f (z) = αn z n con convergencia absoluta y uniforme para todo z ∈ BM . n=0 ∞ P
Luego, para todo a ∈ A con kak ≤ M , la serie f (a) =
αn an converge en A.
n=0
2. Extender la Eq. (6.7) en este sentido: Si a ∈ A tiene kak ≤ M , entonces def f σ(a) = {f (λ) : λ ∈ σ(a) } ⊆ σ f (a) para toda f como la del item 1 . La idea es que si f (z) =
∞ P
αn z n en BM , entonces tenemos que
n=0
f (λ) − f (a) =
∞ X
αn (λn − an ) = (λ − a)
n=0
∞ X n=1
170
αn Pn−1 (λ , a) ,
donde los polinomios Pn−1 (λ , a) se pueden calcular y acotar para que la serie converja a un b ∈ A que conmuta con a. Observar que σ(a) ⊆ BM . As´ı que todas estas cuentas que involucran series, convergen bien en todo λ ∈ σ(a). 4 Teorema 6.1.10. Sea A un AB y sea a ∈ A. Entonces vale que 1. El espectro σ(a) es compacto y no vac´ıo. 2. Se verifica la siguiente f´ ormula del radio espectral: ρ(a) = l´ım kan k1/n .
(6.10)
n→∞
Demostraci´on. Como GA es abierto, es f´acil ver que σ(a) es cerrado. Pero hag´amoslo m´as expl´ıcito porque nos servir´a despu´es. Fijemos un λ ∈ Res(a). Veremos que si z ∈ C cumple que |z| < kRa (λ)k−1 entonces tambi´en λ − z ∈ Res(a), porque podemos hacer −1
Ra (λ − z) = (λ − a − z)
= (λ − a) (1 − Ra (λ) z )
−1
=
∞ X
Ra (λ)n+1 z n .
(6.11)
n=0
Esto claramente da que Res(a) es abierto por lo que σ(a) es cerrado. Adem´as sabemos que ρ(a) ≤ kak por lo que σ(a) ya es compacto. Pero tenemos que ver que σ(a) 6= ∅. Para ello fijemos una ϕ ∈ A∗ y definamos f : Res(a) → C por f (λ) = ϕ(Ra (λ) ). Dado un λ ∈ Res(a) tomemos el entorno λ + Uλ , con Uλ = {z : |z| ≤ kRa (λ)k−1 }. Por la Eq. (6.11) y la continuidad de ϕ (que le permite “entrar” en la serie), vemos que f (λ − z) = ϕ(Ra (λ − z) ) =
∞ X
ϕ(Ra (λ)n+1 ) z n
para todo
z ∈ Uλ .
n=0
Eso nos dice que f es holomorfa en todo Res(a). Por otro lado, recordemos de la Eq. (6.9) que, para los λ ∈ C tales que |λ| > kak se tiene que f (λ) = ϕ(Ra (λ) ) =
∞ X
−n−1
λ
n
ϕ(a ) =⇒ |f (λ)| ≤
n=0
∞ X
|λ|−n−1 kakn kϕk .
(6.12)
n=0
Pero esta serie (de n´ umeros) se puede calcular: |f (λ)| ≤ kϕk
∞ P
|λ|−n−1 kakn = kϕk |λ|−1
n=0
∞ P n=0
kak |λ|
n
= kϕk |λ| − kak
−1
.
Deducimos que |f (λ)| −−−−→ 0. Si ahora supusi´eramos que σ(a) = ∅, entonces f ser´ıa entera |λ|→∞
y nula en el infinito. Por el Teorema de Liouville, f deber´ıa ser toda ella nula. Llegar´ıamos a que, para alg´ un λ ∈ Res(a) fijo, deber´ıa valer que ϕ( (λ − a)−1 ) = 0 para toda funcional ϕ ∈ A∗ . Pero eso dir´ıa (por H-B) que (λ − a)−1 = 0 adem´as de ser inversible. Dif´ıcil encontrar algo m´as absurdo. Luego σ(a) 6= ∅. 171
Con respecto a la f´ormula del radio espectral, volvamos a fijar la ϕ ∈ A∗ . Consideremos la variable z = λ−1 y la funci´on g(z) = f (z −1 ) = f (λ) para los z 6= 0. Por (6.12) vemos que g(z) =
∞ X
ϕ(an ) z n+1
para todo z ∈ C tal que
0 < |z| = |λ|−1 < kak−1 .
n=0
El caso z = 0 es nuevo, pero podemos poner g(z) = 0 y g queda continua en z = 0 porque ya sabemos que |f (λ)| −−−−→ 0 =⇒ |g(z)| −−−→ 0. En resumen, tenemos que g(z) es anal´ıtica |λ|→∞
|z|→0
(con serie conocida) en la bola {z ∈ C : |z| < kak−1 }. Pero sigue siendo anal´ıtica hasta que z −1 = λ no entre en el σ(a), o sea en la bola mayor {z ∈ C : |z| < ρ(a)−1 }. Luego g(z) =
∞ X
n
ϕ(a ) z
n+1
−1
si |z| < ρ(a)
=⇒ f (λ) =
n=0
∞ X
ϕ(an ) λ−n−1 si |λ| > ρ(a) .
n=0
Fijemos ahora un r > ρ(a) y tomemos los λ = r ei θ . Integrando la serie de λn+1 f (λ) queda 2π
Z
r
n+1 i(n+1) θ
e
iθ
f (r e ) dθ =
0
∞ Z X m=0
2π
rn−m ei(n−m) θ ϕ(am ) dθ = 2π ϕ(an ) ,
0
porque, como las primitivas de las ei(n−m) θ valen lo mismo en 0 que en 2π si n 6= m, la u ´nica integral que no se anula es la de m = n. Tomemos M (r) = sup kRa (r ei θ )k, que es finito 0≤θ≤2π
porque se lo toma en un compacto. Luego |f (r ei θ )| ≤ kϕk kRa (r ei θ )k ≤ kϕk M (r) para todo θ ∈ [0 , 2π]. Estimando lo de arriba nos queda que |ϕ(an )| ≤ kϕk rn+1 M (r)
para toda
ϕ ∈ A∗ =⇒ kan k ≤ rn+1 M (r) ,
para cualquier r > ρ(a). Tomando ra´ıces en´esimas y l´ımites superiores sale que 6.1.7
lim sup kan k1/n ≤ inf r = ρ(a) ≤ inf kan k1/n ≤ lim inf kan k1/n , porque r
n+1 n
n→∞
ρ(a)< r
n→∞
n→∞
1
M (r) n −−−→ r. Con eso terminamos la prueba. n→∞
Corolario 6.1.11. Sea A un AB que es un anillo de divisi´on (o sea que todo elemento no nulo es inversible: GA = A \ {0}). Estonces A = C · 1A ∼ = C. Demostraci´on. Veamos que la flecha C 3 λ 7→ λ 1A es suryectiva. En efecto, todo a ∈ A cumple que σ(a) 6= ∅. Luego existe alg´ un λ ∈ σ(a). Pero entonces tenemos que λ 1A − a ∈ / GA =⇒ λ 1A − a = 0 =⇒ λ 1A = a .
172
6.2
Ejemplos y ejercicios
Ahora que sabemos que el espectro es tan bueno, enumeraremos una serie de propiedeades facilongas para acostumbrernos a laburar con ´el. Recomendamos leerlas cuidadosamente, porque las usaremos seguido, y citaremos poco. 6.2.1. Sea A un AB. Se tienen las siguientes propiedades: Sean a ∈ A y µ ∈ C. 1. σ(0A ) = {0} y σ(1A ) = {1}. def
2. σ(µ a) = µ σ(a) = {µ λ : λ ∈ σ(a)}. En particular σ(−a) = −σ(a). def
3. σ(a + µ 1A ) = µ + σ(a) = {µ + λ : λ ∈ σ(a)}. def
4. a ∈ GA ⇐⇒ 0 ∈ / σ(a). En tal caso σ(a−1 ) = σ(a)−1 = {λ−1 : λ ∈ σ(a)}. 5. Sea B otra AB y Γ : A → B un isomorfismo (unital) de anillos que es a la vez un isomorfismo (acotado y sobre) de EB’s. Entonces σB Γ(a) = σ(a). 6. Un caso particular: Si g ∈ GA , entonces σ(g a g −1 ) = σ(a). 7. Sea P ∈ C[X] y supongamos que P (a) = 0A . Entonces σ(a) ⊆ { ra´ıces de P }. En particular, en ese caso (bastante poco com´ un) vale que σ(a) es finito. 8. En particular, a2 = a =⇒ σ(a) ⊆ {0, 1} y a2 = 1 =⇒ σ(a) ⊆ {−1, 1}. Las pruebas son todas f´aciles y van como ejercicio. Pero daremos un par. Si a ∈ GA , es claro que 0 ∈ / σ(a). Adem´as, tenemos las siguientes equivalencia: Dado λ ∈ C \ {0}, (6.6)
λ−1 − a−1 = λ−1 (a − λ) a−1 ∈ GA ⇐⇒ (a − λ) ∈ GA . Eso muestra que σ(a−1 ) = σ(a)−1 . Si vamos al iso Γ : A → B, es f´acil ver que a ∈ GA =⇒ a−1 a = a a−1 = 1A =⇒ Γ(a−1 ) Γ(a) = Γ(a) Γ(a−1 ) = Γ(1A ) = 1B , por lo que Γ(GA ) ⊆ GB , con Γ(a)−1 = Γ(a−1 ). Usando el iso Γ−1 : B → A que es tan bueno como Γ, sale la otra inclusi´on. En resumen, Γ(GA ) = GB . Con esto la igualdad de los espectros se demustra sin dificultades. La de los polinomios sale por la Prop. 6.1.7. 4 Ejercicio 6.2.2. Sea A un AB. Ahora va otra porpiedad que es mucho menos facilonga: Dados a , b ∈ A , probar que σ(a b) ∪ {0} = σ(b a) ∪ {0} .
(6.13)
Deducir que ρ(ab) = ρ(ba). Se recomienda mostrar que si λ − ab ∈ GA con λ 6= 0, entonces el elemento λ−1 1 + b (λ − ab)−1 a ∈ A es util . 4 Veamos los espectros de elementos de las AB’s conocidas. En la mayor´ıa de los casos alcanza caracterizar el grupo GA de un a´lgebra A para poder calcular el espectro de sus elememtos. 173
6.2.3. Sea K un compacto-H y A = C(K) = {f : K → C : f es continua }. Entonces GC(K) = {g ∈ C(K) : 0 ∈ / g(K)}
y
σ(f ) = f (K) = {f (x) : x ∈ K}
para toda f ∈ C(K). En efecto, como el producto en C(K) es punto a punto (y por ello conmutativo), podemos caracterizar a los elementos de GC(K) de la siguiente forma: g ∈ GC(K) ⇐⇒ existe h ∈ C(K) tal que g(x) h(x) = 1(x) = 1 para todo x ∈ K . 1 O sea que h(x) = g(x) para todo x ∈ K. Pero tal funci´on existe (y en tal caso es continua) ⇐⇒ g(x) 6= 0 para todo x ∈ K. Ahora la caracterizaci´on σ(f ) = f (K) sale con fritas.
En el caso de que K sea Hausdorff pero no compacto, se puede considerar el espacio de funciones complejas continuas y acotadas Cb (K), que es otra AB con la k · k∞ . En tal caso lo arriba expuesto sigue valiendo siempre que uno reemplace f (K) por f (K) en todas sus apariciones. La falta de compacidad deja de garantizar que son la misma cosa. 4 6.2.4. Sea ahora A = L∞ = L∞ (X , Σ , µ). Dada f ∈ L∞ definamos su rango esencial n o Re (f ) = λ ∈ C : µ y ∈ X : |f (y) − λ| < ε 6= 0 para todo ε > 0 (6.14) =
n
λ ∈ C : µ f −1 BCa (λ , ε)
6= 0
para todo
ε>0
o
.
Traduciendo, λ ∈ Re (f ) si la f “ronda” cerca de λ con medida positiva para toda cercan´ıa prefijada. Esta noci´on sirve como el rango com´ un (o su clausura) en el ejemplo anterior: GL∞ = {g ∈ L∞ : 0 ∈ / Re (g)}
y
σ(f ) = Re (f )
para toda
f ∈ L∞ .
La prueba es similar al caso continuo: Como el producto es punto a punto, tenemos que g ∈ GL∞ ⇐⇒
ctp
existe g −1 =
1 ∈ L∞ ⇐⇒ 0 ∈ / Re (g) , g
donde el ⇐⇒ de la derecha sale porque tenemos la siguiente igualdad 1 1 µ y ∈ X : | g(y) | < ε =µ y∈X: >M = . |g(y)| ε Que el de la derecha se anule para alg´ un M grande (eso es que 1/g ∈ L∞ ) equivale a que el de la izquierada se anule para un ε chico (eso es que 0 ∈ / Re (g) ). Observar que si X tiene una topolog´ıa Hausdorff tal que la medida de los abiertos (no vac´ıos) nunca es nula, entonces podemos considerar la sub´algebra de Banach Cb (X) ⊆ L∞ (X). Un buen ejercicio para entender qu´e es el Re es mostrar que si h ∈ Cb (X), entonces se cumple que Re (h) = h(X). Eso dice que el espectro de h en las dos a´lgebras en las que vive es el mismo. De hecho, es casi lo mismo que probar que las dos k · k∞ coinciden en Cb (X). El caso paradigm´atico es cuando X es un compacto dentro de Rn y la medida es la de Lebesgue. En tal caso C(X) ⊆ L∞ (X), las normas coinciden y los espectros tambi´en. 4 174
Ejercicio 6.2.5. En el caso discreto de `∞ (I), donde tambi´en multiplicamos “ i a i ” y queda un AB con su k · k∞ , probar que σ(a) = Re (a) =
ai : i ∈ I
para todo
a = (ai )i∈ I ∈ `∞ (I) .
No vale avivarse de que a : I → C es continua.
6.2.1
4
El espectro depende del ´ algebra
Ejemplo 6.2.6. Sea B = D ⊆ C. Como en el Ejem. 3.6.5, consideremos la sub´algebra A(D) ⊆ C(B) de de las f ∈ C(B) que son holomorfas en D, con la norma supremo sobre la bola B. Es un AB, y se la llama “el a´lgebra del disco”. Es un hecho conocido que si f ∈ A(D), entonces kf k∞ = supkzk=1 |f (z)| . Por lo tanto, podemos pensar en realidad que A(D) ⊆ C(T) , pasando de una f ∈ A(D) a f T ∈ C(T) , total las normas supremo coinciden. Tomemos el elemnto e1 ∈ A(D) dado por e1 (z) = z para z ∈ B. M´as vale que es holomorfa en D. Pero si calculamos su espctro queda que σA(D) (e1 ) = B
mientras que
σC(T) (e1 ) = T .
En efecto, lo de la derecha ya lo vimos antes. Pero si λ ∈ D, entonces tendr´ıamos que la funci´on (λ − e1 )(z) = λ − z, por lo que su inversa, de existir, tendr´ıa que ser g(z) = (λ − z)−1 al menos en todos los z ∈ B tales z 6= λ . Esto camina en T, por lo que (λ − e1 ) ∈ GlC(T) , pero es claramente imposible en D, y menos a´ un que g sea holomorfa all´ı. En el ejercicio que viene daremos m´as detalles sobre este extra˜ no fen´omeno. 4 Ejercicio 6.2.7. Sea A un AB y sea B ⊆ A una sub´algebra que tambi´en es de Banach (mismo uno y misma norma). Probar lo que sigue: 1. GB ⊆ GA ∩ B, pero la inclusi´on puede ser estricta (mirar la funci´on e1 del el Ejem. 6.2.6). 2. Dado a ∈ B, ahora tenemos dos espectros para ´el: σB (a) = {λ ∈ C : λ − a ∈ / GB }
y
σA (a) = σ(a) = {λ ∈ C : λ − a ∈ / GA } .
Se tiene que σA (a) ⊆ σB (a), pero que la inclusi´on puede ser estricta. def
3. Sin embargo, ρ(a) = ρB (a) =
sup |λ|. λ∈σB (a)
4. M´as a´ un, mostrar que (en cualquier AB, pongamos ahora A) una sucesi´on (an )n∈ N en GA converge al borde ∂ GA de GA ⇐⇒ ka−1 −−→ ∞, lo que no depende del ´algebra n k − n→∞ en donde vivan. 5. Deducir que ∂ GB ⊆ ∂ GA .
175
6. Interpretar lo anterior como que σB (a) consiste de tomar el conjunto σA (a) y “llenar” algunos de sus “agujeros”. Estos se pueden ver como las componentes conexas y acotadas del abierto C \ σA (a) . Cotejar esto con el Ejem. 6.2.6. 7. Deducir que los elementos a ∈ B que tienen su espectro σB (a) “chatito” (i.e., sin interior) cumplen que σB (a) = σA (a). 8. Generalizar todo lo anterior al caso en que B 6⊆ A, pero existe un morfismo unital de anillos Γ : B → A que es isom´etrico (aunque no sobre). 4
6.2.2
Gelfand
Ejercicios 6.2.8. Sea A un AB y sea I ⊆ A un ideal (si no se aclara es bil´atero) cerrado. 1. Probar que el anillo A/I con la norma cociente vista en la Prop. 1.7.1 es un AB. 2. Si J es un ideal no cerrado, mostrar que J es orto ideal. 3. Probar que si M ⊆ A es un ideal maximal, entonces es cerrado, por lo que A/M
es un AB de divisi´on
A/M ∼ =C.
=⇒
A partir de ahora asumamos que el ´algebra A es conmutativa. 4. Deducir que el espacio de caracteres (tambi´en llamado espectro de A) XA = {ϕ ∈ A∗ : ϕ es multiplicativa y unital } se biyecta con el espacio MA de ideales maximales de A. 5. Probar que si a ∈ A, entonces σ(a) = {ϕ(a) : ϕ ∈ XA }. La idea es que todo b ∈ / GA debe estar dentro de alg´ un maximal, y por ello en el n´ ucleo de una ϕ ∈ XA . 6. Deducir que todo caracter ϕ ∈ XA tiene kϕk = 1 (porque |ϕ(a)| ≤ ρ(a) ≤ kak). 7. Probar que XA munido con la topolog´ıa w∗ de A∗ es un compacto Hausdorff. 8. Mostrar que la flecha Γ : A → C(XA ) dada por Γ(a) = JA a = b a, es decir que b a (ϕ) = ϕ(a)
para
ϕ ∈ XA
y
a∈A
es un morfismo (bien definido, i.e., b a es continua) de ´algebras de Banach. Se lo llama la transformada de Gelfand. 9. Para probar la continuidad de Γ mostrar algo mejor: kΓ(a)k∞ = kb ak∞ = ρ(a) 176
(el radio espectral) .
(6.15)
10. Probar que ker Γ = Rad(A) el radical de Jacobson de A, que es la intersecci´on de los ideales maximales de A. Deducir que Rad(A) = {a ∈ A : σ(a) = {0} }, los elementos denominados cuasi-nilpotentes de A. Adivinen de d´onde sale el nombre. 4 Ejercicio 6.2.9. Sea K un compacto Hausdorff. Probar que si I ⊆ C(K) es un ideal cerrado, entonces el conjunto cerrado FI = {x ∈ K : f (x) = 0 para toda f ∈ I} cumple que I = g ∈ C(K) : g(x) = 0 para todo x ∈ FI . Deducir que MC(K) ∼ XC(K) ∼ = K, con la top w∗ de C(K)∗ en XC(K) . La flecha es K 3 x 7→ Fx = {x} ∼ Mx = {f ∈ C(K) : f (x) = 0} ∼ ϕx ∈ XC(K) , donde ϕx (f ) = f (x) para f ∈ C(K). Eso da una prueba por el camino m´as largo de que σ(f ) = f (K) = {f (x) : x ∈ K}
para toda
f ∈ C(K) ,
cosa que ya hab´ıamos visto en el Ejem. 6.2.3. Deducir que, identificando K con XC(K) como se hizo arriba, la transformada de Gelfand de C(K) es la identidad: fb(ϕx ) = ϕx (f ) = f (x) . Esto significa que toda AB conmutativa A se “representa” v´ıa Gelfand en un C(K) (ambas con el mismo espectro K), y que esa representaci´on es la natural si A ya era un C(K). 4 Ejercicio 6.2.10. Sea ahora Y un ET que es de Tychonoff. El AB conmutativa que nos interesa es A = Cb (Y ), o sea las funciones complejas actadas y continuas en Y . Llamemos β(Y ) al espacio compacto de caracteres XCb (Y ) . Probar que 1. Se puede “incrustar” Y ,→ β(Y ) (un embbeding, o sea que es un h´omeo de Y con su imagen) con la flecha Y 3 y 7−→ ϕy , donde ϕy es el caracter dado por la “evaluaci´on” de las f ∈ Cb (Y ) en el punto y. 2. Al hacer la transformada Γ : Cb (Y ) → C(β(Y ) ) se tiene que Γf (ϕy ) = fb(ϕy ) = f (y)
para toda
f ∈ Cb (Y )
y todo
y∈Y .
Interpretar esto como que la funci´on fb “extiende” la continua y acotada f a una continua en el compacto β(Y ) que “contiene” a Y . 3. Antes de seguir, mostrar que en este caso Γ es un morfismo isom´etrico sobre. Para ello comparar norma con radio espectral en Cb (Y ), y usar S-W 3.6.3. 4. Deducir que la imagen de Y por el embbeding de 1 es densa en β(Y ). 5. Como lo suger´ıa la notaci´on, β(Y ) = XCb (Y ) no es otra cosa que la compactificaci´on ˇ de Stone Cech de Y definida en la secci´on A.16, mientras que la trnasformada Γ es la extensi´on de su propiedad universal.
177
Ejemplo 6.2.11. Este va a t´ıtulo de divulgaci´on y propaganda, pero sigue siendo ejercicio para lectores con muchos a˜ nos de an´alisis. Consideremos el espacio L1 (R) con la Lebesgue. Es un AB sin uno, cuando uno le pone el producto de convoluci´on Z f ∗ g (t) = f (t − s) g(s) ds para f , g ∈ L1 (R) y t ∈ R . R
Sea A = C 1 + L1 (R), como en el Ejer. 6.1.3. Nos queda un AB conmutativa con uno. Se puede ver que XA es la compactaci´on de Alexandrov (un punto) de R, donde el ∞ es el caracter que tiene nucleo L1 (R) y los dem´as se ver´an en la siguiente f´ormula. El hecho notable es que con estas identificaciones, la restricci´on de la transformada de Gelfand Γ : A → C(XA ) al ideal L1 (R) toma valores en el ´algebra C0 (R) y miren qui´en es: Z 1 b f (t) e−i s t ds , Γ : L (R) → C0 (R) est´a dada por Γf (s) = f (s) = R
para cada f ∈ L1 (R) y s ∈ R. O sea que en este inocente ejemplito la transformada de Gelfand es la de Fourier! Observar que, como nos guardamos de decir antes para mantener el suspenso, identificamos los s ∈ R con los caracteres ϕs ∈ XA que no se anulan en L1 (R), dados por son ϕs (f ) = fb(s) para cada f ∈ L1 (R). Algo parecido pasa si ahora tomamos `1 (Z), que ahora es un AB con uno, con su convoluci´on X a ∗ b(n) = am−n bm para a = (an )n∈ N y b = (bn )n∈ N ∈ `1 (Z) . m∈Z
En este caso X`1 (Z) ∼ = T = {z ∈ C : |z| = 1} y Γ : `1 (Z) → C(T) est´a dada por X def Γa (ω) = fa (ω) = an ω n para a = (an )n∈ N ∈ `1 (Z) y ω ∈ T . n∈Z
Observar que la serie que define a cada fa (ω) converge absolutamente porque a ∈ `1 (Z). La imagen Γ(`1 (Z) ) se llama el ´algebra de Wiener (continuas en T con coeficientes de Fourier sumables), y tiene apariciones fulgurantes en an´alisis arm´onico. Hay una gran cantidad de detalles que no justificamos, pero vale la pena chamuyar sobre qu´e dan las cosas, para enterarse de que la de Gelfand es una transformada pulenta (ver el Ejer. 6.7.24). 4
6.3
Espectro de operadores
Ahora trabajaremos m´as detalladamente sobre el espectro de operadores T ∈ L(E), donde E es un EB. El concepto b´asico es que la noci´on de espectro es la generalizaci´on correcta de la de autovalores (de matrices) al contexto infinitodimensional. De hecho, si T ∈ L(E) y un λ ∈ C cumple que ker (λI − T ) 6= {0} (eso es ser un autovalor), es claro entonces que λI − T ∈ / Gl (E), por lo que λ ∈ σL(E) (T ). Pero puede haber muchos elementos espectrales de T que no sean autovalores. Sin ir m´as lejos, si T ∈ L(E) es mono 178
pero no sobre (de esos suele haber muchos cuando dim E = ∞), entonces 0 no es autovalor porque T es mono, pero s´ı est´a en el espectro de T porque T no es epi. M´as adelante dividiremos al σ(T ) en distintas clases (las distintas posibles causas de la no invertibilidad de los λ I −T ). Pero antes veamos algunas propiedades m´as gen´ericas y muchos ejemplos. Empecemos por la adjunta de un operador: Antes de enunciar las cosas aclaremos un eventual malentendido. Si H es un EH y A ∈ L(H), entonces A∗ ∈ L(H) opera en H (es el del Teo. 4.1.6) y no es (exactamente) lo mismo que el adjunto de A que opera en H∗ (seg´ un la Def. 2.6.2 para EN’s generales). Hay en el medio una identificaci´on (v´ıa el Teor. de representaci´on de Riesz) entre H∗ y H que es antilineal. Esto produce un cambio en el c´alculo del espectro de A∗ , como veremos ahora: Proposici´ on 6.3.1. Sean E un EB y H un EH. 1. Si T ∈ L(E), entonces T ∗ ∈ L(E ∗ ) cumple que σ(T ∗ ) = σ(T ). 2. En cambio, si A ∈ L(H), vale que σ(A∗ ) = { λ : λ ∈ σ(A)}. Demostraci´on. El tema clave es que un S ∈ Gl (E) ⇐⇒ S ∗ ∈ Gl(E ∗ ), como asegura la Prop. 2.6.12. Adem´as (λ S)∗ = λ S ∗ para cada λ ∈ C (porque S ∗ ϕ = ϕ ◦ S para las ϕ ∈ E ∗ ). Luego, dado λ ∈ C tenemos que (λIE −T ) ∈ Gl (E) ⇐⇒ (λ IE −T )∗ = λ IE ∗ −T ∗ ∈ Gl(E ∗ ). En cambio, si trabajamos en L(H) sigue valiendo que B ∈ Gl (H) ⇐⇒ B ∗ ∈ Gl (H), pero ahora tenemos que (λ B)∗ = λ B ∗ para los λ ∈ C (Teo. 4.1.6). Por lo tanto, ahora vale que λ IH − A ∈ Gl (H) ⇐⇒ (λ IH − A)∗ = λ IH − A∗ ∈ Gl (H) . Como siempre, esto implica que σ(A∗ ) = { λ : λ ∈ σ(A)}.
Corolario 6.3.2. Sea H un EH. Si U ∈ U(H), entonces σ(U ) ⊆ T = {λ ∈ C : |λ| = 1}. Demostraci´on. Por un lado, la Prop. 6.1.7 dice que ρ(U ) ≤ kU k = 1 =⇒ σ(U ) ⊆ {λ ∈ C : |λ| ≤ 1} . Pero al mismo tiempo tenemos que U ∗ = U −1 ∈ U(H) y tiene kU −1 k = 1, por lo que {λ−1 : λ ∈ σ(U )}
6.2.1 (4)
=
σ(U −1 ) ⊆ {λ ∈ C : |λ| ≤ 1} .
Juntando ambas cosas sale que λ ∈ σ(U ) =⇒ |λ| = 1.
Observaci´ on 6.3.3. Sea T ∈ L(H). Est´a claro que los λ ∈ σ(T ) no tienen porqu´e ser autovalores. Sin embargo una propiedad del estilo deben cumplir: Para todo λ ∈ σ(T ) existe una sucesi´on (xn )n∈ N en BH tal que kT xn − λ xn k −−−→ 0 n→∞
o sin´o
kT ∗ xn − λ xn k −−−→ 0 . n→∞
(6.16)
La prueba se basa en aplicarle el Cor. 4.1.8 a B = T − λIH . Concretamente, si tanto B como B ∗ fueran AI, entonces B ∈ Gl (H), lo que no vale si λ ∈ σ(T ). Observar que si T era normal, entonces se deben cumplir las dos convergencias de (6.16). En efecto, en tal caso tambi´en B ser´ıa normal, por lo que kB xk = kB ∗ xk para todo x ∈ H. 4 179
6.3.4. Pensemos en el Banach Lp = Lp (X , Σ , µ) para 1 ≤ p ≤ ∞. Dada una f ∈ L∞ , en 1.8.2 estudi´abamos el operador Mf ∈ L(Lp ) dado por Mf g = f g para g ∈ Lp . Ten´ıa kMf k = kf k∞ . Pero ahora queremos ver su espectro. Vale que σ(Mf ) = σL(Lp ) (Mf ) = σL∞ (f ) = Re (f ) ,
(6.17)
donde el “=” de la derecha lo vimos recientemente en 6.2.4. Como siempre, la prueba se basa en que Mf ∈ Gl(Lp ) ⇐⇒ f ∈ GlL∞ ⇐⇒ 0 ∈ / Re (f ). Y ello a su vez en que, de existir, Mf−1 deber´ıa ser Mg para una g ∈ L∞ tal que f g = 1. La prueba de esto u ´ltimo −1 sale tomando Mf (h) para h’s que sean caracter´ısticas de conjuntos de medida finita, para que caigan en Lp . Por ejemplo, si µ(X) < ∞ tomamos g = Mf−1 (1) y 1 = Mf (g) = f g. Dejamos los detalles para el lector esencial. En particular, pensando en el caso discreto, si a = (ai )i∈ I ∈ `∞ = `∞ (I) y tomamos el multiplicador Ma ∈ L(`p ), se tiene que σ(Ma ) = σ`∞ (a) = {ai : i ∈ I}. 6.3.5 (Espectro del shift). Consideremos primero los shifts unilaterales S, T ∈ L(`2 (N) ) definidos en 1.8.1. All´ı vimos que todo λ ∈ D es autovalor de T , por lo que D ⊆ σ(T ). Por la compacidad, toda la bola B = D ⊆ σ(T ). Pero por otro lado ρ(T ) ≤ kT k = 1, as´ı que ya podemos asegurar que σ(T ) = B. Todo esto para el shift hacia la izquierda T . Del shift hacia la izquierda S sabemos que no tiene ning´ un autovalor (ver 1.8.1). Sin embargo una cuenta directa (o un repaso de 4.1.9) muestra que S = T ∗ , por lo que tambi´en σ(S) = B (hay que conjugar, pero no importa). Con respecto a los bilaterales U, V ∈ L(`2 (Z) ) definidos en la Obs. 3.7.3, all´ı se vi´o que son unitarios (aunque todav´ıa no se usaba ese nombre). Por ello y por el Cor. 6.3.2 vemos que sus espectros tienen que vivir dentro de T. Mostraremos de dos maneras que σ(U ) = σ(V ) = T : 1. Por un lado, recordemos el isomorfismo natural Φ : L2 (T) → `2 (Z) correspondiente a la BON de Fourier {en (w) = wn }n∈Z de L2 (T). En la Obs. 3.7.3 vimos que vale la igualdad U = Φ−1 Me1 Φ. Pero la flecha Γ : L(L2 (T) ) → L(`2 (Z) ) dada por Γ(T ) = Φ T Φ−1 ∈ L(`2 (Z) )
para
T ∈ L(L2 (T) )
es un isomorfismo unital (y sobre) de AB’s. Y tenemos que Γ(Me1 ) = U . Al respecto, en 6.2.1 (5) vimos que entonces σ(U ) = σ(Me1 ). Por otro lado, en (6.17) mostramos que σ(Me1 ) = Re (e1 ). Y por u ´ltimo en 6.2.4 dec´ıamos que, al ser e1 continua, se cumple que σ(U ) = σ(Me1 ) = Re (e1 ) = e1 (T) = T. Uff. Se us´o todo el arsenal. 2. Ahora daremos una prueba m´as directa aunque algo cuentosa de lo mismo. La idea es tomar un ω ∈ T y construir un elemento w = (ω n )n∈Z ∈ `∞ (Z). Es f´acil ver que el multiplicador Mw ∈ U(`2 (Z )) (no cambia los tama˜ nos de las entradas). Una cuenta directa (algo pastosa) muestra que al conjugar a U con este Mw queda que Mw U Mw−1 = Mw U Mw = ω U =⇒ σ(U ) = σ(Mw U Mw∗ ) = σ(ω U ) = ω σ(U ) . 180
La idea es que si primero multiplicamos y despu´es corremos, al volver a multiplicar nos sobra (en todas las coordenadas) una potencia de ω. La igualdad σ(U ) = ω σ(U ) vale para todo ω ∈ T. Como σ(U ) 6= ∅, podemos elegir un u ∈ σ(U ). As´ı llegamos a que ω = (ω u) u ∈ (ω u) σ(U ) = σ(U ) para todo ω ∈ T. Finalmente, obsrevar que V = U ∗ = U −1 = Γ(Mz ) . Cualquiera de esas igualdades da (por distintas razones) que tambi´en σ(V ) = σ(U ) = T. 4
6.4
Espectro de autoadjuntos
A partir de ahora veremos algunos resultados de operadores en L(H). Recordemos que un A ∈ L(H) era AI si exist´ıa un ε > 0 tal que ε · kxk ≤ kA x k para todo x ∈ H. Es claro que ser AI implica ser mono y tener rango cerrado. En 2.6.11 probamos adem´as que todo A ∈ Gl (H) es autom´aticamente AI, con ε = kA−1 k−1 . Veamos que pasa si A es normal: Lema 6.4.1. Sea N ∈ L(H) un operador normal. Entonces vale que N
⇐⇒
es AI
N ∈ Gl (H) .
(6.18)
Demostraci´on. Sabemos desde 2.6.11 que la flecha ⇐ se cumple. Para la otra tenemos que ser AI =⇒ ser mono y que R(N ) v H. Pero como N es normal, se tiene que {0} = ker N
4.2.2
= ker N ∗
P rop. 4.1.7
=
R(N )⊥ =⇒ R(N )
Cor. 3.2.7
=
R(N )⊥
⊥
=H.
En resumen, como el rango de N es cerrado y denso, entonces N es epi.
Con este Lema podemos caracterizar bastante bien el espectro de los autoadjuntos: Proposici´ on 6.4.2. Sea A ∈ L(H) tal que A∗ = A (eso se notaba A ∈ A(H) ) Entonces: 1. Su espectro σ(A) ⊆ R. 2. Mejor a´ un, si definimos los siguientes n´ umeros mA = ´ınf hAx , xi kxk=1
y
MA = sup hAx , xi ,
(6.19)
kxk=1
entonces vale que σ(A) ⊆ [mA , MA ]. 3. Ambos extremos mA , MA ∈ σ(A). A veces se los nota λnim (A) y λmax (A) . 4. De paso ca˜ nazo: Un operador T ∈ L(H) cumple que T ∈ L(H)+ ⇐⇒ T ∈ A(H) y mT ≥ 0 ⇐⇒ T ∈ A(H) y σ(T ) ⊆ R+ .
181
(6.20)
Demostraci´on. Sea λ = a + i b ∈ σ(A). Abreviemos B = A − aI ∈ A(H). Luego k(A − λ I) xk2 = k(B − i b I) xk2 = kB xk2 + |b|2 kxk2 − 2 Re hB x , i b xi = kB xk2 + |b|2 kxk2 + 2 Re i b hB x , xi
( i b hB x , xi ∈ i R )
= kB xk2 + |b|2 kxk2 ≥ |b|2 kxk2 , para todo x ∈ H. Entonces, si λ ∈ / R entonces b 6= 0, por lo que A − λI ser´ıa normal y AI. Por el Lema 6.4.1 llegar´ıamos a que A − λI ∈ Gl (H). Absurdo mal. Listo que σ(A) ⊆ R. Asumamos ahora que λ ∈ R \ [mA , MA ] . Si x ∈ H \ {0} and y =
x kxk
, entonces
k(A − λ I) xk kxk ≥ h(A − λ I) x , xi = hA y , yi − λ kxk2 ≥ ε kxk2 , donde ε = d (λ , [mA , MA ] ) > 0 (observar que hA y , yi ∈ [mA , MA ] porque kyk = 1). En resumidas cuentas, nos vuelve a quedar que A − λ I es AI, y ahora autoadjunto. Nuevamente llegamos a que A − λI ∈ Gl (H), por lo que λ ∈ / σ(A). Observar que el operador B = A − mA I ∈ L(H)+ , porque hB y , yi = hA y , yi − mA ≥ 0 para todo vector unitario y ∈ H, y por una homotecia para todo x ∈ H de cualquier norma. Recordemos (Teo. 4.3.6) que existe la ra´ız B 1/2 ∈ L(H)+ tal que (B 1/2 )2 = B. Tomemos una sucesi´on (xn )n∈ N de vectores unitarios tales que hA xn , xn i −−−→ mA . Luego n→∞
kB 1/2 xn k2 = hB 1/2 xn , B 1/2 xn i = hB xn , xn i = hA xn , xn i − mA −−−→ 0 . n→∞
Como todos los xn eran unitarios, deducimos que B 1/2 no es AI, por lo que B 1/2 ∈ / Gl (H). Es f´acil ver que eso implica que B = A − mA I ∈ / GA , lo que prueba que mA ∈ σ(A). La prueba de que tambi´en MA ∈ σ(A) sale usando al operador C = MA I − A ∈ L(H)+ . Si tomamos ahora un T ∈ L(H), el primer ⇐⇒ de la Ec. (6.20) sale con fritas. Pero si estamos asumiendo que T ∈ A(H) (se lo hace de ambos lados), la equivalencia de las otras condiciones mT ≥ 0 ⇐⇒ σ(T ) ⊆ R+ se deduce de los items 2 y 3 de arriba. Definici´ on 6.4.3. Dado un T ∈ L(H), su radio num´ erico se define como el n´ umero w(T ) = sup hT y , yi . kyk=1
Es f´acil ver que la flecha T 7→ w(T ) define una norma en L(H). Se usa la Ec. (4.3).
4
Ejercicio 6.4.4. Sea H un EH. Probar las siguientes afirmaciones: 1. Si T ∈ L(H), entonces hT x , xi ≤ w(T ) kxk2 para todo x ∈ H. 2. Cuando A ∈ A(H), se tiene la igualdad w(A) = m´ax { MA , −mA }, donde mA y MA son los n´ umeros de la Prop. 6.4.2. 4 182
Proposici´ on 6.4.5. Sea H un EH. Relacionemos los radios y la norma: 1. Dado un T ∈ L(H) se tienen las desigualdades ρ(T ) ≤ w(T ) ≤ kT k .
(6.21)
2. Si dim H > 1, ´estas desigualdades bien pueden ser estrictas. 3. Sin embargo vale que las normas w(·) ∼ un, kT k ≤ 2 w(T ). = k · k en L(H). M´as a´ 4. En cambio, si A ∈ A(H), entonces ρ(A) = w(A) = kAk. Demostraci´on. El hecho de que w(T ) ≤ kT k no es otra cosa que Cauchy-Schwarz. Si ahora me dan un λ ∈ σ(T ), y como siempre llamamos B = T − λ I ∈ / Gl (H), tenemos tres posibilidades: Si existe un x ∈ ker B que es (un λ-autovector de T ) unitario, entonces 0 = hB x , xi = hT x , xi − λ =⇒ |λ| = hT x , xi ≤ w(T ) . Otra es que exista un x ∈ R(B)⊥ unitario. En este caso tambi´en vale que hB x , xi = 0 y se sigue igual. La u ´ltima posibilidad es que B sea mono y con rango denso. Pero entonces sabemos por 2.6.11 que B no ser´ıa AI, y existir´ıa una sucesi´on (xn )n∈ N de unitarios tal que B xn −−−→ 0 =⇒ hT xn , xn i − λ = hB xn , xn i −−−→ 0 =⇒ |λ| ≤ w(T ) . n→∞
n→∞
En resumen, |λ| ≤ w(T ) para todo λ ∈ σ(T ), por lo que ρ(T ) ≤ w(T ). Si tomamos la matriz 0 1 T = ∈ L(C2 ), se ve que las desiguadades pueden ser estrictas. En efecto, 0 0 ρ(T ) = 0 ,
w(T ) =
1 2
y
kT k = 1 .
La cuenta sale f´acil porque T (x1 , x2 ) = (x2 , 0) para (x1 , x2 ) ∈ C2 y porque σ(T ) = {0}. Sea ahora A ∈ A(H). La igualdad ρ(A) = w(A) se deduce de la Prop. 6.4.2 que dec´ıa que σ(A) ⊆ [mA , MA ] pero toca los dos bordes. Por otro lado el hecho de que A ∈ A(H) permite hacer una cuenta muy parecida a la polarizaci´on real vista en la Ec. (3.3), que dice as´ı :
4 Re hA x , yi = A (x + y) , (x + y) + A (x − y) , (x − y) , para todo par x , y ∈ H. Pero el paralelogramo (3.4) da que si x , y son unitarios, entonces 4 Re hA x , yi ≤ w(A) kx + yk2 + kx − yk2 = 2 w(A) kxk2 + kyk2 = 4 w(A) . Cambiando x por alg´ un ei θ x sale que hA x , yi ≤ w(A). Luego llegamos a que hA x , yi ≤ w(A) =⇒ kAk = w(A) . kAk = sup kxk=kyk=1
183
Por u ´ltimo, dado T ∈ L(H) podemos escribirlo como T = A + i B, donde A , B ∈ A(H) ∗ (por ejemplo se ten´ıa que A = T +T ). Con eso sale la desigualdad 2 kT k ≤ kAk + kBk = w(A) + w(B) ≤ 2 w(T ) , donde se usa que hA x , xi = Re h T x , xi para todo x ∈ H, por lo que w(A) ≤ w(T ) y algo parecido para mostrar que tambi´en w(B) ≤ w(T ). La igualdad ρ(A) = kAk que acabamos de ver que verifican los autoadjuntos, en realidad tambi´en se cumple para todo A que sea normal. La prueba va por otro camino: Teorema 6.4.6. Si N ∈ L(H) es normal, tambi´en se verifica que ρ(N ) = w(N ) = kN k .
(6.22)
Demostraci´on. Recordar del Teo. 4.1.6 que kT ∗ T k = kT k2 para todo T ∈ L(H). En particular, si A ∈ A(H) (por lo que A∗ A = A2 ), uno puede mostrar inductivamente que n
n−1
kAk2 = kA2 k2
n−1
= · · · = kA2
n
k2 = kA2 k
para todo
n∈N.
Pero ahora veremos que eso se extiende a nuestro normal N : Como N ∗ N ∈ A(H), entonces n
n
kN k2 = kN ∗ N k2
1/2
n
= k(N ∗ N )2 k1/2
normal
=
n
n
n
k(N ∗ )2 N 2 k1/2 = kN 2 k ,
(6.23)
siempre para todo n ∈ N. Pero por la f´ormula del radio espectral (6.10) vemos que n
ρ(N ) = lim kN m k1/m = lim kN 2 k1/2n m→∞
n→∞
(6.23)
=
kN k .
Finalmente, por la Ec. (6.21) el w(N ) queda ensanguchado entre ellos.
Corolario 6.4.7. Si N ∈ L(H) es normal y tiene σ(N ) = {λ}, entonces N = λ IH . Demostraci´on. Sea M = N − λ IH , que sigue siendo normal pero ahora tiene σ(M ) = {0}. Ahora solo falta descifrar que significa que ρ(M ) = kM k en este caso. Ejercicio 6.4.8 (Jodido por ahora). Dado un A ∈ L(H), probar que nuestro A ∈ A(H) ⇐⇒ A es normal y σ(A) ⊆ R .
4
Ejercicio 6.4.9 (Algo menos jodido). Probar que la norma w(·) cumple que w(T 2 ) ≤ w(T )2
para todo T ∈ L(H) .
184
4
6.5
C´ alculo funcional continuo
6.5.1. Sea H un EH y sea A ∈ L(H). Sabemos evaluar polinomios de C[X] en A. De hecho eso se puede hacer en cualquier a´lgebra (con polinomios a coeficientes en el cuerpo que le act´ ua). Fijado el A, uno tiene entonces un morfismo de a´lgebras EA : C[X] → L(H) dado por EA (p) = p(A) , para cada p ∈ C[X] . En ´algebra este EA se llama morfismo de evaluaci´on, pero ac´a lo llamaremos c´alculo polinomial en A. Es importante Q que recordemos que EA es morfismo de ´aQ lgebras. Por ejemplo eso (X − λk ) ∈ C[X], entonces p(A) = a (A − λk I) ∈ L(H). significa que si p(X) = a k∈In
k∈In
La idea de lo que viene es asumir que A ∈ A(H) (esto es esencial) y extenderlo a un nuevo c´alculo que permita hacer la evaluaci´on f (A), pero ahora para todas las funciones f que sean continuas en el espectro de A. Las herramientas clave que ya hemos desarrollado son: 1. Si A ∈ A(H), entonces σ(A) ⊆ R. Se vi´o en la Prop. 6.4.2. 2. σ(p(T ) ) = {p(λ) : λ ∈ σ(T )} para todo p ∈ C[X] y todo T ∈ L(H). (Prop. 6.1.7) 3. ρ(N ) = kN k para todo N ∈ L(H) que sea normal. Es el Teo. 6.4.6. 4. El Teorema de Stone-Weierstrass 3.6.3. Llamemos K = σ(A) ⊆ R. El Teo. 3.6.3 nos asegura que el a´lgebra de polinomios C[X] (actuando en K) es k · k∞ -densa en C(K). En otras palabras, la sub´algebra def
P (K) = {g ∈ C(K) : g(t) = p(t) para un p ∈ C[X] y todo t ∈ K} es k · k∞ -densa en C(K). Fijemos una f ∈ C(K). Dada una sucesi´on (pn )n∈ N en P (K) tal k · k∞
que pn −−−→ f , intentaremos definir el valor de f en A por la f´ormula n→∞
def
f (A) = lim pn (A) ∈ L(H) .
(6.24)
n∈N
Para que esto tenga sentido (buena definici´on), hay que verificar dos cosas: • Que la sucesi´on pn (A) tenga l´ımite en L(H). k · k∞
k·k
n→∞
n→∞
• Que si otra sucesi´on P (K) 3 qn −−−→ f =⇒ pn (A) − qn (A) −−−→ 0. En realidad ambas cosas son lo mismo, porque tanto los pn solos como las restas pn − qn son sucesiones de polinomios que convergen uniformemente en K (una a f , la otra a 0). Lema 6.5.2. Sea A ∈ A(H) y (pn )n∈ N una sucesi´on en C[X] que es uniformemente de Cauchy en σ(A). Entonces existe un B ∈ L(H) que cumple lo siguiente: 1. La sucesi´on pn (A) −−−→ B con la norma de L(H). n→∞
185
2. El l´ımite B es normal. 3. La norma de B se calcula as´ı: kpn k∞ −−−→ kBk , con normas supremo en σ(A). n→∞
Demostraci´on. Antes que nada, observar que los operadores pn (A) − pm (A) son normales para todo par n , m ∈ N (no est´an en A(H) porque los coeficientes pueden no ser reales). Por lo tanto, podemos aplicarles el Teo. 6.4.6. As´ı llegamos a que 6.4.6
kpn (A) − pm (A)k = ρ pn (A) − pm (A)
6.1.7
=
sup
|pn (λ) − pm (λ)| −−−−→ 0 . n,m→∞
λ∈ σ(A)
La convergencia final no es otra cosa que decir que los pn eran uniformemente de Cauchy en σ(A). La conclusi´on es que la sucesi´on pn (A) es de Cauchy en L(H). Como L(H) es un EB, existe el l´ımite B ∈ L(H). Y ´el es normal al ser l´ımite de normales. Para probar lo de las normas, se vuelve a usar que kpn (A)k = ρ(pn (A) ) = kpn k∞ para todo n ∈ N. Con el Lema anterior se subsanan las dos objeciones anteriores. As´ı que ahora ya podemos afirmar que la definici´on de f (A) dada en (6.24) es consistente. Es lo que se llama el c´alculo funcional continuo (CFC) para operadores autoadjuntos. Observar que si A ∈ L(H)+ , entonces el operador A1/2 definido en el Teo. 4.3.6 no es otra cosa que f (A) para la f (λ) = λ1/2 , definida para todo λ ∈ R≥0 . Para convencerse de ello basta mirar la Ec. (4.25), o bien acordarse de la unicidad que aseguraba el Teo. 4.3.6. 4 Definici´ on 6.5.3. Sea A ∈ A(H). Llamemos K = σ(A) ⊆ R. Definimos el CFC en A: ΦA : C(K) → L(H)
dada por
(6.24)
ΦA (f ) = f (A)
para toda
f ∈ C(K) .
Por el Lema 6.5.2 se ve que ΦA (f ) es normal para toda f ∈ C(K).
4
La gracia de este CFC es que, aunque Magoya calcula quien es f (A), igual es re-util porque tiene propiedades magn´ıficas. Empecemos con un listado de las m´as grosas: Teorema 6.5.4. Sea A ∈ A(H). Luego el c´alculo ΦA : C(K) → L(H) verifica que: 1. La ΦA extiende el c´alculo polinomial. Es decir que si p ∈ C[X], las dos formas de calcular p(A) (evaluar de una o hacer ΦA (p) ) coinciden. 2. Es un morfismo de a´lgebras. O sea que si f , g ∈ C(K), entonces ΦA (f + g) = (f + g) (A) = f (A) + g(A)
y
ΦA (f g) = (f · g) (A) = f (A) g(A)
3. Es un ∗-morfismo: Esto es que ΦA ( f ) = f (A) = f (A)∗ para toda f ∈ C(K). 4. Es isom´etrico. Vale la pena ponerlo como Ec. para citar despu´es: kΦA (f )k = kf (A)k = kf k∞
(en K) para toda
186
f ∈ C(K) .
(6.25)
k·k
5. Si fn −−−→ f uniformemente en K, entonces fn (A) −−−→ f (A). n→∞
n→∞
6. Si un B ∈ L(H) conmuta con A, entonces tambi´en lo hace con cualquier f (A). 6.2.3
7. El operador f (A) ∈ Gl (H) ⇐⇒ f ∈ GC(K) ⇐⇒ 0 ∈ / f (K). 8. Para toda f ∈ C(K) vale la f´ormula de la imagen espectral: def
σ(f (A) ) = σC(K) (f ) = f (σ(A) ) = {f (λ) : λ ∈ σ(A)} .
(6.26)
9. Se tienen las siguientes caracterizaciones: f (A) ∈ A(H) ⇐⇒ f es real
y
f (A) ∈ L(H)+ ⇐⇒ f es positiva .
(6.27)
Demostraci´on. El hecho de que el CFC sea consistente con la evaluaci´on algebr´aica de polinomios sale tomando una sucesi´on constante en (6.24). Los items 2, 3, 4 y 5 salen directamente de la definici´on de ΦA tomando l´ımite de polinomios, porque suma, producto, conjugaci´on - ∗, conmutaci´on vs. B y normas se preservan en el c´alculo polinomial (la norma por el Lema 6.5.2), y tambi´en cuando uno toma l´ımite, tanto en C(K) como en L(H). Eso muestra en forma directa que si f ∈ GC(K) =⇒ f (A) ∈ Gl (H), dado que su inversa es f (A)−1 = ΦA (f −1 ) = (f −1 )(A). Pero si existe λ ∈ σ(A) tal que f (λ) = 0 y encima asumimos que f (A) ∈ Gl (H), como Gl (H) es abierto (Teo. 6.1.4) existir´ıa un ε > 0 tal que todos los T ∈ L(H) tales que kf (A) − T k < ε siguen en Gl (H) . Por el item 4, esto incluir´ıa a todos los T = p(A) para un p ∈ C[X] tal que kf − pk∞ < ε. Sin embargo, much´ısimos de ellos pueden construirse de modo que p(λ) = f (λ) = 0. Pero en tal caso s´ı sabemos por la Prop. 6.1.7 que 0 ∈ σ(p(A) ) por lo que T = p(A) ∈ / Gl (H). La igualdad σ(f (A) ) = f (σ(A) ) sale sin drama a partir del item 7. Basta observar que (f −λ 1)(A) = f (A)−λ IH y fijarse si son inversibles de cada lado. Finalmente, si f ∈ C(K), f (K) ⊆ R ⇐⇒ f = f
ΦA es mono
⇐⇒
3
f (A) = f (A) = f (A)∗ ⇐⇒ f (A) ∈ A(H) .
Probado esto, la caracterizaci´on de la positividad sale por las Ecs. (6.20) y (6.26).
Observaci´ on 6.5.5. El Teo. 6.5.4 suele enunciarse diciendo que “existe un u ´nico morfismo (de AB’s) continuo ΦA : C(K) → L(H) que exitende el c´alculo polinomial”, o bien tal que ΦA (1) = IH y ΦA (X) = A. Y que el tal ΦA cumple todas las propiedades del Teo. 6.5.4. Esto ahora es evidente si uno mira la f´ormula (6.24). Es interesante observar que una prueba alternariva del item 7 sobre el espectro de los f (A) se puede hacer v´ıa el Ejer. 6.2.7. El tema es que se puede pensar que C(K)“ ⊆ ”L(H) por el incruste isom´etrico ΦA . Luego se usa de ambos lados que dada f ∈ C(K), vale que la f es inversible ⇐⇒ |f |2 = f f es inversible. Idem con f (A) vs. f (A)∗ f (A) en L(H).
187
Y nuestro nuevo elemento |f |2 , que est´a en la sub´algebra, tiene su espectro de C(K) en R, por lo que no tiene “agujeros” y debe conicidir con “su” espectro σ(f (A)∗ f (A) ) en L(H). Este camino usando la teor´ıa de AB’s es en realidad el mejor para definir el CFC. Por ejemplo permite extender el Teo. 6.5.4 (con todos sus items) a operadores normales N ∈ L(H). La idea clave es definir el ´algebra de Banach C ∗ (N ) ⊆ L(H) generada por N , N ∗ y IH . Observar que la normalidad de N asegura que C ∗ (N ) es conmutativa. Luego se aplica la “transformada de Gelfand”, cuyos preliminares vimos en el Ejer. 6.2.8, que exhibe un isomorfismo natural Γ entre las ´algebras conmutativas C ∗ (N ) y C(σ(N ) ), a trav´es de una identificaci´on (h´omeo) de los caracteres de del a´lgebra C ∗ (N ) con el compacto σ(N ) (haciendo XC ∗ (N ) 3 ϕ 7→ ϕ(N ) ∈ σ(N ), lo que caracteriza a ϕ). Observar que el Teo. 6.4.6 y la Ec. (6.15) aseguran que en este caso Γ es isom´etrica. Que es sobre sale por Stone-Weierstrass 3.6.3. Luego uno define el CFC en N simplemente como la inversa de Γ. Una versi´on detallada de todo esto se ver´a en el Ejer. 6.7.16. Observar que todo lo de arriba (pero ahora para normales) incluye, entre otras cosas, el Ejer. 6.4.8. Los detalles, ahora mucho menos jodidos que entonces, siguen para el lector. 4 Observaci´ on 6.5.6. En el Ejer. 6.1.9 vimos otra versi´on de un c´alculo funcional. Se puede aplicar a todo T ∈ L(H) (no hace falta ni que sea normal), pero solamente funciona para funciones holomorfas definidas en una bola BCa (0 , M ) que contenga al σ(T ). Hay que decir dos cosas al respecto: Primero que si N ∈ L(H) es normal y f es una holomorfa como las de arriba, entonces el operador f (N ) es siempre el mismo, ya sea que lo calculemos con el CFC en N o con la serie del Ejer. 6.1.9. Esto es evidente del hecho que las sumas parciales de la serie sirven como polis que aproximen a la f uniformemente en σ(T ). Que ambos c´alculos extienden al polinomial es claro. Observar que el “c´alculo holomorfo”, tambi´en llamado CF de Riesz, es viable en toda AB, lo que ya es decir mucho m´as que L(H). Esto de por s´ı es importante porque si E es un EB, no tenemos la noci´on de operador autoadjunto o normal en L(E), por lo que no disponemos en L(E) de otro CF que el de Riesz. Por otro lado, la versi´on dada en el Ejer. 6.1.9 de este CF no es todo lo general que pudiera ser. El tema es que para poder definir f (T ), basta que la f sea holomorfa en un entorno cualquiera de σ(T ) (no hace falta que sea una bola centrada en cero). Esto ampl´ıa notablemente el conjunto de funciones que uno puede evaluarle a T . Claro que para esas nuevas f , el operador f (T ) no se calcula con un serie tan amigable como la que se us´o en el Ejer. 6.1.9. La idea base es usar la f´ormula integral de Cauchy a lo largo de una curva cerrada γ que “rodee” a σ(T ) dentro del dominio de f pero sin tocar al espectro, dando una sola vuelta contra el reloj. La f´ormula que queda es Z Z 1 1 −1 f (T ) = f (λ)(λ − T ) dλ = f (λ)RT (λ) dλ . 2πi γ 2πi γ El problema es que el desarrollo de este c´alculo, lo que incluir´ıa ver que existe tal curva γ, que f (T ) est´a bien definida, pero sobre todo ver que tiene propiedades razonables, es 188
una tarea larga y complicada. Por ello no lo incluiremos en este texto. El lector interesado pordr´a encontrar una excelente exposici´on de este c´alculo en el libro de Conway [2]. 4 Al efectuar el CFC en un A ∈ A(H), lo m´as usual es evaluarle funciones continuas definidas en un conjunto m´as viable que el σ(A), que es el intervalo [mA , MA ], delimitado por los extremos de σ(A) estudiados en la Prop. 6.4.2. Sin embargo, hay un caso clave en que conviene hacer todo lo contrario. Antes un ejercicio para repasar matrices 2 × 2 : Ejercicio 6.5.7. Sea T ∈ L(H). Recordar de 4.5.6 que si S ∈ Latr (T ) entonces T1 0 S T = con T1 ∈ L(S) y T2 ∈ L(S ⊥ ) . 0 T2 S⊥ Probar que en tal caso se tiene la siguiente iguadad de los espectros: σ(T ) = σ(T1 ) ∪ σ(T2 ) , donde al σ(T1 ) se lo piensa en L(S) y al de T2 en L(S ⊥ ). Si T ∈ A(H), probar que f (T1 ) 0 S f (T ) = para toda f ∈ C(σ(T ) ) . 0 f (T2 ) S⊥
4
d S Proposici´ on 6.5.8. Sea A ∈ A(H) y supongamos que σ(A) = K = K1 K2 dos mitades compactas clopen no vac´ıas. Sea f = 1K1 la caracter´ıstica de K1 dentro de σ(A). Luego:
1. Esta f ∈ C(K). Llamemos P = f (A) ∈ L(H). 2. Vale que P = P 2 = P ∗ , o sea que P ∈ P(H). Sea S1 = R(P ) v H. 3. El subespacio S1 reduce a A, o sea que si llamamos S2 = S1⊥ = R(1K2 (A) ), entonces P A = AP
(4.33)
=⇒
A(S1 ) ⊆ S1
y
A(S2 ) ⊆ S2 .
4. La gracia de todo es que la representaci´on matricial (4.36) en base a S1 ⊕ S1⊥ queda A1 0 S1 A= , y se tiene que σ(A1 ) = K1 y σ(A2 ) = K2 , (6.28) 0 A2 S1⊥ donde los espectros se calculan en las ´algebras L(Si ) en las que viven los Ai . d S Es decir que en la situaci´on σ(A) = K = K1 K2 se puede “dividir” al operador A y al espacio H en “autoespacios” ortogonales donde se realizan las dos mitades de σ(A).
189
Demostraci´on. La continuidad de f = 1K1 es obvia por la clopenidad. Si ahora uno observa que f = f 2 = f pensandolas como funciones de C(K), saca el item 2 usando el Teo. 6.5.4, cuyo item 5 tambi´en asegura que P A = AP , lo que muestra el item 3 de ac´a. Notar que 0 6= P 6= IH porque, al ser los Ki no vac´ıos, sus caracter´ısticas no son nulas en C(K). Si llamamos B = AP vemos que B = g(A) donde g(λ) = λ 1K1 (λ), para λ ∈ K. Aplicando nuevamente el Teo. 6.5.4 podemos calcular que σ(B) = g(K) = K1 ∪ {0}. Si les aplicamos a estos operadores la representaci´on matricial vista en (4.36), nos queda que A1 0 IS1 0 A1 0 S1 B = AP = = . (6.29) 0 A2 0 0 0 0 S2 Ya sea por el Ejer. 6.5.7 o haciendo las cuentas (si no creen en matrices h´aganlas), sale que (6.29)
K1 ∪ {0} = σ(B) = σ(A1 ) ∪ {0} . Por lo tanto, solo falta ver si 0 ∈ σ(A1 ) o no. Podemos asumir que 0 ∈ / K (cambiando A por A + λIH si hace falta). En tal caso, para mostrar que σ(A1 ) = K1 s´olo nos hace falta probar que A1 ∈ Gl(S1 ). Pero fijens´e que ahora tenemos que la funci´on h(λ) = λ−1 1K1 (λ) vive en C(K) y cumple que g h = 1K1 = f . Llamemos C = h(A). Luego B C = g(A) h(A) = f (A) = P = h(A) g(A) = C B .
(6.30)
Como h(A) conmuta con P = f (A), la Prop. 4.5.8 nos aseguraba que S1 ∈ Latr (C) y que C1 0 A1 0 C1 A1 0 IS1 0 CB = = = =P . 0 C2 0 0 0 0 0 0 En forma similar sale que P = BC =⇒ A1 C1 = IS1 . Luego C1 = A−1 1 y A1 ∈ Gl(S1 ). La prueba de que σ(A2 ) = K2 es igual. Corolario 6.5.9. Sea A ∈ A(H). Si λ es un punto aislado de σ(A), entonces: 1. El tal λ ∈ σ(A) es un autovalor de A, en el sentido de que ker(λIH − A) 6= {0}. 2. La funci´on 1{λ} ∈ C(σ(A) ). Sean Pλ = 1{λ} (A) y Sλ = R(Pλ ). Luego Sλ ∈ Latr (A). 3. Adem´as, haciendo la representaci´on matricial (4.36) en base a Sλ ⊕ Sλ⊥ queda λ IS1 0 Sλ A= , 0 A2 Sλ⊥ donde A2 = A (I − Pλ ) ∈ A(Sλ⊥ ) cumple que σ(A2 ) = σ(A) \ {λ}. 4. Nuestro Sλ cumple que en realidad Sλ = ker(λIH − A).
190
Demostraci´on. El hecho de que λ sea aislado significa que K2 = σ(A) \ {λ} es tambi´en un clopen compacto dentro de σ(A). Si llamamos K1 = {λ} estamos en las condiciones de la Prop. 6.5.8. Con las notaciones de ella, tenemos que Sλ = R(Pλ ) v H es no nulo y que A1 0 Sλ A= donde A1 = A S ∈ A(Sλ ) tiene σ(A1 ) = K1 = {λ} . ⊥ λ 0 A2 Sλ El hecho de que A1 ∈ A(Sλ ) sale por la vieja Ec. (4.39). Por el Cor. 6.4.7 uno deduce que A1 = λ ISλ y de ah´ı que Sλ ⊆ ker(λIH − A). Pero vimos arriba que Sλ 6= {0}. La segunda parte del enunciado sale directo de la Prop. 6.5.8. Observar que de ah´ı uno saca f´acilmente que en realdad R(Pλ ) = Sλ = ker(λIH − A), porque en caso contrario deber´ıa / σ(A2 ). pasar que ker(λIH − A) ∩ Sλ⊥ 6= {0}. Y eso no est´a permitido porque λ ∈ En la prueba hay un peque˜ no gap. El caso en que σ(A) = {λ} har´ıa que K2 = ∅. Pero en ese caso todo lo que se postula es trivial, porque A = λIH (Cor. 6.4.7). Corolario 6.5.10. Toda matriz autoadjunta tiene una BON de vectores propios. Demostraci´on. Sale por un argumento inductivo a partir del Cor. 6.5.9. Notar que como el espectro de las matrices es finito, todos sus puntos son aislados. Corolario 6.5.11. Si A ∈ A(H) tiene espectro finito, entonces 1. Si σ(A) = {λ1 , . . . , λr }, existen P1 , . . . , Pr ∈ P(H) tales que X X Pi Pj = 0 si i 6= j , Pk = IH y A = λk Pk . k∈ Ir
2. Si p(X) =
Q
(6.31)
k∈ Ir
(X − λk ) ∈ C[X], entonces p(A) = 0.
k∈ Ir
Es decir que un A ∈ A(H) es “algebr´aico” ⇐⇒ σ(A) es finito. Ojo que esto no vale para todos los dem´as operadores T ∈ L(H). Demostraci´on. Nuevamente sale haciendo inducci´on en el Cor. 6.5.9. De hecho hay que definir a cada Pk = 1{λk } (A). Con ellos P las tres partes de la Ec. (6.31) salen sin mucha dificultad. Con la representaci´on A = λk Pk , tambi´en es una cuentita directa la k∈ I r P verificaci´on de que q(A) = q(λk ) Pk para todo q ∈ C[X]. k∈ Ir
Ejercicio 6.5.12. Usando la Obs. 6.5.5, probar que todos los resultados anteriores, desde la Prop. 6.5.8 hasta el Cor. 6.5.11, siguen siendo v´alidos si uno reemplaza en enunciados y pruebas la frase “A ∈ A(H)” por “N ∈ L(H) es normal”. Ya que estamos, si el lector ley´o sobre el CF de Riesz en el Conway, le proponemos extender esos mismos resultados para cualquier ´algebra de Banach A y cualquier elemento a ∈ A. La idea es que, en realidad, la caracter´ıstica de una mitad clopen de σ(a) es una funci´on holomorfa en un entorno de σ(a). Todos los resultados a extender se basan en ese hecho. 4 191
Ejercicio 6.5.13. Sea N ∈ L(H) un operador normal. Notemos K = σ(N ). Fijemos una f ∈ C(K) y llamemos J = f (K) ⊆ C que es compacto. Dada ahora una g ∈ C(J), vale que 1. La composici´on h = g ◦ f ∈ C(K), por lo que podemos evaluar h(N ) = g ◦ f (N ) ∈ L(H) . 2. Pero tambi´en podemos hacer primero M = f (N ) y observar que M es normal y σ(M ) = f (K) = J , por lo que g ∈ C(σ(M ) ) . En resumen, podemos usar el CFC para M = f (N ) y obtener g(M ) = g(f (N ) ) ∈ L(H), y por otro lado hacer CFC en N y obtener h(N ) = g ◦ f (N ). El ejercicio es probar que g ◦ f (N ) = g(M ) = g(f (N ) ) , (6.32) o sea que las dos maneras plausibles de evaluar la composici´on coinciden. Sug: Probarlo primero para funciones g ∈ C(J) que sean polin´omicas.
4
Ejercicio 6.5.14. Sea U ∈ U(H), por lo que en particular es normal. La Prop. 6.3.2 nos dice que σ(U ) ⊆ T. Asumamos que no lo llena, o sea que existe un ω ∈ T \ σ(U ). Probar que en esas condiciones siempre existe un B ∈ L(H) tal que B ∗ = −B
y
U = eB .
Esto u ´ltimo significa que U = exp(B) v´ıa en CFC en B, donde exp(z) = ez es la funci´on exponencial. M´as a´ un, probar que existe un A ∈ L(H) tal que cumple lo siguiente: A ∈ A(H) , σ(A) ⊆ [t , t+2π]
para alg´ un t ∈ [0 , 2π]
y
U = exp(i A) = ei A . (6.33)
La idea es definir B = log(U ) con alguna rama holomorfa del log que “salte” en nuestro puntito ω ∈ / σ(U ). De hecho m´as adelante veremos que el requerimiento de que σ(U ) no llene a T no es imprescindible para obtener (6.33), pero s´olo es posible hacerlo con el CFC si asumimos eso. El caso general que anunciamos ser´a una consecuencia del futuro CFBA (CF Boreliano acotado), del que ´esta disgresi´on es un m´arketing previo. Observar que tal resultado implicar´ıa que U(H) es conexo (por arcos), conectando a U con IH con la curva continua [0, 1] 3 t 7→ ei t A ∈ U(H). Haciendo la DP y usando que L(H)+ es convexo, se podr´ıa deducir que todo el grupo Gl (H) es tambi´en arconexo. Ojo que ambas cosas s´olo valen porque K = C. Notar que en el caso real (y finitodimensional) el signo del determinante da dos componentes conexas de U(H) y de Gl (H). 4 Otra aplicaci´on directa del CFC es la posibilidad de definir las “partes” positiva y negativa de un A ∈ A(H):
192
Proposici´ on 6.5.15. Sea A ∈ A(H). Entonces existen u ´nicos A+ y A− ∈ L(H)+
tales que A = A+ − A−
y A+ A− = 0 .
(6.34)
En particular, todo T ∈ L(H) es CL de 4 positivos (de una forma can´onica). Demostraci´on. Sabemos que σ(A) ⊆ R. Definamos f ∈ C(R) la funci´on dada por f (t) = m´ax{t , 0} = t ∨ 0
t∈R.
para cada
def
Como es continua pordemos definir A+ = f (A), que es positivo porque f toma valores def positivos, v´ıa (6.27). Adem´as A− = A+ − A = f (A) − A = g(A), donde la nueva g ∈ C(R), que esta dada por g(t) = f (t) − t = 0 ∨ −t (para t ∈ R), es otra funci´on positiva que adem´as cumple que f g ≡ 0, por lo que ya tenemos que A− ∈ L(H)+ y que A+ A− = 0. Veamos la unicidad: Si A = C − D con C , D ∈ L(H)+ y tales que CD = 0, entonces C y D conmutan con A, y por ello tambi´en conmutan con A+ y con A− (por 6 del Teo. 6.5.4). Definamos ahora el operador S = A+ − C = A− − D ∈ A(H). Luego tenemos que 0 ≤ S ∗ S = S 2 = (A+ − C) (A− − D) = − A+ D + A− C ≤ 0 . Se us´o que el producto de positivos que conmutan queda positivo (si no saben porqu´e vale va como ejercicio). Es claro que S ∗ S = 0 =⇒ S = 0, as´ı que C = A+ y D = A− . Lo de la CL de 4 positivos pasa por esctibir cada T ∈ L(H) como T = Re T + i Im T . Ejercicio 6.5.16. Sea A ∈ A(H). Probar que |A| = A+ + A− = m(A) ,
6.6
donde
m(t) = |t|
para
t∈R.
4
Propiedades de la ra´ız cuadrada positiva
Repasemos las propiedades de orden en A(H) vistas en la Secci´on 4.3. Dados A, B ∈ A(H)
decimos que
A≤B
si
B − A ∈ L(H)+ .
(6.35)
Observar que, dados A, B ∈ A(H), se tiene que A ≤ B ⇐⇒ hA x , xi ≤ hB x , xi
para todo
x∈H.
Repasemos ahora el enunciado de la Prop. 4.3.2 Prop. 4.3.2. Sea H un EH. Dados A, B ∈ A(H) tales que A ≤ B, se tiene que 1. Para cualquier T ∈ L(H) pasa que T ∗ AT ≤ T ∗ BT . 2. Si adem´as pasaba que A ∈ L(H)+ , entonces kAk ≤ kBk.
193
(6.36)
3. A cualquier A ∈ A(H) se lo ensangucha con m´ ultiplos de la identidad: −kAk I ≤ A ≤ kAk I .
(6.37)
4. A ∈ Gl (H)+ ⇐⇒ A ≥ c I para cierto c > 0.
6.6.1. Veamos ahora algunas cosas nuevas de este tema: En principio observar que Dado un A ∈ L(H)+
se tiene que A ≤ I ⇐⇒ kAk ≤ 1 ⇐⇒ ρ(A) ≤ 1 .
(6.38)
Las =⇒ son claras. Pero ρ(A) ≤ 1 =⇒ σ(A) ⊆ [0, 1], y all´ı la funci´on f (t) = t es menor que g(t) ≡ 1. Por el CFC eso nos da que A = f (A) ≤ g(A) = I. Va otra: Dado T ∈ L(H), se tiene las siguientes dos propiedades: 0 ≤ T ∗ T ≤ kT ∗ T k I
y
T ∗ T ≤ I ⇐⇒ kT k ≤ 1 .
(6.39)
4.1.6
La primera es f´acil y la segunda sale de (6.38), porque kT ∗ T k = kT k2 .
4
Lema 6.6.2. Dados A ∈ L(H)+ y B ∈ Gl (H)+ , se tiene que A ≤ B ⇐⇒ kA1/2 B −1/2 k ≤ 1 ⇐⇒ ρ(AB −1 ) ≤ 1 .
(6.40)
Demostraci´on. Notemos que A ≤ B ⇐⇒ B −1/2 AB −1/2 ≤ I ⇐⇒ (A1/2 B −1/2 )∗ A1/2 B −1/2 ≤ I . Luego se aplican (6.38), (6.39) y el hecho de que ρ(B −1/2 AB −1/2 ) = ρ(AB −1 ), igualdad que se deduce del Ejer. 6.13 en el ´algebra de Banach L(H). Corolario 6.6.3. Dados A , B ∈ Gl (H)+ tales que A ≤ B, se tiene que B −1 ≤ A−1 . Proof. Por (6.40) tenemos que ρ(AB −1 ) ≤ 1. Pero el Ejer. 6.13 nos asegura que (6.40)
ρ(B −1 A) = ρ(AB −1 ) ≤ 1 =⇒ B −1 ≤ A−1 . Ya se habia dado una prueba de esto en la Prop. 4.3.10, pero esta es mucho m´as corta.
Recordemos que si A ∈ L(H)+ , entonces el operador A1/2 definido en el Teo. 4.3.6 no es otra cosa que f (A) para la f (λ) = λ1/2 , definida para todo λ ∈ R≥0 . Sale f´acil por la unicidad que da el Teo. 4.3.6. Ahora viene un resultado importante: tomar ra´ız cuadrada es lo que se suele llamase “una funci´on mon´ otona de operadores”. Eso significa lo siguiente: Proposici´ on 6.6.4. Sean A , B ∈ L(H)+ tales que A ≤ B. Entonces tambi´en A1/2 ≤ B 1/2 .
194
Demostraci´on. Supongamos que B ∈ Gl (H)+ . Usando dos veces (6.40) sale que 6.13
1 ≥ kA1/2 B −1/2 k ≥ ρ(A1/2 B −1/2 ) = ρ(B −1/4 A1/2 B −1/4 ) =⇒ I ≥ B −1/4 A1/2 B −1/4 . Por lo tanto B 1/2 ≥ A1/2 . Si B no es inversible, para cada ε > 0 se toma B + εI ∈ Gl (H)+ . Luego A1/2 ≤ (B + εI)1/2 para todo ε > 0. Como (t + ε)1/2 − t1/2 ≤ ε1/2 para todo t ≥ 0, 1/2
hA
x, xi ≤
D
1/2
(B + εI)
E (6.25) x, x −−−−→ hB 1/2 x, xi ,
para todo
ε→0
x∈H.
La funci´on ra´ız cuadrada se usa adem´as para definir el m´odulo de operadores. Estudi´emoslo un poquito mejor: Dados S , T ∈ L(H), se tiene que 1. Es falso en general que |S + T | ≤ |S| + |T | como operadores. 2. Sin embargo, al menos vale que la flecha T 7→ |T | es continua. Esto no es nada f´acil de verificar. Para probarlo veamos antes un par de resultados: Corolario 6.6.5. Sean S , T ∈ L(H). Entonces tenemos la desigualdad |S T | ≤ kSk |T | .
(6.41)
Demostraci´on. Por la Prop. 4.3.2 y la Ec. (6.39) sabemos que (ST )∗ ST = T ∗ S ∗ ST ≤ kSk2 T ∗ T . Tomando ra´ıces y usando la Prop. 6.6.4 llegamos a que |ST | ≤ kSk |T | como operadores. Proposici´ on 6.6.6. Sea I ⊆ R un intervalo cerrado (valen semirrectas o todo R). Sean 1. f : I → C una funci´on continua. def
2. AI (H) = {A ∈ A(H) : σ(A) ⊆ I}. CF C
Entonces la aplicaci´on f : AI (H) → L(H) dada por AI (H) 3 A −→ f (A) ∈ L(H) es continua, respecto de la norma en ambos lados. Demostraci´on. Tomemos An −−−→ A, todos en AI (H). Observar que n→∞
mn = min hAn x , xi kxk=1
entonces
mn −−−→ mA = min hA x , xi , n→∞
kxk=1
porque cada hAn x , xi ∈ hA x , xi + (−ε , ε) siempre que kA − An k < ε. Lo mismo pasa con los m´aximos Mn respecto de MA = m´axkxk=1 hA x , xi. Por el Teo. 6.4.2, hay un n0 tal que σ (An ) ⊆ [mn , Mn ] ⊆ J = I ∩ [mA − ε , MA + ε]
195
para todo
n ≥ n0 .
Por el teorema de Weierstrass (en el intervalo cerrado J), existe un P ∈ C[X] tal que kf − P kJ , ∞ < ε . Comparando f (An ) con P (An ) para n ≥ n0 , vemos que kf (A) − f (An )k ≤ kf (A) − P (A)k + kP (A) − P (An )k + kP (An ) − f (An )k < 2 ε + kP (A) − P (An )k −−−→ 2 ε . n→∞
De ah´ı saldr´ıa que kf (A) − f (Am )k −−−→ 0 y que la f “de operadores” quedar´ıa continua m→∞
en el espacio AI (H). En lo de arriba se us´o que 6.5.4
kf (B) − P (B)k = kf − P kσ(B) , ∞ ≤ kf − P kJ , ∞ < ε para todo B ∈ AJ (H) , que tanto A como los An est´an ahi (desde n0 ), y que el polinomio P que est´a fijo cumple que P (An ) −−−→ P (A) (suma finita de potencias). n→∞
Corolario 6.6.7. Sea H un EH. La funci´on m´odulo de operadores, pensada como L(H) 3 T 7−→ |T | = (T ∗ T )1/2 ∈ L(H)+ es continua. Es decir que Tn −−−→ T =⇒ |Tn | −−−→ |T |. n→∞
n→∞
Demostraci´on. El m´odulo es la composici´on de dos flechas continuas, a saber • Una f´acil: L(H) 3 T 7−→ T ∗ T ∈ L(H)+ . √
• Una m´as jugada: A[0 , ∞) (H) = L(H)+ 3 A 7−→ A1/2 ∈ L(H)+ . La primera es continua porque estrellar es isom´etrica y multiplicar continua en las dos variables. La ra´ız cuadrada de operadores es continua en A[0 , ∞) (H) por la Prop. 6.6.6. Finalmente, la igualdad A[0 , ∞) (H) = L(H)+ se vi´o en la Ec. (6.20) del Teo. 6.4.2. Ejercicio 6.6.8. Sea H un EH. Sea I ⊆ R un intervalo abierto. Probar que def
1. El conjunto AI (H) = {A ∈ A(H) : σ(A) ⊆ I} es abierto en A(H). 2. La evaluaci´on (CFC) por una f ∈ C(I) es cotinua en AI (H). Ahora van un par bastante m´as dif´ıciles. Si no salen al menos recordar que valen: CF C
3. Si f es “suave” en I, tambi´en es suave la flecha AI (H) 3 A −→ f (A) ∈ L(H). def
4. Si U ⊆ C es abierto, entonces L(H)U = {T ∈ L(H) : σ(T ) ⊆ U } es abierto en L(H). Esto es lo mejor que hay sobre “continuidad espectral” en todo el ´algebra L(H). 4
196
6.7
Ejercicios del Cap. 6 - Espectro
Ejercicios aparecidos en el texto 6.7.1. Sea A0 una AB sin uno. Consideremos entonces un 1 virtual y definamos el ´algebra A = C · 1 + A0 con los siguientes datos: Dados λ1 + a y µ1 + b ∈ A, • Suma: (λ1 + a) + (µ1 + b) = (λ + µ)1 + (a + b). • Producto: (λ1 + a) · (µ1 + b) = (λ µ)1 + (µ a + λ b + a b). • Norma: kλ1 + ak = |λ| + kak. Probar que entonces A es un ´ algebra de Banach con uno (adivinen quien), de la que A0 es un ideal bil´ atero cerrado y maximal (y las nuevas operaciones coinciden con las viejas). 4 6.7.2. Sea A un AB. Dados a, b ∈ A, probar que si ab = ba
y adem´as
ab ∈ GA =⇒ a y b ∈ GA .
Sugerimos mostrar que tanto a como b conmutan con ab, y por ello con (ab)−1 .
4
6.7.3. Sea A un AB y sea a ∈ A. Dado un λ ∈ C tal que |λ| > kak, sabemos que λ ∈ Res(a). Usando las Eqs. (6.2) y (6.8) probar que: Ra (λ) = (λ − a)−1 = λ−1
1−
∞ a −1 X −n−1 n = λ a λ n=0
siempre que
|λ| > kak .
4
6.7.4. Sea A un AB . Probar las siguientes afirmaciones: 1. Sea f : Ω → C una funci´ on holomorfa en el conjunto abierto Ω ⊆ C. Supongamos que (i) La bola cerrada BM = {z ∈ C : |z| ≤ M } ⊆ Ω. ∞ P (ii) f (z) = αn z n con convergencia absoluta y uniforme para todo z ∈ BM . n=0
Luego, para todo a ∈ A con kak ≤ M , la serie f (a) =
∞ P
αn an converge en A.
n=0
2. Extender la Eq. (6.7) en este sentido: Si a ∈ A tiene kak ≤ M , entonces f σ(a)
La idea es que si f (z) =
def
= {f (λ) : λ ∈ σ(a) } ⊆ σ f (a)
∞ P
para toda f como la del item 1 .
αn z n en BM , entonces tenemos que
n=0
f (λ) − f (a) =
∞ X
αn (λn − an ) = (λ − a)
n=0
∞ X
αn Pn−1 (λ , a) ,
n=1
donde los polinomios Pn−1 (λ , a) se pueden calcular y acotar para que la serie converja a un b ∈ A que conmuta con a. Observar que σ(a) ⊆ BM . As´ı que todas estas cuentas que involucran series, convergen bien en todo λ ∈ σ(a). 4 6.7.5. Sea A un AB. Se tienen las siguientes propiedades: Sean a ∈ A y µ ∈ C. 1. σ(0A ) = {0} y σ(1A ) = {1}.
197
def
2. σ(µ a) = µ σ(a) = {µ λ : λ ∈ σ(a)}. En particular σ(−a) = −σ(a). def
3. σ(a + µ 1A ) = µ + σ(a) = {µ + λ : λ ∈ σ(a)}. def
4. a ∈ GA ⇐⇒ 0 ∈ / σ(a). En tal caso σ(a−1 ) = σ(a)−1 = {λ−1 : λ ∈ σ(a)}. 5. Sea B otra AB y Γ : A → B un isomorfismo (unital) de anillos que es a la vez un isomorfismo (acotado y sobre) de EB’s. Entonces σB Γ(a) = σ(a). 6. Un caso particular: Si g ∈ GA , entonces σ(g a g −1 ) = σ(a). 7. Sea P ∈ C[X] y supongamos que P (a) = 0. Entonces σ(a) ⊆ { ra´ıces de P }. En particular, en ese caso (bastante poco com´ un) vale que σ(a) es finito. 8. En particular, a2 = a =⇒ σ(a) ⊆ {0, 1} y a2 = 1 =⇒ σ(a) ⊆ {−1, 1}.
4
6.7.6. Sea A un AB. Ahora va otra porpiedad que es mucho menos facilonga: Dados
a, b ∈ A ,
probar que
σ(a b) ∪ {0} = σ(b a) ∪ {0} .
Deducir que ρ(ab) = ρ(ba). Se recomienda mostrar que si λ − ab ∈ GA con λ 6= 0, entonces el elemento
λ−1 1 + b (λ − ab)−1 a ∈ A
4
es util .
6.7.7. Espectro en ´ algebras de funciones: 1. Sea K un compacto-H y A = C(K) = {f : K → C : f es continua }. Probar que GC(K) = {g ∈ C(K) : 0 ∈ / g(K)}
y
σ(f ) = f (K) = {f (x) : x ∈ K}
para toda f ∈ C(K). 2. Sea ahora A = L∞ = L∞ (X , Σ , µ). Dada f ∈ L∞ recordemos que su rango esencial era Re (f )
=
n
λ∈C:µ
=
n
6 0 = λ ∈ C : µ f −1 BCa (λ , ε)
y ∈ X : |f (y) − λ| < ε
6= 0
para todo
para todo
ε>0
o
ε>0
o
.
Traduciendo, λ ∈ Re (f ) si la f “ronda” cerca de λ con medida positiva para toda cercan´ıa prefijada. Esta noci´ on sirve como el rango com´ un (o su clausura) en el ejemplo anterior: GL∞ = {g ∈ L∞ : 0 ∈ / Re (g)}
y
σ(f ) = Re (f )
para toda
f ∈ L∞ .
3. Si X tiene una topolog´ıa Hausdorff tal que la medida de los abiertos (no vac´ıos) nunca es nula, podemos tomar la sub´ algebra de Banach Cb (X) ⊆ L∞ (X). Probar que si h ∈ Cb (X), entonces khk∞ (la de L∞ (X) ) = sup |f (x)| = khk∞ (la de Cb (X) )
y
Re (h) = h(X) = σ(h) ,
x∈X
en cualquiera de las dos ´ algebras. 4. Cuando X es un compacto dentro de Rn y la medida es la de Lebesgue, mostrar que C(X) ⊆ L∞ (X) y que las normas coinciden y los espectros tambi´en.
198
5. En el caso discreto de `∞ (I), donde tambi´en multiplicamos “ i a i ” y queda un AB con su k · k∞ , probar que
σ(a) = Re (a) =
ai : i ∈ I
para todo
a = (ai )i∈ I ∈ `∞ (I) .
No vale avivarse de que a : I → C es continua.
4
6.7.8. Sea A un AB y sea B ⊆ A una sub´ algebra que tambi´en es de Banach (mismo uno y misma norma). Probar lo que sigue: 1. GB ⊆ GA ∩ B, pero la inclusi´ on puede ser estricta (mirar la funci´on e1 del el Ejem. 6.2.6). 2. Dado a ∈ B, ahora tenemos dos espectros para ´el: σB (a) = {λ ∈ C : λ − a ∈ / GB }
y
σA (a) = σ(a) = {λ ∈ C : λ − a ∈ / GA } .
Se tiene que σA (a) ⊆ σB (a), pero que la inclusi´on puede ser estricta. def
3. Sin embargo, ρ(a) = ρB (a) =
sup
|λ|.
λ∈σB (a)
4. M´ as a´ un, mostrar que (en cualquier AB, pongamos ahora A) una sucesi´on (an )n∈ N en GA converge al borde ∂ GA de GA ⇐⇒ ka−1 −−−→ ∞, lo que no depende del ´algebra en donde vivan. n k− n→∞
Sug: Si
ka−1 n k
estuviera acotada, pasar´ıa que k1 − a−1 −−−→ 0. n ak − n→∞
5. Deducir que ∂ GB ⊆ ∂ GA . 6. Interpretar lo anterior como que σB (a) consiste de tomar el conjunto σA (a) y “llenar” algunos de sus “agujeros”. Estos se pueden ver como las componentes conexas y acotadas del abierto C \ σA (a) . Cotejar esto con el Ejem. 6.2.6. 7. Deducir que los elementos a ∈ B que tienen su espectro σB (a) “chatito” (i.e., sin interior) cumplen que σB (a) = σA (a). 8. Generalizar todo lo anterior al caso en que B 6⊆ A, pero existe un morfismo unital de anillos Γ : B → A que es isom´etrico (aunque no sobre). 4 6.7.9 (Transformada de Gelfand). Sea A un AB y sea I ⊆ A un ideal (si no se aclara es bil´atero) cerrado. 1. Probar que el anillo A/I con la norma cociente vista en la Prop. 1.7.1 es un AB. 2. Si J es un ideal no cerrado, mostrar que J es orto ideal. 3. Probar que si M ⊆ A es un ideal maximal, entonces es cerrado, por lo que A/M
es un AB de divisi´on
=⇒
A/M ∼ =C.
A partir de ahora asumamos que el ´ algebra A es conmutativa. 4. Deducir que el espacio de caracteres (tambi´en llamado espectro de A) XA = {ϕ ∈ A∗ : ϕ es multiplicativa y unital } se biyecta con el espacio MA de ideales maximales de A. 5. Probar que si a ∈ A, entonces σ(a) = {ϕ(a) : ϕ ∈ XA }. La idea es que todo b ∈ / GA debe estar dentro de alg´ un maximal, y por ello en el n´ ucleo de una ϕ ∈ XA .
199
6. Deducir que todo caracter ϕ ∈ XA tiene kϕk = 1 (porque |ϕ(a)| ≤ ρ(a) ≤ kak). 7. Probar que XA munido con la topolog´ıa w∗ de A∗ es un compacto Hausdorff. 8. Mostrar que la flecha Γ : A → C(XA ) dada por Γ(a) = JA a = b a, es decir que b a (ϕ) = ϕ(a)
para
ϕ ∈ XA
y
a∈A
es un morfismo (bien definido, i.e., b a es continua) de ´algebras de Banach. Se lo llama la transformada de Gelfand. 9. Para probar la continuidad de Γ mostrar algo mejor: kΓ(a)k∞ = kb ak∞ = ρ(a)
(el radio espectral) .
(6.42)
10. Probar que ker Γ = Rad(A) el radical de Jacobson de A, que es la intersecci´on de los ideales maximales de A. Deducir la siguiente caracterizaci´on del radical: Rad(A) = {a ∈ A : σ(a) = {0} }, los elementos denominados cuasi-nilpotentes de A. Adivinen de d´onde sale el nombre. 4 6.7.10. Sea K un compacto Hausdorff. Probar que si I ⊆ C(K) es un ideal cerrado, entonces el conjunto cerrado FI = {x ∈ K : f (x) = 0 para toda f ∈ I} cumple que I = g ∈ C(K) : g(x) = 0 para todo x ∈ FI . Deducir que MC(K) ∼ XC(K) ∼ omeo), con la top w∗ de C(K)∗ en XC(K) . La flecha es = K (h´ K 3 x 7→ Fx = {x} ∼ Mx = {f ∈ C(K) : f (x) = 0} ∼ ϕx ∈ XC(K) , donde ϕx (f ) = f (x) para f ∈ C(K). Eso da una prueba por el camino m´as largo de que σ(f ) = f (K) = {f (x) : x ∈ K}
para toda
f ∈ C(K) ,
cosa que ya hab´ıamos visto en el Ejem. 6.2.3. Deducir que, identificando K con XC(K) como se hizo arriba, la transformada de Gelfand de C(K) es la identidad: fb(ϕx ) = ϕx (f ) = f (x) . Esto significa que toda AB conmutativa A se “representa” v´ıa Gelfand en un C(K) (ambas con el mismo espectro K), y que esa representaci´ on es la natural si A ya era un C(K). 4 6.7.11. Sea ahora Y un ET que es de Tychonoff. El AB conmutativa que nos interesa es A = Cb (Y ), o sea las funciones complejas acotadas y continuas en Y , con la norma supremo. Llamemos β(Y ) al espacio compacto de caracteres XCb (Y ) . Probar que 1. Se puede “incrustar” Y ,→ β(Y ) con la flecha Y 3 y 7−→ ϕy , donde ϕy es el caracter dado por la “evaluaci´ on” de las f ∈ Cb (Y ) en el punto y. 2. Usar que Y era CR para ver que la incrustaci´on de arriba es en ralidad un embbeding, o sea un h´ omeo de Y con su imagen dentro de β(Y ) con la topolog´ıa inducida. 3. Al hacer la transformada Γ : Cb (Y ) → C(β(Y ) ) se tiene que Γf (ϕy ) = fb(ϕy ) = ϕy (f ) = f (y)
para toda
f ∈ Cb (Y )
y todo
y∈Y .
Interpretar esto como que la funci´ on fb “extiende” la continua y acotada f a una continua en el compacto β(Y ) que “contiene” a Y . 4. Antes de seguir, mostrar que en este caso Γ es un morfismo isom´etrico sobre. Para ello comparar norma con radio espectral en Cb (Y ), y usar S-W 3.6.3.
200
5. Deducir que la imagen de Y por el embbeding de 1 es densa en β(Y ) (ac´a tb se usa que Y era CR). ˇ 6. Como lo suger´ıa la notaci´ on, β(Y ) = XCb (Y ) no es otra cosa que la compactificaci´on de Stone Cech del espacio Y definida en la secci´ on A.16, mientras que la trnasformada Γ es la extensi´on de funciones continuas acotadas que da su propiedad universal. 6.7.12. Sea ω ∈ T y construir un elemento w = (ω n )n∈Z ∈ `∞ (Z). 1. Probar que el multiplicador Mw ∈ U(`2 (Z) ) (o sea que es unitario). 2. Sea U ∈ U(`2 (Z) ) el shift (a derecha). Mostrar que al conjugar a U con este Mw queda que −1 ∗ Mw U Mw = Mw U Mw = ω U =⇒ σ(U ) = σ(Mw U Mw ) = σ(ω U ) = ω σ(U ) .
3. Deducir que σ(U ) = ω σ(U ) vale para todo ω ∈ T. 4. Concluir que σ(U ) = T. ¿Y el de Mw qu´e da?
4
6.7.13. Sea H un EH. Probar las siguientes afirmaciones: 1. La flecha T 7→ w(T ) define una norma en L(H). Se usa la Ec. (4.3). 2. Si T ∈ L(H), entonces hT x , xi ≤ w(T ) kxk2 para todo x ∈ H. 3. Cuando A ∈ A(H), se tiene la igualdad w(A) = m´ax { MA , −mA }, donde mA y MA son los n´ umeros de la Prop. 6.4.2. 4 6.7.14. Probar que la norma w(·) cumple que w(T 2 ) ≤ w(T )2
para todo T ∈ L(H) .
4
6.7.15. Dado un A ∈ L(H), probar que nuestro A ∈ A(H) ⇐⇒ A es normal y σ(A) ⊆ R .
4
6.7.16 (CFC para normales). Sea N ∈ L(H) un normal. 1. Consideremos el ´ algebra de Banach C ∗ (N ) ⊆ L(H) generada por N , N ∗ y IH . Probar que C ∗ (N ) es conmutativa, cerrada por adjunci´ on y que todos sus elementos son normales. 2. Recordando el Ejer. 6.7.9, probar que la flecha XC ∗ (N ) 3 ϕ 7→ ϕ(N ) ∈ σ(N ) es un h´omeo entre el espectro maximal XC ∗ (N ) de C ∗ (N ) (con su topolog´ıa w∗ que lo hac´ıa compacto) y σ(N ). 3. Componiendo con este h´ omeo, identificar (como AB’s) a C XC ∗ (N ) con C(σ(N ) ). 4. Aplicar la “transformada de Gelfand” Γ : C ∗ (N ) → C XC ∗ (N ) ∼ = C(σ(N ) ) del Ejer. 6.7.9. 5. Usando el Teo. 6.4.6 y la Ec. (6.42), mostrar que Γ es isom´etrica. 6. Sea ϕ ∈ XC ∗ (N ) un caracter. Probar que ϕ(A∗ ) = ϕ(A) para todo A ∈ C ∗ (N ). 7. Deducir que Γ(A∗ ) = Γ(A) para todo A ∈ C ∗ (N ). 8. Probar que Γ es sobre por el Teor. de Stone-Weierstrass 3.6.3. 9. Definir el CFC en N simplemente como la inversa de Γ, o sea que ponemos def
ΦN = Γ−1 : C(σ(N ) ) → C ∗ (N ) ⊆ L(H) .
201
10. Extender el Teo. 6.5.4 (con todos sus items) a operadores normales N ∈ L(H). 4
11. Repasar a la luz de todo esto aquel viejo Ejer. 6.4.8 - 6.7.15.
6.7.17. Sea N ∈ L(H) un operador normal. Notemos K = σ(N ). Fijemos una f ∈ C(K) y llamemos J = f (K) ⊆ C que es compacto. Dada ahora una g ∈ C(J), vale que 1. La composici´ on h = g ◦ f ∈ C(K), por lo que podemos evaluar h(N ) = g ◦ f (N ) ∈ L(H) . 2. Pero tambi´en podemos hacer primero M = f (N ) y observar que M es normal
y
σ(M ) = f (K) = J ,
por lo que
g ∈ C(σ(M ) ) .
En resumen, podemos usar el CFC para M = f (N ) y obtener g(M ) = g(f (N ) ) ∈ L(H), y por otro lado hacer CFC en N y obtener h(N ) = g ◦ f (N ). El ejercicio es probar que g ◦ f (N ) = g(M ) = g(f (N ) ) , (6.43) o sea que las dos maneras plausibles de evaluar la composici´on coinciden. Sug: Probarlo primero para funciones g ∈ C(J) que sean polin´omicas.
4
6.7.18. Sea U ∈ U(H), por lo que en particular es normal. La Prop. 6.3.2 nos dice que σ(U ) ⊆ T. Asumamos que no lo llena, o sea que existe un ω ∈ T \ σ(U ). Probar que en esas condiciones siempre existe un B ∈ L(H) tal que B ∗ = −B
(en particular B es normal)
y
U = eB .
Esto u ´ltimo significa que U = exp(B) v´ıa en CFC en B, donde exp(z) = ez es la funci´on exponencial. M´ as a´ un, probar que existe un A ∈ L(H) tal que cumple lo siguiente: A ∈ A(H) , σ(A) ⊆ [t , t + 2π]
para alg´ un t ∈ [0 , 2π]
y
U = exp(i A) = ei A .
(6.44)
La idea es definir B = log(U ) con alguna rama holomorfa del log que “salte” en nuestro puntito ω ∈ / σ(U ). De hecho m´ as adelante veremos que el requerimiento de que σ(U ) no llene a T no es imprescindible para obtener (6.44), pero s´ olo es posible hacerlo con el CFC si asumimos eso. El caso general que anunciamos ser´ a una consecuencia del futuro CFBA (CF Boreliano acotado). Observar que tal resultado implicar´ıa que U(H) es conexo (por arcos), conectando a U con IH con la curva continua [0, 1] 3 t 7→ ei t A ∈ U(H). Haciendo la DP y usando que L(H)+ es convexo, se podr´ıa deducir que todo el grupo Gl (H) es tambi´en arconexo. 4 6.7.19. Sea A ∈ A(H). Probar que |A| = A+ + A− = m(A) ,
donde
m(t) = |t|
para
t∈R.
4
6.7.20. Sea T ∈ L(H). Recordar de 4.5.6 que si S ∈ Latr (T ) entonces S T1 0 T = con T1 ∈ L(S) y T2 ∈ L(S ⊥ ) . 0 T2 S⊥ Probar que en tal caso se tiene la siguiente iguadad de los espectros: σ(T ) = σ(T1 ) ∪ σ(T2 ) , donde al σ(T1 ) se lo piensa en el ´ algebra L(S) y al de T2 en L(S ⊥ ). Si T ∈ A(H), probar adem´as que S f (T1 ) 0 para toda f ∈ C(σ(T ) ) . f (T ) = 0 f (T2 ) S⊥
202
4
6.7.21. Sea H un EH. Sea I ⊆ R un intervalo abierto. Probar que def
1. El conjunto AI (H) = {A ∈ A(H) : σ(A) ⊆ I} es abierto en A(H). 2. La evaluaci´ on (CFC) por una f ∈ C(I) es cotinua en AI (H). Ahora van un par bastante m´ as dif´ıciles. Si no salen al menos recordar que valen: CF C
3. Si f es “suave” en I, tambi´en es suave la flecha AI (H) 3 A −→ f (A) ∈ L(H).
4
Ejercicios nuevos def
6.7.22. Sea A un AB. Si U ⊆ C es abierto, probar que AU = {a ∈ A : σ(a) ⊆ U } es abierto en A. En otras palabras, si a ∈ A y σ(a) ⊆ U , entonces existe ε > 0 tal que b∈A
y
ka − bk < ε =⇒ σ(b) ⊆ U .
4
6.7.23. Sea A un AB. Dados a, b ∈ A, probar que si ab ∈ GA
y tambi´en ba ∈ GA =⇒ a y b ∈ GA . 4
Observar que esto mejora el Ejer. 6.7.2. 1
6.7.24. Sea A = ` (Z) con su norma usual y el producto de convoluci´on a∗b=c
donde
cm =
X
an bm−n
para
a = (an )n∈ N , b = (bn )n∈ N ∈ A
y
m∈Z.
n∈Z
Probar que nos queda un AB unital (con 1 = e0 , la delta de Dirac discreta). Probar adem´as que 1. Antes de empezar, hay que ver que ka ∗ bk1 ≤ kak1 kbk1 para que sea AB. 2. Por otra parte A es conmutativa, i.e. a ∗ b = b ∗ a para todo par a , b ∈ A. 3. El elemento e1 ∈ GA y cumple que em 1 = em para todo m ∈ Z. 4. Por ello e1 genera el ´ algebra A. M´ as espec´ıficamente, todo a = (an )n∈ N ∈ A
se escribe como
a=
X
an en =
n∈Z
X
an en1 ,
n∈Z
con convergencia en la norma (uno) de A. 5. Deducir que todo caracter ϕ ∈ XA est´a determinado por su valor ϕ(e1 ). 6. Usando que kϕkA∗ = 1 y que ke1 k = ke−1 1 k = ke−1 k = 1, deducir que ϕ(e1 ) ∈ T. 7. Si λ ∈ T la funcional ϕλ : A → C dada por ϕλ (a) =
X
an λn
para cada
a = (an )n∈ N ∈ A
n∈Z
es lineal, acotada y multiplicativa. O sea que ϕλ ∈ XA y ϕλ (e1 ) = λ. 8. Deducir que λ 7→ ϕλ es un h´ omeo entre T y XA con inversa ϕ 7→ ϕ(e1 ).
203
9. Interpretar que la transformada de Gelfand se puede ver como Γ : A → C(T)
dada por
b(z) = Γa (z) = a
X
an z n
para
a = (an )n∈ N ∈ A
y
z∈T.
n∈Z
10. Luego la imagen de Γ son las f ∈ C(T) tales que sus coeficientes de Fourier (fb(n) )n∈Z ∈ `1 (Z). Esas funciones f forman la llamada ´ algebra de Wiener W(T). 11. Un famoso (y dif´ıcil) teorema del mismo Wiener dice que si f ∈ W(T) y f −1 ∈ C(T) entonces tambi´en su inversa es de Wiener: f −1 ∈ W(T). Probarlo con toda la data anterior. La facilidad de esta prueba le di´ o prensa mundial a la T de G, mostrando que es un “abstract nonsense” que tiene mucho sentido. −1 ∈ W(T). 4 b sale que 0 ∈ Sug: Se asume que 0 ∈ / f (T). Si f = a / σ(a) por lo que a−1 ∈ A y f −1 = ad
6.7.25. Sea N ∈ L(H) un operador normal. Demostrar que se verifica la siguiente propiedad: Dado un
λ ∈ C \ σ(N )
se tiene que
−1
k(N − λ)−1 k = d (λ , σ(N ) )
Dar un contraejemplo si se saca la hip´ otesis de normalidad.
. 4
6.7.26. Sea A ∈ L(H). Probar que las siguientes afirmaciones son equivalentes: 1. A ∈ L(H)+ 2. A = B 2 para cierto B ∈ A(H). 3. A = C ∗ C para alg´ un C ∈ L(H). 4. A ∈ A(H) y kA − λ IH k ≤ λ para todo n´ umero λ ≥ kAk. 5. A ∈ A(H) y kA − λ IH k ≤ λ para alg´ un n´ umero λ ≥ kAk.
204
4
Cap´ıtulo 7 Operadores compactos Recordemos que en el Cor. 5.8.2 mostramos que si T ∈ L(H) entonces T (BH ) es siempre cerrada en norma dentro de H. Se usa que los EH son todos reflex. Cabe preguntarse qu´e operadores cumplir´an que T (BH ) sea compacta en H. Ahora bien, si la dim H = ∞ y T (BH ) tiene interior no vac´ıo, ya sabemos que no puede pasar porque las bolitas nunca son compactas en H. Sin embargo hay muchos operadores que s´ı cumplen lo pedido arriba, y por ello se los llama operadores compactos. Una teor´ıa muy similar se puede desarrollar en el contexto m´as general de operadores entre EB’s. Pero en este texto nos limitaremos al caso Hilbertiano.
7.1
Definiciones y equivalencias
Si H es un EH, recordar que llam´abamos LF (H) = {T ∈ L(H) : rk T < ∞} ⊆ L(H) al subespacio de operadores de rango finito. Una cuenta f´acil, que sale usando la vieja Ec. (4.44), muestra que LF (H) en realidad es un ideal bil´atero de L(H) que adem´as es cerrado por tomar ∗ . Entonces su clausura sera un ideal cerrado que permitir´a cocientar y jugar a las a´lgebras de Banach. Pero antes de definir veamos una serie de condiciones equivalentes que usaremos a posteriori como definici´on. Lema 7.1.1. Sea H un EH. Fijemos B = {ei : i ∈ I} una BON de H. Para cada F ∈ PF (I) definamos proyector PF ∈ P(H) con rango HF = span {ei : i ∈ F}. Luego vale que kPF y − yk −−−−−→ 0 F∈ PF (I)
para todo
y∈H.
(7.1)
P Demostraci´on. Recordemos que P y = F i∈F hy , ei i ei . Aplicando ahora el Teo. 3.5.5 vemos P que kPF y − yk2 = i∈I\F | hy , ei i |2 −−−−−→ 0. F∈ PF (I)
Con el lenguaje del Lema anterior ya podemos dar la serie de condiciones equivalentes que anunci´abamos. Para cada Hilbert H, denotaremos por K(H) a la clausura en norma de los rango finito LF (H). En la prueba del siguiente teorema usaremos libremente las caracterizaciones de los espacios (topol´ogicos o m´etricos) compactos vistas en A.12.3 y A.13.3. 205
Teorema 7.1.2. Sean H un EH y T ∈ L(H). Las suguientes condiciones son equivalentes: def
1. T ∈ K(H) = LF (H). k·k
w
2. Si xi −−→ x (todos en BH ), entonces T xi −−→ T x. En otras palabas, estamos diciendo i∈ I i∈ I que la restricci´on T : BH → H es w → k · k continua. BH
3. T (BH ) es k · k- compacta en H. 4. Dada una red x = (xi )i∈ I en BH , existe un z ∈ H y una subred y = (yj )j∈ J de x tales k·k
que T yj −−→ z. j∈ J
5. T (BH ) es totalemte acotada con la norma de H. k·k
6. La red PF T −−−−−→ T , donde los PF son los proyectores del Lema 7.1.1, asociados a F∈ PF (I)
cualquier BON de H. A los T ∈ L(H) que cumplen estas cosas se los llama operadores compactos. w
Demostraci´on. Fijemos la red convergente xi −−→ x. Observar que como la red x = (xi )i∈ I i∈ I
vive en BH , entonces autom´aticamente su l´ımite x ∈ BH , porque la bola es convexa y cerrada en norma (se usa la Prop. 5.5.2). Si asumimos que T ∈ K(H), existir´a un S ∈ LF (H) tal que kT − Sk < 3ε . Luego la cuenta de siempre dice que kT xi − T xk ≤ kT xi − S xi k + kS xi − S xk + kS x − T xk <
2ε + kS xi − S xk , 3
Por otra parte, la Prop. 5.8.1 dec´ıa que el S debe ser w → w continuo, por lo que podemos w afirmar que S xi −−→ S x. Finalmente, como la dim R(S) < ∞, all´ı adentro la topolog´ıa de i∈ I
la norma coincide con la w (basta productear contra una BON del R(S) y convergen las k·k
coordenadas). Luego tenemos que S xi −−→ S x. Con la desigualdad de arriba podemos i∈ I
k·k
concluir que T xi −−→ T x como afirma el item 2. i∈ I
Como H es reflex, el Teo. 5.7.1 asegura que BH es w- compacta. Si ahora aceptamos que T B es w → k · k continuo, sale al toque que T (BH ) es k · k- compacta en H. Como sabemos H que T (BH ) es cerrada (Cor. 5.8.2) y por ello completa, eso equivale a que T (BH ) sea TA. Vimos que 1 ⇒ 2 ⇒ 3 ⇔ 5. La relaci´on 3 ⇔ 4 es casi tautol´ogica (v´ıa A.12.3). El baile k·k
es 5 ⇒ 6: Queremos probar que PF T −−−−−→ T . Por la Ec. (7.1) del Lema 7.1.1 aplicada F∈ PF (I)
a y = T x, sabemos que hay convergencia puntual. Pero estamos asumiendo que T (BH ) es a TA. Ello nos permite, dado un ε > 0, cubrila con n bolas Bk = BH (T xk , 3ε ), para k ∈ In .
206
Fijemos un F0 ∈ PF (I) tal que kPF T xk − T xk k < 3ε para todo F ⊇ F0 y todo k ∈ In . Usando que todas las kPF k ≤ 1, vemos que los F ⊇ F0 cumplen que kPF T x − T xk ≤ kPF (T x − T xk )k + kPF T xk − T xk k + kT xk − T xk < 2 kT x − T xk k +
ε 3
< ε siempre que T x ∈ Bk .
Como las Bk cubren T (BH ), si F ⊇ F0 nos queda que kPF T x − T xk < ε para todo x ∈ BH , k·k
es decir que kPF T − T k ≤ ε para tales F. Eso mustra que PF T −−−−−→ T . F∈ PF (I)
Finalmente notemos que PF ∈ LF (H) para todo F ∈ PF (I). Luego todos los productos PF T est´an tambi´en en LF (H). As´ı que 6 ⇒ 1 es gratis. La definici´on usual de que un operador T ∈ L(E , F ) entre espacios de Banach sea compacto pasa por el hecho de que T (BE ) sea “relativamente compacto”. En tal contexto no es cierto simpre que los compactos K(E, F ) ⊆ L(E, F ) sean la clausura de los rango finito. En cambio vimos que s´ı pasa con los compactos de L(H). A partir de ese hecho pueden probarse muchas propiedades del espacio K(H), y con el Teo. 7.1.2 ya tenemos muchas adentro. Las enumeramos a continuaci´on: Corolario 7.1.3. Sea H un EH. El conjunto K(H) de operadores compactos cumple: 1. Contiene a LF (H) i.e., todo rango finito es compacto. 2. Es un subespacio de L(H), o sea que suma de compactos es compacto. 3. M´as a´ un, es un ideal bil´atero. Esto agrega que si T ∈ K(H), entonces A T B ∈ K(H)
para todo par
A , B ∈ L(H) .
4. Es cerrado, por lo que un l´ımite de compactos queda compacto. 5. Es cerrado por adjunci´on: T ∈ K(H) =⇒ T ∗ ∈ K(H). 6. Adem´as vale que T ∈ K(H) ⇐⇒ |T | ∈ K(H) ⇐⇒ Re T e Im T ∈ K(H). 7. En cambio si hay un subespacio N ⊆ H y un ε > 0 tales que dim N = ∞
y T ∈ L(H) cumple
kT xk ≥ ε kxk
para todo
x∈N
(7.2)
(eso se abrevia “T es AI en N por ε”), entonces T ∈ / K(H). Demostraci´on. Al fin y al cabo K(H) era la clausura en norma e LF (H). De ah´ı se deducen en forma trivial los items 1 al 4. Lo del m´odulo sale porque si T = U |T | es la DP de T , en el Teo. 4.4.4 vimos que |T | = U ∗ T , por lo que T ∈ K(H) ⇐⇒ |T | ∈ K(H). De ah´ı sale que T ∗ = |T |U ∗ ∈ K(H) si T era compacto. Lo de Re T e Im T va como ejercicio. Finalmente,
207
si estamos en la situaci´on de (7.2), entonces existe un SON {xn : n ∈ N} ⊆ BN . Luego se w tiene que xn −−−→ 0 pero kT xn k ≥ ε para todo n ∈ N. n→∞
Los compactos parecen tan buenos que uno sospechar´ıa que tal vez haya muy pocos de ellos. Sin embargo son una clase bastante respetable, e incluyen muchas familias importantes de ejemplos, como los integrales y las “inversas” de muchos operadores diferenciales. De m´as est´a decir que si dim H < ∞, entonces K(H) = L(H), o sea que todas las matrices son compactas. De hecho, la gracia de todo esto es estudiar operadores que se parezcan m´as a ellas. Listemos a continuaci´on cu´ando son compactos nuestros ejemplos amigos: Ejemplo 7.1.4. Sea H = `2 (N) y fijemos un a = (an )n∈ N ∈ `∞ (N). Entonces Ma ∈ K( `2 (N) ) ⇐⇒ a ∈ c0 ,
es decir que
an −−−→ 0 . n→∞
Probemosl´o: En el Ejem. 1.2.5 vimos que c0 es la clausura con la k · k∞ de SF que eran las sucesiones finitas. Como la flecha a 7→ Ma era isom´etrica, si a ∈ c0 , entonces Ma se aproxima por operadores Mb con los b ∈ SF . Pero es f´acil ver que ´esos Mb ∈ LF (H). w
Si ahora asumimos que Ma ∈ K( `2 (N) ), basta recordar que los en −−−→ 0, por lo que n→∞
k·k
an en = Ma en −−−→ 0. Luego |an | = kan en k −−−→ 0 y a ∈ c0 . n→∞
4
n→∞
Ejemplo 7.1.5. El ejemplo anterior se generaliza bastante: Si H es un EH con dim H = ℵ0 , y fijamos B = {xn : n ∈ N} una BON de H, podemos definir un u ´nico operador Ma , B ∈ L(H)
tal que
Ma , B xn = an xn
para todo
n∈N.
(7.3)
P En efecto hay que hacer Ma , B x = n∈N an hx , xn i xn , para cada x ∈ H. Los operadores que admiten una representaci´on de este tipo se llaman diagonalizables, porque su “matriz” en B queda diagonal (con un a ∈ `∞ en la diagonal). Un ejercicio que es casi solo notacional (pero que igual hay que hacer) ser´ıa mostrar que un Ma , B ∈ K(H) ⇐⇒ a ∈ c0 . Es por esto que en muchos libros se usa la notaci´on L0 (H) en lugar de nuestro K(H). Como se va a usar seguido, a pesar de ser medio obvia igual dejamos sentada la siguiente propiedad: Si Ma , B es el de (7.3) para un a ∈ `∞
entonces
kMa , B k = kak∞ .
La prueba es igual que para L(`2 ) con la BON can´onica.
(7.4) 4
Ejemplo 7.1.6. El ejemplo anterior muestra una clase bastante gorda de operadores compactos. Sin embargo, cuando uno toma multiplicadores en un espacio de medida que sea “continuo”, no consigue nunca un compacto. Por ejemplo si H = L2 [0, 1] y tomamos un Mf ∈ L(H) para una f ∈ L∞ [0, 1], entonces se tiene que ctp
Mf ∈ K(H) ⇐⇒ f = 0 ⇐⇒ Mf = 0 . En efecto, si f 6= 0, existe un ε > 0 tal que A = {t ∈ [0, 1] : |f (t)| ≥ ε} tiene medida positiva. En tal caso, es f´acil ver que en el subespacio SA = {f ∈ L2 [0, 1] : f = f 1A } de funciones con soporte en A, nuestro Mf est´a AI por la contante ε. Como dim SA = ∞, el item 7 del Cor. 7.1.3 no permite que Mf ∈ K(H). 4 208
Ejemplo 7.1.7 (Operadores integrales). Recordemos el ejemplo visto en 1.8.3: Se labura en L2 = L2 (X, Σ, µ). Dado un n´ ucleo k ∈ L2 (X × X) con la medida producto µ × µ, el operador Tk ∈ L(L2 ) estaba dado por la f´ormula Z (Tk f )(x) = k(x, y) f (y) dµ(y) para cada f ∈ L2 y casi todo x ∈ X . (7.5) X
Sea B = {φi : i ∈ I} una BON de L2 . Dados i, j ∈ I definamos φi ⊗ φj ∈ L2 (X × X) por φi ⊗ φj (x, y) = φi (x) φj (y) para (x, y) ∈ X × X . Un ejercicio straightforward muestra que si los juntamos a todos, def
B ⊗ B = {φi ⊗ φj : i , j ∈ I}
es una BON de
L2 (X × X) .
La idea es probar primero que es un SON (eso sale f´acil), y despu´es ver que su ortogonal es hx h(x, y) viven cero, usando que dada una h ∈ L2 (X × X), casi todas las funciones X 3 y 7−→ en L2 (X). Laburo para la casa. De paso observar que los operadores asociados Tφi ⊗φj = φi φj ∈ L1 (L2 (X) )
para todo par
i, j ∈ I ,
donde φi φj son los operadores de rango uno definidos en (4.42). En efecto, si f ∈ L2 (X), Z φi (x) φj (y) f (y) dµ(y) = hf , φj i φi (x) para todo x ∈ X . Tφi ⊗φj f (x) = X
Luego Tφi ⊗φj f = hf , φj i φi = φi φj (f ). Observemos ahora dos hechos: • La flecha L2 (X × X) 3 k 7→ Tk ∈ L(H) reduce normas: kTk k ≤ kkk2 (ver 1.8.3). • Todo k ∈ L2 (X × X) es l´ımite (en norma dos) de combinaciones lineales finitas de elementos de B ⊗ B, por ser ´esta una BON. Entonces uno deduce que Tk ∈ LF (L2 (X) ) = K(L2 (X) ) para todo n´ ucleo k ∈ L2 (X × X). 2 Traduciendo, todos los operadores integrales con n´ ucleo de tipo L son compactos. 4 Ejercicio 7.1.8. Sea H un EH con una BON B = {xn : n ∈ N}. Sea DB = {M ∈ L(H) : M = Ma , B
(el de (7.3) ) para alg´ un
a ∈ `∞ } .
1. Mostrar que DB ∩ K(H) = {Ma , B : a ∈ c0 } (propuesto en el Ejem. 7.1.5). 2. Probar que existe un EB ∈ L(L(H) ) que comprime a la diagonal: (a) EB2 = EB y kEB k = 1. (b) Su rango es R(EB ) = DB , por lo que EB (M ) = M para todo M ∈ DB . (c) M´as a´ un, se tiene que si M ∈ DB y T ∈ L(H), entonces EB (M T ) = M EB (T ) 209
y
EB (T M ) = EB (T ) M .
(d) Si T ∈ K(H), entonces EB (T ) ∈ K(H). 3. Probar que aunque K(H) v L(H), el subespacio K(H) no es COM en L(H). Sug: Dado T ∈ L(H), definir dT = hT xn , xn i n∈N ∈ `∞ y poner EB (T ) = MdT , B . Por otro lado, si hubiera un proyector acotado Q de L(H) sobre K(H), entonces EB ◦ Q D B proyectar´ıa al espacio DB ∼ 4 = `∞ sobre DB ∩ K(H) ∼ = c0 . Luego mirar el Ejem. 2.7.8.
7.2
Fredholm inicia
7.2.1. Sea A un AB y sea I ⊆ A un ideal bil´atero y cerrado. En el Ejer. 6.2.8 se afirmaba que el espacio A/I con la norma cociente vista en la Prop. 1.7.1 es un AB. Como nos interesa particularmente el ´algebra cociente L(H)/ K(H) revisemos como sale. Por ser I un ideal bil´atero, entonces A/I queda un buen anillo, que sigue siendo C-´algebra con su estructura de C-EV. Por otro lado, la norma cociente de la Prop. 1.7.1 lo hace Banach. As´ı que s´olo falta verificar la desigualdad (6.1) : Dados a , b ∈ A, como a I ⊆ I sale que ka bk = ka bk = ´ınf ka b + ck ≤ ´ınf ka b + a ck ≤ kak ´ınf kb + ck = kak kbk . c∈I
c∈I
c∈I
Tomando ahora el ´ınfimo sobre los elementos de a = a + I, nos queda que ka bk ≤ kak kbk. Con esta ya podemos decir que A/I es una se˜ nora AB. 4 7.2.2. Sea H un EH. Como K(H) es ideal bil´atero cerrado de L(H) podemos definir el ´ algebra de Calkin
def
Cal (H) = L(H)/ K(H)
que por lo viste reci´en es un AB con la norma cociente kT + K(H)k = d (T, K(H) ). La proyecci´on se denotar´a PK(H) : L(H) → Cal (H). Ella es un epimorfismo (acotado) de AB’s. En general se abrevia PK(H) T = T ∈ Cal (H). Las propiedades de un T ∈ L(H) que dependen de su clase T se suelen llamar propiedades esenciales. T´ıpicamente la versi´on esencial de una propiedad P significa cambiar la frase “T cumple P ” por “T cumple P m´odulo un compacto”. def
Por ejemplo, el espectro esencial de T es σe (T ) = σCal (H) ( T ). Como PK(H) es morfismo se ve que PK(H) (Gl (H) ) ⊆ GCal (H) . De ah´ı se deduce f´acil que σe (T ) ⊆ σ(T ). La inclusi´on puede muy bien ser estricta, como se puede ver en el caso del shift S ∈ L(`2 (N) ). Un lindo ejercicio es mostrar que σe (S) = T, mucho m´as chico que σ(T ) = D. −1 En cambio los operadores esencialmente inversibles F (H) = PK(H) (GCal (H) ) tienen nombre propio, se los conoce como operadores de Fredholm y ahora veremos sus propiedades. 4
Teorema 7.2.3. Sea T ∈ L(H). Las suguientes condiciones son equivalentes: 1. PK(H) T = T ∈ GCal (H) , o sea que T ∈ F (H) es de Fredholm.
210
2. Existe un S ∈ L(H) tal que ST − I ∈ K(H)
y tambi´en
T S − I ∈ K(H) .
(7.6)
3. Se cumplen las siguientes tres cosas: (a) α(T ) = dim ker T < ∞. (b) β(T ) = dim ker T ∗ = dim R(T )⊥ < ∞. (c) R(T ) v H. En tal caso, existe un u ´nico T † ∈ L(H) que mejora el item 2 del siguiente modo: T † T = I − Pker T = PR(T ∗ )
T T † = I − Pker T ∗ = PR(T ) .
y
(7.7)
Demostraci´on. La relaci´on 1 ⇔ 2 es clara, tomando PK(H) (S) = T −1 . Asumamos que tenemos el S ∈ L(H) que cumple (7.6). Llamemos A = ST − I ∈ K(H). Si existiera un w SON {en : n ∈ N} dentro de ker T , tendr´ıamos que en −−−→ 0 (todos dentro BH ). Pero como n→∞
k·k
A ∈ K(H), ello implicar´ıa que en = −A en −−−→ 0. Absurd´on. Observar que S ∗ cumple n→∞
(7.6) para T ∗ . Luego, por el mismo argumento vemos que dim ker T ∗ < ∞. Tomemos ahora B ∈ LF (H) tal que kA − Bk <
1 2
. Entonces todo x ∈ ker B cumple que
kSk kT xk ≥ kS T xk = k(I + A) xk ≥ kxk − k(A − B) xk ≥
1 kxk . 2
Luego T |ker B es AI, por lo que T (ker B) v H. Pero la otra mitad T (ker B)⊥ tiene dimensi´on finita, porque tambi´en B ∗ ∈ LF (H) y (ker B)⊥ = R(B ∗ ). Junt´andolos, por el Cor. 1.7.2 queda lo que nos faltaba: ker B ⊕ (ker B)⊥ = H =⇒ R(T ) = T (ker B) + T (ker B)⊥
1.7.2 v H.
Ya probamos que 2 implica el abc del item 3. Asumamos que T cumple los tres de 3. def Llamemos N = (ker T )⊥ y M = R(T ) v H. Observar que T0 = T |N es un iso entre los Hilberts N y M. Luego existe T0−1 = S0 ∈ L(M , N ) (usamos el TFI 2.3.4 entre Banach’s). Extendamos S0 a un T † ∈ L(H) haciendolo actuar como cero en M⊥ = R(T )⊥ = ker T ∗ . Es acotado porque cumple que T † x = S0 PM x para todo x ∈ H. Y por eso mismo, T T † x = T0 S0 PM x = PM x
y
T † T x = T † PM T0 PN x = S0 T0 PN x = PN x ,
para todo x ∈ H. Luego I − T T † = Pker T ∗ y I − T † T = Pker T viven en LF (H) ⊆ K(H). Fijens´e que construimos al T † de la Ec. (7.7), la seudoinversa de Moore Penrose de T . 7.2.4. El Teo. 7.2.3 es conocido como el Teorema de Atkinson. El permite desarrollar una teor´ıa muy profunda, que es la del ´ındice de operadores de Fredolm: Si T ∈ F (H), Ind T = α(T ) − β(T ) = dim ker T − dim ker T ∗ ∈ Z , def
es el ´ındice de T . Del Teo. 7.2.3 vemos que se tienen las siguientes propiedades: 211
1. Gl (H) ⊆ F (H), y si G ∈ Gl (H) entonces Ind G = 0 − 0 = 0. 2. El conjunto F (H) es abierto en L(H), por serlo GCal (H) en Cal (H). A partir de ahora asumamos que T ∈ F (H). 3. Llamemos PT = Pker T y QT = PT ∗ = Pker T ∗ . Luego Ind T = rk PT − rk QT . 4. Si M ∈ F (H), entonces M T y T M ∈ F (H). A´ un no sabemos sus ´ındices. 5. Pero si G ∈ Gl (H) =⇒ Ind GT = Ind T G = Ind T (porque vale para sus α y β). 6. T ∗ ∈ F (H) y tiene su Ind T ∗ = −Ind T . Sale porque α(T ∗ ) = β(T ). 7. Tambi´en T † ∈ F (H) y cumple que Ind T † = −Ind T .
4
Definici´ on 7.2.5. Sea H un EH con dim H = ∞. Definamos los conjuntos Fn (H) = {A ∈ F (H) : Ind A = n}
para cada
n∈Z.
(7.8) 4
Veamos que son todos no vac´ıos:
Ejemplo 7.2.6. Fijemos H = `2 (N) y recordemos al shift S ∈ L(H) unilateral hacia la derecha, tal que S ek = ek+1 para cada k ∈ N. Luego tenemos que S ∈ F (H)
,
Ind S n = −n
mientras que
Ind (S ∗ )n = n
para todo
n∈N.
En efecto, notar que S S ∗ = I y S ∗ S = I − Pe1 , por lo que S ∈ F (H) con S † = S ∗ . Para calcular el Ind de sus potencias, tenemos que α(S n ) = 0 y β(S n ) = n, porque ker(S ∗ )n = span {e1 , . . . , en }
para todo
n∈N.
Por otro lado, las potencias de S ∗ cambian el signo del ´ındice de las de S. Por lo tanto Fm (H) 6= ∅ para todo m ∈ Z. Al menos cuando dim H = |N|. 4
7.3
Espectro de compactos
Usando el Teo. de Atkinson 7.2.3, uno puede ver que desde el punto de vista del espectro, los compactos son lo que uno hubiese querido que sea una generalizaci´on agradable de las matrices al caso infinitodimensional. Lema 7.3.1. Sea F ∈ LF (H). Entonces I + F ∈ F0 (H). Es decir que Ind (I + F ) = 0. Demostraci´on. Es claro que T = I + F ∈ F (H). Recordemos la notaci´on PT = Pker T y QT = PT ∗ = Pker T ∗ . Por el Teo. 7.2.3 ellos viven en LF (H). Llamemos S = T † . Por la Ec. (7.7), sabemos que ST = I − PT y que T S = I − QT . Por lo tanto PT − QT = T S − S T = (I + F ) S − S (I + F ) = F S − S F . 212
(7.9)
Consideremos un ambiente finitodimensional donde operan tres de ellos: Sean M = R(PT ) + R(QT ) + R(F ) + R(F ∗ ) v H
y
PM ∈ LF (H) ∩ P(H) .
Luego el proyector PM funciona como una identidad en L(M) para los tres: PM PT PM = PT , PM QT PM = QT
y
PM F PM = F
porque, por ejemplo, PM F = F y PM F ∗ = F ∗ . Sea S1 = PM S PM . Luego (7.9)
PT − QT = PM (PT − QT ) PM = PM (F PM S − S PM F ) PM = F S1 − S1 F . Entonces podemos pensar a los 4 operadores involucrados (se agreg´o S1 ) en el ambiente L(M). Pero como dim M < ∞, en L(M) hay una traza finita (la suma de la diagonal en alguna BON de M). Luego podemos tomar traza de lo de arriba y nos queda que 7.2.4
Ind (I + F ) = Ind (T ) = rk PT − rk QT = tr (PT − QT ) = tr (F S1 − S1 F ) = 0 . Hemos usado que la traza de un proyector es igual a su rank (sale eligiendo una BON que empiece generando su imagen) y que tr AB = tr BA para todo par A , B ∈ L(M). Lema 7.3.2. Sea T ∈ K(H). Entonces I + T ∈ F (H) y tambi´en vale que Ind (I + T ) = 0. Demostraci´on. Sea F ∈ LF (H) tal que kT − F k < 1. Luego, por el Teo. 6.1.4 S = I + (T − F ) ∈ Gl (H) =⇒ I + T = S + F = S(I + S −1 F ) ∈ F0 (H) . En efecto, como S −1 F ∈ LF (H) el Lema 7.3.1 asegura que I + S −1 F ∈ F0 (H). Pero vimos que multiplicarlo por un S ∈ Gl (H) no le cambiaba el ´ındice. Proposici´ on 7.3.3. Sea T ∈ K(H). Dado λ ∈ σ(T ) tal que λ 6= 0, se tiene que 1. El tal λ es un autovalor. 2. Adem´as 0 6= dim ker(λ I − T ) = dim R(λ I − T )⊥ < ∞. 3. De paso se sabe tambi´en que R(λ I − T ) es cerrado y tiene codimensi´on finita. Demostraci´on. Observar que para todo λ ∈ C \ {0} tenemos que Bλ = λ I − T ∈ F (H), porque PK(H) (Bλ ) = λ 1A(H) . M´as a´ un, por el Lema 7.3.2 podemos asegurar que Ind Bλ = 0 (el λ se saca). Por lo tanto ya tenemos que λ ∈ σ(T ) ⇐⇒ Bλ ∈ / Gl (H) ⇐⇒ α(Bλ ) = β(Bλ ) 6= 0 , porque sabemos que R(Bλ ) v H. En resumen, si λ ∈ σ(T ) \ {0}, entonces ker Bλ 6= {0} y encima tiene que cumplirse que dim ker Bλ = dim ker Bλ∗ = dim R(Bλ )⊥ < ∞. Observaci´ on 7.3.4. El resultado anterior se llama la “alternativa de Fredholm” (descubierta a principios del siglo pasado para el caso de operadores integrales). La alternatividad consiste en que si nos planteamos la ecuaci´on T x = λ x + b 213
con la inc´ognita x y los datos b ∈ H , T ∈ K(H) y λ ∈ C \ {0} , entonces se tienen las dos posibilidades conocidas: • O bien T − λ I ∈ Gl (H) por lo que hay soluci´on u ´nica x = (T − λ I)−1 b
para todo
b ∈ L(H) .
• O bien λ ∈ σ(T ) \ {0} y caemos en la Prop. 7.3.3. En tal caso tenemos la igualdad dim ker(λ I − T ) = dim R(λ I − T )⊥ < ∞, que es parecido a lo que sabemos de los sistemas de ecaciones del a´lgebra lineal: La dimensi´on del espacio de soluciones es finita, e igual a la del ortogonal del espacio de los b ∈ H para los que hay soluci´on. 4 Proposici´ on 7.3.5. Sea T ∈ K(H) con dim H = ∞. Luego σ(T ) tiene dos posibilidades: 1. Puede ser que σ(T ) sea finito, con 0 ∈ σ(T ). 2. Pero si es infinito, entonces es numerable. M´as precisamente σ(T ) = {0} ∪ {λn : n ∈ N}
donde
λn −−−→ 0 . n→∞
En ambos casos, todos los λn ∈ σ(T ) \ {0} son autovectores de multiplicidad finita. Demostraci´on. Dado m ∈ N, consideremos el conjunto σ(T )m = {λ ∈ σ(T ) : |λ| ≥ m1 }. Para probar todo loSenunciado bastar´ıa ver que σ(T )m es finito para todo m ∈ N. En efecto, como σ(T ) \ {0} = m∈N σ(T )m , si todos fueran finitos la uni´on quedar´ıa numerable, y cualquier enumeraci´on de σ(T ) \ {0} har´ıa que sus elementos tiendan a cero (o que se terminen). Los comentarios finales sobre las propiedades de los λn son un refrito de la Prop. 7.3.3. Supongamos entonces que alg´ un σ(T )m fuese infinito. Luego existir´ıa una sucesi´on (µk )k∈N en ese σ(T )m tal que µk 6= µr si k 6= r. Por la Prop. 7.3.3, para cada k ∈ N podr´ıamos elegir un vector unitario xk ∈ ker (T − µk I), y un subespacio Sk = span {x1 , . . . , xk } v H. Como los xk son autovectores de autovalores distintos, ellos son un conjunto LI, por lo que Sk ⊂ Sk+1 en forma propia para todo k ∈ N. Luego, por la el Lema de Riesz 1.4.4, podemos ir eligiendo vectores unitarios yk+1 ∈ Sk+1 tales que d (yk+1 , Sk ) ≥ 21 para todo k ∈ N. Setiemos y1 = x1 . Una cuenta directa muestra que se deber´ıan cumplir dos cosas: (a) T (Sk ) ⊆ Sk para todo k ∈ N, porque sus generadores xj son autovectores. (b) Si k > 1, como xk ∈ ker (T − µk I) entonces (T − µk I) yk ∈ Sk−1 , porque le tachamos su componente en xk y las anteriores no se mueven de Sk−1 . Luego, si r < k, k T µykk − T µyrr k = k yk − T µyrr − (T − µk I) µykk k ≥ 21 , (7.10) porque el bodoque T µyrr − (T −µk I) µykk ∈ Sr +Sk−1 ⊆ Sk−1 . Como todos los |µk | ≥ m1 , la sucesi´on µykk k∈N vive en m · BH . Pero (7.10) dice que al aplicarle T no tiene subsucesiones convergentes. Eso contradir´ıa la compacidad de m · T (BH ) y por ende la de T . 214
Observaci´ on 7.3.6. En las cuentas de la prueba de la Prop. 7.3.5, en forma deliberada no se us´o que H sea un Hilbert, salvo en el hecho de que los λ ∈ σ(T ) \ {0} de un T ∈ K(H) deb´ıan ser autovalores. Este hecho sigue siendo cierto si E es un EB y T ∈ L(E) es compacto (eso significaba que T (BE ) tenga clausura compacta). La prueba de la Prop. 7.3.3 en este contexto es bastante m´as costosa que para elementos de K(H), y la omitiremos. Pero al menos informamos que eso vale, y por lo tanto tambi´en la Prop. 7.3.5. 4 ucleo dado por Ejemplo 7.3.7. Sea H = L2 [0, 1] y tomemos v ∈ L2 [0, 1]2 el n´ v = 1∆ donde ∆ es el tri´angulo ∆ = (x, y) ∈ [0, 1]2 : 0 ≤ y ≤ x ≤ 1 , def
la mitad de abajo de [0, 1]2 . Luego el operador V = Tv ∈ L(L2 ) est´a dado por Z x Z 1 v(x , y) f (y) dy = f (y) dy para f ∈ L2 y x ∈ [0, 1] . V f (x) = 0
(7.11)
0
Este operador V se llama “el Volterra”. Observemos que para cada f ∈ L2 , la funci´on V f es la u ´nica primitiva F de f que cumple F (0) = 0. Por otro lado, como v ∈ L2 [0, 1]2 , en el Ejem. 7.1.7 mostramos que el Volterra V = Tv ∈ K(L2 ), o sea que es compacto. Es un hecho famoso que σ(V ) = {0}. La prueba usual consiste en hacer trabajosas acotaciones con integrales. Pero ahora, en vista de la Prop. 7.3.3, para mostrar que σ(V ) = {0} nos alcanza con ver que V no puede tener autovalores, porque al ser un operador compacto sabemos que si hubiera un λ ∈ σ(V ) \ {0} deber´ıa ser uno de ellos. Sea entonces λ ∈ C \ {0}. Si una f ∈ L2 cumple que F = V f = λ f , como F ∈ C[0, 1], sabemos que f es continua y por ello F (y tambi´en f ) es derivable en todos los puntos. Iterando, sale que f es muy suave (C ∞ ). Por otro lado, aplicando ahora la f´ormula (7.11) sabemos que f = F 0 = λ f 0 . Luego, de un curso b´asico de ED’s podemos deducir que nuestra f (x) = k eλ x para cierta constante k ∈ C. Pero tambi´en sabemos que λ f (0) = F (0) = 0. Esto obliga a que k = 0 por lo que f ≡ 0 y minga autovector. Ni siquiera λ = 0 puede ser autovalor, porque es f´acil ver que V es mono. Resumiendo, V no tiene ning´ un autovector, as´ı que aplicando la Prop. 7.3.3 ya podemos dar por demostrado que σ(V ) = {0}. 4
7.4
Representaciones espectrales
Vimos que el λ = 0 del espctro de un compacto debe tener un tratamiento espacial. Siempre pasa que 0 est´a, porque no hay compactos inversibles. De hecho hay ejemplos importantes (en esta misma p´agina) de compactos para los que la Prop. 7.3.5 es muy poco u ´til, ya que son cuasinilpotentes, o sea que su espectro es tan solo el {0}. En cambio, si el compacto es tambi´en autoadjunto, entonces el cero de su espectro no aporta nada importante. Eso permite dar una representaci´on del kia como una serie en la que aparecen sus autovectores. A partir de ella y usando la DP, podremos dar una representaci´on de todos los compactos, incluidos los cuasinilpotentes, en funci´on de dos SON’s y de sus valores singulares. 215
Teorema 7.4.1. Sea A ∈ K(H) tal que A = A∗ y σ(A) es infinito. Entonces existen • un sistema B = {xk : k ∈ N}, que es una BON de (ker A)⊥ = R(A), y • una sucesi´on (µk )k∈ N en R tal que µk −−−→ 0, k→∞
tales que ellos describen completalmente la acci´on de A por la f´ormula X X Ay = µk hy , xk i xk = µk xk xk (y) para todo y ∈ H . k∈N
(7.12)
k∈N
A la tal B se la llama una BON de autovectores de A (aunque hay que agregarle una BON de ker A, que bien puede ser infinita, para que generen todo H). d
Demostraci´on. Podemos representar a σ(A) = {0} ∪ {λn : n ∈ N} con los λn −−−→ 0 n→∞
como en la Prop. 7.3.5. Luego todos esos λn son puntos aislados de σ(A). Consideremos ahora los proyectores Pn = P{λn } = 1{λn } (A) del Cor. 6.5.9. All´ı se vi´o que los subespacios def Sn = R(Pn ) = ker(λn I − A) para todo n ∈ N. Observar que, por las propiedades del CFC, Pn Pm = 1{λn } (A) 1{λm } (A) = 1{λn } · 1{λm } (A) = 0 siempre que n 6= m . Eso dice que Sn ⊥ Sm si n 6= m. Consideremos el subespacio cerrado que ellos generan: ( ) M \ [ ⊥ def Sn⊥ Sn = . (7.13) S= Sn = span n∈N
n∈N
n∈N
Como los Sn son ortogonales 2 a 2, podemos construir una BON de S pegando sendas BON’s de cada Sn (todas ellas finitas). Llam´emosla B = {xk : k ∈ N}. Al mismo tiempo construyamos la sucesi´on (µk )k∈ N en R repitiendo dim Sn veces cada λn . En ambos casos respetando el orden de los n ∈ N (por los λn repetidos y por los vectores de cada BONcita). Como cada A|Sn act´ ua multiplicando por λn y las numeraciones fueron hechas coherentemente, vale que cada A xk = µk xk . Luego la f´ormula (7.12) se cumple para todo y ∈ S : (3.18)
y ∈ S = span {B} =⇒ y =
X
hy , xk i xk =⇒ A y =
k∈N
X
µk hy , xk i xk .
(7.14)
k∈N
De esto podemos deducir que A(S) ⊆ S. Como A = A∗ , el Cor. 4.5.4 dice que S ∈ Latr (A), o sea que A(S ⊥ ) ⊆ S ⊥ . Consideremos entonces A0 = A|S ⊥ ∈ L(S ⊥ ). Observar que • En realidad A0 ∈ K(S ⊥ ), porque manda BS ⊥ a un cacho de A(BH ) que es compacta. • Tambi´en vale que A0 ∈ A(S ⊥ ) como hemos visto otras veces (por ejemplo por (4.39) ). • Pero adem´as tenemos que σL(S ⊥ ) (A0 ) = {0}, porque no le quedan autovectores libres para ning´ un λ 6= 0 (de haberlos lo ser´ıan tambi´en de A, pero est´an todos en S). 216
Usando estas tres cosas, por el CFC en A0 (o el Cor. 6.4.7) vemos que A0 = 0. Finalmente, si descomponemos a un vector y = y0 + y1 ∈ S ⊥ ⊕ S = H, entonces tenemos que hy , xk i = hy1 , xk i para todo k ∈ N. Como vimos que A y0 = A0 y0 = 0, queda que X X µk hy , xk i xk = µk hy1 , xk i xk = A y1 = A y , k∈N
k∈N
ahora para todo y ∈ H. Finalmente, mirando fijo la Ec. (7.14) y lo que se dijo despu´es vemos que S ∩ ker A = {0} mientras que S ⊥ ⊆ ker A. De ah´ı se deduce que S ⊥ = ker A. Esto justifica la afirmaci´on de que B era una BON de (ker A)⊥ = S. Observaciones: 7.4.2. Sigamos en el caso de A ∈ K(H) ∩ A(H). Manteniendo las notaciones del Teo. 7.4.1, se tienen las siguientes propiedades extra: 1. En el caso que faltaba en el que σ(A) es finito, una cuenta m´as f´acil que la de arriba muestra que A ∈ LF (H) y tambi´en tiene una BON de autovectores de (ker A)⊥ , que ahora ser´a finita. Y con ella sale una Ec. (7.12) con sumas finitas. 2. Volviendo al caso σ(A) = {0} ∪ {λn : n ∈ N} con λn −−−→ 0, una reescritura de la n→∞
Ec. (7.12) nos dice que A es diagonalizable en el sentido de Ejem. 7.1.4. Mejor a´ un: X A= µ k xk xk , (7.15) k∈N
donde la convergencia es con la norma de L(H). P En efecto, al ser operadores diagonales, la Ec. (7.4) da que las normas de las colas k µk xk xk k = sup |µk | −−−→ 0. k≥m
k≥m
m→∞
3. Por otra parte, podemos usar los proyectores P{λn } = 1{λn } (A) para obtiener otra linda representaci´on de A, que describe mejor su comportamiento: X X A = λn P{λn } = λn Pker (λn I−A) , (7.16) n∈N
n∈N
donde la convergencia tambi´en es en la norma de L(H). La prueba no es otra cosa mn P que volver a reagrupar las cosas en la Ec. (7.15), porque cada P{λn } = xk x k k=rn
para ciertos n´ umeros rn < mn adecuados (los que limitan a los µk = λn ). Lo de la convergencia en norma sale porque es un caso particular de la de (7.15). 4 Corolario 7.4.3. Sea A ∈ K(H) tal que A = A∗ . Entonces existen A+ y A− ∈ L(H)+ ∩ K(H) tales que A = A+ − A−
y A+ A− = 0 ,
(7.17)
que son u ´nicos a´ un sin pedrles que sean compactos. En particular, todo T ∈ K(H) es CL de 4 positivos compactos. 217
Demostraci´on. Sabemos que existen (y son u ´nicos) por la Prop. 6.5.15. Pero para ver que son compactos hagamos esto: Sea σ(A) = {0} ∪ {λn : n ∈ N} ⊆ R. Escribamos Pn = Pker (λn I−A) , n ∈ N
y
A
(7.16)
=
X
λn P n .
n∈N d
Sean I = {n ∈ N : λn ≥ 0} y J = {n ∈ N : λn < 0}. Luego I ∪ J = N y los operadores X X A+ = λ n Pn y A − = − λn Pn ∈ L(H)+ ∩ K(H) n∈I
n∈J
cumplen que A = A+ − A− y que A+ A− = 0. Si σ(A) era finito se hace lo mismo. Luego son los u ´nicos de la Prop. 6.5.15 y son compactos. La observaci´on sobre los T ∈ K(H) se deduce de lo anterior y de que T = Re T + i Im T . 7.4.4 (CFC para compactos autoadjuntos). Dado A ∈ K(H) ∩ A(H) tal que σ(A) es infinito, las descomposiciones (7.15) y (7.16) caracterizan completamente el CFC en A: 1. Dada f ∈ C(σ(A) ) tal que f (0) = 0, con las notaciones del Teo. 7.4.1 se tiene que ♣
f (A) =
X
f (µk ) xk xk =
X
f (λn ) P{λn } ,
(7.18)
n∈N
k∈N
con convergencia en la norma de L(H). Para probarlo basta fijarse que anda bien para los polis p ∈ C[X] tales que p(0) = 0 (aproximan a esas f ’s). Sale usando que X X ? µnk hy , xk i xk para todo par k , n ∈ N , hAn y , xk i xk = An y = k∈N
k∈N
?
donde = se debe a que todos los R(An ) ⊆ R(A) y B es BON de R(A). Para los l´ımites se usa que los operadores a comparar son diagonalizables en la misma BON, as´ı que la Ec. (7.4) da que su distancia es la infinito de las “diagonales”. Eso demuestra la ♣
igualdad = de (7.18). Para probar = se usa el mismo argumento que en (7.16). 2. En cambio, para las funciones f ∈ C(σ(A) ) tales que f (0) 6= 0 nos queda que P f (A) = f (0) IH + (f (λn ) − f (0) ) P{λn } n∈N
(7.19) = f (0) IH +
P
(f (µk ) − f (0) ) xk xk
k∈N
tambi´en con convergencia en norma de L(H). Surge de que f = f (0)1 + (f − f (0)1). La f´ormula es algo enrrevesada justamente para que converja bien, porque como f es continua, los multiplicadores f (λn ) − f (0) −−−→ 0 y lo mismo para los µk . n→∞
218
3. Otra manera de escribir la Ec. (7.19) es ´esta: Para toda f ∈ C(σ(A) ), X X f (A) = f (0) Pker A + f (λn ) P{λn } = f (0) Pker A + f (µk ) xk xk . (7.20) n∈N
k∈N
Sin embargo, ahora la convergencia no es en norma sino puntual. Esto significa que las series convergen reci´en despu´es de evaluar en un y ∈ H. Por ejemplo X f (A) y = f (0) Pker A (y) + f (µk ) hy , xk i xk para todo y ∈ H , k∈N
donde ahora s´ı hay convergencia en H.
4
Observaci´ on 7.4.5. Como siempre los normales quedan para los remarks. Si N ∈ K(H) es normal, entonces el Teo. 7.4.1 y las Ec’s. (7.15), (7.16), (7.18), (7.19) y (7.20) valen tal cual, slavo el hecho de que ahora los µk ∈ C y no necesariamente a R. La prueba es igual, dado que usa el CFC, que tambi´en camina para los normales. Otra sutileza es que, si S es el subespacio definido en la Ec. (7.13), ahora hay que probar a mano que S ∈ Latr (N ), sin la ayuda del Cor. 4.5.4. Esto no se deduce de que S ∈ Lat (N ) como en el caso en que N ∈ A(H), pero sale usando que el proyector PS es l´ımite puntual de las sumas finitas de los proyectores PSn = 1{λn } (N ) , que conmutan con N . 4 Definici´ on 7.4.6. Usemos las notaciones del Teo. 7.4.1, pero ahora para un A ∈ K(H) que sea positivo, o sea A ∈ L(H)+ . Se vi´o que la sucesi´on (µk )k∈ N se construye con los autovalores de A contados “con multiplicidad” (tantos como la dimensi´on de su espacio de autovectores), y sabemos que ella converge a cero. Como ahora todos los µk ≥ 0 (Prop. 6.4.2), la sucesi´on puede ser reordenada para que quede decreciente, y en tal caso es un´ıvoca. A tal sucesi´on decreciente se la denotar´a por µ(A) = ( µk (A) )k∈N
y ser´a llamada la sucesi´ on de autovalores de A .
(7.21)
Pot otro lado, si T ∈ K(H) sabemos que |T | ∈ K(H) y que es positivo. Definimos s(T ) = ( sk (T ) )k∈N
dada por s(T ) = µ ( |T | ) ,
(7.22)
la sucesi´on de valores singulares de T . En el caso de operadores de rango finito, las sucesiones µ(A) y s(T ) = µ( |T | ) terminan en n = el rango, pero les agregamos ceros. 4 Corolario 7.4.7. Sean A ∈ L(H)+ ∩ K(H) y µ(A) su sucesi´on decreciente de autovectores definida en (7.21). Sea f ∈ C(σ(A) ) que cumpla las siguiente propiedades: • La f toma valores positivos. • Adem´as f es no decreciente. • Se cumple que f (0) = 0. 219
En tal caso se tiene la siguiente data sobre f (A): Con las notaciones de (7.21), + f (A) ∈ L(H) ∩ K(H) y tiene su µ(f (A) ) = f (µk (A) ) .
(7.23)
k∈N
con la misma BON de autovectores que A. Para que f (A) ∈ K(H) alcanzaba con que f (0) = 0, sin pedirle las otras cosas. Demostraci´on. Antes que nada hay que ver que f (0) = 0 =⇒ f (A) ∈ K(H). Esto sale porque σ(A) es una sucesi´on que tiende a cero, por lo que σ(f (A) ) = f (σ(A) ) (esto era el Teo. 6.5.4) es otra del mismo tipo. Despu´es uno mira la f´ormula (7.18) en su versi´on con proyectores, y deduce que f (A) es l´ımite en norma de las sumas finitas que viven en LF (H). Asumamos ahora que f cumple tambi´en las otras dos cosas. El hecho de que f (A) ∈ L(H)+ ya fue probado en la Ec. (6.27) del Teo. 6.5.4. Ten´ıamos que σ(f (A) ) = f (σ(A) ), o sea que tan solo los f (µk (A) ), y eventualmente el 0, pueden ser autovectores de f (A). Pero las multiplicidades son las correctas y la BON es la misma por laEc. (7.18). Finalmente, el hecho de que f sea creciente asegura que la sucesi´on f (µk (A) ) sigue siendo decreciente, y k∈N
por ello coincide con µ(f (A) ).
Teorema 7.4.8. Sea T ∈ K(H) \ LF (H). Luego existen dos SON’s : 1. B1 = {xk : k ∈ N}, que es BON de (ker T )⊥ , y 2. B2 = {zk : k ∈ N}, donde ella es BON de R(T ) = (ker T ∗ )⊥ , tales que el operador T se representa como la serie (que converge en norma) : X X sk (T ) hy , xk i zk para todo y ∈ H . sk (T ) zk xk =⇒ T y = T =
(7.24)
k∈N
k∈N
De hecho B1 es una BON de autovectores para |T | y B2 lo es para |T ∗ |, donde ninguna de las dos contiene generadores de los n´ ucleos. Adem´as vale que s(T ∗ ) = s(T ). Demostraci´on. Hagamos T = U |T | la DP de T . Recordar que s(T ) = µ(|T |). El Teo. 7.4.1 nos provee del sistema B1 = {xk : k ∈ N} que es una BON de autovectores para |T |. En la Obs. 7.4.2 se ve´ıa que span {B1 } = S = (ker |T |)⊥ = (ker T )⊥ . Por otro lado, en el Teo. 4.4.4 vimos que la U de la DP es una IP con dominio S e imagen ua isom´etricamente en S, y por ello el sistema B2 R(U ) = R(T ) = (ker T ∗ )⊥ . Luego U act´ formado por los vectores zk = U xk es una BON de R(T ). Finalmente, por (7.12) para |T |, X X T y = U ( |T | y ) = U µk ( |T | ) hy , xk i xk = sk (T ) hy , xk i zk k∈N
k∈N
para todo y ∈ H. En el Teo. 4.4.4 vimos que |T ∗ | = U |T | U ∗ . De ah´ı se deduce que B2 = U (B1 ) es una BON de autovectores para |T ∗ | con los mismos autovalores. Por lo tanto tenemos que s(T ∗ ) = µ(|T ∗ |) = µ(|T |) = s(T ). Cuando no ponemos el y, la convergencia de la serie es en norma porque lo es para |T | y multiplicar por U es continua en L(H). 220
Ejercicio 7.4.9. Dado T ∈ K(H), probar que s1 (T ) = k |T | k = kT k.
4
Ejercicio 7.4.10. Probar que si T ∈ LF (H), entonces tiene una representaci´on del tipo (7.24) pero con sumas finitas. De paso mostrar que, si ahora T ∈ K(H) \ LF (H), truncando en (7.24) obtenemos una sucesi´on posta en LF (H) que le converge a T . Posta significa que minimiza la distancia de T a los operadores del rango de cada truncado. 4 Ejercicio 7.4.11. Sea T ∈ K(H). Probar que ese T es diagonalizable (c.f. Ejem. 7.1.4) si y s´olo si T es normal. En tal caso vale que sk (T ) = |µk (T )| para todo k ∈ N (o hasta donde sea que lleguen si T era rango finito), siempre que uno enumere los µk (T ) para que tengan m´odulos decrecientes (se puede porque van hacia cero). 4
7.5
Fredholm sigue
Para empezar repasemos la data de la secci´on 7.2. Se defin´ıa el a´gebra de Calkin como el cociente Cal (H) = L(H)/ K(H) , que es un AB con la norma cociente. Se tiene la proyecci´on PK(H) : L(H) → Cal (H) que es un epimorfismo de AB’s. Luego defin´ıamos los operadores de Fredholm como aquellos T ∈ L(H) tales que PK(H) (T ) ∈ GCal (H) . El conjunto de los −1 Fredholm’s es F (H) = PK(H) (GCal (H) ). Vimos que T ∈ F (H) es de Fredholm si y s´olo si α(T ) = dim ker T < ∞ , β(T ) = dim ker T ∗ = dim R(T )⊥ < ∞
y
R(T ) v H .
Luego defin´ıamos el ´ındice de Fredholm como la funci´on Ind : F (H) → Z dada por Ind T = α(T ) − β(T ) = dim ker T − dim ker T ∗ ∈ Z def
para cada
T ∈ F (H) ,
En la Obs. 7.2.4 vimos que, entre otras, se tienen las siguientes propiedades: Si me dan dos operadores T , M ∈ F (H), se ten´ıa que M T y T M ∈ F (H). Tambi´en vale que G ∈ Gl (H) =⇒ Ind GT = Ind T G = Ind T
y adem´as
Ind T ∗ = −Ind T .
(7.25)
Luego defin´ıamos Fn (H) = {T ∈ F (H) : Ind T = n} para cada n ∈ Z. Cuando H = `2 (N) vimos que el shift S ∈ L(H) unilateral hacia la derecha cumple que S ∈ F (H) con Ind S n = −n
mientras que
Ind (S ∗ )n = n
para todo
n∈N.
(7.26)
Ahora s´ı podemos seguir desarrollando la teor´ıa de Fredholm. Lema 7.5.1. Sea T ∈ F0 (H) un Fredholm con Ind (T ) = 0. Luego 1. Existe un F ∈ LF (H) tal que T + F ∈ Gl (H). 2. Sumarle compactos a T no le altera en ´ındice: Ind (T + A) = 0
para todo
A ∈ K(H) .
En otras palabas, se tiene que F0 (H) + K(H) = F0 (H). 221
(7.27)
Demostraci´on. Sean N = ker T y M = R(T ) v H. El hecho de que Ind (T ) = 0 significa que dim N = α(T ) = β(T ) = dim M⊥ < ∞. Luego existe un operador F0 ∈ L(N , M⊥ ) que es un iso. Podemos extender F0 a un F ∈ LF (H) haciendolo actuar como cero en N ⊥ . Es acotado porque F x = F0 PN x para todo x ∈ H y porque F0 era autom´aticamente continuo. Ahora una cuenta directa muestra que T + F ∈ Gl (H) como se anunci´o. La idea es que T = T PN ⊥ = T (I − PN ) =⇒ (T + F ) x = T (I − PN ) x + F PN x ∈ M ⊕ M⊥ para todo x ∈ H. Luego las acciones de T y de F son independientes entre s´ı. Como T def tambi´en es iso entre N ⊥ y M v H, sale que G = T + F ∈ Gl (H). Tomemos ahora un A ∈ K(H), y llamemos B = A − F ∈ K(H). Por lo tanto tenemos que T + A = G + B = G (I + G−1 B). Calculando ´ındices terminamos el laburo: Ind (T + A) = Ind (G + B) = Ind G (I + G−1 B)
(7.25) 7.3.2 = Ind (I + G−1 B) = 0 .
Para probar las propiedades m´as interesantes de la teor´ıa de Fredholm hay una herramienta especialmente u ´til: La suma directa de operadores. Todo lo referente a esas sumas es muy elemental, pero son muchas cosas. En el siguiente ejercicio enumeramos exhaustivamente los hechos que nos interesar´an de estos operadores. La mayor parte de los enunciados que siguen ya hab´ıan aparecido en el viejo Ejer. 4.7.1. Lo novedoso va con ∗. Ejercicio 7.5.2. Sean H y K dos EH’s. Luego el espacio H ⊕ K con la estructura usual de C-EV (sumando y multiplicando por escalares en cada coordenada) y el PI dado por
(x1 , y1 ) , (x2 , y2 ) = hx1 , x2 iH + hy1 , y2 iK para (x1 , y1 ) , (x2 , y2 ) ∈ H ⊕ K es un nuevo EH. Se llama la “suma ortogonal” de H y K. Probar que 1. Dado un (x , y) ∈ H ⊕ K su norma cumple que k (x , y) k2 = kxk2H + kyk2K . 2. La convergencia es en las dos coordenadas a la vez. Deducir que H ⊕ K era completo. 3. Dados subespacios S ⊆ H y T ⊆ K su suma S ⊕ T ⊆ H ⊕ K es un subespacio tal que S ⊕T =S ⊕T
y
(S ⊕ T )⊥ = S ⊥ ⊕ T ⊥ .
4. La flecha H 3 x 7→ (x , 0) ∈ H ⊕ K es una isometr´ıa y por ello h´omeo con la imagen. 5. Idem para K ,→ {0} ⊕ K v H ⊕ K. Dados ahora M ∈ L(H) y N ∈ L(K), sea M ⊕ S ∈ L(H ⊕ K)
dado por
M ⊕ N (x , y) = (M x , N y) ∈ H ⊕ K
para cada par (x , y) ∈ H ⊕ K. Se los llama “diagonales”. Probar las siguientes cosas: 222
1. Primero hay que verificar que efectivamente M ⊕ N ∈ L(H ⊕ K). 2. M´as a´ un, se tiene que kM ⊕ N k = max{ kM k , kN k }. 3. * Si fijamos el N ∈ L(K), la flecha L(H) 3 M 7→ M ⊕ N es un h´omeo entre L(H)
y
def
L(H) ⊕ N = {M ⊕ N : M ∈ L(H)} ,
si a este le consideramos la topolog´ıa inducida de la de L(H⊕K). M´as a´ un, las m´etricas coinciden. 4. * Por otra parte σ(M ⊕ N ) = σ(M ) ∪ σ(N ). 5. Entre estos operadores, las operaciones sumar, multiplicar, adjuntar e invertir (si se puede), se hacen en cada coordenada. 6. R(M ⊕ B) = R(M ) ⊕ R(N ) ⊆ H ⊕ K, y es cerrado ⇐⇒ ambos rangos lo son. 7. ker(M ⊕ N ) = ker M ⊕ ker N v H ⊕ K. 8. Un operador cualquiera T ∈ L(H ⊕ K) es de estos diagonales ⇐⇒ conmuta con las proyecciones a H y K. * En otras palabras, si H ⊕ {0} reduce a T . 9. * Nuestros M y N son compactos ⇐⇒ M ⊕ N ∈ K(H ⊕ K). Idem para rango finito. 10. * Adem´as M y N son Fredholms ⇐⇒ M ⊕ N ∈ F (H ⊕ K). En tal caso vale que α(M ⊕ N ) = α(M ) + α(N )
y
β(M ⊕ N ) = β(M ) + β(N ) .
Finalmente, llegamos a que Ind (M ⊕ N ) = Ind (M ) + Ind (N ).
4
Teorema 7.5.3. Sea T ∈ F (H) un Fredholm. Entonces vale que Ind (T + A) = Ind (T )
para todo
A ∈ K(H) .
(7.28)
En otras palabas, la funci´on Ind : F (H) → Z se puede bajar al cociente y definir un Ind a : GCal (H) → Z
dado por
Ind a ( T ) = Ind (T )
para cada
T ∈ F (H) .
(7.29)
Demostraci´on. Consideremos el Hilbert K = H ⊕ `2 (N), como en el Ejer. 7.5.2. Supongamos que Ind (T ) = n > 0. Tomemos S ∈ L(`2 (N) ) el shift a derecha. En (7.26) vimos que Ind (S n ) = −n, por lo que Ind (T ⊕ S n ) = n − n = 0 (Ejer. 7.5.2). Por lo tanto podemos aplicarle el Lema 7.5.1 a T ⊕ S n ∈ F0 (K). Para hacerlo tomemos un A ∈ K(H). Luego Ind (T + A) − n = Ind (T + A) ⊕ S n
= Ind T ⊕ S n + A ⊕ 0
7.5.1
= 0,
porque A ⊕ 0 es compacto en L(K). Esto prueba (7.28) en el caso Ind (T ) > 0. El caso de ´ındice nulo ya lo vimos, y el caso negativo se deduce del positivo cambiando T por T ∗ . 223
Teorema 7.5.4. Sea H un EH. Luego la flecha Ind : F (H) → Z es continua. Esto significa que los conjuntos Fn (H) son abiertos para todo n ∈ Z. Demostraci´on. Alcanza con ver que F0 (K) es abierto para todo Hilbert K. En efecto, observar que si S ∈ L(`2 (N) ) el shift a derecha, entonces para un n > 0 tenemos que 7.5.2 Fn (H) ⊕ S n = F0 H ⊕ `2 (N) ∩ L(H) ⊕ S n , todo en L H ⊕ `2 (N) . n Como la flecha T 7→ T ⊕ S n es un h´omeo entre L(H) y L(H) ⊕ S (Ejer. 7.5.2) podemos 2 2 usar que F0 H ⊕ ` (N) es abierto en L H ⊕ ` (N) para deducir que Fn (H) es abierto en L(H). Para el caso negativo uno usa que F−n (H) = Fn (H)∗ y que adjuntar es h´omeo.
Asumamos ahora que T ∈ F0 (H). Por el Lema 7.5.1 sabemos que existe un F ∈ LF (H) tal que G = T + F ∈ Gl (H). Luego tanto G como G∗ son AI en todo H por un ε > 0. Si ahora me dan una sucesi´on Tn −−−→ T , es claro que Gn = Tn + F −−−→ G, por lo que n→∞
n→∞
a partir de un n0 ∈ N todos esos Gn ∈ Gl (H) (por aquel Teo. 6.1.4 sabemos que Gl (H) era abierto). Finalmente, aplicando el Lema 7.5.1 podemos deducir que a partir de ese n0 todos los Tn = Gn − F ∈ Gl (H) + K(H) ⊆ F0 (H). Eso dice que T es interior para F0 (H), que por ello debe ser abierto en su ambiente L(H). Teorema 7.5.5. Dados T , M ∈ F (H) se tiene que Ind (T M ) = Ind (T ) + Ind (M ). Demostraci´on. Sean n = Ind (T ) y m = Ind (M ). Como siempre, empecemos con el caso en el que m = Ind (M ) = 0. Si pasa eso, el Lema 7.5.1 provee del F ∈ LF (H) tal que G = M + F ∈ Gl (H). Como tambi´en vale que T F ∈ LF (H), podemos calcular que Ind (T ) + Ind (M ) = n = Ind (T )
(7.25)
=
7.5.3
Ind (T G) = Ind (T M + T F ) = Ind (T M ) .
Si m > 0, laburemos en L(H ⊕ `2 (N) ) con el shift S m . Nos queda que el Ind (M ⊕ S m ) = 0. Luego, por el caso que acabamos de ver, podemos hacer esta cuenta: n = Ind (T ⊕ I) = Ind (T ⊕ I) (M ⊕ S m ) = Ind (T M ⊕ S m ) = Ind (T M ) − m . Entonces Ind (T M ) = n + m = Ind (T ) + Ind (M ). El caso m < 0 sale con (S ∗ )−m .
Corolario 7.5.6. Sea H un EH. Luego la funci´on Ind a : GCal (H) → Z que aparec´ıa en (7.29) est´a bien definida y es un morfismo continuo de grupos. Demostraci´on. Bajar a GCal (H) los tres tristes teoremas 7.5.3, 7.5.4 y 7.5.5.
7.6
La traza
Todos sabemos qu´e es la traza de matrices, y hasta la hemos usado un par de veces en este texto. En el contexto de un Hilbert H tal que dim H = ∞, la tr de un T ∈ L(H) se define como siempre (la suma de la “diagonal”), pero la gracia va a ser estudiar a aquellos T tales que tr T < ∞. Adem´as veremos que sus propiedades se mantienen intactas. Pero definirla no es tan f´acil, porque la diagonal depende en principio de la BON que uno elija. Para hacer las cosas bien conviene empezar por los positivos. 224
Definici´ on 7.6.1. Sea H un EH. Definiremos la traza de un T ∈ L(H)+ por la f´omula X tr T = hT ei , ei i ∈ R+ ∪ {+∞} , (7.30) i∈I
para alguna BON fija B = {ei : i ∈ I} de H.
4
Proposici´ on 7.6.2. Sea T ∈ L(H). Entonces la traza de arriba cumple que tr ( T ∗ T ) = tr ( T T ∗ ) .
(7.31)
2 Demostraci´on. Observar que para todo par i , j ∈ I, pasando por h T ei , ej i tenemos que h T ei , ej i h ej , T ei i = h T ∗ ej , ei i h ei , T ∗ ej i ≥ 0 .
(7.32)
Fijemos un i ∈ I. Sumando los primeros de (7.32) sobre j ∈ I nos queda que E DX E X D h T ei , ej i ej , T ei = h T ei , ej i ej , T ei = h T ei , T ei i = h T ∗ T ei , ei i . j∈I
j∈I
Si ahora fijamos j ∈ I y sumamos los segundos de (7.32) sobre i ∈ I nos queda que E X D h T ∗ ej , ei i ei , T ∗ ej = h T ∗ ej , T ∗ ej i = h T T ∗ ej , ej i . i∈I
Si ahora sumamos tutti en la (7.32), como todos los t´eminos son positivos da lo mismo el orden en que lo hagamos. Luego estamos como queremos: P P P h T ∗ T ei , ei i = h T ei , ej i h ej , T ei i i∈I
i∈I j∈I (7.32)
=
P P
h T ∗ ej , ei i h ei , T ∗ ej i =
j∈I i∈I
P
h T T ∗ ej , ej i .
j∈I
O sea que tr ( T ∗ T ) = tr ( T T ∗ ).
Corolario 7.6.3. Sea T ∈ L(H)+ . Entonces se tienen las siguientes propiedades: 1. Vale la igualdad tr T = tr (U ∗ T U ) para cualquier U ∈ U(H) 2. El valor de tr T es independiente de la BON que se use en la f´ormula (7.30). En resumen, en la Def. 7.6.1 se puede cambiar “una BON fija” por “cualquier BON”. Demostraci´on. Aplic´andole la Ec. (7.31) al operador S = U ∗ T 1/2 nos queda que (7.31)
tr (U ∗ T U ) = tr (U ∗ T 1/2 T 1/2 U ) = tr (SS ∗ ) = tr (S ∗ S) = tr(T 1/2 U U ∗ T 1/2 ) = tr T . Fijada B = {ei : i ∈ I}, toda otra BON de H tiene la forma BV = {V ei : i ∈ I} para alg´ un V ∈ U(H). Por ello, si calculamos la tr T con BV llegamos a que X X hT V ei , V ei i = hV ∗ T V ei , ei i = tr (V ∗ T V ) = tr T . i∈I
i∈I
225
7.6.4. La funci´on tr : L(H)+ → R+ ∪ {+∞} cumple algunas propiedades: Si A ∈ L(H)+ P 1. tr A = i∈I hA ei , ei i, ahora para cualquier BON {ei : i ∈ I} de H. 2. Si y ∈ H es unitario, entonces hA y , yi ≤ tr A. Sale completando {y} a una BON. (6.22)
3. En particular kAk = w(A) = supkyk=1 hA y , yi ≤ tr A. 4. Hasta donde tiene sentido (por ahora), la tr es lineal: Si B ∈ L(H)+ y µ ∈ R+ , tr(A + B) = tr A + tr B
y
tr(µ A) = µ tr A .
(7.33)
Esto sale de una por la f´ormula (7.30). 5. La traza es mon´otona: A ≤ B =⇒ tr A ≤ tr B. Es consecuencia de la Def. 7.6.1. 6. Si A es compacto (adem´as de positivo), entonces su traza se puede calcular as´ı: X X A= µk (A) xk xk =⇒ tr A = µk (A) , (7.34) k∈N
k∈N
donde los µk (A) son su sucesi´on decreciente de autovectores (con multiplicidades), como en la Ec. (7.21). Para probarlo basta calcular la traza en la correspondiente BON de autovectores de A (los del n´ ucleo no aportan). Al hacer eso uno tiene que usar que cada t´ermino A xk = µk (A) xk =⇒ hA xk , xk i = µk (A) . 7. Luego podemos afirmar la siguiente caracterizaci´on que ser´a util m´as adelante: Dado A ∈ K(H) ∩ L(H)+
se tiene que tr A < ∞ ⇐⇒ µ(A) ∈ `1 (N) .
Ahorita veremos que los positivos “traza finita” son siempre de estos.
(7.35) 4
Pens´emoslo al rev´es: Sea B = {en : n ∈ N} una BON de un H y tomemos, como en (7.3), un diagonalizable Ma , B ∈ L(H)+ dado por un a = (an )n∈ N ∈ `∞ de entradas positivas. Para calcular su traza podemos usar a la misma B y nos queda que X cada Ma , B en = an en =⇒ tr Ma , B = an por lo que tr Ma , B < ∞ ⇐⇒ a ∈ `1 . n∈N
En particular tendremos que an −−−→ 0 y por el Ejem. 7.1.5 ello asegura que Ma , B ∈ K(H). n→∞
Es un hecho general que los operadores con traza finita (de ´el o de alguna potencia) tienen que ser compactos, aunque la “compacidad” no alcanza para asegurar traza finita. Para decirlo propiamente recordemos que si T ∈ L(H) entonces |T | ∈ L(H)+ por lo que podemos usar el CFC en |T | y definir f ( |T | ) ∈ L(H) para cualquier funci´on f ∈ C[0, ∞). Lo usaremos seguido para las f (t) = tp con p > 0.
226
Proposici´ on 7.6.5. Sea T ∈ L(H). Si existe alg´ un p > 0 tal que se cumpla que tr |T |p < ∞ =⇒ T ∈ K(H) . Demostraci´on. Sea B = {xi : i ∈ I} una BON de H. Consideremos la red asociada de proyectores (PF )F∈PF (I) definida en el Lema 7.1.1. Recordemos que R(PF ) = span {xi : i ∈ F} y llamemos QF = IH − PF para cada F ∈ PF (I). Dado un y ∈ H unitario vale que 7.6.4 X k |T |p/2 QF yk2 = hQF |T |p QF y , yi ≤ tr QF |T |p QF = h |T |p xi , xi i −−−−−→ 0 , F∈PF (I)
i∈F /
donde la convergencia final se debe a que la tr |T |p < ∞ (calcul´andola con B). Observar que k·k
lo que va a cero es independiente del y ∈ BH , o sea que |T |p/2 PF −−−→ |T |p/2 . Aplicando el n→∞
Teo. 7.4.8 y adjuntando, llegamos a que |T |p/2 ∈ K(H) =⇒ |T |p ∈ K(H) ∩ L(H)+ . Luego podemos aplicarles el Cor. 7.4.7 a |T |p y a la funci´on f (t) = t1/p para t ∈ [0, +∞). Deducimos que f (|T |p ) = (|T |p )1/p ∈ K(H). Finalmente, la Ec. (6.32) del Ejer. 6.5.13 nos Cor. 7.1.3 asegura que |T | = (|T |p )1/p ∈ K(H) =⇒ T ∈ K(H). 7.6.6. Sea H un EH. Consideremos los siguientes subespacios de K(H) asociados a la traza. • Para empezar sea L1 (H)+ = {A ∈ L(H)+ : tr A < ∞} ⊆ K(H). def
• Los operadores traza: L1 (H) = span {L1 (H)+ }. def
• Los Hilbert-Schmit (HS): L2 (H) = {T ∈ K(H) : tr(T ∗ T ) < ∞}. Queremos extender la traza a una funci´on lineal tr : L1 (H) → C. Vamos por pasos: P Si B ∈ L1 (H) ∩ A(H) entonces B = k∈In αk Ak con los Ak ∈ L1 (H)+ y los αk ∈ R, porque las partes imaginarias se cancelan. Luego definimos ! ! X X X (7.33) tr B = αk tr Ak = tr αk Ak − tr −αk Ak ∈ R . (7.36) αk ≥0
k∈In
αk <0
La definici´ de la CL elegida) porque si tenemos otra representaci´on P on es buena (no depende 1 B = j∈Im βj Cj (con los Cj ∈ L (H)+ y los βj ∈ R), entonces podemos despejar: X αk ≥0
αk Ak +
X βj <0
−βj Cj =
X βj ≥0
βj C j +
X
(7.33)
−αk Ak =⇒
αk <0
X k∈In
αk tr Ak =
X
βj tr Cj ,
j∈Im
porque todos los coeficientes de la izquierda son positivos. Observar que la f´ormula (7.36) hace que la tr sea R-lineal en L1 (H) ∩ A(H). Sigamos extendiendo: El segundo paso es tomar un T ∈ L1 (H) y ahora la cosa es m´as f´acil. Hay que notar que L1 (H) = L1 (H)∗ , lo que se deduce directamente de su definici´on. Este hecho implica que ∗ ∈ L1 (H) y lo mismo para Im(T ). Finalmente basta poner Re(T ) = T +T 2 tr T = tr Re(T ) + i tr Im(T ) . 227
Como la descomposici´on T = Re(T ) + i Im(T ) es u ´nica (ver 4.2.5), ni siquiera hay que verificar la BD. Encima, como las flechas T 7→ Re(T ) y T 7→ Im(T ) ya eran R-lineales y multiplicar por i permuta Re con Im, sale sin dificultad que nuestra traza extendida tr : L1 (H) → C es C-lineal en todo L1 (H). Ahora que sabemos que lo es, podemos dar una propiedad-definici´on mucho m´as satisfactoria: Si T ∈ L1 (H), entonces X tr T = hT ei , ei i para cualquier BON {ei : i ∈ I} de H . (7.37) i∈I
En efecto, ambos t´erminos son lineales en T , y la igualdad se cumple para los generadores de L1 (H)+ . La Ec. (7.37) tiene dos consecuencias u ´tiles: Si T ∈ L1 (H), entonces tr T ∗ = tr T
y
tr T ≥ 0
siempre que
T ∈ L1 (H) ∩ L(H)+ = L1 (H)+ .
(7.38)
Con respecto a L2 (H), dec´ıamos que es un subespacio, pero hace falta probarlo. Para ello sirve observar que dados S , T ∈ L(H), se cumple la siguiente desgualdad paralelogr´amica: (S + T )∗ (S + T ) ≤ (S + T )∗ (S + T ) + (S − T )∗ (S − T ) = 2 (S ∗ S + T ∗ T ) .
(7.39)
La prueba es tan solo distribuir y simplificar. Mir´andola fijo uno descubre que ella muestra que L2 (H) era nom´as un subespacio. Por otro lado, usando la Prop. 7.6.2 (tr T ∗ T = tr T T ∗ ) vemos inmediatamente que L2 (H) = L2 (H)∗ . Para terminar este potpurr´ı, veamos que 4T∗ S =
3 X
ik (S + ik T )∗ (S + ik T )
para todo par
S , T ∈ L(H) .
(7.40)
k=0
4
Nuevamente la prueba consiste en distribuir y simplificar (un poco m´as). Teorema 7.6.7. Sea H un EH. Entonces se tienen las siguientes propiedades: 1. Tanto L1 (H) como L2 (H) son ideales bil´ ateros autoadjuntos de L(H).
2. Podemos caracterizar mejor a los traza: Dado T ∈ L(H) vale que T ∈ L1 (H) ⇐⇒ |T | ∈ L1 (H)+ =⇒ L1 (H) = {T ∈ L(H) : tr |T | < ∞} . (7.41) 3. Dado T ∈ K(H), sea s(T ) = µ( |T | ) su sucesi´on de valores singulares (7.22). Luego T ∈ L1 (H) ⇐⇒ s(T ) ∈ `1 (N)
y
T ∈ L2 (H) ⇐⇒ s(T ) ∈ `2 (N) .
(7.42)
4. Podemos relacionar varios de estos espacios con una cadena de inclusiones: LF (H) ⊆ L1 (H) ⊆ L2 (H) ⊆ K(H) , todas ellas estricas si dim H = ∞. Demostraci´on. Ya sabemos que ambos espacios son subespacios autoadjuntos. 228
(7.43)
1. Veamos que L1 (H) es ideal. Fijemos un T ∈ L1 (H)+ . En principio, la Prop. 7.6.2 asegura que para cualquier B ∈ L(H) se tiene que 7.6.4 (7.31) tr B ∗ T B = tr (B T 1/2 )∗ (B T 1/2 ) = tr T 1/2 B ∗ B T 1/2 ≤ kBk2 tr T ,
(7.44)
(6.39)
porque B ∗ B ≤ kBk2 I. Dados ahora otro A ∈ L(H), la Ec. (7.40) dice que 4 T A = 4 T 1/2 · T 1/2 A =
3 P
ik (T 1/2 A + ik T 1/2 )∗ (T 1/2 A + ik T 1/2 )
k=0
=
3 P
(7.44)
ik (A + ik I )∗ T (A + ik I ) ∈ L1 (H) .
k=0
Pero como L1 (H)+ genera L1 (H) y L1 (H) = L1 (H)∗ (eso para que A∗ T ∈ L1 (H) ), lo de arriba alcanza para convencerse de que L1 (H) es ideal bil´atero. Si ahora tenemos un S ∈ L2 (H) y un C ∈ L(H), lo que vimos de L1 (H) hace que S ∈ L2 (H) ⇐⇒ S ∗ S ∈ L1 (H) =⇒ C ∗ S ∗ S C ∈ L1 (H) =⇒ S C ∈ L2 (H) . Del hecho de que tambi´en L2 (H)∗ = L2 (H) sale que L2 (H) es ideal bil´atero. 2. Si T = U |T | es la DP de un T ∈ L(H), entonces |T | = U ∗ T (Teo. 4.4.4). Como vimos que L1 (H) es un ideal, eso dice que T ∈ L1 (H) ⇐⇒ |T | ∈ L1 (H). 3. La primera equivalencia de (7.42) de deduce de las Ec’s. (7.41) y (7.35), usando que s(T ) = µ( |T | ). Para ver la otra se hace esta cuenta, basada en la Ec. (7.23): T ∈ L2 (H)
⇐⇒ T ∗ T ∈ L1 (H) (7.35)
(7.23)
⇐⇒ s( T ∗ T ) = µ( |T |2 ) =
µk ( |T | )2
k∈N
∈ `1 (N)
⇐⇒ s(T ) = µ( |T | ) ∈ `2 (N) . 4. Si F ∈ LF (H), entonces |F | ∈ LF (H). Calculando su traza en una BON (finita) de autovectores de |F | vemos que tiene que ser finita. Luego F ∈ L1 (H). La inclusi´on L1 (H) ⊆ L2 (H) se deduce de (7.42), porque `1 (N) ⊆ `2 (N). En la Prop. 7.6.5 (o en su misma Def.) ya se vi´o que L2 (H) ⊆ K(H). Finalmente, los ejemplos para ver las inclusiones propias son evidentes usando (7.42). Ejercicio 7.6.8. Mostrar la siguiente concretizaci´on de la Ec. (7.42): P 1. Dado T ∈ L1 (H) se cumple que tr |T | = sn (T ) = ks(T )k1 . n∈N
2. En cambio si T ∈ L2 (H), entonces kT k22 = tr T ∗ T = 229
P n∈N
sn (T )2 = ks(T )k22 .
Teorema 7.6.9. El espacio L2 (H) de operadores de Hilbert Schmit cumple lo siguiente: 1. Dados S , T ∈ L2 (H), se tiene que T ∗ S ∈ L1 (H). 2. La siguiente flecha define un producto interno en L2 (H): L2 (H) × L2 (H) 3 (S , T ) 7−→ hS , T itr = tr T ∗ S . def
(7.45)
3. Con ese PI, el espacio L2 (H) es un Hilbert. O sea que hay completitud con la norma 1/2
def
kT k2
= hT , T itr
tr T ∗ T
=
1/2
para
T ∈ L2 (H) .
Demostraci´on. El item 1 se deduce directamente de la Ec. (7.40). Del hecho de que la traza es lineal en L1 (H) deducimos sin problemas que el h· , ·itr es sesquilineal. Es conjugadamente sim´etrico y semidefinido positivo por la Ec. (7.38). Por ejemplo, dados S , T ∈ L2 (H), hT , Sitr = tr S ∗ T = tr (T ∗ S)∗
(7.38)
=
tr T ∗ S = hS , T itr .
El hecho de que sea definido positivo sale usando el item 3 de 7.6.4, donde se vi´o que T ∈ L2 (H) \ {0} =⇒ kT k22 = hT , T itr = tr T ∗ T
7.6.4
≥ kT ∗ T k = kT k2 > 0 .
(7.46)
Falta ver que L2 (H) es completo con la k · k2 . Fijemos una sucesi´on (Tn )n∈ N en L2 (H) que sea de Cauchy en la k · k2 . Por la desigualdad k · k2 ≥ k · k vista en (7.46), podemos afirmar k·k
que existe un T ∈ K(H) tal que Tn −−−→ T . n→∞
Dado ε > 0 sea n0 tal que kTm − Tn k2 < ε para n , m ≥ n0 . Antes de seguir, fijemos una proyecci´on P ∈ LF (H) y un n ≥ n0 . En este caso concreto podemos afirmar que la convergencia en la norma usual implica que k(Tm − Tn )P k2 −−−→ k(T − Tn )P k2 , porque m→∞ gracias a P la traza se hace con una suma finita. Ahora s´ı podemos ver que k(T − Tn )P k22 = lim k(T − Tn )P k22 = lim tr P (Tm − Tn )∗ (Tm − Tn ) P m→∞
m→∞
= lim tr (Tm − Tn ) P (Tm − Tn )∗ m→∞
(7.38)
≤
sup tr (Tm − Tn ) (Tm − Tn )∗ = sup k(Tm − Tn )k22 ≤ ε2 .
m≥n0
m≥n0
Como la acotaci´on vale con n ≥ n0 para cualquier proyector P ∈ LF (H), lo podemos agrandar hasta llegar a que k(T − Tn )k2 ≤ ε para todo n ≥ n0 . De esto deducimos que T ∈ L2 (H) y que k(T − Tn )k2 −−−→ 0, as´ı que L2 (H) es un EH en toda regla. n→∞
Proposici´ on 7.6.10. Sea H un EH. Se tienen las siguientes desigualdades: 230
1. Dado un M ∈ L2 (H) y cualquier A ∈ L(H) sabemos que A M ∈ L2 (H), pero adem´as kA M k2 ≤ kAk kM k2 . 2. Similarmente, si T ∈ L1 (H) y A ∈ L(H) se tiene que tr (A T ) ≤ tr |A T | ≤ kAk tr |T | .
(7.47)
(7.48)
Demostraci´on. Para probar la desigualdad (7.47) basta observar que kA M k22 = tr (M ∗ A∗ A M ) ≤ tr M ∗ ( kA∗ Ak I ) M = kA∗ Ak tr(M ∗ M ) = kAk2 kM k22 , porque A∗ A ≤ kA∗ Ak I, como hab´ıamos visto en (6.39). Veamos ahora que tr S ≤ tr |S| para todo S ∈ L1 (H) ,
(7.49)
que es la (7.48) para A = I. Para ello hagamos S = U |S| la DP de S ∈ L1 (H). Observemos que |S| = U ∗ S ∈ L1 (H). Luego |S|1/2 ∈ L2 (H), ya que k |S|1/2 k22 = tr |S| < ∞. Usando Cauchy Schwarz para el PI de L2 (H), podemos hacer esta cuenta:
tr S = tr (U |S|1/2 ) |S|1/2 = |S|1/2 , (U |S|1/2 )∗ tr (7.47)
C−S
≤ kU |S|1/2 k2 k |S|1/2 k2 ≤ kU k k |S|1/2 k22 = tr |S| .
En un momento se us´o que kB ∗ k2 = kBk2 para B ∈ L2 (H). Eso sale de la Ec. (7.31). Para probar la (7.48) general recordemos que la Ec. (6.41) mostraba que |AT | ≤ kAk |T | como operadores. Tomando traza deducimos que tr |A T | ≤ kAk tr |T |. Finalmente, aplicando la Ec. (7.49) al operador S = A T sale que tr (A T ) ≤ tr |A T |. Proposici´ on 7.6.11. La traza cumple su paradigm´atica propiedad tr S T = tr T S
(7.50)
en los dos casos en los que ya sabemos que tendr´ıa sentido: • Cuando T ∈ L1 (H) y ponemos cualquier S ∈ L(H). • Cuamdo ambos S , T ∈ L2 (H). Demostraci´on. Como ahora sabemos que siempre vale la Ec. (7.37), la prueba es b´asicamente la misma que la de la Prop. 7.6.2: Hacer una serie doble y cambiar el orden de las sumatorias.
231
El problema es que en el caso general los t´erminos que hay que sumar no son positivos como entonces. As´ı que mejor aplicamos la f´ormula (7.40) y reci´en ah´ı la Ec. (7.37): 3 (7.40) P 4 tr T ∗ S = ik tr (S + ik T )∗ (S + ik T ) k=0 (7.37)
=
3 P
ik tr (S + ik T )(S + ik T )∗
k=0
(7.51) =
3 P
ik tr (S ∗ + i−k T ∗ )∗ (S ∗ + i−k T ∗ )
k=0
=
3 P
(7.40) ik tr (T ∗ + ik S ∗ )∗ (T ∗ + ik S ∗ ) = 4 tr S T ∗ .
k=0
Ojo que lo de arriba s´olo tiene sentido cuando S y T ∈ L2 (H). Para el otro caso podemos asumir que T ∈ L1 (H)+ , porque ellos generan. Entonces sabemos que T 1/2 ∈ L2 (H) y por lo que probamos arriba podemos hacer la siguiente cuenta: Dado S ∈ L(H), vale que (7.51) (7.51) tr S T = tr (S T 1/2 ) T 1/2 = tr (T 1/2 S) T 1/2 = tr T 1/2 (T 1/2 S) = tr T S . Teorema 7.6.12. La f´ormula kT k1 = tr |T | define una norma en L1 (H) que lo hace un espacio de Banach. Demostraci´on. Veamos que es una norma. Es claro que las constantes salen en m´odulo. Usando el item 3 de 7.6.4 vemos que si T ∈ L1 (H) \ {0}, entonces 0 < kT k = k |T | k ≤ tr |T | = kT k1 , o sea que es positiva definida. La DT sale a´ı: Si S + T = V |S + T | es su DP, entonces (7.48) 4.4.4 kS + T k1 = tr |S + T | = tr V ∗ (S + T ) ≤ | tr V ∗ S| + | tr V ∗ T | ≤ tr |S| + tr |T | . Ahora a laburar con la completitud. Es casi lo mismo que para L2 (H): Fijemos una sucesi´on (Tn )n∈ N en L1 (H) que sea de Cauchy en la k · k1 . Por la desigualdad k · k1 ≥ k · k vista k·k
reci´en, podemos afirmar que existe un T ∈ K(H) tal que Tn −−−→ T . Dado ε > 0 sea n0 tal n→∞
que kTm − Tn k1 < ε para n , m ≥ n0 . Antes de seguir, fijemos una proyecci´on P ∈ LF (H) y un n ≥ n0 . Luego podemos afirmar que la convergencia en la norma usual implica que (7.50)
tr P |Tm − Tn | = tr P |Tm − Tn | P −−−→ tr P |T − Tn | P , m→∞
porque P hace que la traza sea una suma finita, y porque el Cor. 6.6.7 aseguraba que Tm −−−→ T =⇒ |Tm − Tn | −−−→ |T − Tn |. Luego, si n ≥ n0 tenemos que m→∞
m→∞
(7.50)
tr P |T − Tn | P = lim tr P |Tm − Tn | = m→∞
lim tr |Tm − Tn |1/2 P |Tm − Tn |1/2
m→∞
(7.38)
≤
sup tr |Tm − Tn | = sup k(Tm − Tn )k1 ≤ ε . m≥n0
m≥n0
232
Como la acotaci´on vale con n ≥ n0 para cualquier proyector P ∈ LF (H), lo podemos agrandar hasta llegar a que k(T − Tn )k1 ≤ ε para todo n ≥ n0 . De esto deducimos que T ∈ L1 (H) y que k(T − Tn )k1 −−−→ 0, as´ı que L1 (H) es un EB de ley. n→∞
Ejercicio 7.6.13. Recordemos la Ec. (7.43): LF (H) ⊆ L1 (H) ⊆ L2 (H) ⊆ K(H). Probar que cada uno de ellos en denso en los m´as grandes con sus normas. En otras palabras, probar que LF (H) es denso en los tres con las normas que les corresponden (1, 2 e ∞). 4 Para lo que nos falta hacer conviene tener como herramientas algunas cuentas m´as sobre los tensorcitos x y ∈ LF (H) vistos en la Secci´on 4.6. En las demostraciones que se vienen usaremos (sin citar ni aclarar) las m´ ultiples propiedades ya probadas en la Prop. 4.6.4, as´ı que damos una versi´on retroactiva antes de seguir. Repaso de la Prop. 4.6.4. Sea H un EH. Fijemos x , y ∈ H. Luego: 1. La norma: kx yk = kxk kyk. 2. El adjunto: (x y)∗ = y x. 3. El espectro: El u ´nico autovalor de x y que puede ser no nulo es λ1 = hx, yi. 4. Si A , B ∈ L(H), se tiene que A ◦ x = A x ∈ L(K , H). Luego A · (x y) = (Ax) y
and
(x y) · B = x (B ∗ y) .
5. Dados v , w ∈ H, se tiene que (x y) · (v w) = hv, yi · x w . 6. Si x 6= 0, el proyector Pspan{x} =
x kxk
x kxk
=
1 kxk2
x x .
Ahora s´ı enunciamos las novedades: Proposici´ on 7.6.14. Sea H un EH. Dados x , y ∈ H se tiene que 1. El tensor x y ∈ L1 (H) y cumple que tr x y = hx , yi. 2. Su m´odulo (como operador) es |x y| = kxk kyk · y1 y1 , donde y1 =
y kyk
.
3. Por ello, su kx yk1 = tr |x y| = kxk kyk = kx yk. 4. Si dim H > 1, su espectro es σ (x y) = 0 , hx , yi . 5. Dados z , w ∈ H, se tiene que el PI de L2 (H) entre los tensores da D E x y, z w = hx , zi hw , yi . tr
Demostraci´on.
233
(7.52)
x 1. Si x = 0 es trivial. Sin´o, sea x1 = kxk . Como R(x y) = span {x1 }, podemos calcular su traza empezando (y terminando) por x1 :
tr x y = x y (x1 ) , x1 = hx1 , yi hx , x1 i = hx1 , yi kxk = hx , yi .
2. |x y| = y x · x y
1/2
= kxk2 y y
1/2
= kxk kyk · (y1 y1 )1/2 = kxk kyk · y1 y1 .
3. Es porque tr y1 y1 = tr Pspan{y} = 1. La igualdad con kx yk se vi´o en la Prop. 4.6.4. 4. Tambi´en se vi´o en la Prop. 4.6.4, agregando ahora el hecho de que x y es compacto. 5. Es cuesti´on de hacer la cuenta. Si nos armamos de paciencia vemos que D E x y, z w = tr w z · x y = hx , zi tr w y = hx , zi hw , yi . tr
Teorema 7.6.15. Sea H un EH. Si B = {vi : i ∈ I} es un SON de H, entonces def
B B = {vi vj : i , j ∈ I}
L2 (H) .
es un SON de
(7.53)
Pero si B era una BON de H, entonces B B se constituye en una BON de L2 (H). Demostraci´on. La (7.53) es una consecuencia directa de la f´ormula (7.52) (o sea el final de lo de arriba). Para ver que B B genera todo L2 (H), basta ver que su ortogonal es trivial. En efecto, si me dan un T ∈ L2 (H) y un par i , j ∈ I, podemos calcular D E T , vi vj = tr vj vi · T = tr vj T ∗ vi = hvj , T ∗ vi i = hT vj , vi i , tr
Pero es bien f´acil ver que si todos esos hT vj , vi i = 0, entonces T = 0.
Observaci´ on 7.6.16. Recordemos que cuando H = L2 (X, µ) ten´ıamos los operadores nudef cleares Tk para los n´ ucleos k ∈ K = L2 (X × X , µ × µ). Adem´as, en el Ejem. 7.1.7 vimos que si B = {φi : i ∈ I} es una BON de H, y dados i, j ∈ I definamos φi ⊗ φj ∈ K por φi ⊗ φj (x, y) = φi (x) φj (y) para (x, y) ∈ X × X , def
entonces B ⊗ B = {φi ⊗ φj : i , j ∈ I} es una BON de K. Adem´as mostramos que Tφi ⊗φj = φi φj ∈ L2 (H )
para todo par
i, j ∈ I ,
O sea que la flecha L2 (X × X , µ × µ) 3 k 7→ Tk ∈ L2 (H) manda una BON en otra BON (los φi φj por el Teo. 7.6.15), por lo que es una isometr´ıa entre esos dos EH’s. Esto se traduce a que si H = L2 (X, µ), sus operadores de Hilbert Schmit coinciden con los nucleares Tk para los n´ ucleos k ∈ L2 (X × X , µ × µ), y que la norma 2 de ellos es igual a la kkk2 . 4 Teorema 7.6.17. Sea H un EH. Luego tenemos sendos isomorfismos isom´etricos L1 (H) ∼ = K(H)∗
y
L(H) ∼ = L1 (H)∗
implementados por la dualidad L(H) × L1 (H) 3 (S , T ) 7→ tr S T = tr T S. 234
(7.54)
Demostraci´on. Recordemos de la Ec. (7.48) que | tr S T | ≤ kSk tr |T | para S ∈ L(H) y T ∈ L1 (H) cualesquiera. Eso permite definir sendas flechas L1 (H) 3 T 7→ ϕT ∈ K(H)∗
L(H) 3 S 7→ φS ∈ L1 (H)∗
y
(7.55)
dadas por ϕT (S) = tr S T para S ∈ K(H) y φS (T ) = tr S T para T ∈ L1 (H). La desigualdad (7.48) antes mencionada nos asegura que dados T ∈ L1 (H) y S ∈ L(H), se tiene que ϕT ∈ K(H)∗
con
kϕT k ≤ kT k1
φS ∈ L1 (H)∗
y
kφS k ≤ kSk .
con
Ahora viene el laburo: Dada una ϕ ∈ K(H)∗ , la podemos restringir a L2 (H) (recordemos que L2 (H) ⊆ K(H) ). Nos queda una ϕ ∈ L2 (H)∗ y no se agranda su norma (porque k·k2 ≥ k·k). Pero vimos que L2 (H) es un EH. Luego el TRR 3.3.1 nos provee de un T ∈ L2 (H) tal que ϕ(S) = hS , T ∗ itr = tr T S = tr S T
S ∈ L2 (H) ,
para todo
Por otro lado, dado un proyector P ∈ LF (H) y haciendo T = U |T | su DP, vale que tr P |T | = tr P U ∗ T = |ϕ(P U ∗ )| ≤ kϕk . Como P es arbitraria, ya podemos asegurar que nuestro T ∈ L1 (H) con kT k1 = tr |T | ≤ kϕk. Finalmente, como L2 (H) es denso en K(H), deducimos que ϕ = ϕT y que kϕT k ≥ kT k1 . Esto muestra que la primera flecha de (7.55) es un isomorfismo isom´etrico sobre K(H)∗ . A laburar sobre la otra. Sea φ ∈ L1 (H)∗ . El curro es definir la sesquilineal acotada def B(x , y) = φ x y para x , y ∈ H . La sesquilinealidad sale f´acil, y es acotada por la constante kφk porque |B(x , y)| = |φ x y | ≤ kφk kx yk1
7.6.14
=
kφk kxk kyk
para
x, y ∈ H .
La Prop. 4.1.2 (Lax-Milgram) nos produce un S ∈ L(H) tal que kSk ≤ kφk y 7.6.14 φ x y = B(x , y) = hS x , yi = tr S x y = φS x y
para
x, y ∈ H .
Finalmente, en 4.6.6 vimos que los x y generan LF (H), que a su vez es k · k1 -denso en L1 (H). Luego lo de arriba dice que φ = φS y que kφS k ≥ kSk. Con ello hemos probado que la otra flecha de (7.55) es un iso isom´etrico sobre L1 (H)∗ . Observaci´ on 7.6.18. Las dualidades de arriba son una especie de extenci´on de las viejas ∗ 1 c0 = ` y (`1 )∗ = `∞ . De hecho, fijando una BON (numerable) de H uno contruye operadores diagonales y se aviva de que un Ma ∈ L(H) dado por una a = (an )n∈ N ∈ CN cumple que Ma ∈ K(H) ⇐⇒ a ∈ c0
,
Ma ∈ L1 (H) ⇐⇒ a ∈ `1
y
Ma ∈ L(H) ⇐⇒ a ∈ `∞ .
Adem´as es un lindo ejercicio verificar que las dualidades viejas coinciden con tr(Ma Mb ). Otra manifestaci´on de esta analog´ıa se ve en aquel Ejer. 7.1.8. 4 235
Observaci´ on 7.6.19. Una consecuencia importante de que L(H) sea el dual de L1 (H) (Teo. 7.6.17) es que le podemos aplicar Alaoglu para decir que la bola BL(H) es w∗ -compacta. Claro que ac´a converger w∗ es traceando contra todo A ∈ L1 (H), lo que no parece f´acil de testear. Sin embargo, en la bola BL(H) hay una manera mucho m´as concreta de describir esa topolog´ıa. Definamos la convergencia WOT, que hab´ıa aparecido en 5.9.22. Definici´ on 7.6.20. Fijemos una red T = (Ti )i∈ I y un T , todos en L(H). Decimos que W.O.T. Ti −−−→ T (se lee “Ti converge debilmente o WOT a T ”) si se cumple que i∈I
hTi x , yi −−→ hT x , yi i∈ I
para todo par
x, y∈H.
Esta convergencia proviene de la topolog´ıa WOT en L(H) dada por la familia de seminormas Pxy (T ) = | hT x , yi | (para x , y ∈ H y T ∈ L(H) ), que lo hacen ELC. 4 Proposici´ on 7.6.21. Sea H un EH. En la bola BL(H) (o en cualquier acotado de L(H) ) las topolog´ıas WOT y w∗ de L(H) coinciden. Por lo tanto BL(H) es WOT compacta. Proof. Por la Prop. 7.6.14 sabemos que para cualquier T ∈ L(H) valen las igualdades hT x , yi = tr T x y = tr T (x y) para todo par x , y ∈ H . Como todos los x y ∈ LF (H) ⊆ L1 (H) tenemos que la convergencia w∗ implica la WOT en todo L(H), y por lo tanto tambi´en en BL(H) . W.O.T.
Pero la misma igualdad asegura que si Ti −−−→ T , entonces tr Ti F −−→ tr T F para todo i∈I
i∈ I
operador F ∈ LF (H). Al fin y al cabo, en 4.6.6 se vi´o que tales F son suma de finitos tensorcitos xk yk . Por otro lado LF (H) es k · k1 denso en L1 (H). W.O.T.
Asumamos ahora que los Ti −−−→ T y que todos viven en BL(H) . Fijado un A ∈ L1 (H) y i∈I
un ε > 0, tomemos un F ∈ LF (H) tal que kA − F k1 < ε. Luego | tr (T − Ti ) A|
≤ | tr (T − Ti ) (A − F )| + | tr (T − Ti ) F | (7.48)
≤ kT − Ti k kA − F k1 + | tr (T − Ti ) F | ≤ 2 ε + | tr (T − Ti ) F | < 3 ε si i ≥ cierto i0 (para F ) . Entonces tr Ti A −−→ tr T A para todo operador A ∈ L1 (H). As´ı que tambi´en vale que la i∈ I
convergencia WOT implica la w∗ si nos quedamos en BL(H) , por lo que ambas topolog´ıas coinciden all´ı. La compacidad de BL(H) con la w∗ = WOT es Alaoglu. Listo. Ejercicio 7.6.22. Sea H un EH separable. Probar que
236
1. Si {xn : n ∈ N} es un denso en BH , entonces la f´ormula kT kW =
X n,m∈N
1 2 n+m
h T xn , xm i
para cada
T ∈ L(H) ,
cumple las siguientes propiedades: (a) La serie converge. M´as a´ un, kT kW ≤ kT k para todo T ∈ L(H). (b) La flecha T 7→ kT kW es una norma en L(H). k · kW
(c) Una red acotada Ti −−−→ T ∈ L(H) ⇐⇒ h Ti xn , xm i −−→ h T xn , xm i para i∈I
todo par de elementos xn , xm del denso.
i∈ I
(d) Esta norma produce, en la bola BL(H) , exactamente la topolog´ıa WOT. 2. Deducir toda sucesi´on acotada en L(H) tiene una subsucesi´ on WOT-convergente. Ojo con lo siguiente: Si suponemos que dim H = ∞ (sea o no separable), vale que 3. La norma k · kW no produce la WOT en todo L(H). 4. La w∗ (relativa al “predual” L1 (H) ) y la WOT no coinciden en todo L(H).
237
4
7.7
Ejercicios del Cap. 7 - Operadores compactos
Ejercicios aparecidos en el texto 7.7.1. Probar los detalles del Cor. 7.1.3: Sea H un EH. El conjunto K(H) de operadores compactos cumple: 1. Contiene a LF (H) i.e., todo rango finito es compacto. 2. Es un subespacio de L(H), o sea que suma de compactos es compacto. 3. M´ as a´ un, es un ideal bil´ atero. Esto agrega que si T ∈ K(H), entonces A T B ∈ K(H)
para todo par
A , B ∈ L(H) .
4. Es cerrado, por lo que un l´ımite de compactos queda compacto. 5. Es cerrado por adjunci´ on: T ∈ K(H) =⇒ T ∗ ∈ K(H). 6. Adem´ as vale que T ∈ K(H) ⇐⇒ |T | ∈ K(H) ⇐⇒ Re T e Im T ∈ K(H). 7. En cambio si hay un subespacio N ⊆ H y un ε > 0 tales que dim N = ∞
y T ∈ L(H) cumple
kT xk ≥ ε kxk
para todo
x∈N
(eso se abrevia “T es AI en N por ε”), entonces T ∈ / K(H).
4
7.7.2. Sea H es un EH con dim H = ℵ0 . Fijemos B = {xn : n ∈ N} una BON de H. 1. Probar que, dado a = (an )n∈ N ∈ `∞ (N), existe un u ´nico operador Ma , B ∈ L(H)
tal que
Mostrar que ´el cumple que Ma , B x =
M a , B xn = a n xn
P
n∈N
para todo
n∈N.
(7.56)
an hx , xn i xn , para cada x ∈ H.
2. Probar que el tal Ma verifica las siguientes propiedades: (a) Su norma es kMa , B k = kak∞ . (b) Su adjunto es Ma∗ = Ma , por lo que Ma ∈ A(H) ⇐⇒ a ∈ RN . (c) Adem´ as Ma ∈ L(H)+ ⇐⇒ a ∈ RN +. (d) El Ma ∈ Gl (H) ⇐⇒ ´ınf |an | > 0. Deducir de ello que su espectro σ(Ma ) es la clausura en C n∈N
del conjunto {an : n ∈ N}. (e) Caso compacto: Nuestro Ma , B ∈ K(H) ⇐⇒ a ∈ c0 . (f) Adem´ as Ma , B ∈ L1 (H) ⇐⇒ a ∈ `1 (N) y Ma , B ∈ L2 (H) ⇐⇒ a ∈ `2 (N) . 3. Los operadores que admiten una representaci´on de este tipo se llaman B-diagonalizables. Probar que un T ∈ L(H) es B-diagonalizble ⇐⇒ su “matriz” en B es diagonal (se recupera el a ∈ `∞ de la diagonal) ⇐⇒ T conmuta con cada proyector Pxn = xn xn y cada T xn = an xn . 4 7.7.3. Sea H un EH con una BON B = {xn : n ∈ N}. Sea DB = {M ∈ L(H) : M = Ma , B
(el de (7.56) )
para alg´ un
1. Mostrar que DB ∩ K(H) = {Ma , B : a ∈ c0 } (propuesto en el Ejem. 7.7.2).
238
a ∈ `∞ } .
2. Probar que existe un EB ∈ L(L(H) ) que comprime a los B-diagonales: (a) Es un proyector tal que EB2 = EB y kEB k = 1. (b) Su rango es R(EB ) = DB , por lo que EB (M ) = M para todo M ∈ DB . (c) M´ as a´ un, se tiene que DB (I) = I y si M ∈ DB y T ∈ L(H), entonces EB (M T ) = M EB (T )
y
EB (T M ) = EB (T ) M .
(d) Si T ∈ K(H) entonces EB (T ) ∈ K(H) i.e., la diagonal de un compacto est´a en c0 . 3. Probar que aunque K(H) v L(H), el subespacio K(H) no es COM en L(H). Sug: Dado T ∈ L(H), definir dT = hT xn , xn i n∈N ∈ `∞ y poner EB (T ) = MdT , B . Por otro lado, si hubiera un proyector acotado Q de L(H) sobre K(H), entonces EB ◦ Q D proyectar´ıa al espacio DB ∼ = `∞ B sobre DB ∩ K(H) ∼ 4 = c0 . Luego mirar el Ejem. 2.7.8. def
7.7.4. Dado T ∈ K(H), probar que s1 (T ) = µ1 ( |T | ) = k |T | k = kT k.
4
Repaso del Teo. 7.4.8: Sea T ∈ K(H) \ LF (H). Luego existen dos SON’s : B1 = {xk : k ∈ N}, que es BON de (ker T )⊥
y
B2 = {zk : k ∈ N}, que es BON de R(T ) ,
tales que el operador T se representa como la serie (que converge en norma) : T =
X
sk (T ) zk xk =⇒ T y =
k∈N
X
sk (T ) hy , xk i zk
para todo
y∈H.
(7.57)
k∈N
De hecho B1 es una BON de autovectores para |T | y B2 lo es para |T ∗ |, donde ninguna de las dos contiene generadores de los n´ ucleos. Adem´ as vale que s(T ∗ ) = s(T ). 7.7.5. Probar que si T ∈ LF (H), entonces tiene una representaci´on del tipo (7.57) pero con sumas finitas. De paso mostrar que, si ahora T ∈ K(H) \ LF (H), truncando en (7.57) obtenemos una sucesi´on posta en LF (H) que le converge a T . Posta significa que minimiza la distancia de T a los operadores del rango de cada truncado. 4 7.7.6. Sea T ∈ K(H). Probar que ese T es diagonalizable (c.f. Ejer. 7.7.2) con respecto a alguna BON de H si y s´ olo si T es normal. En tal caso vale que sk (T ) = |µk (T )| para todo k ∈ N (o hasta donde sea que lleguen si T era rango finito), siempre que uno enumere los µk (T ) para que tengan m´odulos decrecientes (se puede porque van hacia cero). 4 def −1 7.7.7. Sea T ∈ F (H) = PK(H) GCal (H) . V´ıa el Teo. 7.2.3 podemos definir su ´ındice por def
Ind T = α(T ) − β(T ) = dim ker T − dim ker T ∗ ∈ Z , Deducir del Teo. 7.2.3 las siguientes propiedades: 1. El grupo Gl (H) ⊆ F (H), y si G ∈ Gl (H) entonces Ind G = 0 − 0 = 0. A partir de ahora asumamos que T ∈ F (H). 2. Llamemos PT = Pker T y QT = PT ∗ = Pker T ∗ . Luego Ind T = rk PT − rk QT . 3. Si M ∈ F (H), entonces M T y T M ∈ F (H). 4. Pero si G ∈ Gl (H) =⇒ Ind GT = Ind T G = Ind T (porque vale para sus α y β). 5. T ∗ ∈ F (H) y tiene su Ind T ∗ = −Ind T . Sale porque α(T ∗ ) = β(T ).
239
6. Tambi´en T † ∈ F (H) y cumple que Ind T † = −Ind T . 7. Definamos Fn (H) = {S ∈ F (H) : Ind S = n} para cada n ∈ Z. Si H = `2 (N) y recordamos al shift S ∈ L(H) unilateral hacia la derecha, luego S ∈ F (H)
,
Ind S n = −n
mientras que
Ind (S ∗ )n = n
para todo
n∈N.
Por lo tanto Fn (H) 6= ∅ para todo n ∈ Z. Al menos cuando dim H = |N|.
4
7.7.8 (Alternativa de Fredholm). Si nos planteamos la ecuaci´on T x = λ x + b con la inc´ ognita x
y los datos b ∈ H , T ∈ K(H)
y
λ ∈ C \ {0} ,
probar que se tienen las dos posibilidades conocidas: • O bien T − λ I ∈ Gl (H) por lo que hay soluci´on u ´nica x = (T − λ I)−1 b
para todo
b ∈ L(H) .
• O bien λ ∈ σ(T ) \ {0}, en cuyo caso tenemos la igualdad dim ker(λ I − T ) = dim R(λ I − T )⊥ < ∞, que es parecido a los sistemas de ecaciones del ´algebra lineal: La dimensi´on del espacio de soluciones es finita, e igual a la del ortogonal del espacio de los b ∈ H para los que hay soluci´on. 4 La mayor parte de los enunciados que siguen ya aparecieran en el viejo Ejer. 4.7.1. Lo nuevo va con ∗. 7.7.9. Sean H y K dos EH’s. Dados M ∈ L(H) y N ∈ L(K), sea M ⊕ S ∈ L(H ⊕ K)
dado por
M ⊕ N (x , y) = (M x , N y) ∈ H ⊕ K
para cada par (x , y) ∈ H ⊕ K. Se los llama “diagonales”. Probar las siguientes cosas: 1. Primero hay que verificar que efectivamente M ⊕ N ∈ L(H ⊕ K). 2. M´ as a´ un, se tiene que kM ⊕ N k = max{ kM k , kN k }. 3. * Si fijamos el N ∈ L(K), la flecha L(H) 3 M 7→ M ⊕ N es un h´omeo entre L(H)
y
def
L(H) ⊕ N = {M ⊕ N : M ∈ L(H)} ,
si a este le consideramos la topolog´ıa inducida de la de L(H ⊕ K). M´as a´ un, las m´etricas coinciden. 4. * Por otra parte σ(M ⊕ N ) = σ(M ) ∪ σ(N ). 5. Entre estos operadores, las operaciones sumar, multiplicar, adjuntar e invertir (si se puede), se hacen en cada coordenada. 6. R(M ⊕ B) = R(M ) ⊕ R(N ) ⊆ H ⊕ K, y es cerrado ⇐⇒ ambos rangos lo son. 7. ker(M ⊕ N ) = ker M ⊕ ker N v H ⊕ K. 8. Un operador cualquiera T ∈ L(H ⊕ K) es de estos diagonales ⇐⇒ conmuta con las proyecciones a H y K. * En otras palabras, si H ⊕ {0} reduce a T . 9. * Nuestros M y N son compactos ⇐⇒ M ⊕ N ∈ K(H ⊕ K). Idem para rango finito.
240
10. * Adem´ as M y N son Fredholms ⇐⇒ M ⊕ N ∈ F (H ⊕ K). En tal caso vale que α(M ⊕ N ) = α(M ) + α(N )
β(M ⊕ N ) = β(M ) + β(N ) .
y
Finalmente, llegamos a que Ind (M ⊕ N ) = Ind (M ) + Ind (N ).
4
7.7.10. Probar que la funci´ on tr : L(H)+ → R+ ∪ {+∞} cumple algunas propiedades: Si A ∈ L(H)+ P 1. La tr A = i∈I hA ei , ei i, para cualquier BON {ei : i ∈ I} de H. 2. Si y ∈ H es unitario, entonces hA y , yi ≤ tr A. Deducir que kAk ≤ tr A. 3. La traza es mon´ otona: A ≤ B =⇒ tr A ≤ tr B. 4. Si A es compacto (adem´ as de positivo), entonces su traza se puede calcular as´ı: A=
X
µk (A) xk xk =⇒ tr A =
k∈N
X
µk (A) ,
(7.58)
k∈N
donde los µk (A) son su sucesi´ on decreciente de autovectores, como en la Ec. (7.21).
4
7.7.11. Mostrar la siguiente concretizaci´ on de la Ec. (7.42): P 1. Dado T ∈ K(H) se cumple que tr |T | = sn (T ) = ks(T )k1 . Eso da que T ∈ L1 (H) ⇐⇒ s(T ) ∈ `1 . n∈N
2. En cambio si T ∈ L2 (H), entonces kT k22 = tr T ∗ T =
P n∈N
sn (T )2 = ks(T )k22 .
7.7.12. Recordemos la Ec. (7.43): LF (H) ⊆ L1 (H) ⊆ L2 (H) ⊆ K(H). Probar que cada uno de ellos en denso en los m´ as grandes con sus normas. En otras palabras, probar que LF (H) es denso en los tres con las normas que les corresponden (1, 2 e ∞). Se sugiere actualizar el Ejer. 7.7.5. 4 7.7.13. Sea H un EH separable. Probar que 1. Si {xn : n ∈ N} es un denso en BH , entonces la f´ormula kT kW =
X n,m∈N
1 2 n+m
h T xn , xm i
para cada
T ∈ L(H) ,
cumple las siguientes propiedades: (a) La serie converge. M´ as a´ un, kT kW ≤ kT k para todo T ∈ L(H). (b) La flecha T 7→ kT kW es una norma en L(H). k · kW
(c) Una red acotada Ti −−−−→ T ∈ L(H) ⇐⇒ h Ti xn , xm i −−→ h T xn , xm i para todo par de i∈I
i∈ I
elementos xn , xm del denso. (d) Esta norma produce, en la bola BL(H) , exactamente la topolog´ıa WOT. 2. Deducir toda sucesi´ on acotada en L(H) tiene una subsucesi´ on WOT-convergente. Ojo con lo siguiente: Si suponemos que dim H = ∞ (sea o no separable), vale que 3. La norma k · kW no produce la WOT en todo L(H). 4. La w∗ (relativa al “predual” L1 (H) ) y la WOT no coinciden en todo L(H).
241
4
Ejercicios nuevos 7.7.14. Sea LF (H) el espacio de todos los operadores de rango finito definidos sobre el espacio de Hilbert H. Demostrar que LF (H) es minimal en el sentido que no posee un ideal propio. Sug: Demostrar primero que LF (H) interseca todo ideal no nulo de L(H). 4 7.7.15. Probar que todo operador T : H → H continuo desde (H , w) hacia (H , k · k ) pertenece a LF (H). Recordar que los compactos lo son s´ olo desde la bola BH , que ahora vemos que es mucho menos pedir. 4 2 7.7.16. Sea k ∈ L [0, 1] × [0, 1] y sea Tk : L2 [0, 1] → L2 [0, 1] el operador definido por: Z 1 k(x, y) f (y) dy para cada f ∈ L2 [0, 1] . Tk f (x) = 0
1. Probar que Tk ∈ L(L2 [0, 1] ). M´ as a´ un, demostrar que kKk ≤ kkk2 . 2. Probar que es compacto. 3. Encontrar condiciones sobre k de modo que K resulte autoadjunto.
4
El siguiente ejercicio es un ejemplo de un m´etodo m´as general utilizada para resolver ciertas ecuaciones diferenciales ordinarias. Dicho m´etodo se lo conoce con el nombre de Strum-Liouville. 7.7.17. Consideremos la siguiente ecuaci´ on diferencial con condiciones de contorno: u00 (x) = f (x) u(0) = u(1) = 0, donde f (x) es una funci´ on continua. 1. Encontrar dos soluciones de la ecuaci´on homogenea u00 (x) = 0, u0 y u1 , tales que u0 (0) = u1 (1) = 1 y calcular el Wronskiano. (Recordar que el Wronskiano W (x) = u00 (x)u1 (x) − u0 (x)u01 (x)). 2. Definir la funci´ on k(x, y) : [0, 1] × [0, 1] → R 4
3. ???
Definici´ on 7.7.18 (Weil). Sea A ∈ A(H). Diremos que λ ∈ σe (A), el espectro escencial de A, si existe un SON {ψn : n ∈ N} ⊆ H talque k (A − λ IH )ψn k −−−−→ 0. 4 n→∞
7.7.19. Porbar las siguientes propiedades del espectro escencial: 1. Dados A , B ∈ A(H) tales que A − B es compacto, se tiene que σe (A) = σe (B). 2. M´ as a´ un, probar que σe (A) es el espectro del bajado de A al ´algebra de Calkin Cal (H) = L(H)/K(H) . 3. Deducir de la definici´ on y de la caracterizaci´on anterior que σ(A) ⊆ σe (A). 4. Dar una caracterizaci´ on espacial tipo 7.7.18 del σe (T ) para los T ∈ L(H) no autoadjuntos.
4
7.7.20. Sea T ∈ K(H) un operador compacto normal. Probar que 1. Si x ∈ H es un autovector de T correspondiente al autovalor λ, entonces x es tambi´en un autovector de T ∗ correspondiente al autovalor λ. 2. Los autovectores de T correspondientes a autovales distintos son ortogonales. 7.7.21. Sea T ∈ K(H) un operador compacto normal. Probar que 1. La apliciaci´ on x → hT x, xi, de BH a los complejos, es d´ebilmente continua. 2. Existe un x ∈ BH tal que | hT x , xi | = kT k. 3. El x de 2 es un autovector de T correspondiente a un autovalor λ que satisface |λ| = kT k.
242
Bibliograf´ıa Libros m´ as recomendados: [1] Pedersen - Analysis Now (GTM 118). [2] Conway J. - A course in functional analysis (GTM 96, Springer, 1985) [3] Douglas R. - Banach Algebra Techniques In Operator Theory, 2nd Ed. Ac. Press [4] Andruchow E. y Corach G. - Notas de an´alisis funcional (Apunte en pdf). [5] Reed y Simon - Methods of Math Physics Vol 1 (FA) - Ac. Press 1980. [6] Nagy G., Real analysis, (Kansas State lecture notes, 2001). [7] Rudin W. - Functional analysis [8] Yosida, K. - Functional analysis (6ed., GMW 123, Springer, 1980)
Referncias Adicionales [9] Kelley - General Topology (1955). [10] Munkres J. Topology (2ed., PH, 2000). [11] Rudin W., Fourier analysis on groups (Interscience, 1962). [12] Rudin W. - Real and Complex Analysis. Tata-McGraw-Hill, 1974. [13] Simmons G. Introduction to topology and modern analysis (ISPAM, MGH, 1963).
243
Parte II Teor´ıa Matricial de Operadores
244
Cap´ıtulo 8 ´ Angulos entre subespacios. 8.1
Preliminares y Notaciones
En lo que sigue trabajaremos en espacios de Hilbert de dimensi´on infinita. Por si alg´ un lector empieza por esta parte del texto, repasaremos a continuaci´on algunas propiedades y notaciones de la primera parte: Usaremos las letras H, K, H1 , H2 , etc, para denotar espacios de Hilbert (EH’s). Llamaremos L(H1 , H2 ) al espacio de operadores lineales acotados de H1 en H2 . Si H1 = H2 = H, escribiremos L(H) = L(H, H), que es una C-´algebra. Dado C ∈ L(H1 , H2 ), notaremos R(C) a su rango, y ker C o N (C) a su n´ ucleo. Si A ∈ L(H1 , H2 ), su norma (de operadores) es kAk = sup kAξk : ξ ∈ H1 , kξk = 1 = min C ≥ 0 : kAξk ≤ Ckξk , ξ ∈ H1 . Con esta norma, L(H1 , H2 ) es un espacio de Banach (y L(H) un a´lgebra de Banach). Gl (H) denota al grupo (abierto) de operadores inversibles de L(H). Si A ∈ L(H), su espectro es σ(A) = λ ∈ C : λI − A ∈ / Gl (H) , que es compacto y no vac´ıo. Si A ∈ L(H), su radio espectral y radio num´erico son ρ(A) = max |λ| : λ ∈ σ(A) = lim kAn k1/n y n→∞
w(A) = sup | hAξ, ξi | . kξk=1
Se tiene que ρ(A) ≤ w(A) ≤ kAk y las rec´ıprocas no valen en general. 245
Si A ∈ L(H1 , H2 ), su adjunto A∗ ∈ L(H2 , H1 ) es el u ´nico operador que cumple que hAξ, ηiH2 = hξ, A∗ ηiH1
para todo
ξ ∈ H1 , η ∈ H2 .
A(H) = A ∈ L(H) : A∗ = A es el subespacio real de operadores autoadjuntos. U(H) = U ∈ Gl (H) : U −1 = U ∗ , el grupo unitario de H. L(H)+ = A ∈ L(H) : hAξ, ξi ≥ 0 para todo ξ ∈ H ⊆ A(H), el cono de los operadores semidefinidos positivos. Notaremos Gl(H)+ = Gl (H) ∩ L(H)+ , los operadores positivos inversibles. Usaremos la notaci´on S v H para denotar que S es un subespacio cerrado de H. Dado X ⊆ H, notaremos span {X} al subespacio generado por X. span {X} v H denotar´a a la clausura (en norma) de span {X}. Dados S, T v H, se escribe S + T = span {S ∪ T }. Noteremos S + T = S ⊕ T si la suma es cerrada y S ∩ T = {0}. Si adem´as S ⊆ T ⊥ , escribiremos S ⊕ T = S ⊥ T . En cambio, dada una familia {Si }i∈I de subespacios cerrados de H, llamaremos ( ) [ _ Si . Si = span i∈I
i∈I
Por otra parte, se usar´an sin mayores explicaciones algunas propiedades usuales de los operadores en un espacio de Hilbert H, como por ejemplo: • Todas las propiedades de los operadores compactos (Cap. 7). • Los teoremas de la imagen abierta, del gr´afico cerrado, y de acotaci´on uniforme. • Existencia de raices cuadradas de operadores en L(H)+ . • La descomposici´on polar (DP) A = U |A| para cualquier A ∈ L(H), donde |A| = (A∗ A)1/2 y U : ker A⊥ → R(A) es una isometr´ıa parcial. Tambi´en la DP a derecha: A = |A∗ |U , con el mismo U de antes. • Si A ∈ L(H), entonces R(A∗ )⊥ = ker A y ker A∗ A = ker A. • Si A ∈ L(H)+ , entonces R(A) ⊆ R(A1/2 ) ⊆ R(A). • Las propiedades de proyectores obl´ıcuos P(H) y ortogonales P(H). Por elemplo que, si Q ∈ P(H) se tiene que Q ∈ L(H) y Q2 = Q, 1. R(Q) v H y adem´as R(Q) ⊕ ker Q = H. 246
2. Q ∈ P(H) ⇐⇒ Q ∈ A(H) ⇐⇒ Q ≥ 0 ⇐⇒ kQk = 1 ⇐⇒ R(Q) = N (Q)⊥ . 3. Si S v H existe un u ´nico proyector ortogonal PS ∈ P(H) tal que R(PS ) = S. 4. Si S, T v H cumplen S ⊕ T = H (suma no necesariamente ortogonal), entonces el proyector PS/T dado por PS/T (s + t) = s (si s ∈ S y t ∈ T ) es acotado. • Propiedades b´asicas de la convergencia f uerte de operadores (SOT): S.O.T.
An −−−→ A n→∞
si
k·k
An x −−−→ Ax
para todo x ∈ H .
n→∞
En particular, que si la sucesi´on (An ) est´a en A(H) , es decreciente (resp. creciente) y S.O.T. acotada, entonces existe A ∈ A(H) tal que An −−−→ A. En este caso, al l´ımite se lo n→∞
llama A = inf n An (resp. A = supn An ). • Propiedades b´asicas de la convergencia d´ebil de operadores (WOT): W.O.T.
An −−−→ A n→∞
si
hAn x, yi −−−→ hAx, yi n→∞
para todo par
x, y ∈ H .
En particular, que las topolog´ıas WOT y w∗ (de L(H) pensado como el dual de L1 (H), los operadores traza) coinciden en la bola cerrada BL(H) . Luego, por el Teorema de Alaoglu, sabemos que L(H)1 es WOT compacta. • Tambi´en se usar´a que, si H es separable, entonces la topolog´ıa WOT de L(H) es metrizable, por lo que ser´a suficiente operar con sucesiones (en lugar de redes). No se usar´a (salvo ocacionalmente, y con aclaraciones) el c´alculo funcional boreliano y el teorema espectral para operadores normales o autoajduntos. S´ı usaremos el c´alculo funcional continuo (CFC) para esos operadores, pensado como l´ımite de polinomios en z y z (o en la variable real x, en el caso autoadjunto) evaluados en el operador. Esto se usar´a, en particular, para definir A1/2 o m´as generalmente At , si A ∈ L(H)+ y 0 < t ∈ R.
8.2
´ Angulos
Es natural definir el a´ngulo entre dos subespacios N y M v H como el m´ınimo de los ´angulos entre pares de rectas, una en N y la otra en M. Sin embargo este m´etodo tiene problemas si N ∩M = 6 {0}, porque no estar´ıa bien que en ese caso el ´angulo sea nulo. Para ello conviene sacar a cada subespacio la intersecci´on, y quedarse con sus complementos ortogonales M N = M ∩ (M ∩ N )⊥
y
N M = N ∩ (M ∩ N )⊥ .
Sugerimos dibujar dos planos en R3 y convencerse de que esta t´ecnica (que deja tan solo un par de rectas para elegir) da lo que uno intuitivamente definir´ıa como a´ngulo entre esos planos. Las siguientes definiciones est´an bastante estandarizadas, aunque hay numerosas variaciones menores en la literatura, y una infinidad de notaciones diferentes. Las propiedades de estos 247
a´ngulos son muy u ´tiles en dimensi´on finita (entre otras razones por su relaci´on con normas, m´aximos y m´ınimos de matrices), pero es a´ un m´as relevante en el caso infinitodimensional, donde puede pasar que N ∩ M = {0} pero el a´ngulo entre ellos sea nulo. Veremos que eso significar´a que N + M 6v H. Definici´ on 8.2.1 (Friedrichs). Sean M, N v H. 1. Llamaremos M1 = {ξ ∈ M : kξk = 1}, la c´ascara de BM . π cuyo coseno est´a dado por 2. El ´angulo entre M y N es el n´ umero θ ∈ 0, 2 n o c [ M , N ] = sup | hx, yi | : x ∈ (M N )1 , y ∈ (N M)1 . Si M ⊆ N o N ⊆ M, ponemos c [ M , N ] = 0, como si fueran ortogonales. 3. El seno del ´angulo entre N y M es s [ M , N ] = (1 − c [ M , N ])1/2 .
4
Observaci´ on 8.2.2. Es importante aclarar que, si bien es cierto que el a´ngulo entre M y N es cero si y s´olo si c [ M , N ] = 1, en este approach se est´a excluyendo de esa situaci´on el caso en que M = N , o m´as generalemte que uno est´e contenido en el otro. O sea que el decir que el ´angulo es nulo s´olo significar´a que se pueden ir encontrando pares de vectores cada vez m´as alineados, uno en cada subespacio. Pero se excluye el tradicional significado de tener a´ngulo cero (que es estar alineados exactamente). Sin ir m´as lejos, veremos en seguida que basta que uno de los subespacios tenga dimensi´on finita para que el ´angulo NO PUEDA ser nulo. 4 Proposici´ on 8.2.3. Sean M, N v H. Entonces 1. 0 ≤ c [ M , N ] ≤ 1. 2. c [ M , N ] = c [ N , M ]. 3. c [ M , N ] = c [ M N , N ] = c [ M , N M ] = c [ M N , N M ]. 4. c [ M , N ] = kPM PN − PM∩N k = kPM PN M k = kPM PN P(M∩N )⊥ k. En particular, si M ∩ N = {0} , se tiene que
c [ M , N ] = kPM PN k .
(8.1)
Demostraci´on. Los dos primeros enunciados se deducen f´acilmente de las definiciones. El coseno c [ M N , N ] se calcula con vectores x ∈ (M N ) N = M N
e
y ∈ N (M N ) = N .
Observar que, si y = y1 + y2 ∈ N con y1 ∈ N M e y2 ∈ M ∩ N , entonces hx, yi = hx, y1 i. Mirado con atenci´on, esto prueba 3. Para probar 4, asumamos en principio que M∩N = {0}. Observar que kPM PN k se realiza con vectores x ∈ N1 . Para un tal x, si PM x 6= 0, entonces PM x kPM PN xk = kPM xk = ,x ≤ c[M, N ] . kPM xk 248
Esto prueba la desigualdad c [ M , N ] ≥ kPM PN k. Ahora bien, dados y ∈ M1 y x ∈ N1 , se tiene (por Cauchy-Schwarz) que |hy, xi| = |hy, PM xi| ≤ kyk hPM x, PM xi1/2 = kPM PN xk ≤ kPM PN k , lo que prueba la desigualdad rec´ıproca. Veamos ahora el caso en que M ∩ N 6= {0}. Usando 3 y el caso anterior, sabemos que c [ M , N ] = c [ M , N M ] = kPM PN M k. Las otras dos identidades se deducen de que PN M = PN − PN ∩M = PN (I − PN ∩M ). Observaci´ on 8.2.4. La igualdad c [ M , N ] = c [ M N , N ] tiene su lado bueno y su lado malo. Lo bueno, como dec´ıamos antes, es que permite calcular a´ngulos entre pares arbitrarios de subespacios cerrados, y siempre reducirse al caso en que ´estos no se cortan. Lo malo es que en general, cuando los subespacios son muy espec´ıficos (n´ ucleos, sumas, etc), se hace dificultoso muchas veces calcular efectivamente M N (que es donde hay que hacer los productos escalares, o calcular distancias como veremos enseguida). Y adem´as pasan cosas raras, poco intuibles. Un ejemplo de cosa rara es que es falso que M ⊆ S =⇒ c [ M , N ] ≤ c [ S , N ], como uso supondr´ıa si calcula los productos internos sin tener cuidado. Sin ir m´as lejos, si S = N + M, entonces c [ S , N ] se hace cero, mientras que c [ M , N ] era cualquier cosa. En general, al agrandar M puede surgir sorpresivamente m´as intersecci´on con N , lo que al ser restado puede generar problemas. El uso de a´ngulos y sus propiedades, una vez sistematizadas, simplifica dr´asticamente muchas demostraciones en diversos campos de la Teor´ıa de operadores. Y al simplificar, permite tambi´en conseguir resultados nuevos. Pero hay que ser cuidadoso, porque la intuici´on errada que mencionamos m´as arriba suele generar excesos de opitimismo en las cuentas. Un hecho sorprendente es que el subespacio M N que hay que usar para calcular c [ M , N ], muchas veces coincide “m´agicamente” con subespacios que tienen pleno sentido conceptual en las aplicaciones, y esto hace que las complicaciones que uno teme desaparezcan, o m´as bien hasta ayuden. Esto se ir´a viendo paulatinamente el las diversas aplicaciones que iremos haciendo de esta teor´ıa en los suscesivos cap´ıtulos de estas notas. 4 Ahora daremos caracterizaciones del s [ M , N ] en t´erminos de distancias: Recordemos que dados X, Y ⊆ H, su distancia se calcula como n o d (X, Y ) = inf kx − yk : x ∈ X e y ∈ Y . Proposici´ on 8.2.5. Sean M, N v H. Entonces s [ M , N ] = d (M1 , N M) = d (N1 , M N ) = d ( (N M)1 , M) . Si M ∩ N = {0}, tenemos que s [ M , N ] = d (M1 , N ) = d (N1 , M) y basta.
249
Demostraci´on. Por la Prop. 8.2.3, podemos asumir que M ∩ N = {0}. Por la definici´on del seno y la Prop. 8.2.3, se tiene que s [ M , N ]2 = 1 − kPM PN k2 . Por otro lado, como d (x , N ) = kPN ⊥ xk (mostrarlo con un dibujo), para todo x ∈ H tenemos que d (M1 , N )2 = inf{kPN ⊥ xk2 : x ∈ M1 } = inf{1 − kPN xk2 : x ∈ M1 } = 1 − sup{kPN xk2 : x ∈ M1 } = 1 − kPN PM k2 = 1 − kPM PN k2 , lo que pruba la igualdad anunciada.
Observaci´ on 8.2.6. Sean M, N v H. Supongamos que dim N < ∞. Entonces N1 es compacta, y por lo tanto 0 < d (N1 , M N ) = s [ M , N ], o sea que c [ M , N ] < 1. El Corolario de abajo dar´a una prueba alternativa del conocido resultado de que, en este caso, M + N v H. Sin embargo, si ambos subespacios tienen dimensi´on infinita, bien puede pasar que M y N tengan “´angulo nulo” aunque M ∩ N = {0} (ver el Ejem. 8.4.8). Corolario 8.2.7. Dados M, N v H, las siguientes condiciones son equivalentes: i. M + N v H. ii. c [ M , N ] < 1. iii. Existe c0 > 0 tal que, si x ∈ M e y ∈ N M, entonces kx + yk ≥ c0 kxk. De hecho, la mejor constante para iii es c0 = s [ M , N ]. Demostraci´on. Podemos suponer que M ∩ N = {0}, ya que M + N = M + (N M) y c [ M , N ] = c [ M , N M ]. Observar que, por la Prop. 8.2.5, def c0 = max c ≥ 0 : kx + yk ≥ ckxk para todo par x ∈ M, y ∈ N = ´ınf kx + yk : x ∈ M1 , y ∈ N = d (M1 , N ) = s [ M , N ] . Si c0 > 0, y nos dan un sucesi´on M + N 3 xn + yn −−−→ z ∈ M + N , tenemos que n→∞
kxn − xm k ≤
c0−1 kxn
+ yn − xm − ym k −−−−→ 0 , n,m→∞
es decir que la sucesi´on (xn ) es de Cauchy. Como M v H, existe x ∈ M tal que xn −−−→ x. n→∞ Por ello yn −−−→ z − x ∈ N . Entonces z ∈ M + N . n→∞
Reciprocamente, si M ⊕ N v H, la poryecci´on PM/N de M ⊕ N sobre M dada por PM/N (x + y) = x ,
para
x∈M
e
y∈N
es acotada (esto es el Cor. 2.7.2, que necesita que el dominio M ⊕ N v H para que sea Banach). Por ende, podemos tomar c0 = kPM/N k−1 > 0. Corolario 8.2.8 (Ljance-Ptak). Sean M, N v H, tales que M ⊕ N = H. Tomemos la proyecci´on oblicua PM/N ∈ L(H) sobre M con ker PM/N = N . Luego −1/2 −1/2 kPM/N k = 1 − kPM PN k2 = 1 − c[M, N ] = s [ M , N ]−1 . (8.2) Demostraci´on. La f´ormula (8.2) se deduce de la prueba anterior. Comparar con el Ejer. 2.7.3 en espacios de Banach. 250
8.3
Seudoinversas
Definici´ on 8.3.1. Dados A ∈ L(H1 , H2 ) y B ∈ L(H2 , H1 ), decimos que B es seudoinversa de A si ABA = A y BAB = B . Llamaremos SI(A) = {B ∈ L(H2 , H1 ) : B es seudonversa de A}.
4
Teorema 8.3.2. Sea A ∈ L(H1 , H2 ). 1. Si B ∈ SI(A), entonces (a) AB es un proyector (oblicuo) con R(AB) = R(A). (b) BA es un proyector (oblicuo) con ker(BA) = ker A. 2. Se tiene que R(A) v H2 si y s´olo si SI(A) 6= ∅. 3. En tal caso, para cada par de proyectores P ∈ P(H2 ), Q ∈ P(H1 ) tales que R(P ) = R(A)
y
ker Q = ker A ,
existe un u ´nico B ∈ SI(A) tal que AB = P y BA = Q. Demostraci´on. 1. Sea B ∈ SI(A). Entonces (BA)2 = BABA = BA
y
(AB)2 = ABAB = AB.
Es claro que R(AB) ⊆ R(A). Pero tambi´en R(A) = R(ABA) ⊆ R(AB). Por otra parte, ker A ⊆ ker BA ⊆ ker ABA = ker A. 2. Si B ∈ SI(A), entonces R(A) = R(AB) v H2 , porque es la imagen de un proyector (eso se vi´o en aquella Obs. 2.7.1). La rec´ıproca se deducir´a del item 3, aplicado a los proyectores P = PR(A) y Q = I − Pker A . 3. Si R(A) v H2 , y nos dan dos proyectores oblicuos P ∈ P(H2 ) y Q ∈ P(H1 ) tales que R(P ) = R(A) y ker Q = ker A, llamemos S = ker P y T = R(Q) v H1 . Nos queda la descomposici´on H1 = ker A ⊕ T , y por ende A T ∈ L(T , R(A) ) es inversible. Llamemos B0 ∈ L(R(A) , T ) a su inversa, que es acotada por el TFI 2.3.4. Definamos ahora el operador lineal B : H2 = S ⊕ R(A) → ker A ⊕ T = H1
dado por
B(x ⊕ y) = B0 y ,
(8.3)
para x ∈ S and y ∈ R(A). Observar que B ∈ L(H2 , H1 ). En efecto, tenemos que kBk ≤ kB0 k kP k < ∞, ya que B(z) = B0 (P z) para todo z ∈ H2 . C´alculos elementales muestran que este B ∈ SI(A), AB = P y BA = Q. Veamos ahora la unicidad: Si C ∈ SI(A) tambi´en cumple que AC = P y CA = Q, entonces podemos hacer C = C(AC) = CP = CAB = QB = BAB = B. 251
Definici´ on 8.3.3. Dado A ∈ L(H1 , H2 ) con rango cerrado, se llama A† ∈ L(H2 , H1 ) al u ´nico elemento de SI(A) tal que A† A y AA† son proyectores autoadjuntos. A† es conocida como la seudoinversa de Moore-Penrose de A. 4 Corolario 8.3.4. Dado T ∈ L(H1 , H2 ), se verifican: 1. R(T ) es cerrado si y s´olo si R(T ∗ ) es cerrado. 2. SI(T ∗ ) = {B ∗ : B ∈ SI(T )}. 3. (T ∗ )† = (T † )∗ . Demostraci´on. La igualdad SI(T ∗ ) = {B ∗ : B ∈ SI(T )} se deduce directamente de la definici´on de seudoinversa. Luego la primera parte es consequencia del Teorema 8.3.2. La u ´ltima, del hecho de que (T † )∗ verifica las condiciones de la definici´on de (T ∗ )† . La siguiente Proposici´on, cuya prueba es semi trivial, es interesante porque describe en qu´e sentidos T † b es la mejor soluci´on posible para la ecuaci´on T x = b. Proposici´ on 8.3.5. Sea T ∈ L(H1 , H2 ) tal que R(T ) v H2 , y sea b ∈ H2 . Entonces el vector x = T † b ∈ H1 cumple las siguientes condiciones: 1. Si b0 = T x, entonces kb − b0 k = d (b , R(T ) ), o sea que b0 = T x es lo m´as cerca de “b” que se puede llegar a trav´es de T . 2. El vector x es el m´as chico de los que van por T a b0 . O sea que kxk = min kzk : z ∈ H1 y T z = b0 . Demostraci´on. Es otra manera de decir que T T † = PR(T ) y T † T = I − PN (T ) .
Proposici´ on 8.3.6. Sea T ∈ L(H1 , H2 ) tal que R(T ) v H2 . Entonces kT † k = min{ kBk : B ∈ SI(T ) } . Demostraci´on. Sea B ∈ SI(T ). Dado y ∈ R(T ), sea x ∈ N (T )⊥ el u ´nico tal que T x = y. Entonces x = T † T x = T † y. Pero tambi´en tenemos que y = T x = T BT x = T (By), y por lo tanto By − x ∈ N (T ). Esto muestra, v´ıa Pit´agoras, que kByk2 = kx + (By − x)k2 ≥ kxk2 = kT † yk2 . Si me dan ahora un z ∈ H2 con kzk = 1, lo parto z = y + w con y ∈ R(T ) y w ∈ R(T )⊥ . Entonces tengo que kyk ≤ 1 y que kT † yk ≤ kByk (por lo de arriba). Por lo tanto kT † zk = kT † (T T † z)k = kT † yk ≤ kByk ≤ kBk kyk ≤ kBk . Tomando supremo sobre tales z, me da que kT † k ≤ kBk.
252
1 0 1 0
∈ L(C2 ), que es un proyector oblicuo tal que 1 0 ⊥ † N (Q) = R(Q ) = span {e1 }. Tomemos P = . Como P Q = P y QP = Q, se 0 0 tiene que P ∈ SI(Q), pero no es la seudoinversa de Moore-Penrose de T . Sin embargo, 1 = kP k es menor que la norma de cualquier otro proyector sobre span {e1 }. ¿Qu´e pasa? Observaci´ on 8.3.7. Sea Q =
Ejemplos 8.3.8. 1. Si A ∈ Gl(H), entonces SI(A) = {A−1 }. En particular, A† = A−1 . 2. Si A ∈ L(H1 , H2 ) es suryectivo, entonces SI(A) coincide con el conjunto de inversas a derecha de A, porque si AB = I, entonces ABA = A y BAB = B. La rec´ıproca vale por la Prop. 8.3.2. Es f´acil ver adem´as que A† = A∗ (AA∗ )−1 . 3. En cambio, si A es inyectivo y R(A) v H2 , se tiene que SI(A) = {B ∈ L(H2 , H1 ) : BA = I}
y
A† = (A∗ A)−1 A∗ .
Esto se deduce de que A∗ es suryectivo. 4. Si U ∈ L(H) es una isometr´ıa parcial (i.e., U es isom´etrico en (ker U )⊥ ), entonces se tiene que U † = U ∗ . 5. Si A ∈ L(H) es normal y R(A) v H, entonces A conmuta con A† . M´as en detalle, si llamamos A0 = A R(A) ∈ L(R(A) ), se tiene que A0 ∈ Gl (R(A) ) , A=
A0 0 0 0
R(A) ker A
y
†
A =
A−1 0 0 0 0
R(A) . ker A
(8.4)
6. Si A ∈ L(H) y S ∈ Gl(H), entonces SI(SAS −1 ) = {SBS −1 : B ∈ SI(A)}, pero no es f´acil averiguar qui´en es (SAS −1 )† (si es que existe). 7. Si A ∈ L(H) tiene R(A) v H, y V, W ∈ U(H), entonces (V AW )† = W ∗ A† V ∗ . 8. Si A ∈ Mn (C) es una matriz diagonal A = diag (x) para cierto x ∈ Cn , entonces A† = diag x† , donde x† ∈ Cn esta dado por x†i = x−1 si xi 6= 0 o x†i = 0 si xi = 0. i 9. Sea A ∈ Mn (C) con rk(A) = k. Si V, W ∈ U(n) verifican A = W ∗ Σ(A)V , entonces, A† = V ∗ Σ(A)† W = V ∗ diag s1 (A)−1 , . . . , sk (A)−1 , 0, . . . , 0 W . Esto se deduce de los dos items anteriores.
253
4
Dados A, B ∈ Gl (H), suele ser muy u ´til (sobre todo para hacer acotaciones) la identidad A−1 − B −1 = A−1 (B − A)B −1 . Con las seudoinversas de Moore Penrose no vale una f´ormula tan linda, pero algo hay: Proposici´ on 8.3.9. Sean A, B ∈ A(H), ambos con rango cerrado. Entonces: B † − A† = −B † (B − A)A† + (I − B † B)(B − A)(A† )2 + (B † )2 (B − A)(I − AA† ). En particular, si R(B) ⊆ R(A), B † − A† = −B † (B − A)A† + (I − B † B)(B − A)(A† )2 . Demostraci´on. Ejercicio.
8.4
M´ odulo m´ınimo
Definici´ on 8.4.1. Dado T ∈ L(H1 , H2 ), llamaremos m´odulo m´ınimo de T al n´ umero def γ(T ) = inf kT xk : x ∈ ker(T )⊥ , kxk = 1 . (8.5) Cuando T = 0, usaremos la convenci´on γ(T ) = ∞.
4
Proposici´ on 8.4.2. Sea T ∈ L(H1 , H2 ). 1. Si T es inversible, se tiene que γ(T ) = kT −1 k−1 . 2. Si B ∈ L(H2 , H3 ) es inversible, entonces el γ(BT ) se acota por ambos lados: kB −1 k−1 γ(T ) = γ(B)γ(T ) ≤ γ(BT ) ≤ kBkγ(T ) .
(8.6)
Demostraci´on. Si T es invertible, entonces N (T ) = {0} y, por definici´on, −1 γ(T ) = min{kT xk : kxk = 1} = max{ kyk : kT yk = 1} =
max{ kT
−1
−1 zk : kzk = 1} = kT −1 k−1 .
Por otro lado, si ahora B es el inversible, tenemos que N (BT ) = N (T ). Como N (B) = {0}, cualquiera sea el x ∈ N (T )⊥ = N (BT )⊥ (no importa donde caiga T x), tenemos que γ(B)kT xk ≤ kBT xk ≤ kBk kT xk . Tomando ´ınfimo en (N (T )⊥ )1 , obtenemos que γ(B)γ(T ) ≤ γ(BT ) ≤ kBkγ(T ). Proposici´ on 8.4.3. Sea T ∈ L(H1 , H2 ). Entonces 254
1. Se tiene la equivalencia R(T ) v H2 ⇐⇒ γ(T ) > 0. 2. En tal caso, γ(T ) = γ(T ∗ ) = kT † k−1 . Demostraci´on. La primera parte es una cuenta usual de operadores, y se deja como ejercicio. Pasa por ver que γ(T ) > 0 ⇐⇒ T |(ker T )⊥ es AI y recordar (2.25). Si ahora asumimos que R(T ) v H2 y que T 6= 0, la construcci´on de (6.28) dice que T † R(T ) : R(T ) → ker(T )⊥ es la inversa de T ker(T )⊥ : ker(T )⊥ → R(T ) . Por lo tanto, la Prop. 8.4.2 nos asegura que
−1
γ(T ) = γ T ker(T )⊥ = T † R(T ) . Pero como ker T † = R(T )⊥ , tenemos que kT † R(T ) k = kT † k. Finalmente, el Cor. 8.3.4 dice que (T ∗ )† = (T † )∗ , por lo que γ(T ∗ ) = k(T ∗ )† k−1 = k(T † )∗ k−1 = kT † k−1 = γ(T ) , como quer´ıamos demostrar.
Proposici´ on 8.4.4. Sean A y B ∈ L(H)+ tales que 0 6= A ≤ B pero R(A) = R(B) v H. Entonces γ(A) ≤ γ(B). Adem´as se tiene que R(A) v H =⇒ γ(A) = min λ ∈ σ(A) : λ 6= 0 . (8.7) Demostraci´on. El hecho de que S = R(A) = R(B) v H dice que S ⊥ = ker A = ker B y que A0 0 S B0 0 S A= , B= . 0 0 ker A 0 0 ker B Adem´as, se tiene que A0 ≤ B0 ambos en Gl(S)+ . Por el Cor. 6.6.3, podemos deducr que −1 0 < B0−1 ≤ A−1 =⇒ γ(A) = γ(A0 ) = kA−1 ≤ kB0−1 k−1 = γ(B0 ) = γ(B) . 0 0 k
(6.28) −1 Pero σ(A0 ) = λ ∈ σ(A) : λ 6= 0 y kA−1 ax λ−1 : λ ∈ σ(A) \ {0} . Al 0 k = ρ(A0 ) = m´ volver a invertir obtenemos la Ec. (8.7). Observaci´ on 8.4.5. Si no asumimos la hip´otesis de que R(A) = R(B), en general es falso que 0 ≤ A ≤ B =⇒ γ(A) ≤ γ(B). Sugerimos pensar un contraejemplo (deber´ıa salir rapidito, no vale A = 0). 4 Corolario 8.4.6. Sea T ∈ L(H1 , H2 ). Entonces γ(T ) = γ( | T | ) = γ(T ∗ T )1/2 .
255
Demostraci´on. Sea T = U | T | la DP de T . Recordemos que, como dec´ıa la Ec. (4.28), kT xk = k | T | xk
x ∈ H1 =⇒ ker T = ker | T | .
para todo
Luego la igualdad γ(T ) = γ( | T | ) se deduce de las definiciones. Por otra parte, la Prop. 6.1.7 asegura que T ∗ T = | T |2 =⇒ σ(T ∗ T ) = σ( | T | )2 . Entonces, si R( | T | ) v H1 , podemos deducir la igualdad γ(T ∗ T ) = γ( | T | )2 de la Ec. (8.7). En caso contrario ambos dan 0. Ejercicio 8.4.7. 1. Sea A ∈ A(H) que no es inversible. Usando (6.16) y la Prop. 6.5.8 probar que R(A) v H ⇐⇒
0 ∈ σ(A)
el
es punto aislado .
(8.8)
2. Sea ahora T ∈ L(H) no inversible. Probar que R(T ) v H ⇐⇒ 0
es aislado en
σ( |T | .
(8.9)
En realidad la Ec. (8.8) vale para todo T ∈ L(H) (sin pedir que T ∗ = T ). Pero la prueba es dif´ıcil con las herramientas que tenemos ac´a. Probarlo para T normal. 4 Ejemplos 8.4.8.
1. Sea H = `2 (N) y T ∈ L(H) dado por T (x) = x1 ,
xn x2 ,..., ,... , 2 n
x ∈ `2 (N) .
(8.10)
Es evidente que kT k = 1 y que ker T = {0}. Adem´as, si {en }n∈N es la base can´onica de `2 (N), tenemos que
e 1
n −−−→ 0 =⇒ γ(T ) = 0 . kT en k = = n n n→∞ Por lo tanto R(T ) 6v `2 (N). 2. Tomemos los subespacios M = `2 (N) ⊕ {0} v `2 (N) ⊕ `2 (N) y N = Gr(T ) = (x, T x) : x ∈ `2 (N) v `2 (N) ⊕ `2 (N) , donde T es el operador definido en (8.10). El hecho de que ker T = {0} dice que M ∩ N = {0}. Por lo tanto, s [ M , N ] = d (M1 , N ) = ≤
inf
inf
d ( (x, 0), Gr(T ) )
(x,0)∈M1
k(0, T x)k = inf kT xk = γ(T ) = 0 . x∈H1
(x,0)∈M1
Esto nos dice que c [ M , N ] = 1, y por ende M ⊕ N no es un subespacio cerrado, aunque ambos subespacios son cerrados y se cortan solo en {0}. 4 256
Proposici´ on 8.4.9. Sean M, N v H tales que PM⊥ PN 6= 0 (o sea N 6⊆ M). Entonces γ(PM⊥ PN ) = s [ M , N ] . Demostraci´on. Llamemos R = M⊥ . Como ker(PR PN ) = N ⊥ ⊕ (N ∩ M), se tiene que ker(PR PN )⊥ = N ∩ (N ∩ M)⊥ = N M. Luego, por la Prop. 8.2.3 y la definici´on del m´odulo m´ınimo, γ(PR PN ) =
inf
x∈(N M)1
kPR xk =
inf
x∈(N M)1
d (x, M) = d ( (N M)1 , M) = s [ M , N ] ,
donde su usa nuevamente que d (x, M) = kPM⊥ xk, para cualquier x ∈ H.
El resultado anterior es interesante porque relaciona ajustadamente gamas y ´angulos, pero lo es m´as a´ un porque tiene las siguientes importantes consecuencias: Proposici´ on 8.4.10. Sean M, N v H. Entonces c [ M , N ] = c M⊥ , N ⊥ . Demostraci´on. Sabemos, por la Prop. 8.4.3, que para cada T ∈ L(H) se verifica que γ(T ) = γ(T ∗ ). Luego, aplicando la Prop. 8.4.9, nos queda que s M⊥ , N ⊥ = γ(PM PN ⊥ ) = γ( (PM PN ⊥ )∗ ) = γ(PN ⊥ PM ) = s [ N , M ] = s [ M , N ] . Por lo tanto, tambi´en c [ M , N ] = c M⊥ , N ⊥ . En los casos en que la Prop. 8.4.9 no se puede aplicar (i.e. N ⊆ M o vive versa), el enunciado es trivial. Proposici´ on 8.4.11. Sean A, B ∈ L(H) tales que R(A) y R(B) son cerrados. Entonces R(AB) v H
⇐⇒
c [ ker A , R(B) ] < 1 .
Demostraci´ on. Si AB = 0 es obvio. Sin´o, llamemos M = ker A⊥ y N = R(B). Notar que A M : M → R(A) es un iso, porque R(A) v H. Luego, un subespacio S ⊆ M cumple que S v M ⇐⇒ A M (S) v R(A) ⇐⇒ A M (S) v H. Por lo tanto, R(AB) = A(N ) = A M (PM (N ) ) v H ⇐⇒ PM (N ) = R(PM B) = R(PM PN ) v M . Pero por la Prop. 8.4.9 (que se puede aplicar porque AB = 6 0 =⇒ PM (N ) 6= {0}), γ(PM PN ) = s M⊥ , N = s [ ker A , R(B) ] > 0 ⇐⇒ c [ ker A , R(B) ] < 1 . El resultado se sigue, ahora, de la Prop. 8.4.3.
A continuaci´on daremos una generalizaci´on de la Prop. 8.4.9, que ser´a muy u ´til m´as adelante. La prueba es parecida, aunque un poco m´as cuidadosa.
257
Proposici´ on 8.4.12. Sean T ∈ L(H1 , H2 ) y M v H1 tales que T PM 6= 0. Entonces γ(T ) s [ N (T ) , M ] ≤ γ(T PM ) ≤ kT k s [ N (T ) , M ] .
(8.11)
Demostraci´on. Observar que N (T PM ) = M⊥ ⊥ M ∩ N (T ). Luego N (T PM )⊥ = M ∩ (M ∩ N (T ) )⊥ = M (M ∩ N (T ) ) = M N (T ) . Por lo tanto, si x ∈ M N (T ) y kxk = 1, tenemos que kT PM xk = kT xk = kT (PN (T )⊥ x)k ≥ γ(T )kPN (T )⊥ xk = γ(T ) d (x, N (T ) ) ≥ γ(T ) s [ N (T ) , M ] , donde la u ´ltima desigualdad se deduce que s [ N (T ) , M ] = d (M N (T ) )1 , N (T ) , como asegura la Prop. 8.2.5. Tomando m´ınimo sobre los vectores unitarios de N (T PM )⊥ , deducimos que γ(T PM ) ≥ γ(T ) s [ N (T ) , M ] . La otra desigualdad de (8.11) se deduce de que kT yk = kT PN (T )⊥ yk ≤ kT k kPN (T )⊥ yk para todo y ∈ H1 , de que N (T PM ) = N (PN (T )⊥ PM ) y de la Prop. 8.4.9. Observaci´ on 8.4.13. Con las mismas ideas puede probarse la siguiente f´ormula, que generaliza la Prop. 8.4.12: Dados A ∈ L(H2 , H3 ) y B ∈ L(H1 , H2 ) tales que AB 6= 0, γ(A)γ(B) s [ ker A , R(B) ] ≤ γ(AB) ≤ kAk kBk s [ ker A , R(B) ] . En particualr, si A y B son isometr´ıas parciales, (o sea γ(A) = kAk = 1 = γ(B) = kBk), entonces s [ ker A , R(B) ] = γ(AB). 4 Antes de leer el siguiente resultado, sugerimos hacer unos dibujos (no en este papel): Primero dos rectas (por el origen) N y M en R2 . Luego agarrar un punto, e ir aplic´andole sucesivamente PN y PM . Se ver´a que uno se va acercando a cero, m´as despacito en tanto el a´ngulo entre N y M sea m´as peque˜ no. Ahora, extrapolar este dibujo al caso en que N y M son dos planos en R3 . Ah´ı adonde uno se acerca es a la recta N ∩ M, y movi´endose siempre dentro de un plano ortogonal a ella. Ahora s´ı, leamos la siguiente generalizaci´on (cuantitativa) de sus dibujos: Proposici´ on 8.4.14. Sean P y Q dos proyectores ortogonales en P(H). Entonces k(P Q)k − P ∧ Qk = c [ R(P ) , R(Q) ]2k−1 ,
para todo
k∈N,
donde P ∧ Q es la proyecci´on ortogonal sobre R(P ) ∩ R(Q). En particular, k·k
(P Q)k −−−→ P ∧ Q k→∞
⇐⇒ 258
c [ R(P ) , R(Q) ] < 1 .
Demostraci´on. Sean E = P − P ∧ Q = P (I − P ∧ Q) y F = Q − P ∧ Q. Observar que I − P ∧ Q comnuta tanto con P como con Q (porque P ∧ Q lo hace). Luego, k(P Q)k − P ∧ Qk2 = k(P Q)k (1 − P ∧ Q)k2 = k(EF )k k2 = k(F E)k (EF )k k = k(F EF )2k−1 k = kF EF k2k−1 . Por otro lado, usando la Prop. 8.2.3 y el hecho de que R(E) ∩ R(F ) = {0}, se tiene que kF EF k = kEF k2 = c [ R(E) , R(F ) ]2 = c [ R(P ) , R(Q) ]2 . Por lo tanto k(P Q)k − P ∧ Qk2 = c [ R(P ) , R(Q) ]2(2k−1) , lo cual concluye la demostraci´on.
Ejercicio 8.4.15. Sean M, N v H tales que M ∩ N = 6 {0} y c [ M , N ] < 1. Supongamos que tenemos un subespacio VvN
tal que
V ∩ M = {0}
pero
V ⊕M=N +M .
Probar que entonces se tiene s[M, N ] = s[M, N M] ≥ s[M, V ] . Observar que N M es un tal V. Pero lo interesante es la desigualdad para otros V. Se podr´ıa refrasear el ejercicio como sigue: s [ M , N ] es el m´aximo de los senos entre M y los suplementos de M en M + N que est´an contenidos en N . Sug: Probar primero que si x ∈ N entonces, como N = N ∩ M ⊥ N M, se tiene que x = PN ∩M x + PN M x ∈ PN M x + M =⇒ d (x , M) = d (PN M x , M) . Luego usar la Prop. 8.2.5 para calcular los senos. Tambi´en debe usarse que V1 3 y 7→
PN M y ∈ (N M)1 , kPN M yk
adem´as de bien definida es biyectiva (sobre todo que es sobre).
259
4
Cap´ıtulo 9 Complementos de Schur de operadores positivos 9.1
Factorizaci´ on e inclusiones de rangos.
El siguiente resultado, extraido del trabajo [96] de R. Douglas de 1966, ser´a de una herramienta escencial en todo lo que sigue de estas notas, en las que se lo citar´a (much´ısimas veces) como el Teorema de Douglas . Teorema 9.1.1 (Douglas). Sean A ∈ L(H1 , H3 ) y B ∈ L(H2 , H3 ). Entonces las siguientes condiciones son equivalentes: 1. R(A) ⊆ R(B). 2. Existe λ ∈ R+ tal que AA∗ ≤ λ BB ∗ . 3. Existe C ∈ L(H1 , H2 ) tal que A = BC. En tal caso, exite un u ´nico C ∈ L(H1 , H2 )
tal que
A = BC
y
R(C) ⊆ R(B ∗ ) = ker B ⊥ .
Esta soluci´on satisface, adem´as, las siguentes propiedades: i) ker C = ker A ii) kCk2 = min{λ ∈ R+ : AA∗ ≤ λ BB ∗ } Demostraci´on. 3 ⇒ 1) Es claro. 3 ⇒ 2) Como todo D ∈ L(H3 )+ verifica que D ≤ kDkI, se tiene que AA∗ = BCC ∗ B ∗ ≤ kCC ∗ kBB ∗ . 260
2 ⇒ 3) La condici´on AA∗ ≤ λBB ∗ es equivalente a que kA∗ xk ≤ λ1/2 kB ∗ xk para todo x ∈ H3 . En particular, ker(B ∗ ) ⊆ ker(A∗ ). Por lo tanto, es correcto definir T : R(B ∗ ) → R(A∗ )
dado por
T (B ∗ x) = A∗ x
para
x ∈ H3 .
Es claro que T est´a bien definido y es lineal. Como kA∗ xk ≤ λ1/2 kB ∗ xk para todo x ∈ H3 , deducimos que T es acotado (con kT k ≤ λ1/2 ). Extendemos T (manteniendo su nombre) a R(B ∗ ) por continuidad y luego a todo H2 como cero en R(B ∗ )⊥ . Queda que T ∈ L(H2 , H1 ), y sigue valiendo que kT k ≤ λ1/2 . Es claro que A∗ = T B ∗ , lo cual muestra que el operador que estamos buscando es C = T ∗ ∈ L(H1 , H2 ). Notar que este C que construimos cumple R(C) ⊆ ker T ⊥ ⊆ R(B ∗ ) = ker B ⊥ . 1 ⇒ 3) La condici´on R(A) ⊆ R(B) permite asegurar que para todo x ∈ H1 existe un u ´nico ⊥ y ∈ ker B tal que Ax = By. Definamos C : H1 → H2 como Cx = y. Para ver que C ∈ L(H1 , H2 ) basta verificar que su gr´afico es cerrado. Sea (xn , yn )n∈N una sucesi´on de puntos en el gr´afico de C tal que xn −−−→ x e yn −−−→ y . Luego n→∞
n→∞
Ax = lim Axn = lim Byn = By n→∞
n→∞
es decir (x, y) pertenece al gr´afico de C. Es claro que la inclusi´on R(C) ⊆ R(B ∗ ) = ker B ⊥ identifica univocamente al operador C, puesto que BC = A y B es inyectivo en ker B ⊥ . Observar que tanto el C construido en (1 ⇒ 3) como el construido en (2 ⇒ 3) cumplen esa inclusi´on, y por ende coinciden. Verifiquemos ahora este C satisface (i) y (ii). Como, A = BC, vemos que ker C ⊆ ker A. Pero si x ∈ ker A, entonces el u ´nico y ∈ ker B ⊥ tal que By = Ax = 0 es y = 0, por lo que Cx = 0 (el C de 1 ⇒ 3). Esto muestra que ker A ⊆ ker C. Por otro lado, vimos en (2 ⇒ 3) que kCk = kT k ≤ λ1/2 , para todo λ tal que AA∗ ≤ λBB ∗ . La otra desigualdad es clara, puesto que AA∗ = BCC ∗ B ∗ ≤ kCk2 BB ∗ . Corolario 9.1.2. Sea A ∈ L(H1 , H2 ). Entonces R(|A∗ |) = R(A). Demostraci´on. Dado que AA∗ = |A∗ |2 , usando la equivalencia entre (1) y (2) del Teo. 9.1.1 se tiene que R(|A∗ |) = R(A). Definici´ on 9.1.3. Sean A ∈ L(H1 , H3 ) y B ∈ L(H2 , H3 ) tales que R(A) ⊆ R(B). Llamaremos soluci´ on reducida (o SR) de la ecuaci´on A = BX al u ´nico operador C ∈ L(H1 , H2 ) ⊥ tal que A = BC y R(C) ⊆ ker B , que exhibe el Teo. 9.1.1. 4 Observaci´ on 9.1.4. Sean A ∈ L(H1 , H3 ) y B ∈ L(H2 , H3 ) tales que R(A) ⊆ R(B). Sea P ∈ L(H2 ) la proyecci´on ortogonal sobre ker B ⊥ . Entonces, para todo C ∈ L(H1 , H2 ) tal que BC = A, se tiene que P C es la SR de la ecuaci´on BX = A. En efecto, como BP = B y R(P C) ⊆ R(P ), la prueba es inmediata. Observar que esto dice que la SR el la m´as chica (en norma) de todas las soluciones de la ecuaci´on BX = A (porque kP k ≤ 1). 4 Ejercicios 9.1.5. Sean A ∈ L(H1 , H3 ) y B ∈ L(H2 , H3 ). 261
1. Probar que R(A) + R(B) = R( (AA∗ + BB ∗ )1/2 ) . 2. Supongmos que R(A) ⊆ R(B), sea C la SR de la ecuac´on BX = A, y sea D otra soluci´on. Entonces kCξk ≤ kDξk para todo ξ ∈ H1 . En particular, kCk es m´ınima entre dichas soluciones. 3. Supongmos que R(A) ⊆ R(B) v H3 . Sea B † la seudoinversa de Moore-Penrose de B (ver Def. 8.3.3). Entonces la SR de la ecuaci´on BX = A es C = B † A. 4. Observar que B † es la SR de la ecuaci´on BX = PR(B) . 5. M´as generalmente, si P es un proyector (oblicuo) tal que R(P ) = R(B) y C es la SR de BX = P , entonces C ∈ SI(B) y CB es un proyector ortogonal. 6. Usar lo anterior para dar otra prueba de la Prop. 8.3.6.
9.2
Operadores definidos positivos.
Proposici´ on 9.2.1. Sea A ∈ L(H)+ . Entonces su raiz A1/2 cumple que (4.27)
1. N´ ucleos: ker A = ker A1/2 . 2. Im´agenes: R(A) ⊆ R(A1/2 ) ⊆ R(A). 3. Si R(A) 6v H (o sea no es cerrado), entonces R(A) 6= R(A1/2 ) 6= R(A). Demostraci´on. Los ´ıtems 1 y 2 son inmediatos. Supongamos que R(A) = R(A1/2 ). Fijado un x ∈ (ker A)⊥ , debe existir un y ∈ (ker A)⊥ tal que A1/2 x = A y = A1/2 (A1/2 y). Como tambi´en A1/2 y ∈ R(A1/2 ) ⊆ (ker A)⊥ y A1/2 es mono all´ı, deducimos que A1/2 y = x. Pero esto implica que R(A1/2 ) = (ker A)⊥ v H. Como asum´ıamos que R(A) = R(A1/2 ), entonces tambi´en R(A) v H. Corolario 9.2.2. Sean A , B ∈ L(H)+ y S v H. Luego si A≤B
y
R(B) ⊆ S =⇒ R(A) ⊆ S .
(9.1)
Demostraci´on. Apliquemos Douglas 9.1.1 a A1/2 y B 1/2 . Como A ≤ B deducimos que R(A) ⊆ R(A1/2 ) ⊆ R(B 1/2 ) ⊆ S , donde el u ´ltimo ⊆ surge de que R(B 1/2 ) ⊆ R(B) ⊆ S, porque S era cerrado.
262
Proposici´ on 9.2.3. Sea S v H, y consideremos un operador A B∗ S M= ∈ L(H)+ . B D S⊥ Entonces R(B) ⊆ R(D1/2 ) y R(B ∗ ) ⊆ R(A1/2 ). Demostraci´on. Como A ∈ L(S)+ , tenemos que A + IS ∈ Gl (S)+ . Con un peque˜ no abuso de −1 notaci´on, llamemos (A + IS ) a su inversa en L(S). Por cuentas elementales tenemos que IS 0 A + IS B ∗ IS −(A + IS )−1 B ∗ 0 ≤ −B(A + IS )−1 IS ⊥ B D 0 IS ⊥ A + IS 0 = =⇒ B(A + IS )−1 B ∗ ≤ D . 0 D − B(A + IS )−1 B ∗ Por el Teo. 9.1.1, deducimos que R(B) = R(B(A + IS )−1/2 ) ⊆ R(D1/2 ). El hecho de que R(B ∗ ) ⊆ R(A1/2 ) se prueba usando lo anterior para S ⊥ en ves de S. A B∗ S Proposici´ on 9.2.4. Sean S v H y M = ∈ L(H)+ . Luego, si B D S⊥ C ∈ L(S, S ⊥ )
B = D1/2 X =⇒ A ≥ C ∗ C
es la SR de
en
L(S) .
M´as a´ un, para todo x ∈ S, existe una sucesi´on (yn )n∈N en S ⊥ tal que
x x ∗ (A − C C) x , x = lim M , . (9.2) yn yn n∈N ∗ A − C ∗C 0 C C B∗ Demostraci´on. Obsevar que M = + . Recordemos que, por 0 0 B D ser C la SR de B = D1/2 X, se tiene que R(C) ⊆ R(D1/2 ). Luego, para cada x ∈ S, existe una sucesi´on (yn )n∈ N en S ⊥ tal que D1/2 yn −−−→ − Cx . Como n→∞
C ∗C B∗ B D
=
0 C∗ 0 D1/2
0 0 C D1/2
,
podemos deducir que ∗
C C B∗ x x , = Cx + D1/2 yn , Cx + D1/2 yn −−−→ 0 . B D yn yn n→∞ Por lo tanto la sucesi´on (yn )n∈N cumple lo pedido en la Ec. (9.2).
? B∗ S . SuponB D S⊥ gamos que D ∈ L(S ⊥ )+ y R(B) ⊆ R(D1/2 ). Probar que se puede completar a la casimatriz M en el lugar 1, 1 de tal modo que quede una matriz en L(H)+ . 4
Ejercicio 9.2.5. Sea S v H. Consideremos la casimatriz M =
263
El siguiente resultado ya fu´e visto para el caso de matrices. La prueba para operadores es algo m´as complicada: Corolario 9.2.6. Sea C ∈ L(H1 , H2 ). Luego IH1 C ∗ kCk ≤ 1 ⇐⇒ M= ∈ L(H1 ⊕ H2 )+ . C IH2 Demostraci´on. La ida se prueba igual que en dimensi´on finita: si kCk ≤ 1, entonces para todo z = (x , y) ∈ H1 ⊕ H2 se tiene que
hM z , zi = (x + C ∗ y , C x + y) , (x , y) = kxk2 + kyk2 + 2 Re hCx , yi . Pero como 2 Re hCx , yi ≥ −2 | hCx , yi | ≥ −2 kxk kyk, deducimos que hM z , zi ≥ 0. 1/2
Para probar la rec´ıproca, observar que C misma es la SR de la ecuaci´on IH2 X = C. Si M ∈ L(H1 ⊕ H2 )+ , la Prop. 9.2.4 asegura que C ∗ C ≤ IH1 , o sea que kCk ≤ 1. A B∗ S Teorema 9.2.7. Sea S v H, y sea M = ∈ L(H) . Entonces M ∈ L(H)+ B D S⊥ si y s´olo si se verifican las siguientes condiciones: 1. A ∈ L(S)+ y D ∈ L(S ⊥ )+ . 2. Existe una contracci´ on C ∈ L(S, S ⊥ ) tal que B = D1/2 CA1/2 . Demostraci´on. Si se cumplen las condiciones pedidas, vemos que 1/2 1/2 IS C ∗ A 0 A 0 A B∗ ∈ L(H)+ , = M= C IS ⊥ B D 0 D1/2 0 D1/2 por el Cor. 9.2.6. Si asumimos que M ≥ 0, es claro que A ∈ L(S)+ y D ∈ L(S ⊥ )+ . Sea C1 la SR de la ecuaci´on D1/2 X = B (que existe por la Prop. 9.2.3). Por la Prop. 9.2.4 se tiene que C1∗ C1 ≤ A. Luego tomemos C2 la SR de la ecuaci´on A1/2 X = C1∗ . Veamos que C = C2∗ cumple lo pedido. En efecto, kCk = kC ∗ k = kC2 k ≤ 1, porque A acota a C1∗ C1 con constante 1 (ver ii del Teorema de Douglas). Finalmente, B = D1/2 C1 = D1/2 C2∗ A1/2 = D1/2 C A1/2 .
Observaci´ on 9.2.8. En las condiciones del Teorema anterior, la contracci´on C no est´a, en general, un´ıvocamente determinada. Pero sus u ´nicos grados de libertad dependen de los n´ ucleos de A y D. Por ejemplo, si A > 0 y D > 0, entonces la u ´nica soluci´on posible es C0 = D−1/2 BA−1/2 . La soluciu´on C0 obtenida en la prueba del Teorema (tomando dos veces soluciones reducidas) es m´ınima en varios sentidos, y puede caracterizarse por propiedades de n´ ucleo e imagen, o bien obtenerse a partir de cualquier soluci´on C de la ecuaci´on B = D1/2 XA1/2 , tomando C0 = P CQ, donde P y Q son los proyectores ortogonales sobre ker D⊥ y ker A⊥ , respectivamente (ver la Obs. 9.1.4). 4 264
Corolario 9.2.9. Sean A ∈ L(H)+ y B ∈ A(H) . Entonces A B M= ≥ 0 en L(H ⊕ H) ⇐⇒ −A ≤ B ≤ A en L(H) . B A En particular, si B ∈ L(H)+ , lo anterior equivale a que B ≤ A. Demostraci´on. Si la matriz M es positiva, por el Teo. 9.2.7 sabemos que existe una contracci´on C ∈ L(H) tal que A1/2 CA1/2 = B. Necesitar´ıamos usar que C ∈ A(H), lo que no es claro que sea cierto. Para safar, consideremos D = P CP , donde P = PR(A1/2 ) ∈ P(H). Este D cumple la misma ecuaci´on (porque P A1/2 = A1/2 P = A1/2 ). Sigue cumpliendo que kDk ≤ 1. Pero ahora s´ı vale que A1/2 D A1/2 = B ∈ A(H) =⇒ D ∈ A(H) . En efecto, basta testear que hD x , xi ∈ R para todo x ∈ R(P ) (donde opera D). Pero podemos usar que R(A1/2 ) es denso en R(P ) y que A1/2 D A1/2 ∈ A(H). Ahora s´ı podemos hacer esto: kDk ≤ 1
D=D∗
=⇒
−I ≤ D ≤ I
=⇒
−A ≤ A1/2 DA1/2 = B ≤ A .
Para ver la rec´ıproca, la cuenta saldr´ıa joya su uno pudiera “dividir” por A1/2 . Para safar esta vez, tomemos An = A + n1 I ∈ Gl (H)+ (para cada n ∈ N). Luego −An ≤ −A ≤ B ≤ A ≤ An =⇒ −I ≤ A−1/2 B An−1/2 ≤ I =⇒ kAn−1/2 B A−1/2 k≤1. n n −1/2
−1/2
Ahora les podemos aplicar a todos ellos el Teo. 9.2.7 con Cn = An B An y nos queda 1 An B 0≤ IH⊕H para todo n ∈ N =⇒ M ∈ L(H ⊕ H)+ , =M+ B An n como quer´ıamos demostrar.
9.3
Shorted de un operador.
Definici´ on y propiedades b´ asicas Comenzaremos con el siguiente resultado originalmente obtenido por Krein, y redescubierto varios a˜ nos despu´es por Anderson-Trapp [87], el cual dar´a origen a la definici´on de Shorted de un operador. La prueba que daremos se basa en un trabajo posterior de Pekarev [108]. Teorema 9.3.1. Sea A ∈ L(H)+ y S v H. Entonces el conjunto def
M(A, S) = {D ∈ L(H)+ : D ≤ A posee un elemento m´aximo en el orden usual de A(H) .
265
y
R(D) ⊆ S}
(9.3)
Demostraci´on. Sean M = A−1/2 (S) y T = A1/2 PM A1/2 . Claramente T ∈ M(A, S). Por otra parte, si D ∈ M(A, S), en particular D ≤ A. Por el Teorema de Douglas 9.1.1 (con constante λ = 1), debe existir una contracci´on C ∈ L(H) tal que D1/2 = A1/2 C. Ahora bien, tenemos que A1/2 (R(C) ) = R(D1/2 ) ⊆ R(D) ⊆ S =⇒ R(C) ⊆ M. Esto nos asegura que PM C = C. Usando que C C ∗ ≤ I, podemos deducir que C C ∗ ≤ PM . Luego D = A1/2 C C ∗ A1/2 ≤ A1/2 PM A1/2 = T , lo cual muestra que nuestro T = max M(A, S).
Definici´ on 9.3.2. Sean A ∈ L(H)+ y S v H. Llamaremos shorted de A al subespacio S, y lo notaremos SC (A , S), al m´aximo del conjunto M(A, S). 4 En la siguiente proposici´on, recopilamos una serie de resultados m´as o menos inmediatos a partir de la definici´on del shorted y de la demostraci´on del Teo. 9.3.1. Proposici´ on 9.3.3. Sean A ∈ L(H)+ y S v H. Entonces: 1. Dem´as est´a decir que SC (A , S) ≤ A y que R SC (A , S)
⊆ S.
2. Para todo α ∈ R+ , se tiene que SC (α A , S) = α SC (A , S). 3. Si B ∈ L(H)+ cumple que A ≤ B, entonces M(A , S) ⊆ M(B , S)
y por lo tanto
SC (A , S) ≤ SC (B , S) .
4. Si S ⊆ T v H, entonces M(A , S) ⊆ M(A , T ) y SC (A , S) ≤ SC (A , T ). 5. Como el R SC (A , S) ⊆ S, tenemos que SC SC (A , S) , S = SC (A , S). 1/2
6. SC (A2 , S)
≤ SC (A , S) .
7. Si denotamos por M = A−1/2 (S), se tiene la f´ormula SC (A , S) = A1/2 PM A1/2 .
(9.4)
Demostraci´on. Los items 1 - 5 se deducen de la definici´on y el 7 de la prueba del Teo. 9.3.1. El 6 usa el Teorema de L¨owner (Prop. 6.6.4): Como tomar ra´ıces cuadradas preserva el orden, tenemos que D ∈ M(A2 , S) =⇒ D1/2 ∈ M(A , S), porque el R(D1/2 ) no puede salirse de 1/2 S. En particular nos queda que SC (A2 , S) ∈ M(A , S). Como x2 no es MOP, siguiente resultado es m´as fuerte que el item 6 de la Prop. 9.3.3: Proposici´ on 9.3.4. Sean A ∈ L(H)+ y S v H. Entonces, SC (A2 , S) ≤ SC (A , S)2 .
266
Demostraci´on. Denotemos por M = A−1/2 (S) y N = A−1 (S). Consideremos los proyectores sobre ellos: PM , PN ∈ P(H). Observar que A1/2 (N ) ⊆ M. Por lo tanto, se tiene que ∗
(I − PM ) A1/2 PN = 0 =⇒ PN A1/2 (I − PM ) = 0 . En particular PN A1/2 = PN A1/2 PM . Fijado un vector x ∈ H, nos queda que hA1/2 PN A1/2 x , xi = hPN A1/2 x , PN A1/2 xi = kPN A1/2 xk2 = kPN A1/2 PM xk2 ≤ kA1/2 PM xk2 = hPM A PM x , xi . Luego A1/2 PN A1/2 ≤ PM A PM . Conjugando con A1/2 nos queda que SC A2 , S
(9.4) (9.4) = A PN A ≤ A1/2 PM A PM A1/2 = ( A1/2 PM A1/2 )2 = SC (A , S)2 .
Proposici´ on 9.3.5. Sean A ∈ L(H)+ y S, T v H. Entonces SC SC (A , S) , T = SC (A , S ∩ T ) .
(9.5)
Demostraci´on. Consideremos los conjuntos M(A , S ∩ T ) = {D ∈ L(H)+ : D ≤ A M SC (A , T ) , S
y
R(D) ⊆ S ∩ T }
= {D ∈ L(H)+ : D ≤ SC (A , T )
y
y
R(D) ⊆ S} .
Probaremos que estos conjuntos son iguales y por ende sus m´aximos, que son los dos shorted’s de (9.5) tambi´en lo ser´an. Sea D ∈ M(A , S ∩ T ). Luego tenemos que R(D) ⊆ T ∩ S ⊆ T
D ≤ A =⇒ D ≤ SC (A , T ) y R(D) ⊆ S . Eso nos dice que D ∈ M SC (A , T ) , S . Rec´ıprocamente, si asumimos que D ∈ M SC (A , T ) , S
y
(9.1)
=⇒ D ≤ SC (A , T ) =⇒ R(D) ⊆ R SC (A , T )
⊆T .
Por lo tanto ya sabemos que R(D) ⊆ S ∩ T . Como adem´as D ≤ SC (A , T ) ≤ A, llegamos a lo que quer´ıamos: D ∈ M(A, S ∩ T ).
9.4
Rango y N´ ucleo de los operadores shorted.
Proposici´ on 9.4.1. Dados A ∈ L(H)+ y S v H, se tiene la igualdad R SC (A , S)1/2 = R(A1/2 ) ∩ S .
267
(9.6)
Demostraci´on. Sea M = A−1/2 (S). Observar que, volviendo y yendo queda que R(A1/2 ) ∩ S = A1/2 A−1/2 (S) = A(M) = R(A1/2 PM ) . Luego, por el Cor. 9.1.2 (dec´ıa que R(B ∗ ) = R( |B| ) ), sale lo anunciado: R(A1/2 ) ∩ S = R(A1/2 PM ) = R |PM A1/2 | 1/2
= R (A
PM A
1/2 1/2
)
(9.4) = R SC (A , S)1/2 .
Corolario 9.4.2. Sean A ∈ L(H)+ y S v H. Entonces R(A) ∩ S ⊆ R SC (A , S) ⊆ R(A1/2 ) ∩ S . 1/2 . Demostraci´on. En la Prop. 9.4.1 (aplicada a A2 ) vimos que R(A) ∩ S = R SC (A2 , S) 2 2 Por otro lado, la Prop. 9.3.4 dice que SC (A , S) ≤ SC (A , S) . A partir de ello, el Teo. de 1/2 Douglas 9.1.1 nos asegura que R(A) ∩ S = R(SC (A2 , S) ) ⊆ R SC (A , S) . (9.6) La otra inclusi´on se sigue de que R SC (A , S) ⊆ R SC (A , S)1/2 = R(A1/2 ) ∩ S.
El siguiente lema ser´a de utilidad en muchas cuentas futuras: Lema 9.4.3. Sean B ∈ L(H)+ y N v H. Luego se tiene la igualdad B −1 ( N ⊥ ) = B ( N )⊥
(9.7)
Demostraci´on. Dado un y ∈ H se tiene que hB x , yi = 0 para todo x ∈ N si y s´olo si hx , B yi = 0 para todo x ∈ N . Si se mira bien, eso es (9.7). Por comodidad notacional, para un X ⊆ H cuyo nombre sea muy largo, de ahora en m´as algunas veces escribiremos c l (X) en vez de X para denotar a su clausura. Proposici´ on 9.4.4. Sean A ∈ L(H)+ , S v H y M = A−1/2 (S). Entonces 1. c l ker A + S ⊥ ⊆ ker SC (A , S) = A−1/2 (M⊥ ). 2. ker SC (A , S) = ker A + S ⊥ ⇐⇒ A1/2 (S ⊥ ) es cerrado en R(A1/2 ). Demostraci´on. 1. Por un lado, usando la Prop. 9.4.1 se tiene (4.27) c l ker A + S ⊥ ⊆ (R(A1/2 ) ∩ S)⊥ = ker SC (A , S)1/2 = ker SC (A , S) . (9.4)
Por el otro, como SC (A , S) = A1/2 PM A1/2 , vemos que (4.27)
ker SC (A , S) = ker (A1/2 PM A1/2 ) = ker (PM A1/2 ) = A−1/2 (M⊥ ) . 268
⊥ (9.7) 1/2 ⊥ 2. Dado que A (S ) = A−1/2 (S) = M, se tiene c l A1/2 (S ⊥ ) = M⊥ . Luego ?
A1/2 (S ⊥ ) v R(A1/2 ) ⇐⇒ M⊥ ∩ R(A1/2 ) = A1/2 (S ⊥ ) . ?
Pero como ambos viven dentro de R(A1/2 ), la igualdad = equivale a que ker SC (A , S) = A−1/2 (M⊥ )
A−1/2 (?)
=
A−1/2 A1/2 (S ⊥ ) = ker A + S ⊥ .
EL shorted es la mayor “parte” de un A ∈ L(H)+ que trabaja dentro de un S v H. Dimos bastante informaci´on sobre quien es y cuales son su imagen y su n´ ucleo. Estudiemos ahora lo que le “sobra”, que se suele llamar la S-compresi´on de A. Definici´ on 9.4.5. Sean A ∈ L(H)+ y S v H. Al operador def
AS = A − SC (A , S) ∈ L(H)+ lo llamaremos la S-compresi´on de A.
4
Proposici´ on 9.4.6. Sean A ∈ L(H)+ y S v H. Entonces R(AS 1/2 ) ∩ S = {0}
ker AS = A−1 (S) .
y
Demostraci´on. Supongamos que nos dan un x ∈ R(AS 1/2 ) ∩ S. Consideremos el proyector P = Px = x x ∈ P(H). Como R(P ) ⊆ R(AS 1/2 ), por el Teorema de Douglas 9.1.1, existe λ > 0
tal que
λP ≤ AS = A − SC (A , S) =⇒ λP + SC (A , S) ≤ A .
Pero al asumir que x ∈ S nos queda que λP + SC (A , S) ∈ M(A , S) y le gana al shorted. Luego P debe ser nulo y x era el 0, como anunci´abamos. Por otro lado, si M = A−1/2 (S), entonces por la Prop. 9.3.3, SC (A , S) = A1/2 PM A1/2 =⇒ AS = A1/2 (I − PM )A1/2 . Luego el ker AS = ker (I − PM ) A1/2 = A−1/2 (M) = A−1/2 A−1/2 (S) = A−1 (S).
9.5
Otras caracterizaciones del Shorted.
Teorema 9.5.1 (Ando - Descomposici´on de Lebesgue). Sean A ∈ L(H)+ y S v H. Entonces existen u ´nicos F y G ∈ L(H)+ tales que: A=F +G ,
R(F 1/2 ) ⊆ S
y
R(G1/2 ) ∩ S = {0} .
M´as aun, ellos no son otros que F = SC (A , S) y G = AS .
269
(9.8)
Demostraci´on. La definici´on del shorted y la Prop. 9.4.6 nos dicen que si elegimos los operadores F = SC (A , S) y G = AS , ellos cumplen las condiciones de (9.8). Supongamos ahora que nos dan otro par F y G ∈ L(H)+ que tambi´en las satisfacen. Luego R(F ) ⊆ R(F 1/2 ) ⊆ S
y
F ≤A
F ∈M(A , S)
=⇒
def
B = SC (A , S) − F ∈ L(H)+ .
Entonces escribamos a G = A − F = AS + B ≥ B. Luego tenemos que R(B 1/2 ) ⊆ S
y por Douglas 9.1.1
R(B 1/2 ) ⊆ R(G1/2 ) .
Como R(G1/2 ) ∩ S = {0} queda que B = 0 y SC (A , S) = F . A B∗ S Teorema 9.5.2. Sean S v H y M = ∈ L(H)+ . Llamemos C ∈ L(S, S ⊥ ) B D S⊥ a la SR de la ecuaci´on B = D1/2 X (que existe por la Prop. 9.2.3). Entonces A − C ∗C 0 SC (M , S) = . 0 0 Demostraci´on. Podemos partir a M usando a la soluci´on C del siguiente modo: 0 0 0 C∗ A B∗ A − C ∗C 0 M= = =F +G . + B D 0 0 C D1/2 0 D1/2 Para mostrar que F = SC (M , S) bastar´ıa verificar que F y G est´an en las condiciones del Teo. 9.5.1. Vamos por partes. Es claro que G ≥ 0. Por el Cor. 9.1.2, se tiene que 0 C∗ 1/2 R(G ) = R . 0 D1/2 C∗ y 0 C∗ x z = = ∈ R(G1/2 ) ∩ S, entonces D1/2 y = 0. Ahora bien, si 1/2 1/2 y 0 D y 0 D Pero observemos que ker(D1/2 ) ⊆ ker(C ∗ ), porque C es la SR de B = D1/2 X. Luego tambi´en z = C ∗ y = 0, y llegamos a que R(G1/2 ) ∩ S = {0}. Por otro lado, la Prop. 9.2.4 nos asegura que F ≥ 0 y el hecho de que R(F 1/2 ) ⊆ S sale mirando su matriz. S A B∗ ∈ L(H)+ . Supongamos ahora que Corolario 9.5.3. Sean S v H y M = B D S⊥ R(D) v H. Entonces tenemos esta nueva descripci´on del shorted: A B∗ A − B ∗ D† B 0 SC ,S = . B D 0 0
Demostraci´on. Sale porque la SR de la ecuaci´on B = D1/2 X es (D1/2 )† B = (D† )1/2 B .
270
Ejercicio 9.5.4. Sea S v H. Recorderemos la casimatriz M =
? B∗ B D
S S⊥
del
Ejer. 9.1.5. Consideremos ahora el conjunto de bloques 1,1 adecuados: X B∗ + P(M , S) = X ∈ L(S) : ∈ L(H)+ . B D El Ejer. 9.1.5 dec´ıa que P(M , S) 6= ∅ ⇐⇒ R(B) ⊆ R(D1/2 ). Este ejercio consiste en probar que, en tal caso, existe X0 = min P(M , S) y adem´as identificarlo. 4 Alguien dijo que en un problema de aproximaci´on, todo m´aximo de algo puede tambi´en ser descrito como un m´ınimo. Eso pasa con las normas de operadores (supremo en la bola, pero m´ınimo de las cotas superiores). Ahora veremos dos caracterizaciones del shorted (definido como un m´aximo) que se obtienen tomando ´ınfimos adecuados: Proposici´ on 9.5.5. Sean M ∈ L(H)+ y S v H. Dado x ∈ S, se tiene que x x x x ⊥ SC (M , S) 0 , 0 = inf M y , y . : y∈S
(9.9)
Demostraci´on. Observar que para todo y ∈ S ⊥ se debe cumplir que x x x x x x def m = SC (M , S) , = SC (M , S) , ≤ M , , 0 0 y y y y por lo que m es una cota inferior. Pero escribiendo a M como una matriz 2 × 2, el Teo. 9.5.2 y la Ec. (9.2) de la Prop. 9.2.4, aseguran que m debe ser el ´ınfimo, porque hay una sucesi´on (yn )n∈ N en S ⊥ que aproxima el valor de h SC (M , S) x , xi. Teorema 9.5.6. Sean A ∈ L(H)+ y S v H. Consideremos el conjunto N (A, S) = {Q A Q∗ : Q ∈ P(H) y R(Q) = S} . Entonces SC (A , S) = ´ınf N (A, S), con respecto al orden usual de A(H). Demostraci´on. Llamemos PS (H) = {Q ∈ P(H) : R(Q) = S}. En el Ejer. 4.5.9 se afirmaba I B S que dado un Q ∈ PS (H), debe existir un B ∈ L(S ⊥ , S) tal que Q = (sale 0 0 S⊥ usando que PS Q = Q) . Luego, dado y = x + z ∈ S ⊕ S ⊥ = H, se tiene que x x x x ∗ ∗ ∗ h Q A Q y , yi = A Q ,Q = A , . (9.10) z z B∗ x B∗ x I B ⊥ Observar que cualquier B ∈ L(S , S) produce un Q = ∈ PS (H). Luego los 0 0 valores w = B ∗ x recorren todo S ⊥ . Usando la Prop. 9.5.5 y la Ec. (9.10) deducimos que x x ∗ inf h QAQ y , yi = inf A , w w Q∈PS w∈S ⊥ (9.9) x x = SC (A , S) , = h SC (A , S) y , yi , 0 0 271
para todo y = x + z ∈ S ⊕ S ⊥ = H. Luego SC (A , S) = inf N (A, S), en el sentido de que es cota inferior y debe ser mayor que todas las otras cotas.
9.6
Convergencia. SOT
Proposici´ on 9.6.1. Sean {An }n∈N una sucesi´on en L(H)+ tal que An & A y {Sn }n∈N una n→∞
sucesi´on decreciente de subespacios cerrados de H. Entonces SOT
SC (An , Sn ) & SC (A , S) ,
donde
S=
n→∞
∞ \
Sn .
n=1
Demostraci´on. Llamemos Bn = SC (An , Sn ) para cada n ∈ N. Por la Prop. 9.3.3, nuestra sucesi´on {Bn }n∈N es decreciente en L(H)+ . Usando el Ejer. 5.9.24, debe tener un l´ımite (´ınfimo) en la topolog´ıa fuerte de operadores SOT, al cual denotaremos B ∈ L(H)+ . Como SC (A , S) ≤ Bn ≤ A para todo n ∈ N, nos queda que SC (A , S) ≤ B ≤ A. Luego bastar´ıa verificar que R(B) ⊆ S para que B ∈ M(A, S), porque ello nos dar´ıa la otra desigualdad B ≤ SC (A , S). Para convencernos de que R(B) ⊆ S, usemos Douglas 9.1.1: B ≤ Bn =⇒ R(B) ⊆ R(B 1/2 ) ⊆ R Bn1/2 para todo n ∈ N. As´ı que R(B) ⊆
∞ \
(9.6) = R(A1/2 n ) ∩ Sn ⊆ Sn ,
Sn = S.
n=1
La Prop. 9.6.1 mata dos p´ajaros de un tiro. Para entenderla mejor veamos dos casos particulares que son interesantes en s´ı mismos: Corolario 9.6.2. Trabajaremos en H que es un EH. SOT
1. Sea S v H. Si nos dan una sucesi´on {An }n∈N en L(H)+ tal que An & A, vale que n→∞ SOT
SC (An , S) & SC (A , S) . n→∞
2. Si ahora fijamos el operador A ∈ L(H)+ y tenemos una sucesi´on decreciente {Sn }n∈N de subespacios cerrados de H, ah´ı nos queda que SOT
SC (A , Sn ) & SC (A , S) ,
donde
S=
n→∞
∞ \
Sn .
n=1
Demostraci´on. Es la Prop. 9.6.1 fijando cada una de las variables. Ahora buscaremos condiciones suficientes para garantizar la convergencia en norma. 272
Lema 9.6.3. Sean A ∈ Gl(H)+ y S v H. Entonces k·k
SC (A + εI , S) −−−→ SC (A , S) . + ε→0
Demostraci´on. Dado ε > 0, llamemos λε = 1 + εkA−1 k. Como I ≤ kA−1 kA, deducimos que A + εI ≤ λε A y por ende SC (A + εI , S) ≤ λε SC (A , S). Por lo tanto, k·k
SC (A , S) ≤ SC (A + εI , S) ≤ λε SC (A , S) −−−→ SC (A , S) , + ε→0
por lo que SC (A + εI , S) converge ensanguchadamente a SC (A , S).
Teorema 9.6.4. Sean A ∈ Gl(H)+ y (An )n∈N una sucesi´on en Gl(H)+ tal que k·k
An −−−→ A n→∞
An ≥ A
y
para todo
n∈N.
Entonces, para todo S v H, se cumple que k·k
SC (An , S) −−−→ SC (A , S) . n→∞
Demostraci´on. Observar que An = A + (An − A) ≤ A + kAn − Ak I para todo n ∈ N. Si abreviamos εn = kAn − Ak −−−→ 0, por el Lema anterior se tiene que n→∞
kSC (An , S) − SC (A , S) k ≤ kSC (A + εn I , S) − SC (A , S) k −−−→ 0 , n→∞
Ej.
donde el ≤ vale porque en general 0 ≤ B ≤ C =⇒ kBk ≤ kCk. Y usamos que cada An ≥ A para que lo de adentro de las normas sea siempre positivo.
9.7
La ecuaci´ on X = A − B ∗X −1B.
Definici´ on 9.7.1. Sean A ∈ A(H) y A B Zn (A, B) = ... 0 0
B ∈ L(H). Dado n ∈ N, llamaremos B∗ 0 . . . 0 A B∗ . . . 0 .. ∈ A(Hn+1 ) . .. .. .. . . . . . . . B A B∗ ... 0 B A 4
Si A = I, escribiremos Zn (B) en lugar de Zn (I, B).
Observaci´ on 9.7.2. Sean a ∈ R∗+ y b ∈ C. Supongamos que Zn (a, b) > 0 para todo n ∈ N. dn Llamemos d0 = a, dn = det Zn (a, b) y xn = , n ∈ N. Es f´acil ver, desarrollando por las dn−1 primeras columnas, que se tiene la f´ormula recursiva dn+1 = a dn − |b|2 dn−1 =⇒ xn+1 =
dn+1 dn−1 = a − |b|2 = a − |b|2 x−1 , n dn dn 273
n∈N.
2
2
Como x1 = a −|b| ≤ a = x0 , uno muestra recursivamente que (xn )n∈N es un sucesi´on a decreciente. Por lo tanto, su l´ımite x debe cumplir 0<x
y
x = a − |b|2 x−1 = a − b x−1 b .
Veremos que una condici´on de este tipo es necesaria y suficiente para la positividad de las matrices Zn (A, B), incluso en el caso de operadores. Tal ecuaci´on ser´ıa X = A − B ∗ X −1 B
(todos en L(H), pero A y X en L(H)+ )
.
Esta ecuaci´on es interesante en s´ı misma, dado que tiene aplicaciones en teor´ıa de circuitos el´ectricos. Para evitar pedir que nadie sea inversible, se la puede mejorar usando operadores shorted, usando la f´ormula (9.11) del siguiente Teorema. Si X > 0, el Cor. 9.5.3 dice que (9.11) es equivalente a la ecuaci´on anterior. 4 Teorema 9.7.3. Sean A ∈ L(H)+ y B ∈ L(H). Son equivalentes: 1. Existe X ∈ L(H)+ tal que A B∗ A B∗ X 0 + ∈ L(H ⊕ H) y SC , H ⊕ {0} = . B X B X 0 0
+
2. El conjunto M (A, B) = Y ∈ L(H) :
A−Y B
B∗ Y
(9.11)
≥ 0 6= ∅.
3. Para todo n ∈ N, Zn (A, B) ∈ L(Hn+1 )+ . En tal caso, existe X = max M (A, B), y es una de las soluciones de la Ec. (9.11). Demostraci´on. Si existe un X que cumpla la Ec. (9.11), entonces X ∈ M (A, B) 6= ∅. Supongamos ahora que existe Y ∈ M (A, B). Tenemos que A B∗ A − Y B∗ = Z2 (A, B) . ≤ 0 ≤ Y ≤ A por lo que 0 ≤ B Y B A An´alogamente, A−Y B 0≤ 0
B∗ 0 0 0 Y 0 + 0 A−Y 0 B 0 0
A−Y 0 ∗ B B = Y 0
B∗ 0 A B ∗ ≤ Z3 (A, B) . B Y
Inductivamente, uno prueba que Zn (A, B) ≥ 0 para todo n ∈ N. Veamos ahora que 3 → 1: Notemos X0 = A y Xn = SC (Zn (A, B) , H ⊕ {0n }), para cada n ∈ N. Pensamos a todos los Xn como con operadores en L(H)+ (dado que s´olo operan en la primera cordenada de Hn+1 ). Llamemos Bn = (B, 0n−1 ) ∈ L(H)n , pensado como
274
una columna, o bien Bn = (0n−1 , B) ∈ L(H)n , como vector fila. Entonces, si tomamos Z0 (A, B) = A, se tienen las igualdades 0 A Bn∗ ∗ A Bn+1 = Bn Zn−1 (A, B) Bn∗ para todo n ∈ N . Zn+1 (A, B) = Bn+1 Zn (A, B) 0 Bn A Por la Prop. 9.5.5, para todo x ∈ H y todo n ∈ N, x x A Bn∗ n , :y∈H hXn x, xi = inf Bn Zn−1 (A, B) y y * + A Bn∗ 0 x x n ∗ Bn Zn−1 (A, B) Bn y , y ≥ inf : (y, z) ∈ H ⊕ H 0 Bn A z z = hXn+1 x, xi , es decir que la sucesi´on Xn es decreciente. Al tomar el ´ınfimo sobre y ∈ Hn de la ecuaci´on anterior, si escribimos y = (y1 , y2 ) ∈ H ⊕ Hn−1 nos queda hXn x, xi = hAx, xi +
inf
y=(y1 ,y2 )∈Hn
{2 Re hBx, y1 i + hZn−1 (A, B)y, yi} .
Si fijamos y1 ∈ H y movemos y2 ∈ Hn−1 , obtenemos y1 y1 = hXn−1 y1 , y1 i . , inf Zn−1 (A, B) y2 y2 y2 ∈Hn−1 Tomando ahora ´ınfimo sobre y1 ∈ H, llegamos a que, para todo x ∈ H y n ∈ N, A B∗ x x hXn x, xi = inf , : y1 ∈ H . B Xn−1 y1 y1 Aplicando nuevamente la Prop. 9.5.5, esto se reescribe como A B∗ A B∗ Xn 0 ≥ 0 y SC , H ⊕ {0} = , B Xn−1 B Xn−1 0 0
(9.12)
para todo n ∈ N. Tomemos X el l´ımite para n → ∞ de los Xn (que existe, al menos en la topolog´ıa fuerte de operadores, por ser la sucesi´on decreciente). Luego, mirando el l´ımite en ∗ A B la Ec. (9.12), obtenemos que ≥ 0. Por la Prop. 9.6.1, deducimos que X verifica B X la f´ormula (9.11). Finalmente, observar que X ∈ M (A, B) y, si Y ∈ M (A, B), entonces Y ≤ A = X0 . Si hubi´eramos obtenido que Y ≤ Xn−1 , para cada x ∈ H tendr´ıamos que Y 0 A B∗ A B∗ ≤ ≤ =⇒ Y ≤ Xn , 0 0 B Y B Xn−1 por la Ec. (9.12) y la Def. 9.3.2 de operador shorted. Tomando ´ınfimo, llegamos a que Y ≤ X. 275
Observaci´ on 9.7.4. El operador X construido en la prueba del Teo. 9.7.3 se puede obtener recursivamente por la siguiente receta, usando la f´ormula (9.12): Tomar X0 = A y, para n ∈ N, tomar Xn+1 0 A B∗ , H ⊕ {0} . = SC B Xn 0 0 S.O.T.
Luego Xn ≥ 0 para todo n ∈ N y Xn −−−→ X decrecientemente. n→∞
4
Observaci´ on 9.7.5. Una variaci´on: Fijemos cualquier Y0 ∈ M (A, B). Como A B∗ A B∗ , H ⊕ {0} , ≥ 0 podemos definir Y1 = SC B Y0 B Y0 pensado en L(H)+ (sin los tres ceros). Del hecho de que Y0 ∈ M (A, B), deducimos que Y0 0 A B∗ =⇒ Y0 ≤ Y1 y ≤ B Y0 0 0 A − Y1 B ∗ A − Y1 B ∗ =⇒ Y1 ∈ M (A, B) . ≤ 0≤ B Y1 B Y0 A B∗ , H ⊕ {0} , obtenemos una sucesi´on Definiendo recursivamente Yn+1 = SC B Yn creciente en M (A, B) cuyo supremo Y debe cumplir la Ec. (9.11). En principio no se sabe si la soluci´on Y es la misma del proceso anterior (o del que resulte de empezar con otro elemento de M (A, B) ). En efecto, la soluci´on X de la Ec. (9.11) no es necesariamente u ´nica, como lo muestra el caso unidimensional, donde la ecuaci´on x = a − x−1 |b|2 puede producir dos soluciones positivas: si b 6= 0, p a ± a2 − 4|b|2 −1 2 2 2 x = a − x |b| ⇐⇒ x − ax + |b| = 0 ⇐⇒ x= , 2 siempre que 2|b| ≤ a. Esta condici´on, que es entonces equivalente al hecho de que Zn (a, b) ≥ 0 para todo n ∈ N, se generalizar´a a operadores (usando el radio num´erico en lugar del m´odulo) en el Cor. 10.3.6. 4 Observaci´ on 9.7.6. Si en el Teo. 9.7.3 se toman sistem´aticamente operadores shorted sobre el subespacio {0} ⊕ H (es decir, que se trabaja en el lugar 2, 2 de las matrices en cuesti´on), se obtiene, bajo las mismas hip´otesis (los Zn (A, B) ≥ 0), un operador X2 que es soluci´on de la Ec. (9.11) con B cambiado por B ∗ . Adem´as, Z B∗ + X2 = max Z ∈ L(H) : ≥ 0 = min M (A, B) , B A−Z
276
dado que la aplicaci´on Z 7→ A − Z = Y manda el conjunto del medio sobre M (A, B), e invierte el orden. En dim H = 1, se tiene que, si 0 < 2|b| ≤ a y 0 < y < a, a−y b ≥ 0 ⇐⇒ (a − y)y ≥ |b|2 ⇐⇒ y 2 − ay + |b|2 ≤ 0 b y p p a − a2 − 4|b|2 a + a2 − 4|b|2 ⇐⇒ ≤y≤ . 2 2 Por lo tanto, el m´ınimo y el m´aximo de M (a, b) son las soluciones de la Ec. (9.11) para A = a y B = b. Esto sucede porque b es “normal” y porque x y b conmutan. En general, las ecuaciones X = A − B ∗ X −1 B y X = A − BX −1 B ∗ no tienen por que tener las mismas soluciones. Pero si B = B ∗ , s´ı sabemos que X2 = A − X y es otra soluci´on de la Ec. (9.11). 4 Corolario 9.7.7. Sean A ∈ L(H)+ y B ∈ A(H) . Entonces se cumplen las condiciones del Teo. 9.7.3 si y s´olo si A A A/2 B . A/2 ∈ M (A, B) ⇐⇒ ≥ 0 ⇐⇒ − ≤ B ≤ B A/2 2 2 X + (A − X) Demostraci´on. Observar que M (A, B) es convexo, y = A/2. Luego la primera 2 equivalencia se sigue de la Obs. 9.7.6. La u ´ltima ecuaci´on equivale a la del medio por el Cor. 9.2.9. Nota: Los resultados de esta secci´on est´an basados en los trabajos de Ando [92] y AndersonMorley-Trapp [88].
9.8
Ejercicios n
Ejercicio 9.8.1. Sean S v C , y A =
A11 A∗21 A21 A22
S ∈ Mn (C)+ . S⊥
1. R(SC (A , S)) = R(A) ∩ S y N (SC (A , S)) = N (A) + S ⊥ . 2. Si A ∈ Gl (n)+ , entonces tambi´en SC (A , S) > 0 (pensado en L(S) ). M´as a´ un, si (A−1 )11 (A−1 )12 A−1 = , entonces (A−1 )11 = SC (A , S)−1 . (A−1 )21 (A−1 )22 3. Dados A, B ∈ L(H)+ tales que A ≤ B, notemos [A, B] = {X ∈ L(H)+ : A ≤ X ≤ B} . Observar que [A, B] es convexo. Probar que 277
a. Los puntos extremales de [0, I] son los proyectores autoadjuntos de L(H). b. Si A ∈ Gl (H)+ , entonces ext([0, A]) = {SC (A , S) : S v H }, que incluyen a 0 = SC (A , {0}) y A = SC (A , H). 4. Si f : [0, +∞) → R es una funci´on mon´otona de operadores tal que f (0) ≤ 0, entonces, f (SC (A , S)) ≤ SC (f (A) , S) . ( ) det A 5. La sucesi´on es decreciente, y 1/m det (Am )nn m∈N µn (A) ≤ lim
m→∞
278
det A det (Am )nn
1/m .
Cap´ıtulo 10 Rango y Radio Num´ ericos 10.1
Definiciones y propiedades b´ asicas
Definici´ on 10.1.1. Sea A ∈ L(H). 1. El Rango num´ erico de A es el conjunto W (A) = {hAx, xi : x ∈ H, kxk = 1 } . 2. Recordemos que el radio num´ erico de A se define como w(A) = max |λ| = max{ |hAx, xi| : x ∈ H, kxk = 1 } λ∈W (A)
y que define una norma en L(H) (si el cuerpo es C).
4
Propiedades elementales de W (A) y w(A): 1. Sea A ∈ L(H). Se cumplen las siguientes desigualdades: ρ(A) ≤ w(A) ≤ kAk . La segunda se deduce de Cauchy-Schwarz. La primera es f´acil para matrices. Para operadores se necesita usar la f´ormula (10.1) de un poco m´as abajo. 0 0 2. Tomando A = , se ve que las desiguadades pueden ser estrictas. En efecto, es 2 0 claro que ρ(A) = 0 y kAksp = 2. Por otra parte, como la funci´on f : {z ∈ C : |z| ≤ 1} → R
dada por
f (z) = 2|z| (1 − |z|2 )1/2
alcanza el m´aximo f (z) = 1 cuando |z|2 = 1/2, podemos deducir que w(A) = 1. 3. Dado B ∈ L(H) se cumple que W (A + B) ⊆ W (A) + W (B). 279
4. Dado λ ∈ C, se tiene que W (A + λI) = W (A) + λ y W (λ · A) = λ · W (A). 5. Si U ∈ U(H), entonces W (U AU ∗ ) = W (A) y w(U AU ∗ ) = w(A). 6. Si dim H < ∞, entonces W (A) es compacto (por serlo la c´ascara de la bola unidad de H). Esto falla cuando dim H = ∞, donde W (A) puede no ser cerrado, aunque s´ı pasa que W (A) es compacto. 4 Proposici´ on 10.1.2. Sea A ∈ L(H). Entonces σ (A) ⊆ W (A) .
(10.1)
Demostraci´on. Si λ es autovalor de A, es claro que λ = hAx, xi ∈ W (A) para cualquier autovector unitario x asociado a λ . Si λ ∈ σ (A) pero ker(A − λI) = {0}, se tienen dos posibilidades: 1. γ(A − λI) = 0, con lo que se consigue una sucesi´on {xn } de vectores unitarios tales que k(A − λI)xn k −−−→ 0, por lo que hAxn , xn i −−−→ λ . n→∞
n→∞
2. R(A − λI) es cerrado, pero no todo H. En tal caso, existe un vector unitario x ∈ R(A − λI)⊥ . Luego h(A − λI)x, xi = 0, por lo que hAx, xi = λ . Observar que los u ´nicos λ ∈ σ (A) pueden no pertenecer a W (A) son aquellos en los que A − λI es inyectivo con rango denso. Por lo tanto, si dim H < ∞ se tiene directamente que σ (A) ⊆ W (A). Ejemplo 10.1.3. Sea A el operador definido en el Ejemplo 8.4.8. Recordar que, para todo en , donde {en : n ∈ N} es una BON de H. Como A es compacto (o porque n ∈ N, Aen = n γ(A) = 0), se tiene que A ∈ / Gl (H), por lo que 0 ∈ σ (A). Es f´acil ver que A ∈ L(H)+ y que ker A = {0}. Por lo tanto 0 ∈ / W (A). En efecto, si 1/2 2 1/2 1/2 hAx, xi = kA xk = 0, debe cumplirse que Ax = A (A x) = 0. Observar que, para 4 todo n ∈ N, 1/n ∈ W (A), por lo que s´ı se cumple que 0 ∈ W (A). Es un hecho standard de la teor´ıa de operadores en espacios de Hilbert el que, si A es normal, entonces ρ(A) = w(A) = kAk . Veremos que, en ese caso, W (A) = conv [σ (A)].
10.2
El Teorema de Hausdorff T¨ oeplitz
El Teorema de Hausdorff T¨oeplitz dice que, para todo A ∈ L(H), se cumple que W (A) es convexo. Para probarlo se necesitan una serie de reducciones. La principal es ver que basta probarlo para matrices en M2 (C) (esto lo veremos en la prueba del Teorema). Pero a´ un entre ellas, necesitamos dos reducciones especiales: 280
Lema 10.2.1. Dada A ∈ M2 (C), existe U ∈ U(2) tal que, trA c a ∗ B = U AU = , con c = . b c 2 tr A I, podemos suponer que tr A = 0 y tratar de 2 hacer que la diagonal de B sea nula. Si σ(A) = {0}, esto es f´acil (por el Teorema de Schur). Sin´o, σ(A) = {λ, −λ} con λ 6= 0. Sean x1 y x2 autovectores unitarios asociados a λ y −λ, respectivamente. Tomemos la curva x(t) = eit x1 + x2 , para t ∈ [0, 2π]. Observar que x(t) 6= 0, por que x1 y x2 son LI. Entonces, Demostraci´on. Cambiando A por A −
hAx(t), x(t)i = λ − λ + eit hAx1 , x2 i + e−it hAx2 , x1 i = λeit hx1 , x2 i − λe−it hx2 , x1 i = 2iλ Im (eit hx1 , x2 i) . Eligiendo t0 ∈ [0, 2π] tal que eit0 hx1 , x2 i ∈ R, tenemos que hAx(t0 ), x(t0 )i = 0, con x(t0 ) 6= 0. Normalizando a x(t0 ), completando a una BON de C2 , y tomando U ∈ U(2) tal que tenga a esa BON en sus columnas, obtenemos 0 a ∗ B = U AU = , con a, b ∈ C , b 0 donde B22 = 0 porque B11 = 0 = tr B.
Lema 10.2.2. Dada B ∈ M2 (C) con diagonal nula, existen V ∈ U(2) y w ∈ C con |w| = 1 tales que, 0 a ∗ w · V BV = , con a≥0 y b≥0. b 0 0 a u 0 Demostraci´on. Si B = , tomando V = ∈ U(2) y w ∈ C con |w| = 1, b 0 0 1 tenemos que 0 wu a ∗ w · V B1 V = . 0 wu b i
i
Si a = eiθ1 |a| y b = eiθ2 |b|, tomando u = e 2 (θ2 −θ1 ) y w = e 2 (θ2 +θ1 ) , se obtiene que 0 |a| ∗ w · V B1 V = , |b| 0 como dese´abamos.
281
Teorema 10.2.3 (Hausdorff-T¨oeplitz). Sea A ∈ L(H). Entonces W (A) es convexo. Demostraci´on. Sean α, β ∈ W (A) distintos, y sean x, y ∈ H unitarios tales que hAx, xi = α y hAy, yi = β. Tomemos B0 = {v1 , v2 } una BON de S = span {x, y}. Consideremos la compresi´on AS ∈ L(S). La matriz de AS en la base B0 es B = (hAvj , vi i)i,j∈I2 ∈ M2 (C). Dado z = (z1 , z2 ) ∈ C2 , se tiene que w = z1 v1 + z2 v2 ∈ S ,
kwk = kzk2
y
hBz, zi = hAw, wi ,
por lo que α, β ∈ W (B) y, para probar que las combinaciones convexas de α y β est´an en W (A), basta verificar que est´an en W (B). En otras parabras, alcanza con probar el teorema en el caso de que A ∈ M2 (C). Para ello, por los Lemas 10.2.1 y 10.2.2, se puede asumir que 0 a A= , con a≥0 y b≥0, b 0 puesto que W (C + λI) = W (C) + λ y W (u · V CV ∗ ) = u · W (C) para cualquier C ∈ M2 (C), λ ∈ C, V ∈ U(2) y u ∈ C con |u| = 1. Obervar que los cambios inducidos por las reducciones anteriores (translaciones y rotaciones) no perturban el hecho de que W (A) sea convexo. Veremos que en este caso, n o W (A) = t (a + b) cos θ + i(a − b) sin θ : t ∈ [0, 1/2] y θ ∈ [0, 2π] , (10.2) que es una elipse (o eventualmente un segmento) centrada en el origen, y por lo tanto convexa. En efecto, dado z ∈ C2 con kzk = 1, como
hAz, zi = Aeiα z, eiα z para todo α ∈ R , podemos suponer que z = (t, (1 − t2 )1/2 eiθ ) para t ∈ [0, 1] y θ ∈ [0, 2π]. En tal caso, cuentas elementales muestran que hAz, zi = t(1 − t2 ) (a + b) cos θ + i(a − b) sin θ . Observar que los n´ umeros t(1−t2 ) recorren el intervalo [0, 1/2] cuando t ∈ [0, 1]. Esto prueba la f´ormula (10.2). Corolario 10.2.4. Sea A ∈ L(H). 1. En general se cumple que conv [σ (A) ] ⊆ W (A). 2. Si A es normal, entonces conv [σ (A) ] = W (A). 3. Si dim H < ∞, los resultados anteriores valen sin tomar clausura. Demostraci´on. La inclusi´on σ (A) ⊆ W (A) ya fu´e vista en la Prop. 10.1.2. Pero por el Teo. 10.2.3, sabemos que esa incus´on arrastra a la c´apsula convexa. Si A es normal, probaremos la inclusi´on rec´ıproca s´olo en el caso de que dim H = n < ∞. Sea {x1 , . . . , xn } una 282
BON de H formada por autovectores de A asociados a sus autovalores λ1 , . . . , λn . Si x ∈ H tiene kxk = 1, entonces * n + n n X X X hAx, xi = A hx, xk i xk , hx, xk i xk = | hx, xk i |2 λk ∈ conv [σ (A) ] , k=1
porque
Pn
k=1
k=1
k=1
| hx, xk i |2 = kxk2 = 1. Por lo tanto W (A) ⊆ conv [σ (A)].
Observaci´ on 10.2.5. El caso general (dim H = ∞) del Corolario anterior, sale por un argumento similar (integrando o aproximando con sumas finitas), pero usando el Teorema Espectral para operadores normales, que est´a m´as all´a de los requerimientos pedidos a un lector t´ıpico de este trabajo. Se propone como ejercicio para el lector que lo conozca. 4 Definici´ on 10.2.6.
1. Dados dos espacios de Hilbert H y K, notamos H ⊕ K = {(x, y) : x ∈ H , y ∈ K} ,
que es un espacio de Hilbert con el producto h(x1 , y1 ), (x2 , y2 )i = hx1 , x2 i + hy1 , y2 i. 2. Dados A ∈ L(H) y B ∈ L(K), se define el operador A ⊕ B ∈ L(H ⊕ K)
A ⊕ B(x, y) = (Ax, By), (x, y) ∈ H ⊕ K .
dado por
3. Matricialmente tenemos que def
A⊕B =
A 0 0 B
H ∈ L(H ⊕ K) . K
4. En forma similar se definen sumas directas de muchos espacios de Hilbert y de muchos operadores en ellos. 4 Corolario 10.2.7. Sean A ∈ L(H) y B ∈ L(K). Entonces W (A ⊕ B) = conv [W (A) ∪ W (A) ]
y
w(A ⊕ B) = max{w(A), w(B)} .
(10.3)
Idem con muchos bloques diagonales. Demostraci´on. La inclusi´on W (A) ∪ W (A) ⊆ W (A ⊕ B) se testea inmediatamente usando vectores con una cordenada nula. Por el Teorema 10.2.3, esto arrastra a la c´apsula convexa de W (A) ∪ W (A). Rec´ıprocamente, dados x ∈ H e y ∈ K no nulos tales que k(x, y)k2 = kxk2 + kyk2 = 1, tenemos que hA ⊕ B(x, y), (x, y) i = hAx, xi + hBy, yi x y y x 2 2 , + kyk B , , = kxk A kxk kxk kyk kyk quien claramente pertenece a conv [W (A) ∪ W (A) ]. 283
Corolario 10.2.8. Sea A ∈ Mn (C). Entonces existe U ∈ U(n) tal que, si B = U ∗ AU , luego tr A Bii = para todo i ∈ In . n tr A , lo que debemos probar es que, si tr A = 0, Demostraci´on. Cambiando A por A − n entonces podemos conseguir U ∈ U(n) tal que la diagonal de U ∗ AU sea nula. Lo probaremos por inducci´on en n. Para n = 1 es trivial. Observar que el caso n = 2 es el Lema 10.2.1. Si n > 2, aplicando el Cor. 10.2.4 obtenemos que 0=
tr A ∈ conv [σ (A)] ⊆ W (A) . n
Luego existe un vector unitario x ∈ Cn tal que hAx, xi = 0. Completando {x} a una BON de Cn que lo tenga como primer elemento, y tomando U1 ∈ U(n) la matriz con esa BON en sus columnas, obtenemos que 0 ∗ 1 ∗ , C = U1 AU1 = ∗ D n−1 porque C11 = hAx, xi = 0. Como D ∈ Mn−1 (C) cumple que tr D = 0, podemos aplicar la hip´otesis inductiva y encontrar V ∈ U(n − 1) tal que la diagonal de V ∗ DV sea nula. Definiendo U2 = 1 ⊕ V ∈ U(n) y U = U1 U2 ∈ U(n), se ve que 1 0 0 ∗ 1 0 0 ∗V ∗ ∗ U AU = U2 CU2 = = , 0 V∗ ∗ D 0 V V ∗ ∗ V ∗ DV que tiene la diagonal nula.
Observaci´ on 10.2.9. Sea W ⊆ C un conjunto convexo compacto, y sea z0 ∈ / W . Entonces existe un u ´nico w0 ∈ W tal que d(z0 , W ) = |z0 − w0 | = d > 0 . El tal w0 existe (y es u ´nico) por la teor´ıa usual de espacios de Hilbert, usando que W es convexo y cerrado. M´as a´ un, si x = z0 − w0 , entonces Re (w0 x) + d = Re (z0 x) y Re (zx) ≤ Re (w0 x)
para todo
z∈W .
Esto se deduce de que w0 es la proyecci´on ortogonal de z0 sobre W , y de que el producto escalar en C pensado como R2 es la parte real del producto escalar usual. Observar que la recta {z ∈ C : Re [(z − w0 )x] = 0} es ortogonal a z0 − w0 y pasa por w0 . 4 Teorema 10.2.10. Sea A ∈ L(H). Entonces n W (A) = z ∈ C : |z − λ| ≤ w(A − λI) =
n
z ∈ C : |z − λ| ≤ kA − λIk 284
para todo para todo
o λ∈C o λ∈C .
Demostraci´ o n. Notemos W = W (A), X = z ∈ C : |z − λ| ≤ w(A − λI) , λ ∈ C e Y = z ∈ C : |z − λ| ≤ kA − λIk , λ ∈ C . Es claro, por las definiciones, que X ⊆ Y . Usando que W (A) − λ = W (A − λI), es f´acil ver que W ⊆ X. En lo que sigue probaremos que Y ⊆ W : Supongamos que z0 ∈ / W , y sea w0 la proyecci´on ortogonal de z0 sobre W (como en la Obs. 10.2.9). Sean d = |z0 − w0 | = D(z0 , W ) > 0 ,
y
B = e−iθ (A − w0 I) ,
donde z0 − w0 = eiθ d. Luego WB = W (B) = e−iθ (W (A) − w0 ) y, si YB = z ∈ C : |z − λ| ≤ kB − λIk , λ ∈ C , entonces YB = e−iθ (Y − w0 ) . Por lo tanto, para ver que z0 ∈ / Y , alcanza probar que d = e−iθ (z0 − w0 ) ∈ / YB . Observar que, −iθ como la funci´on x 7→ e (x − w0 ) preserva distancias, la proyecci´on de d a WB es, ahora, e−iθ (w0 − w0 ) = 0. Adem´as, como d = d − 0 > 0, si z ∈ WB , Re (z d ) = d Re z ≤ 0
Re z ≤ 0 ,
=⇒
por la Obs. 10.2.9. Ahora, si kxk = 1 y m ∈ N, entonces
k(B + mI)xk2 = (B + mI)x , (B + mI)x = kBxk2 + m2 + 2m Re hBx, xi ≤ kBk2 + m2 , porque hBx, xi ∈ WB . Es decir que kB + mIk ≤ (kBk2 + m2 )1/2 . Es f´acil ver que (kBk2 + m2 )1/2 − m −−−→ 0. Por lo tanto, debe existir m ∈ N tal que m→∞
kB + mIk − m ≤ (kBk2 + m2 )1/2 − m < d . En otras palabras, para ese m se tiene que kB + mIk < d + m = |d + m|, por lo que d ∈ / YB y entonces z0 ∈ / Y . Resumiendo, vimos que si z0 ∈ / W , entonces z0 ∈ / Y , o sea que Y ⊆ W .
10.3
Caracterizaciones del radio num´ erico
Vaeamos una aplicaci´on directa del Teo. 6.1.4: Proposici´ on 10.3.1. Sea A ∈ L(H). Entonces: 1. kA − Ik < 1 implica que A ∈ Gl (H) y A−1 =
P∞
n=0 (I
− A)n
2. Si B ∈ Gl (H) y kB − Ak ≤ kB −1 k−1 , entonces, A ∈ Gl (H). Demostraci´on. Ejercicio. Lema 10.3.2. Sea A ∈ L(H) tal que w(A) ≤ 1. Sea z ∈ C con |z| < 1. Entonces 285
1. σ (A) ⊆ {λ ∈ C : kλk ≤ 1}. 2. I − zA ∈ Gl (H). 3. Re(I − zA) ≥ 0 y Re(I − zA)−1 ≥ 0. 4. Se tiene le expresi´on en serie de potencias Re(I − zA)
−1
=I+
∞ X z n An k=1
2
+
∞ X z n A∗n k=1
2
,
(10.4)
con convergencia en norma, para |z| < 1. Demostraci´on. Lo primero sale porque ρ(A) ≤ w(A) ≤ 1. Adem´as, si z 6= 0, entonces I − zA = z(z −1 I − A) ∈ Gl (H), porque |z −1 | > 1, o sea que z −1 ∈ / σ (A). Como w(zA) ≤ w(A) ≤ 1, hRe(zA)x, xi = Re hzAx, xi ≤ | hzAx, xi | ≤ kxk2
para todo
x∈H.
Esto muestra que Re(I − zA) ≥ 0. Dado y ∈ H, tomando x = (I − zA)−1 y,
y, Re(I − zA)−1 y = Re y, (I − zA)−1 y = hRe(I − zA)x, xi ≥ 0 , as´ı que tambi´en Re(I − zA)−1 ≥ 0. La f´ormula (10.4) se deduce de las igualdades (I − zA)
−1
=
∞ X
n
n
z A
y
∞ X −1 ∗ (I − zA) = z n (A∗ )n ,
k=0
k=0
que valen para todo |z| < 1 (aunque kAk pueda ser mayor que 1) porque son ciertas para |z| < kAk−1 por la Prop. 10.3.1, y siguen valiendo hasta el mayor disco donde se pueda calcular la funci´on anal´ıtica z 7→ (I − zA)−1 , que sabemos que no es menos que |z| < 1 por lo visto en el item 2. Lema 10.3.3. Sea Sea T ∈ L(H) tal 2I T T 1 Zn = ... 2 2 0 0
que w(T ) ≤ 1. Entonces, para todo n ∈ N, T∗ 0 ... 0 2I T ∗ . . . 0 .. ∈ L(Hn+1 )+ . .. .. .. . . . . . . . T 2I T ∗ . . . 0 T 2I
Demostraci´on. Como w(T ) ≤ 1, por el Lema 10.3.2 sabemos que Re(I −zT )−1 ≥ 0 y tenemos la expresi´on en serie (10.4), para |z| < 1. Por lo tanto, si llamamos Q(r, θ) = Re(I −reiθ T )−1 , para r ∈ [0, 1) y θ ∈ [0, 2π], tenemos que ∞
Q(r, θ) = I +
1 X k ikθ k r e T + e−ikθ (T ∗ )k ≥ 0 . 2 k=1 286
Tomemos (h0 , . . . , hn ) ∈ H
n+1
. Si llamamos h(θ) =
n X
hs eis θ , tenemos que
s=0
Z 2π 1 0 ≤ h Q(r, θ) h(θ) , h(θ) i dθ 2π 0 n X 1 1 X s−j s−j r T hj , hs + khk k2 + = 2 0≤j<s≤n 2 k=0
X
rj−s (T ∗ )j−s hj , hs ,
0≤s<j≤n
pues s´olo sobreviven a la integral los t´erminos ei(k+j−s)θ T k hj , hs donde k + j − s = 0, y lo mismo para T ∗ . Como esto vale para todo r < 1, haciendo r → 1− obtenemos 0 ≤
n X
khk k2 +
k=0
* =
2I T .. .
1 2 n−1 T Tn
1 2
X
1 T s−j hj , hs + 2 0≤j<s≤n T ∗ (T ∗ )2 . . . 2I T∗ ... ... ... ... T 2I ... T2 T
(T ∗ )n (T ∗ )n−1 .. . T∗ 2I
X
(T ∗ )j−s hj , hs
0≤s<j≤n
h0 h1 .. . .. . hn
,
h0 h1 .. . .. . hn
Si llamamos Wn (T ) a la matriz de arriba (con el 1/2), cuentas elementales I T ∗ . . . (T ∗ )n I 0 ... .. .. I ... . . T 0 I Z (−T /2) 0 ≤ Wn (T ) = . . . n . .. ... .. .. . . . . . T ∗ Tn ... T 0 ... 0 I
+ . muestran 0 0 .. . . I
Como las matrices que conjugan son inversibles (triangulares con I’s en la diagonal), deducimos que Zn (−T /2) ≥ 0. Como w(−T ) = w(T ) ≤ 1, tambi´en Zn (T /2) ≥ 0, para todo n ∈ N. El siguiente resultado fu´e probado por T. Ando en [92]: Teorema 10.3.4 (Ando 1973). Sea A ∈ L(H). Son equivalentes: 1. w(A) ≤ 1. 2. Para todo θ ∈ [0, 2π) se tiene que Re(eiθ A) ≤ I. 3. Se cumple que Zn (A/2) ≥ 0 para todo n ∈ N (ver Def. 9.7.1). 4. Existe X ∈ L(H)+ tal que I A∗ /2 ≥0 A/2 X
y
SC 287
I A∗ /2 A/2 X
, H ⊕ {0}
=X .
+
5. Existe Y ∈ L(H) tal que
I −Y A/2
A∗ /2 Y
∈ L(H ⊕ H)+ .
6. Existen C ∈ L(H) e Y ∈ L(H)+ tales que Y ≤ I, kCk ≤ 2 7. Existe L ∈ A(H) tal que
y
(I − Y )1/2 C Y 1/2 = A .
I + L A∗ A I −L
∈ L(H ⊕ H)+ .
Demostraci´on. La equivalencia entre las condiciones 1 y 2 es bien f´acil. 1 → 3 Es el Lema 10.3.3. 3 ↔ 4 ↔ 5 Es el Teo. 9.7.3. 5 ↔ 6 Es el Teo. 9.2.7. I − Y A∗ /2 5 → 7 Supongamos que ≥ 0. Si llamamos L = I − 2Y ∈ A(H), se tiene que A/2 Y I + L = 2(I − Y ) y I − L = 2Y . Por lo tanto, I − Y A∗ /2 I + L A∗ =2 ≥0. A I −L A/2 Y
7 → 2 Dado x ∈ H, sea y = −eiθ x. Luego, si L cumple la condici´on 7 ,
2
x
−L −A x x iθ 2
, = 2 Re(e A) x, x . 2kxk = ∗
y ≥ y y −A L Luego Re(eiθ A) ≤ I.
(10.5)
Corolario 10.3.5. Dado A ∈ L(H), L A 2n w(A) = min max x, x : x ∈ C , kxk = 1 . A∗ −L L∈A(H) Demostraci´on. Se puede asumir que w(A) = 1, porque las dos cantidades dependen homog´eneamente de A. En ese caso, la igualdad se deduce de la f´ormula (10.5), con algunos retoques. Corolario 10.3.6. Sean A ∈ L(H)+ y B ∈ L(H). Son equivalentes: 1. Existe X ∈ L(H)+ tal que A B∗ A B∗ X 0 + ∈ L(H ⊕ H) y SC , H ⊕ {0} = . B X B X 0 0 288
2. Para todo n ∈ N, Zn (A, B) ∈ L(Hn+1 )+ . 1 . 2 Demostraci´on. En el Teo. 9.7.3 se muestra la equivalencia 1 ↔ 2. Llamemos A1/2 0 ... 0 0 A1/2 . . . 0 1/2 n + A(n) = .. .. = A ⊗ In ∈ L(H ) , n ∈ N . . . . . . . . . 0 ... 0 A1/2 3. Existe C ∈ L(H) tal que A1/2 CA1/2 = B y w(C) ≤
La relaci´on entre las condici´ones 2 y 3 se ve a trav´es de la f´ormula Zn (A, B) = A(n+1) Zn (C)A(n+1)
para todo
n∈N,
(10.6)
y el hecho de que Zn (C) ≥ 0 para todo n ∈ N si y s´olo si w(2 C) ≤ 1, por el Teo. 10.3.4. Esto muestra 3 → 2. Rec´ıprocamente, si Z1 (A, B) ≥ 0, el Teo. 9.2.7 dice que existe una contracci´on C ∈ L(H) tal que A1/2 CA1/2 = B, y la Ec. (10.6) tiene sentido. Si P ∈ L(H) es el proyector ortogonal sobre R(A1/2 ), entonces P CP sirve tanto como C. Luego podemos asumir que C = P CP . En tal caso, si Zn (A, B) ≥ 0, la Ec. (10.6) dice que hZn (C)y, yi ≥ 0 para y en un denso del subespacio invariante R(P ) n+1 , mientras que en (R(P )n+1 )⊥ = (ker A)n+1 , el operador Zn (C) actua como la identidad. Podemos concluir que Zn (C) ≥ 0, y por ende w(C) ≤ 1/2. Observaci´ on 10.3.7. Dado A ∈ L(H), w(A) ≤ 1 si y s´olo si existe un espacio se Hilbert K ⊇ H y U ∈ U(K) tal que, si P ∈ L(K) es la proyecci´on ortogonal sobre H, entonces An x = 2P U n x ,
para todo
x∈H
y
n∈N.
Esto es algo m´as dif´ıcil que lo anterior, pero puede deducirse de los Lemas 10.3.2 y 10.3.3 (en particular del hecho de que las matrices Wn (T ) sean positivas). Recientemente, Chi-Kwong Li y H. Woerdeman plantearon una conjetura que intenta generalizar estos resultados (en particular el Cor. 10.3.5), en t´erminos del k-´esimo radio num´erico ( k ) X wk (A) = sup |hAxj , xj i| : {x1 , . . . , xk } es un sistema ortonormal . j=1
Al parecer, la conjetura est´a a´ un sin resolver.
10.4
Comparaci´ on con NUI’s
Proposici´ on 10.4.1. Sea A ∈ L(H). Entonces 1 kAk ≤ w(A) ≤ kAk . 2 Adm´as, las constantes 1 y 1/2 son o´ptimas para la desigualdad anterior. 289
4
Demostraci´on. Tomemos partes real e imaginaria: A = Re A + i Im A. Luego w(A) ≤ kAk ≤ k Re Ak + k Im Ak = w(Re A) + w(Im A) ≤ 2 · w(A) , donde la u ´ltima desigualdad se deduce de que W (Re A) = {Re z : z ∈ W (A)}, por lo que w(Re A) ≤ w(A), y lo mismo para Im A. La optimalidad de las constantes 1 y 1/2 se ve tomando las matrices E11 y 2E21 . Proposici´ on 10.4.2 (Marcus-Sandy 1985). Sea A ∈ Mn (C). Entonces n
n
X 1X si (A) ≤ w(A) ≤ si (A) = kAk1 . n i=1 i=1 Adm´as, las constantes 1 y 1/n son ´optimas para la desigualdad anterior. Demostraci´on. Tomemos la descomposici´on polar A = U |A|, con U ∈ U(n). Conjugando con otra matriz unitaria (lo que no cambia ni w(A) ni kAk1 ), podemos suponer que que U es diagonal. Pongamos U = diag (w1 , . . . wn ), con |wi | = 1, i ∈ In . Veremos que, en este caso, n 1X si (A) es superado por alguno de los m´odulos de los elementos diagonales de el n´ umero n i=1 A. En efecto, si notamos {e1 , . . . , en } a la base can´onica de Cn , y llamamos P = |A|, dado k ∈ In tenemos que |Akk | = | hAek , ek i | = | hU P ek , ek i | = | hP ek , U ∗ ek i | = |wk hP ek , ek i | = |Pkk | = Pkk , donde la u ´ltima igualdad surge de que P ∈ Mn (C)+ . Por otra parte, n X
Pkk = tr P = tr |A| =
n X
si (A) .
i=1
k=1
Por ende, debe existir alg´ un k ∈ In tal que n
1X si (A) ≤ Pkk = | hAek , ek i | ≤ w(A) . n i=1 Para ver que las constantes 1 y 1/n son ´optimas, tomar las matrices E11 e I. 0 0 0 1 Definici´ on 10.4.3. Llamemos A = ∈ M2 (C) y V = ∈ U(2). Dado 2 0 1 0 n ∈ N, si n = 2m consideremos las matrices diagonales de bloques Cn = A ⊕ A ⊕ · · · ⊕ A =
m X
2E2k,2k−1 ∈ Mn (C)
y
k=1
Un = V ⊕ V ⊕ · · · ⊕ V =
m X
E2k,2k−1 + E2k−1,2k ∈ U(n) .
k=1
290
Si n = 2m + 1 e I1 denota a la “matriz” [ 1 ] ∈ M1 (C), Cn = A ⊕ · · · ⊕ A ⊕ I1 = En,n +
m X
2E2k,2k−1 ∈ Mn (C)
y
k=1
Un = V ⊕ · · · ⊕ V ⊕ I1 = En,n +
m X
E2k,2k−1 + E2k−1,2k ∈ U(n) .
k=1
Observar que, como w(A) = w(I1 ) = 1, la Ec. (10.3) asegura que w(Cn ) = 1 para todo n ∈ N. 4 Los resultados anteriores fueron usados por C.R. Johnson y C.K. Li [100] para calcular, para N una NUI fija en Mn (C), las mejores constantes m y M tales que m · N (T ) ≤ w(T ) ≤ M · N (T )
para todo
T ∈ Mn (C) .
Proposici´ on 10.4.4 (Johnson-Li 1988). Sea N una NUI en Mn (C). Luego N (Cn )−1 N (T ) ≤ w(T ) ≤ N (E11 )−1 N (T )
para toda
T ∈ Mn (C) .
Adem´as, las constantes N (Cn )−1 y N (E11 )−1 son ´optimas. Demostraci´on. Fijemos T ∈ Mn (C). Si T = 0, el resultado es claro. Si no, sea A = w(T )−1 T , que tiene w(A) = 1. Por las Proposiciones 10.4.1 y 10.4.2, si s(A) = (s1 , . . . , sn ), se tiene que n X sk . 1 ≤ s1 ≤ 2 y n ≥ k=1
Observar que s(E11 ) = e1 y s(Cn ) = vn , donde m X (2, . . . , 2, 0, . . . , 0) = 2ek k=1 vn = m X 2ek + em+1 (2, . . . , 2, 1, 0, . . . , 0) =
si
n = 2m (10.7)
si
n = 2m + 1 .
k=1
Por lo tanto, s(E11 ) ≺w s(A) ≺w s(Cn ). Como N es una NUI, el Teorema de Ky Fan (Teorema 3.3.8 del Libro 1) dice que que N (E11 ) ≤ N (A) =
N (T ) ≤ N (Cn ) . w(T )
Invirtiendo y multiplicando por N (T ), se obtienen las desigualdades buscadas. Tomando T = Cn y T = E11 y observando que w(Cn ) = w(E11 ) = 1, podemos deducir que las constantes dadas son o´ptimas. 291
Proposici´ on 10.4.5. Sea N es una NUI en Mn (C). Entonces w(T ) ≤ N (T ) , ∀ T ∈ Mn (C)
=⇒
kT ksp ≤ N (T ) , ∀ T ∈ Mn (C) .
Demostraci´on. Observar que kT ksp = k |T | ksp = w(|T |) ≤ N (|T |) = N (T ).
El siguiente teorema es el contenido del paper de T. Ando [93]: Teorema 10.4.6 (Ando 2005). Si definimos la norma kT ksp kT k1 N0 (T ) = max , para 2 n
T ∈ Mn (C) ,
se tiene que 1. N0 es una NUI. 2. N0 (T ) ≤ w(T ) para todo T ∈ Mn (C). 3. N0 es la mayor NUI en Mn (C) tal que N (T ) ≤ w(T ) para todo T ∈ Mn (C). Es decir, si N es una NUI en Mn (C), N (T ) ≤ w(T ) , ∀ T ∈ Mn (C)
=⇒
N (T ) ≤ N0 (T ) , ∀ T ∈ Mn (C) .
Demostraci´on. Los dos primeros items son claros de lo anterior. Fijemos T ∈ Mn (C). Como la desigualdad a probar es entre normas unitariamente invariantes, podemos asumir que T = Σ(T ) = diag (s1 (T ), . . . , sn (T )). M´as a´ un, supongamos que N0 (T ) = max
n o n s (T ) 1 X 1 , si (T ) = 1 . 2 n i=1
En este caso deber´ıamos probar que N (T ) ≤ 1. Las desigualdades resultantes de la igualdad anterior implican que s(T ) ≺w vn , donde vn es el vector definido en la Ec. (10.7). Tomemos Cn y Un las matrices de la Def. 10.4.3. Notar que Un Cn = Bn , donde Bn = diag (2, 0, 2, 0, . . . , 2, 0)
o bien
Bn = diag (2, 0, 2, 0, . . . , 2, 0, 1) .
Observar que s(B) = vn . Luego, como s(T ) ≺w vn = s(Bn ) y N es una NUI, el Teorema de Ky Fan (Teorema 3.3.8 del Libro 1) nos dice que que N (T ) ≤ N (Bn ), con lo que bastar´ıa probar que N (Bn ) ≤ 1. Por otra parte, en la Def. 10.4.3 se ve que w(Cn ) = 1 para todo n ∈ N. Como U ∈ U(n) y N es una NUI, tenemos que N (T ) ≤ N (Bn ) = N (Un Cn ) = N (Cn ) ≤ w(Cn ) = 1 = N0 (T ) . Observar que reci´en al final usamos la hip´otesis sobre N .
292
Cap´ıtulo 11 Normas unitariamente invariantes para operadores compactos Sea H un espacio de Hilbert separable, y L(H) el a´lgebra de operadores lineales acotados que operan en en H. Denotaremos por • L0 (H) al ideal de operadores compactos, • Gl (H) al grupo de operadores invertibles, • A(H) al subespacio (real) de operadores heritianos, • L(H)+ al conjunto de operadores semidefinidos positivos (de ahora en m´as, llamaremos positivos a estos operadores), • U(H) al grupo unitario, y • Gl(H)+ = L(H)+ ∩ Gl (H) al conjunto de operdores definidos positivos (o sea positivos e invertibles). Dado A ∈ L(H), R(A) denota la imagen de A, ker A el n´ ucleo de A, σ(A) = {λ ∈ C : a − λI ∈ / Gl (H)} el espectro de A, A∗ el adjunto de A, |A| = (A∗ A)1/2 el m´odulo de A, ρ(A) el radio espectral A, y kAk notma de A en L(H). Dado un subespacio cerrado S de H, notaremos por PS a la proyecci´on ortogonal sobre S. Cuando dim H = n < ∞ identificaremos H con Cn , L(H) con Mn (C), y usaremos las siguientes notaciones: H(n) por A(H), Mn (C)+ por L(H)+ , U(n) por U(H), y Gl (n) por Gl (H).
293
11.1
Normas unitariamente invariantes
Una norma |k · |k en Mn (C) era unitariamente invariante si |kU AU ∗ |k = |kA |k para toda A ∈ Mn (C) y U ∈ U(n). La noci´on de norma unitariamente invariante puede extenderse a operadores en espacios de Hilbert. Para verlo, empecemos con algunas definiciones b´asicas: Sea A ∈ L0 (H). Luego tambi´en |A| ∈ L0 (H). Notaremos por s(A) = (sk (A))k∈N a la sucesi´on de autovalores de |A|, tomados con multiplicidad y en orden decreciente. Si dim R(A) = n < ∞, pondremos sk (A) = 0 para k > n. Los n´ umeros sk (A) se llaman tambi´en valores singulares de A. Notar que, por el Teorema espectral para operadores compactos, existe un sistema ortonormal {xn }n∈N de autovectores de |A| asociados a la sucesi´on s(A). Si notamos A = U |A| la descomposici´on polar de A, entonces U es isom´etrico en R(|A|). Luego el sistema {yn }n∈N = {U xn }n∈N es tambi´en ortonormal. Para ellos vale una versi´on infinitodimensional de la descomposici´on en valores singulares: X X A = U |A| = U sn (A) xn ⊗ xn = sn (A) yn ⊗ xn . n∈N
n∈N
En otras palabras, Az =
X
sn (A)hz, xn iyn ,
z∈H.
n∈N
Pm Observar que los operadores Am = n=1 sn (A) yn ⊗ xn tienen rango finito, puesto que s(Am ) = (s1 (A), . . . , sm (A), 0, . . . ). Pero tienen la interesante propiedad de que s(A − Am ) = (sm+1 (A), sm+2 (A), . . . ) ,
m∈N.
(11.1)
Repaso de matrices Recordemos los siguientes nociones y resultados de matrices (ver cap´ıtulo 3 del Libro I): Definici´ on 11.1.1. Una norma |k · |k en Mn (C) se dice que es una norma unitariamente invariante (NUI) , si cumple que |kU AV |k = |kA |k para toda A ∈ Mn (C) y U, V ∈ U(n). Notar que, en tal caso, |kA |k = |kΣ(A) |k.
4
Definici´ on 11.1.2. Dada una norma N (·) unitariamente invariante, se define la funci´on n gN : R → R como gN (x1 , . . . , xn ) = N (diag (x1 , . . . , xn )). 4 Proposici´ on 11.1.3. Sea N una NUI. Entonces: 1. gN es una norma en Rn . 2. gN (x1 , . . . , xn ) = gN (|x1 |, . . . , |xn |). 3. gN (x1 , . . . , xn ) = gN (xσ(1) , . . . , xσ(n) ). 294
Observaci´ on 11.1.4. Una funci´on f : Rn → R que cumple los ´ıtems 1, 2 y 3 de la Proposici´on anterior se denomina gauge sim´ etrica. 4 Proposici´ on 11.1.5. Si g es una funci´on gauge simetrica, entonces, g es mon´otona, es decir, si |xi | ≤ |yi | para todo i ∈ {1, . . . , n}, entonces, g(x) ≤ g(y).
Sucesiones de n´ umeros Denotaremos C0 al conjunto de sucesiones complejas a = (an )n∈N tales que an −−−→ 0. n→∞ Consideremos CF ⊆ C0 , el conjunto de sucesiones a ∈ C0 con finitas entradas no nulas. Dada a ∈ C0 , notaremos |a| = (|an |)n∈N ∈ C0 . Para cada n ∈ N, llamaremos Pn : C0 → CF a la funci´on dada por Pn (a) = (a1 , . . . , an , 0, . . . ). En forma similar a las nociones definidas en el caso finitodimensional en la Proposici´on 11.1.3, definiremos funciones gauge sim´etricas en CF y C0 , y normas unitariamente invariantes en L0 (H): Definici´ on 11.1.6. 1. Una funci´on gauge sim´etrica (o norma sim´etrica) es una funci´on g : CF → R que verifica las siguientes condiciones: • g es una norma en CF . • g(a) = g(|a|) para todo a ∈ CF , y • g es invariante por permutaciones. Decimos que g est´a normalizada si g(e1 ) = 1. 2. Si g es una norma sim´etrica, se tiene que, para toda a ∈ C0 , la sucesi´on g(Pn (a)) is creciente. Redefinimos g : C0 → R+ ∪ {∞}
v´ıa
g(a) = lim g(Pn (a)) . n→∞
A partir de ahora, llamaremos normas sim´etricas a estas extensiones a C0 . Como en la Prop. 11.1.5, puede verse que las normas sim´etricas son mon´otonas, i.e., g(|a|) ≤ g(|b|) si a, b ∈ C0 verifican que |ak | ≤ |bk | para todo k ∈ N. 3. Una norma unitariamente invariante in L0 (H) es una funci´on |k · |k : L0 (H) → R+ ∪ {∞} ,
dada por
|kA |k = g(s(A) ), A ∈ L0 (H) ,
donde g es una norma sim´etrica en C0 . La norma se dice normalizada if g lo est´a. 4 Observaci´ on 11.1.7. Se sabe (ver, por ejemplo, el libro de Simon [109]) que, si I = {A ∈ L0 (H) : |kA |k < ∞} , 295
entonces
1. Para todo ε > 0 y T ∈ I, existe un operador de rango finito S (i.e., dim R(S) < ∞) tal que |kT − S |k < ε. En efecto, basta encontrar, para cada n ∈ N, operadores Sn tales que s(Sn ) = Pn (s(T )) y s(T − Sn ) = (sn+1 (T ), sn+2 (T ), . . . ). Tales operadores se pueden obtener aplicando las observaciones anteriores a la f´ormula (11.1). Este hecho es clave, porque con los resultados conocidos para matrices, uno puede deducir las siguientes propiedades: 2. Si A ∈ L(H) tiene rango finito, luego A ∈ I, ya que s(A) ∈ CF . Si dim R(A) = 1, entonces |kA |k = s1 (A)g(e1 ) = g(e1 )kAk. 3. Dados A ∈ L0 (H) y B ∈ I tales que def
kAk(k) =
k X
sj (A) ≤
j=1
k X
sj (B) = kBk(k)
para todo
k ∈ N,
j=1
entonces A ∈ I y |kA |k ≤ |kB |k. 4. Para cualrquier A ∈ I y cualquier proyecci´on P ∈ L(H), se tiene que |kP AP |k ≤ |kP AP + (I − P )A(I − P ) |k ≤ |kA |k . 5. I es un ideal autoadjunto de L(H). M´as a´ un, si B ∈ I, luego |kB |k = |kB ∗ |k, y |kAB |k ≤ kAk |kB |k
para todo
A ∈ L(H) .
6. (I, |k · |k) es un espacio de Banach. En particular, |k · |k es una norma en I. The most known examples of norma unitariamente invariante s are the Schatten p-norms defined by |kA |kp = tr(|A|p )1/p , for 1 ≤ p ≤ ∞, and the Ky-Fan norms k · k(k) , k ∈ N. The usual norm, which coincides with k · k(1) y |k · |k∞ when restricted to L0 (H), is also unitary invariant. 4 Proposici´ on 11.1.8. Let N be an norma unitariamente invariante |k · |k on an ideal I ⊆ L(H). Let {PF }F ∈F be a increasing net of projections in L(H)+ which converges strongly to the identity. Then N (PF T PF ) −−−→ N (T ) F ∈F
para todo
T ∈I .
Demostraci´on. By Remark 11.1.7, para todo ε > 0, there exists a finite rank operator S tal que N (T − S) < ε. On the other hand, para todo A ∈ I y every projecci´on P ∈ L(H), it holds that N (P AP ) ≤ N (A). In particular, N (PF (T − S)PF ) < ε para todo F ∈ F. Hence, we can assume that dim R(T ) = n < ∞. En tal caso, also dim R(PF T PF ) ≤ n, F ∈ F. entonces sm (T ) = sm (PF T PF ) = 0 para todo m > n y F ∈ F. The symmetric norm g associated with N is a norm on Rn (completing the n-tuples with zeros) and, in Rn , all norms are equivalent. Hence, in order to show the 296
Proposition, it suffices to verify that sk (PF T PF ) −−−→ sk (T ) para todo 1 ≤ k ≤ n. It is F ∈F
known (see [94] III.6.6) that, para todo k ∈ N, kT k(k) =
k X j=1
k X sj (T ) = max hT xj , yj i j=1
,
where the maximum is taken over all orthonormal systems {x1 , . . . , xk }, {y1 , . . . , yk } in H. Note that hPF T PF x, yi = hT PF x, PF yi −−−→ hT x, yi para todo x, y ∈ H. On the other F ∈F
hand, by Remark 11.1.7, the net kPF T PF k(k) is increasing, because the norm k · k(k is unitary invariant, and PG T PG = PG (PF T PF )PG , for F, G ∈ F, G ≤ F . So, we can deduce that kPF T PF k(k) −−−→ kT k(k) para todo k ∈ N. Por lo tanto F ∈F
sk (PF T PF ) = kPF T PF k(k) − kPF T PF k(k−1) −−−→ kT k(k) − kT k(k−1) = sk (T ), F ∈F
para todo 1 ≤ k ≤ n.
Observaci´ on 11.1.9. Let |k · |k be a unitary invariant norm defined on a norm ideal I ⊆ L(H). The space L(H ⊕ H) can be identified with the algebra of block 2 × 2 matrices with entries in L(H), denoted by L(H)2×2 . Denote by I2 the ideal of L(H⊕H) associated with the same norm |k · |k (i.e., by using the same symmetric norm g). Then, the following properties are esasy to see: 1. Let A ∈ L0 (H), y define A1 ∈ L0 (H ⊕ H) as any of the following matrices 0 A 0 0 A1 = or . 0 0 0 A Then s(A1 ) = s(A), |kA1 |k = |kA |k, y A1 ∈ I2 si y s´olo si A ∈ I. 2. Under the mentioned identification, I2 = I
297
2×2
.
4
Cap´ıtulo 12 Productos escalares torcidos 12.1
Proyectores A-autoadjuntos y compatibilidad
Cada A ∈ L(H)+ produce una forma sesquilineal acotada (y no negativa) h ,
iA : H × H → C
dada por
hξ, ηiA = hAξ, ηi ,
ξ, η ∈ H .
Este semiproducto escalar induce la noci´on de A-orthogonalidad. Es f´acil ver que el subespacio A-orthogonal de un S v H es S ⊥A = {ξ : hAξ, ηi = 0 ∀η ∈ S } = A−1 (S ⊥ ) = A(S)⊥ . def
Dado T ∈ L(H), un operador W ∈ L(H) es un A-adjunto de T si hT ξ, ηiA = hξ, W ηiA ,
ξ, η ∈ H .
Puede verificarse inmediatamente que esto equivale a que T ∗ A = AW . Por el Teo. 9.1.1, la existencia de un A-adjunto para T equivale a que R(T ∗ A) ⊆ R(A). Ejercicio 12.1.1. Sean A ∈ L(H)+ y Q ∈ L(H) un proyector (i.e. Q2 = Q). Entonces Q tiene un A-adjunto si y s´olo si R(A) = R(A) ∩ N (Q∗ ) ⊕ R(A) ∩ R(Q∗ ) = R(A) ∩ N (Q)⊥ ⊕ R(A) ∩ R(Q)⊥ .
(12.1)
Observar que esto es bastante restrictivo, dado que solo permite adjuntar descomposiciones de H asociadas (v´ıa tomar ortogonales) a otras que tambi´en descompongan al R(A). 4 El Ejercicio anterior muestra que en general un T ∈ L(H) puede no tener A-adjuntos. Por otro lado, si N (A) 6= {0}, puede suceder que un T ∈ L(H) tengo muchos A-adjuntos. No seguiremos con este tema, porque nos concentraremos en las proyecciones A-autoadjuntas. Antes de empezar a desarrollar la teor´ıa, comentaremos que la mayor parte de los resultados de este Cap´ıtulo pueden generalizarse al caso en que A = A∗ pero no es positivo. En algunos casos se puede hacer en forma directa, e otros es bastante m´as dif´ıcil que el caso A ∈ L(H)+ . Sobre este tema se investiga actualmente, utilizando recursos de la teor´ıa de espacios de Krein. Sin embargo, en este trabajo nos restrigiremos al caso positivo, dejando algunas generalizaciones para los ejercicios. 298
Definici´ on 12.1.2. Dado un espacio de Hilbert H, llamaremos Q = Q(H) = {Q ∈ L(H) : Q2 = Q}
y
P = P(H) = {P ∈ Q : P ∗ = P }
a los conjuntos de proyecciones (obicuas) y de proyecciones ortogonales. Fijado S v H, llamaremos I X S ⊥ QS = {Q ∈ Q : R(Q) = S} = Q = : X ∈ L(S , S) , 0 0 S⊥ a la variedad af´ın de proyectores sobre S. Observar que QS ∩ P = {PS }.
4
Definici´ on 12.1.3. Dado A ∈ L(H)+ , llamaremos PA = {Q ∈ Q : Q∗ A = AQ} , al conjunto de proyectores A-autoadjuntos. Para cada S v H, notaremos P(A, S) = QS ∩ PA = {Q ∈ Q : R(Q) = S, AQ = Q∗ A} a la clase de proyectores A-autoadjuntos con rango S, que ser´an nuestro principal objeto de estudio en este cap´ıtulo. Diremos que el par (A, S) es compatible si P(A, S) 6= ∅. 4 En los siguientes cap´ıtulos tenderemos que hacer muchas cuentas con subespacios: sumas, restas, contraim´agenes, sus ortogonales, y otras yerbas. Muchas de esas cuentas son elementales (hay que probar las dos inclusiones, y salen), pero como esos pasos se mezclan con otras cuentas y a veces las notaciones confunden, agregaremos ahora un ejercicio para ir familiariz´andose con (y en lo posible memorizando) el tipo de igualdades que luego usaremos hasta el cansancio: Ejercicios 12.1.4. Sean S, T , M v H. Recordemos que se usa la notaci´on S T = S ∩ (S ∩ T )⊥ . 1. Cuidado: en general no vale que S T = S ∩ T ⊥ (buscar ejemplo). ⊥ ⊥ 2. S + T = S ⊥ ∩ T ⊥ mientras que S ∩ T = c l S⊥ + T ⊥ . 3. Si S ⊕ T = H, entonces no siempre vale que (M ∩ S) ⊕ (M ∩ T )
d´e todo
M.
Pero la igualdad s´ı vale cuando S ⊆ M o T ⊆ M. 4. Si S ∩ T = {0}, S + T v H y adem´as T ⊆ M, entonces S ⊕T ∩M= S ∩M ⊕T .
299
5. Supongamos que S ⊆ T ⊥ , y nos preguntamos c´omo calcular S ⊥ T M. En general es un bolonqui. Pero se tiene que, si tambi´en M ⊆ T ⊥ , entonces S ⊥ T ∩ M = S ∩ M =⇒ S ⊥ T M = S M ⊥ T . 6. Dado Q ∈ Q , se tiene que Q−1 (S) = N (Q) ⊕ R(Q) ∩ S . 7. Dados A ∈ L(H) y Q ∈ Q , tenemos que ker AQ = N (Q) ⊕ R(Q) ∩ ker A .
4
La herramienta escencial que usaremos para estudiar la compatibilidad, y por lo tanto para exhibir proyectores adecuados, ser´a el Teorema de Douglas 9.1.1. Veremos a continuaci´on una versi´on particular de dicho Teorema, que involucra (y produce) proyectores oblicuos: Lema 12.1.5. Sean A ∈ L(H) y Q ∈ Q con R(Q) = S y ker Q = T . Entonces 1. R(QA) ⊆ R(A) si y s´olo si R(A) = R(A) ∩ S ⊕ R(A) ∩ T . 2. En tal caso, si D ∈ L(H) es la SR de la ecuaci´on AX = QA, entonces tambi´en D ∈ Q. Adem´as, se tiene que R(D) = A−1 (S) ker A y ker D = A−1 (T ) . Demostraci´on. 1. Si R(QA) ⊆ R(A), entonces R(QA) ⊆ R(A) ∩ S. Entonces, si ξ ∈ R(A), nos sale que ξ − Qξ ∈ R(I − Q) ∩ R(A) = R(A) ∩ T . La rec´ıproca es obvia. 2. Obervar que AD2 = QAD = Q2 A = QA. Encima vale que R(D2 ) ⊆ R(D) ⊆ (ker A)⊥ . Entonces D2 es tambi´en una SR de la ecuaci´on AX = QA. Por la unicidad que asegura el Teo. 9.1.1, tiene que valer que D2 = D, i.e. D ∈ Q. Su ucleo se calculan rango y n´ −1 usando el item 1, dado que ker D = ker QA y A A (S) = R(A) ∩ S. El problema que trataremos en principio, ser´a el de dar caracterizaciones de la compatibilidad de un par (A, S), y de describir y calcular a los elementos de P(A, S), si es que hay. Antes de ello, daremos la siguiente caracterizaci´on de los elementos de PA , muy similar al caso usual (A = I): Proposici´ on 12.1.6. Sean A ∈ L(H)+ y Q ∈ Q. Entonces las siguientes condiciones son equivalentes: 1. Q ∈ PA , o sea que Q∗ A = AQ. 2. ker Q ⊆ R(Q)⊥A . 300
3. Q es una A-contracci´on, i.e. hQξ, QξiA ≤ hξ, ξiA para todo ξ ∈ H. Demostraci´on. Llamemos S = R(Q). Recordar que R(Q)⊥A = A−1 (S ⊥ ). 1 → 2: Si Q ∈ PA , para todo par ξ, η ∈ H se tiene que hAη, Qξi = hQ∗ Aη, ξi = hAQη, ξi = hQη, Aξi .
(12.2)
Entonces Qξ = 0 implica que Aξ ∈ S ⊥ (porque η es cualquiera), por lo que ker Q ⊆ A−1 (S ⊥ ). 2 → 3: Supongamos que ker Q ⊆ A−1 (S ⊥ ). Dado ξ ∈ H, escribamos ξ =η+ρ ,
donde
η = Qξ ∈ S
y
ρ = (I − Q)ξ ∈ ker Q ⊆ A−1 (S ⊥ ) .
Entonces hAρ, ηi = hρ, Aηi = 0 y nos queda que hAξ, ξi = hAη, ηi + hAρ, ρi ≥ hAη, ηi = hQ∗ AQ ξ, ξi =⇒ Q∗ AQ ≤ A . Finalmente, observar que la condici´on 3 es equivalente a que Q∗ AQ ≤ A. 3 → 1: Supongamos que Q∗ AQ ≤ A. Por el Teo. 9.1.1, si D es la SR de la ecuaci´on A1/2 X = Q∗ A1/2 , se tiene que kDk ≤ 1 y, por el Lema 12.1.5, que D2 = D. Ambas condiciones aseguran que D∗ = D, o sea D ∈ P. Pero como Q∗ A = A1/2 DA1/2 , podemos concluir que Q∗ A = AQ. Corolario 12.1.7. Sean A ∈ L(H)+ y S v H. Entonces las siguientes condiciones son equivalentes: 1. El par (A, S) es compatible. 2. S + S ⊥A = S + A−1 (S ⊥ ) = H. Demostraci´on. Por la Prop. 12.1.6, si Q ∈ P(A, S), entonces ker Q ⊆ S ⊥A . Luego H = R(Q) ⊕ ker Q ⊆ S + S ⊥A . Por otra parte, si S + S ⊥A = H, entonces debe existir alg´ un Q ∈ QS tal que N (Q) ⊆ S ⊥A . Por la Prop. 12.1.6, un tal Q ∈ P(A, S).
12.2
Caracterizaciones de la compatibilidad
Ahora veremos caracterizaciones de la compatibilidad en t´erminos de la matriz de A. Antes fijemos las notaciones: Sean A ∈ L(H)+ y S v H. Llamaremos P = PS y escribiremos la representaci´on matricial de A con las letras a b S A= . ∗ b c S⊥ 301
Proposici´ on 12.2.1. Sean A ∈ L(H)+ y S v H. Entonces las siguientes condiciones son equivalentes: 1. El par (A, S) es compatible. 2. R(P A) = R(P AP ) o, equivalentemente, R(b) ⊆ R(a). 3. La ecuaci´on ax = b tiene soluci´on. En tal caso, todo Q ∈ P(A, S) tiene la forma Q =
I y 0 0
S , donde ay = b. S⊥
Demostraci´on. Recordar que, salvo tres ceros, a = P AP y b = P A(1 − P ). 2 ↔ 3: Aplicar el Teo. 9.1.1 y observar que R(P A) = R(a) + R(b). ⊥
⊥
1 ↔ 3: Pensemos que a ∈ L(S) y b ∈ L(S , S). Si y ∈ L(S , S) sea Q =
I y 0 0
∈ PS .
Entonces AQ =
a b b∗ c
I y 0 0
=
a ay b∗ b∗ y
y
∗
∗
Q A = (AQ) =
a b ∗ y a y∗b
.
Pero las tres igualdades resultantes a que AQ = Q∗ A (o sea que Q ∈ P(A, S) ) equivalen a que ay = b (porque en tal caso y ∗ b = y ∗ ay ≥ 0). Ejemplo 12.2.2. Sea A ∈ L(H)+ y consideremos 1/2 1/2 A A1/2 A 0 A I = M= ∈ L(H ⊕ H)+ . I 0 0 0 A1/2 I Si S = H ⊕ {0}, la Prop. 9.2.1 nos asegura que el par (M, S) es compatible si y s´olo si R(A) v H. 4 Observaci´ on 12.2.3. Sean A ∈ L(H)+ , S v H y P = PS . Entonces
a b 1. Si R(P AP ) v H, el par (A, S) es compatible. En efecto, si A = , por la b∗ c Prop. 9.2.3 se tiene que R(b) ⊆ R(a1/2 ). Pero como R(P AP ) = R(a) v H, entonces R(a1/2 ) = R(a). Por la Prop. 12.2.1, (A, S) es compatible. En particular: 2. Si dim H < ∞, entonces todo par (A, S) es compatible. 3. Idem si dim S < ∞. 4. Si A ∈ Gl(H)+ , sabemos que R(P AP ) = S, por lo que seguro (A, S) es compatible. En este caso, la u ´nica proyecci´on PA,S sobre S que es A-autoadjunta est´a determinada por las siguientes f´ormulas (ver [110]) !−1 −1 I a b PA,S = = P (1+P −A−1 P A)−1 = P AP +(1−P )A(1−P ) P A. (12.3) 0 0 302
Cabe observar que, es este caso, (H, h·, ·iA ) es un espacio de Hilbert isomorfo al H normal (el producto interno nuevo es equivalente al viejo). Por ello no debe sorprender que haya siempre un u ´nico projector ortogonal sobre cada subespacio cerrado S (y que los subespacios cerrados sean los mismos). 4 Definici´ Sean A ∈ L(H)+ , S v H y P = PS tales que (A, S) es compatible. on 12.2.4. a b Si A = , sea d ∈ L(S ⊥ , S) la SR de la ecuacui´on ax = b. Fijaremos entonces al b∗ c proyector PA,S ∈ P(A, S) dado por 1 d S def PA,S = . 0 0 S⊥ Teorema 12.2.5. Sean A ∈ L(H)+ , S v H y P = PS tales que (A, S) es compatible. Notaremos N = A−1 (S ⊥ ) ∩ S = S ⊥A ∩ S. Entonces se tiene que: 1. N = ker a = ker A ∩ S. 2. PA,S ∈ P(A, S) y N (PA,S ) = A−1 (S ⊥ ) N . 3. P(A, S) tiene un s´olo elemento (que ser´a PA,S ) si y s´olo si si y s´olo si N = {0} si y s´olo si S ⊕ A−1 (S ⊥ ) = H. 4. P(A, S) es una variedad af´ın y puede parametrizarse a trav´es de P(A, S) = PA,S + L(S ⊥ , N ) , donde pensamos a L(S ⊥ , N ) como un subespacio de L(H). Una versi´on matricial de esta parametrizaci´on ser´ıa: 1 0 d S N P(A, S) 3 Q = PA,S + z = 0 1 z N , para z ∈ L(S ⊥ , N ) , (12.4) 0 0 0 S⊥ con las notaciones de la Def. 12.2.4. 5. PA,S tiene norma m´ınima en P(A, S): kPA,S k = min{ kQk : Q ∈ P(A, S)} .
(12.5)
Sin embargo, PA,S no es en general el u ´nico Q ∈ P(A, S) que realiza la norma m´ınima. Demostraci´on. 1. Sea ξ ∈ S. Luego Aξ = aξ + b∗ ξ. Recordemos que aξ ∈ S y b∗ ξ ∈ S ⊥ . Por tanto, Aξ ∈ S ⊥ si y s´olo si ξ ∈ ker a. Por otro lado, si ξ ∈ N , entonces kA1/2 ξk = hAξ, ξikA1/2 ξk = 0 . Por ello Aξ = 0. Es evidente que ker A ⊆ A−1 (S ⊥ ), asi que tenemos demostrada la igualdad N = ker a = ker A ∩ S. 303
2. Como ya vimos, PA,S ∈ P(A, S) por la Prop. 12.2.1. Adem´as, por la Prop. 12.1.6, ker PA,S ⊆ A−1 (S ⊥ ). Pero como S ⊕ (A−1 (S ⊥ ) N ) = H, bastar´ıa ver que ker PA,S ⊆ N ⊥ . Sea ξ ∈ ker PA,S y pongamos ξ = ξ1 + ξ2 , con ξ1 ∈ S y ξ2 ∈ S ⊥ . Entonces 0 = PA,S ξ = ξ1 + dξ2 . Ahora pordemos ver que η ∈ N =⇒ hξ, ηi = hξ1 , ηi = −hdξ2 , ηi = 0 , porque R(d) ⊆ R(a) = (ker a)⊥ = N ⊥ , por ser d la SR de ax = b. 3. Por la Prop. 12.1.6, si Q ∈ QS , Q ∈ P(A, S) si y s´olo si ker Q ⊆ A−1 (S ⊥ ). 4. Tenemos que ver que cada Q ∈ P(A, S) se escribe en forma u ´nica como Q = PA,S + z , con z ∈ L(S ⊥ , N ). a b 1 y Si A = ,Q= con y ∈ L(S ⊥ , S) y si d ∈ L(S ⊥ , S) es la SR de la b∗ c 0 0 ecuaci´on ax = b, entonces Q ∈ P(A, S)
⇐⇒
⇐⇒
ay = b
a(y − d) = 0 .
Por lo tanto, si z = y − d ∈ L(S ⊥ , S), entonces Q ∈ P(A, S)
⇐⇒
Q = PA,S + z
y
R(z) ⊆ ker a = N .
Con respecto a la representaci´on matricial, observar que el Teo. 9.1.1 asegura que R(d) ⊆ R(a) = (ker a)⊥ ∩ S = S N . 5. Si Q ∈ P(A, S) tiene la matriz de la Ec. (12.4), entonces
0 0 d 2
0 0 z = 1 + kd∗ d + z ∗ zk2 ≥ 1 + kd∗ dk2 = 1 + kdk2 = kPA,S k2 . kQk2 = 1 +
0 0 0 Veamos un ejemplo donde no es la u ´nica: Sea d ∈ L(S ⊥ , S) tal que kdk = 1 , Entonces la matriz
R(d) = R(d) 6= S
A=
PR(d) d d∗ 1
≥
y
dd∗ d d∗ 1
ker d 6= {0} . ≥0.
Tenemos que N = ker A ∩ S = S R(d) y que d es la SR de PR(d) x = d. Sea z ∈ L(ker d, N ) tal que 0 < kzk ≤ √ 1. Entonces Q = PA,S + z como en (12.4) cumple que Q ∈ P(A, S), kQk = kPA,S k = 2 y Q 6= PA,S . 304
12.3
Complementos de Schur
Recordemos que, si A ∈ L(H)+ y S v H, entonces el Teo. 9.5.6 dice que SC A , S ⊥ = inf{R∗ AR : R ∈ Q, ker R = S } . En general el ´ınfimo no es un m´ınimo. Por otro lado, por el Cor. 9.4.2, 1/2 ) = R(A1/2 ) ∩ S ⊥ . R(A) ∩ S ⊥ ⊆ R(SC A , S ⊥ ) ⊆ R(SC A , S ⊥ Aqu´ı, la primera inclusi´on puede ser estricta. Veremos que lo que no pasa en general s´ı pasa cuando el par (A, S) es compatible: Proposici´ on 12.3.1. Sean A ∈ L(H)+ y S v H tales que (A, S) es compatible. Sea E ∈ P(A, S) y notemos Q = 1 − E. Entonces 1. SC A , S ⊥ = AQ = Q∗ AQ. 2. SC A , S ⊥ = min{R∗ AR : R ∈ Q, ker R = S} y el m´ınimo se alcanza en esos Q. 3. R(SC A , S ⊥ ) = R(A) ∩ S ⊥ . 4. ker SC A , S ⊥ = ker A + S. Demostraci´on. 1. En principio, podemos ver que 0 ≤ AQ = Q∗ AQ ≤ A, por la Prop. 12.1.6, y adem´as R(AQ) = R(Q∗ A) ⊆ R(Q∗ ) = ker Q⊥ = S ⊥ . Esto dice que AQ ∈ M(A, S ⊥ ), el conjunto definido en (9.3), de quien SC A , S ⊥ es el m´aximo. Por otro lado, dado X ∈ M(A, S ⊥ ), como ker Q = S, tenemos que 0 y S 0 0 S =⇒ XQ = X = Q∗ X . y Q=I −E = X= ⊥ ⊥ 0 x S 0 I S Por lo tanto, X = Q∗ XQ ≤ Q∗ AQ = AQ. 2. Por el item 1, Q∗ AQ = SC A , S ⊥ y ker Q = S. Entonces el m´ınimo se alcanza en Q por el Teo. 9.5.6. 3. Notar que SC A , S ⊥ = AQ implica que R(SC A , S ⊥ ) ⊆ R(A) ∩ S ⊥ . La otra inclusi´on vale siempre por el Cor. 9.4.2 4. Como Q es un proyector y ker Q = S, se ve f´acilmente que ker SC A , S ⊥ = ker AQ = ker Q ⊕ R(Q) ∩ ker A ⊆ S + ker A . La otra inclusi´on vale siempre por la Prop. 9.4.4. 305
Corolario 12.3.2. Sean A ∈ L(H)+ y S v H. Entonces las siguientes condiciones son equivalentes: 1. El par (A, S) es compatible. 2. El conjunto {S ∗ AS : S ∈ Q, ker S = S} alcanza el m´ınimo en alguna proyecci´on R. 3. Existe R ∈ Q tal que ker R = S y R∗ AR ≤ A. Demostraci´on. 1 → 2: Aplicar la Prop. 12.3.1. 2 → 3: Se deduce del Teo. 9.5.6. 3 → 1: Por la Prop. 12.1.6, cualquier R ∈ Q tal que R∗ AR ≤ A cumple que AR = R∗ A. Si tambi´en ker R = S, entonces 1 − R ∈ P(A, S) Observaci´ on 12.3.3. Reci´en vimos que una condici´on semejante al item 2 de la Prop. 12.3.1 es suficiente para que valga la compatibilidad. Observar que tal condici´on dice que el operador SC A , S ⊥ tiene una buena conducta en t´erminos de su computabilidad. A continuaci´on mostraremos que juntando los items 3 y 4, que tambien hablan de buenas porpiedades del operador shorted, conseguimos otra caracterizaci´on de la compatibilidad. Pero antes veamos un resultado intermedio, que es interesante en s´ı mismo. 4 Lema 12.3.4. Sean A ∈ L(H)+ y S v H tales que R SC A , S ⊥ ⊆ R(A). Denotemos ⊥ ker SC A , S = T . Entonces 1. SC A , T ⊥ = SC A , S ⊥ . 2. El par (A, T ) es compatible. Demostraci´on. Observar que SC A , T ⊥ ≤ SC A , S ⊥ por la Prop. 9.3.3, ya que T ⊥ = R SC (A , S ⊥ ) ⊆ S ⊥ . ⊥ Pero esto mismo dice que SC A , S ∈ M(A, T ⊥ ) (el conjunto definido en (9.3) ), por lo ⊥ ⊥ ⊥ que SC A , S ≤ SC A , T . Por otra parte, como R SC A , S ⊆ R(A), existe la ⊥ soluci´on reducida Q de la ecuaci´on AX = SC A , S . Por lo tanto, se tiene que ker Q = ker SC A , S ⊥ = T y AQ = SC A , S ⊥ = Q∗ A . Para poder concluir que 1 − Q ∈ P(A, T ), alcanzar´ıa mostrar que Q ∈ Q. Veamos primero que, si L = A−1/2 (S ⊥ ) = A1/2 (S)⊥ , entonces Q es la SR de la ecuaci´on A1/2 X = PL A1/2 (lo que, de paso, muestra que R(PL A1/2 ) ⊆ R(A1/2 ) ). Por la Prop. 9.3.3, SC A , S ⊥ = A1/2 PL A1/2 =⇒ A1/2 (A1/2 Q − PL A1/2 ) = 0 . Luego, para todo ξ ∈ H, se tiene que PL A1/2 ξ = A1/2 Qξ + η para alg´ un η ∈ ker A1/2 . Por lo tanto, como ker A1/2 = R(A1/2 )⊥ ⊆ A1/2 (S)⊥ = L, se tiene que kηk2 = hPL A1/2 ξ, ηi − hA1/2 Qξ, ηi = hA1/2 ξ, PL ηi = hA1/2 ξ, ηi = 0. 306
Llegamos a que A1/2 Q = PL A1/2 . Pero, por otra parte, como Q era la SR de la ecuaci´on AX = SC A , S ⊥ , tenemos que R(Q) ⊆ (ker A)⊥ = (ker A1/2 )⊥ . Por lo tanto, Q tambi´en debe ser la SR de A1/2 X = PL A1/2 . Finalmente, como PL ∈ P, podemos aplicar el Lema 12.1.5, y concluir que Q ∈ Q. Entonces 1 − Q ∈ P(A, T ) 6= ∅. Teorema 12.3.5. Sean A ∈ L(H)+ y S v H. Entonces (A, S) es compatible si y s´olo si = R(A) ∩ S ⊥ y ker SC A , S ⊥ = ker A + S . R SC A , S ⊥ ⊥ = R(A) ∩ S ⊥ Demostraci´on. La ida fue vista en la Proposici´ o n 12.3.1. Si R SC A , S ⊥ y ker SC A , S = ker A + S = T , sabemos, por la Proposici´on 12.3.4, que el par (A, T ) es compatible, o sea que T + A−1 (T ⊥ ) = S + ker A + A−1 (T ⊥ ) = H. Pero ker A ⊆ A−1 (S ⊥ )
y adem´as
T ⊥ ⊆ S ⊥ =⇒ A−1 (T ⊥ ) ⊆ A−1 (S ⊥ ) ,
por lo que S + A−1 (S ⊥ ) ⊇ S + ker A + A−1 (T ⊥ ) = H. Entonces (A, S) es compatible.
Corolario 12.3.6. Sean A ∈ L(H)+ y S v H. Notemos Q = PS ⊥ . Entonces el par (A, S) es compatible si y s´olo si S⊥ ⊆ R A + λ Q para alg´ un (y en tal caso para todo) λ > 0 . (12.6) Demostraci´on. La Prop. 12.2.1 asegura que el hecho de que (A, S) sea compatible s´olo depende de la primera fila P A de A (es decir, de a y b). Por ello podemos cambiar libremente A
por
Aλ = A + λ Q ,
para cualquier λ > 0 ,
y la compatibilidad con S ni se entera. Adem´as es f´acil ver (por las definiciones) que SC Aλ , S ⊥ = SC A , S ⊥ + λ Q ≥ λ Q , para todo λ > 0 . Si ahora uno aplica el Teo. 12.3.5 a Aλ , se si y s´olo si se tiene que (Aλ , S) es compatible ⊥ ⊥ verifica la Ec. (12.6), porque SC Aλ , S es estrictamente positivo en S . Recordar que, respecto de los n´ ucleos, la inclusi´on a testear es ker SC Aλ , S ⊥ ⊆ ker Aλ +S. Pero ahora es autom´atica, porque ker SC Aλ , S ⊥ = S (y porque, si vale (12.6), ker Aλ = R(Aλ )⊥ ⊆ S).
Compresiones Recordemos la Def. 9.4.5 de la S-compresi´on de A y sus propiedades: Observaci´ on 12.3.7. Sean A ∈ L(H)+ y S v H. El operador def
AS = A − SC (A , S) ∈ L(H)+ 307
se llama la S-compresi´on de A. En la Prop. 9.4.6 se vi´o que R(AS 1/2 ) ∩ S = {0}
y
ker AS = A−1 (S) .
Si llamamos M = A−1/2 (S ⊥ ) = A1/2 (S)⊥ , entonces por la Prop. 9.3.3, SC A , S ⊥ = A1/2 PM A1/2 =⇒ AS ⊥ = A1/2 (I − PM )A1/2 . Por lo tanto, como (I − PM ) es la identidad en A1/2 (S), se tiene que A(S) ⊆ R(AS ⊥ ) ⊆ A1/2 (M⊥ ) ⊆ A(S) ,
(12.7)
⊥ donde la u ´ltima inclusi´on se sigue de que M⊥ = A1/2 (S)⊥ = A1/2 (S) (y de que A1/2 es continua). Pero por la Prop. 12.3.1, si (A, S) es compatible, entonces AS ⊥ = AQ, para cualquier proyector Q ∈ P(A, S). En tal caso, tenemos que R(AS ⊥ ) = A(S) . En la siguiente Proposici´on veremos que esta igualdad en realidad caracteriza la compatibilidad. 4 Proposici´ on 12.3.8. Sean A ∈ L(H)+ y S v H. Entonces el par (A, S) es compatible si y s´olo si R(AS ⊥ ) = A(S) . Demostraci´on. Si (A, S) es compatible entonces por lo mencionado m´as arriba, sabemos que R(AS ⊥) = A(S). Rec´ıprocamente, supongamos que R(AS ⊥ ) ⊆ A(S). Luego, como SC A , S ⊥ = A − AS ⊥ , vemos que R SC A , S ⊥ ⊆ R(A). Por otro lado, si ξ ∈ ker SC A , S ⊥ entonces Aξ = AS ⊥ ξ ∈ A(S) . Si Aξ = Aη con η ∈ S, entonces ξ = (ξ − η) + η ∈ ker A + S. Hemos probado que ⊥ ker SC A , S ⊆ ker A + S. Por el Teo. 12.3.5, deducimos que (A, S) es compatible.
12.4
El caso R(A) v H
Cuando el rango de A es cerrado, es m´as f´acil caracterizar la compatibilidad. Primero veamos una condici´on suficiente en general, que luego veremos que es necesaria si R(A) v H. Proposici´ on 12.4.1. Sean A ∈ L(H)+ , S v H y P = PS . Entonces R(P AP ) v H
=⇒
(A, S) es compatible
Demostraci´on. Ver la Obs. 12.2.3.
La mayor´ıa de las condiciones del siguiente Teorema se sabe que son equivalentes entre s´ı por los resultados del Cap´ıtulo 1. Sin embargo las incluimos todas para enfatizar. Teorema 12.4.2. Sean A ∈ L(H)+ , S v H y P = PS . Supongamos que R(A) v H. Entonces las siguientes condiciones son equivalentes: 308
1. El par (A, S) es compatible. 2. R(P AP ) es cerrado. 3. c [ S , ker A ] < 1. 4. S + ker A es cerrado (resp. S ⊥ + R(A) es cerrado). 5. R(P A) es cerrado (resp. R(AP ) = A(S) es cerrado). 6. R(A1/2 P ) = A1/2 (S) es cerrado. Demostraci´on. La Prop. 12.4.1 muestra que 2 → 1. Que las condiciones 2 hasta 6 son equivalentes entre s´ı se deduce de las Proposiciones 8.4.10 y 8.4.11, y del hecho de que R(A) v H (por lo que tambi´en R(A1/2 ) v H, cf. Prop. 4.3.6). Finalmente, la Prop. 12.3.1 ⊥ dice que, si (A, S) es compatible, entonces S + ker A = ker SC A , S v H. Ejercicio 12.4.3. Sean A ∈ L(H)+ , S v H y P = PS . Si R(A) v H, probar que (A, S) es compatible ⇐⇒ ker SC A , S ⊥ ⊆ S + ker A . Comparar con el Teo. 12.3.5. Y con los rangos ¿qu´e pasa? Sugerencias: C1. Combinar las Proposiciones 9.4.4 y 12.4.2. C2. Combinar la Prop. 9.4.1, el Cor. 9.4.2 y el Teo. 12.3.5.
4
Corolario 12.4.4. Sean A ∈ L(H)+ , S v H y P = PS . Supongamos que R(A) v H. Entonces las siguientes condiciones son equivalentes: 1. El par (A, S) es compatible. 2. Para todo B ∈ L(H)+ tal que R(B) = R(A), el par (B, S) is compatible. 3. El par (PR(A) , S) es compatible. M´as a´ un, si B ∈ L(H)+ y R(B) = R(A), las variedades afines P(A, S) y P(B, S) son ”paralelas”, i.e. P(B, S) = (PB,S − PA,S ) + P(A, S). (12.8) Demostraci´on. Si R(B) = R(A) entonces tambi´en ker B = ker A = ker PR(A) . Por el Teo. 12.4.2, las tres condiciones son equivalentes, porque la compatibilidad solo depende del a´ngulo entre S y el n´ ucleo del operador. Usando que N = A−1 (S ⊥ ) ∩ S = ker A ∩ S = ker B ∩ S = B −1 (S ⊥ ) ∩ S , la igualdad (12.8) se deduce de la parametrizaci´on dada en el Teo. 12.2.5.
La condici´on 3 del corolario anterior y la Ec. (12.8) son una invitaci´on a considerar los conjuntos P(Q, S) para Q ∈ P, que es lo que haremos a continuaci´on. 309
12.5
El caso de dos proyectores
En esta secci´on estudiaremos el caso en el que A es un proyector ortogonal, i.e., A = Q ∈ P. Por el Teo. 12.4.2 (items 3 y 6), si S v H y P = PS , entonces ker Q + S v H
si y s´olo si
P(Q, S) 6= ∅ .
En este caso, denotaremos PQ,P al proyector PQ,R(P ) de la Definici´on 12.2.4. En el siguiente resultado, recolectaremos varias condiciones equivalentes a la existencia de PQ,P . Vale la misma observaci´on que la mencionada antes del Teo. 12.4.2. Teorema 12.5.1. Sean P, Q ∈ P con R(P ) = S y R(Q) = T . Entonces las siguientes condiciones son equivalentes: 1. (Q, S) es compatible. 2. (P, T ) es compatible. 3. ker Q + R(P ) es cerrado. 4. ker P + R(Q) es cerrado. 5. R(P Q) es cerrado. 6. R(QP ) es cerrado. 7. R(1 − P + Q) es cerrado. 8. R(1 − Q + P ) es cerrado. 9. c S , T ⊥ = c T , S ⊥ < 1. Si adem´as ker Q ∩ S = {0}, son equivalentes tambi´en a que 10. k(1 − Q)P k < 1. Demostraci´on. La u ´nica novedad es la equivalencia con las condiciones 7 y 8, que dejamos como ejercicio (por ejemplo, mostrar que R(1 − P + Q) = S ⊥ + T ). La equivalencia de las otras con 10 surge de la Prop. 8.2.3. Ejercicio 12.5.2. Sean P, Q ∈ P con R(P ) = S y R(Q) = T , tales que S +T⊥ =H
(en particular (Q, S) es compatible)
y
S ∩ T ⊥ = {0} .
Sea E ∈ Q el proyector asociado a la descomposici´on S ⊕ T ⊥ = H, i.e., R(E) = S = R(P ) y ker E = T ⊥ = ker Q. Probar que entonces PQ,P = PQ,S = E
y
PP,Q = PP,T = E ∗ .
Calcular sus normas, y comparar con lo que sigue. 310
4
Proposici´ on 12.5.3. Sean Q ∈ P y S v H tales que (Q, S) es compatible. Entonces vale la igualdad −1 kPQ,S k = s R(Q)⊥ , S = s [ N (Q) , S ]−1 . Demostraci´on. Por el Cor. 8.2.8, sabemos que kPQ,S k = s [ N (PQ,S ) , S ]−1 . Pero, por las Proposiciones 12.2.5 y 8.2.3, tenemos que −1 ⊥ −1 ⊥ N (PQ,S ) = Q (S ) Q (S ) ∩ S =⇒ c [ N (PQ,S ) , S ] = c Q−1 (S ⊥ ) , S . Por otra parte, si llamamos T = R(Q), entonces Q−1 (S ⊥ ) = N (Q) ⊕ (T ∩ S ⊥ ). Observemos ⊥ ⊥ que T ∩ S = (N (Q) + S) . Usando el Ejer. 12.1.4 (Item 5) esto implica, por un lado, que N (Q) ⊕ (T ∩ S ⊥ ) ∩ S = N (Q) ∩ S, y por otro lado que Q−1 (S ⊥ ) S = N (Q) ⊕ (T ∩ S ⊥ ) S = N (Q) S ⊕ (T ∩ S ⊥ ) . De ah´ı podemos deducir, aplicando la definici´on con productos escalares, que c Q−1 (S ⊥ ) , S = c [ N (Q) , S ] . Finalmente, llegamos a que −1 = s [ N (Q) , S ]−1 , kPQ,S k = s [ N (PQ,S ) , S ]−1 = s Q−1 (S ⊥ ) , S como quer´ıamos demostrar.
12.6
El caso A inyectivo
Proposici´ on 12.6.1. Sea A ∈ L(H)+ tal que ker A = {0} y sea S v H. Entonces las siguientes condiciones son equivalentes: 1. El (A, S) es compatible. 2. S ⊕ S ⊥A = H 3. S ⊕ S ⊥A es cerrado. 4. S ⊥ ⊕ A(S) = H 5. S ⊥ ⊕ A(S) es cerrado. En tal caso P(A, S) = {PA,S }, donde PA,S es el que aparece en la Def. 12.2.4.
311
Demostraci´on. Las sumas de 2 y 3 son directas porque S ∩ S ⊥A = ker A ∩ S = {0}. La equivalencia entre 1 y 2 esta probada en el Cor. 12.1.7 La equivalencia entre las otras cuatro condiciones se deduce varios hechos: primero que h i S ⊥ ⊕ A(S) v H ⇐⇒ c S ⊥ , A(S) < 1 ⇐⇒ c S , S ⊥A < 1 ⇐⇒ S ⊕ S ⊥A v H , (12.9) ⊥ −1 ⊥ ⊥A ⊥ = S porque A(S) = A (S ) , lo que permite aplicar la Prop. 8.4.10. El otro ⊥ hecho significativo es que S ⊕ A(S) es denso en H, porque el ortogonal de la suma es S ∩ A(S)⊥ = ker A ∩ S = {0}. El u ´ltimo hecho es la equivalencia entre 2 y 4 que es, ahora, un ejercicio f´acil (N ⊕ M = H si y s´olo si N ⊥ ⊕ M⊥ = H). Finalmente, la l´ınea de implicaciones ya probadas es 3 → 5 → 4 → 2 → 3. Observaci´ on 12.6.2. Como en el caso de rango cerrado, en el caso inyectivo tambi´en se tiene una caracterizaci´on de la compatibilidad en t´erminos de ´angulos. En efecto, obesrvar que i h el par (A, S) es compatible ⇐⇒ c S ⊥ , A(S) < 1 ⇐⇒ c S , S ⊥A < 1 , 4
por la Ec. (12.9).
12.7
La proyecci´ on minimal
Repasemos la definici´on de la proyecci´on PA,S : Definici´ Sean A ∈ L(H)+ , S v H y P = PS tales que (A, S) es compatible. Si on 12.7.1. a b A= , sea d ∈ L(S ⊥ , S) la SR de la ecuacui´on ax = b. Entonces b∗ c 1 d S def ∈ P(A, S) . PA,S = 0 0 S⊥ Se vi´o, adem´as que, si N = A−1 (S ⊥ ) ∩ S = ker A ∩ S, entonces ker PA,S = A−1 (S ⊥ ) N
y que
kPA,S k = min{kQk : Q ∈ P(A, S)} , 4
aunque no es siempre la u ´nica minimal en norma.
Veremos que PA,S cumple una propiedad de minimalidad algo mejor, que s´ı la caracteriza: Proposici´ on 12.7.2. Sean A ∈ L(H)+ , S v H y P = PS tales que (A, S) es compatible. Entonces PA,S es el u ´nico elemento de P(A, S) que cumple k(I − PA,S ) ξk = min{k(I − Q) ξk : Q ∈ P(A, S) }
312
para todo
ξ∈H.
(12.10)
Demostraci´on. Dado Q ∈ P(A, S), por la Prop. 12.2.5 existe 0 0 −d I − Q = I − PA,S − z = 0 0 −z 0 0 I
z ∈ L(S ⊥ , N ) tal que S N N . S⊥
Por lo tanto, fijado ξ ∈ H, si η = (I − P ) ξ ∈ S ⊥ , entonces k(I − Q) ξk2 = kd ηk2 + kz ηk2 + kηk2 ≥ kd ηk2 + kηk2 = k(I − PA,S ) ξk2 . Observar que, si z 6= 0, puede elegirse ξ ∈ H tal que z η 6= 0, por lo que la desigualdad se puede hacer estricta. Por ello PA,S es el u ´nico que puede cumplir (12.10). Observaci´ on 12.7.3. Si E ∈ Q, entonces kEk = kI − Ek, porque dependen del seno del a´ngulo entre el rango y el n´ ucleo (que es sim´etrico). Por ello la Prop. 12.7.2 refina la f´ormula (12.5) del Teo. 12.2.5 que dice que kPA,S k es m´ınima en P(A, S). Con las notaciones de la Prop. 12.7.2, tambi´en se tiene que PA,S es el u ´nico elemento de P(A, S) que cumple kPA,S ξk = min{kQ ξk : Q ∈ P(A, S) }
para todo
ξ ∈ N⊥ .
(12.11)
En efecto, fijado ξ ∈ N ⊥ , pongamos ξ = ξ1 + ξ2 , con ξ1 = P ξ ∈ S N y ξ2 ∈ S ⊥ . Entonces, como R(d) ⊆ S N , tenemos que kQ ξk2 = kξ1 + d ξ2 k2 + kz ξ2 k2 = kPA,S ξk2 + kz ξ2 k2 ≥ kPA,S ξk2 . Observar que, si z 6= 0, puede elegirse ξ ∈ N ⊥ tal que z ξ2 6= 0, por lo que la desigualdad se puede hacer estricta. Por ello PA,S es el u ´nico que puede cumplir (12.11). No es cierto que la desigualdad (12.11) valga para todo ξ ∈ H, salvo en el caso N = {0}, que es trivial (porque en tal caso PA,S es u ´nico). De hecho, si elegimos ξ con cierta componente 0 6= ξ3 ∈ N , entonces PA,S deja fija esa componente, mientras que Q = PA,S + z puede achicarla, o tacharla directamente si ξ3 ∈ R(z). 4 Lema 12.7.4. Sean A ∈ L(H)+ y S v H. Como siempre, N = A−1 (S ⊥ ) ∩ S = ker A ∩ S. Entonces (A, S) es compatible
⇐⇒
(A, S N ) es compatible
En tal caso se tienen las siguientes propiedades: 1. PA, S N + PN = PA,S . 2. ker PA, S N = A−1 (S ⊥ ). 3. P(A, S N ) = {PA, S N }.
313
(12.12)
Demostraci´on. Antes que nada, observar que S + A−1 (S ⊥ ) = H
(S N ) ⊕ A−1 (S ⊥ ) = H .
⇐⇒
Pero A−1 (S ⊥ ) = A(S)⊥ = A(S N )⊥ = (S N )⊥A , porque N ⊆ ker A. Aplicando el Cor. 12.1.7 a ambos pares, tenemos la prueba de la equivalencia (12.12). La igualdad P(A, S N ) = {PA, S N } se deduce de que (S N ) ∩ ker A = {0}. Como APN = PN A = 0
N ⊆ A−1 (S ⊥ ) = ker PA, S N =⇒ PA, S N PN = PN PA, S N = 0 ,
y
tenemos que PA, S N + PN ∈ P(A, S). Por u ´ltimo, es f´acil ver que ker PA, S N + PN = ker PA, S N ∩ ker PN = A−1 (S ⊥ ) ∩ N ⊥ = A−1 (S ⊥ ) N , lo que prueba que PA, S N + PN = PA,S , v´ıa la Prop. 12.2.5.
La Prop. 12.2.1 muestra que un par (A, S) es compatible si y s´olo si R(P A) ⊆ R(P AP ), donde P = PS . Por lo tanto, si (A, S) es compatible, es natural estudiar a la soluci´on reducida Q de la ecuaci´on (P AP )X = P A (12.13) y su relaci´on con PA,S . Observar que R(Q) ⊆ R(P AP ), que puede estar estrictamente incluido en S, por lo que, en general, Q 6= PA,S . Sin embargo: Proposici´ on 12.7.5. Sean A ∈ L(H)+ , S v H y P = PS tales que (A, S) es compatible. Sea Q la SR de la ecuaci´on (12.13). Sea N = ker A ∩ S. Entonces Q = PA, S N
y
PA,S = PN + Q .
Demostraci´on. Antes que nada, observar basta probar que Q = PA, S N , ya que la otra a b igualdad se deducir´ıa del Lema 12.7.4. Si A = , pensando que a ∈ L(S), se tiene b∗ c ker a = N
y
R(a) = R(a1/2 ) = S N .
Observar que R(Q) ⊆ R(P AP ) = R(a). Tambi´en ker Q = ker(P A) = A−1 (S ⊥ ). Pero ξ ∈S N
=⇒ a(Qξ) = (P AP )Qξ = P Aξ = P AP ξ = a(ξ).
Como a es inyectivo en S N , deducimos que Qξ = ξ para todo ξ ∈ S N . Entonces Q2 = Q ,
R(Q) = S N
y
ker Q = A−1 (S ⊥ ) ,
lo que, en vista del Lema 12.7.4, mustra que Q = PA, S N .
En la Prop. 12.3.8 se vi´o que si un par (A, S) es compatible, entonces se verifica la inclusi´on ⊥ R(AS ⊥ ) ⊆ A(S) = R(APS ), donde AS ⊥ = A − SC A , S . Esto da sentido a otra SR que puede servir para calcular PA,S . En efecto, da el mismo proyector que el de la Prop. 12.7.5: 314
Proposici´ on 12.7.6. Sean A ∈ L(H)+ y S v H tales que (A, S) es compatible. Sea P = PS . Si Q es la SR de la ecuaci´on (AP )X = AS ⊥ , entonces Q = PA,S N
y adem´as
PA,S = Q + PN ,
donde N = ker A ∩ S. Demostraci´on. Sea Q la SR de la ecuaci´on AP X = AS ⊥ . Entonces, por la Prop. 9.4.6, ker Q = ker AS ⊥ = A−1 (S ⊥ ) Luego P Q = Q, por lo que AS ⊥
R(Q) ⊆ (ker AP )⊥ = (S ⊥ + N )⊥ = S N . (12.14) = AQ. Si ξ ∈ S N ⊆ ker SC A , S ⊥ , tenemos que y
Aξ = AS ⊥ ξ = A Qξ =⇒ ξ − Qξ ∈ ker A ∩ ( S N ) = {0} . Esto muestra que Q es la identidad en S N . Como vimos que ker Q = A−1 (S ⊥ ), el Lema 12.7.4 asegura que Q = PA,S N . Observaci´ on 12.7.7. Otra manera de probar la Prop. 12.7.6 es verificar que si Q la SR de la ecuaci´on AP X = AS ⊥ , entonces Q tambi´en es la SR de la Ec. (12.13). Esto sale usando ⊥ la Ec. (12.14) y el hecho de que P SC A , S = 0. 4 En la Prop. 12.3.1 se muestra que si un par (A, S) es compatible, entonces se verifica la inclusi´on R SC A , S ⊥ ⊆ R(A). Esto da sentido a otra SR que puede servir para calcular PA,S . En efecto: + Proposici´ on 12.7.8. Sean A ∈ L(H) y S v H tales que (A, S) es compatible. Sea Q la ⊥ SR de la ecuaci´on AX = SC A , S . Entonces T = S + ker A v H ,
I − Q = PA, T
y
PA,S = (I − Q) − Pker A + 2PN ,
donde, como siempre, N = ker A ∩ S. Demostraci´on. En la prueba del Lema 12.3.4 se vi´o que I − Q ∈ P(A, T ). Por otro lado, ker A ⊆ A−1 (T ⊥ ) = A(T )⊥ =⇒ T ∩ A(T )⊥ = S ∩ A(S)⊥ = N = ker A ∩ S . Luego, como ker(I − Q) = R(Q) ⊆ ker A⊥ ⊆ N ⊥ , ya podemos decir que I − Q = PA, T . La otra igualdad se deja como ejercicio. Proposici´ on 12.7.9. Sean A ∈ L(H)+ , S v H y P = PS . Entonces las siguientes condiciones son equivalentes: 1. El par (A, S) es compatible. 2. R(A1/2 ) = A1/2 (S) ⊕ (A1/2 (S)⊥ ∩ R(A1/2 )) 3. Si M = A1/2 (S), entonces R(PM A1/2 ) ⊆ R(A1/2 P ).
315
Demostraci´on. 1 ↔ 2: Si H = S + S ⊥A , aplicando A1/2 en ambos lados tenemos que A1/2 (H) = A1/2 (S) + A1/2 (A−1 (S ⊥ )) . Es decir que R(A1/2 ) = A1/2 (S) + A−1/2 (S ⊥ ) ∩ R(A1/2 ) = A1/2 (S) ⊕ A1/2 (S)⊥ ∩ R(A1/2 ) . Pero si R(A1/2 ) = A1/2 (S) ⊕ A1/2 (S)⊥ ∩ R(A1/2 ) podemos ver que H = S + A−1 (S ⊥ ) + ker A1/2 = S + A−1 (S ⊥ ) . 2 ↔ 3: Si vale 3 y tenemos un y ∈ R(A1/2 ), entonces y = y1 + y2 para y1 = PM y ∈ A1/2 (S) e y2 = y − y1 ∈ M⊥ = A1/2 (S)⊥ (y son u ´nicos). La rec´ıproca es similar. Por la Prop. 12.7.9, (A, S) es compatible si y s´olo si R(PM A1/2 ) ⊆ R(A1/2 P ), es decir, si la ecuaci´on A1/2 P X = PM A1/2 tiene soluci´on. Como en la Prop. 12.7.6, su SR es la misma que la de (12.13): Proposici´ on 12.7.10. Sean A ∈ L(H)+ y S v H tales que (A, S) es compatible. Sea P = PS . Si Q es la SR de la ecuaci´on A1/2 P X = PM A1/2 , entonces Q = PA,S N
y adem´as
PA,S = Q + PN ,
donde N = ker A ∩ S. Demostraci´on. Ejercicio. Se sugiere un camino similar al de la Obs. 12.7.7.
Ejercicio 12.7.11. Sean A ∈ L(H)+ y S v H tales que (A, S) es compatible. Sea P = PS . Supongamos que R(A) v H. Entonces 1. Los subespacios R(P AP ), R(AP ) y R(A1/2 P ) son cerrados. 2. Si ker A ∩ S = {0}, se tienen las siguientes igualdades PA,S = (P AP )† P A = (AP )† AS ⊥ = I − Pker A − A† SC A , S ⊥
= (A1/2 P )† PM A1/2 , donde M = A1/2 (S) .
4
Observaci´ on 12.7.12. Sean A, B ∈ L(H)+ , S v H y P = PS . Supongamos que P A = P B, o sea que a b S a b S A= y B= . ∗ ⊥ ∗ b c1 S b c2 S⊥
316
Por la Prop. 12.2.1 y mirando la Def. 12.2.4, uno deduce que (A, S) es compatible
⇐⇒
(B, S) es compatible
y, en tal caso, que PA,S = PB,S , porque ambas cosas dependen s´olo de a y de b. Usando estos hechos, podremos en adelante cambiar libremente un dado A ∈ L(H)+ por A + Y para cualquier Y ∈ L(H)+ tal que P Y = 0. Esto no cambiar´a la compatibilidad o no con S, ni la proyecci´on minimal asociada. Observar que esto ya fu´e usado en la Prop. 12.3.6. 4 Proposici´ on 12.7.13. Sean A ∈ L(H)+ y S, T v Htales que S ⊆ T . Supongamos que T Z 0 T que reduce A, es decir PT A = APT . Si A = entonces (A, S) es compatible 0 Y T⊥ si y s´olo si (Z, S) es compatible en L(T ). En tal caso, PZ, S 0 T PA, S = , 0 0 T⊥ donde tambi´en pesamos PZ, S ∈ L(T ). PS · Z 0 Demostraci´on. Como S ⊆ T , se tiene que PS A = PS PT A = . Si llamamos 0 0 Z 0 B = PT A = , la Obs. 12.7.12 muestra la equivalencia de la compatibilidad de los 0 0 pares (A, S) y (B, S), y que PA, S = PB, S (si existen). Observar que B −1 (S ⊥ ) = Z −1 (T S) ⊥ T ⊥ . Luego H = B −1 (S ⊥ ) + S
⇐⇒
T = Z −1 (T S) + S ,
lo que muestra la equivalencia con la compatibilidad de (Z, S). Por otro lado, como T ⊥ es ortogonal tanto a S como a Z −1 (T S), podemos aplicar el Ejer. 12.1.4 (Item 5) para obtener que N = S ∩ B −1 (S ⊥ ) = S ∩ Z −1 (T S) y adem´as PZ, S 0 −1 ⊥ −1 ⊥ ker PB, S = B (S ) N = Z (T S) N ⊥ T = ker , 0 0 PZ, S 0 lo que muestra la igualdad PA, S = PB, S = . 0 0
12.8
Algunos ejemplos
Ejemplo 12.8.1. Sea A ∈ L(H)+ inyectivo con rango denso en H. Sea ξ ∈ R(A1/2 ) y llamemos Pξ al proyector ortogonal sobre span {ξ}. Entonces R(Pξ ) ⊆ R(A1/2 ) y, por el teorema de Douglas 9.1.1, Pξ ≤ λA para alg´ un λ > 0. Supondremos que λ = 1, sino cambiamos A por λA. Por el Cor. 9.2.9 se tiene que A Pξ B= ∈ L(H ⊕ H)+ . Pξ A 317
Por la Prop. 9.2.1, R(A) ⊂ R(A1/2 ) en forma estricta (no son iguales). Luego existe ξ ∈ R(A1/2 )\R(A). Sea S = H⊕0 v H⊕H. Entonces S ⊥ = 0⊕H. Veremos que B es inyectivo, ker SC (B , S) = S, m´as aun B(S) es cerrado en R(B) (una condici´on necesaria para la compatibilidad y que implica que ker SC (B , S) = S). Pero el par (B, S) es incompatible. En principio, es claro que B no cumple la condici´on 2 de la Prop. 12.2.1, por lo que el par (B, S) es incompatible. Sea D la SR de la ecuaci´on Pξ = A1/2 X. Entonces 0 0 ⊥ . SC B , S = 0 A − D∗ D Como ker D = ker Pξ , entonces DPξ = D. As´ı D∗ D = Pξ D∗ D y, si 0 ⊕ η ∈ ker SC B , S ⊥ , Aη = D∗ Dη = Pξ D∗ Dη = λξ para alg´ un λ ∈ R
=⇒ η=0, porque ξ ∈ / R(A) y A es inyectivo. Esto muestra que ker SC B , S ⊥ = S. Tambi´en B(ω ⊕ η) = 0 ⊕ 0 =⇒ Aω + Pξ η = 0 = Aη + Pξ ω =⇒ Aω = Aη = 0 =⇒ ω = η = 0 , lo que muestra que B es inyectivo. Finalmente, B(H ⊕ 0) =
H ⊕ span {ξ}
∩ R(B),
porque B(H ⊕ 0) ⊆ H ⊕ span {ξ} y, si ω 6= 0, entonces 0 6= Aω ∈ / span {ξ}, por lo que, cualquiera sea η ∈ H, se tiene que B(η ⊕ ω) = Aη + Pξ ω ⊕ Pξ η + Aω
∈ /
H ⊕ span {ξ} . 4
Esto prueba que B(S) es cerrado en R(B).
Observaci´ on 12.8.2. Sean P ∈ P con R(P ) = S y A ∈ L(H)+ . Por la Obs. 12.2.3, si dim S < ∞, entonces (A, S) es compatible. Por otro lado, si dim S ⊥ < ∞ y R(A) v H, tambi´en (A, S) es compatible, en este caso por la Prop. 12.4.2 (porque la compatibilidad ⊥ depende de que c S , R(A) < 1). Sin embargo, si R(A) 6v H, entonces el Ejemplo 12.8.3 mostrar´a que la compatibilidad puede fallar, a´ un con dim S ⊥ < ∞. 4 Ejemplo 12.8.3. Sea A ∈ L(H)+ inyectivo con rango denso en H. Fijemos ξ ∈ / R(A) vector unitario. Sean Pξ el proyector ortogonal sobre span {ξ}, P = I − Pξ y S = {ξ}⊥ = R(P ). Si a b S A= y Aξ = λξ + η para η ∈ S , b∗ c S ⊥ = span {ξ} entonces λ = hAξ, ξi = 6 0 y η 6= 0, porque sino valdr´ıa que ξ ∈ R(A). Luego c = λPξ
y
b (µξ) = P A(µξ) = µ η
para cada
µ ∈ C =⇒ b = η ⊗ ξ .
Si sucediera que η ∈ R(a), i.e. que exista ν ∈ S tal que aν = bξ, entonces P A(ν − ξ) = aν − bξ = 0
=⇒ 318
A(ν − ξ) ∈ span {ξ} .
Como ξ ∈ / R(A), tendr´ıamos que ν = ξ, una contradicci´on. As´ı que R(b) 6⊆ R(a) y el par (A, S) es incompatible, aunque dim S ⊥ = 1. Sea d ∈ L(S ⊥ , S) la SR de la ecuaci´on a1/2 x = b. Como η ∈ / R(a) y a1/2 es inyectivo en S, podemos deducir que R(a1/2 ) ∩ R(d) = {0}. Consideremos ahora el operador a b ∈ L(H)+ . B= b∗ dd∗ Por lo anterior (B, S) es tambi´en incompatible, pero adem´as SC B , S ⊥ = 0. Veremos que B es inyectivo. En efecto, 1/2 1/2 1/2 a a1/2 d a 0 a d a d = =⇒ ker B = ker = {0} , B= d∗ 0 0 0 0 0 d∗ a1/2 dd∗ porque R(a1/2 ) ∩ R(d) = {0}, a1/2 es inyectivo en S y porque d es inyectivo en S ⊥ . Este ejemplo muestra tambi´en que la condici´on ker SC B , S ⊥ = ker B + S que aparece en el Teo. 12.3.5 es imprescindible. Ac´a no se cumple esa, pero s´ı la inclusi´on de los rangos, porque SC B , S ⊥ = 0 (y ker B = {0}), y por eso (B, S) es incompatible. En ese sentido, este ejemplo se complementa con el anterior 12.8.1, donde las cosas se daban al rev´es, y tampoco hab´ıa compatibilidad. Por ello estos ejemplos dicen que ninguna de las dos condiciones pedidas en el Teo. 12.3.5 (la de rangos y la de n´ ucleos) implica la otra, ni siquiera cuando B es inyectivo. Recordar que en el caso de rango cerrado, alcanza con la de los n´ ucleos. 4 12.8.4. Dados A, B ∈ L(H)+ , decimos que est´an en la misma ”componente de Thompson”, y lo notamos A ∼ B si R(A1/2 ) = R(B 1/2 ) ⇐⇒ λA ≤ B ≤ µA para ciertas constantes λ, µ > 0. Una pregunta natural: Dado S v H, ¿es cierto que (A, S) es compatible si y s´olo si (B, S) es compatible? Esto resulta cierto si los rango s son cerrados, por el Cor. 12.4.4. Lamentablemente, en el caso general la respuesta es NO, como veremos en el siguiente Ejemplo. Antes necesitamos un Lema. 4 Lema 12.8.5. Sean A, B ∈ L(H)+ . 1. Si R(A) = R(B) entonces R(At ) = R(B t ) para todo 0 ≤ t ≤ 1. En particular A ∼ B. 2. Si R(A) 6v H, existe D ∈ L(H)+ tal que A ∼ D pero R(A) 6= R(D). Esto dice que el item 1 no vale en general para potencias t > 1. Demostraci´on. 1. Por el Teorema de Douglas 9.1.1, el que R(A) = R(B) implica que existen λ, µ > 0 tales que λA2 ≤ B 2 ≤ µA2 . Por el Teorema de L¨owner [121] (ver tambi´en el Teorema 4.2.6 de nuestro tomo I, cuya prueba se extiende al caso de L(H) mutatis mutandis), deducimos que λt A2t ≤ B 2t ≤ µt A2t
=⇒
R(At ) = R(B t ) ,
Tomando t = 1/2 tenemos que A ∼ B. 319
para todo
0≤t≤1.
2. Llamemmos C = A1/2 . Dado G ∈ Gl(H)+ , el Cor. 9.1.2 dice que R(C) = R(CG1/2 ) = R (CGC)1/2 . Veremos que se puede encontrar un G tal que R(A) 6= R(CGC). En efecto, tomemos (a) ξ ∈ R(C) \ R(A) (existe por la Prop. 9.2.1 ). (b) η ∈ (ker C)⊥ tal que Cη = ξ. (c) ρ ∈ R(C) tal que hη, ρi > 0 (existe porque R(C) es denso en (ker C)⊥ ). (d) G ∈ Gl(H)+ tal que Gρ = η. Este u ´ltimo paso es algo m´as complicado (porque le pedimos a G que sea positivo). Pero la hip´otesis de que hη, ρi > 0 (lo que dar´a que hGρ, ρi > 0) permite construir un tal positivo invertible que opere s´olo en Z = span {ρ, η} (ejercicio) y despu´es completarlo como uno guste en Z ⊥ . Hecho todo esto, tenemos que ξ = Cη = CGρ ∈ R(CGC) \ R(A) . Finalmente, tomemos D = CGC
Ejemplo 12.8.6. Sea A ∈ L(H)+ inyectivo pero no invertible. Sea B ∈ L(H)+ tal que A ∼ B y λA ≤ B ≤ µA para λ < 1 < µ. Por el Lema 12.8.5, podemos suponer que R(A) 6= R(B). Luego existe ξ ∈ R(A) \ R(B) ⊆ R(A1/2 ) = R(B 1/2 ). Sea Pξ al proyector ortogonal sobre span {ξ}. Entonces R(Pξ ) ⊆ R(A1/2 ) = R(B 1/2 ). Por el Teorema de Douglas 9.1.1 asumimos que 2Pξ ≤ A y que 2Pξ ≤ B. Como en el Ejem. 12.8.1, tomemos A Pξ B Pξ + MA = ∈ L(H ⊕ H) y MB = ∈ L(H ⊕ H)+ . Pξ A Pξ B Sean S = H ⊕ 0 y S ⊥ = 0 ⊕ H. Se vi´o en el Ejem. 12.8.1 que MB es inyectivo pero (MB , S) es incompatible. Por otro lado, como ξ ∈ R(A), entonces (MA , S) s´ı es compatible. Veremos que MA ∼ MB , lo que dar´a la respuesta negativa a la conjetira anterior. En efecto, 2Pξ ≤ A
y
1 B≤A µ
2A −
=⇒
1 1 B ≥ 2Pξ ≥ (2 − )Pξ . µ µ
Por lo tanto, por el Cor. 9.2.9, 2MA = 2
A Pξ Pξ A
1 ≥ µ
B Pξ Pξ B
=
1 MB . µ
An´alogamente 2Pξ ≤ B y λA ≤ B =⇒ 2B − λA ≥ 2Pξ ≥ (2 − λ)Pξ . Por lo tanto B Pξ A Pξ 2MB = 2 ≥λ = λMA , Pξ B Pξ A lo que muestra que MA ∼ MB .
4 320
Ejemplo 12.8.7. Sea A ∈ L(H)+ y tomemos 1/2 1/2 A A1/2 A 0 A I M= = ∈ L(H ⊕ H)+ I 0 0 0 A1/2 I
A1/2 I como en el Ejem. 12.2.2. Sean S = H ⊕ {0} y N = . Como M = N ∗ N , entonces 0 0 ker M = ker N = {ξ ⊕ −A1/2 ξ : ξ ∈ H} que es el gr´afico de −A1/2 . Observar que R(N ) = (R(A1/2 ) + R(I)) ⊕ {0} = S =⇒ R(M ) v H ⊕ H . 0 0 ⊥ Adem´as SC M , S = , porque la SR de A1/2 X = A1/2 es D = PR(A) . Si 0 Pker A A ∈ L(H)+ es inyectivo pero no invertible, entonces (M, S) no es compatible (ya sea porque R(A) 6= R(A1/2 ), porque c [ S , ker M ] = 1, o porque R(A) = R(PS M PS ) no es cerrado). Por la Prop. 12.3.8, deducimos que M (S) 6= R MS ⊥ . Por otra parte, MS ⊥ = M que tiene rango cerrado. Luego, en este caso, R(MS ⊥ ) = M (S) mientras que M (S) no es cerrado (ver la Obs. 12.3.7). 4 Ejercicio 12.8.8. Consideremos el conjunto de pares compatibles n o + A = (A, P ) ∈ L(H) × P : el par (A, S) es compatible . Probar que 1. Si dim H = ∞, entonces A no es ni cerrado ni abierto en L(H)+ × P. 2. La funci´on α : A → Q dada por α(A, P ) = PA,S ( (A, P ) ∈ A) NO es continua.
321
4
Cap´ıtulo 13 Proyectores escaleados Sea S v H. En este cap´ıtulo estudiaremos cantidades de la forma sup kPD, S k , D∈Γ
donde Γ es cierto subconjunto de L(H)+ y S v H. Estas cantidades est´an estrechamente vinculadas con problemas de cuadrados m´ınimos y con cuestiones de programaci´on n´ umerica. Si bien en estos casos los espacios de Hilbert involucrados son finito dimensionales, extensiones a espacios m´as generales no s´olo pueden resultar u ´tiles cuando el conjunto de datos es muy numeroso y/o la dimensi´on de los mismos no esta acotada, sino que tambi´en, permitira´an crear un nuevo punto de contacto entre las proyecciones oblicuas y la teor´ıa de marcos. Las herramientas claves que utilizaremos para realizar tales extensiones son la noci´on de compatibilidad, las proyecciones A-autoadjuntas y la noci´on de a´ngulo entre subespacios.
13.1
Problemas de cuadrados m´ınimos y proyecciones A-autoadjuntas.
Sea A ∈ Mm,n (C) con rk(A) = n (se asume que m > n) y consideremos el sistema lineal Ax = b . Por las caracter´ısticas de la matriz A, este sistema resulta sobredeterminado y si b ∈ / R(A) claramente no tiene soluci´on. En este u ´ltimo caso, se suele eligir un x de tal forma que Ax este “cerca” de b, en alg´ un sentido. Usualmente, esa noci´on de cercan´ıa se escribe del siguiente modo: kAx − bk = minn kAz − bk2 . (13.1) z∈C
Sin embargo, muchas veces es necesario reescalear el producto escalar, de modo que las coordenadas de un vector dado respecto a la base can´onica de Cm posean distintos pesos. Este proceso se lleva a cabo perturbando el producto escalar por medio de un matriz D
322
diagonal respecto a la base can´onica, positiva e inversible. El nuevo producto interno se define del siguiente modo hx, yiD = hDx, yi . Respecto a la norma que induce este producto interno, el problema de minimizaci´on (13.1) se reescribe de la siguiente forma: kD1/2 (AxD − b)k = minn kD1/2 (Az − b)k2 . z∈C
(13.2)
Se puede incluso perturbar el producto interno con matrices diagonales semidefinidas positivas, aunque en este caso pueden existir m´as de una soluci´on del problema (13.2). Un notable teorema de Ben-Tal y Teboulle establece que las soluciones xD se hallan todas en la c´apsula convexa de ciertas soluciones singulares xI . Para enunciar precisamente este resultado, necesitamos introducir cierta notaci´on. Definici´ on 13.1.1. Sean A ∈ Mm,n (C) (con m ≥ n) y b ∈ Cm . 1. Dado un conjunto de ´ındices I = {α1 , . . . , αn } ⊆ Im (se asume que α1 < . . . < αn ), escribiremos I ⊆n Im . 2. Si I ⊆n Im , llamaremos AI a la submatriz de n × n de A dada por: AI = (Aαi , j )i,j∈In ∈ Mn (C) ,
(13.3)
o sea que AI es es la matriz resultante quedarse con las filas de A con ´ındice en I. 3. En cambio, si D ∈ Mm (C), DI ∈ Mn (C) denotar´a la submatriz de D resultante quedarse con las entradas de D con ´ındice en I × I. 4. An´alogamente, el vector bI denotar´a el vector de Cn dado por bI = (bα1 , . . . , bαn ). 5. Llamaremos J(A) = I ⊆n Im : AI ∈ Gl (n) . Observar que J(A) 6= ∅ si y s´olo si rkA = n. 4 Observaci´ on 13.1.2. Se usar´an en esta secci´on resultados sobre determinantes, que han sido probados en el Cap´ıtulo 10 Secci´on 2 del Tomo I de este libro. A continuaci´on reenunciaremos dichos resultados. 4 Proposici´ on 13.1.3. Sea A ∈ Gl (n). Entonces se tiene la f´ormula siguiente (A−1 )ij = (−1)i+j
det A(j|i) , det A
i, j ∈ In ,
(13.4)
donde A(j|i) ∈ Mn−1 (C) es la matriz resultante de sacarle a A la columna i-´esima y la fila j-´esima. De ella se deduce f´acilmente la otra versi´on del c´alculo de A−1 , conocida como la regla de Cramer: Si b ∈ Cn , entonces det(A −−→ b) A−1 (b)i =
i∈ I
det A
,
i ∈ In ,
(13.5)
donde A −−→ b denota a la matriz resultante de cambiarle a A la columna Ci (A) por b. i∈ I
323
Proposici´ on 13.1.4 (F´ormula de Cauchy Binnet). Sean A ∈ Mn,m (C) y B ∈ Mm,n (C) , con n ≤ m. Luego, X det AB = det I A · det BI , (13.6) I⊆n Im
donde I A ∈ Mn (C) es la matriz resultante quedarse con las columnas de A con ´ındice en I, al rev´es que en la Ec. (13.3) que define BI . A lo largo de esta secci´on usaremos las siguiente notaciones: 1. Dm ⊆ Mm (C) denotar´a el ´algebra abeliana de matrices diagonales. 2. P(Dm ) el conjunto de proyecciones en Dm . + 3. Dm denota al cono de matrices positivas de Dm .
4. Dado I ⊆n Im , llamaremos QI ∈ P(Dm ) a la proyecci´on que verifica que R(QI ) = span {ei : i ∈ I}. 5. Sean A ∈ Mm,n (C) (con m ≥ n) e I ∈ J(A). A veces haremos el abuso de notacion AI = QI A
y
−1 A−1 = (QI A)−1 QI , I = (QI A)
que consiste en ingnorar las filas nulas de QI A y pensarla en Mn (C). En forma parecida, se identifica bI con QI b, para b ∈ Cm . Definici´ on 13.1.5. Dos subespacios S, T v H est´an en posici´on P’ si T ⊥ ∩ S = T ∩ S ⊥ = {0}. En tal caso, escribiremos S Y T . 4 Proposici´ on 13.1.6. Sea A ∈ Mm,n (C) (con m > n) tal que rk(A) = n. Denotaremos por + y Q ∈ P(Dm ). Entonces S = R(A) v Cm . Sean, adem´as, D ∈ Dm 1. PD, S = A(A∗ DA)−1 A∗ D. 2. I ∈ J(A) si y s´olo si R(QI ) Y S. 3. Si R(Q) Y R(A) entonces PQ, S = A(QA)−1 Q. Demostraci´on. 1. Una cuenta directa muestra que A(A∗ DA)−1 A∗ D es un proyector con rango S. Ahora basta notar que DA(A∗ DA)−1 A∗ D es autoadjunto, pues al ser D inversible, existe una u ´nica proyecci´on D-autoadjunta. 2. Por definici´on de J(A), I ∈ J(A) si y s´olo si QA : Cn → R(Q) es biyectivo, lo cual es equivalente a que tanto QA : Cn → R(Q) como A∗ Q : R(Q) → Cn sean inyectivos. Pero QA : Cn → R(Q) es inyectivo si y s´olo si S ∩ N (Q) = {0}, y an´alogamente, A∗ Q : R(Q) → Cn es inyectivo si y s´olo si R(Q) ∩ S ⊥ = R(Q) ∩ N (A∗ ) = {0}. En consecuencia, I ∈ J(A) si y s´olo si R(Q) Y S. 324
3. Claramente, A(QA)−1 Q es una proyecci´on con rango S cuyo n´ ucleo es N (Q). Por otro lado, por definici´on R(PQ, R(A) ) = S, y por el Teorema 12.2.1 N (PQ, S ) = Q−1 (S ⊥ ) (N (Q) ∩ S) = N (Q). Luego A(QA)−1 Q = PQ, R(A) .
Corolario 13.1.7. Sea A ∈ Mm,n (C) (con m > n) tal que rk(A) = n. Entonces (A∗ DA)−1 A∗ D = A†D , es decir, la seudoinversa de Moore-Penrose de A seg´ un h·, ·iD . Adem´as, si I ∈ J(A), entonces † ∗ −1 ∗ A−1 ' (Q A) = (A Q A) A Q . I I I I Demostraci´on. La f´ormula para A†D se deduce del item 1 de la Prop. 13.1.6, porque PD, R(A) es la u ´nica proyecci´on D-autoadjunta sobre R(A), y el otro producto da la identidad. La segunda identidad es evidente (si AI ∈ Gl (n), toda inversa de un lado es la inversa). Observar que hay un peque˜ no abuso de notaci´on, porque se piensa que A∗ QI tiene dominio en CI , para poder escribir que A∗ QI A = A∗ QI AI . Usando estos preliminares, podemos enunciar y probar el teorema de Ben-Tal y Teboulle. + Proposici´ on 13.1.8. Sea A ∈ Mm,n (C) (con m > n) tal que rk(A) = n y sea D ∈ Dm . Entonces,
PD, R(A) = A(A∗ DA)−1 A∗ D =
X det DI | det AI |2 X A(QI A)−1 QI . 2 det DJ | det AJ | I∈J(A) J∈J(A)
PQ, R(A) : Q ∈ J(A) . X Demostraci´on. Fijemos b ∈ Cm . Llamemos M = det DJ | det AJ |2 e y = A∗ Db. La En particular, PD, R(A) ∈ conv
J∈J(A)
cuenta que sigue se va a la otra p´agina, porque es muy larga:
325
Entonces, por la Prop. 13.1.3, para cada i ∈ Im , det(A∗ DA −−→ A∗ Db) ∗
−1
(A DA) y
i∈ I det A∗ DA
=
i
X =
det A∗ D(A −−→ b) i∈ I
=
det A∗ DA
det I (A∗ D) det(A −−→ b)I i∈ I
I⊆n Im
X
(por Cauchy-Binnet)
det J (A∗ D) det AJ
J∈J(A)
X
= M −1
det DI det A∗I det(A −−→ b)I i∈ I
I∈J(A)
X
= M −1
det(A −−→ b)I det DI | det AI |2
I∈J(A)
i∈ I
det AI
X det DI | det AI |2 = A−1 I (bI )i . M I∈J(A)
Juntando todos los i ∈ Im y recordando que cada A−1 = (A∗ QI A)−1 A∗ QI = (QI A)−1 QI , I como los coficientes no dependen de b, tenemos que X det DI | det AI |2 †D ∗ −1 ∗ (QI A)−1 QI . A = (A DA) A D = M I∈J(A)
Multiplicando por A y aplicando la Prop. 13.1.6, estamos.
Un a˜ no antes que apareciera el trabajo de Ben-Tal y Teboulle, Stewart demostr´o que + MA = sup kA(A∗ DA)−1 A∗ Dk : D ∈ Dm = sup kPD, R(A) k < ∞ . (13.7) + D∈Dm
Este resultado, a partir de la Prop. 13.1.8, resulta muy sencillo de probar: Corolario 13.1.9. Sea A ∈ Mm,n (C) (con m > n) tal que rk(A) = n. Entonces MA ≤ max kA(QI A)−1 QI k < ∞ , I∈J(A)
ya que J(A) es finito.
Por otra parte, de la teor´ıa de inversas generalizadas, es bien sabido que la soluci´on del problema (13.2) est´a dada por xD = (D1/2 A)† D1/2 b = (A∗ DA)−1 A∗ Db = A†D b , 326
mientras que la soluci´on del sistema reducido AI x = bI puede escribirse del siguiente modo: xI = (QI A)† QI b = A−1 I bI , para cada I ∈ J(A). Corolario 13.1.10 (Ben-Tal y Teboulle). Sea A ∈ Mm,n (C) (con m > n) tal que rk(A) = n + . Entonces, la soluci´on xD del problema de cuadrados m´ınimos y sea D ∈ Dm min kD
z∈Cn
1/2
2
(Az − b)k
est´a dada por
X det DI | det AI |2 −1 xD = X A I bI . 2 det DJ | det AJ | I∈J(A) J∈J(A)
Observar que cada xI = A−1 on del mismo problema, escaleado con QI . I bI es la soluci´
Observaci´ on 13.1.11. Usando la Prop. 13.1.6, la Prop. 13.1.8 puede reescribirse del sigu+ iente modo: Sea S v Cm y sea D ∈ Dm . Entonces PD, S ∈ conv [{PQ, S : Q ∈ P(Dm ) y R(Q) Y S}] .
(13.8)
n o sup kPD, S k ≤ max kPQ, S k : Q ∈ P(Dm ) : R(Q) Y S .
(13.9)
En particular,
+ D∈Dm
La desigualdad (13.9) es en realidad una igualdad. Este hecho fue demostrado por el mismo Stewart y tambi´en es una consecuencia de la siguiente Proposici´on. Es importante destacar que si uno no se restringe a matrices diagonales, el supremo de las normas de los PA, S no est´a acotado, a´ un cuando A sea inversible. De aqu´ı la importancia del resultado obtenido por Stewart. 4 + Proposici´ on 13.1.12. Sea S v Cm y denotemos por medio de D0,m al conjunto de matrices diagonales, semidefinidas positivas de m × m. Entonces
sup kPD, S k = sup kPD, S k. + D∈Dm
(13.10)
+ D∈D0,m
+ Demostraci´on. Sea D ∈ D0,m y consideremos la sucesi´on de matrices positivas e inversibles {Dk }k≥1 definidas por: 1 Dk = D + I. k Si N = S ∩ N (D), entonces A 0 B S N A + k1 I 0 B S N 1 0 0 0 N 0 I 0 N D= y Dk = , k 1 ∗ ⊥ ∗ ⊥ B 0 C S B 0 C + kI S
327
1 I son inversibles. Luego, por el Teorema 12.2.1, k I 0 (A + k1 I)−1 B I 0 A−1 B 0 0 . = 0 I y PD, S = 0 I 0 0 0 0 0 0
donde A, y por lo tanto A +
PDk , S
En consecuencia obtenemos kPD, S k = lim kPDk , S k ≤ sup kPD0 , S k k→∞
+ D0 ∈Dm
lo cual prueba una desigualdad. La otra es consecuencia de (13.9).
Observaci´ on 13.1.13. Un resultado similar sigue valiendo si uno trabaja con operadores diagonales (respecto de alguna BON fija) en un Hilbert H de dimensi´on infinita. El punto a´lgido es donde se afirma que A es inversible (por ser mono). Eso deja de ser cierto en general en este contexto. Pero s´ı es cierto si uno supone que R(D) v H y que (D, S) es compatible. Porque entonces el Teo. 12.4.2 asegura que R(PS DPS ) = R(A) v H. 4 Corolario 13.1.14. Sea S v Cm . Entonces n o sup kPD, S k = max kPQ, S k : Q ∈ P(Dn ) : R(Q) Y S .
(13.11)
+ D∈Dm
Observaci´ on 13.1.15. En su trabajo, Stewart observ´o que si U ∈ Mm,n (C) es una matriz cuyas columnas forman una base ortonormal del R(A) y mI denota el menor valor singular no mulo de la submatriz UI , entonces: MA−1 ≤ min mI : I ⊆n Im . (13.12) M´as a´ un, Stewart conjetur´o que val´ıa la igualdad en (13.12), lo cual fue demostrado posteriormente por O’Leary. Veamos como esta igualdad se deduce a partir de los resultados anteriores. Comencemos notando que por el Teorema 13.1.12, el m´aximo en (13.11) puede tomarse tanto sobre todas las proyecciones en posici´on P’ con S = R(A) = R(U ) como sobre todas la proyecciones diagonales cuyo rango tiene dimensi´on n. Luego, o n MA = sup kPD, S k = max kPQI , S k : I ⊆n Im . + D∈Dn
Fijemos I ⊆n Im . Por la Prop. 12.5.3, kPQI , S k−1 = s [ S , N (QI ) ] = γ(QI U ) . Pero, mI = γ(QI U ). En consecuencia, kPQI , S k−1 = mI
MA−1
= min
n
kPQI , S k
= min
mI : I ⊆n Im
−1
: I ⊆n Im
o
=⇒
, 4
como afirm´abamos. 328
13.2
Proyecciones escaleadas en dimensi´ on infinita.
Sea H un espacio de Hilbert separable y S v H. A lo largo de de esta secci´on, estudiaremos cantidades del tipo supD∈Γ kPD, S k, donde Γ denota alg´ un subconjunto de L(H)+ . M´as precisamente, fijemos una base ortonormal B = {en }n∈N del espacio de Hilbert H, y sea D el ´algebra abeliana de todos los operadores diagonales con respecto a B, i.e. C ∈ L(H) pertenece a D si existe una sucesi´on acotada de n´ umeros complejos {cn }n∈N tal que Cen = cn en (n ∈ N). Los subconjuntos Γ que consideraremos ser´an los siguientes: 1. D+ , el conjunto de elementos positivos e inversibles en D (i.e. todos los cn > ε, para alg´ un ε > 0), 2. P(D), el conjunto de las proyecciones en D (i.e. cn = 0 o 1), 3. P0 (D), el conjunto de elementos en P(D) con rango finito, 4. P0,S ⊥ (D), el conjunto de elementos Q ∈ P0 (D) tales que R(Q) ∩ S ⊥ = {0}, A diferencia de lo que ocurre en espacios de dimensi´on finita estos supremos pueden no ser finitos, aun cuando el subespacio S sea finito dimensional. En tal sentido, el siguiente ejemplo es contundente: ∞ X n 2− 2 en . Luego Ejemplo 13.2.1. Sea S el subespacio generado por x = n=1
PD, S =
1 1 h · , Dxi x = x Dx , kD1/2 (x)k2 kD1/2 (x)k2
para todo D ∈ D+ . En efecto, una cuenta bastante simple muestra que el operador de la derecha es idempotente, que proyecta sobre span {x} y que D (x Dx) = Dx Dx es autoadjunto. Fijado n ≥ 1, sean Qn = en en y, para cada k ∈ N, Dk = Qn + k1 (I−Qn ) ∈ D+ . 1/2 Entonces Dk −−−→ Qn y tambi´en Dk −−−→ Qn . Por lo tanto, k→∞
k→∞
n
PDk , S
n 1 2− 2 2 x e −−−→ x e x Q x = = 2 . n n n n k→∞ kQn xk2 k2− 2 en k2
Esto muestra que lim kPDk , S k2 = 2n , y por ende sup kPD, S k = ∞. k→∞
4
D∈D+
Esto motiva la siguiente definici´on: Definici´ on 13.2.2. Dado S v H, se dice que S es compatible con respecto a B si sup kPD, S k < ∞ .
(13.13)
D∈D+
En tal caso tambi´en diremos que S es B-compatible.
329
4
En esta secci´on mostraremos que la B-compatibilidad de un subespacio S es equivalente a que supD∈Γ kPD, S k sea finito, donde Γ denota alguno de los subconjuntos de operadores diagonales mencionados anteriormente. Comenzaremos demostrando que un subespacio S es B-compatible si y s´olo si el par (Q, S) es compatible para cada Q ∈ P(D) y adem´as sup kPQ, A k < ∞ . Q∈P(D)
Esto nos ayudar´a a obtener caracterizaciones alternativas de la B-compatibilidad en t´erminos de ´angulos entre subespacios y de propiedades de aproximaci´on finita que estos subespacios poseen. Luego, daremos una versi´on del teorema de Ben-Tal y Teboule para subespacios B-compatibles, que finalmente nos permitir´a demostrar que un subespacio es B-compatible si y s´olo si sup kPQ, S k es finito. Q∈P0,S ⊥ (D)
A lo largo de esta secci´on fijaremos una BON B = {en }n∈N de H, y un subespacio S v H. Usaremos las siguientes notaciones: Para cada I ⊆ N, 1. HI = span {ei : i ∈ I}. 2. QI es la proyecci´on ortogonal sobre HI . 3. En particular, si n ∈ N, abreviaremos Hn = HIn y Qn = QIn = PHn . 4. Tambi´en notaremos SI = S ∩ HI (I ⊆ N) y Sn = S ∩ Hn (n ∈ N). Comencemos con la siguiente definici´on: Definici´ on 13.2.3. Si S es compatible con toda proyecci´on diagonal, entoces definimos la cantidad K[S, D] del siguiente modo: K[S, D] = sup kPQ, S k . Q∈P(D)
En caso de que el par (Q, S) no sea compatible para alguna proyecci´on Q ∈ P(D) definimos K[S, D] = ∞. 4 A continuaci´on demostraremos la equivalencia entre la B-compatibilidad de S y la condici´on K[S, D] < ∞. M´as a´ un, demostraremos que K[S, D] = sup kPQ, S k = sup kPD, S k. D∈D+
Q∈P(D)
Comenzaremos por la parte m´as sencilla: Proposici´ on 13.2.4. Supongamos que S es B-compatible. Entonces (Q, S) es compatible para todo Q ∈ P(D) y adem´as: K[S, D] = sup kPQ, S k ≤ sup kPD, S k. D∈D+
Q∈P(D)
330
Demostraci´on. S´olo demostraremos que dado Q ∈ P(D), entonces el par (Q, S) es compatible. En tal caso, el resto de la demostraci´on seguir´ıa las mismas lineas que la demostraci´on de la Proposici´on 13.1.12 y la Obs. 13.1.13. Fijemos Q ∈ P(D) y definamos la sucesi´on {Dk }k∈N en D+ dados por Dk = Q + k1 I. Entonces los proyectores PDk , S est´an bien definidos y, por hip´otesis, sabemos que sup kPDk , S k < ∞. k≥1
Por lo tanto, la sucesi´on {PDk , S } posee un punto l´ımite P respecto a la topolog´ıa d´ebil de operadores (WOT), pues la bola unitaria de L(H) es WOT-compacta (Prop. 7.6.21). Adem´as, como el espacio H es separable, la topolog´ıa WOT es metrizable en la bola. Luego, W.O.T. podemos suponer que PDk , S −−−→ P . De no ser as´ı, existe una subsucesi´on de {PDk , S }k∈N n→∞ la cual converge, y utilizamos dicha subsucesi´on. Demostraremos que P ∈ P(Q, S), es decir, P 2 = P , R(P ) = S y QP = P ∗ Q. Las primeras dos condiciones surgen de hecho de que para todo k ∈ N, 1 Xk S 1 X S PDk , S = , luego P = , 0 0 S⊥ 0 0 S⊥ donde X es el l´ımite d´ebil de la sucesi´on Xk = PS Dk (1 − PS ). Por otro lado, Dk PDk , S = PD∗ k , S Dk
para cada
k∈N. W.O.T.
Un simple argumento del tipo ε/2 muestra que Dk PDk , S −−−→ QP . Por ende, tomando n→∞ l´ımite en la identidad recientemente mencionada y usando el hecho de que la involuci´on es continua respecto a la topolog´ıa d´ebil de operadores, resulta que QP = P ∗ Q. Para demostrar la rec´ıproca, es necesario probar antes algunos lemas. El primero es el paso clave de toda esta secci´on, y da una idea de que la compatibilidad con una BON es una condici´on muy restrictiva. Lema 13.2.5. Sea S v H y sea B = {en }n∈N una BON de H. Supongamos que existe una sucesi´on {In }n∈N en PF (N) y una constante c < 1 tales que [ In = N y c [ S , HIn ] ≤ c , n ∈ N . In ⊆ In+1 , n∈N
! Entonces c l
[
S ∩ H In
=S .
n∈N
Demostraci´on. Llamemos Qn = PIn , n ∈ N. El enunciado del Lema equivale a decir que SOT
PS ∧ Qn % PS . n→∞
331
ε Sea x ∈ H un vector unitario y sea ε > 0. Sea k ∈ N tal que c2k−1 ≤ . Por la Prop. 8.4.14, 2 se tiene que
ε
k para todo n ∈ N .
(PS Qn ) − PS ∧ Qn ≤ 2 S.O.T.
Por otro lado, como Qn PS −−−→ PS y la funci´on f (t) = tk es SOT-continua en conjuntos n→∞
acotados (ver, por ejemplo, 2.3.2 en [1]), existe n0 ∈ N tal que
h i ε
k para todo n ∈ N .
(Qn PS ) − PS x < 2 Luego, para todo n ≥ n0 , tenemos que
h i
k(PS − PS ∧ Qn ) xk ≤ PS − (PS Qn )k x + (PS Qn )k − PS ∧ Qn x < ε . S.O.T.
Como esto sucede para todo x ∈ H, se tiene que PS ∧ Qn −−−→ PS .
n→∞
El Lema anterior nos permitir´a hacer un estudio local del subespacio S en ambientes de dimensi´on finita, donde se pueden aplicar los resultados de la secci´on anterior. Lema 13.2.6. Si S est´a incluido en alg´ un Hn , entonces S es B-compatible. M´as a´ un {PD, S : D ∈ D+ } ⊆ conv PQ, S : Q ∈ P(D), Q ≤ Qn y R(Q) Y S . En particular, n o sup kPD, S k ≤ sup kPQ, S k : Q ∈ P(D), Q ≤ Qn y R(Q) Y S = K [ S, D ] .
D∈D+
Demostraci´on. Dado D ∈ D, D ≥ 0 (esto vale tanto para D ∈ D+ como para D ∈ P(D) ), el subespacio Hn reduce a D. Luego, la descomposici´on matricial de D inducida por Hn tiene la siguiente forma: D1 0 Hn D= . 0 D2 Hn⊥ M´as a´ un, por la Prop. 12.7.13, el par (D, S) es compatible y PD1 , S 0 Hn , PD, S = 0 0 Hn⊥
(13.14)
donde pensamos a PD1 , S ∈ L(Hn ). Como dim Hn < ∞, la B-compatibilidad de S y el resto de las afirmaciones se deducen ahora de la Prop. 13.1.8 y el Cor. 13.1.14. Observar que si S ⊆ Hn y Q ≤ Qn , la condici´on R(Q) Y S da lo mismo pensarla en Hn o en H. Lema 13.2.7. Dado n ∈ N, entonces: K [ Sn , D ] = sup kPQ, Sn k ≤ sup kPQ, S k = K[S, D] Q∈P(D)
Q∈P(D)
332
Demostraci´on. Usando el Lema 13.2.6 se tiene que: K [ Sn , D ] = sup kPQ, Sn k : Q ∈ P(D), Q ≤ Qn y R(Q) Y Sn . Luego, basta probar la desigualdad kPQ, Sn k ≤ K[S, D] para cada Q ∈ P(D) tal que R(Q)YSn b = Q + (1 − Qn ) ∈ P(D). Entonces se tiene que y Q ≤ Qn . Para una tal Q, consideremos Q b = N (Q) ∩ Hn y, como N (Q) ∩ Hn ∩ S = N (Q) ∩ Sn = {0}, N (Q) c [ N (Q) , Sn ] = sup{ | hx, yi | : x ∈ N (Q), y ∈ Sn tales que kxk = kyk = 1} = sup{ | hx, yi | : x ∈ N (Q) ∩ Hn , y ∈ Sn tales que kxk = kyk = 1} ≤ sup{ | hx, yi | : x ∈ N (Q) ∩ Hn , y ∈ S tales que kxk = kyk = 1} h i b ,S . = c N (Q) Por lo tanto, usando la Prop. 12.5.3, obtenemos h i−1 b ,S kPQ, Sn k = s [ N (Q) , Sn ]−1 ≤ s N (Q) = kPQ, b S k ≤ K[S, D] , tal como quer´ıamos demostrar.
Observaci´ on 13.2.8. Por la Prop. 12.5.3, sabemos que kPQ, S k = s [ N (Q) , S ]−1 . Por lo tanto, como Q −→ (1 − Q) establece una biyecci´on en el conjunto P(D), se tiene que: K[Sn , D] ≤ sup s [ N (Q) , S ]−1 = sup s [ R(Q) , S ]−1 . Q∈P(D)
Q∈P(D)
M´as a´ un, tambi´en se tiene que K[Sn , D] ≤
sup s [ R(Q) , S ]−1 . En efecto, la demostraci´on Q∈P0 (D)
del lema anterior muestra que, con la notaci´on all´ı empleada, para acotar a K[Sn , D] basta b ∈ P0 (D). considerar las proyecciones E = 1 − Q 4 Ahora s´ı estamos en condiciones de probar la rec´ıproca: Proposici´ on 13.2.9. Si K[S, D] < ∞, entonces, S es B-compatible. M´as a´ un sup kPD, S k = sup kPQ, S k = K[S, D]. D∈D+
Q∈P(D)
Demostraci´on. Por el hecho de que K[S, D] < ∞, si calculamos los cosenos c [ S , Hn ], n ∈ N, usando la Prop. 12.5.3, vemos que podemos aplicar el Lema 13.2.5 y deducir que [ S0 = Sn es densa en S . n∈N
333
Fijemos ahora un D ∈ D+ . Recordemos que k · kD es la norma definida por kxkD = kD1/2 xk. Como D ∈ Gl(H)+ , se tiene que k · kD es equivalente la norma usual. Por ende, S0 es densa en S con respecto a ambas normas k · kD y k · k. Fijemos un vector unitario x ∈ H. Como PD, S (resp. PD, Sn ) es la proyecci´on D-ortogonal sobre el subespacio S (resp. Sn ), entonces k ·kD
PD, Sn x −−−→ PD, S x n→∞
=⇒
k ·k
PD, Sn x −−−→ PD, S x , n→∞
usando nuevamente que k · kD ∼ k · k. Por los Lemas 13.2.7 y 13.2.6, resulta que kPD, Sn xk ≤ kPD, Sn k ≤ K[Sn , D] ≤ K[S, D]
para todo
n∈N.
Luego kPD, S xk = lim kPD, Sn xk ≤ K[S, D]. Moviendo los vectores unitarios x ∈ H, n→∞
llegamos a que kPD, S k ≤ K[S, D]. Finalmente, como D es arbitario, la proposici´on queda demostrada.
13.3
Caracterizaciones de la B-compatibilidad
Como consecuencia de las Proposiciones 13.2.4 y 13.2.9 y de los lemas utilizados para demostrar esta u ´ltima, obtenemos las siguientes caracterizaciones de la B-compatibilidad. La primera de ellas es en t´erminos de a´ngulos entre subespacios. Teorema 13.3.1. Sean S v H y B una BON de H. Entonces las siguientes condiciones son equivalentes: 1. S es B-compatible. 2. C(S) = sup c [ S , R(Q) ] : Q ∈ P(D) < 1. 3. CF (S) = sup c [ S , R(Q) ] : Q ∈ P0 (D) < 1. 4. C0 (S) = sup c [ S , R(Q) ] : Q ∈ P0 (D) y R(Q) ∩ S = {0} < 1. M´as a´ un, siempre se tiene que C0 (S) = CF (S) = C(S) = C(S ⊥ ) . Demostraci´on. Por las Proposiciones 13.2.4 y 13.2.9, sabemos S es B-compatible si y s´olo si K[S, D] < ∞. Recordemos por otra parte que, por la Prop. 12.5.3, si Q ∈ P(D), kPQ, S k = 1 − c [ N (Q) , S ]2
−1/2
2 −1/2 = 1 − c R(Q) , S ⊥ .
Luego, claramente K[S, D] < ∞ si y s´olo si C(S ⊥ ) < 1. La igualdad C(S) = C(S ⊥ ) se deduce de la Prop. 8.4.10 y del hecho de que la aplicaci´on Q 7→ I − Q es biyectiva en P(D). Para mostrar las otras igualdades, observemos primero que C0 (S) ≤ CF (S) ≤ C(S). Veamos que CF (S) ≤ C0 (S) : Llamemos P = PS ⊥ . Sean I ∈ PF (N) y Q = QI ∈ P0 (D) tales que P Q 6= 0 (si P Q = 0, entonces c [ S , R(Q) ] = 0 y no interesa). Si sucediera que HI ∩ S = 6 {0} (o sea que Q ∈ / P0,S (D) ), consideremos el conjunto {P ei : i ∈ I}, que genera 334
R(P Q), pero no queda LI (porque P H tiene n´ ucleo no trivial). Extraigamos un J ⊆ I I tal que {P ei : i ∈ J} sea una base de R(P Q). Entonces HJ ∩ S = {0}. Tomemos ahora E = QJ ∈ P0,S (D), que verifica que E ≤ Q y R(P Q) = R(P E). Observar que entonces R(P EP ) = R(P QP ) y 0 ≤ P EP ≤ P QP . Usando el Cor. 8.4.6 y las Proposiciones 8.4.9 y 8.4.4, resulta que s [ S , R(E) ]2 = γ(P E)2 = γ(P EP ) ≤ γ(P QP ) = γ(P Q)2 = s [ S , R(Q) ]2 . Por lo tanto c [ S , R(Q) ] ≤ c [ S , R(E) ] , y en consecuencia CF (S) ≤ C0 (S) . Supongamos ahora que CF (S) < 1 (si CF (S) = 1 no hay nada que probar). Como hemos notado en la Obs. 13.2.8, sup kPQ, Sn k ≤ (1 − CF (S)2 )−1/2 < ∞
para todo
n∈N.
Q∈P(D)
Por otro lado, dado que se cumplen sus hip´otesis, el Lema 13.2.5 nos asegura que densa en S. Luego, siguiendo la demostraci´on de la Proposici´on 13.2.9 resulta que
∞ [
Sn es
n=1
sup kPD, S k ≤ (1 − CF (S)2 )−1/2 . D∈D+
Finalmente, de la Proposici´on 13.2.4 y la identidad kPQ, S k = 1 − c [ N (Q) , S ]2 obtiene que C(S) ≤ CF (S).
−1/2
, se
Corolario 13.3.2. Sean S v H y B una BON de H. Entonces sup kPD, S k = sup kPQ, S k = D∈D+
Q∈P(D)
sup kPQ, S k = Q∈P0 (D)
sup
kPQ, S k.
Q∈P0,S ⊥ (D)
En particular, estos supremos son finitos si y s´olo si S es B-compatible. Demostraci´on. Las primera igualdad es consecuencia de las Proposiciones 13.2.4 y 13.2.9. Por otro lado, claramente sup kPQ, S k ≥ Q∈P(D)
sup kPQ, S k ≥ Q∈P0 (D)
sup
kPQ, S k .
Q∈P0,S ⊥ (D)
Como en el Teorema anterior, por la Prop. 12.5.3, −1/2 2 −1/2 kPQ, S k = 1 − c [ N (Q) , S ]2 = 1 − c R(Q) , S ⊥ . Por lo tanto, con las notaciones del Teo. 13.3.1, tenemos que −1/2 −1/2 ⊥ 2 ⊥ 2 y sup kPQ, S k = 1 − C0 (S ) , sup kPQ, S k = 1 − C(S ) Q∈P(D)
Q∈P0,S ⊥ (D)
Pero, por el Teo. 13.3.1, C(S ⊥ ) = C0 (S ⊥ ) , y todos los supremos coinciden. 335
Proposici´ on 13.3.3. Sean S v H y B una BON de H. Entonces las siguientes condiciones son equivalentes: 1. S es B-compatible. 2.
a.
∞ [
Sn es denso en S.
n=1
b. Existe M > 0 tal que K [ Sn , D ] = sup kPQ, Sn k ≤ M para todo n ∈ N. Q∈P(D)
Demostraci´on. 1 ⇒ 2. Por la proposici´on anterior sup c [ S , R(Q) ] : Q ∈ P(D) < 1. Luego, esta implicaci´on es una consecuencia de los Lemas 13.2.5 y 13.2.7. 2 ⇒ 1. Fijemos D ∈ D+ . El argumento utilizado en la Proposici´on 13.2.9 para demostrar que kPD, S k ≤ K[S, D], se puede repetir ahora, usando las hip´otesis de 2, para probar que kPD, S k ≤ sup K[Sn , D] ≤ M < ∞ . n∈N
Moviendo ahora D ∈ D+ , llegamos a que S es B-compatible.
Corolario 13.3.4. Sea S v H tal que dim S < ∞. Entonces S es B-compatible si y s´olo si existe un n ∈ N tal que S ⊆ Hn . Demostraci´on. Observar que, si S ⊆ Hn , entonces S = Sn . Por otro lado, por la Prop. 12.7.13, se tiene que K[Sm , D] = K[Sn , D] < ∞ para todo m ≥ n. La rec´ıproca se deduce de que, como dim S < ∞, la condici´on 2. a. de la Prop. 13.3.3 s´olo puede cumplirse si existe un n ∈ N tal que S ⊆ Hn . Observaciones: 13.3.5. 1. Volver a mirar el Ejem. 13.2.1 en vista del Cor. 13.3.4. 2. Como c [ S , T ] = c S ⊥ , T ⊥ para todo par S, T v H, entonces un subespacio S es B-compatible si y s´olo si S ⊥ es B-compatible. M´as a´ un, K[S, D] = K[S ⊥ , D]. 3. El hecho de que la compatiblidad de S con B implique que la uni´on de los Sn es densa en S, de alg´ un modo, muestra que la condici´on de B-compatibilidad es bastante restrictiva. No obstante, como veremos en el siguiente Cap´ıtulo, estos subespacios aparecen en las aplicaciones. 4
336
Parte III Marcos
337
Cap´ıtulo 14 Frames Introduciremos algunos hechos b´asicos sobre marcos (frames) en espacios de Hilbert. Para una descripci´on completa de la teor´ıa de frames y sus aplicaciones, sugerimos ver el review de Heil y Walnut [27] o los libros de Young [35] y Christensen [15].
14.1
Nociones B´ asicas
Definici´ on 14.1.1. Sea F = {fn }n∈N una sucesi´on en un espacio de Hilbert separable H. 1. Decimos que F es una sucesi´on de Bessel si existe B > 0 tal que, para toda f ∈ H, X | hf, fn i |2 ≤ Bkf k2 . (14.1) n∈N
2. Decimos que F es un frame si existen numeros A, B > 0 tales que, para toda f ∈ H, X Akf k2 ≤ | hf, fn i |2 ≤ Bkf k2 . (14.2) n∈N
3. Las constantes o´pimas AF y BF para la Ec. (14.2) se llaman cotas de frame de F. 4. El frame F se denomina ajustado si AF = BF , y ajustado normalizado (o tambi´en de P arseval) si AF = BF = 1. Observaci´ on 14.1.2. Sea F = {fn }n∈N una sucesi´on de Baessel en H. Definamos la apli∗ caci´on T : H → `2 (N) por ∈ `2 (N) . H 3 f 7−→ T ∗ (f ) = hf , fn i n∈N
La ecuaci´on (14.1) significa que T ∗ ∈ L(H, `2 (N) ) (o sea que T ∗ es acotado, con kT ∗ k2 ≤ B). Y la Ec. (14.2) dice que F es frame si y s´olo si T ∗ es, adem´as, acotado inferiormente. Observar que esto u ´ltimo equivale a la suyectividad (y continuidad) del adjunto de T ∗ , X T ∈ L(`2 (N) , H) dado por `2 (N) 3 c = (cn )n∈N 7−→ T (c) = cn f n . n∈N
338
En efecto, observar que hf, T en iH = hT ∗ f, en i`2 (N) = hf, fn i
para todo
f ∈H
y
n∈N.
Por ello T en = fn para todo n ∈ N. Esto justifica las siguientes definiciones:
4
Definici´ on 14.1.3. Sea F = {fn }n∈N un frame en H. Sean K y H0 espacios de Hilbert separables con H v H0 . Sea B = {ϕn : n ∈ N} una BON de K. Luego existe un u ´nico T ∈ L(K, H0 ) tal que T (ϕn ) = fn , n ∈ N . Diremos que el triple (T, K, B) es un operador preframe (o de s´ıntesis) de F. De la Obs. 14.1.2 deducimos que R(T ) = H. En particular, si H0 = H, se tiene que T es suryectivo. La notaci´on con tripletes (T, K, B) omite nombrar el espacio H0 . Esto se debe a que el tal espacio no es determinante para el frame F. Sin embargo, admitimos que el codominio de T sea variable porque muchas veces, por razones t´ecnicas, ambientaremos a H en espacios de Hibert mayores, y as´ı las notaciones usadas ser´an coherentes. 4 Observaci´ on 14.1.4. Sea F = {fn }n∈N un frame en H con operador preframe (T, K, B). 1. Las cotas de frame de F pueden calcularse en t´erminos de T : AF = γ(T )2
y
BF = kT k2 .
(14.3)
2. El adjunto T ∗ ∈ L(H0 , K) of T , est´a dado por la f´ormula X T ∗ (f ) = hf, fn iϕn , f ∈ H0 , n∈N
donde B = {ϕn : n ∈ N}. Se lo llama operador de an´alisis de F. 3. Si (T1 , K1 , B1 ) es otro operador de preframe para F, debe existir un operador unitario U ∈ L(K1 , K) que manda B1 sobre B. Por lo tanto T1 = T U . Deducimos que el operador S = T T ∗ = T1 T1∗ . Observar que X hf, fn i fn , f ∈ H0 . (14.4) Sf = n∈N
Por lo tanto, si se piensa a S actuando en H, usando la Ec. (14.3) podemos deducir que AF I ≤ S ≤ BF I, por lo que S es positivo e invertible en H. M´as a´ un, las cotas de F son BF = kSk = ρ(S)
y
AF = γ(S) = kS −1 k−1 = min{λ : λ ∈ σ(S)} .
A este S se lo llama operador frame de F. Notar que, por las observaciones previas, el operador frame de F no depende del opreador preframe elegido. Adem´as, usando la Ec. (14.4) podemos deducir las siguientes f´ormulas de reconstrucci´on: X X
f= hf, fn i S −1 fn = f, S −1 fn fn para todo f ∈ H . (14.5) n∈N
n∈N
339
4. A la sucesi´on de n´ umeros { f, S −1 fn } se la llama coeficientes de frame de f para F. Tienen la siguiente propiedad de optimizaci´on: si X X
X c = (cn )n∈N ∈ `2 (N) cumple f = cn fn =⇒ | f, S −1 fn |2 ≤ |cn |2 . n∈N
n∈N
n∈N
Es decir que los coeficientes de frame de f para F dan la reconstrucci´on ´optima para cada f ∈ H. 5. La sucesi´on G = {gn }n∈N dada por gn = S −1 fn , n ∈ N, es tambi´en un frame. Se lo llama el frame dual de F. La gracia es que verifica las f´ormulas de reconstrucci´on X X f= hf, fn i gn = hf, gn i fn para todo f ∈ H n∈N
n∈N
4
que vimos en la Ec. (14.5). Definici´ on 14.1.5. Sea F = {fn }n∈N un frame en H con operador preframe (T, K, B). 1. El n´ umero cardinal e(F) = dim N (T ) se llama el exceso de F.
2. Notar que, por la Obs. 14.1.4, e(F) no depende del operador preframe elegido. En particular, o n X 2 cn f n = 0 , e(F) = dim (cn )n∈N ∈ ` : n∈N
que es la nulidad del operador preframe inducido por la base canonica de `2 (N). 3. El frame F Se llama base de Riesz si e(F) = 0, i.e., si F es la imagen de una BON de alg´ un Hilbert K por un isomorfismo T ∈ L(K, H).
14.2
Perturbaciones de frames
Un tema muy estudiado es el “problema de perturbaciones” para frames. Esto es: si F = {fn }n∈N es un frame en un espacio de Hilbert H, ¿qu´e podemos decir acerca de una sucesi´on de Bessel G = {gn }n que est´a “cerca”, en alg´ un sentido, de F? El survey [9] de Casazza’s es una excelente gu´ıa sobre los resultados en este tema. A continmuaci´on veremos un resultado general para operadores del cual se pueden deducir varios de los resultados m´as conocidos sobre perturbaci´on. Lema 14.2.1. Sea T ∈ L(H) tal que R(T ) = H. Si G ∈ L(H) y kG − T k < γ(T ) = kT † k−1 , entonces G es tambi´en suryectivo, y adem´as γ(G) ≥ γ(T ) − kG − T k. 340
Demostraci´on. Poe ser T suryectivo, tenemos que T T † = I. Pero kGT † − Ik = k(G − T )T † k ≤ kG − T k kT † k < 1 . Esto muestra que GT † es invertible. Por lo tanto T † (GT † )−1 es una inversa a derecha de G, o sea que es una de sus seudoinversas. Por la Prop. 8.3.6, kG† k ≤ kT † (GT † )−1 k y γ(G) = kG† k−1 ≥ kT † (GT † )−1 k−1 ≥ γ(T ) k(GT † )−1 k−1
≥ γ(T )
∞ X
!−1 kG − T kn kT † kn
n=0
= γ(T ) 1 − kG − T k kT † k = γ(T ) − kT − Gk como se aseguraba.
Fijemos de ahora en m´as un frame F = {fn }n∈N en H, con operador de preframe (T, H, B). Como siempre, notaremos S = SF = T T ∗ al operador de frame de F, que cumple γ(S) = AF y kSk = BF . Proposici´ on 14.2.2. Sea G = {gn }n∈N una sucesi´on de Bessel, con operador de preframe (G, H, B). Si existe alg´ un B ∈ Gl (H) tal que R = kT ∗ S −1/2 − G∗ Bk < 1 ,
(14.6)
entonces G es un frame en H, con constantes AG ≥ (1 − R)2 kBk−2
y
BG ≤ (1 + R)2 kB −1 k2 .
(14.7)
Demostraci´on. Tenemos que ver que G es epimorfismo, y que las constantes propuestas acotan a GG∗ . Observar que S −1/2 T es una isometr´ıa parcial (la de la DP de T ). Luego R = kT ∗ S −1/2 − G∗ Bk = kS −1/2 T − B ∗ Gk < 1 = γ(S −1/2 T ) . Por el Lema 14.2.1, tenemos que B ∗ G es epimorfismo, por lo que tambi´en G lo es. Adem´as, el mismo Lema asegura que γ(G) ≥ γ(B −1 )γ(B ∗ G) ≥ γ(B −1 ) γ(S −1/2 T ) − kS −1/2 T − B ∗ Gk = kBk−1 (1 − R) , por lo que AG ≥ (1 − R)2 kBk−2 . La otra deisgualdad sale en forma similar.
Corolario 14.2.3. Sea G = {gn }n∈N sucesi´on de Bessel en H. Si existe R < 1 tal que X h f , S −1/2 (fn − gn ) i 2 ≤ R2 kf k2 , para toda f ∈ H , (14.8) n∈N
entonces G es un frame en H tal que AF (1 − R)2 ≤ AG
y 341
BG ≤ BF (1 + R)2 .
Demostraci´on. Observar que (14.8) es equivalente a que k(T ∗ − G∗ )S −1/2 k2 = kT ∗ S −1/2 − G∗ S −1/2 k2 ≤ R2 , X h h , fn − gn i 2 , para todo h ∈ H. Por la Prop. 14.2.2, tenemos porque k(T ∗ − G∗ ) hk2 = n∈N
que G es frame. Para la acotaci´on de sus cotas, basta observar que kS −1/2 k−2 = γ(S) = AF
y
kS 1/2 k2 = kSk = BF ,
y aplicar la f´ormula (14.7).
Corolario 14.2.4. (Casazza, Christensen) Sean µ1 , µ2 > 0 tales que R = µ1 +
µ2 1/2
< 1, y
AF
sea G = {gn }n∈N sucesi´on de Bessel en H. Si para toda f ∈ H se tiene que !1/2 !1/2 X X h f , fn − gn i 2 h f , fn i 2 k(T ∗ − G∗ ) f k = ≤ µ1 + µ2 kf k , (14.9) n∈N
n∈N
entonces G es un frame en H tal que AF (1 − R)2 ≤ AG
y
BG ≤ BF (1 + R)2 .
Demostraci´on. Aplicando la f´ormula (14.9) a S −1/2 f , tenemos que k(T ∗ − G∗ ) S −1/2 f k ≤ µ1 kT ∗ S −1/2 f k + µ2 kS −1/2 f k ! µ2 kf k = R kf k , ≤ µ1 + 1/2 AF −1/2
porque kS −1/2 k = AF
y kT ∗ S −1/2 k = 1. Ahora basta aplicar el Cor. 14.2.3.
Corolario 14.2.5. (Christensen- Heil) Sea G = {gn }n∈N sucesi´on de Bessel en H y sea 0 < R < AF . Si para toda f ∈ H se tiene que X h f , fn − gn i 2 ≤ R2 kf k2 , (14.10) n∈N
entonces G es un frame en H tal que 2 R ≤ AG AF 1 − AF
y
2 R BG ≤ BF 1 + . AF
Demostraci´on. Basta observar que, para toda f ∈ H, k(T ∗ − G∗ )S −1/2 f k2 ≤ RkS −1/2 f k2 ≤ −1/2
porque kS −1/2 k = AF
R kf k2 , AF
. Aplicar nuevamente el Cor. 14.2.3. 342
14.3
Proyecciones y frames
Los frames y las proyecciones se relacionan de varias maneras. Por ejemplo, si F es un frame en H con operador preframe (T, K, B), como T es suryectivo, cada seudoinversa U de T produce una proyecci´on U T ∈ L(K). En esta secci´on estudiaremos el problema de caracterizar a los frames que admitan alg´ un operador preframe que sea una proyecci´on (ortogonal u obl´ıcua). En toda esta secci´on usaremos que un subespacio S v H induce una representaci´onde L(H) v´ ıa matrices de bloques de 2 × 2. As´ı, identificaremos un A ∈ L(H) A11 A12 S con la matriz . Por ejemplo, es f´acil ver que Q ∈ L(H) is una projecci´on A21 A22 S ⊥ I X S oblicua con R(Q) = S si y s´olo si Q tiene la forma Q = , para alg´ un 0 0 S⊥ X ∈ L(S ⊥ , S).
14.3.1
Proyecciones ortogonales
Recordemos que si H v K, notamos por PH al proyector ortogonal sobre H. Enunciaremos en principio el siguiente resultado de Han y Larson [25], que estaba impl´ıcito en la teor´ıa de dilaciones de Naimark (ver las comentarios de Casazza y Kovacevic [14] p. 396). Teorema 14.3.1 (Han y Larson). Dada una sucesi´on F = {fn }n∈N en H, los siguientes enunciados son equivalentes: 1. F es un frame de Parseval en H. 2. Existen un espacio de Hilbert K w H y una BON B = {en }n∈N de K tales que el triplete (PH , K, B) es un operador preframe para F, i.e., fn = PH en , n ∈ N. A contiunuaci´on daremos una versi´on generalizada de este Teorema, en el sentido de que si uno proyecta ortogonalmente bases de Riesz (en ves de ortonormales) consigue TODOS los frames de H. Adem´as esto se puede hacer sin modificar las cotas de frame, lo que hace que el siguiente resultado, en particular, implique el Teorema de Han y Larson. Teorema 14.3.2. Dada una sucesi´on F = {fn }n∈N en H, los siguientes enunciados son equivalentes: 1. F = {fn }n∈N es un frame para H. 2. Existe un espacio de Hilbert K w H y una base de Riesz R = {xk }k∈N de K tal que fn = PH xn , para todo n ∈ N. M´as a´ un, en tal caso se puede elegir la base de Riesz R de tal modo que AR = AF
y
343
BR = BF .
(14.11)
Demostraci´on. Supongamos que F es un frame. Sea (T, H, B) un operador preframe de F. Tomemos K = H ⊕ N (T ). Sea V : H = N (T )⊥ ⊕ N (T ) → H ⊕ N (T ) = K definido por: V x = T x ⊕ γ(T )PN (T ) x = T PN (T )⊥ x ⊕ γ(T )PN (T ) x,
x ∈ H.
Como T (N (T )⊥ ) = R(T ) = H, se tiene que V ∈ L(H, K) y es un isomorfismo. Por ende, si B = {en }n∈N , entonces R = {xn = V en : n ∈ N} es una base de Riesz de K. Observar que fn = T en = PH xn para todo n ∈ N. Finalmente, por la construcci´on de V , se ve que γ(V ) = γ(T )
y
kV k = kT k ,
lo que implica las identidades de (14.11). La rec´ıproca es evidente.
14.3.2
Proyecciones Oblicuas
En esta secci´on estudiaremos el siguiente problema: dado un frame F = {fn }n∈N para H, ¿existe un espacio de Hilbert K w H, una BON B = {en }n∈N de K y una proyecci´on oblicua (i.e., no necesariamente ortogonal) Q ∈ L(K) tal que el triplete (Q, K, B) es un operador preframe para F (i.e., fn = Q en , para todo n ∈ N)? En otras palabras, ¿existe un preframe operator (Q, K, B) para F tal que Q es idempotente? En general la respuesta es no. En efecto, se tienen al menos dos obstrucciones: 1. Toda proyecci´on oblicua Q cumple que γ(Q) ≥ 1, porque QQ∗ ≥ QPR(Q) Q∗ = PR(Q) ,
R(QQ∗ ) = R(Q)
y
γ(PR(Q) ) = 1 .
Por lo tanto, si existiera una representaci´on de F como se buscaba, se tendr´ıa que pedir al menos que AF = γ(Q) ≥ 1. Esta obstrucci´on ne es muy esencial, porque se puede arreglar multiplicando a F por una constante positiva conveniente. 2. Pero incluso si las constantes de frame de F cumplieran que 1 ≤ AF ≤ BF , la representaci´on podr´ıa no existir si e(F) < ∞. Por ejemplo, si F fuese una base de Riesz con un operador preframe (Q, K, B) para alguna proyecci´on oblicua Q ∈ L(K) y una BON B = {en }n∈N de K w H, entonces sabemos que 0 = e(F) = dim N (Q). O sea que K = H, Q = I y F = B. Estamos diciendo que las u ´nicas bases de Riesz que admiten una tal representaci´on son las bases ortonormales. El siguiente teorema completa, en alg´ un sentido, los resultados de Casazza, Han y Larson expuestos en [13, secci´on 3]. Teorema 14.3.3. Sea F = {fn }n∈N un marco para H, con cotas 1 ≤ AF ≤ BF . Denotemos K = H ⊕ H. Entonces existe un sistema ortonormal B = {bn }n∈N en K y una proyecci´on oblicua Q ∈ L(K) con R(Q) = H ⊕ {0}, tales que fn ⊕ 0 = Q b n ,
para todo
n∈N.
M´as a´ un, si e(F) = ∞, entonces puede suponerse que B es una BON de K. 344
Demostraci´on. Sea (T, H, E) un operador preframe de F, con E = {en }n∈N una BON del mismo H donde vive F. 1. Por hip´otesis, T T ∗ ≥ AF I ≥ I y podemos definir X = (T T ∗ − I)1/2 ∈ L(H)+ . 2. Sea T0 : H → K el operador definido por T0 x = T x ⊕ 0, x ∈ H. Entonces ∗ T TT∗ 0 H ∗ ∗ T0 = y T0 = T 0 =⇒ T0 T0 ∼ ∈ L(K) . 0 0 H 0
IH X 3. Sea Q = ∈ L(K). Entonces, es claro que Q es una proyecci´on oblicua tal 0 0 que R(Q) = H ⊕ 0. M´as a´ un, IH + XX ∗ 0 ∗ QQ = = T0 T0∗ =⇒ |Q∗ | = |T0∗ | . 0 0 Consideremos la descomposici´on polar (a derecha) T = |T ∗ |U , donde U ∈ L(H) es una isometr´ıa partial espacio inicial N (T )⊥ y espacio final R(T ) = H. Definamos V :H→K
dado por
V x = U PN (T )⊥ x ⊕ PN (T ) x,
x ∈ H.
(14.12)
Entonces, V es una isometr´ıa y T0 = |T0∗ |V . La isometr´ıa parcial de la descomposici´on polar a derecha de Q puede extenderse a un operador unitario W sobre K, pues dim(N (Q)) = dim(R(Q)⊥ ). M´as a´ un, esto puede hacerse de modo que Q = |Q∗ |W . Entonces T0 = |T0∗ |U = |Q∗ |U = Q W ∗ U. Luego, si definimos B = {bn }n∈N = {W ∗ V en }n∈N , que es un sistema ortonormal en K (porque W ∗ V es isometr´ıa), se tiene que fn = T en ∼ T en ⊕ 0 = T0 en = Q(W ∗ V en ) = Qbn ,
n∈N.
Supongamos ahora que e(F) = dim N (T ) = ∞. Mostraremos que la isometria V definida en la ecuaci´on (14.12) puede cambiarse por un operador unitario de H sobre K, que sigue satisfaciendo que T0 = |T0∗ |V . Para ello, tomemos V x = U PN (T )⊥ x ⊕ Y PN (T ) x,
x ∈ H,
donde Y ∈ L(`2 (N), H) es la isometr´ıa parcial con espacio inicial N (T ) y espacio final H. Se tiene que V manda isom´etricamente N (T )⊥ sobre H ⊕ {0} y N (T ) sobre {0} ⊕ H por lo que es, en efecto, unitario. Luego, la sucesi´on bn = W ∗ V en , n ∈ N, resulta ser una base ortonormal de K. Observaci´ on 14.3.4. Usando la notaci´on del Teorema 14.3.3, si K0 = span {bn } y Q0 = Q K0 , entonces (Q0 , K0 , B) es un operador preframe de F, por lo que parecer´ıa que es posible considerar (en general) bases ortonormales en vez de sistemas ortonormales. No obstante, el Teorema 14.3.5 muestra que este argumento falla: observar que H no est´a necesariamente contenido en K0 , y en tal caso no se cumple que Q0 sea una proyecci´on. 4 345
Si e(F) < ∞, se tiene el siguiente teorema: Teorema 14.3.5. Sea F = {fn }n∈N un marco en H con cotas 1 ≤ AF ≤ BF . Supongamos que e(F) < ∞. Entonces, las siguientes condiciones son equivalentes: 1. Existe un espacio de Hilbert K tal que H ⊆ K, una proyecci´on Q ∈ L(K), y una base ortonormal B = {bn }n de K tal que fn = Qbn para todo n ∈ N. 2. Si S es el operador de frame de F, entonces dim ran(S − IH ) ≤ e(F). Demostraci´on. Sea (T, H, B) un operador preframe de F. Observar que S = T T ∗ . Si la primer condici´on se satisface, entonces e(F) = dim N (T ) = dim N (Q) = dim(K H). Identificaremos K H con N (T ), y por lo tanto K con H ⊕ N (T ). Sea T0 : H → K, dado por T0 x = T x ⊕ 0. Entonces TT∗ 0 H S 0 H ∗ T0 T0 = = ∈ L(K) . 0 0 N (T ) 0 0 N (T ) IH X H Es f´acil ver que debe existir X ∈ L(N (T ), H) tal que Q = . Entonces 0 0 N (T ) S 0 IH + XX ∗ 0 ∗ ∗ = T0 T0 = QQ = . 0 0 0 0 En consecuencia, S − IH = XX ∗ , mientras que dim R(XX ∗ ) ≤ dim R(X) ≤ dim N (T ). Reciprocamente, si dim ran(S − I) ≤ dim N (T ), consideremos, como en la demostraci´on del Teorema 14.3.3, X = (S − I)1/2 ∈ L(H)+ . Notemos que dim N (X)⊥ = dim R(X) ≤ dim N (T ). Entonces existe una isometr´ıa parcial U : N (T ) → H con U U ∗ = PN (X)⊥ . Como antes, usamos el espacio de Hilbert K = H ⊕ N (T ), y el operador T0 ∈ L(H, K), dado por T0 x = T x ⊕ 0. Sea Y = XU ∈ L(N (T ), H), y IH Y H Q= ∈ L(K). 0 0 N (T ) Entonces Q2 = Q, R(Q) = H ⊕ {0} y |Q∗ | = |T0∗ |, pues Y Y ∗ = XU U ∗ X ∗ = XPN (X)⊥ X ∗ = XX ∗ . Luego ∗
QQ =
I +YY∗ 0 0 0
=
I + XX ∗ 0 0 0
= T0 T0∗ .
El resto de la demostraci´on sigue las mismas ideas que la primer parte de la demostraci´on del Teorema 14.3.3, pero tomando K = H ⊕ N (T ). Notemos que, en este caso, la isometr´ıa V definida en la ecuaci´on (14.12) resulta un operador unitario de H sobre K. Por lo tanto, si W es el operador unitario considerado en la primer parte de la demostraci´on del Teorema 14.3.3, la sucesi´on bn = W ∗ V en , n ∈ N, resulta ser una base ortonormal de K. 346
14.4
Frames de Riesz y de Riesz condicionados
Como observa Christensen en [15] , p.P 65, unframe F = {fn }n∈N , puede se dificil, en la
dado −1 −1 pr´actica, usar la decomposici´on f = f, S fn fn , porque se necesita aproximar S o, −1 al menos, los coeficientes frame f, S fn . Para obtener algunas ventajas usando bases de Riesz, Christensen introdujo en [16] el m´ etodo de la projecci´ on, que aproxima S y S −1 con operadores de rango finito, que act´ uan en ciertos espacios finitodimensionales Hn dentro de H. M´as tarde, Christensen [18] defini´o dos clases particulares de frames: frmaes de Riesz y frmaes de Riesz condicionados, que se adaptan bien a los problemas mencionados. Fijaremos algunas notaciones: - Llamaremos P(N) al conjunto de partes de N. - Notaremos PF (N) = {I ∈ P(N) : |I| < ∞} a las partes finitas y PI (N) = P(N)\PF (N) a las infinitas. Sea B = {en }n∈N una BON de H y sea I ∈ P(N). - Notaremos BI = {en : n ∈ I}, HI = span {BI }, y PI = PHI a la proyecci´on ortogonal de H sobre HI . - Si I = In = {1, 2, . . . , n}, escribiremos Hn en lugar de HI . - Dado S v H, llamaremos Sn = S ∩ Hn , para cada n ∈ N. - Si F = {fn }n∈N es un frame en H, notaremos FI = {fn }n∈I y Fn = FIn . - Diremos que FI es una sucesi´on frame si es un frame para span {FI }. - En cambio, FI se dir´a subframe de F si ella misma es un frame en H.
14.4.1
Frames de Riesz
Una de las principales causas que indujeron a estudiar clase de marcos fue la dificultad
esta −1 pr´actica que implica el c´alculo de los coeficientes { f, S fn }n∈N de la descomposici´on f=
X
f, S −1 fn fn .
Con el objeto de hacer uso de las ventajas que poseen las bases de Riesz en este aspecto, Christensen hab´ıa introducido en [16] el denominado m´etodo proyectivo, el cual aproxima los operadores S y S −1 por medio de operadores de rango finito, los cuales act´ uan en ciertos espacios finitos dimensionales cuya uni´on es densa en H. Los marcos de Riesz se ajustaban bi´en a este m´etodo. M´as tarde (ver [16]), Christensen caracteriz´o exactamente que marcos de adaptan bi´en al m´etodo antes mencionado. A estos marcos los denomin´o marcos de Riesz condicionados, por su estrecha conexi´on con los de Riesz.
347
Definici´ on 14.4.1. 1. Un frame F = {fn }n∈N se denomina frame de Riesz si existen A, B > 0 tales que, para todo I ⊂ N, la sucesi´on FI es una sucesi´on frame con cotas A y B (uniformes para todo I). 2. F se llama frame de Riesz condicionado si existe una sucesi´on {In }n∈N en PF (N) (o sea que son finitos) tal que (a) In ⊆ In+1 para todo n ∈ N, [ (b) In = N n∈N
(c) Existen A, B > 0 que funcionan como cotas para todas las sucesiones frame FIn . El lector interesado en m´as detalles sobre marcos de Riesz y marcos de Riesz condicionados puede ver los art´ıculos citados a lo largo de esta secci´on, como as´ı tambi´en [8], [10] y [11]). Observaci´ on 14.4.2. Sean F un frame en H con operador preframe (T, H, B) e I ⊆ N. 1. Se tiene que FI es sucesi´on frame si y s´olo si R(T PI ) v H. 2. Por otra parte, FI es un subframe de F si y s´olo si R(T PI ) = H. 3. En ambos casos las cotas frame para FI son AFI = γ(T PI )2
(si T PI 6= 0)
y
BFI = kT PI k2 ,
(14.13)
ya que (T PI , HI , {en }n∈I ) deviene operador preframe para cada FI . Usando estos hechos y la Proposici´on 8.4.12, podemos obtener dos caracterizaciones alternativas de los frames de Riesz: 4 Proposici´ on 14.4.3. Sea F un frame en H con operador preframe (T, H, B). Entonces son equivalentes: 1. F es un frame de Riesz. 2. Existe ε > 0 tal que γ(T PI ) ≥ ε para todo I ∈ P(N) tal que T PI 6= 0. 3. Existe c < 1 tal que c [ N (T ) , HI ] ≤ c
para todo I ∈ P(N)
.
(14.14)
Demostraci´on. Por la Prop. 8.4.12, para todo I ⊆ N tal que T PI 6= 0 se tiene que γ(T ) s [ N (T ) , HI ] ≤ γ(T PI ) ≤ kT k s [ N (T ) , HI ] . Esto implica la equivalencia entre 2 y 3 (si T PI = 0 entonces c [ N (T ) , HI ] = 0). Por otra parte, usando la Prop. 8.4.11, y la Ec. (14.13), podemos deducir la equivalencia entre 1 y 2. Se tiene un resultado similar para frames de Riesz condicionados. 348
Proposici´ on 14.4.4. Sean F un frame en H con operador preframe (T, H, B). Entonces F es frame de Riesz condicionado si y s´olo si existen una sucesi´on {In }n∈N en PF (N) y una constante c < 1 tales que [ In ⊆ In+1 , In = N y c [ N (T ) , HIn ] ≤ c , n ∈ N (14.15) n∈N
o, equivalentemente, γ(T PIn ) ≥ ε para cierto ε > 0.
Observaci´ on 14.4.5. Enumeraremos a continuaci´on algunos resultados del Cap´ıtulo anterior que usaremos aqu´ı: Sean S v H y B = {en }n∈N una BON de H. Para cada I ∈ P(N), se denota HI = span {ei : i ∈ I}. Si n ∈ N, escribimos Hn = HIn . 1. En el Teo. 13.3.1 vimos que S es B-compatible si y s´olo si C(S) = sup c [ S , HI ] : I ∈ P(N) < 1.
(14.16)
2. Dada una sucesi´on {In }n∈N en PF (N), si existe c < 1 tal que se cumple la Ec. (14.15), entonces por el Lema 13.2.5, ! [ cl S ∩ H In = S . (14.17) n∈N
3. Para cada n ∈ N, sean Sn = S ∩ Hn y C(Sn ) = sup c [ Sn , HJ ]. Por el Teo. 13.3.1, el J⊆ In
Lema 13.2.5 y la Prop. 13.3.3, las siguientes condiciones son equivalentes: (a) S es B-compatible. (b) Existe c < 1 tal que c [ S , Hn ] ≤ c para todo n ∈ N, y sup C(Sn ) < 1. n∈N ! [ (c) c l Sn = S y sup C(Sn ) < 1. n∈N
n∈N
(d) C0 (S) = sup
c [ S , HI ] : I ∈ PF (N) tal que S ∩ HI = {0}
< 1.
4
Proposici´ on 14.4.6. Sea F un frame de Riesz condicionado y sea (T, H, B) un operador preframe asociado. Notemos S = N (T ). Se tiene que ! ∞ [ cl S ∩ Hm = S. (14.18) m=1
Demostraci´on. Como F es un frame de Riesz condicionado, existen una sucesi´on {In }n∈N en PF (N) S y una constante c < 1 que verifican la Ec. (14.15). Por la f´ormula (14.17), sabemos que n∈N S ∩ HIn es densa in S. SFinalmente, para S cada n ∈ N, existe m ∈ N tal que In ⊆ Im = {1, 2, . . . , m}. Por ende, n∈N S ∩ HIn ⊆ m∈N S ∩ Hm . Los resultados de la Obs. 14.4.5 se pueden “traducir” al idioma de frames para conseguir una caracterizaci´on de los frame de Rieszs, similar a la obtenida por Christensen y Lindner en [19]: 349
Teorema 14.4.7. Sea F un frame en H con operador preframe (T, H, B). Llamemos S = N (T ). Entonces son equivalentes: 1. F es un frame de Riesz. 2. S es B-compatible. 3. Existe una cota inferior uniforme para toda sucesi´on frame finita y linealmente independiente (LI) FJ , J ∈ PF (N). 4. Existe d > 0 tal que γ(T PJ ) ≥ d, para todo J ∈ PF (N) tal que S ∩ HJ = {0}. Demostraci´on. La equivalencia entre 1 y 2 se deduce de la Obs. 14.4.5 y la Prop. 14.4.4. Si J ∈ PF (N), entonces HJ ∩ S = {0} si y s´olo si FJ es LI. Esto muestra que 3 y 4 son equivalentes. Por la Obs. 14.4.5 y la Prop. 8.4.12, ambas condiciones son tambi´en equivalentes a la B-compatibilidad de S. Ahora bien, que exista un d tal que 0 < d ≤ γ(T PI ) para todo I ∈ PF (N) tal que HI ∩ S = {0}, equivale a decir que exista una constante c < 1 tal que c [ S , HI ] ≤ c para esos conjuntos I. Por la Obs. 14.4.5, esto equivale a la condici´on 2. Proposici´ on 14.4.8. Sea F un frame de Riesz condicionado con e(F) < ∞. Entonces F es un frame de Riesz. En particular, si (T, H, B) es un operador preframe para F, debe existir un m ∈ N tal que N (T ) ⊆ Hm . Demostraci´on. Sea S = N (T ). Por la Prop. 14.4.6, S verifica la Ec. (14.18). Como dim S < ∞, existe m ∈ N tal que S ⊆ Hm . Por otra parte, en la terminolog´ıa de la Obs. 14.4.5, si C(Sn ) = sup c [ Sn , HJ ], entonces C(Sn ) = C(Sm ) para todo n ≥ m. En resumen, por la J⊆In
Obs. 14.4.5, se tiene que S es B-compatible, por lo que F debe ser un frame de Riesz.
Teorema 14.4.9. Sea F un frame de Riesz condicionado con operador preframe (T, H, B). Para cada n ∈ N, denotemos 1. Sn al operador frame de Fn = {fk }k∈In , −1/2
2. Gn = {Sn
fk }k∈In , y
3. An el m´ınimo de las cotas inferiores de sucesiones frame no nulas de Gn . Si se tiene que inf An > 0, entonces F debe ser un frame de Riesz. n∈N
Demostraci´on. Notemos S = N (T ). Observenos que, para todo n ∈ N, se tiene que (T Pn , Hn , Bn ) es operador preframe para Fn y por ello Sn = T Pn T ∗ . Observar que N (T Pn ) = −1/2 N (Sn T Pn ) = S ∩ Hn = Sn (si pensamos a T Pn con dominio Hn ). Adem´as tenemos que −1/2 −1/2 γ(Sn T Pn ) = kSn T Pn k = 1. Luego, por la Prop. 8.4.12, si J ⊆ In , la cota inferior AJ,n −1/2 de {Sn fk }k∈J verifica que AJ,n = γ( (Sn−1/2 T Pn )PJ )2 = s [ Sn , HJ ]2 = 1 − c [ Sn , HJ ]2 . Usando la Obs. 14.4.5, el Teorema follows.
350
14.4.2
Un contraejemplo:
Hemos visto que el n´ ucleo S de una operador preframe S∞asociada a un frame de Riesz condicionado F satisface la propiedad de “densidad”: c l ( n=1 Sn ) = S, para Sn is S ∩ Hn . En el siguiente ejemplo veremos que tal desidad no es suficiente para que F sea un frame de Riesz condicionado. Para ello usaremos un m´etodo indirecto: Dado S v H con dim S ⊥ = ∞, sabemos que existen frames F con un operador preframe (T, H, B) tal que S = N (T ). Luego construiremos un S adecuado, en el sentido de la caracterizaci´on de frames de Riesz condicionados a trav´es del n´ ucleo de su operador preframe, dada en Prop. 14.4.4. Ejemplo 14.4.10. Dada una BON B = {en }n∈N de un espacio de Hilbert H y dado r > 1, definamos el siguiente sistema ortogonal: 1 1 1 1 x1 = e1 − re2 + e3 + 2 e4 + 3 e5 + 4 e6 r r r r 1 1 1 1 x2 = e5 − re6 + 5 e7 + 6 e8 + 7 e9 + 8 e10 r r r r .. . xn = e4n−3 − re4n−2 +
1
e4n−1 r4n−3
+
1
e4n r4n−2
Sea S = span {xn : n ∈ N}. Por su construcci´on, c l
+
∞ [
1
e4n+1 r4n−1
+
1 e4n+2 . r4n
! S ∩ Hn
= S. Adem´as,
n=1
{e4n−1 − re4n : n ∈ N} ⊂ S ⊥ =⇒ dim S ⊥ = ∞ . Por los comentarios anteriores, existe un frame F con preframe operator (T, H, B), tal que S = N (T ). Veremos que F NO es un frame de Riesz condicionado. Por la Prop. 14.4.4, bastar´ıa probar que, para toda sucesi´on J1 ⊆ J2 ⊆ J3 ⊆ . . . ⊆ Jn . . . % N en PF (N), se cumple que c [ S , HJk ] −−−→ 1. Fijemos entonces {Jk }k∈N y tomemos un 0 < ε < 1. k→∞
Como kxn k2 ≤ 1 + r2 +
4 r8n−6
para todo n ∈ N, existe n0 ∈ N tal que 1−ε<
1 + r2 kxn k2
∀ n ≥ n0 .
Para cada i ∈ N, llamemos Mi = span {e4i−1 , e4i } . Observar que PMi xj 6= 0 ⇐⇒ j = i, dado que las dos coordenadas del medio son “exclusivas” de cada xi . Por lo tanto, si y∈S
entonces PMi y 6= 0 ⇐⇒ hy, xi i = 6 0. (14.19) n o Sea k ∈ N tal que j = max i ∈ N : PMi (S ∩ HJk ) 6= 0 ≥ n0 . El tal k debe existir porque xn0 debe pertenecer a S ∩ HJk para k grande. Pero por la Ec. (14.19), se tiene que 351
xh ∈ (S ∩ HJk )⊥ para todo h > j. En particular, xj+1 ∈ S (S ∩ HJk ) = S HJk . Por otro lado, existe un y ∈ (S ∩ HJk ) tal que PMj y 6= 0. Por lo tanto, las u ´ltimas cuatro entradas asociadas a xj son no nulas en y, porque y ∈ span {x1 , . . . , xj }, hy, xj i = 6 0 y no esta presente xj+1 para cambiarlas. Por ende, como y ∈ HJk , entonces esas cuatro coordenadas deben pertenecer a Jk . Ahora bien, como las dos u ´ltimas entradas de xj son las dos primeras de xj+1 , y deben pertenecer a Jk , tenemos que kPJk xj+1 k2 ≥ 1 + r2 . Luego, como j ≥ n0 , 1−ε
<
1 + r2 kPJk xj+1 k2 ≤ kxj+1 k2 kxj+1 k2
=
xj+1 PJk xj+1 , kxj+1 k kxj+1 k
≤
xj+1 PJk xj+1 , kxj+1 k kPJk xj+1 k
≤ c [ S , HJk ] .
El mismo argumento muestra que 1 − ε ≤ c [ S , HJm ], para todo m ≥ k (porque s´olo se usaba que j ≥ n0 , lo que sigue pasando a partir de k). Como ε es arbitrario y k s´olo depende de n0 , y por ende de ε, tenemos que c [ S , HJk ] −−−→ 1. 4 k→∞
14.4.3
´ Angulos entre columnas
En esta secci´on abreviaremos linealmente independiente con las letras LI. Proposici´ on 14.4.11. Sea A ∈ L(H, K) inversible, y sean S, T v H tales que S ∩ T = {0} y s [ S , T ] > 0. Entonces s [ A(S) , A(T ) ] ≥
s[S , T ] >0. kAkkA−1 k
Demostraci´on. Observar que, dado x ∈ H, se tiene que kAxk ≥ kA−1 k−1 kxk, y si kAxk = 1 entonces kxk ≥ kAk−1 . Por lo tanto, como A(S) ∩ A(T ) = {0}, s [ A(S) , A(T ) ] = d((AS)1 , AT ) n o = inf kA(x − y)k : x ∈ S, y ∈ T , kAxk = 1 n o x = inf kxk kA( − y)k : x ∈ S, y ∈ T , kAxk = 1 kxk n o ≥ kAk−1 inf kA(x − y)k : x ∈ S, y ∈ T , kxk = 1 n o ≥ (kA−1 k kAk)−1 inf kx − yk : x ∈ S, y ∈ T , kxk = 1 =
s[S , T ] , kA−1 kkAk
como se quer´ıa demostrar.
352
Proposici´ on 14.4.12. Sea T ∈ L(H) tal que 0 6= R(T ) v H. Fijemos una BON fija B = {en }n∈N de H. Supongamos que S = N (T ) cumple s = inf{s [ S , HJ ] : J ⊆ N} > 0 (o sea que S es B-compatible). Entonces, dados I, J ⊆ N tales que T (HI ) ∩ T (HJ ) = {0}, se tiene que γ(T ) s s s [ T (HI ) , T (HJ ) ] ≥ = . kT k kT kkT † k Demostraci´on. Notemos E = PS ⊥ , P = PI y Q = PJ . Supongamos primero que T ∗ T = E, i.e., T es una isometr´ıa parcial. En tal caso, como T |S ⊥ es isometr´ıa, tenemos que c [ T (HI ) , T (HJ ) ] = c [ T E(HI ) , T E(HJ ) ] = c [ E(HI ) , E(HJ ) ] . La hip´otesis T (HI ) ∩ T (HJ ) = {0} implica las siguientes cosas: a) HI ∩ HJ = HI∩J ⊆ S, por lo que podemos suponer que I ∩ J = ∅, reemplazando J por J0 = J \ (I ∩ J), ya que E(HJ ) = E(HJ0 ) . b) En tal caso P ∨ Q = P + Q y adem´as R(P + Q) ∩ S = (R(P ) ∩ S) ⊥ (R(Q) ∩ S) ,
(14.20)
porque T (P + Q)x = 0 =⇒ T P x = T Q(−x) ∈ R(T P ) ∩ R(T Q) = {0} . c) Si P 0 = P − PR(P )∩S = PR(P ) (R(P )∩S) y Q0 = Q − PR(Q)∩S , entonces se tiene que EP = EP 0 , EQ = EQ0 y, por otra parte, R(P 0 + Q0 ) = R(P ) (R(P ) ∩ S) ⊥ R(Q) (R(Q) ∩ S) (14.21) = R(P + Q) (R(P + Q) ∩ S) = R(P + Q) S . d) De lo anterior deducimos que s [ R(P 0 + Q0 ) , S ] = s [ R(P + Q) S , S ] = s [ R(P + Q) , S ] ≥ s. Observar que ker E(P 0 + Q0 ) = ker(P 0 + Q0 ) ⊥ R(P 0 + Q0 ) ∩ S = ker(P 0 + Q0 ). Luego ker E(P 0 + Q0 )⊥ = R(P 0 + Q0 ) =⇒ kEzk ≥ γ(E(P 0 + Q0 ))kzk , si z ∈ R(P 0 + Q0 ) . Ahora s´ı: Ex − Eyk : x ∈ R(P 0 )1 , y ∈ R(Q0 )} s [ R(EP ) , R(EQ) ] = inf{k kExk
= inf{kExk−1 kEx − Eyk : x ∈ R(P 0 )1 , y ∈ R(Q0 )} ≥ inf{kEx − Eyk : x ∈ R(P 0 )1 , y ∈ R(Q0 )} ≥ γ(E(P 0 + Q0 ) ) · inf{kx − yk : x ∈ R(P 0 )1 , y ∈ R(Q0 )} ≥ γ(E) s [ ker E , R(P 0 + Q0 ) ] · 1 ≥ s, 353
donde la u ´ltima desigualdad se deduce de la Prop. 8.4.12 aplicada a E y P 0 + Q0 . El caso general se prueba tomando la DP a derecha T = |T ∗ |U = (T T ∗ )1/2 U . Entonces U es isometr´ıa parcial, y cae en el caso anterior. Luego se aplica la Prop. 14.4.11 para A = |T ∗ | + PS > 0 con los subespacios U (HI ) y U (HJ ) , que ya sabemos que cumplen s [ U (HI ) , U (HJ ) ] ≥ s. Notar que kAk = kT k y kA−1 k = kT † k. Observaci´ on 14.4.13. Con las notaciones de la Prop. 14.4.12, si T (HI ) ∩ T (HJ ) 6= {0}, pero existe alg´ un K ⊆ I tal que T (HK ) ∩ T (HJ ) = {0}
mientras que
T (HK ) + T (HJ ) = T (HI ) + T (HJ ) = T (HI∪J )
(por ejemplo si I ∈ PF (N) ), entonces tambi´en s [ T (HI ) , T (HJ ) ] ≥ s [ T (HK ) , T (HJ ) ] ≥
s . kT kkT † k
Esto se deduce de una cuenta de ´angulos (el primer ≥ de arriba) que se propone como ejercicio (ver Ejer. 8.4.15). Otro ejercicio ser´ıa verificar que la condici´on anterior (que exista un buen K) siempre se cumple, si uno supone que F es frame de Riesz. La prueba es del estilo de la Prop. 14.5.16 de m´as adelante, donde se muestra que los frames de Riesz contienen bases de Riesz. De ello se podr´a deducir que la Prop. 14.4.12 vale para todo par I, J ⊆ N sin m´as hip´otesis. 4 Proposici´ on 14.4.14. Sea A ∈ L(H, K) tal que N (A) = {0}. Fijemos B = {en : n ∈ N} una BON de H. Entonces A es acotada inferiormente (i.e., γ(A) > 0) si y s´olo si se cumplen las siguientes condiciones: 1. Existe D > 0 tal que D ≤ kAen k, para todo n ∈ N. 2. Existe r < 1 tal que c [ A(HI ) , A(HJ ) ] ≤ r , para todo par I , J ∈ PF (N) tales que I ∩ J = ∅. En tal caso vale que γ(A) ≥
(1 + r)1/2 . D(1 − r)1/2
Demostraci´on. La ida sale por la Proposici´on 14.4.11, tomando K = R(A) que es cerrado (para que A quede inversible). Observar que siempre s [ HI , HJ ] = 1 y que D = γ(A) sirve. (1 + r)1/2 . Veremos que kAxk ≥ akxk D(1 − r)1/2 para x ∈ H0 , donde H0 = span {B}, que es denso en H. Es f´acil ver que eso es suficiente. Observar que H0 es la uni´on de todos los HK para K ∈ PF (N). Para un K fijo, definamos Supongamos que se cumplen 1 y 2. Sea a =
s(K) = {s ∈ HK : sn = ±1 , n ∈ K} . 354
Para s ∈ s(K), pongamos Is = {n ∈ K : sn = 1} y Js = K \ Is . Dado c ∈ HK , definamos cs = (PIs − PJs )c, que resulta de cambiarle los signos a sus cordenadas de acuerdo a s. 1+r Paso 1: Veremos que si b = , entonces (1 − r) kAcs k2 ≤ b kAck2
para todo K ∈ PF (N) , todo c ∈ HK y todo s ∈ s(K)
.
Llamemos x = Ac, x0 = APIs c y x1 = x − x0 . Observar que x0 ∈ A(HIs ) y x1 ∈ A(HJs ) . Luego |hx0 , x1 i| ≤ rkx0 k kx1 k (aqu´ı se usa que A(HIs ) ∩ A(HJs ) = {0} porque N (A) = {0}). Entonces kAcs k2 = kx0 − x1 k2 = kx0 k2 + kx1 k2 − 2Rehx0 , x1 i ≤ kx0 k2 + kx1 k2 + 2rkx0 k kx1 k . Analogamente, kAck2 = kx0 + x1 k2 ≥ kx0 k2 + kx1 k2 + 2Rehx0 , x1 i ≥ kx0 k2 + kx1 k2 − 2rkx0 k kx1 k . Cuentas directas dicen que si M > 0, entonces (1 + M )kAck2 − kAcs k2 ≥ (1 + M )(kx0 k2 + kx1 k2 − 2rkx0 k kx1 k)− −(kx0 k2 + kx1 k2 + 2rkx0 k kx1 k) 2r = M kx0 k + kx1 k − 2(r + )kx0 k kx1 k ≥ 0 , M
siempre que 1 ≥ r +
2
2
2r 2r , o sea, si M ≥ . Entonces M 1−r b=
2r 1+r =1+ . 1−r 1−r
claramente cumple lo pedido (y no depende de nada). Paso 2: Por la regla generalizada del paralelogramo: x1 , . . . , x N ∈ H
=⇒
2N
N X
kxk k2 =
k=1
2 N
X
X
εk xk ,
N
ε∈{±1}
k=1
se puede deducir que, si N = |K|, para todo c ∈ HK se tiene X X X 2N kcn · Aen k2 = kAPIs c − APJs ck2 = kAcs k2 . n∈K
s∈s(K)
s∈s(K)
Por lo tanto, debe existir alg´ un s ∈ s(K) tal que
X n∈K
355
kcn · Aen k2 ≤ kAcs k2 .
Paso 3: Veremos que a = kck2 =
X
(1 + r)1/2 es cota inferior de A: Dado c ∈ HK , D(1 − r)1/2
|cn |2 ≤ D−2
X
kcn Aen k2 ≤ D−2 kAcs k2 ≤
n∈K
n∈K
para alg´ un s ∈ S(K) tal que
X
(1 + r) kAck2 , D2 (1 − r)
kcn · Aen k2 ≤ kAcs k2 , que existe por el Paso 2.
n∈K
Si traducimos nuevamente al idoma frame, nos queda lo siguiente (ver [19]): Corolario 14.4.15. Sea F = {fn }n∈N un frame en H con operador preframe (T, H, B). Para cada I ⊆ N, noratemos MI = span {FI }, al subespacio cerrado generado por las columnas I-´esimas de T (en la base B). Luego las siguientes condiciones son equivalentes: 1. F es un frame de Riesz. 2. Existen d > 0 y c < 1 tales que (a) d ≤ kfn k para todo n ∈ N tal que fn 6= 0. (b) c [ MI , MJ ] < c para todo par I, J ⊆ N. 3. Existen d > 0 y c < 1 tales que (a) d ≤ kfn k para todo n ∈ N tal que fn 6= 0. (b) c [ MI , MJ ] < c para todo par I, J ∈ PF (N) tal que I ∩ J = ∅, FI y FJ son LI y MI ∩ MJ = {0} (o, equivalentemente, si FI∪J es LI). (1 + c)1/2 En tal caso, se puede ver que γ(T PK ) ≥ min d , para todo K ⊆ N. d(1 − c)1/2 Demostraci´on. 1 → 2 Se sigue de la Prop. 14.4.12 y la Obs. 14.4.13. Notar que, si fn 6= 0, entonces kfn k = γ(T P{en } ) ≥ d, donde d = min{γ(T PJ ) : J ⊆ N} > 0. 2 → 3 Es evidente. 3 → 1 Usando la condici´on 4 del Teo. 14.4.7, basta probar que existe a > 0 tal que γ(T PK ) ≥ a, para todo K ⊆ PF (N) tal que S ∩ HK = {0}. Es decir, tenemos que ver que K ∈ PF (N) y ker T PK = {0} implica que γ(T PK ) ≥ a. Pero podemos aplicar la Prop. 14.4.14 a los operadores inyectivos T PK y deducir de la hip´otesis que γ(T PK ) ≥
(1 + c)1/2 d(1 − c)1/2
para todo tal
K⊆N.
Por el Teo. 14.4.7, las cotas γ(T PK ) para estos K son suficientes para acotar cualquier otro subconjunto de N. 356
Observaci´ on 14.4.16. La equivalencia entre 1 ↔ 3 fu´e demostrada por Christensen y Lindner en [19]. Se deduce de un resultado muy semejante a la Prop. 14.4.14, que fu´e probado por Bittner-Lindner en [6], y de la condici´on 4 del Teo. 14.4.7 (ver tambi´en el theorem 2.1 en [19]).
14.5
Yo me borro
La propiedad m´as importante de un frame F = {fn }n∈N es que le “sobra” para generar a los elementos de H. En esa redundancia radica su utilidad, porque le brinda robustez a las transmisiones de datos f ∈ H usando sus cordenadas (hf, fn i)n∈N . Por lo tanto, dado un frame F = {fn }n∈N , es natural preguntarse qu´e tanto le sobra. En otra palabras, cu´antos vectores puedo sacarle sin que deje de ser un frame. Este problema es importante en teor´ıa de la informaci´on y en signal processing. Sobre estos temas, sugerimos al lector los trabajos recientes de Goyal-Vetterli-Thao [24], Goyal-Kovacevic-Kelner [23], Casazza-Kovacevic [14], Balan-Casazza-Heil-Landau [3], Benedetto-Fickus [4], HolmesPaulsen [28], y Strohmer-Heath [34].
14.5.1
Excesos y Borrados
Recordemos que, dado un frame F = {fn }n∈N en H con operador preframe (T, K, B), se llama el exceso de F al cardinal e(F) = dim N (T ). En la Obs. 14.1.4 se vi´o que e(F) no depende del operador preframe elegido. En particular, o n X 2 cn f n = 0 , e(F) = dim (cn )n∈N ∈ ` : n∈N
que es la nulidad del operador preframe inducido por la base canonica de `2 (N). Definici´ on 14.5.1. Dado I ⊆ N notaremos I c = N \ I. Dado un frame F = {fn }n∈N , diremos que I puede borrarse de F si FI c = {fk }k∈I c es un subframe de F, i.e. FI c sigue siendo un frame (para todo H). Denotaremos E(F) = sup{|I| : I puede borrarse de F} ∈ N ∪ {0, +∞}. El frame F se dice exacto (o sucesi´on excta) si E(F) = 0, i.e. si span {F \ {fn } } 6= H para todo n ∈ N . 4 Observaci´ on 14.5.2. Sea F un frame en H con operador preframe (T, H, B). Dado I ⊆ N, tenemos que I se puede borrar de F si y s´olo si , R(T PI c ) = H. En tal caso, (T PI c , HI c , BI c ) es un operador preframe para FI c . 4 El siguiente resultado fu´e probado por Holub [29] y por Balan, Casazza, Heil, Landau [3]: Proposici´ on 14.5.3. Sea F un frame en H con operador preframe (T, H, B). Entonces 1. F es exacto si y s´olo si F es una base de a Riesz de H, i.e. E(F) = 0 ⇐⇒ e(F) = 0. 357
2. e(F) < ∞ si y s´olo si E(F) < ∞. En tal caso, E(F) = e(F). 3. Si I ∈ PF (N) con |I| = e(F) < ∞ puede borrarse de F, entonces FI c es una base de a Riesz de H. En resumen, siempre vale que E(F) = e(F). Y si e(F) es finito, entonces F contiene al menos una base de Riesz de H. Demostraci´on. Observar que T ∗ ∈ L(H) es inyectivo con rango cerrado. 1. Supongamos que E(F) = 0. Fijemos n ∈ N y llamamos Pn a la proyecci´on sobre {en }⊥ . Se tiene que R(T Pn ) 6= H pero R(T Pn ) v H , porque c N (T ) , {en }⊥ = c N (T )⊥ , span {en } < 1. Luego existe xn 6= 0 tal que xn ∈ R(T Pn )⊥ = N (Pn T ∗ ) =⇒ T ∗ xn ∈ N (Pn ) = span {en }
y
T ∗ xn 6= 0 ,
porque T ∗ es mono. Como esto pasa para todo n ∈ N, deducimos B ⊆ R(T ∗ ) o sea que T ∗ es epi. Pero entonces N (T ) = R(T ∗ )⊥ = {0} y e(F) = 0. La rec´ıproca es clara, porque una base es una base. 2. Si E(F) = m < ∞, borrando alg´ un I con |I| = m, conseguinos una base de Riezs H (porque no se puede sacar nada m´as, y aplicamos 1.). Luego N (T ) ∩ HI c = {0}, por lo que e(F) = dim N (T ) ≤ dim HI c ⊥ = m. Para ver la rec´ıproca, usaremos las propiedades del ´ındice de Fredholm. De hecho, si e(F) = m < ∞, se tiene que T es de Fredholm con Ind T = dim N (T ) = m. El caso m = 0 ya lo vimos (es P (0) de la inducci´on). Si m > 0, tambi´en E(F) > 0 (por 1.). Sea n ∈ N tal que a {fn } se lo puede borrar de F. Notemos Fn = F \ {fn }. Sabemos que Ind (T Pn ) = Ind (T ) + Ind (Pn ) = Ind (T ) = m , porque al ser Pn un proyector (y de Fredholm), tiene Ind Pn = 0. Pero como Fn es un frame, R(T Pn ) = H
y
m = Ind T Pn = dim N (T Pn ) .
Ahora, como (T Pn , {en }⊥ , B \ {en }) es un operador preframe para Fn , tenemos que e(Fn ) = dim(N (T Pn ) ∩ {en }⊥ ) = m − 1 Por alguna hip´otesis inductiva (e(F) = n =⇒ E(F) = n para n < m), deducimos que E(Fn ) = m − 1 < ∞. Pero como esto pasa para todo n ∈ N que pueda ser borrado de F, tiene que valer que E(F) = m. 3. Se deduce de lo visto hasta ahora.
Observaci´ on 14.5.4. Sea F = {fn }n∈N un frame en H. Podemos deducir de la Prop. 14.5.3 que, si e(F) = m < ∞, existe I ⊆ N con |I| = e(F) tal que FI c es base de Riesz de H. Esto fu´e probado por Holub en [29]. 358
Pero si e(F) = ∞, la Prop. 14.5.3 nos asegura que se pueden borrar de F conjuntos J ⊆ N de cualquier tama˜ no, siempre que sean finitos (ya que E(F) es un supremo, no necesariamente un m´aximo). Cae naturalmente la siguiente pregunta: Cu´ales son los frames a los que s´ı se les puede borrar un conjunto infinito I ⊆ N de ´ındices? Esta clase de frames fu´e caracterizada por Balan, Casazza, Heil y Landau [3]. Presentaremos una versi´on de esa caracterizaci´on en t´erminos de n´ ucles de operadores preframe. Antes de hacerlo, necesitamos un Lemma t´ecnico (ver theorem 5.2 en [3]). Recordar que, si B = {ek }k∈N una BON de H e I ⊆ N, notamos BI = {ek : k ∈ I}, HI = span {BI } y PI = PHI . 4 Lema 14.5.5. Sean A ∈ L(H)+ y B = {ek }k∈N una BON de H. Si existe a > 0 tal que hAek , ek i ≥ a para todo k ∈ N, entonces para cada 0 < ε < a, existe I ∈ PI (N) (o sea que I es infinito) tal que γ(PI API ) ≥ a − ε
y
N (PI API ) = HI c .
En particular, PI API ∈ Gl(HI )+ . Demostraci´on. Fijemos 0 < ε < a. Por un argumento recursivo, se puede elegir un I ∈ PI (N) que cumpla que la matriz C = (cij )i,j∈I dada por cij = hAej , ei i, i, j ∈ I, verifique X X |cji | = |cij | < ε , para todo i ∈ I. j∈I
j∈I
j6=i
j6=i
Esto puede hacerse porque, para todo i ∈ N, la sucesi´on (cij )j∈I ∈ `2 (I), y a fortiori cij −→ 0. j→∞
Notar que C es la matriz de PI API ∈ L(HI )+ en t´erminos de la BON BI de HI . Adem´as cii ≥ a > ε, para todo i ∈ I. Es conocido que un operador no negativo con una tal matriz debe ser estrictamente positivo. M´as a´ un, por el teorema de los discos de Gersgorin y un argumento standard de l´ımites (SOT), podemos probar que σL(HI ) (PI API ) ⊆ [a − ε, +∞) (ver, por ejemplo, el libro de Bhatia [5] VIII.6.3). Teorema 14.5.6. Sea F un frame en H con operador preframe (T, H, B). Notemos S = N (T ) y B = {en }n∈N . Supongamos que e(F) = ∞. Entonces existe un J ∈ PI (N) que puede borrarse de F si y s´olo si PS en −−−→ 0 . n→∞
M´as a´ un, si I ∈ PI (N) y kPS en k ≥ cI > 0 para todo n ∈ I, se puede tomar J ⊆ I. Demostraci´on. Ambas condiciones son invariantes de la clase de equivalencia de F, porque multiplicar a izquierda por un inversible no cambia el n´ ucleo ni cambia el hecho de que un operador sea suryectivo. Por lo tanto basta probar el caso en que F es de P´arseval. Es decir, que asumimos que T T ∗ = I y T ∗ T = PS ⊥ . Sea J ∈ PI (N) borrable. Si x ∈ HJ ∩ S ⊥ e y ∈ HJ c , entonces 0 = hx, yi = hT ∗ T x, yi = hT x, T yi . 359
Por lo tanto T (HJ ∩ S ⊥ ) ⊆ T (HJ c )⊥ = {0}. Y como T S ⊥ es inyectivo, podemos deducir que HJ ∩ S ⊥ = {0}. Por otro lado, como R(T PJ c ) = H (en particular es cerrado), las Proposiciones 8.4.12 y 8.2.5 dan que, para todo n ∈ J, 0 < γ(T PJ c ) = s [ S , HJ c ] = s S ⊥ , HJ = d((HJ )1 , S ⊥ ) ≤ d(en , S ⊥ ) = kPS en k , por lo que PS en −−−→ 0. Rec´ıprocamente, si existen I ∈ PI (N) y cI > 0 tales que n→∞
kPS en k2 = hPS en , en i = hPI PS PI en , en i ≥ c2I
para todo n ∈ I ,
podemos aplicar el Lema 14.5.5 a PI PS PI actuando HI . As´ı sabemos que existe J ⊆ I, tambi´en infinito, tal que 2 0 < γ(PJ PS PJ ) = γ(PS PJ )2 = s S ⊥ , HJ = s [ S , HJ c ]2 = γ(T PJ c )2 , (14.22) (se usaron las Proposiciones 8.4.9 y 8.4.10). Por la Prop. 8.4.11, R(T PJ c ) v H. Por otro lado, siempre por el Lema 14.5.5 aplicado a a PI PS PI , HJ c = N (PJ PS PJ ) = N (PS PJ ) = HJ c ⊥ (HJ ∩ S ⊥ ) =⇒ HJ ∩ S ⊥ = {0} . Luego H = (HJ ∩ S ⊥ )⊥ = HJ⊥ + S = HJ c + S, ya que la suma es cerrada por (14.22). Luego R(T PJ c ) = T (HJ c ) = T (HJ c + S) = T (H) = H . Esto muestra que FJ c es subframe de F.
Corolario 14.5.7. Sea F un frame en H con operador preframe (T, H, B). Notemos S = N (T ) y B = {en }n∈N . Supongamos que e(F) = ∞. Entonces son equivalentes: 1. Existe un J ∈ PI (N) que puede borrarse de F. 2. Existe un J ∈ PI (N) tal que R(T PJ c ) = H. 3. PS en −−−→ 0. n→∞
4. Existen I ∈ PI (N) y cI > 0 tales que kPS en k ≥ cI para todo n ∈ I. M´as a´ un, si alg´ un I ⊆ N cumple la condici´on 4, entonces existe un J ⊆ I, tambi´en infinito, que puede borrarse de F. Demostraci´on. Es consecuencia del Teo. 14.5.6 y de su demostraci´on.
Corolario 14.5.8. Sea F = {fn }n∈N un frame de P´arseval con e(F) = ∞. Entonces existe un I ∈ PI (N) que puede borrarse de F si y s´olo si kfn k −−−→ 1. n→∞
Demostraci´on. Sea (T, K, B) un operador preframe de F, con B = {en }n∈N . Notemos S = N (T ). Luego T es una coisometr´ıa, y kT xk = kxk para todo x ∈ S ⊥ . En particular kfn k = kT en k = kT PS ⊥ en k = kPS ⊥ en k = (1 − kPS en k2 )1/2 , Ahora basta aplicar el Teo. 14.5.6.
n∈N.
360
Observaci´ on 14.5.9. Con las notaciones del Cor. 14.5.7, los n´ umeros kPS en k tienen una fuerte relaci´on con las cotas AFn de las sucesiones Fn = F \{fn }. En efecto, por la Prop. 8.2.5, para cada n ∈ N tal que PS en 6= 0 (o sea kfn k = 6 1), kPS en k = d (span {en })1 , S ⊥ = s span {en } , S ⊥ = s {en }⊥ , N (T ) . La Proposici´on 8.4.12 da entonces que, si notamos Pn = P{en }⊥ , γ(T )kPS en k ≤ γ(T Pn ) ≤ kT k kPS en k
para aquellos n ∈ N
.
Recordar que AFn = γ(T Pn )2 . La condici´on 4 del Cor. 14.5.7, escrita en t´erminos de las AFn , es la caracterizaci´on dada por Balan, Casazza, Heil y Landau en [3]. En el Ejem. 14.5.15 de m´as abajo, veremos un frame F de H con e(F) = ∞ que no verifica las condiciones del Cor. 14.5.7. 4
14.5.2
Frames que contienen bases Riesz
Aqu´ı estudiaremos aqullos frames F = {fn }n∈N para los cuales existe un J ∈ PI (N) (o sea que J es infinito) tal que FJ c = {fn }n∈J c es una base de Riesz. Llamaremos f rames Rieszibles a tales F. Para ver resultados sobre estos temas, referimos a los siguientes trabajos: [10], [11], [18] y [19]. Observaciones: 14.5.10. Sea F un frame en H con operador preframe (T, H, B). Notemos S = N (T ) y B = {en }n∈N . 1. F is Rieszible si y s´olo si existe J ∈ P(N) tal que J c ∈ PI (N) y T PJ : HJ → H es inversible. En otras palabras, HJ debe cumplir que a. T (HJ ) = H. b. N (T ) ∩ HJ = {0}. 2. Ser Rieszible es un invariante de la clase de equivalenmcia de F, i.e., F es Rieszible si y s´olo si {Gfn }n∈N es Rieszible, para todo G ∈ Gl (H). En este sentido, el ser Rieszible es una propiedad de S = N (T ) (que es el mismo que N (GT ), para todo G ∈ Gl (H)). 3. Veremos m´as adelante (en la Prop. 14.5.16) que todo frame de Riesz contiene bases de Riesz. Esto fu´e probado por Christensen en [18]. En particular, un frame de Riesz con e(F) = ∞ ser´a entonces Rieszible. Tambi´en los frames con la “subframe property” (i.e., frames F tales que FI es a sucesi´on frame para todo I ⊆ N, ver Casazza and Christensen [10] [12]) son Rieszibles, pero los frame de Riesz condicionados en general no son Rieszibles, (ver Ejemplo 14.4.10). Por otro lado, por la Prop. 14.5.3, los frames con exceso finito contienen bases de Riesz , pero no son Rieszibles, porque el conjunto que se debe borrar es finito. Proposici´ on 14.5.11. Sea F = {fn }n∈N un frame en H y sea B una BON de H. Entonces F is Rieszible si y s´olo si existe un operador preframe (M, H ⊕ H, B 0 ) para F tal que 361
S 1. B 0 = B ⊕ {0} {0} ⊕ B. 2. M (x ⊕ y) = N x + U y, x, y ∈ H; donde N ∈ L(H) y U ∈ Gl (H). Demostraci´on. Supongamos que F es Rieszible, con operador preframe (T, H, B). Fijemos J ∈ PI (N) tal que FJ c es base de Riesz. Llamaremos V1 : H → HJ
V2 : H → H J c ,
y
a los operadores unitarios definido por las biyecciones naturales entre B y BJ (resp. entre B y BJ c ). Tomando N = T ◦ V1 y U = T ◦ V2 , podemos definir M (x ⊕ y) = N x + U y ,
para todo par
x, y ∈ H ,
que es el operador preframe anunciado (M, H ⊕ H, B 0 ) para F. En efecto, U debe ser inversible porque (U, {0} ⊕ H, {0} ⊕ B) is un operador preframe para FJ c . La rec´ıproca es clara. Observaci´ on 14.5.12. La Prop. 14.5.11 tiene la siguiente consecuencia: Dado F = {fn }n∈N Rieszible, si usted me da un J ∈ PI (N) tal que FJ sigue siendo frame, bien puede pasar que FJ no sea m´as Rieszible, ni siquiera en el sentido m´as d´ebil de Teo. 14.5.6, y tampoco tener la subframe property. En efecto, si se toman M , N y U como en la Prop. 14.5.11 y suponemos que N era un epimorfismo, podr´ıamos borrar BJ c = {0 ⊕ en : n ∈ N} ⊆ B 0 (la mitad de B 0 asociada a U ). Entonces conseguir´ıamos al frame FJ = {N en }n∈N , que puede ser tan malo como uno quiera, porque N puede ser cualquier epimorfismo. Tambi´en dice que va a ser muy complicado encontrar alguna caracterizac´on limpita de ser Rieszible, porque la libertad que uno tiene para poner N ’s hace que la clase de los Rieszibles sea seguramente bastante ca´otica. Sin embargo, la modelizaci´on que da la Prop. 14.5.11 permite obtener las siguientes condiciones necesarias, que al menos ayudan a testar la Rieszibilidad o no de los ejemplos. 4 Proposici´ on 14.5.13. Sea F un frame Rieszible en H. Sea B = {en }n∈N una BON de H, y consideremos el operador preframe (M, H ⊕ H, B 0 ) de F, con M (x ⊕ y) = N x + U y, x, y ∈ H como en la Prop. 14.5.11. Si S = N (M ), entonces kPS (en ⊕ 0)k ≥ (1 + kU −1 T k2 )−1
para todo
n∈N
y kPS (0 ⊕ en )k2 ≤ 1 − (1 + kU −1 T k2 )−2
para todo
n∈N.
(14.23)
Demostraci´on. Notar que S = Gr(−U −1 T ) = {x ⊕ −U −1 T x : x ∈ H} . En efecto, T x + U y = 0 si y s´olo si y = −U −1 T x. Notemos V = U −1 . Es f´acil ver que S ⊥ = {T ∗ V ∗ y ⊕ y : y ∈ H} . 362
Fijemos N ∈ N. Sea en ⊕ 0 ∈ B y tomemos en ⊕ 0 = (x ⊕ −V T x) + (T ∗ V ∗ y ⊕ y), su descomposici´on relativa a S ⊕ S ⊥ . Luego y = V T x, y en = x + T ∗ V ∗ V T x = (I + T ∗ V ∗ V T )x. Por lo tanto PS (en ⊕ 0) = (I + T ∗ V ∗ V T )−1 en ⊕ −V T (I + T ∗ V ∗ V T )−1 en , por lo que kPS (en ⊕ 0)k ≥ k(I + T ∗ V ∗ V T )−1 en k ≥ k(I + T ∗ V ∗ V T )k−1 = (1 + kU −1 T k2 )−1 . Por otro lado, si 0 ⊕ en = (x ⊕ −V T x) + (T ∗ V ∗ y ⊕ y), entonces x = −T ∗ V ∗ y y tambi´en en = y + V T T ∗ V ∗ y. As´ı y = (I + V T T ∗ V ∗ )−1 en , PS (0 ⊕ en ) = −T ∗ V ∗ (I + V T T ∗ V ∗ )−1 en ⊕ V T T ∗ V ∗ (I + V T T ∗ V ∗ )−1 en
y
PS ⊥ (0 ⊕ en ) = T ∗ V ∗ (I + V T T ∗ V ∗ )−1 en ⊕ (I + V T T ∗ V ∗ )−1 en . Como antes, obtenemos que kPS ⊥ (0 ⊕ en )k ≥ (1 + kU −1 T k2 )−1 .
Corolario 14.5.14. Sea F un frame en H con operador preframe (T, H, B). Notemos S = N (T ) y B = {en }n∈N . Supongamos que J ⊆ PI (N) cumple que FJ c es base de Riesz. Entonces debe exisitir una constante c ∈ (0, 1) tal que kPS en k ≥ c
para todo
n∈J
y
kPS en k ≤ (1 − c2 )1/2
para todo
n ∈ Jc .
Demostraci´on. Es tan solo refrasear la Prop. 14.5.13.
Ejemplo 14.5.15. Sea B = {en }n∈N una BON H. Sea C = {cn }n∈N el sistema ortonormal dado por n −1 2X 1−n e2 + e3 c1 = e1 , c2 = √ , . . . , cn = 2 2 ek , . . . . 2 n−1 k=2 Sea S = span {C}. Es claro que dim S = ∞ y que tambi´en dim S ⊥ = ∞. Notemos que, si 2n−1 ≤ k ≤ 2n − 1, entonces PS ek =
∞ X
hek , cj icj = hek , cn icn = 2
1−n 2
cn .
j=1
Por lo tanto PS ek −−−→ 0 y kPS ⊥ ek k = k(I −PS ) ek k −−−→ 1. Sean T1 , T2 ∈ L(H) suyectivos k→∞
k→∞
tales que N (T1 ) = S y N (T2 ) = S ⊥ . Consideremos los frames F = {fn }n∈N
y
G = {gn }n∈N
dados por
fn = T1 en
y
gn = T2 en , n ∈ N .
1. Por el Teo. 14.5.6, F da un ejemplo de frame con e(F) = ∞ para el que no existe I ∈ PI (N) tal que FI c sea subframe de F. En particular, F no es Rieszible, aunque existe ε > 0 tal que kfn k ≥ ε para todo n ∈ N, porque kfn k = kT PS ⊥ en k ≥ γ(T1 )kPS ⊥ en k −−−→ γ(T1 ) . n→∞
363
2. G da un ejemplo de frame para el que s´ı existe I ∈ PI (N) tal que GI c es frame (nuevamente por el Teo. 14.5.6), pero G no es Rieszible. En efecto, como kPS ⊥ ek k −−−→ 1, k→∞
no se puede cumplir lo dicho por el Cor. 14.5.14. Se suguiere ver los ejemplos de los siguientes trabajos: Balan, Casazza, Heil, Landau [3] y Casazza, Christensen [11]. 4 Proposici´ on 14.5.16. Todo frame de Riesz contiene una base de Riesz. Demostraci´on. Sea F = {fn }n∈N un marco de Riesz. El caso en que e(F) < ∞ es f´acil, asi que podemos suponer que e(F) = ∞. Sea C = J ⊆ N : FJ c es subframe de F , ordenado por inclusi´on. Por la Proposici´on 14.5.3, si existiera un J ∈ C maximal, entonces tendr´ıamos que 0 = E(FJ c ) = e(FJ c ), por lo que FJ c ser´ıa una base de Riesz. Observar que e(F) 6= 0 implica que C 6= ∅. Para poder aplicar el Lema de Zorn (y as´ı ver que hay maximales), bastar´ıa probar que si (Jα )α∈Λ es una cadena en C, entonces [ J= Jα ∈ C . α∈Λ
Sea (T, H, B) un operador preframe para F y sea a > 0 tal que γ(T PI ) ≥ a para todo I ⊆ N. Notemos Iα = N \ Jα , α ∈ Λ, e I = N \ J. Como Jα ∈ C, o sea que FIα es subframe de F, tenemos que T PIα T ∗ ∈ Gl(H)+ , para todo α ∈ Λ. Por lo tanto a2 IH ≤ T PIα T ∗ para todo SOT SOT α ∈ Λ. Por la definici´on de J, se tiene que PJα −−→ PJ . Entonces PIα −−→ PI y SOT
a2 IH ≤ T PIα T ∗ −−→ T PI T ∗ . Luego a2 IH ≤ T PI T ∗ , lo que implica que T PI es epi, FI es un frame y J ∈ C.
14.6
Truncaciones
Observaci´ on 14.6.1. Sea F = {fn }n∈N un frame en H, con un operador preframe (T, H, B). Notemos S = T T ∗ . Llamaremos operadores de frame truncados a N X SN (f ) = hf, fn ifn = T PN T ∗ ,
N ∈N,
n=1
donde la u ´ltima igualdad se deduce de que T PN es operador de preframe para {f1 , . . . , fN }. Observar que los SN verifican las siguientes propiedades: para todo N ∈ N, 1. SN ≥ 0, y R(SN ) = R(T PN ) = span {fn : 1 ≤ n ≤ N }. SOT
SOT
N →∞
N →∞
2. Como PN −−−→ I, entonces SN = T PN T ∗ −−−→ T T ∗ = S. 364
† † † 3. Existe SN , y adem´as SN SN = SN SN = PR(SN ) −−−→ I. SOT
N →∞
4. Para cada f ∈ H, se tiene que N X
hf ,
† SN
fn i fn =
N X
n=1
† † h SN f , fn i fn = SN SN f −−−→ f , N →∞
n=1
(14.24)
lo que da una forma finita de aproximar la f´ormula de inversi´on para F. Sin embargo † no es cierto en general que los coeficientes h f , SN fn i aproximen a los coeficientes de −1 frame h f , S fn i. Para esto es necesario que F sea de Riesz: 4 Proposici´ on 14.6.2. Sea F = {fn }n∈N un frame de Riesz en H, con un operador preframe (T, H, B). Notemos S = T T ∗ . Entonces los operadores de frame truncados N X SN (f ) = hf, fn ifn = T PN T ∗ ,
N ∈N
n=1
verifican las siguientes propiedades: † 1. SN −−−→ S −1 . SOT
N →∞
2. Para cada f ∈ H, se puede aproximar uniformemente (para n ∈ N) a los coeficientes † fn i n∈N . Es decir que frame hf, S −1 fn i n∈N de f con los coeficientes truncados hf, SN
† −1 −−−→ 0 . hf, S f i − hf, S f i
n n∈N N n n∈N ∞
N →∞
donde k · k∞ denota la norma de `∞ (N). 3. Para cada f ∈ H, se tiene que ∞ X
hf ,
† SN
fn i fn =
n=1
∞ X
† † h SN f , fn i fn = S SN f −−−→ f N →∞
n=1
(comparar con la Ec. (14.24) ). † Demostraci´on. Veremos en principio que SN S −−−→ I. En efecto, como SN = T PN T ∗ , SOT
N →∞
podemos escribir S = T T ∗ = SN +T (I −PN )T ∗ . Llamemos RN = T (I −PN )T ∗ , y observemos SOT que RN −−−→ 0. Como F es de Riesz, existe a > 0 tal que γ(T PI ) ≥ a para todo I ⊆ N. N →∞ Luego † k = γ(T PN T ∗ )−1 = γ(T PN )−1/2 ≤ a−1/2 para todo N ∈ N . kSN † Es f´acil ver que entonces tambi´en SN RN −−−→ 0. Como SOT
N →∞
† SN SN = PN (SN )⊥ = PR(SN )
y
R(SN ) = span {fn : n ≤ N } , 365
N ∈ N,
podemos concluir que † † † SN S = SN SN + SN RN −−−→ I + 0 = I . SOT
N →∞
† † Es claro que esto implica que SN −−−→ S −1 y que S SN −−−→ I (lo que prueba el item 3). SOT
SOT
N →∞
N →∞
Si fijamos f ∈ H, y observamos que kfn k = kT en k ≤ kT k, n ∈ N, deducimos que † † † |hf, S −1 fn i − hf, SN fn i| = |hS −1 f − SN f, fn i| ≤ kS −1 f − SN f k kT k −−−→ 0 N →∞
a la misma velocidad para todo n ∈ N.
14.7
Marcos de Gabor.
14.7.1
Motivaciones
Comencemos motivando la definici´on de esta clase de marcos, tan importantes en las aplicaciones. Dada una se˜ nal f (t), donde la variable t es interpretada como el tiempo, su transformada de Fourier fˆ(ω) nos brinda informaci´on sobre las oscilaciones para cada frecuencia ω. Uno de los problemas que surgen en la pr´actica es que la transformada de Fourier no nos dice que frecuencias aparecen en un determinado tiempo t0 . El modo de superar esta dificultad es mirar la se˜ nal en un intervalo peque˜ no de tiempo y transformar Fourier all´ı. Matem´aticamente hablando, esto significa multiplicar f (t) por una funci´on g(t) que es constante en un intervalo peque˜ no y luego decae r´apidamente a cero. Dicha funci´on g(t) suele denominarse funci´ on de ventana. Si bien este proceso tiene sus limitaciones, nos brinda una idea de las frecuencias que aparecen en un entorno de cierto t0 . Para obtener esta informaci´on sobre f en todo el eje temporal repetimos el proceso trasladando la funci´on de ventana. Esto conduce a la siguiente definici´on Definici´ on 14.7.1. Sea g ∈ L2 (R) no nula. La transformada de Fourier de tiempo corto de una funci´on f ∈ L2 (R) con respecto a la funci´on de ventana g se define del siguiente modo: Z ∞ f (x)g(x − y)e−2πixω dx y, ω ∈ R. Ψg (f )(y, ω) = −∞
La definici´on anterior puede reformularse en t´erminos de los denominados operadores de traslaci´on y de modulaci´on. Recordemos que, dado y ∈ R, el operador de translaci´on Ty : L2 (R) → L2 (R) se define como (Ty f )(x) = f (x − y). Por otro lado, dado ω ∈ R, el operador de modulaci´on Eω : L2 (R) → L2 (R) se define como (Eω f )(x) = e2πixω f (x)
366
Es un hecho bi´en conocido que estos operadores resultan unitarios, y si bien no conmutan guardan la siguiente relaci´on: Eω Ty = e−2πiωy Ty Eω (14.25) En t´erminos de estos operadores, Ψg (f )(y, ω) = hf, Eω Ty gi. Al igual que para la transformada de Fourier, existe una f´ormula de inversi´on. Dadas funciones g1 , g2 ∈ L2 (R) tales que hg1 , g2 i = 6 0, entonces, para toda f ∈ L2 (R) Z ∞Z ∞ 1 hf, Eω Ty g1 i Eω Ty g2 dωdy, f= hg1 , g2 i −∞ −∞ donde la integral debe interpretarse en cierto sentido d´ebil que no precisaremos. En esta instancia, uno podr´ıa preguntarse si es necesario tener como informaci´on Ψg (f )(y, ω) para todo (y, ω) ∈ R2 , o si basta conocer los valores que esta toma en, por ejemplo, cierto reticulado de la forma aZ × bZ con a, b ∈ R+ no nulos. De esta pregunta surge la definici´on de los marcos de Gabor. Definici´ on 14.7.2. Un marco de Gabor (regular) para L2 (R) es un marco de la forma G(g, a, b) = {Emb Tna g}n,m∈Z , donde a, b > 0 y g ∈ L2 (R) es una funci´on fija. Estos marcos suelen llamarse tambi´en marcos de Weyl-Heisenberg debido a que el subgrupo de unitarios que generan Eb y Ta es una representaci´on del grupo que lleva ese nombre. Por otro lado, cabe mencionar que los par´ametros de los operadores de traslaci´on y modulaci´on no tiene por que ser las coordenadas de un reticulado de la forma aZ × bZ. M´as generalmente, uno puede buscar marcos de la forma {Ebm Tan g}n,m∈Z con an , bm ∈ R, los cuales son denominados marcos de Gabor irregulares. Dado que en este trabajo no consideraremos tales marcos, cuando nos refiramos a marcos de Gabor, impl´ıcitamente nos estaremos refiriendo a marcos de Gabor regulares. Los marcos de Gabor han sido extensamente estudiados. En este trabajo nos interesa solamente su relaci´on con los marcos de Riesz. Es por eso que, de la innumerable cantidad de resultados sobre marcos de Gabor, nos limitaremos a citar el siguiente teorema extra´ıdo de un trabajo de Linnell [32]. Teorema 14.7.3. Sea g ∈ L2 (R) no nula y aZ × bZ un reticulado de R2 donde a, b > 0. Entonces, para todo conjunto finito Λ ⊆ aZ × bZ el conjunto {Eα Tβ g}(α,β)∈Λ es LI.
14.7.2
Algunos resultados
El primer resultado que mostraremos dice que los frames asociados a un frame de Gabor son tambien de Gabor, m´odulo cambiar adecuadamente la funci´on g ∈ L2 (R) que la genera: Observaci´ on 14.7.4. Sea G un grupo numerable y discreto. Sea U : G → U(L2 (R)) una representaci´on de G. Fijemos g ∈ L2 (R). Sea M : `2 (G) → L2 (R) dado por M (ex ) = Ux g,
367
x ∈ G. Esto es un preframe para la sucesi´on de Bessel {Ux g : x ∈ G}. Entonces si S = M M ∗ ∈ L(L2 (R))+ , se tiene que SUx = Ux S
para todo
x∈G .
En efecto, observar que, si para cada x ∈ G definimos Lx ∈ U(`2 (G)), dado por Lx ey = exy , y ∈ G, entonces Ux M ey = Ux (Uy g) = Uxy g = M exy = M Lx ey ,
x, y ∈ G .
O sea que Ux M = M Lx , x ∈ G. Por lo tanto, M ∗ Ux = M ∗ (U−x )∗ = (U−x M )∗ = (M L−x )∗ = Lx M ∗ . Es decir que Ux S = Ux M M ∗ = M Lx M ∗ = M M ∗ Ux = SUx . Algo parecido pasa con los frames de Gabor, aunque no sean exactamente la representacion de un grupo discreto: Teorema 14.7.5. Sean g ∈ L2 (R) y a, b > 0 tales que G(g, a, b) es un frame. Sea S su operador de frame. Se tiene que 1. S · (Erb Tsa ) = (Erb Tsa ) · S para todo r, s ∈ Z. 2. El frame dual S −1 G(g, a, b) = G(S −1 g, a, b). 3. El parseval asociado es S −1/2 G(g, a, b) = G(S −1/2 g, a, b). Demostraci´on. Notemos k = 2πiab. Recordemos que Emb Tna = e−kmn Tna Emb . Fijemos una bon B = {en,m : n, m ∈ Z} de un Hilbert H y definamos M em,n = Emb Tna g, obteniendo un operador preframe para G(g, a, b), por lo que S = M M ∗ . Entonces, para todo par r, s ∈ Z, se tiene que (Erb Tsa )M em,n = (Erb Tsa )(Emb Tna )g = ek ms E(r+m)b T(s+n)a g = M (ek ms er+m,s+n ) . Si Rr,s ∈ U(H) esta dado por Rr,s em,n = ek ms er+m,s+n , entonces (Erb Tsa )M = M Rr,s . Es ∗ = ek sr R−r,−s (porque esto manda er+m,s+n en e−k ms em,n ). Por lo tanto f´acil ver que Rr,s M ∗ (Erb Tsa ) = [T−sa E−rb M ]∗ = [ek sr E−rb T−sa M ]∗ ∗ ∗ = [M (ek sr R−r,−s )]∗ = [M Rr,s ] = Rr,s M ∗ .
Es claro que entonces (Erb Tsa )S = M Rr,s M ∗ = S(Erb Tsa ). Las otras identidades se deducen de inmediato, usando que S 1/2 es l´ımite de polinomios en S.
368
Ejercicio 14.7.6. Sea F = {fn }n∈N un frame con constantes A y B. Entonces se tiene que 1. kfn k2 ≤ B para todo n ∈ N. 2. Si kfn k2 = B, entonces fn ⊥ fm para todo m 6= n. El curro es aplicar la desigualdad que define la framidad de F para f = fn y acotar.
4
Teorema 14.7.7. Dados 0 6= g ∈ L2 (R) y a, b > 0, se tiene que 1. Si G(g, a, b) es un frame, entonces ab ≤ 1. 2. Si G(g, a, b) es un frame y ab = 1, entonces G(g, a, b) es una base de Riesz. Demostraci´on. Usando el Teorema 14.7.5, podemos suponer que G(g, a, b) es un frame de Parseval, porque si G(g, a, b) es frame, entonces S −1/2 G(g, a, b) = G(S −1/2 g, a, b) es un frame de Gabor con los mismos a y b, pero es de Parseval. En este caso, el Teorema se deducir´ıa inmediatamente del siguiente hecho: kgk2 = kEmb Tna gk2 = ab , porque las constantes de G(g, a, b) son uno y, por el Ejercicio 14.7.6, sabemos que 1 mayora a los cuadrados de las normas de sus elementos (esto dir´ıa que ab ≤ 1) y porque los que las alcanzan son ortogonales a los dem´as, por lo que en el caso ab = 1 resultar´ıa que G(g, a, b) queda bon, despu´es de Parsevalizarla. Para probar la f´ormula, usaremos los ´ıtems 2 y 3 de la siguiente Proposici´on, que es sumamente interesante por s´ı misma: Proposici´ on 14.7.8. Sean g ∈ L2 (R) y a, b > 0. Definamos X |g(x − na)|2 . G : R → R+ ∪ {+∞} por G(x) =
(14.26)
n∈Z
entonces valen las siguientes cosas: 1. G(x) ∈ L1 (0, a), en particular es finita pp(x). Adem´as es a-peri´odica. Z a 2 2. M´as detalladamente, se tiene que kgk2 = G(x) dx. 0
3. Si G(g, a, b) es un frame con constantes A y B, entonces bA ≤ G(x) ≤ bB
para casi todo
x∈R.
(14.27)
En particular, si G(g, a, b) es de Parseval, entonces G(x) ≡ b y kgk2 = ab. Demostraci´on. Los ´ıtems 1. y 2. se deducen de que, como la medida de Lebesgue es invariante por translaciones en R, entonces Z Z aX Z a XZ a 2 2 2 2 kgk = |g(x)| dx = |g(x − na)| dx = |g(x − na)| dx = G(x)dx < ∞ . R
n∈Z
0
0
n∈Z
0
Las desigualdades de (14.27) se prueban independientemente. Veamos la primera. Si fuera falsa, existir´ıa un ∆ ⊆ R con |∆| > 0 tal que G(x) < bA para todo x ∈ ∆. Por manipulaciones t´ıpicas de medidas, podemos suponer tambi´en las siguientes dos cosas: 369
1. ∆ ⊆ I, con I un intervalo de |I| = b−1 . 2. Existe un ε > 0 tal que G(x) ≤ bA − ε para todo x ∈ ∆. Tomemos f = ℵ∆ . Veremos que en f no se cumple la desigualdad que caracteriza a la cota A para G(g, a, b). Se usar´a que {b1/2 Emb : m ∈ Z} es una bon de L2 (I). Por ello, 2 X X Z 2 g(x − na)E−mb dx |hf, Emb Tna gi| = n,m∈Z
=
n,m∈Z
∆
XX
|hf Tna g, Emb i|2
n∈Z m∈Z
=
1X kf Tna gk2 b n∈Z
1X = b n∈Z 1 = b
Z
|g(x − na)|2 dx
∆
Z X ∆ n∈Z
1 |g(x − na)| dx = b 2
Z G(x)dx ∆
1 ε ≤ (bA − ε)|∆| = (A − )kf k2 , b b lo que contradice que A sea cota inferior para G(g, a, b). El otro caso se hace igual, dado que en la ecuaci´on anterior todos los pasos son con “igualdad” salvo el que usa la hip´otesis.
370
Cap´ıtulo 15 Marcos de fusi´ on 15.1
Introducci´ on
La teor´ıa de marcos de fusi´on (o de subespacios) es relativamente reciente. P. Casazza y G. Kutyniok, en [56], los definieron como marcos de subespacios, estudiando posibles construcciones de marcos “pegando” muchas sucesiones marco en un espacio de Hilbert H. Para que esto pueda hacerse este marco uniendo los submarcos, los subespacios que ´estos generan deben satisfacer (concretamente las proyecciones ortogonales a ellos) una desigualdad similar a la de los marcos de vectores. De ah´ı el nombre de marcos de subespacios. Enfoques similares aparecen en los trabajos de M. Fornasier, [66, 67], el trabajo de A. Aldroubi, C.Cabrelli y U.Molter, [37] y el paper de G. Sun [84]. Los marcos de subespacios, son el modelo adecuado para representar los denominados procesos distribuidos en los que una se˜ nal se estudia en partes, utilizando marcos, para finalmente reconstruir la se˜ nal completa uniendo adecuadamente esas piezas. El ejemplo que Casazza y Kutyniok usan para graficar una situaci´on de esta ´ındole es el de una red de sensores, por ejemplo tomando datos clim´aticos, distribu´ıda a lo largo de un terreno extenso. Por cuestiones pr´acticas, por ejemplo para que la transmisi´on de datos tenga cierta robustez, los sensores presentan cierto nivel de redundancia, por lo que los podemos considerar como elementos de un marco. Los sensores se agrupan en subredes redundantes, por ejemplo, para prevenirse de que fallas en alg´ un sensor o grupo de sensores afecte la informaci´on completa que provee la red completa. Por lo tanto, cada una de esas subredes es un submarco, y los subespacios generados forman un marco de subespacios. De forma similar, se puede simular el proceso neuronal tratando a grupos de neuronas como submarcos integrando una red neuronal mas grande. Los marcos de subespacios, renombrados marcos de fusi´on a partir del trabajo de P. Casazza, G. Kutyniok y S. Li [58]), comenzaron a estudiarse intensivamente en los u ´ltimos a˜ nos. Se han estudiado t´ecnicas de reconstrucci´on utilizando marcos de fusi´on en procesos distribuidos, comparando reconstrucciones locales y globales. Asimismo, propiedades de robustez en marcos de fusi´on para erasures, tanto de subespacios como a nivel local, de vectores en alguno de los submarcos que integran el marco global (ver P. Casazza y G. Kutyniok [57]). Recientemente han aparecido adem´as los trabajos de Bodmann, Kribs y 371
Paulsen ([48]) y Bodmann ([47]) en donde se estudian marcos de fusi´on Parseval (bajo el nombre de resoluci´on proyectiva pesada de la identidad ) para la transmisi´on de estados cu´anticos.
15.2
Nociones b´ asicas
En este Cap´ıtulo, el conjunto de ´ındices I consistir´a de I = In = {1, . . . , n}
para alg´ un n ∈ N,
o bien
I=N,
para incluir tanto el caso de sucesiones finitas, como numerables. Recordemos que por `∞ + (I) nos referimos al espacio de sucesiones acotadas de n´ umeros (estrictamente) positivos que on formada ser´an considerados pesos de aqu´ı en adelante. El elemento 1 ∈ `∞ + (I) es la sucesi´ por unos. Sea H un espacio de Hilbert separable de dimensi´on infinita. Las siguientes definiciones se basan el el trabajo [56] de Casazza y Kutyniok. Definici´ on 15.2.1. Sea W = {Wi }i∈I una sucesi´on de subespacios cerrados de H, todos ellos distintos de {0}, y sea w = {wi }i∈I ∈ `∞ + (I). 1. Decimos que Ww = (wi , Wi )i∈I es una sucesi´on de Bessel de subespacios (que en adelante abreviaremos por SBS) si existe B > 0 tal que X wi2 kPWi f k2 ≤ Bkf k2 para todo f ∈ H . (15.1) i∈I
donde cada PWi ∈ L(H) es la proyecci´on ortogonal sobre Wi . 2. Decimos que Ww es un marco de subespacios o marco de fusi´on (abreviaremos MF) para H, (resp. MF para S v H) si existen A, B > 0 tal que X Akf k2 ≤ wi2 kPWi f k2 ≤ Bkf k2 para todo f ∈ H (resp. f ∈ S) , (15.2) i∈I
Las cotas o´ptimas para (15.2) se denotan AWw y BWw . 3. W es una sucesi´on minimal si Wi ∩ span {Wj : j 6= i} = {0}
para todo
i∈I .
(15.3)
Supongamos que Ww es un MF para H. Entonces 4. Ww es un marco ajustado si AWw = BWw , y un marco de Parseval si AWw = BWw = 1. 5. Ww es una base de Riesz de subspacios (BRS) si W es una sucesi´on minimal. 6. Ww es una base ortonormal de subespacios (en siglas, BONS) si Wi ⊥ Wj para cualquier par de ´ındices i 6= j, y adem´as w = 1. 4 372
Observaci´ on 15.2.2. Los marcos de subespacios pueden interpretarse como una generalizaci´on de los marcos usuales de vectores. Concretamente, dado un marco F = {fi }i∈I para H, ´este puede pensarse como un marco de subespacios Ww si consideramos los subespacios de dimensi´on uno Wi = span {fi } y los pesos wi = kfi k. 4 El siguiente resultado determina una relaci´on entre marcos de subespacios y marcos de vectores. Desde un punto de vista dice que, bajo determinadas condiciones, uno puede “unir” sucesiones marco y obtener un marco para el espacio de Hilbert completo. Por otro lado, permite testear si una sucesi´on Ww = (wi , Wi )i∈I es o no un MF (y obtener informaci´on sobre sus cotas), en funci´on a familias de vectores elegidos convenientemente dentro de cada subespacio Wi . Teorema 15.2.3. Sea W = {Wi }i∈I una sucesi´on de subespacios cerrados de H y sea w ∈ `∞ + (I). Para cada i ∈ I, sea Gi = {fij }j∈Ji un marco para Wi . Supongamos que 0 < A = inf AGi
B = sup BGi < ∞ .
y
i∈I
i∈I
Sea Ei = {eik }k∈Ki una base ortonormal para cada Wi . Entonces son equivalentes: 1. F = {wi fij }i∈I,j∈Ji = {wi Gi }i∈I es un marco para H. 2. E = {wi eik }i∈I,k∈Ki = {wi Ei }i∈I es un marco para H. 3. Ww = (wi , Wi )i∈I es un MF para H. En este caso, las cotas de marco para Ww , F y E satisfacen las desigualdades A AWw ≤
AF ≤ AWw = AE B
y
BE = BWw ≤
BF B ≤ BWw . A A
(15.4)
Demostraci´on. Dado f ∈ H, de las hip´otesis tenemos que P P P P |h PWi f, wi fij i|2 A i∈I wi2 kPWi f k2 ≤ Ai wi2 kPWi f k2 ≤ i∈I j∈Ji
i∈I
(15.5) ≤ Bi
P
wi2
2
kPWi f k ≤ B
P
wi2
2
kPWi f k .
i∈I
i∈I
Por otra parte, como Wi = span {fij : j ∈ Ji } para cada i ∈ I, tenemos que X X X X |h PWi f, wi fij i|2 = |h f, wi fij i|2 . i∈I
j∈Ji
i∈I
j∈Ji
Luego, si asumimos que F es un marco, podemos deducir que Ww es un MF cuyas cotas cumplen una parte de la Ec. (15.4). Por ejemplo, por las u ´ltimas desigaudades de (15.5), queda que X AF 1 X X AF kf k2 ≤ |h f, wi fij i|2 ≤ wi2 kPWi f k2 =⇒ 0 < ≤ AWw . B B i∈I j∈J B i∈I i
373
BF < ∞. Rec´ıprocamente, si Ww es un MF entonces, A aplicando nuevamente la Ec. (15.5), podemos deducir que F es un marco y que sus cotas cumplen las desigualdades
An´alogamente se ve que BWw ≤
A AWw ≤ AF ≤ BF ≤ B BWw . La equivalencia entre 2 y 3, y las igualdades AWw = AE y BWw = BE se muestran reescribiendo la Ec. (15.5) para E, donde se tendr´a que A = Ai = 1 = Bi = B. Se obtienen desigualdades semejantes a las de la Ec. (15.4), pero al ser A = B = 1, quedan igualdades.
15.3
Marcos de fusi´ on y operadores
Las nociones de operadores de marco, s´ıntesis y an´alisis pueden ser extendidas a sucesiones de Bessel de subespacios. Sin embargo, el espacio de Hilbert de “an´alisis” del marco ahora depende fuertemente de la sucesi´on de subespacios W = {Wi }i∈I . Definici´ on 15.3.1. Sea Ww = (wi , Wi )i∈I una SBS en H. Definimos el espacio de Hilbert M X KW = Wi , con la norma `2 : kgk2 = kgi k2 , para g = (gi )i∈I ∈ KW . i∈I
i∈I
Adem´as, la SBS tiene asociados los siguientes operadores: • Operador de s´ıntesis: TWw : KW → H, definido por X wi gi , para g = (gi )i∈I ∈ KW . TWw (g) = i∈I ∗ ∈ L(H, KW ) es el operador de an´ alisis de Ww . Es f´acil ver que • Su adjunto, TW w ∗ TW (f ) = {wi PWi f }i∈I , para todo f ∈ H . w ∗ ∈ L(H)+ , que satisface • El operador de marco: SWw = TWw TW w X SWw f = wi2 PWi f , para todo f ∈ H . i∈I
• El exceso de Ww se define como E (Ww ) = dim N (TWw ) .
4
Observaci´ on 15.3.2. Sean Ww y E como en el Teo. 15.2.3. Luego se tiene que M TWw = TE , usando la base ortonormal B = {eik }i∈I,k∈Ki de KW = Wi . i∈I
Esto se P muestra directamente por la definici´on de ambos operadores, y el hecho de que wi gi = hgi , eij i wi eij , para todo gi ∈ Wi y todo i ∈ I. Observar que as´ı se obtiene otra j∈Ji
prueba de la equivalencia entre los ´ıtems 2 y 3 de aquel teorema. 374
4
Observaci´ on 15.3.3. Sea W = {Wi }i∈I una sucesi´on de subespacios cerrados de H, y sea w = {wi }i∈I ∈ `∞ + (I). Los siguientes resultados se siguen directamente de las definiciones, en forma semejante a como se hace en la Obs. 14.1.2 para el caso vectorial (ver [56]): 1. Ww = (wi , Wi )i∈I es una SBS si y s´olo si el operador de s´ıntesis TWw est´a bien definido y es acotado. En este caso, 2. Ww es un MF para H (resp. para S v H) si y s´olo si TWw es suryectivo (resp R(TWw ) = S) . ∗ es acotado inferiormente. 3. Esto es equivalente adem´as con que TW w
Si Ww es un MF para H, entonces 4. AWw = γ(TWw )2 y BWw = kTWw k2 . Por lo tanto AWw · I ≤ SWw ≤ BWw · I. 5. Ww es una BRS si y s´olo si TWw es invertible (i.e. inyectivo) y Ww es una base ∗ ortonormal de subespacios si y s´olo si w = e y TW T = IKW . w Ww ∗ = AWw · IH , y Ww es de Parseval si y s´olo si TWw 6. Ww es ajustado si y s´olo si TWw TW w es una coisometr´ıa. 4
En resumen, dada Ww = (wi , Wi )i∈I , una SBS en H, se le asocia el espacio de Hilbert M Wi , dotado de una BONS natural (las copias Ei de cada Wi en KW ), y el operador KW = i∈I P de s´ıntesis TWw : KW → H, definido por TWw (g) = wi gi para g = (gi )i∈I ∈ KW , cuyas i∈I
propiedades caracterizan a Ww . Esta construcci´on busca reemplazar la relaci´on entre frames de vectores y sus llamados operadores preframe (el par dado por un epimorfismo sobre H y una base ortonormal de su dominio). Sin embargo, dicha construcci´on es demasiado r´ıgida, en el sentido de que cambiando muy poco una SBS, no puede saberse como se modifica o como obtener su operador de s´ıntesis. Notar, por ejemplo, que la acci´on de TWw en cada subespacio Ei es la de una homotesia. En efecto, si gi ∈ Ei , se tiene que TWw gi = wi gi . En el siguiente resultado se mostrar´an condiciones m´as flexibles para un espacio de Hilbert K, dotado de una BONS E = {Ei }i∈I , y un epimorfismo T ∈ L(K, H), para que podamos conocer las propiedades de la sucesi´on de subespacios W = {T (Ei )}i∈I . Esto dar´a una herramienta para poder encontrar m´as eficientemente las propiedades de las sucesiones, aplicando t´ecnicas de operadores. Teorema 15.3.4. Sea E = {Ei }i∈I una BONS de un espacio de Hilbert K y sea T ∈ L(K, H) un epimorfismo. Supongamos que min i∈I
γ(T PEi )2 < ∞. kT PEi k2
(15.6)
Sean 0 < A ≤ B < ∞ tales que, para todo i ∈ I, A γ(T PEi )2 ≤ B kT PEi k2
o, equivalentemente, 375
kT PEi k2 γ(T PEi )2 ≤ . B A
(15.7)
Para cada i ∈ I, llamemos Wi = T (Ei ) v H. Sea w = {wi }i∈I ∈ `∞ + (I) tal que kT PEi k2 γ(T PEi )2 ≤ wi2 ≤ B A
para todo i ∈ I .
(15.8)
Entonces: 1. La sucesi´on Ww = (wi , Wi )i∈I es un MF para H. 2. Las cotas de Ww cumplen las desigualdades γ(T )2 γ(T )2 ≤ AWw ≤ B A
y
kT k2 kT k2 ≤ BWw ≤ . B A
(15.9)
3. Si N (T ) ∩ Ei = {0} para todo i ∈ I, entonces existe un operador invertible V ∈ L(K, KW )
tal que
TWw ◦ V = T .
En particular, en este caso se tiene que E (Ww ) = dim N (T ) . Demostraci´on. Supongamos que (15.7) y (15.8) valen para todo i ∈ I. 1. Dado que γ(T PEi ) > 0, entonces Wi = T Ei es cerrado para todo i ∈ I. Sea {bij }j∈Ji una base ortonormal para cada Ei . Por la Ec. (14.3) de la Obs. 14.1.4, y las Ecs. (15.7) y (15.8), las sucesiones Gi = {wi−1 T bij }j∈Ji son marcos para cada Wi con AGi = wi−2 γ(T Ei )2 ≥ A
y
BGi = wi−2 kT Ei k2 ≤ B .
Por otro lado, dado que {bij }i∈I,j∈Ji es una base ortonormal para K, y T un epimorfismo, la sucesi´on F = {T bij }i∈I,j∈Ji es un marco para H. Finalmente, dado que F = {wi (wi−1 T bij )}i∈I,j∈Ji = {wi Gi }i∈I , el Teorema 15.2.3 implica que Ww es un MF para H. 2. Por como estan construidas las sucesiones F y Ww del ´’ıtem anterior, la Ec. (15.4) del Teorema 15.2.3 asegura que A AF AF AF AWw ≤ ≤ AWw =⇒ ≤ AWw ≤ B B B A BF BF ≤ BWw ≤ . Pero como AF = γ(T )2 y BF = kT k2 , B A obtenemos inmediatamente la Ec. (15.9). An´alogamente se ve que
3. Supongamos que N (T ) ∩ Ei = {0} para todo i ∈ I. Entonces N (T PEi ) = Ei⊥
y
γ(T PEi ) kzk ≤ kT PEi zk = kT zk
376
para todo
z ∈ Ei .
Sea x ∈ K, y notemos zi = PEi x, para cada i ∈ I. Observar que x = P kxk2 = kzi k2 . Por la Ec. (15.8), para cada i ∈ I, se tiene que
P
zi y
i∈I
i∈I
A1/2 wi kzi k ≤ γ(T PEi ) kzi k ≤ kT zi k ≤ kT PEi k kzi k ≤ B 1/2 wi kzi k . L Sea KW = i∈I Wi (el dominio de TWw ). Observemos que T (Ei ) = Wi para todo i ∈ I. Por lo tanto la aplicaci´on V : K → KW dada por V x = wi−1 T (PEi x) i∈I = wi−1 T (zi ) i∈I , para cada x ∈ K, est´a bien definida, es acotada e invertible. Usando la definici´on del operador de s´ıntesis TWw , si x ∈ K tenemos que X X X X x= zi =⇒ T x = T zi = T PEi x = wi V x i = TWw (V x) . i∈I
i∈I
i∈I
i∈I
Es decir que TWw ◦ V = T , como se aseguraba. La f´ormula para el exceso de Ww se deduce de que dim N (T ) = dim V −1 (N (TWw )) = dim N (TWw ) = E (Ww ). Observaci´ on 15.3.5. Con las notaciones del Teorema 15.3.4, la condici´on γ(T PEi ) > 0 es necesaria (y suficiente) para que Wi = T Ei v H. Podr´ıa esperarse que adem´as sea suficiente para asegurar que W = {T Ei }i∈I sea un MF para alguna sucesi´on de pesos adecuada. Sin embargo, en el Ejemplo 15.7.1 se ver´a que existe un operador suryectivo T y una base ortonormal de subespacios E = {Ei }i∈I tal que γ(T PEi ) > 0 para todo i ∈ I pero la sucesi´on Ww = (w, W) no es un MF para ning´ un peso w ∈ `∞ + (I) . Lo que sucede en tal ejemplo es que T y E no satisfacen la ecuaci´on (15.6). Esto significa que los a´ngulos entre los subespacios Ei y el N (T ) van empeorando a medida que i crece. Por otro lado, (15.6) no es tampoco una condici´on necesaria para que P (W) 6= ∅ (ver la Definici´on 15.4.1), si W = T E. En el Ejemplo 15.7.2 se tiene un MF que es la imagen por un epimorfismo de una base ortonormal de subespacios pero que no satisface la Ec. (15.6). La idea aqu´ı ser´a que si con unos pocos subespacios uno ya obtiene un buen MF, puede ir agreg´andole mas hasta arruinar la Ec. (15.6), sin que deje de quedar un MF. 4 Observaci´ on 15.3.6. Si Ww = (wi , Wi )i∈I es un MF para H, entonces su operador de s´ıntesis TWw satisface claramente la Ec. (15.6). M´as a´ un, se tiene que TWw g = wi g para todo g ∈ Ei , la copia de Wi en KW . Por lo tanto, γ(TWw PEi ) = kTWw PEi k = wi para todo i ∈ I. O sea que TWw y w cumplen las Ecs. (15.7) y (15.8) con A = B = 1. 4 Como primera aplicaci´on del Teo. 15.3.4, el siguiente Corolario muestra que la relaci´on de equivalencia entre MF’s puede definirse coherentemente, y preserva las mismas propiedades que en el caso vectorial. 377
La u ´nica diferencia es que, en aquel caso, un operador inversible G cambia las normas de los vectores del marco (que en el caso actual se representan como los pesos). Aqu´ı no se puede hacer eso, porque G no act´ ua tan uniformemente en los subespacios Wi . Por ello dejaremos sin cambios la sucesi´on de pesos, pero absorveremos los cambios en las constantes de los marcos. Parte de este resultado aparece en los trabajos de P. Casazza, G. Kutyniok y S. Li [58] (Corolario 2.12) , y de P. Gavruta [70] (Teorema 2.4). Se suguiere al lector intentar obtener exactamente lo que en la notaci´on del corolario ser´ıa el operador TGWw , y ver por lo tanto la necesidad de usar el Teo. 15.3.4. Corolario 15.3.7. Sea Ww = (wi , Wi )i∈I un MF para H, y sea G ∈ L(H, H1 ) invertible. Entonces GWw = (wi , GWi )i∈I es un MF para H1 , cuyas cotas satisfacen las desigualdades kGk kG−1 k
−2
AWw ≤ AGWw
BGWw ≤
y
2 kGk kG−1 k BWw .
(15.10)
Adem´as, E (Ww ) = E (G Ww ) . L Demostraci´on. Notemos por Ei la copia de cada Wi en KW = i∈I Wi . Definimos T = G TWw ∈ L(KW , H1 ), que es claramente suryectivo (dado que TWw lo es). Aplicando la Prop. 8.4.2, para cada i ∈ I tenemos que γ(T PEi ) = γ(G TWw PEi ) ≥ γ(G) · γ(TWw PEi ). Luego, por la Observaci´on 15.3.6, llegamos a que γ(T PEi ) ≥ γ(G) · γ(TWw PEi ) = γ(G) wi
y
kT PEi k ≤ kGk kTWw PEi k = kGk wi ,
para todo i ∈ I. Entonces, puede aplicarse el Teorema 15.3.4 para T con constantes A = γ(G)2 y B = kGk2 . De hecho, para cada i ∈ I, hemos visto que γ(T PEi )2 γ(G)2 ≤ kGk2 kT PEi k2
y
kT PEi k2 γ(T PEi )2 2 ≤ wi ≤ . kGk2 γ(G)2
Por lo tanto, GWw = (wi , GWi )i∈I es un MF para H1 por el Teorema 15.3.4. En cuanto a las cotas, por la Prop. 8.4.2 y el ´ıtem 2 de la Observaci´on 15.3.3, se tiene que 1/2
γ(GTWw ) ≥ γ(G) γ(TWw ) = kG−1 k−1 AWw
y
1/2
kGTWw k ≤ kGk kTWw k = kGk BWw .
Aplicando la Ec. (15.9) del Teorema 15.3.4 y el hecho de que γ(G)2 = kG−1 k−2 , obtenemos la Ec. (15.10). Finalmente, como N (T ) = N (TWw ) , entonces N (T ) ∩ Ei = {0} (i ∈ I). Por el Teorema 15.3.4, deducimos que E (Ww ) = dim N (TWw ) = dim N (T ) = E (G Ww ).
15.4
Pesos Admisibles.
El prop´osito de esta secci´on es estudiar, para una sucesi´on de subespacios cerrados fija W = {Wi }i∈I , el conjunto de pesos w ∈ `∞ Wi )i∈I sea un MF para H. + (I) tal que Ww = (wi , ∞ ∗ ∞ ∞ Recordemos que notamos `+ (I) = {wi }i∈I ∈ `+ (I) : inf wi > 0 = `∞ + (I) ∩ Gl(` (I) ). i∈I
Definici´ on 15.4.1. Sea W = {Wi }i∈I una sucesi´on de subespacios cerrados de H. 378
1. Decimos que W = {Wi }i∈I es una sucesi´on generadora de H, si span {Wi : i ∈ I} = H. 2. Si W = {Wi }i∈I es generadora de H, definimos P (W) = w ∈ `∞ + (I) : Ww = (wi , Wi )i∈I es un MF para H , el conjunto de pesos admisibles para W.
4
En los Ejemplos 15.7.1 y 15.7.3 se ver´a que existen sucesiones generadoras W = {Wi }i∈I de H tales que P (W) = ∅. Proposici´ on 15.4.2. Sea W = {Wi }i∈I una sucesi´on generadora de H. ∗ 1. Si w ∈ P (W), entonces a w ∈ P (W) y E (Ww ) = E (Wa w ) , para todo a ∈ `∞ + (I) . ∗ ∞ 2. Si Ww = (w, W) es una BRS, para alg´ un w ∈ `∞ + (I), entonces P (W) = `+ (I) , y ∗ adem´as (a, W) es una BRS para todo a ∈ `∞ + (I) . En particular, (e, W) es una BRS para H.
3. Sea G ∈ Gl(H). Entonces P (W) = P ({GWi }i∈I ). En otras palabras, una sucesi´on olo si es admisible para GW. w ∈ `∞ + (I) es admisible para W si y s´ L Demostraci´on. Sea KW = i∈I Wi , y notemos por Ei v KW la copia de cada Wi en K. X ∗ (I) , consideremos la serie D = ai PEi , que es convergente en 1. Para cada a ∈ `∞ a + i∈I
la topolog´ıa fuerte de operadores. Adem´as Da ∈ Gl(KW )+ . Por lo tanto, si TWw ∈ L(KW , H) es el operador de s´ıntesis de Ww , entonces TWw Da es, por definici´on, el operador de s´ıntesis de (a w, W). Dado que TWw Da es acotado y suryectivo, entonces (a w, W) es tambi´en un MF. Finalmente, notemos que N (TWa w ) = N (TWw Da ) = Da−1 (N (TWw ) ) =⇒ E (Ww ) = E (Wa w ) . 2. Si Ww es una BRS para H, entonces TWw es invertible. Dado que TWw x = wi x 1/2 para x ∈ Ei , entonces wi ≥ γ(TWw ) = AWw para todo i ∈ I. Esto implica que ∗ ∞ ∗ −1 ∗ ∗ ∞ ∈ `∞ w ∈ `∞ + (I) ). Entonces + (I) . Notemos que w · `+ (I) = `+ (I) (dado que w ∞ ∗ −1 ∞ `+ (I) ⊆ P (W) por (1). Sea a ∈ P (W). Entonces w a ∈ `+ (I) y, como en el ´ıtem (1), that −1 TWa = TWw(w−1 a) = TWw Dw−1 a =⇒ Da = Dw Dw−1 a = Dw TW TWa . w ∗ Por lo tanto, Da es suryectivo (e inyectivo), entonces Da ∈ Gl(KW )+ y a ∈ `∞ + (I) .
La u ´ltima observaci´on se deduce de la definici´on de BRS’s (que s´olo concierne a la sucesi´on W), o del hecho de que Dw−1 a ∈ Gl(KW )+ . 3. Aplicar el Corolario 15.3.7 a G y a G−1 . 379
Definici´ on 15.4.3. Sea W = {Wi }i∈I una sucesi´on generadora de H. Dado v, w ∈ P (W), ∗ decimos que v y w son equivalentes si existe a ∈ `∞ 4 + (I) tal que v = aw. Observaciones: 15.4.4. Sea W = {Wi }i∈I una sucesi´on generadora de H. 1. Por la Proposici´on 15.4.2, si una sucesi´on w ∈ P (W), luego toda su clase de equiva∗ lencia w · `∞ + (I) ⊆ P (W). 2. Por otro lado, en el Ejemplo 15.7.5 veremos que existen sucesiones generadoras W de H con infinitas sucesiones w ∈ P (W) no equivalentes. 3. Si Ww es una BRS para H, entonces por la Proposici´on 15.4.2 todas las sucesiones de ∗ pesos admisibles para W son equivalentes a w, dado que P (W) = `∞ as, + (I) . Adem´ ∗ Wv = (v, W) es tambi´en una BRS para H, para todo otro v ∈ `∞ (I) . Por lo tanto, + de ahora en m´as, nos referiremos a las bases de Riesz de subespacios W sin hacer referencia expl´ıcita a la sucesi´on de pesos, dado que el conjunto de pesos admisibles es siempre el mismo (y adem´as, W es una BRS con cualquiera de ellos). 4. Por definici´on, si W es una BRS, entonces es una sucesi´on minimal. Sin embargo, en el Ejemplo 15.7.3, veremos que hay sucesiones minimales, generadoras de H, pero con P (W) = ∅. 4 Proposici´ on 15.4.5. Sea E = {Ei }i∈I una BONS para H. Sea G ∈ L(H, H1 ) un operador invertible. Entonces la sucesi´on G E = (GEi )i∈I es una BRS para H1 . Demostraci´on. Es consecuencia del Corolario 15.3.7 y del hecho de que G E sigue siendo una sucesi´on minimal. Observaci´ on 15.4.6. Hemos visto que, dado un marco F = {fi }i∈I para H, la sucesi´on −1/2 {SF fi }i∈I es un marco de Parseval. Sin embargo, si Ww = (wi , Wi )i∈I es un MF, entonces −1/2 SWw Ww podr´ıa no ser un marco de Parseval de subespacios (Ejemplo 15.7.5), ni siquiera con una sucesi´on de pesos diferente. Peor a´ un, existen marcos de fusi´on Ww = (w, W) para H tales que la sucesi´on (v, G W) no es un MF de Parseval para H, para cualquier elecci´on de G ∈ Gl(H) y v ∈ `∞ on muestra que la + (I) (ver Ejemplo 15.7.6). La siguiente Proposici´ situaci´on es diferente si nos restringimos a BRS’s para H: 4 ∗ Proposici´ on 15.4.7. Sea W = {Wi }i∈I una BRS para H. Entonces, para todo w ∈ `∞ + (I) , −1/2 la sucesi´on {SWw Wi }i∈I es una BONS.
Demostraci´on. Sea {eik }k∈Ki una base ortonormal en cada Wi . Fijemos cualquier w ∈ ∗ `∞ on E = {wi eik }i∈I,k∈Ki es un marco para H. M´as + (I) . Por el Teorema 15.2.3, la sucesi´ a´ un, por la Obs. 15.3.2, TE = TWw que es inversible. Luego se tiene que E es una base de −1/2 Riesz de H. Por lo tanto {wi SE eik }i∈I, k∈Ji es una base de Riesz y adem´as un marco de Parseval para H. En otras palabras, es una base ortonormal de H. Pero usando que −1/2 −1/2 SWw = SE y que {wi SWw eik }k∈Ki es una base ortonormal para cada subespacio SWw Wi , −1/2 podemos deducir que la sucesi´on {SWw Wi }i∈I es una BONS para H.
380
15.5
Proyectores y marcos de subespacios.
Por el Teo. 14.3.1, una sucesi´on {fj }j∈N es un marco de Parseval para H si y s´olo si existen un espacio de Hilbert K que contiene a H y una base ortonormal {bj }j∈N de K tales que fj = PH bj para todo j. En esta secci´on estudiaremos la posible generalizaci´on a los marcos de subespacios, reemplazando bases ortornormales por bases ortonormales de subespacios. Se ver´a que una implicaci´on es cierta ( un marco de Parseval de subespacios es la proyecci´on ortogonal de una base ortonormal de subespacios) pero la otra implicaci´on no es cierta (Ejemplo 15.7.4). El esquema de esta secci´on es muy similar al de la Secci´on 14.3 que relaciona proyecciones y marcos vectoriales. Pero veremos que en varios casos como el antes mencionado, se obtendr´an condiciones suficientes pero no necesarias. Teorema 15.5.1. Sea Ww = (wi , Wi )i∈I un MF para H. Entonces existe un espacio de Hilbert V ⊇ H y una base de Riesz de subespacios {Bi }i∈I para V tal que PH (Bi ) = Wi
y
1/2
1/2
AWw kPH PBi k ≤ wi ≤ BWw kPH PBi k
para todo i ∈ I .
Esto es, la nueva sucesi´on de pesos vi = kPH PBi k, i ∈ I, es equivalente a w. Adem´as, podemos calcular E (Ww ) = dim V H. L Demostraci´on. Como antes, notaremos Ei la copia de cada Wi en KW = i∈I Wi . Sea TWw ∈ L(KW , H) el operador de s´ıntesis de Ww . Llamemos N = N (TWw ) y V = H ⊕ N . Podemos identificar H con H ⊕ {0} v V. Sea U : KW → V dado por (15.11) U (x) = TWw x ⊕ γ(TWw ) PN x , x ∈ KW . Dado que KW = N ⊥ ⊥ N y TWw N ⊥ : N ⊥ → H es invertible, podemos deducir que U es acotado e inversible. Mas a´ un, es f´acil ver que 1/2
kU −1 k−1 = γ(U ) = γ(TWw ) = AWw
y
1/2
kU k = kTWw k = BWw .
(15.12)
Por la Proposici´on 15.4.5, la sucesi´on {Bi }i∈I = {U (Ei )}i∈I es una base de Riesz de subespacios para V. Observemos que PH (Bi ) = PH U (Ei ) = TWw (Ei ) ⊕ {0} = Wi ⊕ {0} ∼ Wi ,
para todo i ∈ I .
Sea y un vector de norma uno de Bi = U (Ei ). Entonces y = U x con x ∈ Ei . Se tiene γ(U )kxk ≤ kU xk = kyk = 1 ≤ kU k kxk . Si x ∈ Ei , notemos por xi a su componente en Wi (las dem´as son cero). Usando que kPH yk = kTWw xk = wi kxi k = wi kxk y la Ec. (15.12), concluimos que para todo vector unitario y ∈ Bi , se tiene que 1/2
1/2
AWw kPH yk = γ(TWw ) kPH yk = wi γ(U ) kxk ≤ wi =⇒ AWw kPH PBi k ≤ wi . 1/2
1/2
Similarmente, wi ≤ wi kU k kxk = BWw kPH yk ≤ BWw kPH PBi k. 381
Corolario 15.5.2. Sea Ww = (wi , Wi )i∈I un MF de Parseval para H. Entonces existen un espacio de Hilbert V ⊇ H y una BONS {Fi }i∈I para V tales que PH (Fi ) = Wi
y
wi = c [ H , Fi ] = kPH PFi k
para todo i ∈ I .
Demostraci´on. Usaremos las notaciones de la prueba del Teorema 15.5.1. Si Ww es Parseval, entonces AWw = BWw = 1. La Ec. (15.12), implica que el operador U ∈ L(K, V) definido en (15.11) es adem´as unitario (es una isometr´ıa invertible). Por lo tanto, en este caso, la sucesi´on {Fi }i∈I = {U (Ei )}i∈I es una base ortonormal de subespacios para V. Adem´as, por el Teorema 15.5.1, tenemos que wi = kPH PFi k para todo i ∈ I. Es f´acil ver que Fi ∩ (H ⊕ {0}) 6= {0} implica que wi = 1 y Fi ⊆ (H ⊕ {0}) (dado que U es unitario). Entonces kPH PFi k = c [ H , Fi ] para todo i ∈ I. Teorema 15.5.3. Sea Ww = (wi , Wi )i∈I un MF para H tal que 1 ≤ AWw . Llamemos V = H ⊕ KW . Entonces, existen una proyecci´on oblicua Q ∈ L(V) con R(Q) = H ⊕ {0} y un sistema ortonormal de subespacios {Bi }i∈I in V, tales que Wi ⊕ 0 = Q(Bi )
wi = kQ PBi k = γ(Q PBi )
y
para todo i ∈ I .
M´as a´ un, si E (Ww ) = ∞, entonces {Bi }i∈I puede tomarse como una BONS de V. Demostraci´on. Escribamos TWw = T . Por hip´otesis, T T ∗ = SWw ≥ AWw I ≥ I. Notemos por X = (T T ∗ − I)1/2 ∈ L(H)+ . Consideremos la descomposici´on polar (a derecha) T = |T ∗ |V , donde V ∈ L(KW , H) es una isometr´ıa parcial con espacio inicial y final N (T )⊥ y H respectivamente, por lo tanto V V ∗ = IH . Consideremos la “ampliaci´on ” T˜ ∈ L(KW , V) dada por T˜x = T x ⊕ 0. Entonces TT∗ 0 H T˜T˜∗ = ∈ L(V). Definamos 0 0 KW IH XV H Q= ∈ L(V) . 0 0 KW Entonces es claro que Q es una proyecci´on oblicua con R(Q) = H ⊕ 0. M´as a´ un, IH + XX ∗ 0 QQ∗ = = T˜T˜∗ =⇒ |Q∗ | = |T˜∗ | . 0 0 Sea U ∈ L(KW , V) definido por U x = V PN (T )⊥ x ⊕ PN (T ) x ,
para x ∈ KW .
(15.13)
Entonces U es una isometr´ıa, porque el espacio inicial de V es N (T )⊥ . Adem´as, se tiene que T˜ = |T˜∗ |U . La isometr´ıa parcial de la descomposici´on polar a derecha de Q se extiende a un operador unitario W en V, porque dim N (Q) = dim R(Q)⊥ . Adem´as, Q = |Q∗ |W . Entonces T˜ = |T˜∗ |U = |Q∗ |U = Q W ∗ U. 382
Por lo tanto, si consideramos la base ortonormal de subespacios {Ei }i∈I of KW , Wi = T (Ei ) ∼ T (Ei ) ⊕ 0 = T˜(Ei ) = QW ∗ U (Ei ) = Q(Bi ) ,
i∈I ,
donde {Bi }i∈I = {W ∗ U Ei }i∈I , que es claramente un sistema ortonormal en V. Si y ∈ Bi es un vector unitario, entonces y = W ∗ U x para x ∈ Ei con kxk = 1, y wi = kT xk = kQW ∗ U xk = kQyk =⇒ wi = kQ PBi k = γ(Q PBi ) . Supongamos ahora que dim N (T ) = ∞. Entonces, la isometr´ıa U definida en (15.13) puede cambiarse a un operador unitario de KW sobre V, manteniendo la identidad T˜ = |T˜∗ |U . Para ver esto, tomemos U x = V PN (T )⊥ x ⊕ Y PN (T ) x,
x ∈ H,
donde Y ∈ L(KW ) es una isometr´ıa parcial con espacio inicial N (T ) y espacio final KW . Es inmediato entonces que U aplica isom´etricamente N (T )⊥ sobre H ⊕ {0} y N (T ) sobre {0} ⊕ KW . Entonces, se concluye que la sucesi´on {Bi }i∈I es una base ortonormal de subespacios para V.
15.6
Refinamientos de marcos de subespacios.
Tomemos H = `2 (Z) y el MF Ww formado por 2 subespacios: W1 = span {en : n ≤ 0}
y
W2 = span {en : n ≥ 0} ,
con pesos w1 = 1 = w2 . Es claro que E (Ww ) = 1 > 0, pero Ww es exacto, en el sentido de que (wi , Wi )i∈J no es un marco, para todo subconjunto propio J ⊂ I2 (en este caso, J tendr´ıa a lo sumo un elemento). Esta situaci´on es posible porque el exceso del marco puede estar contenido propiamente en alguno de los Wi de Ww , por lo que si “borramos” cualquiera de los subespacios de Ww , la sucesi´on restante deja de ser generadora. En conclusi´on, la noci´on de “exceso” no es la misma en este contexto que en el de los marcos de vectores, en el sentido de la Definici´on 14.1.5 y la Prop. 14.5.3. En esta secci´on, introducimos la noci´on de refinamientos de sucesiones de subespacios, que funcionar´a como medio natural para recuperar la conexi´on entre exceso y erasures. Teniendo eso en cuenta, esta secci´on tiene un esquema similar a la Secci´on 14.5 del Cap´ıtulo anterior. En concreto, un refinamiento de una sucesi´on W = {Wi }i∈I es una sucesi´on de subespacios “mas chicos”. Con el objeto de mantener la convenci´on de que los subespacios son distintos de {0}, permitiremos el borrado de algunos subespacios de W, considerando que un subconjunto propio de I pueda ser el conjunto de ´ındices para el refinamiento. Definici´ on 15.6.1. Sea W = {Wi }i∈I una sucesi´on de subespacios cerrados de H. 1. Un refinamiento de W es una sucesi´on V = {Vi }i∈J de subespacios cerrados tal que J ⊆I
y
{0} = 6 V i ⊆ Wi 383
para todo i ∈ J .
En este caso, usaremos las siguientes notaciones: 2. El exceso de W con respecto a V es el cardinal X X E (W, V) = dim(Wi Vi ) + dim Wi . i∈ J
i∈ / J
3. Si w ∈ P (W), decimos que Vw = (wi , Vi )i∈ tambi´en un MF para H.
J
es un MF-refinamiento de Ww si Vw es 4
Observaci´ on 15.6.2. Es f´acil ver que, si V es un refinamiento de W y V 0 es un refinamiento de V, entonces V 0 refina a W y E (W, V 0 ) = E (W, V) + E (V, V 0 ). 4 Lema 15.6.3. Sea Ww = (wi , Wi )i∈I un MF para H y sea V = {Vi }i∈J un refinamiento de W. Consideremos KV = ⊕i∈J Vi como subespacio de ⊕i∈I Wi = KW . Entonces 1. E (W, V) = dim KV⊥ = dim N (PKV ) . 2. Vw = (wi , Vi )i∈
J
es un MF-refinamiento de Ww si y s´olo si TWw PKV is suryectivo.
En este caso, tenemos que 3. E (W, V) ≤ E (Ww ). 4. Si E (W, V) < ∞, entonces E (Vw ) = E (Ww ) − E (W, V). Demostraci´on. Para cada i ∈ I, notemos por Ei (resp. Fi ) la copia de cada Wi (resp. Vi , o Fi = {0} si i ∈ / J) en KW . Es f´acil ver entonces que KV⊥ = ⊕i∈I Ei Fi , lo que prueba el ´ıtem 1. Abreviemos P = PKV . Por sus definiciones, tenemos que TVw = TWw K = TWw R(P ) ∈ L(KV , H) . V
Entonces R(TWw P ) = R(TVw ) = H si y s´olo si Vw es un MF-refinamiento de Ww . En este ∗ ∗ ) = N (TWw ) ⊥ , vemos que ) . Dado que R(TW caso, {0} = N (P TW w w ∗ N (P TW ) = {0} ⇒ N (P ) ∩ N (TWw ) ⊥ = {0} ⇒ dim N (P ) ≤ dim N (TWw ) , w
ya que la proyeccion ortogonal sobre N (TWw ) act´ ua inyectivamente en N (P ). Entonces E (W, V) = dim N (P ) ≤ dim N (TWw ) = E (Ww ) . Observemos que, por ser suryectivos, TWw y TWw P son operadores de semi-Fredholm, con Ind TWw = dim N (TWw ) − 0 = E (Ww )
e
Ind (TWw P ) = dim N (TWw P ) .
Si E (W, V) < ∞, entonces P es un operador de Fredholm, con Ind P = 0. Luego E (Ww ) = Ind TWw + Ind P = Ind TWw P = dim N (TWw P ) . Finalmente, dado que TVw = TWw K , V
E (Vw ) = dim N (TVw ) = dim N (TWw P ) − dim N (P ) = E (Ww ) − E (W, V) , donde la segunda igualdad surge de que TWw P coincide con TVw , salvo que su dominio (y su n´ ucleo) se agrandan agregando el subespacio finitodimensional N (P ). 384
Lema 15.6.4. Sea Ww = (wi , Wi )i∈I un MF para H con E (Ww ) > 0. Entonces existe un MF-refinamiento Vw = (wi , Vi )i∈ J de Ww con E (W, V) = 1. Demostraci´on. Para cada i ∈ I, notemos por Ei la copia de Wi en KW . Supongamos que no existe ning´ un MF-refinamiento Vw de Ww , con E (W, V) = 1. Entonces, por el Lema 15.6.3, para todo i ∈ I y todo vector unitario y ∈ Ei , se tiene que R(TWw P{y}⊥ ) 6= H. Por la Proposici´on 8.2.3 y Ec. (8.6), c N (TWw ) , {y}⊥ = c N (TWw )⊥ , span {y} < 1 =⇒ R(TWw P{y}⊥ ) v H . ∗ ) un vector unitario. Entonces Tomemos x ∈ R(TWw P{y}⊥ )⊥ = N (P{y}⊥ TW w ∗ x ∈ span {y} , 0 6= TW w
Luego
[
i.e.
∗ ). y ∈ R(TW w
∗ ∗ Ei ⊆ R(TW ) (que es cerrado), por lo que TW es suryectivo y E (Ww ) = 0. w w
i∈I
Teorema 15.6.5. Sea Ww = (wi , Wi )i∈I un MF para H. Entonces n o E (Ww ) = sup E (W, V) : Vw = (wi , Vi )i∈ J es un MF-refinamiento de Ww . (15.14) Adem´as, si E(Ww ) = ∞, entonces, para todo n ∈ N, existe un MF-refinamiento Vw = (wi , Vi )i∈ J de Ww tal que E (W, V) = n. Demostraci´on. Notemos por α el supremo de (15.14). El item 3 del Lema 15.6.3 nos dice que α ≤ E (Ww ). Si E (Ww ) < ∞, combinando la Observaci´on 15.6.2, el Lema 15.6.4 y el ´ıtem 4 del Lema 15.6.3, uno puede probar inductivamente que α ≥ E (Ww ). Si E (Ww ) = ∞, un argumento inductivo similar muestra que para todo n ∈ N, existe un MF-refinamiento Vv de Ww , tal que E (W, V) = n. Corolario 15.6.6. Sea Ww = (wi , Wi )i∈I un MF para H tal que E (Ww ) < ∞. Entonces ∗ 1. La sucesi´on w ∈ `∞ + (I) .
2. Existe un MF-refinamiento Vw = (wi , Vi )i∈
J
de Ww tal que:
(a) V es una BRS para H. (b) E (W, V) = E(Ww ). Demostraci´on. Por el Teorema 15.6.5, existe un MF-refinamiento Vw = (wi , Vi )i∈ J de Ww , tal que E (W, V) = E(Ww ). Por el ´ıtem 4 del Lema 15.6.3, E(Vw ) = 0. Es decir, Vw es ∗ una BRS para H. Entonces, por la Prop. 15.4.2, la sucesi´on {wi }i∈J ∈ `∞ + (J) . Dado que ∞ ∗ E (W, V) < ∞, entonces I \ J es finito, y se tiene adem´as que w ∈ `+ (I) . Corolario 15.6.7. Sea Ww = (wi , Wi )i∈I un MF para H tal que E (Ww ) < ∞. Entonces ∗ P (W) = `∞ + (I)
y
E (Wv ) = E (Ww ) para cualquier otro v ∈ P (W) .
385
∗ Demostraci´on. Por el Corolario 15.6.6, sabemos que w ∈ `∞ on 15.4.2, + (I) . De la Proposici´ ∞ ∗ se deduce que `+ (I) ⊆ P (W). Sea Vw = (wi , Vi )i∈ J un MF-refinamiento de Ww que es una BRS para H, (existe por el Corolario 15.6.6). Tomemos v ∈ P (W). Necesitamos verificar que la sucesi´on Vv = (vi , Vi )i∈ J es tambi´en un MF-refinamiento de Wv . En efecto, consideremos el operador TVv = TWv K ∈ L(KV , H). Por el Lema 15.6.3, V dim KV⊥ = E (W, V) < ∞. Como en la prueba del Lema 15.6.4, esto implica que
R(TVv ) = R(TWv PKV ) v H . ( ) ( ) [ [ Por otro lado, span Vi ⊆ R(TVv ). Pero span Vi es denso en H, porque TVw i∈J
i∈J
es suryectivo (recordemos que Vw es un MF). Esto muestra entonces que TVv es tambi´en suryectivo, i.e. Vv es un MF. Ten´ıamos que V es una BRS, y ahora sabemos que vJ = {vi }i∈ J ∈ P(V). Por la ∗ Proposici´on 15.4.2, podemos asegurar que vJ ∈ `∞ + (J) . Como antes, como I \ J es finito, ∗ ∗ esto implica que v ∈ `∞ ı se ve que `∞ + (I) . As´ + (I) = P (W). Usando la Prop. 15.4.2 otra vez, ahora por el hecho de que v y w son equivalentes, concluimos que E (Wv ) = E (Ww ). Teorema 15.6.8. Sea Ww = (wi , Wi )i∈I un MF para H. Entonces E (Wv ) = E (Ww )
para cualquier otro
v ∈ P (W) .
Demostraci´on. Si E (Ww ) < ∞, aplicamos Corolario 15.6.7. Por otro lado, si E (Ww ) = ∞ y tomamos otro v ∈ P (W), entonces tambi´en debe valer que E (Wv ) = ∞, porque si E (Wv ) fuera finito, podr´ıa aplicarse el Corolario 15.6.7 a Wv , llegando a una contradicci´on.
15.7
Ejemplos.
Observemos que, si {Ei }i∈I es una base ortonormal de subespacios para K y T ∈ L(K, H) es un operador suryectivo tal que T (Ei ) v H para todo i ∈ I, entonces W = {T Ei }i∈I es una sucesi´on generadora para H. Sin embargo, el primer ejemplo muestra que, en general, tal sucesi´on W puede tener P (W) = ∅, i.e. Ww no es un MF para H, para cualquier sucesi´on w ∈ `∞ + (I). Ejemplo 15.7.1. Sea B = {en }n∈N una base ortonormal de H. Para k ∈ N, consideremos el espacio Ek = span {e2k−1 , e2k } . Entonces Ek resulta una base ortonormal de subespacios para H. Sea T : H → H el operador (definido en un denso) dado por −k 2 e1 si n = 2k − 1 T en = . ek+1 si n = 2k Entonces, T puede extenderse a un operador acotado y suryectivo (a quien seguimos llamando T ), dado que la sucesi´on {T ek }k∈N es claramente un marco ajustado para H. Veremos que 386
la sucesi´on de subespacios cerrados W = {Wk }k∈N
tal que
Wk = T (Ek ) = span {e1 , ek+1 } ,
k∈N
cumplen que P (W) = ∅. Supongamos que, por el contrario, w ∈ P (W). Entonces, por la \ Ec. (15.2) aplicada a f = e1 ∈ Wk , tenemos que w ∈ ` 2 (N). Pero esto contradice la k∈N
existencia de una cota inferior de marco AWw para Ww = (wk , Wk )k∈N , porque para todo k ∈ N, X AWw = AWw kek+1 k2 ≤ wj2 kPWj ek+1 k2 = wk2 −−−→ 0 . k→∞
j∈N
Notemos que, por definici´on,
−k γ(T PEk ) = 21 −−−→ 0. kT PEk k k→∞
4
El operador T y la base ortonormal E = {En }k∈N del ejemplo anterior no satisfacen la Ec. (15.7) del Teorema 15.3.4. Sin embargo, (15.7) no es una condici´on necesaria que asegure que P (W) 6= ∅, si W = T E. Esto se muestra en el pr´oximo ejemplo, en donde se muestra un MF, imagen por un epimorfismo de una base ortonormal de subespacios, pero que no satisfacen la Ecuaci´on (15.7). Ejemplo 15.7.2. Sea {ek }k∈N una base ortonormal para H y consideremos el marco (de vectores) si n = 2k − 1 e k . F = {fn }n∈N dado por fn = ek+1 √ si n = 2k k+1 Sea T = TF ∈ L(`2 (N), H) su operador de s´ıntesis (que es suryectivo). Si {bn }n∈N es la base can´onica de `2 (N), entonces T bn = fn . Para cada k ∈ N hacemos Ek = span {b2k−1 , b2k }. Entonces, por construcci´on {Ek }k∈N es una base ortonormal de subespacios de `2 (N). Tomemos las sucesiones w = e ∈ `∞ + (N)
y
Wk = T Ek = span {ek , ek+1 } ,
k∈N.
Entonces Ww = (wk , Wk )k∈N es un MF para H. Sin embargo, T no cumple la Ec. (15.7), 1 , mientras que kT P k = 1, para todo k ∈ N. 4 dado que γ(T PEk ) = √k+1 Ek En el Ejemplo 15.7.1, se tiene una sucesi´on generadora W = {Wi }i∈I con P (W) = ∅. El argumento clave fue que ∩i∈I Wi 6= {0}. Esto es suficiente para asegurar que P (W) es vac´ıo si span {Wi : 1 ≤ i ≤ n} 6= H para todo n ∈ N. Sin embargo, como mostrar´a el siguiente ejemplo, esta condicion no es necesaria, a´ un si dim Wi < ∞ para todo i ∈ I. Este ejemplo sirve adem´as para mostrar que existen sucesiones generadoras, minimales de subespacios tales que P (W) = ∅.
387
∞ X e2k Ejemplo 15.7.3. Fijemos una base ortonormal B = {ei }i∈N para H. Sea g = ∈H 2k/2 k=1 (kgk = 1). Para todo n ∈ N, notemos por Pn ∈ L(H) a la proyecci´on ortogonal sobre Hn = span {e1 , e2 , . . . , en }. Consideremos la sucesi´on generadores W = {Wk }k∈N dada por ( k ) X e2j Wk = span {P2k g , e2k−1 } = span , e2k−1 , k ∈ N . 2j/2 j=1
Es f´acil ver que W es una sucesi´on minimal. Lo que est´a sucediendo en este caso particular es que c [ Wi , Wj ] −−−−→ 0 (r´apidamente), i,j→∞
y por esta raz´on P (W) = ∅. De hecho, supongamos que w ∈ P (W), y el marco de subespacios Ww = (w, W) tiene cotas 0 < AWw ≤ BWw . Entonces X X X BWw = BWw kgk2 ≥ (15.15) wk2 kPWk gk2 = wk2 kP2k gk2 = wk2 (1 − 2−k ) , k∈N
k∈N
k∈N
lo que implica que wk −−−→ 0. Por otro lado, para todo k ∈ N, k→∞
AWw = AWw ke2k−1 k2 ≤
X
wi2 kPWi e2k−1 k2 = wk2
(15.16)
i∈N
por lo que AWw = 0, contradiciendo la suposici´on inicial de que Ww era un MF. Por lo tanto, P (W) = ∅. 4 Sabemos que {fj }j∈N es un marco de Parseval para H si y s´olo si existe un espacio de Hilbert K que contiene a H tal que fj = PH bj para todo j ∈ N, donde {bj }j∈N es una base ortonormal para K. En la secci´on 15.5 se prob´o que en el caso de marcos de subespacios una implicaci´on era cierta, si reemplaz´abamos convenientemente las bases ortonormales por bases ortonormales de subespacios. Concretamente, se vio que un marco Parseval de subespacios es la imagen por una proyecci´on ortogonal de una base ortonormal de subespacios. El siguiente ejemplo muestra que la rec´ıproca no es cierta en este contexto. Ejemplo 15.7.4. Sea {ek }k∈N una base ortonormal para H. Consideremos el vector unitario X e2k−1 , y sea M = span { {g} ∪ {e2k : k ∈ N} } . g= k/2 2 k∈N Por otro lado, tomemos la sucesi´on E = {Ek }k∈N dada por Ek = span {e2k−1 , e2k } (k ∈ N). Entonces E es una bon de subespacios para H. Sea la sucesi´on W = {Wk }k∈N dada por Wk = PM Ek = span {g , e2k } ,
para todo k ∈ N .
Entonces P (W) = ∅ por la misma raz´on que en el Ejemplo 15.7.1, porque g ∈
\ k∈N
4 388
Wk 6= {0}.
El pr´oximo ejemplo muestra que en el caso de marcos de subespacios, la existencia de un marco ajustado can´onico no es cierta, a diferencia de los marcos de vectores. Ejemplo 15.7.5. Sea E = {en }n∈N una base ortonormal de H. Definamos la sucesi´on W = {Wk }k∈N como W1 = span {ek : k ≥ 2} = {e1 }⊥
y
Wk = span {e1 , ek } ,
para
k≥2.
Notemos que P (W) = `+2 (N). De hecho, una inclusi´on es clara, y w ∈ P (W) =⇒
∞ X
wk2 =
k=2
∞ X
wk2 kPWk e1 k2 ≤ BWw =⇒ w ∈ `+2 (N) .
k=2
Ahora veamos que Ww no puede ser un marco ajustado de subespacios para ning´ un w ∈ P (W). Si Ww fuera un marco ajustado, con cota de marco A, entonces para todo k ≥ 2, X A = Akek k2 = wi2 kPWi ek k2 = w12 + wk2 =⇒ wk2 = A − w12 , i∈N
lo que contradice w ∈ `+2 (N). Veamos ahora que el operador de marco SWw ∈ L(H) es diagonal con respecto a la base ortonormal E, para todo w ∈ P (W). De hecho, ! ∞ X ∗ ∗ TW e = {wk PWk e1 }k∈N = 0 ⊕ {wk e1 }k≥2 =⇒ SWw e1 = TWw TW e = wk2 e1 . w 1 w 1 k=2
Por otro lado, si Ek es la copia w 1 e j ∗ PEk TWw ej = wj ej 0
de Wk en KW , entonces para todo k ∈ N y j ≥ 2, si k = 1 ∗ =⇒ SWw ej = TWw TW e = (w12 + wj2 )ej . si k = j w j si k 6= 1, j −1/2
−1/2
En particular, SWw es tambi´en diagonal. Esto implica que SWw W = W, que sabemos que no puede ser ajustado para ninguna sucesi´on de pesos. Otra propiedad del presente ejemplo es la siguiente: Ww es un MF para H, pero la sucesi´on (wk , Wk )k>1 no es una sucesi´on MF (i.e. un MF para span {Wk : k > 1}). Esto puede probarse con los mismos argumentos utilizados en el Ejemplo 15.7.1, usando que ∩k>1 Wk 6= {0}. 4 Ejemplo 15.7.6. Sea B4 = {en }n≤4 una base ortonormal para C4 . Consideremos la sucesi´on W = {Wk }k∈N dada por W1 = span {e1 , e2 } ,
W2 = span {e1 , e3 }
y
W3 = span {e4 } .
Veremos que la sucesi´on GWw = (wk , GWk )k∈I3 no es un marco de Parseval para todo invertible G ∈ M4 (C) y todo peso w ∈ R3+ . 389
Tomemos base ortonormal en cada GWi GW1 = span {g1 , g2 } , donde g1 =
GW2 = span {g1 , g3 }
y
GW3 = span {g4 } ,
Ge1 , lo mismo para g4 . Si GWw fuera de Parseval, entonces el marco kGe1 k E = {TGWw gk }k∈I5 = {w1 g1 , w1 g2 , w2 g1 , w2 g3 , w3 g3 } ,
ser´ıa un marco de Parseval (de vectores). Sea T ∈ M4,5 (C) la matriz con los vectores de E como columnas. Bajo un cambio de coordenadas adecuado, T es de la forma w1 w2 ~v C T = con ~v = (0, 0, a) ∈ C3 y V ∈ M3 (C) . 0 0 V C3 Dado que T T ∗ = I4 , es f´acil ver que V ∈ U(3). Pero esto es imposible dado que las dos primeras columnas de V tienen normas kw1 g2 k = w1 y kw2 g3 k = w2 , mientras que 4 1 = w12 + w22 + |a|2 .
390
Bibliograf´ıa Frames [1] J. A. Antezana, G. Corach, M. Ruiz and D. Stojanoff, Weighted projections and frame de Rieszs, Lin. Alg. Appl., to appear. [2] R. Balan, Equivalence relations and distances between Hilbert frames. Proc. Amer. Math. Soc. 127 (1999), 2353-2366. [3] R. Balan, P. Casazza, C. Heil and Z. Landau, Deficits and excesses of frames, Advances in Computational Mathematics 18 (2003) 93-116. [4] J. J. Benedetto, and M. Fickus, Finite normalized tight frames. Frames. Adv. Comput. Math. 18 (2003), 357-385. [5] R. Bhatia, Matrix Analysis, Berlin-Heildelberg-New York , Springer 1997. [6] B. Bittner and A. M. Lindner, An angle criterion for Riesz bases, preprint. [7] R. Bouldin, The product of operators with closed range, Tˆ ohoku Math J. 25(1973), 359-363. [8] P.G. Casazza, Characterizing Hilbert space frames with the subframe property, Illinois J. Math. 41 (1997), 648-666. [9] P.G. Casazza, The art of frame theory, Taiwanese J. Math. 4 (2000), no. 2, 129-201. [10] P. G. Casazza and O. Christensen, Hilbert space frames containing a Riesz basis and Banach spaces which have no subspace isomorphic to c0 . J. Math. Anal. Appl. 202 (1996), 940-950. [11] P. G. Casazza and O. Christensen, Frames containing a Riesz basis and preservaci´on of this property under perturbations. SIAM J. Math. Anal. 29 (1998), 266-278. [12] P.G. Casazza and O. Christensen, frame de Rieszs and approximaci´on of the frame coefficients, Approx. Theory Appl. N.S. 14 (1998), 1-11.
391
[13] P.G. Casazza, D. Han and D.R.Larson, Frames for Banach spaces, Contemp. Math. 247 (1999), 149-182. [14] P.G. Casazza, and J. Kovacevic, Equal-norm tight frames with erasures, Adv. Comput. Math. 18 (2003), 387-430. [15] O. Christensen, An introducci´on to frames and Riesz bases, Birkh¨auser, Boston, 2003. [16] O. Christensen, Frames and the projection method, Appl. Comput. Harmon. Anal. 1 (1993), 50-53. [17] O. Christensen, Frames and pseudo-inverses, J. Math. Anal. Appl. 195 (1995), 401-414. [18] O. Christensen, Frames containing a Riesz basis and approximaci´on of the frame coefficients using finite-dimensional methods, J. Math. Anal. Appl. 199 (1996), 256-270. [19] O. Christensen and A. Lindner, Decomposition of Riesz frames and wavelets into a finite union of linearly independent sets, Lin. Alg. Appl. 355 no. 1 (2002), 147-159. [20] G. Corach, M. Pacheco and D. Stojanoff, Geometry of epimorphisms and frames, Proc. Amer. Math. Soc. 132 (2004), 2039 - 2049. [21] F. Deutsch, The angle between subspaces in Hilbert space, in ”Approximaci´on theory, wavelets and applications” (S. P. Singh, editor), Kluwer, Netherlands, 1995, 107-130. [22] K. Dykema, D. Freeman, K. Kornelson, D. Larson, M. Ordower and E. Weber, Ellipsoidal tight frames and projection decompositions of operators, Illinois J. Math. 48(2004), 477-489. [23] V. K. Goyal, J. Kovacevic, and J. A. Kelner, Quantized frame expansions with erasures. Appl. Comput. Harmon. Anal. 10 (2001), 203-233. [24] V. K. Goyal, M. Vetterli, and N.T. Thao, Quantized overcomplete expansions in RN : analysis, synthesis, and algorithms, IEEE Trans. Inform. Theory 44 (1998), 16-31. [25] D. Han and D.R.Larson, Frames, bases and group representations, Mem. Amer. Math. Soc. 147 (2000), no. 697. [26] V. Havin and B. J¨oricke, The uncertainty principle in harmonic analysis. Ergebnisse der Mathematik und ihrer Grenzgebiete 28, Springer-Verlag, Berlin, 1994. [27] C. E. Heil and D.F. Walnut, Continuous and discrete wavelet transforms, SIAM Rev. 31 (1989), 628-666. [28] R. B. Holmes, and V. I. Paulsen, Optimal frames for erasures, Linear Algebra and Appl. 377 (2004), 31-51. [29] J. R. Holub, Pre-frame operators, Besselian frames and near-Riesz bases in Hilbert spaces, Proc. Amer. Math. Soc. 122 (1994) 779-785. 392
[30] T. Kato, Perturbaci´on theory of linear operators, (second edition) Springer, New York, 1984. [31] S. Kayalar, and H. Weinert, Error bounds for the method of alternating projections, Math. Control Signal Systems 1 (1988), 43-59. [32] P. A. Linnell, Von Neumann algebras and linear independence of translates, Proc. Am. Math. Soc. 127, No.11 (1999), 3269-3277 . [33] G.K. Pedersen, C∗ -algebras and their automorphism groups, Academic Press, London, 1979. [34] T. Strohmer, and R. W. Heath, Grassmannian frames with applications to coding and communication, Appl.-Comput.-Harmon.-Anal. 14 (2003), 257-275. [35] R. M. Young, An introducci´on to nonharmonic Fourier series (revised first edition) Academic Press, San Diego, 2001.
Marcos de fusi´ on [36] R. Abraham, J.E. Marsden, T. Ratiu Manifolds, Tensor Analysis, and Applications, Second Edition , Applied Mathematical Sciences 75, Springer- Verlag, New York (1988). [37] A. Aldroubi, C. Cabrelli, U. M. Molter, Wavelets on irregular grids with arbitrary dilation matrices and frame atoms for L2 (Rd ), Appl. Comput. Harmon. Anal. 17 (2004), 119-140. [38] P.M. Alberti, A. Uhlmann Stochasticity and partial order Doubly stochastic maps and unitary mixing. Mathematische Monographien [Mathematical Monographs], 18. VEB Deutscher Verlag der Wissenschaften, Berlin, (1981). [39] T. Ando, Majorization, doubly stochastic matrices and comparison of eigenvalues, Lecture Note, Hokkaido Univ., (1982). [40] J.A. Antezana, Proyecciones Oblicuas y Complemento de Schur - Aplicaciones a problemas de cuadrados m´ınimos, teor´ıa de marcos y teor´ıa de muestreo, Tesis Doctoral, Universidad de La Plata (2006). [41] J.A. Antezana, G. Corach, M. Ruiz, D.Stojanoff, Oblique Projections and Frames , Proc. Amer. Math. Soc. 134 (2006), 1031-1037. [42] J. Antezana, P. Massey, M. Ruiz, D. Stojanoff, The Schur-Horn Theorem for operators and frames with prescribed norms and frame operator, Illinois Journal of Mathematics, Vol. 51, No 2 (2007), 537-560.
393
[43] J. Antezana, D. Stojanoff, An´alisis Matricial II - Operadores en espacios de Hilbert, preprint. [44] M.S. Asgari, A. Khosravi, Frames and bases of subspaces in Hilbert spaces, J. Math. Anal. Appl., 308(2005), 541-553. [45] R. Bhatia, Matrix analysis. Graduate Texts in Mathematics, 169. Springer-Verlag, New York, (1997). [46] J.J. Benedetto, M. Fickus, Finite normalized tight frames, Adv. Comput. Math., 18 (2003), 357-385. [47] B. G. Bodmann, Optimal linear transmission by loss-insensitive packet encoding, Appl. Com- put. Harmon. Anal. 22 (2007), 274-285. [48] B. G. Bodmann, D. W. Kribs, V. I. Paulsen, Decoherence-insensitive quantum communications by optimal C ∗ -encoding, preprint (2006). [49] P.G. Casazza, The art of frame theory, Taiwanese J. Math., 4 no. 2 (2000), 129-201. [50] P.G. Casazza, Custom building finite frames, Wavelets, frames and operator theory, Contemp. Math., 345, Amer. Math. Soc., Providence, RI, (2004),61-86. [51] P.G. Casazza, J.Kovacevi´c, M.T.Leon, J.C.Tremain Custom built frames, Preprint (2000). [52] P.G Casazza, M. Fickus, J. Kovacevic, M.T. Leon, J.C. Tremain A physical interpretation for tight frames, Harmonic analysis and applications, Appl. Numer. Harmon. Anal., Birkh¨auser Boston, Boston, MA, (2006), 51-76. [53] P.G. Casazza, J. Kovacevic, Equal-norm tight frames with erasures, Advances in Computational Mathematics, special issue on Frames, (2002). [54] P.G. Casazza,M.T.Leon, Frames with a given frame operator, preprint. [55] P.G. Casazza, M.T.Leon, Existence and construction of finite tight frames, J. Concr. Appl. Math. 4 (3) (2006), 277-289. [56] P. G. Casazza, G, Kutyniok, Frames of subspaces, Wavelets, frames and operator theory, Contemp. Math., 345, Amer. Math. Soc., Providence, RI, (2004),87-113. [57] P. G. Casazza, G. Kutyniok, Robustness of Fusion Frames under Erasures of Subspaces and of Local Frame Vectors, preprint. [58] P. G. Casazza, G. Kutyniok, S. Li, Fusion Frames and Distributed Processing, Applied and Computational Harmonic Analysis, en prensa. [59] O. Christensen, An introduction to frames and Riesz bases, Birkh¨auser, Boston, (2003). 394
[60] I. Daubechies, Ten Lectures on Wavelets, SIAM Philadelphia, PA, (1992). [61] I.Daubechies, A. Grossman, Y. Meyer, Painless nonorthogonal expansions, Journ. Math. Phys. 27 (1986), 1271-1283. [62] P.I. Davies y N.J. Higham, Numerically stable generation of correlation matrices and their factors, BIT, 40 (2000), 640-651. [63] I.S. Dhillon, R.W. Heath Jr., M.A. Sustik, J.A. Tropp, Generalized finite algorithms for constructing Hermitian matrices with prescribed diagonaly spectrum, SIAM J. Matrix Anal. Appl. 27(1) (2005), 61-71. [64] R.J. Duffin, A. C, Schaeffer, A class of nonharmonic Fourier series, Trans. Amer. Math. Soc. 72 (1952) 341-366. [65] D. J. Feng, L. Wang, Y. Wang Generation of finite tight frames by Householder transformations, Advances in Computational Mathematics, 24 (2006), 297-309. [66] M.Fornasier, Quasi-orthogonal decompositions of structured frames, J.Math. Anal. Appl. 289 (2004),180-199. [67] M.Fornasier, Decompositions of Hilbert spaces: local construction of global frames, Proc. Int. Conf. on Constructive function theory, Varna (2002), B. Bojanov Ed., DARBA, Sofia, (2003), 275-281. [68] M. Fickus, B.D.Johnson, K. Kornelson, K.A.Okoudjou Convolutional frames and the frame potential, Appl. Comput. Harmon. Anal., 19 (2005), 77-91. [69] M. Frank, D.R. Larson, Frames in Hilbert C ∗ -modules and C ∗ -algebras J. Oper. Theory 48 (2) (2002), 273-314. [70] P. Gavruta, On the duality of fusion frames, J. Math. Anal. Appl. 333 (2007), 871-879. [71] V. K Goyal, J. Kovacevic, J.A. Kelner, Quantized frame expansions with erasures, journal of Appl. and Comput. Harmonic Analysis 10(3) (2001), 203-233. [72] K. Gr¨ochenig, Describing functions: Atomic decompositions versus frames, Monatshefte fur Math. 112 (1991), 1-41. [73] K. Gr¨ochenig, Foundations of time-frequency analysis, Birkh¨auser, Boston (2000). [74] D. Han, D.R. Larson, Frame, Bases and Group Representations, Mem. Amer. Math. Soc. 147 no. 697 (2000). [75] R. Holmes, V. Paulsen Optimal Frames for Erasures, Lin. Alg. Appl. 377 (2004), 31 -51. [76] R. Horn, C. Johnson, Matrix analysis, Cambridge University Press, Cambridge, (1985). 395
[77] K. Kornelson, D. Larson, Rank-one decomposition of operators and construction of frames. Wavelets, frames and operator theory, Contemp. Math., 345, Amer. Math. Soc., Providence, RI, (2004), 203-214. [78] R. S. Leite, T. R. W. Richa, C. Tomei Geometric proofs of some theorems of Schur-Horn type Linear Algebra Appl. 286 (1999), 149-173. [79] J.Lindenstrauss, L Tzafriri, Classical Banach spaces I, Springer, New York 1977. [80] P.G. Massey, Teorema de Schur-Horn, mayorizaci´on conjunta, modelado de operadores y aplicaciones, Tesis Doctoral, Universidad de La Plata, (2006). [81] P. Massey, M. Ruiz, Tight frame completions with prescribed norms, Sampl. Theory Signal Image Process, aceptado para su publicaci´on. [82] P. Massey, M. Ruiz Minimization of convex functionals over frame operators, preprint. [83] M. Ruiz, D. Stojanoff, Some properties of frames of subspaces obtained by operator theory methods, Journal of Mathematical Analysis and Applications, aceptado para su publicaci´on. [84] W. Sun G-frames and g-Riesz bases, J. Math. Anal. Appl., 322(2006), 437-452. [85] S. Waldron, Generalised Welch Bound Equality sequences are tight frames, IEEE Trans. Info. Th., vol., 49(9) (2003), 2307-2309. [86] R. M. Young, An introduction to nonharmonic Fourier series (revised first edition) Academic Press, San Diego, (2001).
Operadores en espacios de Hilbert [87] W. N. Anderson Jr. and G. E. Trapp, Shorted operators II, SIAM J. Appl. Math., 28 (1975), 60-71. [88] W. N. Anderson Jr., T. D. Morley and G. E. Trapp, Positive solutions to X = A − BX −1 B ∗ , Linear Algebra Appl. 134 (1990), 53-62 [89] W. N. Anderson, Shorted operators, SIAM J. Appl. Math. 20 (1971), 520-525. [90] W. N. Anderson and G. E. Trapp, Shorted operators II, SIAM J. Appl. Math. 28 (1975), 60-71. [91] T. Ando, Generalized Schur complements, Linear Algebra Appl. 27 (1979), 173-186. [92] T. Ando; Structure of Operators with Numerical Radius One, Acta Sci. Math (Szeged) 34 (1973), 11-15. 396
[93] T. Ando; Unitarily invariant norms related to the numerical radius, Linear Algebra and its Applications, In Press, Corrected Proof, Available online 22 April 2005. Linear Algebra Appl. 90 (1987), 165-219. [94] R. Bhatia; Matrix Analysis, Springer, New York, 1997. [95] A. Benedek y R. Panzone; La matriz positiva y su espectro, Informe T´ecnico interno No.86, INMABB, Bah´ıa Blanca, 2003. [96] R. G. Douglas, On majorization, factorizaci´on and range inclusion of operators in Hilbert space, Proc. Amer. Math. Soc. 17 (1966) 413-416. [97] M. C. Gonz´alez; Relaciones de Mayorizaci´on para el Producto de Hadamard, Tesis de licenciatura, Depto. Mat. FCEA-UNC, Neuqu´en, 2003. [98] R. Horn y C. Johnson; Matrix Analysis, Cambridge University Press, Cambridge, 1985. [99] R. Horn y C. Johnson; Topics in Matrix Analysis, Cambridge University Press, Cambridge, 1991. [100] C.R. Johnson, C.K. Li, Inequalities relating unitarily invariant norms and the numerical radius, Linear and Multilinear Algebra 23 (1988) 183-191. [101] P. D. Lax, Linear Algebra, Springer Verlag, Berl´ın, 1998. [102] L. Mirsky, An introducci´on to Linear Algebra, Clarendon Press, Oxford, 1963. [103] M. L. Metha, Matrix Theory, 2a Ed., Hindustan Publishing Co. 1989. [104] R. Bellman, Introducci´on to Matrix Analysis, 2a Ed., McGraw-Hill, New York, 1970. [105] W. F. Donoghue, Jr., Monotone matrix functions and analytic continuation, SpringerVerlag, Berl´ın, 1974. [106] A. W. Marshall and I. Olkin, Inequalities: Theory of Mayorization and its Applications, Academic Press, New York, 1979. [107] V. I. Paulsen, S. C. Power and R.R. Smith, Schur products and matrix completions, J. Funct. Anal. 85 (1989), 151-178. [108] E. L. Pekarev, Shorts of operators and some extremal problems, Acta Sci. Math. (Szeged) 56 (1992), 147-163. [109] B. Simon, Trace ideals and their applications, London Mathematical Society Lecture Note Series, 35, Cambridge University Press, Cambridge-New York, 1979.
Proyecciones oblicuas 397
[110] E. Andruchow,G. Corach and D. Stojanoff, Geometry of oblique projections, Studia Math. 137 (1) (1999) 61-79. [111] D. Carlson, What are Schur complements, anyway?, Linear Algebra Appl. 74 (1986), 257-275. [112] R. W. Cottle, Manifestations of the Schur complement, Linear Algebra Appl. 8 (1974), 189-211. [113] G. Corach, A. Maestripieri and D. Stojanoff, Oblique projections and abstract splines, preprint. [114] G. Corach, A. Maestripieri and D. Stojanoff, Schur complements and oblique projections, Acta Sci. Math. (Szeged) 67 (2001), 439-459. [115] J. Dieudonn´e, Quasi-hermitian operators, Proc. Internat. Symp. Linear Spaces, Jerusalem (1961), 115-122. [116] M. Golomb, Splines, n-Widths ans optimal approximations, MRC Technical Summary Report 784 (1967). [117] S. Hassi, Nordstr¨om, K.; On projections in a space with an indefinite metric, Linear Algebra Appl. 208/209 (1994), 401-417. [118] E. Haynsworth, Determinaci´on of the inertia of a partitioned Hermitian matrix, Linear Algebra Appl. 1 (1968), 73-81. [119] M. G. Krein, The theory of self-adjoint extensions of semibounded Hermitian operators and its applications, Mat. Sb. (N. S.) 20 (62) (1947), 431-495 [120] P. D. Lax, Symmetrizable linear transformations, Comm. Pure Appl. Math. 7 (1954), 633-647. ¨ [121] K. L¨owner, Uber monotone Matrixfunktionen. Math. Zeit. 38 (1934), 177-216. [122] Z. Pasternak-Winiarski, On the dependence of the orthogonal projector on deformations of the scalar product , Studia Math., 128 (1998), 1-17. [123] E. L. Pekarev, Shorts of operators and some extremal problems, Acta Sci. Math. (Szeged) 56 (1992), 147-163. [124] V. Ptak, Extremal operators and oblique projections, Casopis pro pestov´an´ı Matematiky, 110 (1985), 343-350. [125] A.C. Thompson, On certain contracci´on mappings in a partially ordered vector space. Proc. Amer. Math. Soc. 14 (1963), 438-443.
398
Parte IV Resultados Preliminares
399
Ap´ endice A Topolog´ıa A.1
Definiciones b´ asicas
Definici´ on A.1.1. Sea X un conjunto. Una topolog´ıa en X es un sistema de subconjuntos τ ⊆ P(X) que verifica las siguientes tres propiedades b´asicas. S 1. Si σ ⊆ τ , entonces σ ∈ τ . T 2. Si F ⊆ τ es finita, entonces F ∈ τ . 3. ∅ ∈ τ y X ∈ τ . En otras palabras, τ es una topolog´ıa si contiene a X y ∅, y es cerrada por uniones arbitrarias y por intersecciones finitas. En tal caso, decimos que el par (X, τ ) es un espacio topol´ogico (ET). Si no hay ambig¨ uegdad sobre qu´e topolog´ıa se est´a usando, escribiremos X solo en lugar de (X, τ ). Los elementos de τ se llamar´an subconjuntos abiertos (o τ -abiertos) de X. 4 La familia m´as conocida de espacios topol´ogicos proviene de dotar a un conjunto X de una m´etrica o distancia: Definici´ on A.1.2. Sea X un conjunto. Una m´etrica en X es una funci´on d : X × X → R≥0 que verifica las siguientes propiedades: Dados x, y, z ∈ X, 1. d(x, y) = d(y, x), es decir que d es sim´etrica. 2. d(x, y) = 0 ⇐⇒ x = y (d es fiel). 3. d(x, y) ≤ d(x, z) + d(z, y), o sea que d cumple la desigualdad triagular. En tal caso, (X, d) es un espacio m´etrico, y usaremos las notaciones: 1. Dados x ∈ X y N ∈ R>0 , los conjuntos B(x, N ) = {y ∈ X : d(x, y) < N }
y
B(x, N ) = {y ∈ X : d(x, y) ≤ N } ,
son la bola abierta y la bola cerrada de centro x y radio N . 400
2. Un conjunto A ⊆ X es abierto (o d-abierto) si para todo x ∈ A existe un ε > 0 tal que B(x, ε) ⊆ A. 3. Dados A, B ⊆ X, la distancia entre ellos es d(A, B) = inf {d(x, y) : x ∈ A e y ∈ B} . Si x ∈ X, escribiremos d(x, B) = inf {d(x, y) : y ∈ B} en lugar de d({x}, B).
4
Observaci´ on A.1.3. Si (X, d) es un espacio m´etrico, es f´acil ver que el sistema de conjuntos τd = {A ⊆ X : A es d-abierto } es una topolog´ıa en X. Pensando al rev´es, si τ es una topolog´ıa para X, diremos que el espacio topol´ogico (X, τ ) es metrizable si existe alguna distancia d en X tal que τ = τd . La mayor´ıa de los espacios topol´ogicos son metrizables. Sin embargo, hay dos razones importantes para que las teor´ıas topol´ogica y m´etrica se desarrollen separadamente (o en paralelo). Por un lado, existen importantes ejemplos en la matem´atica de espacios topol´ogicos no metrizables (pocos pero buenos). Por otro lado, las dos teor´ıas hacen incapi´e en aspectos bien diferenciados entre s´ı, hasta el punto de que es usual hablar de propiedades topol´ogicas (como las enumeradas al principio del cap´ıtulo) y de propiedades m´etricas. Como ejemplo de estas u ´ltimas, podemos mencionar propiedades como “ser acotado”, ser “completo”, di´ametro, sucesiones de Cauchy, etc. Todas estas son puramente m´etricas y no tienen un correlato topol´ogico. 4 A continuaci´on seguiremos introduciendo lenguaje topol´ogico: Definici´ on A.1.4. Sea (X, τ ) un ET y fijemos un punto x ∈ X. 1. Diremos que un conjunto A⊆X
es un entorno de x si existe
U ∈τ
tal que
x∈U ⊆A.
A se llamar´a entorno abierto de x si se tiene que x ∈ A y el mismo A ∈ τ . 2. Denotaremos por O(x) = {A ⊆ X : A es entorno de x} al f iltro de entornos de x. Llamaremos Oa (x) = {A ⊆ O(x) : A es entorno abierto de x} = O(x)∩τ . Cuando haga falta especificar el espacio o la topolog´ıa en cuesti´on, escribiremos OX (x) o tambi´en Oτ (x). Lo mismo para Oa (x). 3. Dado un conjunto Y ⊆ X denotaremos por Y ◦ = {x ∈ Y : Y ∈ O(x)} = {x ∈ Y : Y es entorno de x} , al interior de Y . Los elementos x ∈ Y ◦ se llamar´an puntos interiores de Y . Proposici´ on A.1.5. Sea (X, τ ) un ET y sean A, B ⊆ X. Entonces 1. A◦ es abierto. 401
(A.1) 4
2. Si A ⊆ B, entonces A◦ ⊆ B ◦ . 3. A es abierto si y s´olo si A = A◦ , o sea si A es entorno de todos sus puntos. 4. (A◦ )◦ = A◦ . 5. A◦ es el mayor abierto contenido en A. 6. (A ∩ B)◦ = A◦ ∩ B ◦ . Demostraci´on. Sea x ∈ A◦ , y sea U ∈ τ tal que x ∈ U ⊆ A. Por la definici´on de ser entorno, vemos que todos los otros y ∈ U tambi´en cumplen que A ∈ O(y). Es decir que U ⊆ A◦ . De ah´ı podemos deducir que [ A◦ = {U ∈ τ : U ⊆ A} . (A.2) Es claro que esta igualdad sirve para demostrar los primeros 5 items del enunciado. Como A◦ ∩ B ◦ ⊆ A ∩ B y es abierto, el ´ıtem 5 asegura que A◦ ∩ B ◦ ⊆ (A ∩ B)◦ . La otra inclusi´on tambi´en se deduce de la Ec. (A.2).
A.2
Cerrados, l´ımites y clausuras
Sea (X, τ ) un ET. Los subconjuntos cerrados de X ser´an los complementos de los conjuntos abiertos. Es decir, F ⊆ X es cerrado si y s´olo si X \ F ∈ τ . Usando la Def. A.1.1 y las leyes de De Morgan, tenemos las siguientes propiedades: • Intersecciones arbitrarias de cerrados son cerradas. • Uniones finitas de cerrados son cerradas. • ∅ y X son cerrados. Usando estos hechos, podemos definir la noci´on de clausura de un subconjunto, que es la dual de la noci´on de interior (comparar con la Ec. (A.2) ): Definici´ on A.2.1. Sea (X, τ ) un ET y sea A ⊆ X. El conjunto \ A = {F ⊆ X : F es cerrado y A ⊆ F }
(A.3)
se denomina la clausura de A. Los elementos x ∈ A se llamar´an puntos l´ımite de A. 4 Veamos ahora la versi´on dual de la Prop. A.1.5, cuya prueba dejamos como ejercicio. Proposici´ on A.2.2. Sea (X, τ ) un ET y sean A, B ⊆ X. Entonces 1. A es cerrado. 2. Si A ⊆ B, entonces A ⊆ B 3. A es cerrado si y s´olo si A = A. 402
4. A
−
= A.
5. A es el menor cerrado que contiene a A. 6. A ∪ B = A ∪ B.
La dualidad mencionada se manifiesta mejor en la siguiente f´ormula: Proposici´ on A.2.3. Sea (X, τ ) un ET y sea A ⊆ X. Entonces X \ A = (X \ A)◦
y
X \ A◦ = X \ A .
(A.4)
Demostraci´on. Se deduce de las f´ormulas (A.2) y (A.3). Por ejemplo, [ [ X \A= {X \ F : F es cerrado y A ⊆ F } = {U ∈ τ : U ⊆ X \ A} . La otra igualdad se muestra en forma semejante.
Daremos ahora una caracterizaci´on especial de ser punto l´ımite: Proposici´ on A.2.4. Sea (X, τ ) un ET. Dados A ⊆ X y x ∈ X, las siguientes condiciones son equivalentes: 1. x ∈ A 2. A ∩ V 6= ∅ para todo V ∈ O(x). 3. A ∩ U 6= ∅ para todo U ∈ Oa (x). Demostraci´on. Supongamos que A ∩ V = ∅ para cierto V ∈ O(x). Entonces tenemos que V ⊆ X \ A por lo que x ∈ (X \ A)◦ = X \ A . Esto prueba 1 → 2. Es claro que 2 → 3. Finalemnte, para ver que 3 → 1, supongamos que x ∈ / A. Como U = X \ A es abierto, a tenemos que x ∈ U ∈ O (x). Pero como A ⊆ A, se tiene que U ∩ A = ∅. Por la Prop. A.2.4, un x ∈ X es punto l´ımite de un conjunto A ⊆ X si y s´olo si se cumple que A ∩ V 6= ∅ para todo V ∈ O(x), o sea si A corta a todo entorno de x. En forma similar, pero un poco m´as sofisticada, se define la noci´on de punto de acumulaci´on: Definici´ on A.2.5. Sea (X, τ ) un ET. Dados A ⊆ X y x ∈ X, decimos que x es punto de acumulaci´ on de A si A \ {x} ∩ V 6= ∅ para todo V ∈ O(x) . Es decir, si A corta a todo entorno de x en alg´ un punto y distinto de x. Denotaremos por 0 A = {x ∈ X : x es punto de acumulaci´on de A}. 4 Ejercicios A.2.6.
1. Sea (X, τ ) un ET. Dado A ⊆ X, probar que A = A ∪ A0 .
2. Sean (X, d) un EM y A ⊆ X. Probar que ⇐⇒ 0 = d(x, A) . Deducir que A es cerrado si y s´olo si d(y, A) = 0 =⇒ y ∈ A . x∈A
403
4
Definici´ on A.2.7. Sea (X, τ ) un ET. Dado A ⊆ X, llamaremos borde de A al conjunto ∂A = A ∩ X \ A = A \ A◦ = {x ∈ X : A ∩ V 6= ∅ 6= (X \ A) ∩ V , para todo V ∈ O(x)} . Es f´acil ver que ∂A = ∂(X \ A).
A.3
4
Bases y sub-bases
En esta secci´on estudiaremos construcciones que producen nuevas topolog´ıas a partir de una topolog´ıa dada, o bas´andose en familias arbitrarias de conjuntos. Sean τ1 y τ2 dos topolog´ıas en X. Diremos que τ1 es m´as fuerte (o que es mayor) que τ2 si τ2 ⊆ τ1 , es decir que τ1 tiene m´as conjuntos abiertos que τ2 . La menor de todas las topolog´ıas es la llamada trivial, y consiste de {∅, X}. La mayor es la llamada topolog´ıa discreta, que es tomar todo P(X) (en la que todos los puntos son abiertos). Se puede, adem´as, construir ´ınfimos y supremos de familias arbitrarias de topolog´ıas. En efecto, si {τi : i ∈ I} es una familia de topolog´ıas en X, entonces es f´acil ver que los sitemas ^ \ _ ^ [ τi = τi y τi = τ : τ es una topolog´ıa y τi ⊆ τ i∈I
i∈ I
i∈I
i∈I
son topolog´ıas, la primera el ´ınfimo y la segunda el supremo de la familia {τi : i ∈ I}. Estas construcciones permiten generar topolog´ıas a partir de familias arbitrarias de subconjuntos de X, con la sola condici´on de que cubran a X. S Definici´ on A.3.1. Sea X un conjunto y sea ρ ⊆ P(X) tal que ρ = X. 1. La topolog´ıa generada por ρ es la menor topolog´ıa que contiene a ρ, o sea ^ τ (ρ) = τ : τ es una topolog´ıa y ρ ⊆ τ . 2. Diremos que ρ es una sub-base de una topolog´ıa τ si τ = τ (ρ). 3. Dada una topolog´ıa τ en X, diremos que ρ es una base de τ si (a) τ = τ (ρ) (b) Todo V ∈ τ cumple que V =
S
{U ∈ ρ : U ⊆ V }.
4
En resumidas cuentas, sabemos generar una topolog´ıa en X a partir de una familia arbitraria ρ ⊆ P(X), y sabemos qu´e queremos que cumpla una familia para ser base de una topolog´ıa (notar la analog´ıa con las bolas abiertas en una topolog´ıa que proviene de una m´etrica). El problema es saber cu´ando ρ es o no base de τ (ρ), o bien c´omo contruir una base de τ (ρ) a partir de ρ. Esto se responde ahora: 404
Proposici´ on A.3.2. Sea X un conjunto y sea ρ ⊆ P(X) tal que
S
ρ = X.
1. Se tiene que ρ es base de τ (ρ) si y s´olo si se cumple que dados U , V ∈ ρ y x ∈ U ∩ V , existe W ∈ ρ tal que x ∈ W ⊆ U ∩ V .
(A.5)
En particular, esto pasa si ρ es cerrado por intersecciones finitas. 2. La siguiente familia es base de τ (ρ): β = {V1 ∩ V2 ∩ · · · ∩ Vn : n ∈ N y V1 , . . . , Vn ∈ ρ} ,
(A.6)
es decir que β consiste de las intersecciones finitas de elementos de ρ. S En conclusi´on, si ρ ⊆ P(X) cumple que ρ = X, se tiene que τ (ρ) = { uniones arbitrarias de intersecciones finitas de elementos de ρ } .
(A.7)
Demostraci´on. Si ρ es base de τ (ρ), la condici´on (A.5) se verifica de inmediato (notar que U ∩ V ∈ τ (ρ) ). Supongamos ahora que ρ cumple la condici´on (A.5), y consideremos [ τ= α : α ⊆ ρ = { uniones de elementos de ρ } , Es claro que ρ ⊆ τ ⊆ τ (ρ), ya que τ est´a contenido en toda topolog´ıa que contenga a ρ. Probaremos que τ es una topolog´ıa, de lo que podremos deducir que τ = τ (ρ), por lo que ρ ser´a una base de τ (ρ). S Tomando α = ρ, o bien α = ∅, vemos que X y ∅ est´an en τ (recordar que ρ = X). Por su construcci´on, τ es cerrado por uniones arbitrarias. S´olo falta ver que lo es para intersecciones finitas. Es f´acil ver que la condici´on (A.5) muestra que si U, V ∈ ρ, entonces U ∩ V ∈ τ . Si ahora tomamos α, γ ⊆ ρ, y consideramos los conjuntos [ [ [ [ U ∩V ∈ τ . A= α y B= γ en τ , =⇒ A ∩ B = U ∈α V ∈γ
Inductivamente, se ve que τ es cerrado para intersecciones finitas, lo que prueba 1. El conjunto β de la Ec. (A.6) claramente cumple la condici´on (A.5), puesto que β es cerrado para intersecciones finitas. Por ello, β es base de τ (β). Pero es f´acil ver que τ (ρ) = τ (β), lo que prueba 2. La f´ormula (A.7) es consecuencia de lo visto anteriormente. Proposici´ on A.3.3. Sea (X, τ ) un ET. Dada β ⊆ τ , son equivalentes: 1. β es base de τ . 2. Para todo x ∈ X y todo U ∈ O(x) existe V ∈ β tal que x ∈ V ⊆ U . S Demostraci´on. Si β es base y U ∈ O(x), sabemos que x ∈ U ◦ = {V ∈ β : V ⊆ U }. Basta tomar uno de tales V tal que x ∈ V . La rec´ıproca es similar. Si ahora aislamos la condici´on anterior, para cada x ∈ X fijo, obtenemos la noci´on natural de base de entornos de ese x: 405
Definici´ on A.3.4. Sea (X, τ ) un ET y sea x ∈ X. Una base de entornos de x es una subfamilia βx ⊆ O(x) tal que para todo U ∈ O(x) existe V ∈ βx tal que x ∈ V ⊆ U . 4 Observaci´ on A.3.5. Si βx es base de entornos de un x ∈ X, en todos los enunciados anteriores, donde se dec´ıa “para todo U ∈ O(x)” puede decirse “para todo V ∈ βx ” y obtener las mismas conclusiones. 4 1. Sea (X, τ ) un ET y sea β ⊆ τ una base. Entonces, para todo x ∈ X,
Ejemplos A.3.6.
O(x) ∩ β = {U ∈ β : x ∈ U }
(A.8)
es una base de entornos de x. 2. Sea (X, d) un EM, y pens´emoslo como un ET (X, τd ). Sea (an )n∈N una sucesi´on en R>0 tal que an −−−→ 0. Sea D ⊆ X un subconjunto denso, i.e., tal que D = X. Entonces n→∞
(a) Para todo x ∈ X, la familia {B(x, an ) : n ∈ N es una base de entornos de x. (b) La familia β = B(y, an ) : y ∈ D y n ∈ N es una base de τd . Las pruebas de 1 y de 2 (a) son inmediatas a partir de las definiciones. La de 2 (b) es un poquito m´as trabajosa: si x ∈ U ∈ τd , existe una B(x, ε) ⊆ U . Tomemos un an < 2ε . Como D es denso, en la bola B(x, an ) debe haber un y ∈ D. Pero y ∈ B(x, an ) =⇒ x ∈ B(y, an ) ⊆ B(x, ε) ⊆ U , ya que si z ∈ B(y, an ) se tiene que d(x, z) ≤ d(x, y) + d(y, z) < 2 an < ε. Ahora se puede aplicar la Prop. A.3.3 y deducir que β es base de τd . 4
A.3.1
Topolog´ıa inducida
Sea (X, τ ) un ET y fijemos un subconjunto Y ⊆ X. Hay una manera natural de dotar a Y de una topolog´ıa a partir de τ : Consideremos el sistema τY = {U ∩ Y : U ∈ τ } = {A ⊆ Y : existe U ∈ τ tal que A = U ∩ Y } ⊆ P(Y ) . Usando las propiedades b´asicas de conjuntos, se verifica sin dificultades que τY es una topolog´ıa en Y . Se la llamar´a la topolog´ıa inducida por τ a Y . Enumeraremos a continuaci´on varias propiedades del ET (Y, τY ) cuyas demostraciones son elementales: Proposici´ on A.3.7. Sea (Y, τY ) ⊆ (X, τ ) como reci´en. Dados y ∈ Y y B ⊆ Y , se tiene que 1. El conjunto OY (y) de τY -entornos de y se calcula como OY (y) = {V ∩ Y : V ∈ O(y)}. An´alogamente se puede hacer con los entornos abiertos de y en Y . 2. Si β es una base de τ , entonces βY = {U ∩ Y : U ∈ β} es una base de τY . Lo mismo puede hacerse con sub-bases de τ y con bases de entornos de cada punto de Y . 3. B es τY -cerrado si y s´olo si existe un conjunto cerrado F ⊆ X tal que B = Y ∩ F . 4. La clausura B
Y
X
de B en Y es igual a Y ∩ B . 406
A.4
Clases de ET’s
La gracia de la topolog´ıa es que es tan general que se confunde con la teor´ıa de conjuntos, pero en cualquier ET se puede hacer algo de an´alisis. Sin embargo tanta generalidad hace que pocos resultados interesantes y sofisticados puedan probarse para todo ET. Por eso, la teor´ıa se construye definiendo diversas clases espec´ıficas de ET’s que tengan algunas propiedades m´as restrictivas, en las que se muestra que valen teoremas cada vez m´as ambiciosos. Un t´ıpico teorema topol´ogico tiene un enunciado del siguiente estilo: Sea (X, τ ) un ET de la clase tal y cual. Entonces en X vale una propiedad sofisticada. Este tipo de construcci´on te´orica a veces suena un poco acomodaticia. Se corre el riesgo de hacer el siguiente procedimiento: 1. Primero uno averigua qu´e se necesita que cumpla X para que camine la demostraci´on, que uno pens´o, de que en X vale la propiedad P . 2. Luego uno define la clase de C de los ET’s que cumplen esos prerrequisitos. 3. Se enuncia un Superteorema: Todo ET de la clase C cumple la propiedad P !! En realidad, este fue el procedimiento que se fue usando. Pero la teor´ıa qued´o bien, porque hay propiedades P que son necesarias e importantes. Las clases C donde ellas valen no se definieron para que camine una prueba concreta, sin´o que se fueron extendiendo (mejorando las pruebas) hasta llegar a los m´ınimos prerrequisitos posibles en X para que valga P . Y tuvieron prioridad las clases C que fueran razonablemente f´aciles de detectar en la larga lista de ejemplos importantes. Luego de muchos a˜ nos de mezclar propiedades y clases, el proceso decant´o en una buena clasificaci´on de los ET’s, tal que combinando dos o tres de los ingredientes fijados (clases de espacios) se encuentran hip´otesis ´optimas para la mayor´ıa de las propiedades P que sirven en la mayor´ıa de las teor´ıas matem´aticas donde se usa la topolog´ıa. A continuaci´on enumeraremos las clasificaciones que quedaron aceptadas por consenso. A lo largo de todo el texto se ver´a c´omo estas clases se ir´an combinando para ir obteniendo los distintos teoremas de la teor´ıa.
A.4.1
Numerabilidad
Recordemos que un EM se dice separable si tiene un subconjunto denso numerable. En el contexto general de ET’s, tenemos varias clases diferentes de numerarabilidad, que definiremos a continuaci´on. Para abreviar, si queremos decir que un conjunto D es numerable, escribiremos |D| ≤ ℵ0 . Recordar que |D| es el cardinal de D y ℵ0 = |N|. Definici´ on A.4.1. Sea (X, τ ) un ET, y asumamos que τ est´a fijada. Diremos que 1. X es separable si existe D ⊆ X tal que |D| ≤ ℵ0 y D = X. 2. X es N1 (o que cumple el primer axioma de numerabildad), si para todo x ∈ X existe una base βx de entornos de x tal que |βx | ≤ ℵ0 . 407
3. X es N2 (o que cumple el segundo axioma de numerabildad), si existe una base β de τ tal que |β| ≤ ℵ0 . S 4. X es de Lindeloff, si para todo cubrimiento abierto σ ⊆ τ de X (i.e., σ = X), S existe un subcumbrimiento numerable σ0 ⊆ σ, (i.e., σ0 = X y |σ0 | ≤ ℵ0 ). 4 Proposici´ on A.4.2. Sea (X, τ ) un ET. Si X es N2 , entonces es separable, N1 y Lindeloff. Demostraci´on. Sea β = {Un : n ∈ N} una base de τ (si hay un β finito todo es muy f´acil). Usando la Ec. (A.8), es f´acil ver que N2 =⇒ N1 . Para ver la separabilidad, elijamos un xn ∈ Un para cada n ∈ N. Se toma D = {xn : n ∈ N}. Entonces D es denso, porque “toca” todo entorno de todo punto de X (usar la Prop. A.3.3). Para ver que X es Lindeloff, fijemos un cubrimiento σ ⊆ τ . Sea Jσ = {m ∈ N : Um ⊆ V para alg´ un V ∈ σ}
y βσ = {Um : m ∈ Jσ } ⊆ β . [ [ Como σ cubre X y β es una base, podemos ver que βσ = Um = X. Elijamos ahora, m∈Jσ
para cada m ∈ Jσ , un Vm ∈ σ tal que Um ⊆ Vm . Luego la familia σ0 = {Vm : m ∈ Jσ } ⊆ σ es numerable y cubre X. Observaci´ on A.4.3. Es falso en general que alguna de las otras 3 condiciones de separabilidad impliquen ser N2 o cualquier otra. Pero en EM’s todo es mejor: 4 Proposici´ on A.4.4. Sea (X, d) un EM. Entonces 1. (X, τd ) es N1 . 2. (X, τd ) es N2 si y s´olo si es Lindeloff si y s´olo si es separable. Demostraci´on. Todo EM es N1 porque, para cada x ∈ X, basta tomar la base de entornos βx = {B(x, n1 ) : n ∈ N}. Ya vimos (para ET’s generales) que N2 =⇒ Lindeloff. Si X es Lindeloff, para cada n ∈ N se puede cubrir a X con numerables bolas B(xn,m , n1 ), m ∈ N. Tomando D = {xn,m : n, m ∈ N}, obtenemos un denso numerable para X. Si asumimos que X es separable, podemos ver que es N2 usando el item 2 (b) del Ejem. A.3.6.
A.4.2
Separaci´ on
Sea (X, τ ) un ET. Si no se le pide algo espec´ıfico a τ , puede haber puntos distintos de X que resulten indistingibles desde el punto de vista topol´ogico. Por ejemplo puede pasar que existan x, y ∈ X tales que x 6= y, pero O(x) = O(y). O que O(x) ⊆ O(y). Observar que en tal caso, x ∈ {y}, por lo que {y} no es cerrado. Pedir condiciones para que estas cosas no pasen se llama dar propiedades de separaci´ on a la topolog´ıa τ . Estas condiciones est´an estratificadas en cinco clases estandarizadas, denominadas Tk , con 0 ≤ k ≤ 4. Definici´ on A.4.5. Sea (X, τ ) un ET. Diremos que X es de la clase:
408
T0 : Si dados x, y ∈ X distintos, existe U ∈ O(x)
y∈ /U
tal que
o bien
V ∈ O(y)
tal que
x∈ /V .
Puede verse que esto equivale a que x 6= y =⇒ O(x) 6= O(y). T1 : Si dados x, y ∈ X distintos, existen U ∈ O(x) y V ∈ O(y) tales que x ∈ /V ey∈ / U. T Otra forma de decirlo es que O(x) = {x}, para todo x ∈ X. T2 : Si dados x, y ∈ X distintos, existen U ∈ O(x)
y
V ∈ O(y)
tales que
U ∩V =∅ .
Los ET’s de clase T2 son m´as conocidos como espacios de Hausdorff. T3 : Si X es T1 y, para todo x ∈ X y todo F ⊆ X cerrado tales que x ∈ / F , existen U ∈ O(x)
V ∈τ
y
tales que
F ⊆V
y
U ∩V =∅ .
Los ET’s de clase T3 son tambi´en conocidos como espacios regulares. T4 : Si X es T1 y, para todo par F1 , F2 ⊆ X de subconjuntos cerrados y disjuntos, existen U y V ∈ τ
tales que
F1 ⊆ U ,
F2 ⊆ V
y
U ∩V =∅ .
Los ET’s de clase T4 son conocidos como espacios normales.
4
T Observaci´ on A.4.6. Sea (X, τ ) un ET. Vimos que X es T1 si y s´olo si O(x) = {x}, para todo x ∈ X. Es claro que esto a su vez equivale a que {y} sea cerrado para todo y ∈ X. Entonces las espacios T1 son aquellos en los que los puntos son cerrados. Teniendo esto en cuenta, es inmediato verificar que las clases reci´en definidas son cada vez m´as restrictivas, en el sentido de que X es de clase Tk
=⇒
X es de clase Tk−1 ,
para todo k ∈ I4 ,
o bien que: normal =⇒ regular =⇒ Hausdorff =⇒ puntos cerrados =⇒ T0 . Ninguna de las implicaciones anteriores vale en el sentido inverso, por lo que se justifica darle nombres distintos a las 5 clases. Ahorita ya podemos ver que T1 6⇒ Hausdorff: 4 Ejemplo A.4.7. Sea X un conjunto infinito. Consideremos en X la topolog´ıa cofinita: τCF (X) = {∅} ∪ {X \ V : V ∈ PF (X)} = {∅} ∪ {U ⊆ X : X \ U es finito } . Es f´acil ver que τCF (X) es una topolog´ıa. Este ejemplo es un caso bastante patol´ogico, que induce a pensar que los axiomas de la topolog´ıa pueden ser demasiado d´ebiles si uno no pide condiciones extra. Lo u ´nico bueno que tiene es que los puntos de X son cerrados. Por lo tanto, una topolog´ıa τ en un conjunto X es de tipo T1 si y s´olo si τCF (X) ⊆ τ . Sin embargo, es claro que (X, τCF (X) ) no es un espacio de Hausdorff, porque no tiene abiertos disjuntos (no vac´ıos). 4 409
La observaci´on que sigue da versiones equivalentes a la definici´on de regularidad y normalidad. Todo es cuasi tautol´ogico, pero conviene tenerlo enunciado y aceptado claramente desde el principio para encarar m´as c´omodos, y no enturbiar los argumentos de numerosas demostraciones posteriores (con complementos, clausuras e interiores y m´as yerbas). Observaci´ on A.4.8. Sea (X, τ ) un ET de calse T1 . Son equivalentes: 1. X es regular 2. Dados x ∈ X y un abierto W ∈ Oa (x), existe U ∈ τ tal que x ∈ U ⊆ U ⊆ W . 3. Dados x ∈ X y un cerrado F2 tales que x ∈ / F2 , se verifica que existe un abierto U ∈ τ
tal que x ∈ U
pero F2 ∩ U = ∅ .
An´alogamente, son equivalentes las condiciones 1. X es normal 2. Dados un cerrado F ⊆ X y un abierto W ∈ τ tales que F ⊆ W , existe un abierto U ∈ τ
tal que
F ⊆U ⊆U ⊆W .
3. Para todo par F , F2 ⊆ X de subconjuntos cerrados y disjuntos, existe un abierto U ∈ τ tal que F ⊆ U pero F2 ∩ U = ∅ . Como dec´ıamos antes, las pruebas son casi confusas de tan directas. Demostremos la segunda tanda para dar una idea. Si X es normal y tenemos F ⊆ W como en 2, se toma el cerrado F2 = X \ W , y se los separa con abiertos disjuntos U ⊇ F y U2 ⊇ F2 . Ahora basta observar que F ⊆ U ⊆ U ⊆ X \ U2 ⊆ X \ F2 = W . Asumamos 2. Para probar 3, llamemos W = X \ F2 ⊇ F . El abierto U que provee 2 cumple que F ⊆ U y que U ⊆ W , por lo que F2 ∩ U = ∅ . Asumamos ahora 3, y tomemos F y F2 dos cerrados disjuntos. El abierto U que provee 3 cumple que F ⊆ U y que U2 = X \ U es abierto, es disjunto con U , y contiene a F2 . 4 En general, la normalidad es mucho m´as restrictiva (y m´as u ´til) que la regularidad. Pero como veremos a continuaci´on, un poco de numerabilidad empata las cosas: Proposici´ on A.4.9. Sea (X, τ ) un ET que es regular y Lindeloff. Entonces X es normal. Demostraci´on. Ver el Apunte de topolog´ıa.
La clasificaci´on no termina ac´a. Falta definir varias clases importantes de ET’s (por ejemplo compactos, conexos, completamente regulares o de Tychonoff, etc), pero debemos posponerlo porque nos faltan ver y estudiar las nociones involucradas en sus definiciones, o porque son clases que ameritan cap´ıtulo propio, y se las definir´a entonces. 410
Las clases de separaci´on reci´en definidas carecen de inter´es entre los EM’s porque, como veremos a continuaci´on, son todos normales. La prueba de esto pasa por una propiedad que parece a´ un m´as fuerte que la normalidad, pero que a la larga (y con notable esfuerzo) veremos que equivale a ella para cualquier ET. Lema A.4.10. Sea (X, d) un EM. Dado un A ⊆ X, la funci´on dA : X → R≥0 dada por dA (x) = d(x, A) = inf {d(x, z) : z ∈ A} ,
para cada x ∈ X ,
es continua. Adem´as, se tiene que A = {x ∈ X : dA (x) = 0}. O sea que ser punto l´ımite se describe como “distar cero” de A. Demostraci´on. Sean x, y ∈ X. Para cada z ∈ A tenemos que d(x, A) ≤ d(x, z) ≤ d(x, y) + d(y, z) =⇒ dA (x) ≤ d(x, y) + inf d(y, z) = d(x, y) + dA (y) . z∈A
Cambiando roles, tambi´en sale que dA (y) ≤ d(x, y) + dA (x). Por lo tanto nos queda que |dA (x) − dA (y)| ≤ d(x, y)
para todo par
x, y ∈ X ,
con lo que dA es recontinua. Observar que, dado x ∈ X, el hecho de que dA (x) = 0 equivale a que en toda bola B(x, ε) haya puntos de A, o sea que x ∈ A. Proposici´ on A.4.11. Todo espacio m´etrico (X, d) es normal. M´as a´ un, dados F1 y F2 ⊆ X dos cerrados disjuntos, existe una funci´on continua f : X → [0, 1] tal que f F1 ≡ 0 y f F2 ≡ 1 . Demostraci´on. Sean F1 y F2 ⊆ X dos cerrados disjuntos. Definamos la funci´on continua f : X → [0, 1]
dada por
f (x) =
d(x, F1 ) d(x, F1 ) + d(x, F2 )
para x ∈ X .
Observar que el denominador no puede anularse, puesto que d(x, Fi ) = 0 =⇒ x ∈ Fi
(para i = 1, 2) y que F1 ∩ F2 = ∅ .
Ahora bien, notar que si x ∈ F1 entonces f (x) = 0, y que f (y) = 1 para todo y ∈ F2 . Para deducir la normalidad, basta tomar los conjuntos abiertos y disjuntos U = {x ∈ X : f (x) < 1/3} ⊇ F1
y
V = {x ∈ X : f (x) > 2/3} ⊇ F2 ,
que separan a F1 y a F2 .
Ejercicio A.4.12. Sea (X, τ ) un ET de clase T1 , y sea A ⊆ X. Probar que x ∈ A0
⇐⇒
V ∩A
es infinito , para todo
Mostrar tambi´en que lo anterior puede ser falso si X no era T1 . 411
V ∈ O(x) . 4
A.4.3
Herencias
Una clase C de ET’s se llama hereditaria, si para todo espacio X de clase C, se tiene que cualquier subespacio Y ⊆ X sigue siendo C con la topolog´ıa inducida. Veremos a continuaci´on cuales de las clases antes definidas son o no hereditarias. La herramienta b´asica es la Prop. A.3.7, que reenunciamos para comodidad del lector: Proposici´ on A.3.7. Sea (Y, τY ) ⊆ (X, τ ). Dados y ∈ Y y B ⊆ Y , se tiene que 1. El conjunto OY (y) de τY -entornos de y se calcula como OY (y) = {V ∩ Y : V ∈ O(y)}. An´alogamente se puede hacer con los entornos abiertos de y en Y . 2. Si β es una base de τ , entonces βY = {U ∩ Y : U ∈ β} es una base de τY . Lo mismo puede hacerse con sub-bases de τ y con bases de entornos de cada punto de Y . 3. B es τY -cerrado si y s´olo si existe un conjunto F ⊆ X cerrado tal que B = Y ∩ F . Y
X
4. La clausura B de B en Y es igual a Y ∩ B .
Proposici´ on A.4.13. Las siguientes clases de ET’s son hereditarias: N1 , N2 , T0 , T1 , T2 y T3 . Las clases de espacios Lindeloff, separables y normales no son hereditarias. Demostraci´on. Las clases N2 y N1 dependen de la existencia de bases y de bases de entornos. Las clases T0 , T1 y T2 dependen de la existencia de entornos de puntos con ciertas propiedades. Luego todas ellas son hereditarias por la Prop. A.3.7. El hecho de que las tres clases mencionadas no sean hereditarias se muestra en los ejemplos (Ejercicio: Buscarlos). Veamos el caso de la regularidad: Sea B ⊆ Y un subconjunto Y -cerrado y sea y ∈ Y \ B. Por la Prop. A.3.7, Y
y∈ / B =B =Y ∩B
X
X
=⇒ y ∈ /F =B .
Como X es regular, existen dos abiertos disjuntos U, V ∈ τ tales que y ∈ U y F ⊆ V . Basta entonces tomar U0 = U ∩ Y y V0 = V ∩ Y ∈ τY y estamos (recordar que el ser T1 tambi´en se heredaba). Este argumento no camina para la normalidad, porque si tenemos dos conjuntos X X A, B ⊆ Y que son Y -cerrados y disjuntos, nadie nos garantiza que A ∩ B = ∅.
A.5
Continuidad b´ asica
Definici´ on A.5.1. Sean (X, τ ) e (Y, σ) dos ET’s, y sea f : X → Y una funci´on. 1. Diremos que f es continua si f −1 (V ) = {x ∈ X : f (x) ∈ V } ∈ τ
para todo
V ∈σ .
Es decir, si la contraimagen por f de todo abierto de Y , queda abierta en X. 412
2. Diremos que f es continua en un punto x ∈ X si f −1 (A) ∈ Oτ (x)
para todo
A ∈ Oσ (f (x) ) .
3. Denotaremos por C (X, τ ), (Y, σ) = C X, Y al conjunto de todas las funciones continuas g : (X, τ ) → (Y, σ). 4 Proposici´ on A.5.2. Una funci´on f : (X, τ ) → (Y, σ) es continua si y s´olo si f en continua en x para todo x ∈ X. Demostraci´on. Si f es continua, sean x ∈ X y A ∈ Oσ (f (x) ). Luego existe un V ∈ σ tal que f (x) ∈ V ⊆ A =⇒ f −1 (V ) ∈ τ
y x ∈ f −1 (V ) ⊆ f −1 (A) .
Luego f −1 (A) ∈ Oτ (x). Si ahora asumimos que f es continua en todos los puntos de X y tomamos un abierto V ∈ σ, para cada x ∈ f −1 (V ) se tiene que V ∈ Oσ (f (x) ). Por la continuidad en x, vemos que f −1 (V ) ∈ Oτ (x). Esto muestra que f −1 (V ) es entorno de todos sus elementos. Y por la Prop. A.1.5, deducimos que f −1 (V ) ∈ τ . Observaci´ on A.5.3. Sea f : (X, τ ) → (Y, σ) una funci´on. Luego 1. Dado un x ∈ X, se tiene que f es continua en x si y s´olo si Para cada A ∈ Oσ (f (x) ) exite un B ∈ Oτ (x) tal que f (B) ⊆ A .
(A.9)
2. La f es continua (en todo X) si y s´olo si f −1 (F ) es τ -cerrado para todo σ-cerrado F ⊆ Y . Esto se debe a que ser cerrado equivale a tene complemento abierto, y a que la operaci´on A 7→ f −1 (A) tiene la siguiente propiedad: f −1 (Y \ A) = X \ f −1 (A)
para todo
A ∈ P(Y ) ,
(A.10)
cuya verificaci´on es inmediata. 3. Como el operador A 7→ f −1 (A) respeta tambi´en uniones e intersecciones arbitrarias, para verificar que f es continua, basta testar que f −1 (U ) ∈ τ para los elementos U de una base o incluso sub-base de σ. 4 Observaci´ on A.5.4. Sean X e Y dos EM’s y sea f : X → Y una funci´on. Entonces f es continua en un x ∈ X si y s´olo si vale la f´ormula ε, δ de siempre: para todo ε > 0 existe un δ > 0 tal que dX (z, x) < δ =⇒ dY (f (z), f (x) ) < ε ,
(A.11)
donde estamos hablando de la continuidad relativa a las topolog´ıas inducidas por las m´etricas. En efecto, basta aplicar la Ec. (A.9), m´as el hecho de que las bolas alrededor de un punto forman una base de entornos de ese punto. 4
413
A continuaci´on juntaremos en un enunciado numerosas propiedades de las funciones continuas que, si bien parecen muy elementales, conviene testear cuidadosamente si uno las postula en el contexto hipergeneral de ET’s. Proposici´ on A.5.5 (Miscel´anea). Sea (X, τ ) un ET. Se tienen las siguientes propiedades: 1. Toda funci´on f : X → Y que es constante es continua. 2. La composici´on de dos funciones continuas es continua. 3. Sea A ⊆ X, pensado con la topolog´ıa inducida. La funci´on inclusi´on JA : A → X dada por JA (x) = x (x ∈ A) es continua. 4. Si f : X → Y es continua y A ⊆ X, entonces la restricci´on f A : A → Y es continua. Z Si f (X) ⊆ Z ⊆ Y , entonces tambi´en la correstricci´on f : X → Z es continua (en ambos casos con las topolog´ıas inducidas). S 5. Dada una funci´on f : X → Y y un cubrimiento {Uα }α∈A de X (i.e., Ui = X) por i∈I conjuntos abiertos tales que f Uα es continua para todo α ∈ A, entonces f es continua. 6. Sean f, g : (X, τ ) → A ⊆ R dos funciones continuas. Entonces (a) La funci´on (f, g) : X → R2 dada por (f, g)(x) = (f (x), g(x) ) es continua. (b) Las funciones x 7→ f (x) + g(x) y x 7→ f (x) · g(x) son continuas. 1 es continua. (c) Si f (x) 6= 0 para todo x ∈ X, entonces x 7→ f (x) (d) Las funciones f ∧ g = m´ın{f, g} y f ∨ g = m´ax{f, g} son continuas. Demostraci´on. Los ´ıtems 1, 2, 3 y 4 se deducen directamente de las definiciones de continuidad M ⊆ Y , se tiene y−1de la topolog´ıa−1inducida. Observar que, dado un subconjunto −1 −1 que f A (M ) = A ∩ f (M ) y que, si f (X) ⊆ Z, entonces f (M ) = f (M ∩ Z). 5. Sea V ∈ σ. Como cada Uα es abierto, sus abiertos relativos estan en τ . Luego, como para todo α ∈ A sabemos que f Uα es continua, se tiene que −1 f Uα (V ) = f −1 (V ) ∩ Uα
es abierto en Uα
=⇒
f −1 (V ) ∩ Uα ∈ τ ,
para todo α ∈ A. del hecho de que {Uα }α∈A sea un cubrimiento, podemos deducir S Pero −1 −1 f (V ) ∩ Uα ∈ τ . que f (V ) = α∈ A
6. La parte (a) sale usando que (f, g)−1 U × V = f −1 (U ) ∩ g −1 (V ), para cualquier par de abiertos U, V ⊆ R. La parte (b) porque las funciones de R2 a R dadas por (s, t) 7→ s + t y (s, t) 7→ s · t son continuas (componiendo). La (c) porque la funci´on t 7→ t−1 es continua en R \ {0}. La (d) porque R2 3 (s, t) 7→ m´ın{s, t} es continua. Y lo mismo con el m´aximo. Los detalles quedan como ejercicio. 414
Muchas veces uno tiene que definir una funci´on en distintas partes de un espacio X, y despu´es necesita testear la continuidad de la f “pegoteada”. Por ejemplo, en los items 4 y 5 de la Prop. A.5.5 vimos que si me dan una f : (X, τ ) → (Y, σ) y una familia {Ui }i∈I de abiertos de τ que cubren a X, entonces se tiene que f ∈ C (X, τ ), (Y, σ) ⇐⇒ f Ui es continua , para todo i ∈ I . Y no importa cu´an grande sea el conjunto I. Algo parecido vale para cubrimientos con cerrados, aunque ah´ı hace falta restringirse al caso de finitos: Proposici´ on A.5.6 (Lema del pegoteo). Sea f : (X, τ ) → (Y, σ). Sean F1 y F2 dos cerrados en X tales que F1 ∪ F2 = X. Luego se tiene que f F1 ∈ C(F1 , Y ) y f F2 ∈ C(F2 , Y ) =⇒ f ∈ C(X , Y ) . Otra manera de decir lo mismo que suele ser m´as u ´til es: Si tenemos dos funciones continuas g ∈ C(F1 , Y ) y h ∈ C(F2 , Y ) tales que g F1 ∩F2 = h F1 ∩F2 , entonces la funci´on f :X→Y
dada por
( g(x) f (x) = h(x)
si x ∈ F1 si x ∈ F2
es continua .
Demostraci´on. Ejercicio.
A.6
Redes y subredes
Recordemos que un conjunto ordenado I (por el orden parcial ≤ ) est´a dirigido si para todo par i, j ∈ I, existe un k ∈ I tal que i ≤ k y j ≤ k. En tal caso, una inducci´on muestra que si F ⊆ I es finito, existe k F ∈ I tal que j ≤ k F para todo j ∈ F .
(A.12)
Decimos que un subconjunto J ⊆ I es cofinal si para todo i ∈ I existe un j ∈ J tal que j ≥ i. O sea que J tiene elementos m´as grandes que cualquiera de I. Ejercicio A.6.1. Probar las siguientes afirmaciones: 1. Si un orden ≤ en un conjunto I es total, entonces I est´a dirigido por ≤. 2. Si X es un conjunto y ordenamos a P(X) con la inclusi´on al rev´es (o sea que U ≤ V si V ⊆ U ), entonces ≤ dirige a P(X), pero no es un orden total. 3. Un subconjunto A ⊆ N es cofinal (con el orden usual de N) si y s´olo si A es infinito. 4. Sin embargo A = {2 − n1 : n ∈ N} es infinito y “creciente”, pero no es cofinal en R. 4 Las redes, que reemplazar´an en esta teor´ıa a las sucesiones, son familias indexadas en conjuntos dirigidos. Para entender la necesidad de este concepto, veamos el siguiente ejemplo: 415
Ejemplo A.6.2. Sea (X, τ ) un ET y sea x ∈ X. Entonces el conjunto O(x), ordenado por inclusi´on al rev´es (o sea que V ≥ U si V ⊆ U ), est´a dirigido. Lo mismo pasa con cualquier base de entornos βx de x. En efecto, si V, U ∈ βx , sabemos que existe W ∈ βx tal que W ⊆ U ∩ V . Luego U ≤ W y V ≤ W . Observar que un subconjunto β ⊆ O(x) es base de entornos de x si y s´olo si es cofinal en O(x) con ´este orden. 4 Para poder definir adecuadamente la noci´on de convergencia en ET’s generales (y describir a traves de ella las clausuras de conjuntos y, m´as adelante, las nociones de continuidad y compacidad), ser´a crucial considerar redes indexadas en bases de entornos de puntos. La insuficiencia de las sucesiones surge de que si X es un ET que no es N1 , para alguno de sus puntos ninguna de estas bases ser´a numerable, por lo que tales redes no ser´an sucesiones. En el caso de EM’s, ese proceso puede hacerse con las bolas B(x, 1/n), n ∈ N. Pero en general uno no tiene ese recurso. Una noci´on alternativa para definir convergencia es la de filtros, que definiremos m´as adelante. El ejemplo que suguiere los axiomas que definen a un filtro es, nuevamente, el conjunto O(x), para x ∈ X, un ET. Las propiedades clave son: • Si U ∈ O(x) y V ⊇ U , entonces V ∈ O(x). • O(x) es cerrado por intersecciones finitas y ∅ ∈ / O(x). Observar que ni Oa (x) ni las bases de entornos βx cumple lo anterior. Por esta especie de inflexibilidad de los filtros, y por el hecho de que las redes tienen m´as “afinidad notacional” con las sucesiones a las que estamos acostumbrados, es mayoritaria entre los especialistas (salvo los muy franc´ofilos) la elecci´on de las redes en vez de los filtros para describir la noci´on de convergencia. Sin embargo, en algunos a´mbitos de aplicaci´on de la topolog´ıa, y en ciertos procesos maximales que veremos m´as adelante, los filtros (y los ultraf iltros) ser´an una herramienta necesaria. Esta es una vieja pol´emica retratada jocosamente por G. Pedersen como la eterna discusi´on entre los net-men y los fiter-fans. Nosotros estamos en el primer bando, pero usaremos a los filtros como ayudantes de sus enemigas las redes. El defecto m´as grave de las redes (ah´ı sacan ventaja los filtros) es que la noci´on necesaria de “subred” no es muy feliz, porque se empasta bastante. Pero igual le damos para adelante: Definici´ on A.6.3. Sea X un conjunto. 1. Una red en X es una funci´on x : I → X, donde el conjunto I est´a dirigido por un orden ≤ . Usaremos siempre la siguiente notaci´on m´as agradable: la red se escribir´a x = (xi )i∈ I , donde identificamos xi = x(i), i ∈ I. 2. Fijada una red x = (xi )i∈ I en X, una subred de x ser´a otra red y = (yj )j∈ J dotada de una funci´on h : J → I tales que (a) h es creciente, en el sentido de que j1 ≤J j2 =⇒ h(j1 ) ≤I h(j2 ). (b) La imagen de h es un subconjunto cofinal de X (abreviaremos diciendo que h es cofinal), o sea que para todo i ∈ I, existe j ∈ J tal que i ≤ h(j). 416
(c) Se tiene que y = x ◦ h, es decir que yj = xh(j) para todo j ∈ J. Observar que el u ´nico dato relevante de la red y, y de su entidad de subred de x, es el conjunto dirigido J y la funci´on creciente y cofinal h : J → I, ya que al tenerlos, la condici´on (c) determina automaticamente a la funci´on y = x ◦ h. 4 Ejercicio A.6.4. Probar que si z es una subred de una subred y de una red x, entonces z es una subred de x (la primera parte del ejercicio es entender qu´e significa este trabalenguas). Se sugiere componer las funciones que conectan los ´ındices, y usar que son crecientes para ver que la composici´on es creciente y cofinal. 4 Ejercicio A.6.5. Sea x = (xi )i∈ I una red en un conjunto X. Probar que: 1. Dado K ⊆ I un subconjunto cofinal, o sea que para todo i ∈ I existe un k ∈ K tal que k ≥ i, entonces la red x K = (xk )k∈ K es una subred de x. La h es la inclusi´on K ,→ I. 2. En particular, fijado cualquier i0 ∈ I, la red (xi )i≥i0 , que est´a dada por el conjunto I0 = {i ∈ I : i ≥ i0 } ⊆ I, es subred de x. 4 Observaci´ on A.6.6. Es evidente que hace falta aclarar un poco lo de las subredes. Repasemos con sucesiones: ellas ser´an las redes tales que I = N, con su orden usual. Es claro que dar x : N → X dada por x(n) = xn es la definici´on formal de ser sucesi´on. En la notaci´on anterior, una subsucesi´on de x ser´a una y que es subred de x, y a la vez es sucesi´on, o sea que J = N. Tambi´en hay que pedirle que h sea estrictamente creciente. Observar que llamando h(k) = nk para k ∈ N, tendr´ıamos que nk < nr si k < r, y nos queda que y = (yk )k∈N = (xnk )k∈N como estamos acostumbrados. Otra manera de recuperar las subsucesiones en este contexto es observar que un conjunto K ⊆ N es cofinal si y s´olo si K es infinito. Luego uno aplica el Ejer. A.6.5. Releyendo la definici´on de subred (ahora en el caso general), vemos que y toma sus valores entre los de x, y que los ´ındices de x que aparecen en y son “arbitrariamente grandes” (eso es que sean un conjunto cofinal de los de x). Esto es parecido a las subsucesiones. Las dos diferencias fundamentales son • El conjunto que indexa a y no tiene porqu´e ser numerable. • La funci´on h no tiene que ser estrictamente creciente, ni siquiera inyectiva. La primera diferencia es parecida a lo que pasa con las redes: hacen falta conjuntos bien grandes de ´ındices. La segunda es m´as sutil y m´as importante. Uno hubiese querido que se eligiera al J como un subconjunto cofinal de I, y que h s´olo sea la inclusi´on. Eso parece una generalizaci´on honesta y razonable, si hacen falta conjuntos grandes. De hecho, estas son subredes (Ejer. A.6.5). Y si hab´ıamos empezado con una sucesi´on, todas sus subsucesiones se construyen de ´esta manera. El problema es que todas las subredes construidas de esa manera (a partir de una sucesi´on) ser´ıan subsucesiones. Pero m´as adelante veremos que no alcanza con ellas para que la teor´ıa camine. Y en realidad la definici´on dada enriquece la cosa, porque las subredes podr´an ser mucho m´as grandes 417
que la red original, permitiendo refinarla poniendo much´ısimos yj ’s arriba de cada xi del conjunto cofinal h(J), y complicar notablemente el tipo de orden de I. Esto es completamente nuevo, y veremos que adem´as de necesario, ser´a sumamente u ´til. 4 Observaci´ on A.6.7. En muchos textos de topolog´ıa, en la definici´on de subred no se pide que la funci´on h que conecta los ´ındices sea creciente. S´olo que sea cofinal. La teor´ıa, en tal caso se hace mucho m´as intrincada y dif´ıcil, pero gana un poco de generalidad. Nosotros preferimos dar la versi´on con h creciente porque con ella se obtienen “almost all” los resultados que uno quiere que arreglen las subredes, y se gana notablemente en “transparencia” para las demostraciones. 4
A.7
Convergencia
A continuaci´on daremos unas definiciones ling¨ u´ısticas sobre las redes, que ser´an convenientes para manejarse con las nociones de convergencia y de puntos de acumulaci´on. Definici´ on A.7.1. Sean X un conjunto, A ⊆ X y x = (xi )i∈ I una red en X. 1. Dado i0 ∈ I denotaremos por Ci0 (x) = {xi : i ≥ i0 } a la cola de la red x, pero pensada como conjunto. E
E
2. Diremos que x est´a eventualmente en A, y escribiremos x ,→ A o bien (xi )i∈I ,→ A, si existe un i0 ∈ I tal que Ci0 (x) ⊆ A, o sea que xi ∈ A para todo i ≥ i0 . F
3. La red x est´a frecuentementemente en A, y escribiremos x ,→ A, si para todo i ∈ I se tiene que Ci (x) ∩ A 6= ∅, o sea que existe un j ∈ I tal que j ≥ i y xj ∈ A. 4 Ahora si podemos definir las nociones de convergencia y puntos de acumulaci´on para redes en un ET: Definici´ on A.7.2. Sean (X, τ ) un ET, x ∈ X y x = (xi )i∈ I una red en X. Diremos que 1. (xi )i∈I converge a x, y escribiremos xi −−→ x, si para todo entorno U ∈ O(x) se tiene i∈ I
E
que (xi )i∈I ,→ U (i.e., que existe un iU ∈ I tal que xi ∈ U para todo i ≥ iU ). 2. x es un punto de acumulaci´ on (PA) de x si para todo entorno U ∈ O(x) se tiene F
que (xi )i∈I ,→ U (i.e., que para todo i ∈ I existe un j ∈ I tal que j ≥ i y xj ∈ U ). Observar que en ambas definiciones basta verificar que las condiciones pedidas se cumplen para los entornos U de Oa (x) o los de cualquier base βx de O(x). 4 Ejemplo A.7.3 (Convergencia en EM’s). Sea (X, d) un EM, y pens´emoslo como ET v´ıa la topolog´ıa τd . Dados un punto x ∈ X y una red x = (xi )i∈ I en X, se tiene que τ
d xi −−→ x ⇐⇒ la red en R
i∈ I
418
d(xi , x) −−→ 0 , i∈ I
E
y que ambos equivalen a que x ,→ B(x, ε) para todo ε > 0. Para probarlo, basta recordar que las bolas B(x, ε) son una base de Oτd (x), y que las bolas BR (0, ε) son base de OR (0). 4 Ejercicio A.7.4. Sea (X, τ ) un ET y sea x = (xi )i∈ I una red en X. E
1. Si A ⊆ X cumple que x ,→ A, entonces toda subred y = (yj )j∈ J de x tambi´en cumple E
que y ,→ A . Para probar esto ser´a util usar que la funci´on h : J → I que determina a y es creciente y cofinal, por lo que Cj (y) ⊆ Ch(j) (x), y al h(j) se lo puede hacer tan grande como haga falta. 2. Si xi −−→ x ∈ X, toda subred y = (yj )j∈ J de x tambi´en converge a x. i∈ I
τ
3. Si x vive en un Y ⊆ X e y ∈ Y , entonces xi −−→ y i∈ I
τ
Y ⇐⇒ xi −−→ y , donde τY es la
i∈ I
topolog´ıa inducida por τ a Y . Lo mismo vale si el y es PA de x (en Y o en X). E
4. Si xi −−→ x ∈ X, y me dan un cerrado F ⊆ X tal que x ,→ F , entonces x ∈ F . i∈ I
4
Proposici´ on A.7.5. Sea (X, τ ) un ET y sean x = (xi )i∈ I una red en X y x ∈ X. Las siguientes propiedades son equivalentes: 1. Se tiene la convergencia xi −−→ x. i∈ I
2. Toda subred de x tiene una subred que converge a x. Demostraci´on. Si vale 1, las subredes enteras de x convergen a x, por el Ejer. A.7.4. Pero E si fuera falso que xi −−→ x, existir´ıa un U ∈ Oa (x) tal que x ,→ 6 U . Esto significar´ıa que i∈ I
F
x ,→ F = X \ U . En otras palabras, J = {i ∈ I : xi ∈ F } ser´ıa cofinal para I. Ahora tomemos la red xJ = (xi )i∈J , que junto con la funci´on inclusi´on de J en I es una subred de x. Finalmente, como xJ vive en el cerrado F , todas sus subredes convergentes (si las tuviera) tendr´ıan su l´ımite en F (por el Ejer. A.7.4), as´ı que xJ no tendr´ıa subredes que puedan ir hacia el x en cuesti´on. El siguiente Teorema es la justificaci´on del nombre puntos l´ımite para los elementos de la clausura de un conjunto: Teorema A.7.6. Sea (X, τ ) un ET. Dados A ⊆ X y z ∈ X, son equivalentes: 1. z es punto l´ımite de A, o sea z ∈ A. 2. Existe una red x = (xi )i∈I en A tal que xi −−→ z. i∈ I
Demostraci´on. 2 → 1: Si existe la red xi −−→ z, entonces todo U ∈ O(z) contiene a una cola i∈ I
Ci0 (x) de x, que vive en A. Eso significa que z ∈ A.
419
1 → 2: Si ahora suponemos que z ∈ A, definamos una red cuyos ´ındices se muevan en el conjunto O(z), ordenado con la inclusi´on al reves, como en el Ejem. A.6.2. Para cada U ∈ O(z), como sabemos que U ∩ A 6= ∅, elijamos un xU ∈ U ∩ A. Veamos que nuestra red x = (xU )U ∈O(z) converge a z. La prueba es tan simple que confunde: Si a un U ∈ O(z) lo pensamos como entorno de z, a partir del mismo U , pero ahora como ´ındice, tenemos que V ≥ U =⇒ V ⊆ U
y entonces
xV ∈ V ∩ A ⊆ V ⊆ U .
E
Esto prueba que x ,→ U , lo que demuestra la convergencia a z.
Observaci´ on A.7.7. El resultado anterior muestra que el operador clausura A 7→ A, que determina la clase de los conjuntos cerrados, y por ello a la topolog´ıa τ , est´a a su vez caracterizado por la convergencia de redes en X. Luego para mostrar que dos topolog´ıas coinciden en X, bastar´a ver que producen las mismas convergencias de las redes en X. M´as a´ un, si tenemos σ y τ dos topolog´ıas en un conjunto X, se tiene que h i σ ⊆ τ ⇐⇒ τ -convergencia =⇒ σ-convergencia . La prueba se sigue de las definiciones (en τ hay m´as entornos). En parte por eso es que, en tal caso, se dice que τ es m´as fuerte que σ, ya que se dice que una convergencia es m´as d´ebil en tanto sea m´as f´acil converger, y m´as fuerte si pocas series pueden hacerlo. Sin embargo, si no se ponen algunas restricciones, el fen´omeno de la convergencia puede tener propiedades raras (el t´ıpico es que una red tenga m´as de un l´ımite). Para tener una idea de esto veamos un ejemplo catastr´ofico: 4 Ejemplo A.7.8. Sea X un conjunto infinito y consideremos en X la topolog´ıa cofinita τCF (X) que ya vimos en el Ejem. A.4.7. En este espacio, muchas redes convergen a todos los puntos de X. Por ejemplo, asumamos que una red x = (xi )i∈ I en X cumple que I es infinito, y que la funci´on x : I → X es inyectiva. Luego, si U ∈ τCF (X), el conjunto {i ∈ I : xi ∈ / U } es finito, E
por lo que x ,→ U . Y estamos hablando de todos los abiertos de X, o sea los entornos de todos los puntos. Si la red cumple algo menos: que las colas Ci (x) = {xj : j ≥ i}
son infinitas para todo i ∈ I ,
entonces todo x ∈ X es punto de acumulaci´on de x.
4
La siguiente Proposici´on muestra que los espacios de Hausdorff son un a´mbito en donde las cosas son m´as normales en este sentido: Proposici´ on A.7.9. Sea (X, τ ) un ET. Las siguientes condiciones son equivalentes: 1. Toda red convergente en X tiene un u ´ nico l´ımite. 2. X es un espacio de Hausdorff. 420
Demostraci´on. Ejercicio.
Ahora veamos el primer resultado b´asico de subredes: Proposici´ on A.7.10. Sea (X, τ ) un ET y sea x = (xi )i∈I una red en X. Luego un punto z ∈ X es de acumulaci´on para x si y s´olo si existe una subred y de x que converge a z. Demostraci´on. Ver en el Apunte de topolog´ıa.
Observaci´ on A.7.11. Tenemos dos apariciones del nombre punto de acumulaci´on (abreviemos PA): para conjuntos y para redes. Conviene aclarar que los conceptos son semejantes, pero de equivalencias ni hablar. A pesar de que uno podr´ıa pensar en una red x = (xi )i∈ I en un (X, τ ) y en el subconjunto Ax = {xi : i ∈ I} ⊆ X y en sus PA’s. Pero ninguna cosa implica la otra. La palabra acumulaci´on refiere a que aparecen much´ısimos t´erminos cerca del punto. Pero en el caso de conjuntos eso refiere a que sean distintos elementos, y en el de las redes a que aparezcan en distintos momentos (apariciones muy frecuentes). Observar que la red puede ser constantemente igual a un x ∈ X. All´ı x es PA de la red x pero no de Ax . Incluso puede haber una cantidad cofinal de apariciones del x en x y que la otra mitad se vaya a cualquier otro lado. Pasa lo mismo. O bien puede pasar que x : I → X sea inyectiva, y que haya un conjunto infinito numerable J = {in : n ∈ N} ⊆ I tal que la sucesi´on xin −−−→ x. Entonces se tiene que x ∈ A0x . Pero si n→∞
J no es cofinal en I (lo que bien puede pasar si, por ejemplo, I = R con su orden), nadie nos asegura que x sea un PA de x. Donde las cosas se parecen un poco m´as es cuando se toman sucesiones. Ahi s´ı puede verse 4 que, si x : N → X es inyectiva, entonces x es PA de x si y s´olo si x ∈ A0x .
A.8
Sucesiones en espacios N1
En los espacios N1 (en particular todos los EM’s), las redes siguen siendo u ´tiles, pero no son imprescindibles. Esto es algo complicado de formular expl´ıcitamente. A continuaci´on enumeraremos los resultados concretos que nos permitir´an trabajar sistem´aticamente con sucesiones (y subsucesiones) cuando estemos en el contexto N1 . En principio vienen un ejercicio y un lema t´ecnico, donde uno concentra las dificultades del pasaje de redes a sucesiones: Ejercicio A.8.1. Sea I un conjunto dirigido con el orden ≤. Si no existe un elemento m´aximo iM ∈ I, probar que para todo j ∈ I hay un k ∈ I tal que k > j (k ≥ j pero k 6= j). Otra manera de decirlo: En un dirigido, maximal =⇒ m´aximo. 4 Lema A.8.2. Sea (X, τ ) un ET de tipo N1 . Sean x = (xi )i∈ I una red en X y x un punto de acumulaci´on de x. Supongamos que I no tiene un elemento m´aximo. Entonces debe existir un subconjunto numerable J = {ik : k ∈ N} ⊆ I, no necesariamente cofinal, tal que 1. Usando el orden de I en J, se tiene que ik ≤ ir si y s´olo si k ≤ r. 2. La sucesi´on y = (yk )k∈ N = (xik )n∈N cumple que yk −−−→ x. k→∞
421
Demostraci´on. Sea {Vm : m ∈ N} ⊆ τ una base de O(x). Para cada n ∈ N, tomemos el n T abierto Un = Vm ∈ τ . Luego βx = {Un : n ∈ N} ⊆ τ es otra base de O(x), que ahora m=1
cumple que Un+1 ⊆ Un para todo n ∈ N. F
Tomemos i1 ∈ I tal que xi1 ∈ U1 . Como x ,→ U2 e I no tiene un elemento m´aximo, podemos tomar i2 > i1 (o sea que i1 ≤ i2 6= i1 ) tal que xi2 ∈ U2 (se usa el Ejer. A.8.1). Recursivamente, podemos construir el conjunto J = {ik : k ∈ N} ⊆ I tal que el orden de I en J cumpla la condic´on (a), y tal que xik ∈ Uk para todo k ∈ N. Luego, si tomamos un Uk ∈ βx , fijamos ese k ∈ N y tomamos cualquier m ≥ k (o sea un im ≥ ik ), se tiene que ym = xim ∈ Um ⊆ Uk . Esto muestra que yk = xnk −−−→ x. k→∞
Proposici´ on A.8.3. Sea (X, τ ) un ET de tipo N1 . Si una sucesi´ on x = (xn )n∈ N en X tiene una subred y = (yi )i∈ I que converge a un x ∈ X, entonces existe una subsucesi´ on (xnk )k∈ N de x tal que xnk −−−→ x. k→∞
Demostraci´on. Observar que, por la Prop. A.7.10, el tal x es un PA de x. Como N no tiene elementos m´aximos, el Lema A.8.2 nos asegura que existe un conjunto infinito numerable J = {nk : k ∈ N} ⊆ N (ordenado en forma estrictamente creciente) tal que la sucesi´on (xnk )k∈ N cumple que xnk −−−→ x. Pero como todo conjunto infinito de N es cofinal, la k→∞
sucesi´on (xnk )k∈ N es, de hecho, una subsucesi´on de x, como busc´abamos.
Ejercicio A.8.4. Volviendo a la Porp. anterior: Si tomamos la subred y con su funci´on h : I → N cofinal creciente, sabemos que h(I) ⊆ N es infinito. Lo numeramos en forma creciente h(I) = {nk : k ∈ N} y tomamos la subsucesi´on (xnk )k∈ N de x. Como h es creciente y sabemos que yi −−→ x, vemos que xnk −−−→ x. Y san se acab´o. i∈ I
k→∞
El ejercicio consiste en ver qu´e parte de lo de arriba esta mal. No puede ser correcto porque no se usa que X sea N1 . Y ese enunciado es falso en general. 4 Proposici´ on A.8.5. Sea (X, τ ) un ET de tipo N1 . Se tienen las siguientes propiedades on y = (yn )n∈ N en A tal 1. Dado A ⊆ X, un punto x ∈ A si y s´olo si existe una sucesi´ que yn −−−→ x. n→∞
2. Un x ∈ X es punto de acumulaci´on de una sucesi´on x = (xn )n∈ N en X si y s´olo si existe una subsucesi´on (xnk )k∈ N de x tal que xnk −−−→ x. k→∞
Demostraci´on. 1. Sea x ∈ A tal T que ninguna sucesi´on constante en A converge a x (o sea que en A no hay un y ∈ O(x) ∩ A). Por el Teo. A.7.6, existe una red x = (xi )i∈ ITen A tal que xi −−−→ x. Si I tuviera un elemento m´aximo iM , se tendr´ıa que xiM ∈ O(x), lo que n→∞ est´a excluido porque el tal xiM ∈ A. Como x es el l´ımite de x, entonces x es punto de acumulaci´on de x. Sea (yn )n∈ N la sucesi´on asociada v´ıa el Lema A.8.2. Observar que, como x est´a en A, tambi´en (yn )n∈ N est´a en A, porque sus t´erminos son algunos de los 422
de x. Y se tiene que yn −−−→ x. La vuelta sale por el Teo. A.7.6, porque una sucesi´on n→∞ es tambi´en una red. 2. Se deduce de la Prop. A.8.3 y de la Prop. A.7.10. Observar, para la vuelta, que una subsucesi´on es tambi´en una subred.
A.9
Conexos
Definici´ on A.9.1. Sea (X, τ ) un ET. 1. Un subconjunto U ∈ X es clopen si U ∈ τ y tambi´en V = X \ U ∈ τ (en castellano podr´ıa ser “cerrierto” o “abirrado”, o ya que estamos “beodo”). 2. Decimos que X es conexo si los u ´nicos clopen que tiene son ∅ y X. 4
3. X es disconexo en caso contrario (si tiene alg´ un clopen no trivial).
La mayor´ıa de ejemplos interesantes donde se plantea la conexidad es en el caso de subespacios Y de un ET (X, τ ) ambiente, pensando a Y con la inducida τY . Ah´ı conviene poner una notaci´on ad hoc: Definici´ on A.9.2. Sea (X, τ ) un ET y sea Y ⊆ X. Una X-separaci´ on fuerte de Y es un par (U, V ) de subconjuntos abiertos de X tal que Y ⊆U ∪V , U ∩V ∩Y =∅
pero
U ∩ Y 6= ∅ 6= V ∩ Y .
(A.13)
Diremos que (U, V ) es una X-separaci´on si se cumplen solamente las dos condiciones de la izquierda en (A.13). 4 Es claro que Y es disconexo si y s´olo si existe una X-separaci´on fuerte (U, V ) de Y , porque en tal caso U ∩ Y queda clopen y propio (en esto se usa la fortaleza) en (Y, τY ). La rec´ıproca sale f´acil por la definici´on de τY . Pero es m´as util para hacer cuentas la siguiente formulaci´on Proposici´ on A.9.3. Sea (X, τ ) un ET y sea Y ⊆ X. Si Y es conexo y (U, V ) es una X-separaci´on de Y , entonces se tiene que Y ⊆ U o bien Y ⊆ V . Demostraci´on. Si no pasara lo asegurado, (U, V ) ser´ıa una X-separaci´on fuerte de Y .
Teorema A.9.4. Sea f : X → Y una funci´on continua. Luego f manda conexos en conexos. Demostraci´on. Basta observar que si A ⊆ X y (U, V ) es una Y -separaci´on fuerte de f (A), entonces f −1 (U ), f −1 (V ) es una X-separaci´on fuerte de A. Teorema A.9.5. Sea (X,Tτ ) un ET y tomemos unaS familia {Ai }i∈ I de subconjuntos conexos de X. Si asumimos que Ai 6= ∅, entonces A = Ai es conexo. i∈ I
i∈ I
423
Demostraci´on. Es claro que toda X-separaci´on (U, V ) de A tambi´en lo es de cada Ai . Como ´estos son conexos, tienen que caer dentro de U o de V . Pero como U ∩ V ∩ A = ∅ y todos los Ai se cortan, todos ellos tienen que caer del mismo lado. Por ello no hay separaciones fuertes de A, que resulta conexo. Teorema A.9.6. Sea (X, τ ) un ET. Si A ⊆ X es conexo, entonces todo conjunto B tal que A ⊆ B ⊆ A es tambi´en conexo. En particular podemos asegurar que la clausura de un conexo es conexa. Demostraci´on. Dada una X-separaci´on (U, V ) de B, y por ende de A, podemos suponer que A ⊆ U . Si hubiera un x ∈ B ∩ V , como x ∈ A y V ∈ Oa (x), deber´ıa suceder que A ∩ V 6= ∅, lo que no estaba permitido, porque A ∩ V = A ∩ U ∩ V = ∅. As´ı que B es conexo.
A.10
Productos y cocientes
A.10.1
Topolog´ıa inicial
Definici´ on A.10.1. Sea X un conjunto y sea F = {fα : α ∈ A} una familia indexada en A de funciones fα : X → (Yα , τα ) hacia sendos ET’s. Denotaremos por o ^n τF = τ ⊆ P(X) : τ es una topolog´ıa tal que fα ∈ C (X, τ ), (Yα , τα ) ∀ α ∈ A . O sea que τF a la m´ınima topolog´ıa en X que hace de todas las fα funciones continuas. Esta τF se llama la topolog´ıa inicial asociada a F, y se caracteriza por el hecho de que tiene como sub-base a la familia o [n ρF = fα−1 (U ) : U ∈ τα . (A.14) α∈ A
Observar que si F = {f } (una sola funci´on), entonces ρF ya da toda τF .
4
Proposici´ on A.10.2. Sea τF la topolog´ıa inicial en X dada por la familia F = {fα : α ∈ A}. Dada una red x = (xi )i∈ I en X y un punto x ∈ X, se tiene que τ
F xi −→ x
i∈I
⇐⇒
τ
α fα (xi ) −→ fα (x)
i∈I
para todo
α∈A.
Demostraci´on. La flecha =⇒ es clara por la definici´on de τF . Para ver la rec´ıproca, tomemos V ∈ OτF (x). Por la Ec. (A.14) y las propiedades de bases y sub-bases, deben existir n ∈ N , α1 , . . . , αn ∈ A y entornos Uk ∈ Oταk (fαk (x) ) , k ∈ In , T tales que x ∈ fα−1 (Uk ) ⊆ V . Como las redes fαk (xi ) −−→ fαk (x), para cada k ∈ In k i∈ I
k∈ In
podemos tomar un ik ∈ I tal que fαk (xi ) ∈ Uk para todo i ≥ ik . Como I es dirigido, existe un iM ∈ I que mayora a todos los ik . Luego, \ si i ≥ iM =⇒ fαk (xi ) ∈ Uk para todo k ∈ In =⇒ xi ∈ fα−1 (Uk ) ⊆ V . k k∈ In
424
E
O sea que x ,→ V . Como esto pasa para todo V ∈ OτF (x), deducimos que xi −−→ x. i∈ I
Corolario A.10.3. Sea τF la topolog´ıa inicial en X dada por la familia F = {fα : α ∈ A}, con las fα : X → (Yα , τα ). Sea (Z, σ) otro ET. Dada g : (Z, σ) → (X, τF ), se tiene que g ∈ C (Z, σ), (X, τF ) ⇐⇒ fα ◦ g ∈ C (Z, σ), (Yα , τα ) para todo α ∈ A . (A.15) Demostraci´on. Como antes, la flecha =⇒ es clara, y la gracia es la vuelta. Para probar la continuidad de g, tomemos un z ∈ Z y una red z = (zi )i∈ I en Z tal que zi −−→ z. Si i∈ I
asumimos lo que dice a la derecha de (A.15), sabremos que fα (g(zi ) ) −−→ fα (g(z) ) para todo i∈ I
α ∈ A. Ahora, por la Prop. A.10.2, podemos deducir que g(zi ) −−→ g(z). O sea que g debe i∈ I
ser continua en cada z ∈ Z.
A.10.2
Topolog´ıa producto
Notaciones: Sea (Xα , τα ) una familia de ET’s. α∈ A Q 1. Llamemos P = Xα a su producto cartesiano. α∈ A
2. Para no confundirnos con las redes, un elemento t´ıpico de P se denotar´a por {xα }α∈ A (llaves en vez de par´entesis), donde cada xα ∈ Xα . 3. Para cada α ∈ A, llamaremos πα : P → Xα a la proyecci´on que a un elemento {xα }α∈ A ∈ P lo manda al correspondiente xα . Q 4. Si para cada α ∈ A tenemos subconjuntos Yα ⊆ Xα , asumiremos que α∈ A Yα ⊆ P. 4 Se busca una topolog´ıa para el conjunto P que tenga propiedades agradables. Se puede pensar como modelo a R2 donde, si bien la base com´ un de su topolog´ıa est´a formada por bolas redondas, uno puede tambi´en tomar una base de rectangulitos abiertos (a, b) × (c, d) = (a, b) × R ∩ R × (c, d) = π1−1 (a, b) ∩ π2−1 (c, d) . Este ser´a, en efecto, el modelo a seguir para la construir lo que se llamar´a “la topolog´ıa producto” en P. Pero hay una decisi´on a tomar: ¿Qu´e se hace en el caso de que A sea infinito? Una opci´on ser´ıa multiplicar abiertos de cada τα en todas las cordenadas. Esto se llamar´a la topolog´ıa caja en P. La otra opci´on (la buena), ser´a mirar el lado derecho de la ecuaci´on de arriba, y compararla con la Ec. (A.14) de las topolog´ıas iniciales. Pensando as´ı podemos tomar la familia de funciones F = πα : α ∈ A , y construir la topolog´ıa inicial asociada a F que llamaremos τP = τF . Ya vamos a ver qu´e pinta tienen sus abiertos, pero de antemano, sin saber c´omo son, sabemos que tendr´a las propiedades agradables en las que pens´abamos, que son las traducciones a P de la Prop. A.10.2 y el Cor. A.10.3. Formalizemos todo esto en el siguiente enunciado: 425
Proposici´ on A.10.4. Sea (Xα , τα )
Q
Xα , dotado de la topolog´ıa producto τP , que es la inicial asociada a la familia F = πα : α ∈ A . Se tienen las siguientes propiedades: α∈ A
una familia de ET’s. Sea P =
α∈ A
1. Una base βP de τP est´a dada por los conjuntos construidos con el siguiente proceso: (a) Sea F ⊆ A un subconjunto finito de ´ındices. (b) Sean Uα ∈ τα , un abierto para cada α ∈ F. (c) Un elemento de βP construido con estos datos ser´a: n o Y \ Y U= πα−1 (Uα ) = {xα }α∈ A ∈ P : xα ∈ Uα , α ∈ F = Uα × Xα . α∈ F
α∈ F
α∈F /
La base βP constar´a de todos los abiertos de este tipo, moviendose en todos los conjuntos finitos de ´ındices F ⊆ A y todas las elecciones de abiertos Uα en los α ∈ F. 2. Una f : Z → P ser´a continua si y s´olo si cada fα = πα ◦ f es continua. 3. Una red x = {xi,α }α∈ A )i∈I en P converger´a a un punto {xα }α∈ A ∈ P si y s´olo si cada red πα ◦ x = (xi,α )i∈I en Xα
converge a xα ,
o sea que xi,α −−→ xα , para todo α ∈ A (todo esto dentro de cada espacio Xα y en su i∈ I
topolog´ıa τα ). Demostraci´on. Cada ´ıtem no es otra cosa de la traducci´on a este caso particular de los tres resultados vistos para topolog´ıas iniciales: El ´ıtem 2. es el Cor. A.10.3, y el ´ıtem 3. es la Prop. A.10.2. El ´ıtem 1. se basa en la Ec. (A.14). Aqu´ı hace falta una aclaraci´on: al intersectar finitas contraim´agenes de abiertos (o sea elementos de la sub-base ρF ), como indica la Prop. A.3.2, podr´ıan aparecer varias correspondientes al mismo α, pero con distintos abiertos de τα . Sin embargo, eso no hace falta escribirlo al describir un elemento de βP , porque la operaci´on V 7→ πα−1 (V ) respeta intersecciones. Luego uno puede intersectar primero todos los abiertos correspondientes dentro del mismo τα , y quedarse con un solo Uα para cada α que aparezca en la lista finita. Gracias a la Prop. A.10.4 muchas propiedades de los espacios cordenados Xα (si todos ellos las tienen) siguen siendo v´alidas en el espacio producto P, siempre que uno use la topolog´ıa producto τP . El caso m´as importante ser´a la compacidad, que veremos m´as adelante (esto es el famoso Teorema de Tychonoff). Este tipo de propiedades son las que justifican la elecci´on consensuada de usarla a ella y no a la de la caja, que podr´ıa verse como m´as intuitiva. Dem´as est´a decir que en el caso de que A sea finito ambas coinciden. Esto muestra, por ejemplo, que en Rn la topolog´ıa usual (inducida por la m´etrica eucl´ıdea) conicide con la topolog´ıa producto, que proviene de pensar a Rn = R × · · · × R.
426
Q
Proposici´ on A.10.5. Sea P =
Xα , dotado de la topolog´ıa producto. Para cada α ∈ A
α∈ A
tomemos subconjuntos Bα ⊆ Xα . Luego la “cajita” B ⊆ P dada por Y Y B= Bα . Bα , verifica que B = α∈ A
α∈ A
En particular, si los Bα eran todos cerrados (o densos), tambi´en B lo ser´a. Q Demostraci´on. Llamemos C = B α . Dado y = {yα }α∈ A ∈ C, tomemos un entorno Q α∈ A Q b´asico de y de la forma V = Uα × Xα , para cierto F ⊆ A finito. Para cada α ∈ F , α∈ F
α∈F /
tomemos un xα ∈ Bα ∩Uα , que existe porque yα ∈ B α . Rellenemos con xα ∈ Bα cualesquiera para los α ∈ / F . Luego x = {xα }α∈ A ∈ B ∩ V . Esto muestra que C ⊆ B. Por otro lado, tomando redes en B y aplicando el ´ıtem 3. de la Prop. uno muestra SA.10.4, inmediatamente que B ⊆ C. Otra forma de verlo es usar que P\C = πα−1 (Xα \B α ) ∈ τP , α∈A
por lo que C debe ser cerrado. Proposici´ on A.10.6. Sea (Xα , τα )
α∈ A
una familia de ET’s, y sea P =
Q
Xα , dotado
α∈ A
de la topolog´ıa producto τP . Si todos los espacios (Xα , τα ) son de una de las siguientes clases: T0 , T1 , Hausdorff o regular, entonces P es tambi´en de esa clase. Sin embargo, P puede no ser normal aunque todos los Tα lo sean, incluso para el caso de A finito. Demostraci´on. En los tres primeros casos (T0 , T1 y T2 ), el problema se describe a partir de un par de puntos de P que, por ser distintos, deben diferir en alguna cordenada α ∈ A. Y la cosa se arregla operando en esa sola cordenada, con abiertos πα−1 (U ) de la sub-base ρF . Probaremos en detalle solo el caso asociado a la regularidad, que no sale por aquel m´etodo. Por la Obs. A.4.8, basta ver que si x = {xα }α∈ A ∈ W ∈ τP , entonces existe V ∈ τP tal que x ∈ V ⊆ V ⊆ W . Para empezar, por la Prop. A.10.4 sabemos que existe Y Y U= Uα × Xα ∈ βP (con F finito) , tal que x ∈ U ⊆ W . α∈ F
α∈F /
Para cada α ∈ F, tenemos que xα ∈ Uα y, por la regularidad de las cordenadas, existen sendos Vα ∈ τα tales que xα ∈ Vα ⊆ V α ⊆ Uα , para todo α ∈ F. Finalmente, si tomamos Y Y Y Y V = Vα × Xα ∈ τP , se tiene que x ∈ V ⊆ V = Vα× Xα ⊆ U ⊆ W , α∈ F
α∈ F
α∈F /
α∈F /
donde la igualdad de la derecha sobre las clausuras vale por la Prop. A.10.5. El hecho de que la cosa no camina para espacios normales se puede ver en el Apunte de topolog´ıa. Q (Xα , τα ) , dotado de la topolog´ıa producto τP . Supongamos Ejercicio A.10.7. Sea P = α∈ A
que, para cada α ∈ A, tenemos un denso Dα ⊆ Xα . Por la Prop. A.10.5 sabemos que el
427
Q producto α∈ A Dα es denso en P. Pero se puede construir un denso mucho m´as chico: Asumamos que P 6= ∅, y fijemos un x = {xα }α∈ A ∈ P. Definamos los conjuntos Y Y DF = Dα × {xα } ⊆ P , para cada F ∈ PF (A) . α∈ F
α∈ A\F
S
Luego el conjunto D =
4
DF es denso es P.
F∈ PF (A)
Proposici´ on A.10.8. Producto de conexos (con la topolog´ıa producto) es conexo. Lo mismo pasa con los productos de arcoconexos (quedan idem). Q Demostraci´on. Sea P = Xα , con todos los (Xα , τα ) conexos. Como el vac´ıo es conexo α∈ A
(porque todo subconjunto es impropio), podemos asumir que P 6= ∅. Paso 1: Supongamos que A es finito. Por un argumento inductivo evidente podemos reducirnos al caso A = {1, 2}. Si fijamos un par (x1 , x2 ) ∈ P, consideremos las “cruces” S Cx = X1 × {x} {x1 } × X2 , para cada x ∈ X2 . S S Observar que P = X1 × {x} ⊆ Cx . Adem´as, el Teo. A.9.5 asegura que cada Cx es x∈X2
x∈X2
conexo, porque los dos cachosTse cortan en el punto (x1 , x) . Finalmente, como sabemos que (x1 , x2 ) ∈ {x1 } × X2 ⊆ Cx 6= ∅, el mismo Teorema nos dice que P es conexo. x∈X2
Paso 2: A lo que sea. Tomemos un x = {xα }α∈A ∈ P. Definamos los conjuntos Y Y BF = Xα × {xα } ⊆ P para cada F ∈ PF (A) . α∈F
α∈A\F
Como cada BF (con la inducida de la producto) es h´omeo al respectivo
Q
Xα , el paso
α∈F
anterior dice que todos los BF son subconjuntos conexos de P. Por el Teo. A.9.5, tambi´en [ B= BF es conexo ( porque todos los BF se cortan en x) . F∈ PF (A)
Finalmente, el Ejer. A.10.7 muestra que B es denso es P. Luego el Teo. A.9.6 asegura que todo P es conexo. La prueba para arcoconexos es m´as f´acil: Dados x = {xα }α∈A e y = {yα }α∈A ∈ P, tomamos sendas curvas continuas γα : [0, 1] → Xα que unan cada entrada xα con la respectiva yα , y definimos la curva γ : [0, 1] → P dada por γ(t) = {γα (t)}α∈A para t ∈ [0, 1] . Esta γ queda continua por el item 2 de la Prop. A.10.4. Y une x con y.
428
A.10.9 (Producto de funciones). Sean fα : Xα → Yα una familia de funciones indexada por α ∈ A. Asumamos que todos los conjuntos involucrados son ET’s. Entonces definimos Y Y Y F = fα : Xα → Yα , por F {xα }α∈ A = {fα (xα )}α∈ A , α∈ A
α∈ A
α∈ A
la funci´on producto, que opera como las fα en cada cordenada α ∈ A. Si asumimos que todas las fα tienen la propiedad P , se ve f´acilmente que tambi´en F tendr´a P , para las propiedades de ser inyectiva , suryectiva , continua , h´omeo , embbeding , suryectiva + abierta . Observemos que, para cada α ∈ A tenemos el diagrama conmutativo Q Q Yα Xα F / α∈ A
α∈ A πα
πα
Xα
fα
/
Yα
Eso, m´as la el item 2 de la Prop. A.10.4 muestra que F es continua. Esto sale tambi´en usando redes, aunque la notaci´on es engorrosa. La prueba de los otros casos es directa y se deja como ejercicio. 4 Q Ejercicios A.10.10. Sea P = (Xn , τn ) , dotado de la topolog´ıa producto τP . n∈N
1. Si suponemos que todos los Xn son de tipo N2 , entonces anche P es N2 . 2. Idem con N1 y separable. 3. Si suponemos que todos los Xk son Lindeloff, a´ un si asumimos que P = X1 ×X2 , puede suceder que P no sea Lindeloff. 4. Si cada τn proviene de una m´etrica dn en Xn , entonces 0
0
(a) Si para cada n ∈ N, definimos dn (x, y) = m´ın{dn (x, y) , 1}, para x, y ∈ Xn , 0 entonces dn es otra m´etrica en Xn y se tiene que τn = τdn = τdn0 . (b) La funci´on dP : P × P → R≥0 dada por dP
X d 0 (xn , yn ) n , {xn } , {yn } = 2n n∈N
{xn } , {yn } ∈ P
es una m´etrica en P tal que τdP = τP . En otras palabras, producto numerable de metrizables es metrizable. Ejercicio A.10.11. Sea (X, τ ) un ET. Probar que 429
4
1. X es Hausdorff si y s´olo si la diagonal ∆X = { (x, y) ∈ X × X : x = y } es cerrada en la topolog´ıa producto de X × X. 2. Si X es Hausdorff, (Y, σ) es otro ET y nos dan f, g ∈ C(Y, X), entonces Zf, g = { y ∈ Y : f (y) = g(y) }
es cerrado en Y .
Lamentablemente no vale usar a f − g, porque X no siempre tiene − ni 0.
4
Ejercicio A.10.12. Sea (X, τ ) un ET que es regular y sean x = (xi )i∈ I e y = (yj )j∈ J dos redes en X, anbas convergentes. Entonces son equivalentes: • Las dos redes tienen el mismo l´ımite. • La red “doble” (x , y) = (xi , yj )i,j∈I×J , que vive en X × X, cumple que E
(x , y) ,→ U para todo abierto U ⊆ X × X tal que ∆X = { (x, x) : x ∈ X} ⊆ U . El orden de I × J es en las dos entradas a la vez.
A.10.3
4
Topolog´ıa final
Definici´ on A.10.13. Sea Y un conjunto y sea G = {fα : α ∈ A} una familia indexada en A de funciones gα : (Xα , τα ) → Y con dominios en sendos ET’s. Denotaremos por o _n τ ⊆ P(Y ) : τ es una topolog´ıa tal que fα ∈ C (Xα , τα ), (Y, τ ) ∀ α ∈ A . τG = O sea que τG a la m´ axima topolog´ıa en Y que hace de todas las fα funciones continuas. G Esta τ se llama la topolog´ıa final asociada a G, y se caracteriza por el hecho de que n o τ G = U ⊆ Y : fα−1 (U ) ∈ τα para todo α ∈ A . (A.16) El hecho de que tal familia sea una topolog´ıa se deduce de las propiedades conjunt´ısticas del operador “tomar contraimagen”. 4 Proposici´ on A.10.14. Sea τ G la topolog´ıa final en Y dada por la familia G = {fα : α ∈ A}, con las fα : (Xα , τα ) → Y . Sea (Z, σ) otro ET. Entonces, dada g : Y → Z, se tiene que G g ∈ C (Y, τ ), (Z, σ) ⇐⇒ g ◦ fα ∈ C (Xα , τα ), (Z, σ) para todo α ∈ A . (A.17) Demostraci´on. Como en el Cor. A.10.3, la flecha =⇒ es clara y lo nuevo es la vuelta. Si todas las composiciones g ◦ fα son continuas y tomamos un V ∈ σ, tenemos que (g ◦ fα )−1 (V ) = fα−1 g −1 (V ) ∈ τα , para todo α ∈ A . Por definci´on, eso significa que g −1 (V ) ∈ τ G . O sea que g es continua. 430
A.10.4
Cocientes
Recordemos que hay tres conceptos en teor´ıa de conjuntos que son esencialmente el mismo: 1. Dar una relaci´on de equivalencia ∼ en un conjunto X. 2. Dar una partici´on de X. 3. Dar una funci´on suryectiva P : X → Y . En efecto, dada ∼, uno elige un sistema de represntantes A ⊆ X (i.e, todo x ∈ X es equivalente a un a ∈ A, pero dos elementos distintos de A no pueden ser equivalentes) y uno construye la partici´on de X que consiste en las clases de equivalencia a = {x ∈ X : x ∼ a}, para los a ∈ A. Y uno tiene el espacio cociente X/∼ = {a : a ∈ A}, y la proyecci´on Q : X → X/∼ dada por Q(x) = x, que es suryectiva. Y se tiene una funci´on al rev´es, g : X/∼ → A ⊆ X dada por g(a) = a, para cada a ∈ A. Ella cumple que Q ◦ g = IX/∼ . Si empezamos con una P : X → Y , se define que x1 ∼ x2 cuando P (x1 ) = P (x2 ), y nos queda una relaci´on de equivalencia. Adem´as existe un funci´on g : Y → X (inyectiva) tal que P ◦ g = IY . Definiendo A = g(Y ), tenemos un sistema de representantes para ∼, cuyas clases son a = P −1 ({y}), para a = g(y), y ∈ Y . As´ı que X/∼ = {P −1 ({y}) : y ∈ Y }, que se identifica naturalmente con el conjunto Y . M´odulo esa identificaci´on (o biyecci´on), recuperamos a P como la proyecci´on Q asociada a ∼. El asunto ahora es suponer que tenemos una topolog´ıa τ en X y queremos encontrar una topolog´ıa piola en el espacio cociente X/∼ . O lo que es lo mismo, dada una funci´on suryectiva P : (X, τ ) → Y , se busca topolog´ıa para Y . Esto tiene un sentido geom´etrico mucho m´as sabroso que la cosa conjuntista a secas: Podemos pensar, por ejemplo, al c´ırculo S 1 como un cociente del intevalo [0, 1] v´ıa “pegar” los bordes, identificando al 0 con el 1 y dejando a los t ∈ (0, 1) solitos. Podemos pensarlo tomando P : [0, 1] → S 1 dada por P (t) = e2π i t , donde solo pegamos P (0) = P (1) = 1 ∈ C. Y ya que estamos, seguimos: definimos ahora P : R → S 1 con la misma f´ormula, enrollando R infinitas veces para cada lado (ah´ı las clases son todas infinitas y discretas). Y as´ı siguiendo aparecen las esferas, los toros y cuanta figura a uno se le ocurra. El proceso de considerar la que llamaremos topolog´ıa cociente, ya sea en X/∼ o en Y , de acuerdo a lo que convenga, nos permitir´a 1. Por un lado, topologizar espacios cocientes nuevos, lo que agranda la familia de ET’s, pero tambi´en puede aportar al estudio del espacio X original. 2. Por otro lado, aplicar un paquete te´orico (las topolog´ıas finales) a espacios conocidos como los de los ejemplos, al realizarlos como cocientes de otros m´as simples de estudiar. Hac´ıa falta toda esta perorata, porque los espacios cociente son de lo m´as complicado e intrincado de la teor´ıa. As´ı que ahora que estamos remotivados, empezamos.
431
Definici´ on A.10.15. Sea (X, τ ) un ET, y sea g : X → Y una funci´on suryectiva. Se define la topolog´ıa cociente τg en Y como la topolog´ıa final asociada a la familia unipersonal G = {g}. Luego τg = U ⊆ Y : g −1 (U ) ∈ τ . (A.18) En otras palabras, dado U ⊆ Y , tenemos que U ∈ τg si y s´olo si g −1 (U ) ∈ τ . Observar que tambi´en se tiene que un F ⊆ Y es τg -cerrado si y s´olo si g −1 (F ) es τ -cerrado. 4 Proposici´ on A.10.16. Sea (X, τ ) un ET, y sea g : X → Y una funci´on suryectiva. Se toma en Y la topolog´ıa cociente τg . Sea (Z, σ) otro ET. Entonces una funci´on f : (Y, τg ) → (Z, σ)
es continua
⇐⇒
f ◦ g : (X, τ ) → (Z, σ)
es continua .
Demostraci´on. Esto no es otra cosa que la Prop. A.10.14 en este caso particular.
Observaci´ on A.10.17. Por el esp´ıritu con que se contruye τg , uno est´a tentado de pensar que la funci´on cociente g : (X, τ ) → (Y, τg ) (se asume g suryectiva) deber´ıa ser abierta. O cerrada. En realidad esto es suficiente pero no necesario. En efecto, una aplicaci´on cociente no siempre tiene que ser abierta y/o cerrada, como veremos en los ejemplos. Pero se tiene el siguiente resultado que explica en que sentido ser abierta o cerrada es una condici´on suficiente: 4 Proposici´ on A.10.18. Sea g : (X, τ ) → (Y, σ) una funci´on suryectiva, continua y abierta (o cerrada i.e. g manda cerrados en cerrados). Entonces uno puede asegurar que σ no es otra que la topolog´ıa cociente τg . Demostraci´on. Por ser g continua, sabemos que σ ⊆ τg , porque la topolog´ıa final es la m´axima de las que hacen continua a g. Si g fuera abierta, como cada V ∈ τg cumple que g −1 (V ) ∈ τ , se tendr´ıa que g g −1 (V ) ∈ σ. Pero el hecho de que g sea suryectiva asegura que g g −1 (V ) = V . As´ı se llega a que τg ⊆ σ, y ambas coinciden. La versi´on de g cerrada sale igual, usando la observac´on final de la Def. A.10.15. Corolario A.10.19. Sea g : (X, τ ) → (Y, σ) una funci´on suryectiva y continua. Si asumimos que X es compacto y que Y es Hausdorff, entonces σ es la topolog´ıa cociente τg . Demostraci´on. Observar que g es cerrada, porque manda compactos en compactos.
Ejemplo A.10.20. La topolog´ıa usual del c´ırculo S 1 (la que hereda de la inclusi´on S 1 ⊆ C) es la topolog´ıa cociente de la funci´on g : R → S 1 dada por g(t) = ei 2πt , t ∈ R. En efecto, es bien claro que g es suryectiva y continua. Pero adem´as g es abierta, como se puede verificar tomando intervalos abiertos U = (a, b) con b − a < 1/2, porque n b−a o a+b 1 > cos , g(U ) = S ∩ z ∈ C : z, g 2 2 donde hz, wi = Re (zw) es el producto interno pensando C = R2 . Se usa que g( a+b ) es 2 ortogonal al vector g(b) − g(a), y cortamos a S 1 con el semiplano abierto con borde en la
432
recta generada por g(a) y g(b). El n´ umero cos b−a se visualiza imaginando que a+b = 0. 2 2 Tambi´en sale tomando una rama holomorfa adecuada del logaritmo. En realidad, este ejemplo es interesante desde otro punto de vista: R y S 1 son grupos, y g es un morfismo. Por ello el n´ ucleo de g, que es Z, es un subgrupo. Y las clases de equivalencia (ahora pensamos en la ∼ dada por g, que es la congruencia m´odulo Z) son las coclases t · Z, para t ∈ [0, 1). En otras palabras, estamos diciendo que la topolog´ıa cociente en el grupo cociente R/Z , lo hace homeomorfo a S 1 . Este punto de vista da otra prueba de que g es abierta (pensada con proyecci´on al cociente): Si U ⊆ R es abierto, entonces S −1 U + n = V . Como en R las translaciones son h´omeos, queda que V es g g(U ) = n∈Z
abierto, por lo que g(U ) lo es en S 1 , para la topolog´ıa cociente.
4
Ejercicio A.10.21. Probar que la g : R → S 1 dada por g(t) = ei 2πt no es cerrada.
4
Definici´ on A.10.22. Sea g : X → Y una funci´on suryectiva y sea A ⊆ X. El g-saturado de A es el conjunto Sg (A) = g −1 g(A) . Observar queSla clase de g-equivalencia en X de un x. 4 x ∈ X, es el conjunto x = g −1 (g(x) ), y que Sg (A) = x∈A
Proposici´ on A.10.23. Sea (X, τ ) un ET, y sea g : X → Y una funci´on suryectiva. Se toma en Y la topolog´ıa cociente τg , con lo que g se torna la proyecci´on al cociente. Se tiene que 1. La funci´on g es abierta si y s´olo si Sg (U ) ∈ τ para todo U ∈ τ . 2. La funci´on g es cerrada si y s´olo si Sg (F ) es cerrado para todo F ⊆ X cerrado. Demostraci´on. Recordar que g(U ) ∈ τg si y s´olo si g −1 g(U ) = Sg (U ) ∈ τ . Con los cerrados es igual. Observaci´ on A.10.24. Sigamos con las notaciones del Ejem. A.10.20. Se ten´ıa la funci´on g : R → S 1 dada por g(t) = ei 2πt , t ∈ R. Consideremos ahora la funci´on (suryectiva) g1 = g [0,1] : [0, 1] → S 1 , tomando en S 1 la topolog´ıa cociente asociada. En este caso g1 no es abierta, porque [0, 1/2) es abierto en [0, 1], pero g1 ([0, 1/2) ) no es abierto en S1 . En efecto, Sg1 ([0, 1/2) ) = g1−1 (g1 ([0, 1/2) ) ) = [0, 1/2) ∪ {1} , que no es abierto en [0, 1]. Sin embargo, en este caso la topolog´ıa cociente de S1 asociada a g1 tambi´en coincide con su topolog´ıa usual. Esto sale porque [0, 1] es compacto, y se puede aplicar el Cor. A.10.19. Desde este punto de vista, podemos ver de nuevo porqu´e g1 ([0, 1/2) ) no es abierto en S1 . Basta dibujarlo. 4
A.11
Espacios m´ etricos completos
Proposici´ on A.11.1. Sea (X, d) un EM y sea x = (xn )n∈ N una sucesi´on de Cauchy en X y sea x ∈ X un punto. Supongamos que se verifica alguna de las siguientes condiciones:
433
1. Existe una subsucesi´on (xnk )k∈ N de x tal que xnk −−−→ x . k→∞
2. El tal x es un punto de acumulaci´on de la sucesi´ on (xn )n∈ N . 3. Nuestro x es punto de acumulaci´on del conjunto A = C1 (x) = {xn : n ∈ N}. Cualquiera de esas tres cosas implica que xn −−−→ x. n→∞
Demostraci´on. Es claro 1 ⇐⇒ 2. Supongamos que vale 1, tomemos un ε > 0 y un n0 ∈ N tal que si n ≥ n0 y m ≥ n0 , entonces d(xn , xm ) < 2ε . Dada la subsucesi´on xnk −−−→ x, tomemos un k0 ∈ N tal que d(xnk , x) < k→∞
ε 2
siempre que
k ≥ k0 (o lo que es lo mismo, que nk ≥ nk0 ). Fijemos un k ∈ N tal que nk ≥ m´ax{nk0 , n0 }. Por fin, si ahora tomamos un n ≥ n0 , tenemos que d(xn , x) ≤ d(xn , xnk ) + d(xnk , x) <
ε ε + =ε 2 2
=⇒
xn −−−→ x . n→∞
Por otro lado, dado ε > 0, si un n0 es suficientemente grande, el hecho de que x ∈ A0 permite E suponer que xn0 ∈ A ∩ B(x , 2ε ), y la Cauchycidad que x ,→ B(xn0 , 2ε ) ⊆ B(x , ε). Definici´ on A.11.2. Sea (X, d) un EM. Diremos que X es competo si toda sucesi´on de Cauchy en X es convergente. 4 Proposici´ on A.11.3. Sea (X, d) un EM. Las siguientes condiciones son equivalentes: 1. X es completo. 2. Dada una familia {Fn }n∈N de subconjuntos cerrados de X tales que (a) Para todo n ∈ N, se tiene que Fn+1 ⊆ Fn 6= ∅ . (b) La sucesi´on diam (Fn ) −−−→ 0. n→∞
se debe cumplir que
T
Fn 6= ∅.
n∈N
Demostraci´on. Si X es completo y tenemos la sucesi´on {Fn }n∈N como en el ´ıtem 2, elijamos un xn ∈ Fn para cada n ∈ N. Las condiciones (a) y (b) aseguran que x = (xn )n∈ N es de E
Cauchy (dado ε > 0, basta tomar n0 ∈ N tal que diam (Fn0 ) < ε). Observar que x ,→ Fn para todo n ∈ N (por (a) ). Si xn −−−→ x, el hecho de los Fn sean todos cerrados termina n→∞ T de mostrar que x ∈ Fn 6= ∅. n∈N
Supongamos ahora que se cumple la condici´on 2, e imaginemos que una sucesi´on de Cauchy y = (yn )n∈ N en X no tiene l´ımite. Definamos Fn = Cn (y) = {ym : m ≥ n}. El hecho de que y sea de Cauchy dice exactamente que diam (Fn ) −−−→ 0. Y los Fn est´an encajados por n→∞
definici´on. Como todas las colas yn = (ym )m≥n son tambi´en sucesiones de Cauchy, y est´an tan carentes de l´ımite como y, la Prop. A.11.1 nos dice que Fn0 = ∅ para todo n ∈ N. As´ı 434
llegamos a que cada Fn = Fn ∪ Fn0 = Fn , por T lo que son todos cerrados. Y de que sean vac´ıos ni hablar. Podemos tomar entonces el x ∈ Fn . Para cada n ∈ N se tiene que tanto xn n∈N
como x est´an en Fn . Luego d(xn , x) ≤ diam (Fn ) −−−→ 0 . Ya fu´e.
n→∞
Ejercicio A.11.4. Sea (X, d) un EM. Entonces se tiene que 1. Existe un EM completo X c y una isometr´ıa f : X → X c tal que f (X) es denso en X c . 2. M´as a´ un, si me dan otro par (g, Y ) que cumpla lo mismo (Y es completo y g manda isom´etricamente a X a un denso de Y ), enotnces existe una isometr´ıa sobre (o sea un h´omeo isom´etrico)
Φ : Xc → Y
tal que
Φ◦f =g .
Esto se reinterpreta como que Φ es “la identidad” en X, si preferimos pensar que las completaciones X c e Y son conjuntos que contienen a X y que f y g son las inclusiones de X en ellos. Sugerimos construir X c como el conjunto de sucesiones de Cauchy en X, dividido por la relaci´on de equivalencia “ir hacia el mismo lado” (o sea que d(xn , yn ) −−−→ 0). El espacio n→∞ X “entra” en X c como las clases de las sucesiones contantes. 4
A.12
Compactos
Sea (X, τ ) un ET y sea K ⊆ X un subconjunto. Recordemos que llamamos cubrimiento por abiertos de K a una familia [ σ ⊆ τ tal que K ⊆ σ. Un subcubrimiento de σ es un ρ ⊆ σ que sigue cubriendo a K. A veces conviene escribirlos en t´erminos de ´ındices: El cubrimiemto σ se presentar´a como una familia [ {Uα }α∈ A tal que Uα ∈ τ para todo α ∈ A y adem´as K ⊆ Uα . α∈ A
Y un subcubrimiento estar´a dado por un F ⊆ A tal que siga pasando que K ⊆
S
Uα .
α∈ F
La versi´on dual de los cubrimientos se describe con intersecciones de cerrados: Dada una familia F = {Fα }α∈ A de subconjuntos cerrados de X, se dice que T F tiene la PIF para K si K ∩ Fα 6= ∅ para todo subconjunto finito F ⊆ A . α∈ F
Las letras PIF aluden a la propiedad de la intersecci´on finita. Si K = X, se dice que F tiene la PIF a secas. Comenzaremos con la definici´on tradicional de compactos (onda Heine-Borel):
435
Definici´ on A.12.1. Sea (X, τ ) un ET. Un subconjunto K ⊆ X es compacto (en X) si todo cubrimiento por abiertos de K tiene un subcubrimiento finito. En particular, diremos que X es compacto si pasa lo anterior para los cubrimientos de todo el espacio X. 4 Observaci´ on A.12.2. Hace falta aclarar algo de esta Definici´on. Que el tal K ⊆ X sea compacto (en X), como se defini´o arriba, equivale a que el espacio entero (K, τK ), donde τK es la inducida por τ a K, sea compacto (en s´ı mismo). Esto es as´ı porque los cubrimientos abiertos de K solito se levantan a cubrimietos abiertos de K dentro de X, y vice versa. En adelante omitiremos las aclaraciones del tipo “(en X)”, salvo necesidad imperiosa. 4 Teorema A.12.3. Sea (X, τ ) un ET y tomemos un subconjunto K ⊆ X . Luego las siguientes propiedades son equivalentes: 1. K es compacto. 2. Toda familia de cerrados F = {Fα }α∈ A con la PIF para K cumple que K ∩
T
Fα 6= ∅.
α∈ A
3. Toda red en K tiene un punto de acumulaci´on en K. 4. Toda red en K tiene una subred que converge a un punto de K. Demostraci´on. Ver en el Apunte de topolog´ıa.
Observaci´ on A.12.4. Sea X un conjunto infinito y consideremos en X la topolog´ıa cofinita τCF (X). Entonces todo K ⊆ X es compacto, porque lo que le falte cubrir al “primer” abierto de cualquier cubrimiento, es un conjunto finito. Y esto se va cubriendo de a un abierto por elemento. As´ı vemos que hay compactos que no son Hausdorff. Algunos autores incluyen la condici´on de ser Hausdorff para la compacidad (como uno pide T1 para regularidad y normalidad). Sin embargo, hay ejemplos importantes (sobre todo en geometr´ıa algebr´aica) de espacios compactos no Hausdorff, por lo que haremos la teor´ıa en el caso general, agregando la H cuando haga falta. Observar que, si bien la convergencia de redes caracteriza la compacidad, en el caso no Hausdorff hay l´ımites multiples, por lo que convendr´a tener cuidado al usar t´ecnicas de redes. Por ejemplo, en un sentido gen´erico, las condiciones relativas a redes del Teo. A.12.3 hacen pensar que si un subconjunto K ⊆ X es compacto, deber´ıa ser cerrado. O que un K que sea cerrado dentro de un espacio compacto X debe ser tambi´en compacto (en ambos casos, porque los l´ımites se quedan dentro de K). Veremos que la segunda presunci´on es cierta siempre, pero la primera s´olo cuando el espacio ambiente X es Hausdorff (pensar en el ejemplo mencionado al principio). 4 Proposici´ on A.12.5. Sea (K, τ ) un ET compacto, y sea F ⊆ K un subconjunto cerrado. Entonces F es compacto. Demostraci´on. Toda red x en F tiene una subred que converge a alg´ un x ∈ K. Pero como F es cerrado, el l´ımite x ∈ F . Por el Teo. A.12.3, F es tambi´en compacto. Proposici´ on A.12.6. Sea (X, τ ) un ET de Hausdorff. Entonces todo subconjunto compacto K ⊆ X es cerrado en X. 436
Demostraci´on. Sea y ∈ K, y tomemos una red y = (yi )i∈ I en K tal que yi −−→ y. Por el i∈ I
Teo. A.12.3, y tiene una subred z que converge a un z ∈ K. Sin embargo, por ser subred de y, la red z tambi´en converge a y. Como X es Hausdorff, por lo que los l´ımites son u ´ nicos, tenemos que y = z ∈ K. Esto muestra que K es cerrado. Ahora veremos que en un espacio de Hausdorff, la propiedad de separar puntos se extiende a separar subconjuntos compactos: Proposici´ on A.12.7. Sea (X, τ ) un ET de Hausdorff. Dados K1 , K2 ⊆ X compactos y disjuntos, existen abiertos U, V ∈ τ tales que K1 ⊆ U ,
K2 ⊆ V
y
U ∩V =∅ .
(A.19)
Demostraci´on. Fijemos un x ∈ K1 . Como X es Hausdorff, para cada y ∈ K2 existen abiertos disjuntos Ay , By ∈ τ tales que y ∈ By y x ∈ Ay . La familia {By }y∈K2 es un cubrimiento de K2 , del que podemos extraer finitos By1 , . . . , Byn que siguen cubriendo a K2 . Sean Ux =
n \
Ayk
y
n [
Vx =
k=1
Byk .
k=1
Es claro que son abiertos, que x ∈ Ux y que K ⊆ Vx . Como Ux ∩ Byk ⊆ Ayk ∩ Byk = ∅ para n S todo k ∈ In , podemos deducir que Ux ∩ Vx = Ux ∩ Byk = ∅. k=1
Hagamos este laburo en todos los x ∈ K1 . Obtenemos una familia {Ux }x∈K1 que es un cubrimiento de K1 . Extraigamos finitos Ux1 , . . . , Uxm que siguan cubriendo a K1 . Sean U=
m [
Uxk
y
V =
m \
Vxk .
k=1
k=1
Es claro que son abiertos, que K1 ⊆ U y que K2 ⊆ V . Como antes, podemos ver que U ∩ V = ∅, lo que termina de probar la f´ormula (A.19). Corolario A.12.8. Sea (K, τ ) un ET compacto Hausdorff. Entonces K es normal. Demostraci´on. Sean F1 y F2 dos cerrados disjuntos en K. Como K es compacto, la Prop. A.12.5 asegura que F1 y F2 son compactos. Como K es Hausdorff, la Prop. A.12.7 nos provee de los abiertos disjuntos que los separan. Proposici´ on A.12.9. Sea f : (X, τ ) → (Y, σ) una funci´on continua y sea K ⊆ X un subconjunto compacto. Entonces se tiene que f (K) es compacto en Y . Demostraci´on. Notemos Z = f (K). Sea z = (zi )i∈ I una red en Z. Para cada i ∈ I, elijamos un xi ∈ f −1 ({zi }) ∩ K. La red x = (xi )i∈ I , como vive en el compacto K, tiene una subred y = (yj )j∈ J tal que yj −−→ y ∈ K. Pero como f es continua, la red f (yj ) −−→ f (y) ∈ Z. j∈ J
j∈ J
Observar que, si h : J → I es la funci´on cofinal creciente que define a la subred y, entonces f (yj ) = f (xh(j) ) = zh(j) para todo j ∈ J. Luego la red f ◦ y es subred de z (con la misma funci´on h), y adem´as es convergente a alguien de Z. 437
Proposici´ on A.12.10. Sea f ∈ C(K, X) inyectiva, con K compacto y X Hausdorff. Entonces f : K ,→ X es un embbeding, o sea que f : K → f (K) es un h´omeo. Demostraci´on. Llamemos Z = f (K). Es claro que f : K → Z es biyectiva y continua. Veamos que es abierta: Sea F ⊆ K un cerrado. Por la Prop. A.12.5, F es compacto. Por la Prop. A.12.9, f (F ) es compacto en X. Al ser X un Hausdorff, la Prop. A.12.6 dice que f (F ) es cerrado en X, y por lo tanto tambi´en cerrado en Z. En resumen, f : K → Z manda cerrados en cerrados. Como es biyectiva, tambi´en manda abiertos en abiertos. Por lo tanto f : K → Z es h´omeo. Observaci´ on A.12.11. Sea (K, τ ) un ET compacto Hausdorff (en adelante abreviaremos escribiendo K-H). Luego la topolog´ıa τ es r´ıgida, en el siguiente sentido: Si uno la agranda, K es m´as Hausdorff, pero no es m´as compacto. Y si uno la achica, K es m´as compacto, pero deja de ser Hausdorff. Esto es consecuencia de la Prop. A.12.10. En efecto si σ ⊇ τ , entonces IK ∈ C (K, σ), (K, τ ) . Si (K, σ) fuera compacto, como (K, τ ) es Hausdorff, IK quedar´ıa h´omeo. Y entonces σ = τ . Por otro lado, si σ ⊆ τ , entonces IK ∈ C (K, τ ), (K, σ) . Si (K, σ) siguiera siendo Hausdorff, como (K, τ ) es compacto, IK tambi´en quedar´ıa h´omeo. Y entonces τ = σ. 4 Ejercicio A.12.12. Sea f : X → Y , donde X e Y son dos ET’s. Probar que f ∈ C(X, Y ) =⇒ Grf = { (x, f (x) ) : x ∈ X } ⊆ X × Y es cerrado en X × Y . Probar que la rec´ıproca es cierta si Y es compacto (usar la Prop. A.7.5).
4
El siguiente resultado es bastante esperable, y su prueba nos va a quedar cortita, porque el laburo grosso lo fuimos haciendo antes. Pero es uno de los teoremas m´as importantes de la teor´ıa, en funci´on de sus innumerables aplicaciones dentro y fuera de la topolog´ıa. Teorema A.12.13 (Tychonoff). Sea (Xα , τα ) una familia de ET’s compactos. Enα∈ A Q tonces el producto P = Xα , con la topolog´ıa producto, es compacto. O sea que α∈ A
“producto de compactos es compacto”, aunque sean “muchos” . Demostraci´on. Ver el Apunte de topolog´ıa.
Sugerimos hacer como ejercicio una prueba a mano del teorema anterior, pero asumiendo que A es finito. Inductivamente se reduce al caso de P = X × Y , con X e Y compactos. Usando redes comunes, eso sale iterando la toma de subredes. Con cubrimientos tambien sale, pero es m´as largo, aunque muy gr´afico y divertido (ver en el libro de Munkres [10]). Sin embargo ambos m´etodos colapsan en el caso infinito, donde las RU’s dan la prueba m´as directa posible.
438
A.13
Compactos en EM’s
Hay varias caracterizaciones y propiedades asociadas a la compacidad que son espec´ıficas de los EM’s, y algunas m´as para subespacios de Rn . Sea (X, d) un EM. Si uno toma un compacto K ⊆ X y fija un ε > 0, se puede cubrir a K con bolas de radio ε, y luego quedarse con finitas. Esta propiedad ser´a casi suficiente para la compacidad, as´ı que le ponemos nombre: Definici´ on A.13.1. Sea (X, d) un EM. Diremos que A ⊆ X es totalmente S acotado (TA) si, para todo ε > 0, existen n(ε) ∈ N y x1 , . . . , xn(ε) ∈ X tales que A ⊆ B(xk , ε). 4 k∈In(ε)
Las caracterizaciones de compacidad v´ıa redes pueden cambiarse, en el contexto de EM’s, a sucesiones y subsucesiones. Tambi´en se pueden usar los puntos de acumulaci´on (se abrevia PA) de conjuntos. Antes de ir a los bofes, repasemos algunas de sus propiedades, particularmente en el contexto m´etrico: A.13.2. Sea (X, d) un EM y sea A ⊆ X. Un x ∈ X era un PA de A si para todo ε > 0 existe un y 6= x tal que y ∈ B(x, ε) ∩ A . Se llama A0 al conjunto de los PA’s de A. Veamos alguna variaciones y casos particulares: 1. x ∈ A0 ⇐⇒ B(x, ε) ∩ A es infinito para todo ε > 0. 2. Si A cumple que existe un δ > 0 tal que d(x, y) ≥ δ para todo par x 6= y en A, entonces debe suceder que A0 = ∅. 3. En cambio, si (xn )n∈ N es una sucesi´on de Cauchy en X, y llamamos A = {xn : n ∈ N} , entonces x ∈ A0 =⇒ xn −−−→ x . n→∞
Las pruebas son elementales: Lo primero se deduce del Ejer. A.4.12 (esto vale en ET’s de clase T1 ). Lo segundo sale porque en una bola B(x, δ/2) s´olo puede haber un elemento de A. Por el di´ametro. Lo u ´ltimo fu´e probado en la Prop. A.11.1. 4 Teorema A.13.3. Sea (X, d) un EM y sea K ⊆ X. Son equivalentes: 1. K es compacto. 2. Toda sucesi´on en K tiene una subsucesi´on convergente, con su l´ımite en K. 3. Todo A ⊆ K infinito tiene un PA en K (o sea que A0 ∩ K 6= ∅). 4. K es totalmente acotado y el EM (K, d) es completo. Demostraci´on. Ver el Apunte de topolog´ıa.
Corolario A.13.4. Sea (X, d) un EM completo y sea A ⊆ X. Entonces 439
A es compacto
⇐⇒
A es TA .
En particular, si A es TA, toda red en A tiene una subred convergente (a alguien de A). Demostraci´on. Observar que, por ser X completo, sus subconjuntos son completos si y s´olo si son cerrados (el l´ımite de las Cauchy existe, el tema es d´onde est´a). El segundo ingrediente es que A es TA ⇐⇒ A es TA. Esto es f´acil y se deja como ejercicio (recordar que B ∪ C = B ∪ C, y quien dice dos...).
A.14
Compactificaci´ on de Alexandrov: Un punto
Definici´ on A.14.1. Sea (X, τ ) un ET. Una compactificaci´ on de X es un par (g, K) tal que 1. (K, σ) es un ET compacto. 2. g : X ,→ K es un embbeding (i.e. g es continua, inyectiva y h´omeo con la imagen). 3. g(X) queda denso en K. Diremos que (g, K) es una H-compactificaci´on si K es, adem´as, un espacio de Hausdorff. Muchas veces, en presencia de una compactificaci´on (g, K), identificaremos a X con su imagen g(X), que est´a dentro de K y tiene la topolog´ıa inducida por K. Desde ese punto de vista, una compactificaci´on de un (Y, τ 0 ) ser´ıa un compacto (K, σ) que contenga a Y como un subespacio denso, y tal que τ 0 sea la inducida a Y por σ. 4 Observaci´ on A.14.2. Por la Prop. A.12.5 (un cerrado en un compacto es compacto), si uno tiene su espacio X incrustado dentro de un compacto K 0 , v´ıa un embbeding g : X ,→ K 0 , entonces tomando K = g(X) ⊆ K 0 uno obtiene una compactificaci´on (g, K). Como veremos m´as adelante, todo ET tiene compactificaciones. El tema se pone m´as interesante si uno quiere ver si tiene alguna H-compactificaci´on. Sin embargo ese problema ya lo tenemos resuelto de antes: 4 Ahora veremos el m´etodos para construir compactificacionesm´as simple posible: agregar un punto. Se llama la compactificaci´on de Alexandrov. Lo u ´nico que hay que pedirle a X para que el proceso camine es que ´el mismo no sea compacto. Ahora, el tema de cu´ando esta compactificaci´on queda Hausdorff es otra historia (y otro Cap´ıtulo). Proposici´ on A.14.3. Sea (X, τ ) un ET que no es compacto. Inventemos un punto ∞ al ˜ = X ∪ {∞} y τ∞ ⊆ P(X) ˜ dada por que s´olo le pedimos que ∞ ∈ / X. Sean X τ∞ = τ ∪ τ 0 ,
donde
τ 0 = { V ∪ {∞} : V ∈ τ y X \ V es compacto en X } .
˜ tal que Luego τ∞ es una topolog´ıa en X ˜ τ∞ ) es compacto. 1. (X, 440
2. τ es la topolog´ıa inducida a X por τ∞ . ˜ 3. X queda denso y abierto en X. ˜ es una compactificaci´on de X. O sea que la inclusi´on X ⊆ X ˜ ∈ τ 0 (porque ∅ es compacto!). Observar que Demostraci´on. Es claro que ∅ ∈ τ y X ˜ : ∞∈V0 y X ˜ \ V 0 es cerrado y compacto en X } . τ 0 = { V 0 ∈ P(X)
(A.20)
Veamos las uniones arbitrarias y las intersecciones finitas: Entre cosas de τ no hay drama. ˜ \ V 0 , para i ∈ I, entonces Dada una familia de abiertos Vi0 ∈ τ 0 y sus complementos Fi = X i \ [ [ \ ˜ \ ˜ \ X Vi0 = Fi y X Vi0 = Fi . i∈I
Cuando I es finito, la
S
i∈I
i∈I
i∈I
Fi queda cerrada y compacta. Y la intersecci´on cumple eso siempre.
i∈I 0
Luego operando en τ uno se queda en τ 0 . Si hay de las dos clases (tanto en ∩ como en ∪ ), uno primero reagrupa todas las de cada clase, y opera uno contra uno. Pero all´ı pasa que si U ∈ τ y V 0 = {∞} ∪ V ∈ τ 0 =⇒ U ∩ V 0 = U ∩ V ∈ τ y U ∪ V 0 = {∞} ∪ (U ∪ V ) ∈ τ 0 . ˜ Para ver que la inducida de τ∞ a X es τ , observar Por lo tanto τ∞ es una topolog´ıa en X. 0 0 0 que si V ∈ τ , entonces V ∩ X ∈ τ (y los de τ estaban todos en τ∞ ). Para ver la densidad, observar que τ 0 no es otra cosa que Oτa∞ (∞). Adem´as, como X no es compacto, entonces ˜ {∞} ∈ / τ 0 . Luego todo V 0 ∈ Oτa∞ (∞) corta a X, lo que muestra que X es denso en X. ˜ τ∞ ) es compacto: Como τ 0 = Oa (∞), si σ ⊆ τ∞ es un cubrimiento Veamos ahora que (X, τ∞ ˜ existe un V 0 ∈ σ ∩ τ 0 (para cubrir al ∞). S´olo falta cubrir X ˜ \ V 0 , que es compacto de X, ˜ Y sabemos que σ \ {V 0 } lo cubre. Entonces agregando finitos elementos de (en X y en X). 0 ˜ que por ello es compacto. σ a V cubrimos todo X, Por ahora no vamos a hacer nada con esta compactaci´on que hemos construido. El resultado ˜ es Hausdorff, y los espacios X que cumplen eso son los llamados se hace muy u ´til cuando X ˜ pero ese “localmente compactos” (Hausdorff). Para ellos usaremos sistematicamente su X, laburo se har´a en el Cap´ıtulo que viene (que es sobre esos espacios). Pero ahora daremos unos ejemplos para entender un poco mejor la construcci´on. ˜ ∼ Ejemplos A.14.4. 1. Tomemos X = R con su topolog´ıa usual. Entonces R = S 1. Esto se puede mostrar con la proyecci´on estereogr´afica o, mejor dicho, su inversa que 2 −1 ) ∈ S 1 , para x ∈ R. Otra manera es hacer podemos explicitar: g(x) = ( x22x+1 , xx2 +1 primero R ∼ = (0, 1) y despu´es incrustar al (0, 1) dentro de S 1 con la flecha t 7→ ei2πt . en ∼ 2. En forma an´aloga se puede ver que R = S n , que es la esfera de Rn+1 .
441
3. Sea ahora X = N con la topolog´ıa discreta. Observar que los u ´nicos compactos de N son los finitos. Por lo tanto tendremos que τ = P(N) mientras que τ 0 = τCF (N), nuestra conocida topolog´ıa cofinita (agreg´andoles el ∞). Con esto en mente, se puede ˜ ∼ ver que N = { n1 : n ∈ N} ∪ {0}, con la topolog´ıa inducida de R. Lo lindo de este 1 ejemplo es que el h´omeo que uno escribe justifica la pol´emica f´ormula = 0. ∞ ˜ es un “ocho”, o el mism´ısimo ∞. Y si 4. Si tomamos X = (0, 1) ∪ (2, 3), queda que X ponemos 3 o 4 intervalos abiertos disjuntos nos queda un tr´ebol. 5. Los ejemplos anteriores justifican que se llame ∞ al punto que se agrega al hacer Alexandrov. Sin embargo no siempre queda tan clarito “para d´onde” est´a el infinito. La cosa se pone m´as brava si tomamos X = Q. Intuitivamente, en Q tenemos al infinito por todos lados, porque est´a lleno de redes sin l´ımites en Q, y no solo hacia los ˜ porque los compactos dos costados. Lamentablemente no es f´acil dar un modelo de Q, de Q, adem´as de los finitos, incluyen sucesiones convergentes junto con sus l´ımites, y la cosa se complica bastante. De paso un ejercicio: Mostrar que, a diferencia de los ˜ no es ni Hausdorff. ˜ quedaba metrizable), Q ejempos anteriores (donde X 4
A.15
Espacios localmente compactos
A.15.1. Hicimos muchas compactificaciones, y sabemos que “alguna” de ellas es una Hcompactificaci´on si y s´olo si el espacio base es de Tychonoff. Pero concentr´emonos en la de ˜ es Hausdorff? Alexandrov y preguntemos ¿para qu´e espacios X tendremos que X Con las notaciones de la Prop. A.14.3, vemos que si queremos separar un x ∈ X del ∞, tendremos por un lado un V 0 ∈ τ 0 y necestaremos un U ∈ Oa (x) contenido en K = X \ V 0 , que es compacto. O sea que hay un compacto K ∈ O(x). Ya vimos que los ET’s que cumplen esa condici´on son importantes por muchas otras razones, y ahora los definimos: 4 Definici´ on A.15.2. Sea (X, τ ) un ET. Diremos que X es localmente compacto (y abreviaremos LK) si todo x ∈ X tiene alg´ un entorno compacto. 4 Observaci´ on A.15.3. Si X es LK, y adem´as le pedimos que sea Hausdorff, entonces todo x ∈ X tiene un U ∈ Oa (x) tal que U es compacto. En efecto, basta poner el U dentro de un entorno compacto K de x. Como X es Hausdorff, K debe ser cerrado, por lo que tambi´en U ⊆ K. Si no pedimos que X sea Hausdorff, no hay garant´ıa de lo anterior. A partir de ahora usaremos las siglas LKH para denotar localmente compacto + Hausdorff. 4 Proposici´ on A.15.4. Sea (X, τ ) un ET. Entonces ˜ = X ∪ {∞} es Hausdorff si y s´olo si X es LKH. la compactificaci´on X Demostraci´on. Usaremos las notaciones τ∞ = τ ∪ τ 0 de la Prop. A.14.3. Una implicaci´on (⇒) se vi´o en A.15.1 (la H se agrega porque es hereditaria). Si X es LKH, la H asegura que los puntos de X se separan usando τ ⊆ τ∞ . Para separar a un x ∈ X del ∞, se toman un compacto K ∈ Oτ (x) , un U ∈ Oτa (x) tal que U ⊆ K , y V 0 = {∞} ∪ V , 442
donde V = X \ K. Como X es Hausdorff, K es cerrado, por lo que V ∈ τ y V 0 ∈ τ 0 .
Ejemplo A.15.5. Todo subconjunto cerrado o abierto de alg´ un Rn , incluso todo ET que “localmente” es h´omeo uno de esos (esto incluye a las variedades de la geometr´ıa diferencial) es autom´aticamente LKH. A´ un as´ı, esta clase es muy restrictiva (al asunci´on de ser LKH es costosa), pero vale la pena estudiarla porque los LKH son los espacios m´as usados en an´alisis y geometr´ıa. Veremos adem´as que tienen propiedades fuertes que justifican ese inter´es. Observemos que, al contrario de lo que uno puede pensar por exceso de Rn , existen EM’s completos que no son LK. Y muchos. Veremos bastantes de ellos en el Cap´ıtulo de EVT’s, pero mostremos ahora uno concretito. Sea `∞ (N) el espacio de sucesiones acotadas de n´ umeros complejos con la m´etrica del supremo: Dados a = (an )n∈ N , b = (bn )n∈ N ∈ `∞ (N), d∞ (a , b) = ka − bk∞ = sup |an − bn | . n∈N
Es f´acil ver que d∞ es un m´etrica en `∞ (N) (de hecho, `∞ (N) = Cb (N, C) y a d∞ ya la conoc´ıamos). Para cada n ∈ N consideremos el punto en ∈ `∞ (N) que tiene un 1 en el lugar n y todos los dem´as ceros. Todos los en viven en la bola cerrada de centro 0 y radio uno, pero d∞ (en , em ) = 1 siempre que n 6= m. Por ello dicha bola no es compacta. Transladando y achicando con m´ ultimplos, uno deduce en seguida que ninguna bola cerrada alrededor de ning´ un punto de `∞ (N) puede ser compacta. Como las bolas abiertas son una base de la topolog´ıa de esta m´etrica, queda que `∞ (N) no es LK. 4 Observaci´ on A.15.6. Sea (X, τ ) un ET que es LK. No es cierto en general que sus subconjuntos deban ser LK (LK no es hereditaria). Por ejemplo R es LKH, pero Q no puede ser LKH, ya que ning´ un (a, b) ∩ Q tiene clausura compacta en Q (salvo que b ≤ a). 4
A.16
ˇ Stone Cech
Ahora vamos a mostrar otro m´etodo de compactificar, que es todo lo contrario del anterior, porque es fabricar un compacto lo m´as grande posible, agregandole al ET original montones de puntos nuevos. Lo que queda es dif´ıcil de describir expl´ıcitamente, pero lo bueno es que existe, y que permite extender cualquier funci´on continua y acotada al compactado. Eso requiere de mucho puntos nuevos, por las muchas maneras en que pueden comportarse esas funciones en los bordes del espacio. Por ejemplo, si empezamos con R, vimos que su compactificaci´on de Alexandrov es S 1 . Las funciones f ∈ Cb (R, R) que se pueden extender al ∞ = (0, 1) ∈ S 1 son solo aquellas tales que existen M = l´ım f (t) y m = l´ım f (t), y adem´as cumplen que m = M = f (∞). Y t→ +∞
t→ −∞
nadie duda de que hay muchas m´as funciones acotadas que esas. A.16.1. Sea (X, τ ) un ET de Tychonoff. Llamemos F = Cb (X), y consideremos el hiperdisco Y DX = Df , donde cada Df = {z ∈ C : |z| ≤ kf k∞ } . f ∈F
443
Por el Teorema de Tychonoff y la Prop. A.12.8, DX es un compacto Hausdorff. El hecho de que X sea CR significa que C(X, [0, 1]), y a fortiori Cb (X), separan a X. Luego F : X ,→ DX ,
dada por
F (x) = {f (x)}f ∈F , x ∈ X
es un embbeding. Llamemos β(X) = F (X). Por la Obs. A.14.2, el par (F, β(X) ) es una ˇ H-compactificaci´on de X, que se llama la compactificaci´ on de Stone Cech. 4 Teorema A.16.2. Sea (X, τ ) un ET de Tychonoff. Consideremos (F, β(X) ) su compactiˇ ficaci´on de Stone Cech. Entonces 1. Para toda g ∈ Cb (X) existe una unica g˜ ∈ C(β(X) ) que extiende a g, en el sentido de que g˜ ◦ F = g. 2. Para toda H-compactificaci´on (h, K) de X existe una ΦK ∈ C(β(X), K) tal que (a) La funci´on ΦK es continua y suryectiva. (b) ΦK es “la identidad” en X, o sea que h = ΦK ◦ F . 3. Si una H-compactificaci´on (h, K) de X tiene la misma propiedad que β(X) enunciada en el ´ıtem 1, entonces la funci´on ΦK del ´ıtem 2 es un h´omeo. Demostraci´on. 1. Fijada la g ∈ Cb (X), consideremos la proyecci´on Πg : DX → Ig ⊆ R a la g-´esima cordenanda. Es claro que Πg es continua, por lo que tambi´en lo ser´a g˜ = πg β(X) . Por otra parte, para todo x ∈ X se tiene que g˜ ◦ F (x) = Πg ◦ F (x) = Πg {f (x)}f ∈F = g(x) . La unicidad de g˜ se deduce del hecho de que F (X) es denso en β(X). 2. Como K es un compacto Hausdorff, es normal, por ende CR, y por ello G : K ,→ [0, 1]C(K,[0,1]) ,
dada por
G(k) = {f (k)}f ∈C(K,[0,1]) , k ∈ K
es un embbeding. Sea m ∈ C(G(K), K) la inversa del h´omeo G : K → G(K). Si existiera la ΦK que buscamos, tomando Ψ = G ◦ ΦK : β(X) → G(K), deber´ıa pasar que Ψ ◦ F = G ◦ (ΦK ◦ F ) = G ◦ h. Luego, mirando en cada cordenada f ∈ C(K, [0, 1]), deber´ıamos tener que πf (Ψ ◦ F ) = πf (G ◦ h) = f ◦ h ∈ C(X, [0, 1]) ⊆ Cb (X). Por lo tanto, las cordenadas de Ψ deber´ıan ser funciones g˜f ∈ C(β(X) ) que cumplan la igualdad g˜f ◦ F = f ◦ h. Afortunadamente, el item 1 nos provee de dichas funciones, as´ı que empecemos por ellas, y construyamos Ψ desde abajo: Para cada f ∈ C(K, [0, 1]), consideremos gf = f ◦ h ∈ Cb (X). Por el item 1, existe una g˜f ∈ C(β(X) ) tal que g˜f ◦ F = gf . Como cada g˜f es continua, tambi´en lo ser´a Ψ : β(X) → [0, 1]C(K,[0,1]) ,
dada por 444
Ψ(y) = {˜ gf (y)}f ∈C(K,[0,1]) , y ∈ β(X) .
Observar que las g˜f toman valores en [0, 1] por que las gf = f ◦ h lo hacen, y porque F (X) es denso en β(X) (recordar que g˜f ◦ F = gf ). Adem´as, para cada x ∈ X, Ψ(F (x) ) = {gf (x)}f ∈C(K,[0,1]) = {f (h(x) )}f ∈C(K,[0,1]) = G(h(x) ) .
(A.21) O sea que Ψ ◦ F = G ◦ h. Por la densidad de F (X) en β(X), se tiene que Ψ β(X) es un compacto que coincide con la clausura de G(h(X) ), que no es otra cosa que G(K). O sea que Ψ β(X) = G(K). Tomemos finalmente ΦK = m ◦ Ψ ∈ C(β(X), K). Por todo lo anterior ya tenemos probado que la funci´on ΦK es continua y suryectiva. Pero por la Ec. (A.21) vemos que ΦK ◦ F = m ◦ Ψ ◦ F = m ◦ G ◦ h = h . 3. En caso de que (h, K) cumpliese 1, podr´ıamos rehacer el ´ıtem 2, pero con los papeles cambiados. Esto es porque s´olo se us´o de β(X) el que tenga extensiones de las funciones continuas acotadas en X. Ese laburo producir´ıa una Φβ(X) ∈ C(K , β(X) ) tal que Φβ(X) ◦ h = F . Pero estas condiciones funtoriales (la otra es ΦK ◦ F = h) permiten porbar que ambas composiciones de las Φ’es coinciden con la identidad en los densos F (X) y h(X). Luego son una la inversa de la otra y son h´omeos. ˇ Observaci´ on A.16.3. Hay varias maneras de hacer la compactificaci´on de Stone Cech. Ya vimos una en el Ejer. 6.2.10. A continuaci´on delinearemos otra, que es an´aloga a la completaci´on de EM’s a partir de sus sucesiones de Cauchy (ver Ejer. A.11.4), pero usando las RU’s de X. Asumamos que X es un ET de Tychonov, y llamemos RU (X) al conjunto de todas sus redes universales. Dada una x = (xi )i∈ I ∈ RU (X) y una f ∈ Cb (X), la red f ◦ x es acotada y universal en C, por lo que converge a un xf ∈ C. Consideremos las funciones ϕf : RU (X) → C
dadas por
ϕf (x) = l´ım f (xi ) = xf , i∈ I
para
x ∈ RU (X) .
En RU (X) se define la relaci´on de equivalencia dada por x∼y
si
ϕf (x) = xf = yf = ϕf (y)
para toda
f ∈ Cb (X) .
(A.22)
El conjunto que buscamos ser´a B(X) = RU (X)/ ∼ , que consta de las clases de equivalencia (que notaremos x, para cada red universal x en X) de la relaci´on que acabamos de definir. Es claro que, para cada f ∈ Cb (X), su ϕf se “baja” bien al cociente B(X). Llamemos ahora φf : B(X) → C a la funci´on bajada dada ahora por φf (x) = xf , x ∈ RU (X). Sea F = {φf : f ∈ Cb (X)}. Notar que ahora F separa puntos de B(X). La topolog´ıa para B(X) se´a la inicial τF , dada por la familia F. Y el embbeding ser´a G : X → B(X) dado por G(x) = cx , donde cx es la sucesi´on constantemente igual a x .
445
Se podr´ıa probar a mano que el espacio (B(X), τF ) es compacto (Hausdorff es, porque F separa puntos), pero es m´as f´acil ver que hay un h´omeo entre β(X) y B(X) que conmuta con los embbedings (lo que de paso mostrar´a que G era un embbeding). Los detalles de esa cuenta se dejan como ejercicio. 4 La construcci´on anterior es en escencia la misma que la original, pero describe mejor que lo que se agrega a X son los l´ımites de redes en X hacia los “bordes”. La similitud est´a en que ambas se basan en la acci´on de Cb (X), ya sea en un producto o en las RU’s de X. Esta acci´on es clave en este ejemplo porque es la que define la relaci´on de equivalencia de la Ec. (A.22) en RU (X). 4
A.17
M´ etricas uniformes en C(X, Y ), con Y un EM
Como pasa siempre, una teor´ıa produce objetos a los que se les aplica, a su vez, la teor´ıa en cuesti´on. En este caso, la topolog´ıa produce las funciones continuas, y uno quiere estudiar los espacios de tales funciones desde un punto de vista topol´ogico, con especial ´enfasis en los distintos tipos de convergencias. Para hacerlo en general, necesitamos la noci´on de compacidad. Pero por ahora desarrollaremos el caso en que las funciones tomen valores en un espacio m´etrico acotado Y (o bien pidamos que las funciones lo sean). All´ı podemos definir la m´etrica de la convergencia uniforme: Definici´ on A.17.1. Sean X un conjunto e (Y, d) un EM. Se definen 1. `∞ (X, Y ) = {f : X → Y acotadas } (o sea que f ∈ `∞ (X, Y ) si diam (f (X) ) < ∞). 2. En `∞ (X, Y ) se define la distancia uniforme: dadas f, g ∈ `∞ (X, Y ), d∞ (f, g) = sup { d(f (x), g(x) ) : x ∈ X } . Es f´acil ver que d∞ est´a bien definida (es < ∞) y que es una m´etrica en `∞ (X, Y ). 3. Si X tiene una topolog´ıa τ , consideraremos el espacio de funciones continuas y acotadas Cb (X, Y ) = C(X, Y ) ∩ `∞ (X, Y ) = f ∈ C(X, Y ) : diam (f (X) ) < ∞ , donde tambi´en podemos usar la d∞ . 4. En el caso de que el espacio Y sea acotado, se tiene que `∞ (X, Y ) = Y X , o sea todas las funciones f : X → Y . Adem´as sucede que Cb (X, Y ) = C(X, Y ). 4 Observaci´ on A.17.2. La topolog´ıa de `∞ (X, Y ) inducida por d∞ es aquella cuya convergencia es la uniforme en X: Dada una sucesi´on (fn )n∈ N en `∞ (X, Y ) y una f ∈ `∞ (X, Y ), τd
∞ fn −−− → f ⇐⇒
n→∞
∀ ε , ∃ m ∈ N tal que: n ≥ m =⇒ d∞ (fn , f ) < ε ,
o sea que d(fn (x) , f (x) ) < ε para todos los x ∈ X a partir del mismo m. 446
(A.23) 4
El siguiente enunciado da la m´axima generalidad a la conocida frase “l´ımite uniforme de funciones continuas es continua”. Proposici´ on A.17.3. Sean (X, τ ) un ET e (Y, d) un EM. Entonces se tiene que Cb (X, Y ) es d∞ -cerrado en `∞ (X, Y ). Si Y era acotado, reescribimos: C(X, Y ) es d∞ -cerrado en Y X . d
∞ → f. Demostraci´on. Sea (fn )n∈ N una sucesi´on en Cb (X, Y ) y sea f ∈ `∞ (X, Y ) tal que fn −−−
n→∞
Para ver que f es continua, tomemos una red x = (xi )i∈ I en X tal que xi −−→ x. Dado ε > 0, i∈ I
la Ec. (A.23) asegura que existe un n ∈ N tal que d∞ (fn , f ) < 3ε . Como fn ∈ C(X, Y ), existe un i0 ∈ I tal que d(fn (xi ), fn (x) ) ≤ 3ε para todo i ≥ i0 . Luego d(f (xi ) , f (x) ) ≤ d(f (xi ) , fn (xi ) ) + d(fn (xi ) , fn (x) ) + d(fn (x) , f (x) ) < 2 d∞ (fn , f ) + d(fn (xi ), fn (x) ) < ε . S´olo falta ver que el l´ımite f es acotada (si todas las fn lo son). Pero si tomamos un n ∈ N tal que d∞ (fn , f ) < 1, entonces es f´acil ver que diam f (X) ≤ 2 + diam fn (X) < ∞ , (A.24) por lo que f ∈ Cb (X, Y ).
Proposici´ on A.17.4. Sean (X, τ ) un ET e (Y, d) un EM completo. Entonces se tiene que tanto `∞ (X, Y ) como su subespacio Cb (X, Y ) son d∞ -completos. Demostraci´on. Sea (fn )n∈N una sucesi´on de Cauchy en `∞ (X, Y ). Dado un x ∈ X, sabemos que d(fk (x) , fm (x) ) ≤ d∞ (fk , fm ) para todo k, m ∈ N. Luego cada sucesi´on (fn (x) )n∈N es de Cauchy en Y . Como Y es completo, podemos definir la funci´on f :X→Y
dada por
f (x) = l´ım fn (x) , n→∞
para todo x ∈ X ,
que es nuestra candidata a l´ımite. Nos falta verificar dos cosas: ?
d∞ (fn , f ) −−−→ 0
y
n→∞
Dado ε > 0, sea n1 ∈ N tal que d∞ (fk , fm ) <
ε 2
?
f ∈ `∞ (X, Y ) . para todo k, m ≥ n1 . Luego, si k ≥ n1 ,
d(fk (x) , f (x) ) = l´ım d(fk (x) , fm (x) ) ≤ sup d(fk (x) , fm (x) ) ≤ m→∞
m≥n1
ε < ε, 2
(A.25)
para todos los x ∈ X a la vez. La igualdad = se deduce de que fm (x) −−−→ f (x), usando m→∞
el Lema A.4.10. La Ec. (A.25) muestra que d∞ (fn , f ) −−−→ 0. Tomando un n tal que n→∞
d∞ (fn , f ) < 1, la Ec. (A.24) nos asegura que f ∈ `∞ (X, Y ) . Listo el caso `∞ (X, Y ) . La completitud de Cb (X, Y ) sale usando ahora la Prop. A.17.3, porque Cb (X, Y ) es un subconjunto cerrado del espacio completo `∞ (X, Y ) . 447
En el caso particular de que Y = Rn o Cn , los espacios `∞ (X, Y ) y Cb (X, Y ), adem´as de m´etricos, son espacios “normados”. Esto significa son espacios vectoriales y que la m´etrica es homog´enea e invariante por translaciones. Por ejemplo, dada f ∈ RX , se define Observar que kf k∞ < ∞ si y s´olo si f ∈ `∞ (X, R) .
kf k∞ = sup |f (x)| .
(A.26)
x∈X
Adem´as, si tenemos otra funci´on g ∈ `∞ (X, R) y un escalar λ ∈ R, vale que d∞ (f, g) = kf − gk∞ , kf + gk∞ ≤ kf k∞ + kgk∞
y
k λ f k∞ = |λ| kf k∞ . (A.27)
Todo esto camina igual si las funciones viven en el subespacio cerrado Cb (X, R) ⊆ `∞ (X, R). Adem´as, el hecho de que Cb (X, R) sea completo da sentindo al siguiente enunciado: Proposici´ on A.17.5. Sea (X, τ ) un ET. En (Cb (X, R), d∞ ), una serie absolutamente convergente es convergente. Es decir que dada una sucesi´on (fn )n∈N en (Cb (X, R), d∞ ), ∞ X
kfn k∞ < ∞ =⇒
la serie
n=1
∞ X
converge a una f ∈ Cb (X, R)
fn
n=1
cuya norma verifica que kf k∞ ≤
∞ P
kfn k∞ .
n=1
Demostraci´on. Por la Prop. A.17.4, para mostrar la convergencia de la serie, basta ver que n P la sucesi´on gn = fk es de Cauchy para la d∞ . Pero si n < m, por la Ec. (A.27), k=1
d∞ (gm , gn ) = kgm − gn k∞
m
X
= fk
∞
k=n+1
por la hip´otesis de que
∞ P
m X
≤
kfk k∞ −−−−−→ 0 , n, m → ∞
k=n+1
kfn k∞ < ∞. Adem´as, como la funci´on g 7→ kgk∞ es continua,
n=1
kf k∞ = l´ım kgn k∞ n→∞
n
X
= l´ım fk n→∞
k=1
∞
≤ l´ım
n→∞
n X
kfk k∞ =
k=1
con lo que culmina la prueba.
∞ X
kfk k∞ ,
k=1
El resultado anterior tambi´en vale en `∞ (X, R). De hecho, vale en cualquier R o C espacio vectorial normado completo (se los llama espacios de Banach). Lo enunciamos s´olo para Cb (X, Y ) porque es lo que necesitaremos m´as adelante.
A.18
Teoremas de Baire
Empecemos con un resultado f´acil que motivar´a lo que sigue: Sea (X, τ ) un ET, y tomemos A, B ⊆ X dos cerrados. Luego se tiene que (A ∪ B)◦ 6= ∅ =⇒ A◦ 6= ∅ o B ◦ 6= ∅ , 448
(A.28)
y quien dice dos, dice finitos (la inducci´on es directa). En efecto, tomando complementos, esto equivale a decir que, dados dos abiertos U, V ⊆ X, vale que si tanto U como V son densos en X , tambi´en debe ser denso U ∩ V . Veamos esto: Si me dan un x ∈ X y un W ∈ Oa (x), usando que U es denso tenemos que ∅ 6= W ∩ U ∈ τ . Tomando cualquier y ∈ W ∩ U , nos queda que W ∩ U ∈ Oa (y). Ahora por la densidad de V arribamos a que W ∩ (U ∩ V ) 6= ∅. Por ello, x ∈ U ∩ V . Como dec´ıamos antes, estos resultados se extienenden a uniones finitas de cerrados sin interior, o intersecciones finitas de abiertos densos. Pensando en una generaliizaci´on a uniones o interseccioines infinitas, uno no puede aspirar a algo completamente general, porque en cualquier espacio X que sea razonable, todo abierto es uni´on de cerrados sin interior (los singueletes de todos sus elementos). Pero imgin´andose rectas en R2 o superficies en R3 , uno llegar´ıa a arriesgar que si la cantinad de cerrados es numerable, podr´ıa valer una f´ormula tipo (A.28). Sin embargo, algunas restricciones habr´a que poner. Por ejemplo, si X = Q, la obstrucci´on reci´en planteada seguir´ıa vigente (con numerables puntos uno llena lo que sea). De hecho, mirando el argumento de arriba, si los abiertos fueran numerables har´ıa falta “encajar” infinitos entornos y que quede algo en todos a la vez. Y ahora les contamos el final: Como uno podr´ıa suponer por lo dicho antes, hay dos caminos para asegurarse la extensi´on de (A.28) al caso numerable: que X sea un EM completo (bolas cerradas encajadas), o que sea un ET localmente compacto Hausdorff (entornos compactos + la PIF). Y el “detective” que los descubri´o es Ren´e-Louis Baire. Teorema A.18.1 (Baire). Sea (X, τ ) un ET que cumple alguna de estas dos hip´otesis: EMC: X es un espacio m´etrico completo. LKH: X es localmente compacto Hausdorff. Entonces para toda familia numerable {Fn }n∈N de cerrados de X se tiene que [ ◦ Fn◦ = ∅ para todo n ∈ N =⇒ Fn = ∅ . n∈N
Existen otras dos maneras de enunciar lo mismo, que conviene explicitar: ◦ S S B2: Si Fn 6= ∅ (por ejemplo si Fn = X), entonces alg´ un Fn◦ 6= ∅. n∈N
n∈N
B3: Dada una sucesi´on {Un }n∈N de abiertos densos, se tiene que
T
Un es tambi´en densa.
n∈N
Demostraci´on. Probaremos en ambos casos el enunciado B3. Observar que, si tenemos cerrados Fn como em B2, y para cada n ∈ N hacemos Un = X \ Fn , queda que [ ◦ \ [ Un = X \ Fn◦ y que Fn = X \ Un = X \ Fn . n∈N
n∈N
449
n∈N
Caso EMC: Sea x ∈ X y ε > 0. Tomemos la bola cerrada B0 = B(x, ε). Como U1 es denso, tenemos que ∅ 6= U1 ∩ B(x, ε) ∈ τ . Luego existe una bola B1 = B(x1 , ε1 ) ⊆ U1 ∩ B(x, ε), donde podemos asumir que ε1 ≤ ε2 . Ahora cortamos B1◦ = B(x1 , ε1 ) con U2 . Por la densidad de U2 podemos armar una bola cerrada B2 , de radio no mayor a ε4 , tal que B2 ⊆ B1◦ ∩ U2 ⊆ U1 ∩ U2 . Recursivamente, obtenemos una sucesi´on (Bn )n∈N de bolas cerradas tales que, para todo n ∈ N, \ ε Bn ⊆ Uk , Bn+1 ⊆ Bn◦ y diam (Bn ) ≤ n . 2 k∈ I n
T La Prop. A.11.3 nos dice ahora que existe un y ∈ Bn . Y la primera condici´on de arriba n∈N T fuerza a que y ∈ Un , adem´as de estar en B(x, ε), que era un entorno gen´erico del puntito n∈N T x. As´ı llegamos a que x est´a en la clausura de Un , para todo x ∈ X. 4 n∈N
Caso LKH: La construcci´on es similar. Recordemos que, como ahora X es LKH, es bien sabido que todo punto de X tiene una base de entornos compactos. Si me dan x ∈ X y un V ∈ Oa (x), como V ∩ U1 6= ∅, encuentro un y ∈ V ∩ U1 . Tomo un K1 ∈ O(y) que sea compacto tal que K1 ⊆ V ∩ U1 . Despu´es corto K1◦ con U2 , y tomo un entorno compacto K2 de alg´ un punto de K1◦ ∩ U2 ⊆ U1 ∩ U2 (K1◦ 6= ∅ porque K1 es entorno de y). As´ı siguiendo, construyo la sucesi´on (Kn )n∈N de compactos (con interior) tales que, para todo n ∈ N, \ Uk y Kn+1 ⊆ Kn◦ ⊆ K1 ⊆ V . Kn ⊆ k∈ In
Ahora uso que K1 es compacto, y que la sucesi´on (Kn )n∈N tiene la PIF para K1 (toda intersecci´on finita me da el u ´ltimo T Kn 6= ∅ y adem´as Kn ⊆ K1 ). Por ello, el Teo. A.12.3 asegura que puedo tomar un z ∈ Kn 6= ∅. Como en el caso anterior, me queda que n∈N T z∈V ∩ Un . Como V ∈ Oa (x) era gen´erico, volvemos a llegar que x est´a en la clausura T n∈N de Un , para todo x ∈ X. n∈N
Observaci´ on A.18.2. Las pruebas de las dos mitades del Teorema de Baire son casi iguales, pero no se puede usar un solo argumento para ambas. Esto es as´ı porque hay espacios LKH que, a´ un siendo m´etricos no son completos, como el intervalo (0, 1). Y porque hay EM’s completos donde las bolas (cerradas) no pueden ser compactas. Esto pasa en todos los espacios de Banach de dimensi´on infinita. 4
450