FLUIDOS: APELLIDO DE LÍQUlDOS Y GASES Autor: RAMÓN PERALTA-FABI COMITÉ DE SELECCIÓN: EDICIONES PREFACIO I. INTRODUCCIÓN ...
165 downloads
959 Views
994KB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
FLUIDOS: APELLIDO DE LÍQUlDOS Y GASES Autor: RAMÓN PERALTA-FABI COMITÉ DE SELECCIÓN: EDICIONES PREFACIO I. INTRODUCCIÓN II. ¿QUE SON Y CÓMO LOS DESCRIBIMOS? III .UNA "HISTORIA" DE LAS IDEAS IV. GALAXIAS, HURACANES Y DESAGÜES V. LA TURBULENCIA VI. SUPERFLUIDOS VII. EPÍLOGO COLOFÓN CONTRAPORTADA
COMITÉ DE SELECCIÓN: Dr. Antonio Alonso Dr. Juan Ramón de la Fuente Dr. Jorge Flores Dr. Leopoldo GarcíaColín Dr. Tomás Garza Dr. Gonzalo Halffter Dr. Guillermo Haro † Dr. Jaime Martuscelli Dr. Héctor Nava Jaimes Dr. Manuel Peimbert Dr. Juan José Rivaud Dr. Emilio Rosenblueth Dr. José Sarukhán Dr. Guillermo Soberón Coordinadora Fundadora: Física Alejandra Jaidar † Coordinadora: María del Carmen Farías
EDICIONES Primera edición, 1993 Dibujos: Ramón Peralta Sierra La Ciencia desde México es proyecto y propiedad del Fondo de Cultura Económica, al que pertenecen también sus derechos. Se publica con los auspicios de la Subsecretaría de Educación Superior e Investigación Científica de la SEP y del Consejo Nacional de Ciencia y Tecnología. D.R. © 1993 FONDO DE CULTURA ECONÓMICA, S. A. DE C. V. Carretera Picacho Ajusco 227; 14200 México, D.F. ISBN 968-16-4215-5 Impreso en México
PREFACIO Este libro fue escrito con la intención de compartir la pasión por entender a los líquidos y gases. Así, aparecen aspectos que finalmente entendemos y otros que siguen escabullendo nuestros afanes cotidianos. Están incluidos algunos temas recurrentes a cualquier nota escrita sobre aguas y vientos y otros un tanto extraños y sorprendentes que forman parte de la misma familia aristocrática de los fluidos. Muchos temas no aparecen debido a varias limitaciones, entre las que se cuentan las del autor, pero que cumplen con el propósito de interesar al lector en buscar lo que no está o en aclarar lo que aquí no se pudo. Sin desearlo, y en forma casi irremediable, el texto incluye más del autor y de sus intereses que de las exquisitas facetas que presentan los fluidos, tan comunes y especialmente corrientes. La esperanza es que alguna parte de la lectura sea tan agradable como lo fue escribirla y que ninguna sea tan penosa como su redacción. Agradezco a mi familia y a mis colegas, amigos y estudiantes por las interminables pláticas y sugerencias que sirvieron para mejorar el contenido. En particular, agradezco a Rocío Chicharro y a la correctora de estilo, Laura Pulido, por la lectura y comentarios constructivos que hicieron sobre la versión original; a Ramón Peralta Sierra le debo las ilustraciones, la portada y la pasión por hacer lo que hago.
I. INTRODUCCIÓN LA BELLEZA de un atardecer en el que las nubes se mezclan, cambian de forma y de color, crecen o se desvanecen hasta quedar en nada, se multiplica y enriquece al descubrir los diversos y complejos procesos que se conjugan para presentar el espectáculo. Lo mismo sucede al observar las olas que llegan a una playa, el fuego en una hoguera o la corriente de un río que, pareciendo no cambiar y repetirse siempre, nunca son iguales; ésta es parte de la magia de un fluido. La seducción viene de todas partes: de las gotas de lluvia que se estrellan en la superficie del agua, de las variadas franjas y manchas de colores que vemos en una imagen de Júpiter, de las hileras de pequeñas burbujas ascendentes que parecen salir de ningún lado en el seno de un vaso de cerveza, del caprichoso ascenso de una columna de humo, de las maravillosas pompas de jabón y, observando con cuidado, de todo lo que está a nuestro alrededor. Todas son manifestaciones de lo mismo: la dinámica de un fluido. Los fluidos, como genéricamente llamamos a los líquidos y los gases, nos envuelven formando parte esencial de nuestro medio ambiente. El agua y el aire son los más comunes y, como punto de referencia, los mantendremos en mente como prototipos de un fluido. Su ubicuidad les confiere su importancia. La experiencia humana con los fluidos se remonta más allá de los tiempos históricos. El manejo de los fluidos ha estado íntimamente ligado al desarrollo de la sociedad. No es de sorprender entonces que desde los inicios de la civilización la imagen del Universo incluyera a los fluidos como elementos primarios de su constitución; aire, agua, fuego y tierra son la versión clásica y medieval de gas, líquido, plasma y sólido, o sucintamente, fluidos y sólidos. Como en la más apasionante novela de misterio, en la que el lector es guiado con información aparentemente disímbola y escasa, los investigadores a través del tiempo han ido recogiendo y organizando datos sobre la naturaleza. La guía es el experimento y la imagen que se va formando, como en un rompecabezas en tres dimensiones, es aún fragmentada; hay ciertas piezas que embonan en grupos y algunos grupos de piezas que se ensamblan entre sí. El caso de los fluidos, que siguen las mismas leyes de la mecánica que rige el movimiento de los cuerpos celestes, es un ejemplo típico. Creemos tener casi todas unas unidas ya entre sí, otras desperdigadas y a la espera de ser probadas. El reto de participar en el juego de comprender y explicar los fenómenos conocidos, predecir nuevos o descubrir otros, sigue abierto. Es un juego colectivo en el que los participantes, que somos todos, heredamos la experiencia de los anteriores y, tras ampliarla, la turnamos a los que siguen aumentando las oportunidades. La solución o soluciones posibles nos eluden hasta ahora, como lo hace el agua con nuestros esfuerzos por retenerla en las manos, escurriéndosenos entre los dedos. Completar nuestra descripción y comprensión del comportamiento de los fluidos es, además de un fascinante juego, una imperiosa necesidad por manejar nuestro entorno. El aire y el agua son parte esencial de la vida en la forma que la conocemos. El transporte marítimo y aéreo depende de este conocimiento; también la agricultura, que no puede ya lograrse si sólo se depende de un buen clima, sino de sistemas de riego, vastos y eficientes, que permitan optimizar los recursos locales y suplir las deficiencias naturales. La predicción del clima y de sus más violentas manifestaciones, como huracanes y tornados, es mucho más que una curiosidad académica (aunque también lo es). Entender éstos y muchos otros problemas en los que los fluidos participan como protagonistas principales, requiere de una labor creativa y de un trabajo sistemático y sostenido. Los resultados los demanda la sociedad por razones culturales, estéticas y, especialmente, prácticas. Del inmenso proyecto general de la física nos ocuparemos de la parte que estudia los fluidos desde el punto de vista macroscópico, es decir, como los percibimos en forma más o menos directa a través de nuestros sentidos; la alusión a su estructura atómica será hecha ocasionalmente y en forma lateral. La justificación de esta omisión será discutida más adelante, aunque la conexión entre estos dos aspectos, uno macroscópico y continuo y el otro microscópico y discreto, es de primordial importancia en cuanto al entendimiento último de un fluido. Esta relación es el sujeto de estudio de la teoría cinética y de la mecánica estadística. Dentro del enfoque macroscópico, el de la dinámica de fluidos, consideraremos sólo algunas de las partes del rompecabezas de manera que pueda obtenerse un panorama sobre su comportamiento usual. Si bien es cierto que, dentro de la teoría, los principios generales tienen todos la misma jerarquía, también es cierto que unos son más útiles que otros para entender algunos aspectos de su comportamiento. Este hecho se refleja en las formas y circunstancias en que fueron formulados. Unos fueron intuidos y usados mucho antes de ser explícitamente enunciados. Otros
fueron formulados casi en la forma en que los conocemos ahora, sin haberse apreciado su generalidad y sus consecuencias. Siendo que a través del tiempo, los grandes matemáticos y físicos, salvo raras excepciones, dedicaron parte de su vida a estudiar los fluidos, no deja de sorprender la falta de atención que la historia de la ciencia ha puesto en la génesis y desarrollo de sus brillantes ideas, ingeniosos diseños y espectaculares resultados; una de las excepciones es la excelente obra de Enzo Levi (Levi, 1989). Gracias a los trabajos de aquellos pensadores, a quienes siempre se recuerda con cierta nostalgia, gozamos de una visión panorámica del tema, aprendimos a plantear algunos de los problemas y seguimos explorando los caminos por ellos señalados.
II. ¿QUE SON Y CÓMO LOS DESCRIBIMOS? COMO en casi todas las novelas, todo resulta más comprensible si se comienza por aclarar de qué se trata, sin echar a perder el final. Así, sería apropiado que, como con cualquier personaje principal de una novela decente (cosa que el protagonista no tiene por qué serlo), tratemos de construir su imagen, esbozar su carácter, describir sus pintorescas reacciones, sus variados comportamientos y su lenguaje; en fin, de mencionar todos aquellos aspectos que lo hacen sujeto de escritura y, se esperaría, de lectura. Como se verá más adelante, el objetivo se logra sólo parcialmente. Resulta que nuestro protagonista no es ni rubio ni moreno, ni alto ni bajo, ni lo uno o lo otro; simple y sencillamente es difícil de acorralar con palabras y escurridizo para manejar. Es más, después de que hablemos de su interesante estructura (digamos, sus raros órganos internos, sus prominentes señas particulares, sus peculiaridades anatómicas y de algunas de sus idiosincrasias y traumas infantiles), resultará que para algunos fines prácticos carece de importancia. Es como si, tras describir minuciosamente el origen de una tormentosa secta a la que pertenece el medio hermano de la heroína, ésta se cambiara de continente y pasara ahí el resto de sus apasionados o bucólicos días, sin relación alguna con los inconfesables crímenes de la susodicha secta. Aun así, un biógrafo meticuloso no dejaría pasar la oportunidad de abordar el mórbido efecto que podría haber causado en su carácter o en sus ocasionales delirios nocturnos. Advertidos de lo que sigue, mejor es empezar por el principio y entrar en materia, es decir, en fluidos. II. 1. UNA INDEFINICIÓN PRECISA La materia, es decir, todo lo que nos rodea y que percibimos a través de los sentidos, viene en tres presentaciones aparentemente distintas y exclusivas: en sólido, en líquido o en gas. Una observación más cuidadosa nos llevaría a pensar que esta clasificación es un tanto simplista y que debiera ampliarse, o cuando menos subdividirse. Así, empezaríamos por organizar las cosas según su textura, color, abundancia, rigidez, etc., hasta llegar al punto en el que cada material quede ubicado y etiquetado correctamente en el nuevo y exhaustivo esquema así elaborado. Este enfoque tendría sus ventajas, pues dada una sustancia con un nombre debidamente asignado (como el piridotín-3-glutaciclina-6-fosfomentasa; le antepongo el artículo "el" porque, de existir, debiera ser masculino), bastaría con buscar en el compendio, por orden alfabético, para encontrar su descripción completa, tal vez una ilustración y las referencias cruzadas a las otras sustancias que comparten una o más características. En los términos arriba expuestos la tarea parece imposible, si no es que ridícula. Sin embargo, es ésta una de las formas en que se ha procedido y los resultados son sorprendentes. Partiendo de la hipótesis, posteriormente confirmada, de que todo está hecho de un conjunto reducido de elementos básicos que al combinarse, bajo ciertas reglas y en diversas proporciones, da lugar a la impresionante variedad que vemos, los investigadores se dieron a la tarea de aislarlos y caracterizarlos. Ahora contamos ya con obras que resumen el final de esta tarea monumental, considerada una quimera a mediados del siglo XIX, que en su forma más sucinta es la tabla periódica de los elementos de Mendeleev. A pesar de la importancia fundamental de este conocimiento, en cuanto a nuestra comprensión del Universo se refiere, la clasificación no es suficiente para deducir las propiedades de los compuestos que estos elementos forman, ni incluye todo lo que observamos (literalmente, la luz), ni explica cómo un material dado responde y se comporta cuando permitimos a un agente externo influir sobre él. Esto último, el comportamiento dinámico de la naturaleza, exige un tratamiento, un enfoque diferente, más general, universal si es posible, que permita evitar el estudio detallado de cada material, lo que haría del programa científico una tarea inaccesible. Buscando características genéricas, comunes, y las razones para que éstas se manifiesten, llegamos al estudio de la materia en sus diferentes estados de agregación (formas de presentación), que en última instancia hemos reducido a sólidos y fluidos. Parecería ofensivo el tener que explicar lo que es y lo que no es un sólido. Sin embargo, la separación no siempre es evidente, cuando no inadecuada, al presentar un mismo material con facetas que lo identifican como uno y otro, simultáneamente. Por un lado, a casi todos los compuestos los podemos observar en estado gaseoso, líquido o sólido, como al agua; dependiendo de la presión y temperatura a la que se encuentre, será vapor, agua o hielo. Es posible, y el proceso no es nescesariamente complicado, que un gas pueda licuarse sin cambio abrupto en su comportamiento, observándose una formación paulatina en el gas al ir
haciéndose cada vez más denso, hasta ser indistinguible de lo que consideramos líquido. Este hecho es el que nos permite tratar a un mismo nivel, con los mismos criterios, es decir, en forma conjunta, a un gas y a un líquido. Esto no sucede en el proceso de la solidificación de un fluido, o el proceso inverso en el que un sólido se licua o evapora. Hay siempre un punto en el que ciertas propiedades cambian radicalmente al aparecer las dos fases: una sólida y otra fluida, cada una con propiedades ópticas, elásticas, etc., muy distintas. Supóngase que tenemos un medio homogéneo, es decir, un material cuya composición y propiedades son las mismas en cada parte que lo forma. En cuanto al estado físico en el que se encuentra el sentido común (a veces muy poco común) nos dice que si su carácter es etéreo, terso o escurridizo, el medio no es sólido. Si queremos mantenerlo entre las manos y escapa, se trata de un fluido. Si el medio es sólido podemos retenerlo y es posible deformarlo hasta cierto límite. Un fluido parece no presentar límite a las deformaciones que podemos imprimirle. Estas ideas sueltas que forman parte de nuestra experiencia cotidiana son precisamente las bases para definir a un fluido, si delimitamos un poco más los términos y conceptos incluidos. Aún así, veremos que la naturaleza se las ingenia para exhibir ejemplos que escurren por nuestras definiciones sin dejarse atrapar. "Un fluido es un material que fluye". Así, además de risa, la definición no da más que pena y sorprendería que pudiera servir para caracterizar a una sustancia. Ahora, hay que precisar lo que es fluir. Para esto vamos a separar en dos a las formas en que actúa una fuerza, que tampoco hemos definido, pero que puede entenderse como el efecto de un agente externo; con buena voluntad y sentido común las cosas usualmente funcionan. Toda fuerza (representada por la flecha en la figura II. 1), al actuar sobre una superficie, puede imaginarse formada de dos partes, una normal o perpendicular a la superficie (N) y otra paralela o tangencial a ésta (T). Cada una de éstas, llamadas componentes de la fuerza, tiene un efecto distinto sobre el material. La componente normal es la que asociamos a la presión y tiende a comprimir o estirar, dependiendo de la dirección de la fuerza. La componente tangencial produce un efecto de deslizamiento relativo entre los planos en que imaginamos estructurado al medio y se le llama también fuerza cortante.
Figura II. 1. Fuerza y su descomposición en componentes normal (N) y tangencial (T).
Para ilustrar esta descomposición de las direcciones y efectos de una fuerza consideremos el siguiente ejemplo. Imaginemos una esponja, de forma regular y pegada a dos vidrios planos en sus caras superior e inferior (Figura II. 2(a)). Si aplicamos una fuerza puramente normal a cada uno de los vidrios (Figura II. 2(b)), la esponja se comprime, reduciendo su volumen pero manteniendo su forma. Si ahora jalamos cada vidrio en dirección opuesta, de modo que la separación entre ellos se mantenga constante, dando lugar a una fuerza de corte sobre la esponja, ésta se deformará manteniendo su volumen (Figura II. 2(c)). Por lo general, una fuerza con una dirección arbitraria produce una mezcla de ambos efectos, dependiendo de la proporción entre su componente normal y su componente tangencial.
Figura II. 2. Esponja (a), fuerzas normales (b) y de corte (c).
Volviendo a nuestro problema original, consideremos un medio sujeto a fuerzas cortantes, como la esponja en el caso (c). Un material que es sólido se deforma hasta cierto límite, rearreglando sus elementos estructurales (átomos) hasta generar una fuerza igual en magnitud, opuesta en dirección a la aplicada, y así quedar en equilibrio; en última instancia, los átomos ligados entre sí por fuerzas de origen electromagnético se ven obligados a cambiar sus posiciones relativas hasta balancear exactamente la fuerza aplicada. La deformación se detiene en el preciso momento en que esto se logra. Decimos que un material es elástico si al retirar las fuerzas aplicadas recupera su forma inicial. Le llamamos plástico si no recupera su estado original y guarda cierta memoria de las fuerzas que sufrió. Una sustancia que bajo la acción de una fuerza cortante, por pequeña que ésta sea, se deforma sin límite se dice que fluye. ¡Un fluido es un material que fluye! Ahora ya no parece tan tautológica la definición. Así, el mar bajo la acción del viento, que produce una fuerza cortante sobre su superficie, se deforma sin límite, se mueve continuamente sin lograr frenar al viento por tenue que éste sea: la deformación resultante es la que percibimos como oleaje, hipnotizando a unos y mareando a otros. Parecería que con esto se ha logrado clasificar a todas las sustancias en dos grandes grupos. Sin embargo no es así, lo cual hace el punto más interesante. Hay sustancias que tienen un comportamiento dual para las que nuestra definición es inadecuada o insuficiente. Es tal la diversidad de sustancias que la tarea de completar y precisar una sola definición es inútil. A las rarezas las tratamos en forma especial, en subgrupos, según las circunstancias. Materiales tan familiares como el vidrio, la pintura y el pavimento pertenecen a esta clase exótica de materiales. El vidrio, que se comporta como sólido cuando lo estudiamos en un laboratorio (o cuando una pelota de béisbol es bateada en la dirección equivocada y va a dar precisamente a...), resulta ser un fluido cuando los tiempos de observación son suficientemente largos. Se puede ver en los emplomados de las viejas catedrales góticas que la parte inferior es mucho más gruesa que la superior. La razón es que el vidrio ha fluido, por cientos de años bajo la acción de la gravedad. También hay sustancias que presentan comportamiento simultáneo de fluido y sólido. Su tratamiento requiere de consideraciones particulares que caen en el área conocida como la reología. Materiales de este tipo, con propiedades que genéricamente son llamadas viscoelásticas, son por lo general soluciones con gran cantidad de partículas (polímeros) disueltas en ellas. Casos típicos son las resinas, los plásticos, múltiples derivados del petróleo y diversos tipos de champú (el aire de la ciudad de México parecería un buen candidato). II. 2. LOS ÁTOMOS Y LA VENTAJA DE IGNORARLOS La concepción atomística de la naturaleza, según la cual todas las cosas estan constituidas por elementos indivisibles e inmutables, se remonta al origen de nuestra civilización. Si bien no es sino hasta el siglo XVII que esta imagen adquiere carácter científico, al empezar a ser fundamentada en la experimentación, es notable la semejanza que hay entre las ideas básicas en sus primeras formas y las que hoy en día tenemos. En la antigua Grecia es donde aparece no sólo la idea general del atomismo, sino las diversas formas que éste adquiere. La existencia de los átomos y del vacío que los rodea, como una necesidad en la explicación de la constitución del mundo, es planteada por razones filosóficas, manteniendo este carácter hasta el renacimiento
europeo. Demócrito, en el siglo V, a.C., es sin duda el representante más importante del atomismo griego. Para él, la naturaleza estaba formada de un número infinito de corpúsculos invisibles por su tamaño, que diferían entre sí sólo en forma, dimensión y estado de movimiento. Comparte con Parménides la idea de un Universo cualitativamente inmutable, pero difiere de éste en cuanto al aspecto cuantitativo, pues atribuye los cambios a la multiplicidad de maneras en que estos átomos se combinan, manteniendo su naturaleza. Así, un cambio aparente en calidad podía ser entendido, al menos en principio, como una variación en la cantidad de átomos que participaban en el proceso. En la misma época, Empédocles propone la idea de un Universo formado de cuatro elementos básicos, aire, agua, tierra y fuego, que al mezclarse en distintas proporciones generan la inmensa variedad observada. Este modelo, que domina el panorama a todo lo largo de la Edad Media, sin ser atomista en el sentido estricto, refleja la necesidad de reducir a componentes primitivos a la naturaleza. Estas ideas, compartidas y desarrolladas por Platón un siglo más tarde, y la concepción de su discípulo, Aristóteles, en torno a la desaparición de las partes al formar un todo, impidieron el florecimiento y desarrollo del atomismo en la civilización helénica. Cuando Tito Lucrecio Caro escribe su poema De rerum natura (Sobre la naturaleza de las cosas) en el siglo I, a.C., el atomismo griego es incorporado a la cultura latina, enriquecido en el proceso por Epicuro, su defensor en el siglo III, a.C. Durante los siguientes diecisiete siglos, crisol del renacimiento y etapa de gestación de los principios del conocimiento experimental, las ideas filosóficas sobre este particular se mantienen casi invariables: la materia no puede ser dividida sin límite y sus elementos constitutivos primitivos son inmutables, incontables en número y finitos en su diversidad. En las décadas alrededor de 1600, mientras Galileo Galilei y Francis Bacon establecen las bases del método científico o experimental, Pierre Gassendi revive el atomismo clásico para una época mas madura. Daniel Sennert y Robert Doyle, aceptando la idea atomista, le dan su verdadera dimensión al buscar su contenido en la experimentación. Así, Boyle logra descartar en forma definitiva el sobresimplificado esquema de los cuatro elementos. Un siglo más tarde, Antoine Laurent de Lavoisier desarrolla la metodología del análisis químico y define en la práctica a los elementos químicos. La generación que le sigue establece los fundamentos de la teoría atómica moderna, con la obra de John Dalton, al identificar elementos químicos con átomos y proponer las formas en que éstos se combinan para formar compuestos. El atomismo griego, la teoría atómica de Dalton y la idea contemporánea sobre la constitución de la materia, comparten suficientes rasgos como para considerarlos un mismo proceso animal observado en su evolución a través del tiempo; cada etapa muestra los cambios indispensables para alcanzar la madurez. Si bien los átomos, concebidos como constituyentes últimos de la materia, han sido sustituidos por las partículas elementales, como el electrón y el neutrino, se ha mantenido el atomismo que imaginara Demócrito. Por otro lado, se ha perdido el carácter inmutable de aquellos átomos de Lucrecio y de Dalton; los nuevos átomos, en el verdadero sentido etimológico del término, pueden combinarse para disolverse en luz (al reaccionar un electrón con un positrón) o perder su identidad formando un todo (al combinarse un protón, un electrón y un neutrino para formar un neutrón). Esta búsqueda de la explicación última de la materia en términos de sus componentes más simples ha sido, y es, un esfuerzo por alcanzar uno de los objetivos fundamentales de la física. Creemos tener una idea bastante cercana y correcta sobre estos pequeños bloques universales con los que se construye todo lo que observamos. Otro es el problema de cómo éstos se combinan para formar átomos, éstos a su vez formar moléculas y éstas agruparse para conformar un elote, o un insecto rayado que almacena miel en hexágonos o, lo que resulta más sorprendente, dos mamíferos que se comunican entre sí, uno pinto que ladra, y otro bípedo que lo cuida, circunnavega el planeta y se asombra de todo, hasta de su mismo asombro. No deja de llamar la atención que lo que damos ya como un hecho, la existencia de los átomos, sea en realidad algo que no se puede intuir fácilmente. Nuestros sentidos son incapaces de percibirlos y lo que nos rodea parece consistir de objetos, sólidos y fluidos, de aspecto terso y continuo. Es difícil imaginar que el humo de un cigarro esté formado de moléculas relativamente complejas o que al aire que respiramos lo componen moléculas simples separadas unas de otras millares de veces la distancia que caracteriza su tamaño. Para tener una idea de las dimensiones atómicas tendríamos que imaginar todo amplificado, de manera que por ejemplo una manzana fuese del tamaño de la Tierra. ¡Un átomo de la manzana sería entonces del tamaño de una canica! Si toda esta
concepción es cierta, y todo parece indicar que así es, la tarea de explicar, por ejemplo, el movimiento del agua al salir de un tubo, en términos de átomos, parece equivalente a tratar de construir la Torre de Babel. El problema de estudiar el movimiento individual de miríadas de partículas para luego predecir su comportamiento conjunto es algo que no tiene que ver con la física; en la práctica el problema no puede ni plantearse, mucho menos resolverse. Sería necesario aplicar las leyes básicas de los átomos, la mecánica cuántica, a cada partícula, y conocer detalladamente todas las fuerzas que actúan sobre cada una, establecer sus posiciones en algún momento y, con las matemáticas usuales, resolver simultáneamente el problema para todas. En una gota de agua hay 100 000 000 000 000 000 (1017) moléculas de agua aproximadamente, ¡tantas como segundos en la edad estimada del Universo!. Sería ridículo intentar escribir las ecuaciones y patético pensar en resolverlas. Nos tomó siglos pasar de una idea filosófica a una concreta que nos permite explicar suficientes cosas como para que su validez esté, por lo pronto, más allá de toda duda razonable. Ahora resulta que el asunto es tan complicado, que la idea es algo enteramente inútil (al menos para estudiar chorros de agua). La solución de este problema se encuentra en la complejidad del mismo. Suena paradójico, pero con un ejemplo podemos intuir el argumento que siguieron quienes contribuyeron a esclarecer la solución. Imaginemos un dado perfecto, cada arista de la misma longitud y cada ángulo de 90º. Supongamos ahora que el dado se encuentra parado sobre un vértice, con el vértice diametralmente opuesto sobre una línea vertical, y que nos preguntamos por la dirección en la que va a caer al soltarlo (Figura II.3). Si el lado es perfectamente simétrico, ¡no cae! Se quedará así mientras no sea perturbado. Una corriente de aire o una vibración, por imperceptibles que sean, harán que caiga el dado.
Figura II. 3. Equilibrio de un dado.
Una pequeña variación trae como consecuencia un efecto grande: la caída del dado. Los detalles de la perturbación son casi imposibles de prever y por consiguiente la posición precisa del dado no se puede predecir. Las fuentes que originan estas pequeñas variaciones son diversas, complicadas y difíciles de estimar. Un efecto es siempre el mismo: el dado se cae. Si hacemos una serie de pruebas encontraremos que las direcciones en las que cae están distribuidas sobre un círculo y que las caras que quedan hacia arriba son las tres opuestas al vértice de abajo, apareciendo éstas con igual frecuencia, si el número de pruebas es suficientemente grande. Así, del problema inicial, imposible de resolver, hemos podido encontrar varios aspectos claros y precisos de la solución, quizá obvios o triviales en este caso, pero que nos dicen cosas concretas sobre la caída. En primer lugar sabemos que cae; si esperamos lo suficiente, algo o alguien llegará a importunar la delicada paz del dado. Segundo, el dado no tiene preferencias y cae en cualquier dirección. En tercer lugar, hay tres caras que se reparten por partes
iguales el derecho de aparecer arriba. Este ejemplo ilustra los puntos claves que permiten estudiar la dinámica de un fluido, constituido de un número extraordinario de átomos. Nuestro sistema, el dado y sus alrededores, todo lo que rodea y afecta al dado, siguen ciertas leyes, las leyes de la mecánica. La aplicación de estas leyes resulta tan complicada que no podemos resolver el problema en la forma originalmente planteada, es decir, predecir en detalle el movimiento del sistema. Si cambiamos el enfoque buscando ahora una descripción cualitativa, más general, es posible entonces responder en forma precisa algunos aspectos de la caída de dados; aspectos de carácter más amplio que no dependen de los minuciosos y abrumadores detalles del proceso. Para esto aceptamos a cambio describir el comportamiento más probable o promedio del sistema, introduciendo un elemento esencialmente nuevo en nuestra descripción: la probabilidad. Esta herramienta, una de las más poderosas que las matemáticas han generado, es ahora un ingrediente fundamental en la física. Podría pensarse que el precio de nuestra ignorancia o incapacidad es el de conformarse con una descripción más burda, menos exacta, pero no es así. En realidad el problema inicial es irrelevante y en el fondo ni siquiera interesa. Si en el ejemplo del dado pudiésemos resolver un caso en particular, haciendo uso de todo lo que sabemos y una dosis de ingenio, tendríamos precisamente eso, un caso especial. Una pequeña variación y el resultado sería muy distinto (otra dirección y otra cara). Este efecto, en el que un pequeño cambio en el estado inicial produce un resultado final radicalmente distinto, ha introducido más de una sorpresa en nuestro estudio de la naturaleza. Esto es particularmente cierto con los fluidos. Mucho más fructífera ha sido en cambio la búsqueda del comportamiento global, promedio y genérico de un sistema. No es raro escuchar que cuando se recurre al análisis estadístico o al uso de conceptos probabilísticos es debido a nuestra incapacidad o ignorancia. Sin afirmar que esta posición es ridícula, sí es sólo una parte de la historia; a veces irrelevante. Al promediar muchos detalles se obtiene una descripción completa. En el caso de los gases no es necesario conocer muchos de los detalles atómicos para conocer su temperatura, presión y volumen. Esto es característico del sistema, ¡no de quien lo observa! En todo caso, la tarea del científico es la de explicar cómo y por qué sucede esta maravillosa contracción de la información. Encontrar qué cantidades o propiedades microscópicas son irrelevantes para predecir el comportamiento que observamos es parte de la investigación en curso, si bien contamos con respuestas exquisitas e indicaciones claras de cómo proceder en muchos casos. La descripción macroscópica de un fluido, es decir, la definición de las cantidades que se usan para caracterizar su estado y las leyes que determinan la variación temporal y espacial de éstas, tiene su fundamento en el comportamiento (dinámica) de las partículas que lo forman. Esto ocurre de tal manera que, al actuar en concierto, cada átomo o molécula pierde su identidad, heredando algunas de sus características a cantidades genéricas o colectivas llamadas coeficientes de transporte, como la viscosidad y la conductividad térmica. Estas etiquetan al fluido, distinguiéndolo de otro de composición diferente. La teoría que establece la conexión entre este mundo microscópico de átomos y moléculas y el mundo de los fluidos, de chorros y remolinos, es un activo proyecto de investigación en múltiples instituciones académicas en casi todos los países, en particular en México. En el caso de fluidos poco densos, de los gases, la teoría fue construida por James Clerk Maxwell y Ludwig Boltzmann a finales del siglo pasado y desarrollada a todo lo largo del presente siglo; se conoce como la teoría cinética de los gases. El notable éxito logrado en el caso de los gases confirma la viabilidad del programa que busca establecer esta conección en el caso de un fluido arbitrario y fuera de equilibrio. Desde un punto de vista más práctico, cualquier fluido como el agua o el aire forma una estructura continua y suave al estudiarlo macroscópicamente, es decir en dimensiones mayores a, digamos, décimas de milímetro (0.1 mm = 10-4 m). En un volumen de un cubo de 0.1 mm de longitud por lado, de una millonésima de litro (10-12 m³), hay 7.34 x 1015 (734 seguido de 13 ceros) moléculas de aire, a una temperatura de 27º C ¡y a presión atmosférica! En este volumen, tan pequeño como parece, hay tal cantidad de moléculas que la presencia de unos millones de más o de menos de éstas no afectan de manera apreciable ninguna cantidad medible, aun con los instrumentos más precisos de que se dispone. Estos instrumentos miden cantidades promedio sobre un desorbitado número de partículas, de manera independiente de éste. En una verdadera escala microscópica los átomos ocupan una fracción muy pequeña del volumen que los
contiene, el espacio vacío entre unos y otros ¡es mayor al 99.999... %!, de modo que las propiedades del fluido son muy irregulares, cambiando rápidamente de una región a otra debido al continuo movimiento de las moléculas; no usamos pues esta microescala cuando lo que interesa es entender cómo se vacía un lavabo o se infla un globo. La hipótesis básica, que es válida para la teoría en todos los niveles, es la llamada hipótesis del continuo. Ésta consiste en suponer que todas las cantidades necesarias para caracterizar a un fluido, como pueden ser su temperatura, su velocidad, su densidad, etc., están bien definidas en cada punto del espacio y varían suavemente de uno a otro, ignorándose así la naturaleza discreta, atómica, del fluido. Por un punto se sobreentiende entonces un volumen muy pequeño, digamos una milésima del considerado en el párrafo anterior, en el que hay un número tan grande de moléculas como para que el promedio de la velocidad no dependa de este número, pero lo suficientemente pequeño como para que pueda verse como un punto por los instrumentos más sensibles y finos. A partir de ahora dejaremos de lado a los átomos, pues a pesar de su importancia hemos encontrado la ventaja de ignorarlos. Nuestras partículas de fluido tendrán el sentido que dimos a un punto en el fluido. A pesar de la advertencia, volveremos a los átomos en el último capítulo, cuando nos dejemos sorprender por los superfluidos. II. 3. APEROS: FRASCOS Y TUBOS, IDEAS, MATEMÁTICAS Y... FLUIDOS El estudio de un fenómeno, o un grupo de ellos, se inicia con una serie de observaciones que permiten apreciar cuáles son los aspectos más importantes, los que gobiernan el proceso. En el fondo, lo que se busca es la forma de simplificar el análisis, aislando las causas que determinan el efecto principal e ignorando aquellas que desempeñan un papel secundario. Establecer cuáles cantidades y la forma en que éstas contribuyen es una parte medular del proceso de entendimiento. Encontrar las razones por las que se combinan de esa manera, usando los principios o leyes correspondientes, es otra etapa igualmente difícil e importante. La última parte, la esencia misma del conocimiento científico, es la predicción. Con base en el estudio previo debe ser posible anticipar el resultado de nuevas observaciones al cambiar de diversas formas el arreglo inicial del fenómeno. En el esquema anterior está implícito lo que se conoce como método científico. Lejos de ser un procedimiento sistemático y consciente, que lo convertiría en una receta, hermosa, complicada y útil, pero al fin y al cabo una secuencia de pasos bien definidos a seguir, los investigadores intuyen este procedimiento con base en una tradición racional, participando en una o más de estas etapas, omitiendo algunas, ocasionalmente agregando otras y ligados indisolublemente, conscientemente o no, a su entorno social. Lo que sí podemos extraer son algunos de los elementos que parecen siempre estar presentes en una u otra forma en el quehacer científico y en especial en la física; este problema, ciertamente abierto, es materia de la teoría del conocimiento, la epistemología, y ha sido objeto de estudio y reflexión de filósofos e investigadores. Un primer aspecto es la concepción filosófica que el observador tiene de la naturaleza y del conocimiento que sobre ésta puede adquirir; aquella puede ser explícita o tácita. En este mismo nivel hay una serie de principios filosóficos y de reglas lógicas que el investigador establece, usa y que, normalmente, van implícitas en su trabajo. Así, su contribución diaria puede sobreentender un materialismo que da por hecho la existencia de un mundo objetivo independiente de él, una convicción total en el principio de causalidad que justifica buscar el origen de un efecto, o el uso irrestricto de la lógica clásica, que sin temor al abuso se omiten al discutir de política. En la parte que toca a las observaciones mismas, empezamos por elaborar un modelo a priori (antes de empezar) sobre el fenómeno al separarlo en partes, el sistema y sus alrededores, y asociarle una regularidad que nos asegure que al repetirse el fenómeno podremos observar y medir lo mismo. Si un resultado no se puede reproducir, por lo general pierde el interés científico, convirtiéndose en un hecho fortuito, objeto de un análisis de otra especie. El llevar a cabo un experimento que "remede en todo" al anterior, tantas veces como sea necesario, es algo que sólo puede lograrse en un laboratorio. Así, con base en el ingenio, la minuciosidad sistemática, la intuición y la experiencia, como en cada etapa en la dilucidación del fenómeno, se escogen las cantidades relevantes. Acto seguido se determina la forma de medirlas, las posibles fuentes de error y se procede a su cuantificación, estableciendo la consistencia interna y la estadística de los datos obtenidos. El análisis siguiente consiste en asociar un símbolo a cada cantidad y precisar las posibles relaciones entre éstos, es decir, la forma en que unos dependen de otros. Este proceso lleva a la elaboración de expresiones (fórmulas)
que vinculan a los símbolos entre sí, sintetizando grandes cantidades de datos. Las reglas para asociar números a símbolos y para manipular y combinar estos últimos constituye el lenguaje que llamamos matemáticas. En realidad, las matemáticas son una disciplina teórica que va más allá de un lenguaje o una herramienta, aunque vistas como tales permiten, en manos educadas y hábiles, forjar una imagen abstracta, extremadamente útil y especialmente bella del universo concreto que percibimos. Una virtud de las imágenes así logradas es su capacidad de hablar, a quien las sabe oír, sobre lo que es posible y lo que es probable. ¡Cómo hubiesen aprovechado algo semejante las sacerdotisas del oráculo de Delfos! No siendo de origen divino las predicciones así logradas, como nunca lo fueron las pregonadas por las pitias en Delfos, siempre son sujetas de verificación, a través de más experimentos. Basta con uno de éstos que no corresponda a lo esperado o predicho, para que sea necesario modificar parte de las premisas usadas en la elaboración de la predicción, repitiéndose entonces el proceso. Ha sucedido, por fortuna muy de vez en cuando, que las modificaciones necesarias han ido al mismo fondo de los principios filosóficos. La física funciona más o menos como lo hemos esbozado. Al construir una teoría se parte de algunos conceptos primitivos que se dejan sin definir o se apela a la intuición para introducirlos, como la masa, el espacio y el tiempo. Después, se definen cuidadosamente cantidades compuestas, como la densidad, la velocidad y la presión, y acto seguido se postulan ciertas proposiciones (basadas en experimentos), los axiomas o leyes fundamentales, como verdaderas y universales. Su inmensa virtud es que, ante la duda, basta con llevar a cabo un experimento para constatar su validez. A partir de los axiomas se deducen entonces una serie de proposiciones o teoremas que, posteriormente, llegan a ser consecuencias no triviales y lejanas de aquellos postulados originales. En muchos casos los teoremas son formulados como conjeturas basadas en la intuición o como resultado de un experimento. El reto en estas circunstancias es encontrar el procedimiento para deducirlo a partir de los axiomas: encontrar la explicación completa del fenómeno a partir de las leyes fundamentales de la teoría. El estudio de los fluidos, como parte de la física, ha seguido un camino semejante lleno de obstáculos salvados, de anécdotas pintorescas, de errores patéticos, de experimentos notables y de teorías ingenuas. Cada faceta del proceso desempeñó una parte importante para alcanzar el nivel que ahora tiene. En la dinámica de fluidos la dificultad más grande ha radicado en la demostración de los teoremas; una enorme cantidad de resultados experimentales y de fórmulas empíricas esperan ser deducidos de los principios básicos de la teoría. Esto permitiría generalizarlos, arrojando luz sobre otros resultados experimentales aparentemente ajenos e igualmente incomprendidos. No hay ninguna rama de la física que pueda considerarse cerrada y todas son objeto de investigación activa; los fluidos no son una excepción. El problema de la turbulencia, que se menciona más adelante, es uno de los grandes retos de la física teórica. Para construir un aparato teórico que nos permita entender y explicar el movimiento de los fluidos y de los objetos inmersos en ellos, lo cual observamos todos los días, es necesario introducir tres elementos como punto de partida. El primero es el de los conceptos primitivos de masa, espacio y tiempo, el segundo es el constituido por las cantidades (variables) que usamos para caracterizar y describir a un fluido cualquiera y el tercer elemento es el marco de referencia adecuado para determinar estas variables. En cuanto a los conceptos básicos las definiciones tal vez dejarán que desear y seguramente el lector podría encontrar otras más adecuadas, pero por ahora no hacen falta. La masa es la cantidad de fluido que medimos con una balanza. El espacio es el escenario que usamos para localizar o ubicar al fluido o a una parte de éste. Imaginamos que existe un punto especial, que llamamos origen, y desde él medimos longitudes con una regla. El tiempo será un parámetro que nos permita ordenar estados diferentes del fluido de acuerdo con su aparición en el experimento; este ordenamiento lo establecemos en relación con el Sol o con un reloj. Si no hay cambios, o estados distintos, el parámetro tiempo desaparecerá de la descripción. Si el fluido presenta comportamiento electromagnético, a los elementos básicos debe agregarse la carga. El segundo punto es más complicado y tiene que ver con cuántas y cuáles cantidades es necesario disponer para contar con una descripción completa y exhaustiva de un fluido. Esta cuestión, que no está del todo libre de controversia, especialmente cuando se trata de fluidos un tanto exóticos, ha ido resolviéndose a lo largo del tiempo con base en la experiencia. Al quedar enunciadas las leyes en su forma actual se estableció cuántas y cuáles variables, que llamaremos variables dependientes, son las mínimas para caracterizar el estado dinámico de un fluido. Al espacio y al tiempo se les llama variables independientes. Antes de especificar qué variables dependientes se usan para describir a un fluido consideremos ahora el punto que se refiere al marco en el que éstas se definen. Para esto vamos a usar una analogía con la astronomía.
Al observar el cielo en una noche clara, con la ayuda de un telescopio, además de la reverencia que infunde su extensión, profundidad y belleza, aparece la duda por saber en qué dirección fijar el instrumento. Si lo que queremos es llevar a cabo una observación sistemática podríamos escoger entre dos posibilidades: una, enfocar un objeto celeste y seguirlo en su trayectoria. Una vez determinada ésta, repetir el proceso con un segundo objeto y así sucesivamente hasta tener una muestra representativa del movimiento de los objetos más brillantes o más azules o lo que sea; la segunda posibilidad consiste en dejar fijo el telescopio, como una ventana al firmamento, y observar los objetos que cruzan el campo visual, determinando su brillo, color, velocidad o belleza. Posteriormente, cambiar la dirección del telescopio e iniciar de nuevo el proceso y, como en el caso anterior, obtener un muestreo de los objetos celestes y de su comportamiento. Al primer procedimiento se le conoce como descripción lagrangiana, en memoria de Louis Lagrange, uno de los grandes genios de su tiempo, quien dio a la mecánica de Newton una estructura matemática que lo menos que puede decirse es que su elegante belleza iguala su generalidad. La segunda opción es la descripción euleriana, llamada así en honor a Leonhard Euler, el más prolífico matemático en su época, quien formuló la primera teoría de los fluidos; parte de ella se mantiene en su forma original hasta la fecha. Estas dos descripciones son usadas en física indistintamente, dependiendo de las circunstancias. Como herramienta conceptual, sin embargo, la formulación euleriana conduce a lo que se llama una teoría de campo, esquema que se emplea en la mayoría de las teorías modernas de la física. Partir de una descripción lagrangiana supone identificar a una partícula de fluido, considerada como un pequeñísimo volumen, y aplicarle las leyes de la mecánica. Si bien es difícil establecer esta identificación en la práctica, conceptualmente es mucho más atractiva la idea de aplicar los principios de la física a un pedazo de materia que se mueve, manteniendo su identidad como sistema, que aplicarlos a un punto por el que van pasando distintas partes del fluido. En los textos modernos que tratan de este tema se hace precisamente esto; se empieza con una descripción lagrangiana y, una vez introducidos los principios e hipótesis físicas necesarias, se traduce al lenguaje euleriano, usando el diccionario (matemático) apropiado que toda lengua merece. La formulación euleriana, en la que vamos observando diferentes puntos del espacio y estudiamos lo que ahí sucede al transcurrir el tiempo, da lugar a una teoría de campos. La siguiente idea ilustra el contenido de la frase anterior. En cada punto se hallan definidos ciertos atributos físicos del fluido, digamos densidad y velocidad. De un sitio a otro las propiedades cambian de valor, como en la imagen de un paisaje varían las tonalidades de azul o de verde. Además, con el paso del tiempo las propiedades van cambiando, al igual que sucede en los cambios de las estaciones, cuando una planta nace, crece, florece y muere. Las causas para que cada uno de los cambios se dé pueden ser diversas y lejanas; las apreciamos al estudiar no un sólo punto sino muchos, todos, si es posible. Finalmente, para concluir con los preparativos que nos permitan entrar en el tema, vamos a introducir las variables dependientes, los campos, que nos facilitan la descripción de diversos procesos y la discusión de los principios subyacentes. Dividimos en dos clases a estas variables, los campos escalares y los campos vectoriales. Los campos escalares son relativamente sencillos y los conocemos por la práctica que adquirimos al habitar nuestro planeta. Su especificación en cada punto está dada por un número de acuerdo con una escala universalmente aceptada. Una gráfica o una tabla de datos correspondientes cada uno a puntos distintos, nos da toda la información espacial del campo. Si éste cambia con el tiempo se necesita una tabla para cada tiempo. Los campos escalares usuales son la densidad, la temperatura y la presión, que representamos por ρ, T y p, respectivamente. La densidad nos da una medida relativa entre masa y volumen, es decir, entre la cantidad de materia y el espacio que ocupa, y es una propiedad más o menos familiar. El oro es más denso que el merengue y éste más denso que el aire, todos lo intuimos. Es importante hacer notar que la densidad es una propiedad intensiva; es decir, no depende de la cantidad. Por ejemplo, las densidades de un anillo y de un lingote, los dos de plata, son iguales, como lo es su color. Definida como el cociente de la masa, que medimos con una balanza, y el volumen, que medimos con... ingenio, la densidad es una propiedad que no depende de la forma del material, pero sí de la temperatura y la presión (no definidas aún, pero cuyo significado sospechamos). Sus dimensiones son, obviamente, las del cociente masa/volumen. Las unidades correspondientes son, por ejemplo, toneladas/litro, kilogramo/galón,
miligramo/kilómetro cúbico, etc. La convención usual es el gramo/centímetro cúbico, gr/cm³ (recordemos que 1 litro = 1 000 cm³ ). La tabla siguiente ilustra los valores de la densidad para algunos objetos.
Material
Densidad (gr/cm3)
Hoyo negro
~ 1018
Núcleo atómico Centro del Sol Otro sólido Centro de la Tierra Agua Hidrógeno líquido Aire ambiente
~ 1014 ~ 160 000 19.3 ~ 12 1 0.07 0.0012
Aire a 300 km de altura
~ 10-14
~ aproximadamante
La temperatura, otra noción familiar, es un concepto primitivo que no podemos construir en términos de masa, espacio y tiempo en una teoría macroscópica, pero que está asociado a la idea intuitiva del grado de calentamiento de un cuerpo. Aquí nos contentaremos (indignando quizá a más de uno) con definirla como la propiedad que medimos por medio de un termómetro, instrumento que todos conocemos en alguna versión y que hemos usado alguna vez, posiblemente para evitar ir a la escuela. La escala tiene por unidades a los grados Kelvin (º K) y se conoce como la escala absoluta de temperatura; cada º K es equivalente a un º C. De manera que la escala Celsius, que se usa para asignar temperaturas al consomé de pollo o a un niño resfriado, marca las mismas diferencias de temperatura que la escala absoluta, con la peculiaridad de que la mínima temperatura que es posible alcanzar en la naturaleza es de 0º K (= -273.15º C). En el capítulo VI regresaremos a esta singular ley de la naturaleza. El otro campo escalar que usaremos es la presión y, como se dijo en la sección II. 1, está definida como la fuerza normal que actúa sobre un área dada. Si la misma fuerza normal actúa sobre dos áreas distintas, la presión es menor sobre el área mayor. Como ilustración imaginemos un objeto cuyo peso es suficiente como para que al ponerlo encima de un huevo éste se aplaste sin remedio. Siempre podemos poner suficientes huevos como para que el peso se reparta entre todos, de modo que la fuerza que recibe cada uno no exceda su "factor de aplastamiento". Al distribuirse la fuerza sobre un área mayor, la presión es menor.
Figura II. 4. Presión: fuerza repartida en un área.
Por eso los cuchillos cortan, los picahielos pican y las palas palean con la eficiencia que lo hacen; ni se diga si además el usuario sabe emplearlos. Las dimensiones de presión son de fuerza/área y las unidades de mm-Hg); la equivalencia entre éstas es: 1 atm = 760 mmHg = 101,352 Pa. La presión de una atmósfera es igual al peso que una columna de mercurio de 76 cm de altura ejerce sobre un cm², al nivel del mar. Es la misma que ejerce toda la columna de aire arriba de nuestra cabeza. Esto lo demostró Evangelista Torricelli, discípulo predilecto y último de Galileo, usando el sencillo y convincente dispositivo que aparece en la figura II. 5.
Figura II. 5. Tubo de Torricelli para determinar la presión atmosférica.
Un efecto semejante se observa con el agua, excepto que la columna es ¡de más de 10 m de altura!; por eso es más sensato usar mercurio, pues siendo metal se mantiene líquido a temperatura ambiente. Curiosamente, fue René Descartes, filósofo y matemático del siglo XVII, quien sugirió a Blaise Pascal el experimento para determinar
la forma en que cambia la presión atmosférica con la altura. El joven genio construyó entonces un barómetro, como el de la figura II. 5, pero usó vino tinto en lugar del mercurio, ¡en una columna de 14 metros! Debió ser una experiencia memorable... En el caso de los campos vectoriales las cosas son un poco más complicadas e interesantes, como las personas. Los vectores requieren para su especificación de algo más que un número: reclaman dirección. La velocidad es un ejemplo característico, ya que no es suficiente dar un número, su magnitud, como 20 km/h; hace falta agregar la información que establece en forma unívoca la dirección en la que se mueve el objeto en cuestión. En cada punto y a cada tiempo es preciso dar tres datos, como por ejemplo la magnitud (el tamaño de a flecha que representa al vector) y dos ángulos. Convencionalmente se usan los ángulos θ y φ, definidos geométricamente como se ilustra en la figura II. 6. En ésta, las líneas (ejes) x, y, z son mutuamente perpendiculares y al sistema de coordenadas así definido se le llama cartesiano, en honor a Descartes, a pesar de no haber sido quien lo definió por primera vez.
Figura II. 6. Sistema de ejes cartesianos.
Cada vector es entonces representado por una tema de números que nos da, en el punto e instante correspondientes, la magnitud y orientación locales del campo. Una representación frecuente de un campo vectorial es a través de sus línea de campo, que para el caso de la velocidad en un fluido se llaman líneas de corriente o de flujo. En cada punto de éstas el vector velocidad (cada flecha) es tangente. En donde las líneas de corriente tienden a juntarse la velocidad es mayor que en aquellas donde parecen separarse. Si consideramos flujos en dos dimensiones, como el flujo de una película delgada encima de una superficie, sólo necesitamos dos cantidades, la magnitud y el ángulo con respecto a una dirección; esta última la escogemos con base en algún capricho o conveniencia. En la figura II. 7 se ilustran estas curvas.
Figura II. 7. Flujo uniforme y lento alrededor de un cilindro circular. Nótese que es (casi) imposible distinguir la dirección del flujo.
La velocidad, instantánea y local, la definimos como el cociente de la distancia recorrida y el intervalo de tiempo que le toma recorrerla. La velocidad así definida puede cambiar de un punto a otro, o en un mismo punto con el paso del tiempo. Los intervalos de tiempo que corresponderían a esta definición los supondremos tan pequeños como sea posible medirlos en un experimento. En la práctica, lo que se acostumbra hacer es suspender en el fluido partículas reflectoras de luz (hojuelas de aluminio) que al ser iluminadas son captadas por una cámara; la exposición debe ser tan breve como para que las trazas dejadas en la película sean segmentos rectos. El tiempo de exposición es el intervalo de tiempo y la longitud de la traza es la distancia recorrida. La hipótesis implícita es que las partículas suspendidas en el fluido se mueven con éste sin alterar el flujo, de modo que las fotografías nos revelan las líneas de corriente y las velocidades (Figura II. 8).
Figura II. 8. Visualización, por medio de trazadores, de flujo alrededor de un cilindro circular. La velocidad del flujo es mayor que en la figura II. 7.
La fotografía muestra el flujo alrededor de un cilindro, como en la figura anterior; la diferencia estriba en que en este caso la velocidad con la que llega el fluido (de derecha a izquierda) es mucho mayor.
Esta técnica de visualización, introducida a principios de siglo, es hoy en día un elaborado arreglo experimental en el que intervienen todos los adelantos tecnológicos en óptica, electrónica, computación y diseño mecánico. El procesado numérico de imágenes y datos, logrados a partir del análisis de luz láser, dispersada por esferas de poliestireno de una micra de diámetro suspendidas en el fluido, nos permite estudiar minuciosamente flujos que hace unas décadas no se imaginaban, en particular los flujos turbulentos, caóticos y complejos, que discutiremos en el capítulo V.
III .UNA "HISTORIA" DE LAS IDEAS LA FORMA en que fueron descubriéndose efectos, principios y leyes en muchos casos sólo puede imaginarse, pues existe una laguna en cuanto a los protagonistas y sus condiciones sociales, económicas y culturales. La humanidad ha vivido siempre con fluidos. Cómo y cuándo aprendió a usarlos sólo puede adivinarse. En el presente libro no están todos los que fueron, aunque sí fueron todos los que están. Muchos nombres, fechas y circunstancias aparecen más como guía cronológica que como reconocimiento del papel que desempeñaron en la edificación de la actual teoría de los fluidos. Una historia no es sólo una secuencia de nombres, fechas, hechos y las anécdotas que los conectan. Es más bien una explicación e interpretación de éstos a partir de hipótesis fundamentadas y basadas en patrones globales del comportamiento; en nuestro caso es la tarea de los profesionales del campo, los historiadores de la ciencia. Más que evocar una historia, lo que haremos será una visita parcial a través del tiempo para recordar pasajes exquisitos del desarrollo del pensamiento humano. Así, pasaremos por algunos aspectos que costaron mucho entender o manejar, por ciertos puntos sencillos y prácticos que nos dejan sospechar las peculiaridades de un fluido y otros más bien curiosos o simplemente divertidos, que aparecen distribuidos en el tiempo y en diferentes sitios, lo cual les da una perspectiva que, al recordar las circunstancias culturales, políticas, sociales o económicas, permite intuir la historia. No es casual que los cambios y avances importantes que modificaron cualitativamente el conocimiento de la dinámica de los fluidos se llevaran a cabo en forma paralela a los cambios sociales. Es importante subrayar aquí, aun cuando quizá no pueda apreciarse en lo que sigue, que las etapas diversas de organización social, el florecimiento de una cultura o el decaimiento de una civilización, se ven reflejadas en el desarrollo particular de los fluidos. No puede entenderse éste si no es como una huella más de la actividad humana en su conjunto. III. 1. SOBREVIVENCIA, MAGIA, NECESIDADES Y LUJOS Hasta hace aproximadamente 100 000 años el hombre seguía tratando de acostumbrarse a vivir bajo los árboles. El paso de recolector de frutos, que afortunadamente no hemos abandonado del todo, al del cazador, fue muy largo y es difícil intuir siquiera cómo se llevó a cabo. En este paso inventó y descubrió múltiples utensilios que le hicieron más fácil su existencia en un medio ajeno y hostil que luego dominó y, diríamos ahora, casi se acabó. Inventó la rueda mucho después del vestido y descubrió el fuego antes que aquélla. Desarrolló armas para subsistir, descubrió después el bronce y, hace unos 10 000 años, la agricultura. Probablemente aprendió a manejar los fluidos en forma circunstancial en este proceso. Los primeros que se estaban ahogando por humo dentro de una cueva sacaron al fuego a la intemperie o se buscaron una cueva con el techo más alto, y aprendieron que el aire caliente sube, pero sin intuir en ello el principio de la flotación. Los primeros navegantes tal vez surgieron de una poco afortunada pérdida de equilibrio en la orilla de un río y del fortuito paso de un tronco en la vecindad inmediata. También podemos imaginar que, al observar que ciertos objetos flotaban en un río, a más de uno se le ocurrió aprovechar el hecho para viajar río abajo y, con suerte, al otro lado. La evolución de un tronco a una canoa, de ésta a una balsa y de ésta a un medio de carga y transporte colectivo, así como del mecanismo de propulsión de varas a remos y de éstos a velas, sólo podemos reconstruirlo usando el sentido común y una fértil imaginación. Algo semejante puede decirse de las armas. El proceso que va desde arrojar piedras y palos, que a más de una presa sólo debe haber irritado lo suficiente como para comerse al cándido ancestro, hasta la invención del mazo y, mucho más tarde, hace unos 30 000 años, el arco y la flecha, comprende múltiples pruebas e insólitas experiencias. Bajo la presión de la supervivencia el hombre aguzó el ingenio para adaptarse y manejar su ambiente que, gústele o no, lo dominan los fluidos. En esta etapa de la protohistoria, que abusivamente catalogamos de supervivencia, se hicieron obras notables destinadas al riego. Las necesidades agrícolas de las culturas que florecieron en Mesopotamia y Egipto, al menos 4000 años a.C., llevaron a diseñar y construir presas y diques, cuyos restos aún pueden apreciarse en las márgenes de los correspondientes ríos. Vestigios semejantes, de tiempos casi tan remotos, fueron descubiertos en las riberas de ríos en la India y la China. La construcción de canales para riego, transporte y surtido de agua a las grandes
metrópolis de entonces confirma la relación directa entre el nivel de una civilización y la posesión de una tecnología para mantenerla; en particular, la relación con el agua. En forma paralela a las obras hidráulicas a gran escala se desarrollaron artefactos, instrumentos y curiosidades asociadas al comportamiento de los fluidos. Es posible suponer que el ser humano intuía algunos principios básicos, si consideramos su notable conocimiento empírico. El uso del fuelle, la jeringa y el sifón era frecuente, como lo reflejan los legados pictóricos y estelas fragmentadas que se conservan, mismas que muestran la existencia de la pipeta, la clepsidra, reloj de agua usado en Babilonia y posteriormente en Egipto, y el uso de los vasos comunicantes. Hubiera sido difícil, muy difícil, llevar a cabo algunas obras de ingeniería sin algunos de estos aparejos. El nivel de pisos y bóvedas seguramente se establecía, como aún hoy lo hacen los buenos albañiles, usando el principio de los vasos comunicantes. La clepsidra, perfeccionada y usada a través de la Edad Media, consistía en un recipiente con un orificio por el que el agua goteaba a una velocidad constante. El nivel en el recipiente, al ir bajando, marcaba el tiempo en una escala fija en las paredes. Esta idea sencilla, como tantas otras, fue desarrollada hasta alcanzar un alto grado de complejidad técnica y artística.
Figura III. 1. Vasos comunicantes (a) y clepsidra (b).
El paso de la información en forma oral, de una generación a otra, hizo que gran parte de ella se perdiera en el tiempo. Por otro lado, algunos instrumentos y tal vez sus principios se manejaban con el más meticuloso sigilo por quienes detentaban el poder político o religioso, o ambos, como usualmente sucedía. Los portentos exhibidos en los templos egipcios para mantener la fe, mostrar el beneplácito de los dioses o dejar ver la ira divina, se lograban usando mecanismos hidráulicos ocultos, empleando aire o agua como vehículo; elevar objetos, desplazarlos y, con ingenio, desaparecerlos, fue una práctica desarrollada en ciertas esferas no exclusivas a los cultos a Ra. Que el saber trae consigo el poder no sólo fue explotado por quienes disfrutaban los médanos del Nilo... Pero el secreto que rodeó a esa "tecnología" se quedó en el pasado y no podemos más que especular qué tanto la entendían. Desde el remoto y oscuro pasado hasta el florecimiento de la cultura helénica, el hombre acumuló un vasto conocimiento práctico sobre el comportamiento de los fluidos. De los complejos sistemas de riego a las elaboradas embarcaciones propulsadas por viento y de las aerodinámicas flechas y lanzas, al sifón y la clepsidra.. Las extensas guerras de conquista de Alejandro Magno permitieron a la civilización occidental enriquecerse con el legado asiático. Alejandría sustituyó a Atenas y amalgamó la cultura de la época, resumiendo el conocimiento previo en su legendaria biblioteca. No es de sorprender que ahí brillaran las artes y ciencias con Euclides, Arquímedes y Ptolomeo, entre otros. De las diez obras que se conocen de Arquímedes (287-212, a.C.) destacan sus dos volúmenes sobre la hidrostática y la flotación. En la mejor tradición de la escuela de Euclides, con cuyos discípulos se educa, basa todo su análisis en dos postulados sencillos y ciertamente correctos. A partir de éstos demuestra varios resultados que todavía forman parte del cuerpo de los teoremas básicos de la hidrostática y la estabilidad de cuerpos que flotan. Uno de ellos es el principio que lleva su nombre y establece que "si un sólido es parcial o totalmente inmerso en un fluido, sufre una fuerza ascendente igual al peso del fluido desplazado". Este sencillo enunciado nos permite entender un sinnúmero de fenómenos aparentemente disímbolos Veamos ahora tres de ellos: la flotación de un
barco, la flotación de globos meteorológicos de altura fija y la proporción de oro en un anillo de bodas. El principio dice que las cosas flotan en un fluido, lo que implica que pesan menos. La reducción en peso es igual al peso de una cantidad de líquido de volumen igual al del objeto sumergido. Consideremos un ejemplo. Imaginemos un cubo de cuarzo de 1 cm³, se mide un centímetro por lado. Al vacío, encontramos que pesa 2.65 g. Al sumergirlo en agua desplaza 1 cm³ de ésta. Al pesar esta cantidad de agua se halla que pesa 1 g. Por lo tanto, en el agua, el peso de nuestro cubito de cuarzo es de 1.65 g. ¿Por qué flota un barco de acero? Puesto que un metro cúbico de agua pesa una tonelada, para hacer flotar (reducir su peso a cero) a un barco de 1 000 toneladas es preciso que desplace 1 000 m³ de agua. Es decir que el volumen del barco, abajo de su línea de flotación (Figura III.2), debe ser de, digamos, ¡un cubo de 10 m por lado! Si es más largo que ancho no tiene por qué estar tan sumergido y será de menor calado. Criterios de estabilidad, también desarrollados por Arquímedes, son algunos de los aspectos que determinan la forma más adecuada para el casco del barco, la parte sumergida.
Figura III. 2. Línea de flotación.
¿Cómo subir un globo a una altura predeterminada? Un globo lleno de algún fluido menos pesado que el aire sufre una fuerza que lo hace ascender, por flotación. Puesto que con la altura el aire es cada vez menos denso, más enrarecido, el globo subirá hasta la altura en que ambos fluidos (el contenido en el globo y el aire externo desplazado) pesen lo mismo. Conociendo la forma en que varía la densidad del aire con la altura es posible predeterminar la altura a la que un globo meteorológico llegará y permanecerá, con sólo variar su volumen y contenido. Estos globos se emplean principalmente para medir propiedades de la atmósfera como la presión, la temperatura, la humedad y los contaminantes (¡en la ciudad de México éstos pueden medirse con un globo sobre la banqueta!). Siendo el aire un fluido, todas las cosas sufren flotación y, me apena decirlo, ¡las personas son mas pesadas de lo que creen! Otro ejemplo está conectado a la leyenda según la cual Arquímedes descubrió la flotación. Hierón I, rey de Siracusa (Sicilia), cuna y residencia de Arquímedes, deseaba saber si su corona contenía oro en la proporción adecuada. La solución la encontró Arquímedes, se dice, al entrar en el agua de un baño público, del que salió eufórico gritando "¡eureka!", rumbo a su casa, sin siquiera vestirse. Apenas llegó sumergió en agua pesos de oro y plata iguales, determinando los desplazamientos de agua respectivos. Al comparar éstos con el desplazamiento que generaba la corona determinó el porcentaje de cada metal por medio de una sencilla regla de tres. Con un anillo de bodas el proceso es el mismo, aunque las consecuencias son más difíciles de prever... El trabajo de Arquímedes en hidrostática es uno de los grandes logros de las matemáticas y mecánica griegas
(aunque él era tan griego como un latinoamericano español). "Es uno de los monumentos más espléndidos a su genio [...] al que poco han podido agregar quienes le sucedieron", dijo Lagrange, casi 2 000 años después. Su genio en las matemáticas lo pone en la categoría que solo comparte con Isaac Newton y Friederick Gauss. La herencia que recibió Grecia para su notable desarrollo en todas las áreas le fue legada principalmente por Mesopotamia y Egipto. Sobre ella construyó el partenón intelectual que conocemos. Por otro lado, las bases sobre las que creció la cultura latina fueron tomadas e incorporadas intactas de los griegos. El imperio romano se consolidó sin que Alejandría hubiese dejado de ser el emporio cultural del mundo occidental. Si Grecia es recordada sobre todo por sus contribuciones en filosofía, artes y matemáticas, Roma buscó brillo en otras direcciones y muy poco contribuyó al avance de las matemáticas y al conocimiento de los fluidos. Los mil quinientos años subsecuentes fueron ricos en obras de gran importancia en torno al manejo de aguas. Todavía pueden apreciarse los notables acueductos que los romanos sembraron en el orbe que dominaron. El diseño y construcción de sistemas de aprovisionamiento de agua, de su distribución a través de grandes ciudades y de los drenajes correspondientes, hablan del grado de desarrollo de la ingeniería hidráulica en el imperio. La necesidad de resolver problemas prácticos impulsó ese desarrollo. El regado de inmensos jardines palaciegos y el proveer de comodidades a sus ocupantes fue un ingrediente adicional. Poco o nada se logró sobre el entendimiento y uso del agua y el viento. El intercambio con el mundo árabe, a través de las diversas guerras de conquista y reconquista mutua, incluyendo las Cruzadas, permitió un flujo de ideas, invenciones y costumbres que en el crisol del tiempo dieron luz a la deslumbrante explosión renacentista. III. 2. DE LA METAFÍSICA A LA FÍSICA Los diez siglos que siguen a la caída del Imperio romano y que gestan la aparición de una brillante era en la historia de nuestra civilización, sirven para consolidar el sistema económico feudal y el poder de la iglesia cristiana, asimilándose el legado filosófico griego. Este último aspecto llegó a su climax con la aristotelización del cristianismo por Tomás de Aquino en el siglo XI. La incorporación de las matemáticas, la lógica, la metafísica y la astronomía griegas a la enseñanza en las "universidades" medievales, que fundara Carlomagno en el siglo VIII, llevó a la formulación de la educación escolástica basada en las siete artes liberales agrupadas de la siguiente manera: el trivium (gramática, lógica y retórica) y el quadrivium o artes matemáticas (aritmética, astronomía, geometría y música). En el periodo que concluye con el siglo XIV destacan los procesos de crítica a la metafísica y mecánica aristotélicas, representados por Juan Buridan en Francia (1300-1358) y Guillermo de Occam (1285-1349) en Inglaterra. Esta etapa de revisión crítica fue el fruto de un proceso lento, laborioso y acumulativo de múltiples, protagonistas, tiempos y lugares. Una consecuencia directa de esto es el nacimiento de las ciencias experimentales. En un siglo de notable eslendor sobresale un hombre que se destacó en todas y cada una de las diversas actividades en las que estuvo interesado. Su universalidad sólo es igualada por su profundidad y calidad. Leonardo da Vinci (1452-1519), en cuanto a la ciencia y a los fluidos se refiere, marca el siguiente paso después de Arquímedes. Como pocos de sus antecesores y contemporáneos, Leonardo subrayó en numerosas ocasiones la necesidad ineludible de la observación y el experimento. Así lo mostró en sus bellos, meticulosos y copiosos dibujos; una exquisita selección puede encontrarse en la publicaci ón del Códice Hammer (Hammer, 1972). Sus razones se pueden leer en algunas de sus notas, por ejemplo: "Huid de la opinión de los especuladores, pues sus argumentos no están sustentados en la experiencia [...] a diferencia de ellos, no puedo citar autoridades, pero, más importante y digno, es argumentar con base en el experimento, maestro de sus maestros." Más tarde, discutiendo su método de trabajo escribió: pero antes llevaré a cabo algunos experimentos, ya que es mi premisa empezar así y entonces demostrar por qué los cuerpos se comportan de cierta manera. Este es el método que debe seguirse en la investigación de los fenómenos naturales [...]". De la gran cantidad de observaciones y experimentos que llevó a cabo sobre el comportamiento de los fluidos, Leonardo obtuvo resultados cuantitativos y generalizaciones sorprendentes que no fueron apreciadas sino mucho después, ¡algunas hasta el siglo XIX! Encontró que el aire y el agua tienen un apellido común. Al comparar en forma sistemática los movimientos de
masas de aire (vientos) y agua (estanques, ríos y mares) intuyó, citándolo en forma recurrente, los elementos comunes de su comportamiento. Al observar el movimiento de aguas en ductos, canales y ríos, descubrió y formuló en forma cuantitativa uno de los principios fundamentales en la mecánica de los fluidos: el principio de continuidad o de conservación de la masa. Si bien es cierto que al menos desde la época de Arquímedes se sabía que el agua que entra por el extremo de un tubo sale por el otro, la relación entre este hecho y la descarga era si acaso sospechada, aun por los constructores romanos. La descarga es la cantidad de fluido que atraviesa una sección de un tubo o de un canal por unidad de tiempo. Por ejemplo, el número de litros por segundo que pasa por cualquier parte de un tubo, cuya sección sea variable, es siempre el mismo. En las palabras de Leonardo: "En cada parte de un río, y en tiempos iguales, pasa la misma cantidad de agua, independientemente de su ancho, profundidad, tortuosidad y pendiente. Cada masa de agua con igual área superficial correrá tanto más rápido como poca profunda sea [...]" (ver Figura III. 3);"[...] en A el agua se mueve más rápido que en B, tanto más como la profundidad de A cabe en B...".
Figura III. 3. Secciones de Leonardo da Vinci.
Este análisis básico y casi evidente, que eludió a sus predecesores, puede considerarse como la primera formulación clara y cuantitativa de la ecuación de continuidad para el flujo estacionario (que no cambia con el tiempo) de un fluido incompresible (de densidad constante). Este resultado, en términos más apropiados, que no más comunes, establece que la velocidad es inversamente proporcional a la sección transversal. Equivalentemente, el producto de la velocidad y el área, en cada sección, es constante. La generalización de este resultado a la forma en que hoy se conoce tomó todavía 300 años mas. Otros estudios de Leonardo versaron sobre el vuelo, la generación y propagación de ondas, el movimiento de remolinos (vórtices) y el papel de éstos en los flujos complicados e irregulares que llamamos turbulentos. Estos estudios de carácter cualitativo o puramente descriptivo influyeron en forma directa e indirecta en el desarrollo de la hidráulica y la hidrodinámica, entendidas éstas como la parte práctica y teórica de la mecánica de fluidos, respectivamente. La percepción visual de Leonardo fue la herramienta clave de su obra artística y científica, la cual se aprecia en cada detalle de sus penetrantes y hermosas ilustraciones, y gracias a ella estableció una pauta en la búsqueda del conocimiento. Si la observación y la experimentación, entendidas como el registro meticuloso y pasivo, la primera, y la ocurrencia intencional, repetitiva y controlada del fenómeno, la segunda, son elementos indispensables del conocimiento científico, el uso de un lenguaje adecuado y la generalización deductiva o inductiva las complementan y dan sentido. A Galileo Galilei (1564-1642) es a quien, un siglo después, le toca completar el esqueleto del método científico, pues transforma a la mecánica en una ciencia partiendo de una crítica constructiva de la metafísica escolástica.
Usando a la experimentación como guía, como lo hiciera Leonardo, introduce el lenguaje de las matemáticas para formalizar y extender sus resultados, generalizar sus concepciones y sentar las bases de una nueva manera de estudiar la naturaleza. Con metodología semejante a la de Arquímedes, Galileo habló a una época más madura; a diferencia de Leonardo, no escribió "al revés" y fue leído y, desde luego, criticado por sus contemporáneos. La contribución de Galileo a la dinámica de los fluidos fue profunda, aunque indirecta, al participar en la fundamentación de la mecánica, de la física y de la ciencia misma. La astronomía fue la motivación de su trabajo y la pasión de su vida. Afirmaba entender más de los cuerpos celestes que de los fluidos que observamos todos los días... Un aspecto decisivo en el paso de la especulación aristotélica a la ciencia posgalileana fue la introducción de la observación como pilar y sustento de la razón. Para entender el mundo, la razón pura demostró su fracaso. Del muy joven Leonardo al anciano Galileo se ve un cambio único en la historia. En estos doscientos años se lleva a cabo el florecimiento resultante de los previos dos mil años de siembras y cuidados III. 3. DEL HORROR AL VACÍO, AL AGUA SECA Es claro que no puede culparse a Aristóteles del estancamiento intelectual que siguió a su muerte. Fue la dogmatización de sus ideas y la exclusión de su actitud crítica y dinámica, que predicó y practicó, lo que casi paralizó la evolución del conocimiento. La concepción aristotélica en torno al vacío y la aceptación sin reservas de ésta dominaron hasta mediados del siglo XVII. Según Aristóteles la naturaleza tiende a llenar todos los espacios con cualquier medio a su alcance, siendo el vacío una imposibilidad física. La frase horror vacui vino a resumir esta creencia a través del tiempo, y se llegaron a inventar sustancias como el éter, con propiedades inconmensurables, no factibles de ser medidas, para "explicar" la presencia de espacios aparentemente vacíos. La crítica, no es de sorprender, fue iniciada por Galileo. La generación que le sucedió la continuó y la resolvió. El compañero inseparable de Galileo en los últimos tres meses de su vida fue Evangelista Torricelli (1608-1647). Tras de extender algunos trabajos de aquél en dinámica de proyectiles y de generalizar en forma brillante parte de la obra de Arquímedes, fue invitado a Florencia por el anciano Galileo para discutir y escribir sus últimas ideas. Así, Torricelli se vio expuesto a muy variadas especulaciones y proposiciones que, en su desafortunadamente breve carrera científica, desarrolló al suceder al maestro en su cátedra de matemáticas. Torricelli se ocupó de diversos problemas en forma teórica y experimental. En el área de fluidos destacan sus estudios sobre el flujo de chorros que salen por el orificio de un recipiente, su descubrimiento del principio del barómetro de mercurio y su uso en el estudio de la presión atmosférica. Con estos trabajos logró, entre otras cosas, acabar con el mito de la imposibilidad del vacío. Uno de sus experimentos consistió en demostrar la existencia de la presión atmosférica y la forma de crear un vacío, usando un dispositivo como el que se muestra en la figura II. 5. Una variación de éste se describe a continuación. Es fácil convencerse de que la atmósfera ejerce una presión igual en todas direcciones. Se requiere un vaso, una hoja de papel o de plástico, agua y una cubeta (para no salpicar todo, como sucede; cuando se intenta por primera vez). Encima del vaso bien lleno de agua se pone el trozo de plástico, cuidando de que no quede en el aire entre éste y el agua. El vaso puede invertirse lentamente sin que el agua se caiga, debido a que el aire empuja constantemente contra el plástico (Figura III. 4(a)). Para que la demostración sea más contundente puede sumergirse parcialmente el vaso invertido en una cubeta llena de agua y retirar el plástico; ¡el agua no se sale! (Figura III. 4(b)). En este caso el aire empuja hacia abajo sobre la superficie horizontal del agua con la misma presión que en el caso anterior lo hizo hacia arriba.
Figura III. 4. La presión atmosférica en la cocina.
Si el vaso mide más de 14 m de longitud (ji, ji), al realizar el experimento de la figura III. 4 (b), se saldría un poco de agua, quedando lo que parece una burbuja en el vaso. Ahí, en realidad, hay un razonable vacío; de hecho hay un gas (aire y vapor de agua) tan enrarecido como el que se encuentra a 200 km de altura sobre esta página (suponiendo que no es usted astronauta en funciones). Usando mercurio, basta con una columna de más de 76 cm de longitud para obtener un vacío equivalente; se ilustra en la figura II. 5, en el espacio de la parte superior del tubo. Blaise Pascal (1623-1662) fue quien, repitiendo y extendiendo los experimentos de Torricelli, dio una clara explicación de las observaciones. Al darse cuenta de que los experimentos básicos podían ser explicados por igual en términos de la presión atmosférica en vez de en términos de un parcial horror al vacío, llevó a cabo un experimento de vacío dentro de otro vacío. De esta manera, al quitar la presión externa la altura de la columna de mercurio debía reducirse a cero, y así lo demostró, desechando la segunda explicación. No satisfecho, repitió los experimentos a diferentes alturas sobre el nivel del mar. Con ello probó que, si es la columna de aire que está arriba del dispositivo la que hace que el mercurio suba en el tubo, entonces la altura de éste debía cambiar según la cantidad de aire encima de él. Si a la naturaleza le daba horror el vacío, debía horrorizarle por igual ya fuera arriba o abajo de una montaña. Con esto quedó abandonada en forma definitiva la concepción del horror vacui. En el proceso de estudio de la presión atmosférica Pascal inventó la prensa hidráulica, descubriendo el principio físico subyacente. Según éste la presión en un fluido actúa por igual en todas las direcciones; conocido como el principio de Pascal, es uno de los dos axiomas fundamentales de la hidrostática. El otro es el principio de Arquímedes. A los 31 años de edad y siendo una celebridad por sus variadas contribuciones en física y matemáticas, Pascal se convirtió en asceta; dedicó sus últimos ocho años de vida a la teología con la misma intensidad que dedicara antes a la ciencia. Unos días antes del primer aniversario de la muerte de Galileo, en el pueblito inglés de Woolsthorpe, nació Isaac Newton (1642-1728). Como Da Vinci en su época, la luz de Newton brilla por encima del estrellado cielo de sus contemporáneos. En agosto de 1665 la peste obliga a las autoridades a cerrar el Trinity College de Cambridge y Newton, cuatro meses después de su graduación, se ve obligado a regresar a su aldea natal. Ahí, aislado por dos años, lleva a cabo una hazaña sin paralelo en la historia del pensamiento humano. Lo que necesita y no sabe, lo inventa; lo que sabe y no le sirve, lo generaliza o lo cambia sin pudor alguno; sobre lo que no entiende, medita, observa, hace experimentos y propone hipótesis. Al final de este periodo ha cimentado sus tres contribuciones fundamentales: el cálculo infinitesimal, la mecánica y la gravitación, y la teoría de la luz y los colores. Así, aquel joven común y corriente que se fue, regresa convertido en el profundo pensador que sentaría las bases de la física y las matemáticas de los siguientes siglos. Característico de la revolución científica del siglo XVII, y en la mejor tradición cartesiana de la época, partió de la base de un universo real cuyo comportamiento podía y debía ser explicado solamente en términos de sus
elementos y sus relaciones. Sobre esta base filosófica desarrolló la herramienta matemática requerida y formuló las leyes de la mecánica. Su trabajo Philosophiae Naturalis Principia Mathematica, publicado hasta 1687, es, además de su obra maestra, uno de los trabajos más importantes de toda la ciencia moderna. La contribución de Newton a los fluidos fue múltiple y a niveles muy diferentes. Abarcó desde sus fundamentos, en forma indirecta, hasta los meticulosos experimentos que llevó a cabo sobre vórtices (remolinos) y viscosidad (fricción interna). Desde el punto de vista general, el marco teórico, el aparato matemático y las leyes físicas que Newton estableció, fueron, y siguen siendo, los ingredientes esenciales de la teoría de los fluidos. Estos elementos fueron una aportación fundamental, aunque indirecta, para el establecimiento final de la teoría que realizó la notable generación que le siguió, formada por Euler, dos de los Bernoulli, D'Alambert y Lagrange. Su trabajo directamente conectado con fluidos comprende casi un tercio de los Principia. Esto resulta sorprendente si no se toma en cuenta que Newton busca establecer una teoría alternativa, en contenido, forma y consecuencias, a la cartesiana. Ésta, que domina el pensamiento de la época, era una imaginería mecánica verbal sobre esferas y vórtices en movimiento en un medio etéreo que todo lo embebía. La demoledora crítica de la cosmología cartesiana, que Newton presenta como preámbulo a su "sistema del mundo", es a la vez un cuidadoso estudio del comportamiento de los fluidos. En éste destacan sus análisis teóricos y experimentales sobre el movimiento de un vórtice y la naturaleza de la fricción interna de los fluidos, apareciendo así la primera definición, estudio y cuantificación de lo que posteriormente se llamó la viscosidad de un fluido. La incorporación de este resultado, de suma importancia en la dinámica de fluidos, no sucedió sino hasta un siglo y medio después. ¡Cuántos hay todavía que, dedicados a los fluidos, no la entienden! Salvo la revisión de las siguientes ediciones de sus obras, Newton dedicó el resto de su vida, que duraría aún más de cuarenta años, a toda suerte de actividades relacionadas con la organización y administración pública y académica. También, debido a su difícil personalidad, trabajó arduamente para hacerle la vida de cuadritos a más de uno. Gran parte del trabajo de Newton ha sido extendido, completado y reformulado en varias direcciones a través del tiempo. En cuanto a los fluidos, algunos de los problemas que abordó siguen siendo objeto de numerosas investigaciones; un problema tan aparentemente simple como el determinar el patrón de flujo que resulta del movimiento de una esfera en un medio viscoso, continúa siendo un desafío en el campo de las matemáticas aplicadas. A la muerte de Newton, en plena ilustración, tres brillantes hombres empiezan a dominar, extender y perfeccionar las herramientas analíticas nuevas y, al mismo tiempo, a explotar su utilidad en el campo fértil y abierto de los fluidos. Daniel Bernoulli (1700-1782) y Leonhard Euler (1707-1783), formados en matemáticas por Johann Bernoulli, padre del primero, elaboran una serie de trabajos que, junto con los desarrollados por Jean le Rond d'Alambert (1717-1783), culminan con la formulación explícita de los principios generales y las ecuaciones básicas de la mecánica de los fluidos. Las contribuciones más importantes de Bernoulli aparecieron en el año de 1738 en su libro Hydrodynamica, cuando se acuña el término. Entre ellas destaca el teorema que ahora lleva su nombre y que fue la primera formulación del principio de la conservación de la energía para el caso de los fluidos. En su versión moderna, cuya formulación general y correcta se debe a Euler, establece que la suma de tres cantidades es igual a una constante: A + B + C = constante; los sumandos corresponden a tres formas particulares de energía. El primero tiene que ver con el estado de movimiento, el segundo con la altura a la que se encuentra y el tercero con la presión. Si la suma de estas cantidades ha de permanecer constante es preciso que al aumentar una de ellas, al menos una de las restantes se vea disminuida en la proporción adecuada. Una restricción del teorema es que los efectos de fricción interna (viscosidad) y de compresibilidad en el fluido sean despreciables, es decir, muy pequeños. Bernoulli, con el sólido
juicio de un científico de su estatura, además de subrayar la "maravillosa utilidad" de su teorema, advertía del error que podría traer su abuso o el olvido de sus limitaciones, las cuales eran si acaso intuidas. Más técnicamente, los términos que aparecen en el teorema de Bernoulli son la energía cinética (A), la energía potencial (B) y la entalpía (C). A depende de la velocidad, A = ρv²/2 (ρ es la densidad y v la velocidad); B depende del peso y su altura relativa, B = ρgz (g es la aceleración de la gravedad y z la altura relativa a un nivel de referencia) y C depende de la presión, C = p, siendo p la presión. Así, cuando una masa de agua desciende, disminuyendo la altura y por consiguiente el sumando B, la velocidad aumenta de manera tal que el sumando A crece lo suficiente para balancear la suma. De igual modo, en un tubo horizontal (Figura III. 5) en que el término B permanece fijo (z no cambia), la suma de A y C es la relevante. Puesto que en cada sección del tubo (s1 y s2) la cantidad de fluido que pasa es la misma, en la región más estrecha (s2) la velocidad debe ser mayor que en la más ancha (s1). De acuerdo con el teorema de Bernoulli, la presión es menor en donde la velocidad es mayor, es decir, en la zona angosta.
Figura III. 5. Tubo que se estrecha.
La situación parece irse haciendo un tanto tediosa. Como difícilmente podría ponerse peor, le solicito seguir leyendo un poco más para ver algunos casos en los que la aplicación del teorema es más interesante y que son fáciles de comprobar en un centro de investigación bien equipado, por ejemplo una cocina. Imagine un tubo vertical por el que sale un chorro de aire (Figura III. 6(a)), por ejemplo, el tubo de una aspiradora casera conectado por la parte de atrás. Al poner una esfera ligera, digamos una pelota de pingpong, dentro del chorro ascendente, ésta permanece ahí sin caer. La razón es que la presión del aire en el chorro (cuya velocidad es grande) es menor que la del aire fuera de éste (con velocidad baja). Cuando la pelota empieza a salir de la corriente, la presión exterior, mayor a la interior, la regresa al chorro. El otro efecto, superpuesto al anterior, es la competencia entre el empuje del chorro, hacia arriba, y el peso de la esfera. Un caso análogo es el de un pulverizador (Figura III. 6(b)). Cuando se sopla por un tubo (t) que termina en punta, el aire aumenta su velocidad al llegar a la punta y en consecuencia pierde presión. En la boca del tubo (e) se encuentra entonces aire cuya presión es menor a la que hay en su interior, que es la atmosférica y tiende a salir. La superficie del líquido en el recipiente (s) tiene una presión igual a la atmosférica, excepto la parte contenida en (e). Esto da lugar a que el líquido dentro del recipiente suba por el tubo. Al llegar a la salida, donde hay un chorro de aire, es arrastrado por éste y se pulveriza formando gotas minúsculas. Usando el mismo razonamiento anterior puede explicarse el hecho de que al suspender dos esferas ligeras cercanas una de la otra y soplar en medio de ellas, se aproximen y choquen entre sí, como si apareciera una fuerza de atracción (Figura III. 6 (c)).
Figura III. 6. Explicaciones "a los Bernoulli". (a) Pelota en un chorro, (b) pulverizador, (c) "atracción" entre esferas.
Esta atracción aparente, debida a la distinta distribución espacial de presiones, que es sencilla de explicar invocando el teorema de Bernoulli, es el origen de múltiples fenómenos que de otra manera parecen incomprensibles. Entre ellos destaca la atracción entre automóviles y barcos que viajan paralelos. Cuando un automóvil rebasa a un camión de grandes dimensiones, es necesario sostener el volante con cierta fuerza; si se deja el volante libre, el automóvil se moverá hacia el camión (no es muy recomendable realizar este experimento). Los capitanes de grandes barcos conocen este efecto; los que no, tienen ahora otra actividad de naturaleza terrestre. Un caso conocido es el de los barcos Olympic y Hauk. El primero, un transatlántico de grandes dimensiones, navegaba tranquilamente en mar abierto durante el mes de octubre de 1912. El segundo era un acorazado, pequeño en relación al Olimpic, que navegaba con una velocidad mucho mayor y en forma paralela (Figura III. 7(a)). Al encontrarse a una distancia de unos cien metros sucedió algo imprevisto, que no tuvo nada que ver con saludos mutuos. El Hauk cambió de rumbo en forma intempestiva y se dirigió directo al Olympic, sin
que el timón sirviera para evitar la colisión (Figura III. 7(b)). La proa del acorazado se hundió en el casco del gran buque, abriendo una aparatosa vía de agua. Al margen de la incapacidad del tribunal marítimo que juzgó el caso y culpó al capitán del Olympic por no dar paso al acorazado, lo que ocurrió fue precisamente un caso de atracción hidrodinámica. Entre los barcos se formó un "canal" por donde el agua pasó más rápido que en la región exterior, esto en ambos barcos, que se consideran fijos (Figura III. 7(a)). La diferencia de presiones entre la zona interna y la zona externa produjo una fuerza que se puso de manifiesto en el barco más pequeño.
Figura III. 7. (a) El Olympic alcanza al Hauk. (b) Resultado de la atracción hidrodinámica.
El teorema fue sólo una de las aportaciones de Bernoulli. El original enfoque que dio el planteamiento y solución de diversos problemas fue de gran valor para el desarrollo de la naciente disciplina y constituyó un vigoroso estímulo para las brillantes dotes de algunos de sus contemporáneos y amigos. En 1755 aparecen, una tras otra, las obras clásicas de Euler sobre los fundamentos de la mecánica de los fluidos. El genio matemático más notable del siglo había asimilado por completo la obra newtoniana y lo había plasmado en un lenguaje mucho más elegante y preciso. Formuló las ecuaciones diferenciales de movimiento en su forma general, deduciendo a partir de ellas los resultados previos ya conocidos, como el teorema de Bernoulli, dándoles su verdadera dimensión y generalidad. Posteriormente, exploró un gran número de consecuencias y atacó múltiples problemas de carácter práctico asociados a la maquinaria hidráulica, particularmente la turbina, la resistencia sobre barcos y la propulsión. La copiosa correspondencia entre Euler, D'Alambert y Lagrange, entre otros, permite entender el interés que tenían las mejores mentes analíticas de la época por los problemas asociados a los fluidos. D'Alambert, que gozó la cima de las matemáticas francesas, dedicó la segunda parte de su vida a estudios de carácter experimental. Después de introducir diversos conceptos y métodos analíticos en sus dos obras básicas sobre fluidos, demostró lo que se conoce como la paradoja de D'Alambert. Como consecuencia de las ecuaciones de Euler, que ignoraban la existencia de la viscosidad, resultaba que la fuerza que sufre un obstáculo inmerso en una corriente era nula; es decir, el objeto no era arrastrado por el flujo. Para D'Alambert era claro que este resultado matemático estaba en franca contradicción con sus observaciones y que el problema debía estar en alguna de las premisas de la teoría. En forma consistente subrayó la primacía que el experimento debía tener sobre la teoría. Argumentos diversos de Euler y de Lagrange, para aclarar la paradoja, no pudieron convencerlo. La formulación matemática de la teoría hacía imposible que a un fluido en movimiento se le pidiera adherirse a la superficie de un sólido en reposo. Como consecuencia de haber ignorado la fricción interna de los fluidos se tenía el peculiar resultado de que los fluidos no mojaban las paredes... ¡La hidrodinámica era el estudio del agua seca!
III. 4. EL SIGLO SINCRÉTICO En los cien años comprendidos entre 1750 y 1850 se sentaron las bases teóricas y experimentales de la mecánica de los fluidos. Ese siglo sirvió para resumir, ordenar y extender el conocimiento que sobre los fluidos se había acumulado durante miles de años. Desde entonces hasta la fecha la tarea ha sido la de extraer de estos principios, formulados en forma matemática, la información necesaria para poder entender y predecir el comportamiento de los fluidos. En la primera mitad de este notable periodo aparecieron, junto a las históricas obras de carácter teórico, una serie de memorias clásicas de cuidadosos trabajos experimentales. Destacan el veneciano Giovanni Poleni (16831781), el inglés John Smeaton (1724-1792) y la escuela francesa, en particular Henri de Pitot (1695-1771), Antoine Chézy (1718-1798), Jean Charles de Borda (1733-1799), el mismo D'Alambert, Charles Bossut (17301814) y Pierre Louis George DuBuat (1734-1809). Es embarazoso limitar la lista de nombres y, más aún, no mencionar algunos de los detalles que hicieron de sus contribuciones un párrafo hermoso en las páginas de la investigación. Así, con la frente baja y ofreciéndoles nuestra admiración, diremos que sus esfuerzos y logros no fueron en vano. Los estudios que dejaron sobre la fuerza de flujos sobre obstáculos, sobre la salida de fluidos a través de orificios, sobre el cauce de canales y ríos, ondas y olas, máquinas hidráulicas de la más diversa índole y más, fueron el cimiento de las obras futuras. Sus experimentos fueron nuevos y determinantes, como lo fue el análisis de los datos y su interpretación al usar conceptos originales y más sencillos, abriendo así el panorama para las correctas e importantes generalizaciones que establecieron. El periodo de gestación asociado a los últimos cincuenta años del siglo XVIII no se limitó, desde luego y antes bien al contrario, a los fluidos, a la parte académica o a la intelectual. La sociedad estaba fraguando una lucha contra el hambre, contra la injusticia y por la libertad e igualdad. Así, se entiende la intensa actividad que se aprecia en los fluidos; nada sorprende pues que Lagrange visitara a Voltaire a instancias de D'Alambert y que este último dirigiera y participara en una extensa obra de coordinación y planeación de vías fluviales, navegación y canalización en toda Francia. La explosión revolucionaria francesa, la primera República, Robespierre y Danton, la aventura napoleónica, la reinstauración de la República y tantos hechos, aparecen reflejados en todo. También en la revolución asociada a los fluidos. Con la segunda etapa, correspondiente a la primera mitad del siglo XIX, concluye el nacimiento de la mecánica de los fluidos. Mucho se ha hecho desde entonces y mucho, seguramente mejor, habrá de hacerse en el futuro. La criatura nació y creció, llegando a su infancia al empezar el último siglo del milenio. Veamos cómo acabó de formarse y qué dones (y defectos) trajo al mundo. Para hablar de su madurez habrá que esperar, al menos, un ratito. Desde el punto de vista experimental, el siglo XIX se inició con una sólida tradición. Se contaba con una gran variedad de técnicas y métodos muy confiables y, en consecuencia, de resultados razonablemente precisos, en especial sobre la resistencia de obstáculos a un flujo. La hidráulica había avanzado en forma casi independiente de la hidrodinámica teórica. En cierto sentido, caminaban por veredas distintas, aunque paralelas, compartiendo problemas y perspectivas pero difiriendo en métodos, prioridades y lenguaje. El consenso en torno a lo equivocado que era ignorar los efectos de la viscosidad se había alcanzado en la primera década del naciente siglo. Sin duda, Newton y algunos de los que le siguieron se dieron cuenta de la necesidad de incorporar el efecto y así lo comentaron en sus obras. Sin embargo, sus intentos para lograrlo fueron infructuosos. En 1821 se presentó ante la Academia de Ciencias, en París, un trabajo de Claude Louis Marie Henri Navier (1785-1836), ingeniero de formación y vocación. En éste se deducían las ecuaciones fundamentales de la elasticidad, que hoy en día llevan su nombre, para describir el equilibrio y las vibraciones en un sólido. Estas resultaban de un análisis puramente matemático en el que los átomos, entonces entes hipotéticos, se imaginaban como partículas que interactuaban por medio de resortes. No sorprende que fuese Navier el primero en construir un puente colgante a partir de un proyecto y de un cálculo; previamente las construcciones se hacían sobre bases empíricas.
Un año después, Navier presentó una memoria en la que, guiado por una analogía formal con la teoría de la elasticidad, deducía por primera vez las ecuaciones que incorporaban la viscosidad en la dinámica de un fluido. Como caso especial, el fluido ideal o invícido (que no presenta fricción interna), recuperaba las ecuaciones de Euler; en el caso general, las ecuaciones eran de una naturaleza esencialmente distinta. Desafortunadamente, la deficiente interpretación que dio a sus resultados, al resolver ciertos casos, le impidió explorar su notable contribución. Aun así, el agua, y todos los fluidos, ¡habían empezado a mojar! Las ideas de Navier sobre la atracción y repulsión entre las moléculas, como origen de la viscosidad, fueron seguidas y ampliadas por dos excelentes matemáticos de la época: Simeon Denis Poisson (1781-1840) y Agoustin Lonis de Cauchy (1789-1857). El carácter especulativo de las hipótesis "microscópicas" que usaron le da a sus trabajos en este particular un interés sólo histórico. Siguiendo una argumentación totalmente distinta y en términos de conceptos puramente macroscópicos, evitando todo lo relativo a la constitución última de un fluido, Jean Claude Barré de Saint Venant (1797-1886) dedujo las mismas ecuaciones de Navier. Su trabajo publicado en 1843, contiene una deducción semejante a la que hoy en día se sigue para obtener las ecuaciones; ese crédito nunca lo recibió. La fama de Saint Venant provino de sus múltiples trabajos en elasticidad, ya que en hidrodinámica su nombre no fue asociado ni a las ecuaciones que obtuvo, ni a diversos resultados que posteriormente fueron encontrados por otros investigadores, particularmente de Inglaterra. El Imperio británico, en plena expansión y en la víspera de su apogeo, fue el ámbito donde la teoría y los experimentos alcanzaron la cumbre. Pasadas las guerras napoleónicas y con la República francesa en proceso de consolidación, la hegemonía política pasa a la sede del imperio; el dominio académico también. Mientras se consolidan, controlan y explotan las colonias africanas, americanas y asiáticas, que incluyen a cerca de la cuarta parte de la población y superficie del planeta, las ciencias florecen otra vez, sobre la fértil tierra de una tradición sólida y rica. Técnica y ciencia retroalimentan a la Revolución Industrial que, en estos cien años que hemos considerado sincréticos, nace, madura y se extiende. En ese empono económico y cultural brilla, con otros distinguidos científicos, George Gabriel Stokes (18191903). Este matemático y físico irlandés, quien se educó y vivió en Cambridge casi toda su vida, fue el primero en ocupar, después de Newton, la cátedra lucasiana de física y los puestos de secretario y presidenter de la Sociedad Real de Física. Entre sus numerosos trabajos, en muy diversos campos de las matemáticas; y la física teórica y experimental, destacan los que versan sobre: la dinámica de los fluidos viscosos. En la parte que concierne a los fundamentos de esta última, el joven Stokes llevó a cabo una elegante deducción de las ecuaciones que primero obtuviera Navier, en una memoria presentada ante la Sociedad Real en 1845. Su razonamiento, análogo al de Saint Venant, fue totalmente fenomenológico, eludiendo especulaciones en torno a la constitución microscópica de los fluidos. Postulando como principios generales la conservación de la masa y el momento lineal (la segunda ley de Newton), como lo hicieran antes Bernoulli y Euler, lleva a cabo un cuidadoso análisis de las fuerzas que puede experimentar una pequeña parte de fluido. Fue importante la separación que hizo entre las fuerzas que dependen de la masa de fluido en consideración, como el peso (atracción gravitacional), y las que dependen de la superficie de la muestra, que son las responsables de la fricción (recordemos que los raspones los lucimos en la piel). Así, Stokes construyó una expresión para estas últimas que era la generalización de los estudios que había hecho Newton al respecto, ya casi olvidados con el tiempo. El resultado clave fue encontrar que la fuerza de fricción de una parte de fluido sobre otra depende de la velocidad con la que se mueve una respecto de la otra; en términos más técnicos, se diría que la fuerza de fricción, por unidad de área, depende linealmente del gradiente de la velocidad (es decir, de la forma en que varía la velocidad de un punto a otro); qué tan estrecha es esta relación lo determina un factor constante llamado el coeficiente de viscosidad. A diferencia de Navier y de Saint Venant, Stokes analizó y resolvió las ecuaciones para algunos casos, obteniendo los primeros resultados que podían ser contrapunteados exitosamente con los experimentos. Las ecuaciones llevan ahora el nombre de Navier Stokes. Sería difícil hallar a un científico cuyo nombre esté asociado a mas resultados que el de Stokes. En matemáticas hay un importante teorema que lleva su nombre, en fluidos las ecuaciones básicas llevan su apellido, al igual que una ley de movimiento para esferas y una paradoja; en óptica, unas líneas espectrales y el corrimiento de la
luminiscencia son sus hijas registradas y bautizadas. Con el establecimiento de las ecuaciones básicas, el éxito de las primeras e importantes aplicaciones de ellas, el gran cúmulo de precisas observaciones y el desarrollo de muy diversos métodos de investigación experimental y analítica, la ciencia de los fluidos tomaba la forma que tiene tal y como hoy la conocemos. Los cimientos del trabajo de las generaciones futuras estaban completos. III .5. MATRIMONIO POR CONVENIENCIA Una visión antropomórfica de la ciencia de los fluidos nos puede ayudar a entender la situación. Se podría pensar que con las bases de la teoría bien establecidas, una sistemática educación daría a la criatura una madurez de brillante productividad. Como suele suceder, lo que podía salir mal, salió mal. Apareció un problema que hasta la fecha no ha sido resuelto satisfactoriamente: las matemáticas necesarias para resolver las recién descubiertas ecuaciones (no lineales) no se habían desarrollado (¿inventado?, ¿descubierto?...). Así, al comenzar la segunda parte del siglo XIX , los interesados en la hidrodinámica se encontraron con un problema claramente planteado pero con insuficientes herramientas para resolverlo. No es de sorprender que el mismo Stokes iniciara uno de los enfoques para abordar el problema. "Si no puedes agarrar al toro por los cuernos, ¡corre!", dice un adagio azteca, y así lo hizo. Argumentado cuidadosamente, simplificó las ecuaciones de manera que pudiera domesticarlas y sacarles provecho. Los resultados que obtuvo por la aproximación tuvieron tal éxito que hoy en día se siguen explotando estas mismas ecuaciones que, desde luego, también llevan su nombre. Su análisis del movimiento de una esfera en un líquido sigue siendo uno de los resultados clásicos de la mecánica de fluidos; la expresión que relaciona a la fuerza que arrastra a la esfera con el producto de la velocidad de la corriente, el radio de la esfera y la viscosidad del fluido, se conoce como la ley de Stokes. La utilidad de un resultado tan "simple" como éste ha sido amplia y de la más diversa índole Un problema representativo de los fluidos fue (y sigue siendo) el de establecer el flujo en tuberías. Por evidentes razones prácticas había sido objeto de innumerables estudios teóricos y experimentales. Hasta que no se incorporó el efecto de la viscosidad, la teoría correspondiente se había reducido a ejercicios pintorescos en matemáticas "no aplicadas". Experimentalmente, fue el siglo XIX el que vio los primeros resultados correctos sobre el flujo en un tubo, lo que no deja de llamar la atención por el uso que de acueductos, drenajes, fuentes y tuberías en general había anteriormente. Entre otros, destacan los trabajos de Gotthilf Heinrich Ludwig Hagen (1797-1884) y de Jean Louis Poiseuille (1799-1869). El primero fue un distinguido ingeniero alemán cuyas contribuciones recibieron la injusticia de la historia; nunca recibió el crédito por su trabajo. Poiseuille fue un médico interesado en la fisiología de aparato cardiovascular que, para caracterizar el flujo sanguíneo, llevó a cabo cuidadosos experimentos en tuberías muy delgadas (tubos capilares) para determinar la forma del flujo, la resistencia de éste y la descarga. De esta manera estableció que la cantidad de líquido que pasa por un tubo cada segundo depende de la carga (la diferencia de presiones por unidad de longitud) y de la cuarta potencia de su diámetro (el diámetro multiplicado por sí mismo cuatro veces). Veinte años más tarde se desarrolló el primer análisis teórico que explicaba las observaciones de Poiseuille. Franz Neumann (1798-1895) y Eduard Hagenbach (1833-1910), en forma independiente, obtuvieron las expresiones para la forma (parabólica) del flujo y para la descarga, que se ajustaban bien a los datos conocidos; Hagenbach, al citar sólo a Poiseuille sin mencionar a Hagen, inició la discriminación de su compatriota. Vale la pena hacer notar que el problema aún está lejos de resolverse. Una gran cantidad de trabajos experimentales sobre el flujo en tuberías se sigue publicando en la bibliografía especializada; innumerables tablas empíricas se han publicado para su uso en el diseño de sistemas de drenaje, plantas industriales de diferentes características, etc., y complicadas relaciones entre parámetros del flujo siguen siendo elaboradas. Para las condiciones que se dan en la práctica, el movimiento de un líquido es sumamente complicado y la teoría ha sido, hasta la fecha, incapaz de dilucidar el problema. Las predicciones teóricas del siglo XIX, desde luego aproximadas, han podido mejorarse muy poco. Muchas contribuciones previas y subsecuentes a las de Navier y de Stokes merecerían un libro cada una. Sin embargo, aquí el propósito ha sido el de delinear la forma en que se establecieron los principios básicos. Es conveniente recalcar que la hidráulica, que escuetamente sería el manejo de los fluidos, gozó del mismo
vertiginoso avance que la hidrodinámica, su contraparte teórica. Aquí sólo hemos esbozado el crecimiento de esta última. Sin embargo, el desarrollo paralelo de ambas, independiente hasta cierto punto, llevó a la pareja a la edad del cortejo... Si bien se conocían desde la infancia, como suele suceder, hubo etapas en que se hablaban poco, cuando no es que se odiaban, especialmente al obligarlos a estar juntos. Antes de entrar en la parte que concierne al romance, vale la pena describir algunos rasgos de una de las partes comprometidas. Por un lado, son notables las teorías de vórtices que desarrollaron Hermann Ludwig Ferdinand von Helmholtz (1821-1894), Gustav Robert Kirchhoff (1824-1887) y William Thomson (1824-1907), más conocido por su título nobiliario de lord Kelvin. Destacan también las obras de Joseph Boussinesq (1842-1929) y de John William Strutt (1842-1919), el famoso lord Rayleigh. El primero de éstos desempeñó el papel que Fernando de Rojas diera a Celestina; sus rigurosos estudios analíticos fueron siempre contrastados con los datos y las observaciones, subrayando las virtudes de una relación duradera entre la hidráulica y la hidrodinámica. Rayleigh, versátil como algunos de sus brillantes contemporáneos, abordó problemas que siguen siendo una muestra del claro pensar de una exitosa generación de científicos; su teoría de la propagación del sonido es sólo un ejemplo. Un protagonista singular de esta época es Osborne Reynolds (1842-1912). Estudiando casi los mismos problemas que Boussinesq, cultivó el otro lado de la relación que nos ocupa, la hidráulica. Aun así, cada uno destacó en la contraparte; Reynolds se sublimó en la hidrodinámica. Sus meticulosos trabajos experimentes eran delicadamente contrapunteados con resultados analíticos; algo parecido a lo que Mozart hubiese logrado si en lugar de componer su exquisita e insuperable música se hubiera concentrado en jugar con charcos y la teoría correspondiente. ¡De lo que se perdieron los fluidos y lo que ganamos todos! Reynolds, prototipo del profesor distraído, introdujo conceptos y métodos que siguen siendo aprovechados por quienes nos ganamos el pan con los fluidos. Como "para muestra basta un botón", caracterizó la forma en que un fluido pasa de un estado de movimiento laminar (regular) a uno turbulento (caótico), introduciendo, entre otras cosas, un parámetro adimensional conocido ahora como el número de Reynolds. La idea básica es como sigue. Una madre ingeniosa decide jugar en la cocina de su casa con unos popotes. A pesar de las protestas de su familia, averigua cómo se mueve el jugo de mandarina en su "dispositivo experimental" y, como es de suponerse publica un artículo sobre el tema. Meses más tarde y en otro país, en una oficina con poca luz, un ingeniero del Departamento de Aguas debe rediseñar el sistema de drenaje de un barrio, dentro del cual se encuentra su casa; es decir, le interesa que funcione. ¿Le sirve lo que escribió la susodicha mamá? Ella trabajó con el jugo de un cítrico, tubos de plástico y una sana curiosidad; él debe hacerlo con... otros materiales. Gracias a la dama y a Reynolds, el ingeniero puede evitar hacer pruebas costosas y, tal vez, desagradables. Supóngase que U es la velocidad media del fluido en un tubo, D el diámetro de éste y v la viscosidad del fluido. Lo que Reynolds encontró fue que si el valor numérico del producto de U y D, dividido por v, es el mismo para dos sistemas, aunque parezcan muy distintos, ¡el flujo será el mismo!. Cosas como el gasto, el carácter laminar o turbulento, etc., serán iguales. Lo que tiene que hacer el ingeniero es ver si su sistema escala adecuadamente. Si el diámetro de los tubos del drenaje es de 2 m y el de los popotes es de 0.5 cm, parecería no haber mucha relación. Digamos que la viscosidad del jugo de mandarina es de aproximadamente .01 cp y la de lo que se mueve en el drenaje es de cerca de 1 cp (unas cien veces más viscoso); cp es la abreviatura del centipoise (pronúnciese "sentipuazz"), la unidad de medición de la viscosidad. Entonces, para que los números de Reynolds de cada caso sean iguales, basta con que la velocidad del jugo en los popotes sea cuatro veces la del "fluido" en el drenaje. Además de ser más barato el experimento casero, la vitamina C es mucho más saludable. Es justamente en este hecho, el principio de semejanza, que está basado el modelado hidro y aerodinámico. Cuando se hacen maquetas de muelles, de rompeolas, de aviones o de submarinos, además de divertirse, los investigadores (ingenieros, físicos o matemáticos) se están ahorrando tiempo, esfuerzo y (a sus patrones) muchos kilogramos de oro. Si el juguetito flota, el buque tanque de 100 000 toneladas también lo hará..., si es semejante. Al iniciarse el siglo XX, el cortejo entre la hidrodinámica y la hidráulica parecía no tener futuro alguno; los intereses comunes o bien se expresaban en lenguajes diferentes o parecían inútiles o muy complicados. Las obras de Horace Lamb y de A. A. Flamant ilustran bien la situación; la primera cubre los aspectos teóricos y la otra los experimentales, con poco material común. La hidrodinámica se interesaba principalmente en los flujos invícidos o ideales, lateralmente en los flujos viscosos laminares y no hacía caso de los flujos turbulentos, siendo esta última
la característica más importante para la hidráulica. Así, las excelentes virtudes de una disciplina eran ignoradas por la otra. En estas condiciones, en 1904, se presentó un trabajo experimental, en un congreso de matemáticas, en la ciudad de Heidelberg, Alemania. El autor, un brillante ingeniero llamado Ludwig Prandtl (1875-1953), iniciaba una conspiración para unir a la caprichosa pareja. A raíz de esa participación, Prandtl fue invitado a trabajar y colaborar en uno de los ambientes más estimulantes y fértiles para la investigación de que se tiene memoria. Con ese trabajo, titulado Sobre el movimiento de fluidos con viscosidad pequeña, empezaba una profunda revolución mecánica de fluidos. El punto esencial de la contribución de Prandtl, elaborado en una secuencia de publicaciones a lo largo de una década, y que sólo es parte de su variada obra acerca de los fluidos, fue el siguiente. La dificultad era que la hidrodinámica, ese elegante aparato matemático que estudiaba sobre todo a los fluidos ideales, describía muy bien una parte importante del movimiento real de los fluidos, como la forma de la estela que deja tras de sí un objeto inmerso en una corriente. Por otra parte, predecía algunos casos claramente absurdos, como la inexistencia del arrastre de la corriente sobre el objeto inmerso en ella, en franca contradicción con las observaciones (y la experiencia de los ahogados en torrentes por todo el mundo). La solución ahora parece mas o menos obvia, como siempre sucede con los problemas una vez resueltos. Si la teoría de los fluidos ideales no podía describir correctamente el movimiento de los fluidos reales cerca de cuerpos sólidos, debía haber una forma de tomar en cuenta los efectos de la viscosidad en la inmediata vecindad de las paredes de éstos. Es decir, muy cerca de una superficie sólida debía existir una región, que Prandtl bautizó como la capa límite, en la que dominaran los efectos viscosos; fuera de ella, la descripción del modelo de fluidos ideales debía ser suficiente. De esta manera, el problema se reduce a simplificar las ecuaciones de Navier-Stokes lo necesario como para poder resolverlas dentro de la capa límite; fuera de ésta, los resultados deben ser iguales a los del caso ideal. Y así, Prandtl quiso, pudo e hizo. Haciendo ver las bondades de cada parte y las desventajas del celibato para una pareja tan potencialmente fértil, manipuló la situación y documentó (con teoría y experimentos) la conveniencia de ese matrimonio. El amor llegará después —les decía— y a la pareja la dejó bien casada. La prole sigue agradecida a Prandtl por las delicadas gestiones que hizo para abrir un horizonte que explorar, donde antes sólo parecía haber una oscuridad abisal. Las contribuciones sobresalientes de Prandtl no quedaron ahí, ni fue éste el último de los brillantes investigadores en el tema; algunos de los que faltan, varias ideas y métodos, como las que abordan la turbulencia o el uso de las computadoras, aparecerán más adelante. Con este panorama de la historia de los fluidos, un tanto cubierto de nubes, pero con suficientes claros que dejan entrever el hermoso paisaje, es mejor dejar a la mente descansar y a los ojos distraer. Es un buen momento para detener la lectura, estirar las piernas y mirar a un fluido de frente. Luego, viendo agua, aire o fuego, murmurar en silencio, (lo que no haríamos con un adolescente) "te voy entendiendo...".
IV. GALAXIAS, HURACANES Y DESAGÜES Los movimientos con vorticidad son los más comunes en nuestro Universo. Desde el microscópico ámbito de los átomos hasta el inconmensurable espacio del Cosmos, los vórtices hacen acto de presencia simultánea en casi todos lados, es decir, ejecutan el portentoso acto de la ubicuidad. Y claro uno se pregunta ¿qué es la vorticidad?, ¿qué son los vórtices?, ¿cómo están relacionados estos conceptos? Antes de intentar precisar ideas veamos algunos aspectos relacionados con ellas, siguiendo el adagio de "por sus obras los conoceréis". Empecemos usando como imagen prototipo de vórtice a nuestro remolino favorito. Como en el caso de los fluidos, siempre es bueno tener un ejemplo sencillo en la mente; se sugería utilizar como prototipo al aire o el agua. Los casos extravagantes también sirven, como las sales radiactivas fundidas o el caldo de cilantro con ajonjolí, aunque pueden ser más apetitosos o dañinos que ilustrativos. ¿Quién no ha disfrutado al mirar las fotografías de una galaxia espiral o de la gran Mancha Roja de Júpiter? ¿Quién no ha sido atraído (o repelido) por las imágenes de un huracán o de un tornado? ¿Quién no ha visto un remolino de polvo o el que forma el agua en un desagüe? La primera pregunta la contestaremos a continuación, la segunda más adelante y la última queda de tarea.
Figura IV. 1. Galaxia espiral. Messier 81, en la Osa Mayor. Observatorio Hale.
Con respecto a los vórtices, de misterioso sólo tienen el mestizante efecto que da un buen espectáculo, lo que no significa que sean triviales de entender, manejar o predecir. De hecho, son protagonistas de algunos de los problemas más profundos de la física.
Figura IV. 2. La gran mancha Roja de Júpiter.
El interés por entender este truco giratorio que los alrededores practican sobre nosotros todo el tiempo no es, desde luego, ni reciente ni morboso. Se manifiesta ya en las estelas asirias, los jeroglíficos egipcios, los mitos más antiguos de las culturas nórdicas y las procupaciones de los griegos. Lo encontramos también en los glifos mayas, en las grandes obras de la literatura universal, en los dibujos exquisitos de Leonardo da Vinci y en lo que nos contó una tía de su niñez casi olvidada. Este interés nos nace al ver volar un papalote o un paraguas, al lavarnos las manos, o cuando alguna vez jugamos con el agua de la orilla de un estanque prohibido. En los permitidos también se ven, dicen. No sorprende entonces que los vórtices hayan desempeñado un papel importante en la elaboración de los modelos destinados a explicar el mundo y sus peculiaridades. La primera teoría moderna del Universo se debe a Descartes, en el siglo XVIII. En ésta imaginaba un mar infinito en el que los planetas, el Sol y las estrellas se movían influidos mutuamente por el efecto de los vórtices que ellos mismos producían. El Sol, al girar, arrastraba a los planetas en un atractivo carrusel celeste. Newton, en cambio, se concentró en estudiar a los fluidos para probar que, al rotar, no generaban el modelo de movimiento observado, descartándose así, cien años después, el universo cartesiano de vórtices. Uno de los últimos intentos por construir un universo dominado por los vórtices fue hecho por lord Kelvin, hacia finales del siglo XIX. Al formular la atractiva teoría de nudos, que es motivo de un renovado interés para describir, entre otras cosas, una parte de la dinámica de los plasmas, Kelvin intentó explicar la naturaleza atómica y molecular con anillos de vorticidad; los anillos de humo son un buen ejemplo. De esta manera, los átomos y sus compuestos eran interpretados como las diversas formas en que estos anillos podían combinarse, anudándose de acuerdo con ciertas reglas; las ideas originales de Kelvin sufrieron el mismo fatal decaimiento que sufren todos los vórtices. Ya sea porque fueron mencionados en las epopeyas de Homero, en los andares por el Infierno de Dante o en las Reflexiones de Goethe, o porque fueron ilustrados en las pinturas de Van Gogh y Tamayo, y porque son sugeridos por los rollos de mar que se mueren en las playas o por el humo que sale a borbotones de una chimenea, los vórtices siguen siendo un tema recurrente para quienes estudian la naturaleza, desde cualquiera de sus enigmáticos ángulos. IV .1. VÓRTICES Y VORTICIDAD Donde hay un fluido en movimiento hay vorticidad y casi siempre vórtices; ahora que cuando hay vórtices, siempre hay vorticidad. Sí, hay que aceptarlo, es un tanto oscuro pero se irá aclarando, como la ropa con las lavadas.
Definir un vórtice no ha sido, hasta ahora, algo sencillo. Es más o menos claro que tiene que ver con el dar vueltas en torno a un punto y que el giro debe estar referido a un movimiento colectivo, que comprende a más de un objeto o partícula. Con estas ideas en mente podemos hacer la siguiente proposición: Un vórtice es el patrón que se genera por el movimiento de rotación de muchas partículas alrededor de un punto común (no necesariamente fijo en el espacio); recordando nuestro muy particular remolino o los ejemplos previos, la definición parece ser suficiente. Sin embargo, si uno busca en la bibliografía especializada resulta que no hay consenso sobre el asunto; no hay una definición clara y unívoca, ya no se diga matemática. Ingenieros, matemáticos o físicos, ni qué decir de otros especialistas, difícilmente aceptarían nuestra propuesta y cada quien sacaría su ejemplo preferido para mostrar la necesidad de ampliarla, recortarla o todo lo contrario. Más adelante veremos la importancia que tendría el poder contar con ella. La definición que hemos dado es la suma de lo que todos intuimos más algunos detalles adicionales. Eso sí, si el "remolino" que usted escogió no está correctamente descrito por la definición, por favor, piense en otro. ¿Qué es la vorticidad? La respuesta aquí es más sencilla, pues todos están de acuerdo. En cambio, es algo más abstracto y no tan evidente, ¡lo opuesto a los vórtices! El concepto fue introducido por Cauchy y por Stokes. La vorticidad, para empezar, es un campo vectorial; es decir, su magnitud y dirección están definidas en cada punto del espacio ocupado por el fluido. En cierto sentido, es una medida de la velocidad con la que rota cada partícula de fluido. Si imaginamos a una partícula de fluido con cierta forma, es fácil convencerse, y demostrar rigurosamente, que lo más que le puede pasar es una de tres posibilidades: cambia de posición, trasladándose con la misma orientación y forma; cambia su orientación, sin trasladarse o deformarse; se deforma, sin rotar o trasladarse. Cualquier otra cosa puede explicarse como una combinación de estas tres acciones simples. La vorticidad es justamente lo que caracteriza a la segunda transformación. Para un fluido girando uniformemente alrededor de un punto, como lo haría una tornamesa, la vorticidad (que es constante) es igual al doble del número de revoluciones por segundo y su dirección es perpendicular al plano de giro, paralela al eje de rotación. Aunque todos los vórtices tienen vorticidad, no siempre que hay vorticidad existe un vórtice. El flujo más sencillo que ilustra este punto es el paralelo cortante (Figura IV .3). Se le llama así porque las partículas de fluido se mueven paralelas unas a otras y porque las fuerzas, por unidad de área, son cortantes (capítulo II, figuras II. 1 y II. 2).
Figura IV. 3. Flujo cortante simple (paralelo cortante o de Couette plano).
En este flujo, también llamado de Couette plano, las partículas de fluido se mueven paralelas unas a otras; la velocidad que llevan depende de la distancia que hay al fondo. Las líneas muestran las trayectorias y las flechas el tamaño de la velocidad. Una partícula con extensión, por pequeña que sea, sentirá que la arrastran más por arriba que por abajo (debido a la viscosidad) y tenderá a rotar. Si se calcula la vorticidad de este flujo se encuentra que no es cero; su tamaño es igual a la velocidad de arriba dividida por la profundidad y su dirección es la de nuestro dedo al señalar la figura. Nadie (esperamos) diría que hay remolinos (vórtices) ahí dentro.
Basta con observar con atención para descubrir vórtices en casi cualquier lado. Las "presentaciones" en que éstos vienen son de lo más diversas; aparecen en gases, en líquidos y hasta con cuerpos sólidos y sus tamaños varían entre las dimensiones cósmicas y las atómicas. Para darnos una idea de las escalas de tamaño y velocidad que tienen estas ubicuas estructuras, veamos unos ejemplos; algunos serán comentados con cierto detalle más adelante.
Vórtices
Diámetro (en metros)
Rotaciones internas en el núcleo atómico
10-17
Vórtices cuantizados en helio líquido
10-8
Remolinos más chicos en un flujo turbulento Vórtices en la estela de una ballena
10-3 1-10
Tornados y huracanes
10-105
Estructuras atmosféricas en planetas
107
Convección interior en las estrellas
109
Galaxias espirales
1020
En este cuadro, vemos que las estructuras vorticosas más grandes tienen dimensiones de miles de años-luz (distancia que recorre la luz en un año; viaja a casi 300 000 km/seg) y las más pequeñas, en el interior de los núcleos atómicos, son de un metro dividido por un 1 seguido de diecisiete ceros; las longitudes son en ambos casos inimaginables... Las velocidades de rotación varian dentro de un intervalo más chico. El límite superior siendo la velocidad de la luz, la máxima alcanzable en el Universo, mayor a los 1 000 000 000 km/h. IV. 2. TORBELLINOS CÓSMICOS Dentro del inmenso foro que constituye el Universo, muy lejos de nosotros, hasta donde podemos percibir con nuestros más potentes telescopios, hay objetos que parecen remolinos multicolores congelados en el espacio y el tiempo. Formados por miles de millones de estrellas que se revuelven en torno a un centro demasiado luminoso para desentrañarlo y entenderlo, descubrimos fantásticos vórtices de dimensiones inimaginables. De hecho, el grupo de estrellas del que forma parte nuestra estrella más cercana, el Sol, es una de estas exquisitas y arremolinadas estructuras. Nuestra Galaxia, la Vía Láctea, es muy parecida a la que se ilustra en la figura IV. 1. Con un diámetro cercano a los 70 000 años-luz, nuestro Sistema Solar se encuentra en una zona cercana a la orilla, como a 30 000 años- luz del centro. Como un punto común y corriente, sin ninguna característica especial o privilegiada, el Sol gira alrededor del centro de la galaxia, de modo que da una vuelta cada 250 millones de años. Por la distancia a la que nos encontramos del centro, la velocidad efectiva de giro es de casi 1 000 000 km/h. Por algo Galileo dijo en voz baja para sí, ante mentes inmóviles, "y sin embargo, se mueve". ¡Lo hubiese gritado de haber sabido la velocidad de la Tierra en la Galaxia! La estructura espiral de nuestra Galaxia es algo común en el Universo; se conocen cientos de ellas. Muchos modelos para explicar la forma en que está distribuida la masa (las estrellas), la forma en que giran (más rápidamente cerca del centro), etc., están sustentados en formulaciones hidrodinámicas. Es decir, se ignora que están formados por partículas (estrellas) y se estudian como a los fluidos (continuos), con ecuaciones muy semejantes.
Inmensas regiones de gases, millones de veces mayores que una galaxia como la nuestra, son estudiadas como fluidos autogravitantes en los que la densidad fluctúa; de estas contracciones locales de materia se generan nuevas estrellas y con ellas galaxias. De la manera en que la vorticidad puede estar distribuida y de cómo evoluciona es posible inferir mecanismos que expliquen las formas de los cúmulos de estrellas, los gigantescos chorros de materia que se observan con los radiotelescopios o la aparición de nuevas inhomogeneidades espaciales (irregularidades en la densidad de materia). Si confinamos nuestras observaciones sólo a nuestro Sistema Solar y vemos con atención a los planetas mayores, desde luego que nos quedamos igual, pues no distinguimos más allá de puntitos luminosos. Ahora que si usamos un telescopio o pedimos una fotografía de las enviadas por las recientes naves interplanetarias (Voyagers y Vikings), nos sorprendemos por la maravillosa vida que presentan sus atmósferas. Secuencias de fotografías o videos de Saturno, de Neptuno y especialmente de Júpiter ponen de manifiesto una bellísima estructura y una intensa actividad. Aunque la complicada dinámica dista mucho de entenderse, los vórtices multicolores revelan parte de los mecanismos en juego. La gran Mancha Roja de Júpiter es sin lugar a dudas el vórtice más famoso y conspicuo del espacio exterior a nuestro planeta. A 22° abajo del ecuador del planeta más grande del Sistema Solar se encuentra un gigantesco remolino rojo. Si este monstruoso torbellino se encontrase en la Tierra estaría ubicado en la latitud de Río de Janeiro (no es de sorprender que el remolino terrestre correspondiente lo formen los cariocas). Las dimensiones de la Mancha Roja son de 22 000 km de largo por 11 000 km de ancho y va disminuyendo poco a poco con el tiempo. Hace más de cien años, mientras Benito Juárez discutía las Leyes de Reforma, la Mancha Roja era del doble del tamaño y, como aún sucede, podría contener a todos los planetas internos, desde Marte hasta Mercurio, pasando por la Tierra. Su intenso color anaranjado, que varía entre el tenue crema sonrosado y el rojo carmín, se debe a las complejas reacciones químicas que ocurren entre los gases que conforman su atmósfera. Sin contar con la misma belleza o las grandiosas dimensiones que posee la Mancha Roja, remolinos espectaculares se han observado en las superficies de Saturno, Neptuno y Urano. Como apocalípticas tormentas sobre inexistentes habitantes, estos gigantescos vórtices aparecen, se extienden y se disipan para regocijo de los astrofísicos planetarios. Sin embargo, los mecanismos que los engendran parecen ser muy distintos a los que generan los grandes huracanes venusinos, terrestres y marcianos. Júpiter es un planeta en el que las estaciones no existen. Su eje de rotación es casi perpendicular al plano de su órbita y su temperatura varía muy poco entre los polos y el ecuador; la diferencia es de sólo tres grados centígrados, que contrasta con la correspondiente diferencia de temperaturas en la Tierra (encuestas entre peruanos y norfinlandeses así lo indican). Las estaciones se deben a que el eje de la Tierra está inclinado, no al carácter elíptico de la órbita. De hecho, la órbita terrestre es casi circular; se requieren medidas muy precisas para apreciar la excentricidad. Es decir, si dibujamos la órbita (elíptica) de la Tierra en una hoja como ésta, con nuestra pluma favorita, la diferencia con un círculo seria menor que el grosor del trazo. La circulación atmosférica norte-sur no la conocen ni los jovianos ni los saturninos. De aquí la existencia de bandas o fajas paralelas al ecuador en los grandes planetas y la ausencia de éstas en los planetas más pequeños, aunque más divertidos. Estas bandas son regiones de alta y baja presión, llamadas zonas y cinturones, que corresponden a gigantescos chorros que se mueven en direcciones opuestas y en donde los vientos alcanzan velocidades de 500 km/h. En las regiones entre unas y otras, que se encuentran alternadas, aparece toda suerte de fenómenos exóticos; patrones regulares de vórtices que adornan miles de kilómetros, megavórtices como la Mancha Roja y su hija blanca un poco más al sur, conjuntos bailables de vorticillos (de sólo unos cientos de kilómetros) con ritmos y colores que no envidian ni a una pegajosa salsa ni al alegre vestuario de un carnaval. Júpiter se inspira sin duda alguna en la imaginativa obra plástica de Niermann. Otros factores relativamente comunes entre la Tierra, Venus y Marte son las velocidades de rotación, la proporción entre superficie sólida y grosor de la atmósfera, las densidades atmosféricas y la diferencia entre la energía que reciben y la que reflejan o emiten; todo esto muy distinto a lo que sucede en los grandes planetas externos. Por ejemplo, mientras que la Tierra emite la misma energía que recibe del Sol, Júpiter emite casi el doble de la que recibe; aún guarda energía de su proceso de formación al contraerse gravitacionalmente al principio de los tiempos. Desde la cuna fue más generoso que la Tierra. Siendo mucho mayor que nuestro planeta gira casi dos y media veces más rápido. Además, de grandes consecuencias climáticas, en la atmósfera de Júpiter la densidad
depende sólo de la presión, o lo que es equivalente, las regiones con igual presión tienen la misma temperatura; se dice entonces que es barotrópica. Esto no sucede en nuestra blanquiazul envoltura que llamamos baroclínica. Por lo tanto, la dinámica atmosférica joviana es muy distinta a la terrestre (afortunadamente). Los otros planetas mayores comparten con Júpiter algunas de sus vistosas características. Saturno presenta además su extraordinario sistema de anillos. Fuera de su atmósfera exhibe uno de los vórtices más fantásticos que se conocen, para no ser menos conspicuo que su hermano mayor. Como queriendo desafiar las leyes mecánicas que conocemos, muestra millares de anillos concéntricos, regulares y notablemente planos. Salvo por algunas irregularidades que transitan como fantasmas a lo ancho y largo de los anillos, la perfección del movimiento vorticoso de millones de trozos de hielo nos sigue asombrando. Como seguramente le sucedió a Galileo cuando descubrió sin entender la inverosímil estructura, las preguntas que se ocurren superan a las respuestas que tenemos. Los anillos, como casi todas las características que se han ido encontrando en nuestros planetas vecinos, no son exclusivos de alguno en especial. Varios de ellos tienen bandas y anillos, algunos tienen superficies sólidas complejas y atmósferas activas, otros tienen satélites naturales, etc. Así los planetas, como sucede con los humanos y los animales en la granja de H. G. Wells, siendo todos iguales hay unos más iguales que otros y, sin embargo, no existen dos completamente iguales. Del vasto espacio cósmico a la vecindad del Sol, los movimientos giratorios, como gigantescos tiovivos, son más la regla que la excepción. Nada parece moverse en línea recta. Nuestra galaxia gira, con muchas otras. En su movimiento hacia la constelación de Lira, nuestra estrella local se revuelve en torno al misterioso centro de la Vía Láctea; los planetas, que tanto estimulan la imaginación por los deseos de una inexistente compañía, rotan alrededor del Sol y sobre sí mismos. Desde su tenue superficie hasta el inaccesible interior, cada planeta manifiesta una agitada vida dominada por vórtices. IV. 3. HURACANES Y LAVABOS La Tierra, el único sitio habitado que conocemos, vista desde fuera parece una esfera azul con caprichosas pinceladas blancas que cambian suavemente con el paso del tiempo. Con cada revolución parecen generarse de la nada, se organizan y se desvanecen otra vez para recomenzar otra composición plástica. Un aspecto curioso del espectáculo pictórico permanente es la tendencia a girar de estas móviles decoraciones. Bajo circunstancias especiales, las hermosas espirales se estabilizan por un rato, se organizan hasta cubrir cientos de kilómetros y en un recorrido aparentemente loco se convierten en fuentes de destrucción y, paradójicamente, de vida. Huracán, que viene de la palabra furacán, y que escuchara Cristóbal Colón de los nativos durante su segundo viaje, es el nombre más común que se da a los vórtices atmosféricos terrestres más grandes. Son tormentas caracterizadas por vientos huracanados (mayores de 120 km/h) que, en trayectorias espirales, se mueven hacia un centro común conocido como el ojo del huracán. En el hemisferio norte el giro es invariablemente ciclónico, es decir, en contra de las manecillas del reloj, y en el hemisferio sur al contrario. Llamados también tifones y ciclones, entre otros muchos nombres, se empezaron a registrar en forma regular a partir del descubrimiento de América. La historia de muchos de estos fenómenos usualmente va acompañada de tragedias. Vastas inundaciones, numerosas embarcaciones desaparecidas, incalculables daños materiales e incontables pérdidas de vidas humanas sellan los recuentos del paso de los huracanes. Kamikazi, el viento divino, es el nombre que recibió el tifón que en 1281 acabó con las aspiraciones de Kublai Khan para invadir el Japón. La flota completa, con más de 100 000 soldados chinos, mongoles y coreanos, desapareció en la Bahía de Hakata, Japón. En términos de vidas humanas, las mayores catástrofes registradas fueron en 1737, cerca de Calcuta, India; en 1881 en Haifong, Vietnam, y en 1970 en la Bahía de Bengala, Bangladesh; se estima que más de 300 000 personas perdieron la vida en cada caso. La presencia de intensas lluvias, de hasta decenas de centímetros en unas horas, y de una marejada que supera los 10 m de altura, da lugar a las inundaciones que cobran la mayoría de las víctimas. Con una extensión que puede llegar a los 2 000 km de diámetro, los huracanes viajan con velocidades
relativamente bajas e irregulares que oscilan entre los 10 y los 50 km/h. La duración de un ciclón también es muy variable, pues puede ser de unas horas hasta semanas, y recorrer distancias de hasta 2 000 km. Los vientos en la espiral alcanzan velocidades cercanas a los 350 km/h en la vecindad del ojo, dentro del cual una calma desconcertante aparece abruptamente; en unos minutos el viento pasa de una violencia feroz a una leve brisa. En el ojo, cuyas dimensiones varían entre los 20 y los 100 km, la presión alcanza los valores más bajos que se hayan registrado en la superficie de la Tierra. El hecho de que transportan grandes cantidades de agua a través de varios grados de latitud y que se estima que un huracán maduro transporta entre 2 000 y 4 000 millones de toneladas de aire por hora, los convierte en elementos importantes para la circulación y transporte atmosféricos globales en la Tierra. El calor que llevan de zonas tropicales a latitudes más frías y las lluvias que dejan a su paso son parte de los beneficios que traen consigo. Si bien se conocen los mecanismos básicos para su generación, propagación y decaimiento final, aún hay aspectos poco claros que impiden una confiable predicción de estos fenomenales eventos atmosféricos. En una acción internacional promovida por la ONU, con pocos precedentes, la década de los noventa ha concentrado un gran esfuerzo científico para estudiar los huracanes. Una comisión multidisciplinaria presidida por James Lighthill, uno de los notables hidrodinámicos del siglo, ha iniciado estudios de la más diversa índole para esclarecer este tema cuanto sea posible. El propósito fundamental es hacer más eficientes las gigantescas simulaciones numéricas que actualmente se llevan a cabo para poder predecir la aparición, intensidad, dirección y duración de un ciclón. En 1991, la predicción de la evolución de un ciclón por una semana requería de un tiempo de 75 horas de cómputo (usando la computadora más grande y rápida del mundo).
Figura IV. 4. Huracán sobre el Océano Pacífico (NASA, Apolo 9).
Uno de los problemas más grandes es la falta de datos meteorológicos suficientes y confiables para alimentar las simulaciones numéricas que se hacen hoy en día en varios centros de investigación dedicados exclusivamente al estudio de los huracanes. Para tener una idea sobre los elementos que contribuyen a la formación, estructura y sostén de un huracán, es necesario tomar en cuenta que todo lo vemos desde un carrusel, es decir, desde la giratoria superficie de la Tierra, lo que complica un poco las cosas. El primero en estudiar el movimiento de cuerpos desde un sistema de referencia que rota fue Gustave-Gaspard Coriolis (1792-1843). En 1835, Coriolis publicó un trabajo en el que mostraba que si un objeto se mueve sobre
una superficie que gira, aparece una fuerza perpendicular a la dirección de su movimiento. Esta fuerza, conocida ahora como la Fuerza de Coriolis , da lugar a una trayectoria curva, vista desde la superficie. Para apreciar mejor el efecto vamos a imaginar la siguiente situación Un simpático joven tiene una pelota en la mano y está parado en la parte interior de un tiovivo que gira; es el que recoge los boletos. Un niño da vueltas sobre uno de los caballitos de la orilla (nada cambia si los caballos se sustituyen por otros mamíferos). La hermana mayor del niño los observa girar desde la orilla, pues teme subirse. El joven se percata de la hermana al verla pasar periódicamente y decide que la próxima vez que se encuentre cerca le va a lanzar la pelota al niño para congraciarse con ella. Cuando los tres están alineados, lanza la pelota al niño y ésta va a caer en las manos de otra sorprendida muchacha. Analicemos lo ocurrido a los ruborizados jóvenes y al extrañado niño. Desde el punto de vista de este último y el embobado joven, lo que ocurrió es que la pelota siguió una trayectoria extraña; en lugar de viajar en línea recta entre los dos, una fuerza extraña pareció desviarla y fue a dar a las manos de una joven que iba pasando. Por su parte, la hermana ve a la pelota seguir una trayectoria recta y directa a la otra joven, sintiéndose incómoda por haber creído, como el niño, que era la futura poseedora de una pelota. Al niño sin pelota y al joven sin la hermana, sólo les queda invocar la existencia de fuerzas extrañas o de agentes invisibles para explicarse el suceso. Para los observadores en reposo, el movimiento de objetos es rectilíneo, a menos que alguna influencia bien determinada los desvíe; así lo comprueban las dos muchachas, la que esperaba atrapar y la que, sin esperarlo, lo hizo. Para los observadores en rotación, llamados acelerados, es necesario recurrir a fuerzas ocultas ("desocultadas" por Coriolis) para explicarse el movimiento de las cosas. En nuestra terrestre circunstancia, rotando con el piso (la Tierra), recurrimos a la existencia de esta fuerza (inercial) para describir movimientos con precisión. En la Tierra, que rota hacia el este, un objeto que es lanzado de sur a norte seguirá una trayectoria curva; en lugar de viajar directo al norte se deflectará hacia la derecha, en el hemisferio norte, y hacia la izquierda en el hemisferio sur, abajo del ecuador. Por otra parte, la velocidad de giro depende de la latitud, siendo cada vez más pequeña al acercarse a los polos y máxima en el ecuador; quien se encuentra más lejos del eje de rotación recorre mayor distancia en menos tiempo (va más rápido), como saben los que han practicado las "coleadas". Así, la magnitud de la fuerza de Coriolis depende del movimiento del objeto (su velocidad y la dirección de ésta), de la rotación terrestre y de la latitud. Con la guía de Coriolis podemos ahora resumir las condiciones que se requieren para la formación de los huracanes. Una es que la fuerza de Coriolis sea mayor que cierto valor mínimo. Como ésta es cero en el ecuador y empieza a crecer con la latitud; los vórtices que nos ocupan se generan fuera de un cinturón de aproximadamente 7º de latitud, al norte y al sur del ecuador (como de 1 300 km de ancho). La dirección del giro de los huracanes se debe únicamente a esta fuerza. Dentro de esta banda los posibles huracanes son presa de la esquizofrenia, al no saber en qué dirección girar, y prefieren no existir. Otra condición necesaria es la presencia de una superficie extensa de agua, con una temperatura mínima de 27ºC, que dé al aire circundante grandes cantidades de vapor para generar y mantener una tormenta tropical. Los meses calientes del año son pues los más propicios. Adicionalmente, se cree que una o mas de las siguientes condiciones necesita estar presente para disparar el mecanismo de formación. La columna de aire sobre la zona inicial inestable (capaz de amplificar pequeños cambios), la presión del aire cerca de la superficie del agua baja y las corrientes de aire, verticales y encontradas (flujos de corte), muy pequeñas. Bajo las circunstancias arriba descritas, la zona se encuentra en un estado tal que pequeñas perturbaciones pueden amplificarse y dar lugar a movimientos de grandes masas de aire húmedo, especialmente si se presentan corrientes horizontales (chorros) de aire. La convección resultante (movimiento de masas de aire) se hace tumultuosa en un tiempo relativamente corto, reforzándose los vientos y permitiendo que el efecto de Coriolis entre en juego para introducir una curvatura en la corriente, organizándose la estructura ciclónica. Una vez iniciado el fenómeno se sostiene por periodos que van de unas horas hasta varias semanas, gracias al
mecanismo que describiremos esquemáticamente a continuación. En una zona de unos centenares de metros sobre la superficie del agua, llamada capa de Ekman, el aire húmedo se mueve horizontalmente y en espiral hacia el centro de giro. Al llegar cerca del ojo del huracán cambia abruptamente su dirección y asciende varios kilómetros en una especie de chimenea hueca, que limita la zona del ojo. En este movimiento de subida, que no es otra cosa que una consecuencia del principio de Arquímedes, el aire caliente se expande y se va enfriando. En consecuencia, la humedad se condensa, liberándose energía (calor latente) en grandes cantidades. Las gotas de agua condensada forman las torrenciales lluvias y la energía disponible es empleada en reforzar los vientos y trasladar el ciclón. Esta es la razón por la que se habla de una máquina térmica cuando se refiere uno al mecanismo físico que mantiene a un huracán. Al llegar a tierra firme pierde su fuente más importante de energía y se debilita, disipándose en cuantiosas lluvias. La clave está pues en el hecho de que cuando el vapor de agua se condensa, juntándose en gotas, se libera energía. Sabemos que para evaporar agua hay que darle energía, quemando gas o leña o haciéndola caer desde cierta altura (como en las cataratas). Tláloc, el dios azteca de las lluvias, se las ingenia para usar la energía que se "suelta" en el proceso inverso de la evaporación: la condensación. De acuerdo con la Organización Mundial Meteorológica, las perturbaciones meteorológicas de baja presión se clasifican con distintos nombres, dependiendo de su intensidad. En su estado inmaduro, con vientos ligeros en rotación y con isobaras abiertas, se les llama perturbaciones tropicales. A la curva que resulta de unir los puntos en donde la presión es la misma se le llama isobara; se dice que es abierta si no forma una curva parecida a un círculo. Una depresión tropical es cuando los vientos en rotación han aumentado, sin exceder los 63 km/h, y aparecen algunas isobaras cerradas en el mapa meteorológico. Se convierten en tormentas tropicales cuando los vientos, claramente en rotación, son mayores a 63 km/h pero menores a 120 km/h y las isobaras son cerradas en su mayoría. Se reserva el nombre de huracán para los casos en los que los vientos son superiores a este número mágico de los 120 km/h. El verdadero bautizo ocurre cuando una depresión se convierte en una tormenta. En ese momento se les pone un nombre (de mujer y de hombre, en forma alternada) por orden alfabético. Por ejemplo, el primero puede ser Aspergencia, el segundo Bugambilio, y así sucesivamente hasta Zuperman; el siguiente será Agapita y se vuelve a dar vuelta al alfabeto, dado que en promedio se producen cerca de 60 huracanes por año en todo el mundo. Otros grandes vórtices que se observan en la atmósfera son los tornados y las trombas, cuyos nombres son bastante descriptivos, pues uno viene de tornar, regresar, y el otro es una variación de la palabra trompa. Basta con ver la figura IV. 5, que muestra uno de cada tipo, para apreciar la originalidad de los apelativos
Figura IV. 5. (a) Tornado.
Figura IV. 5. (b) Tromba
Los tornados, raros en México, son extremadamente "populares" al norte del río Bravo y representan la amenaza atmosférica más temida en el grupo local de galaxias. Los vientos más fuertes que se han registrado en la Tierra están asociados a estos espeluznantes remolinos que, afortunadamente, sólo viven unas horas. La descripcion siguiente, tomada de la obra inédita de un autor poco conocido, representa lo que ocurre cada año en las planicies centrales de los EUA o de Australia y confirma las narraciones de múltiples testigos. Las vacaciones de Pascua no podían ser mejores ni más apacibles. Sentado en la recién pintada veranda, disfrutaba del sol primaveral del mediodía y gozaba del paisaje rural que sólo ofrece una casa de campo, cómoda y rústica. Tres días de arreglos domésticos, destapando drenajes, reparando techos y limpiando la apreciada herencia, eran recompensados con un merecido descanso. Valió la pena el viaje —me dije— y empezaré con mis lecturas atrasadas más tarde. Debí quedarme dormido varias horas porque las nubes parecían haber salido de la nada. Sin el cambio en la luminosidad del día y la sensación incipiente de hambre y frío, hubiese jurado que sólo me había distraído pensando en quienes no estaban conmigo. Habiéndome alejado de la civilización con toda intención pense que todavía me encontraba bajo el sopor del sueño al escuchar el lejano murmullo que sólo hacen los trenes de carga. Sin más motivación que la curiosidad por la persistencia y el paulatino aumento del murmullo, presté más atención. Empecé a darme cuenta de que era más parecido al distante, aunque grave, zumbido de un enjambre de abejas. Estando en el campo, desde luego, era una explicación más probable para el ruido. El fresco que empezaba a sentir me obligó a levantarme de la agradable mecedora y, con un horizonte más amplio para la vista, busqué la fuente de la creciente vibración. El cielo, ya nublado, se oscurecía hacia la parte posterior de la casa, desde donde podría verse el rancho vecino, a unos tres kilómetros. No tuve que dar la vuelta a la casa para ver que, más allá de la troje que sobresalía del resto de la granja de mis fortuitos vecinos y partiendo de la orilla más oscura de las nubes, se extendía una columna que unía al nubarrón con la superficie de la tierra. Con forma de embudo en su parte más alta y tan caprichosa y viva
como una culebra, parecía envolver en una bruma a la ancha zona de contacto. Cuando yo era más joven, antes de que los adultos aceptaran que mis opiniones eran valiosas o de que yo aceptara que en realidad no lo eran, una tía, notable por sus exageraciones y su ignorancia, describió sus experiencias cuando un tornado, al que llamaba twister, pasó por el pueblo en el que había crecido. Petrificado, como parecía estarlo en ese momento la zumbante columna, recordé la historia. Después de unos minutos de incredulidad, percibí cómo se movía el extremo inferior del tornado y parecía engullir todo a su paso. El horizonte, más claro, contrastaba con la serpenteante columna y con los rayos que vestían de luz y sonido al diabólico espectáculo. Cuando pasó por las minúsculas estructuras de la granja, a la que no pude dejar de mirar, como queriendo conservar los detalles que la guardarían en mi memoria como algo que no imaginé, todo desapareció. La troje, la vieja carreta, el camino arbolado que recibía las cosechas y todo lo que hacía familiar la escena fue borrado por el siniestro remolino. La diluida nube de despojos y objetos irreconocibles que volaban cerca de la parte central de la columna eran la prueba de que la ranchería de los vecinos había existido. No me moví. Me quedé clavado al pasto, mojándome, sin poder quitar la vista del gigantesco remolino. Nunca podré describir la inextricable mezcla de aprensión y admiración que me mantuvo paralizado durante tantos y valiosos minutos. De ello no me arrrpiento. Vi a la naturaleza desentrañar sus fuerzas y volcarlas con violencia sobre sí misma. Luego, como consciente de mi presencia irreverente, el tornado cambió su dirección y se dirigió hacia mí con una velocidad vertiginosa. Sin premeditación alguna corrí a mi automóvil y cerré las puertas en forma instintiva, como queriendo impedir la entrada del viento, esperando la inexorable llegada del fin. Minutos después, durante los segundos que tardó en suceder todo, fui testigo inerme de lo que Dante describió en su Infierno. Voces graves y chillantes mezcladas con golpes secos y sordos, cegadoras luces que hacían más fantasmagórico el espectáculo brevemente nocturno. Cientos de pequeños remolinos en tumulto quitaron la transparencia al aire y, como desconectando la gravedad, hicieron volar todo alrededor y cambiaron mi oasis personal en pandemónium. Aferrado al volante, miraba la casa que parecía resistir la lluvia de objetos que caían sobre ella. Por un instante y en forma absurda, pensé en las reparaciones que había hecho y en su nueva pintura. Como si fuera un castigo a mi pensamiento pusilánime, la casa explotó como si se hubiese inflado hasta el límite sin querer distenderse. Deapareció entre los escombros dispersos en el aire y me cerré al mundo externo apretando los ojos, los dientes y las manos. Más tarde, acalambrado por la tensión inútil en los brazos y las piernas, abrí los ojos y frente de mí aparecía la puesta de Sol más hermosa que había visto. El amplio e irreconocible paisaje sólo mostraba los signos del abandono, como si despertara de un sueño de años. El automóvil, reorientado sin que recordara cómo, apuntaba sobre un camino cubierto de ramas y tierra que me invitaba a partir. La tormenta y su furia se habían desvanecido con la casa y su contenido. Esa tarde, durante el ocaso de un día desigual a los demás, me senté a pensar sobre el miedo, la muerte y lo temporal de nuestros actos. Cada detalle de la narración anterior tiene al menos una confirmación independiente. Los datos que siguen hacen ver que no hay exageraciones en la tal vez imaginada descripción. El 18 de rnarzo de 1925, un tornado quitó la vida a 689 personas, hirió a más de 2 000 y causó daños incalculables en los estados de Missouri, Illinois e Indiana, en EUA. Durante las tres horas que hizo contacto con la superficie, recorrió más de 300 km y se estima que los vientos llegaron a los 600 km/h. Entrada la tarde de un domingo de ramos, el 11 de abril de 1965, se registraron 47 tornados que causaron uno de los más grandes desastres de su tipo en los estados de Iowa, Wisconsin, Illinois, Indiana, Michigan y Ohio. Murieron 271 personas, se lesionaron más de 3 000 y los daños materiales fueron superiores a los trescientos millones de dólares. Es sorprendente la destrucción que deja a su paso un tornado. Se han reportado y confirmado casos insólitos: varitas de paja incrustadas en postes de madera; una casa-escuela con 85 alumnos dentro fue demolida por completo y, sin que ninguno de los alumnos perdiera la vida, fueron transportados 150 m; un tren con cinco
vagones, de más de 70 toneladas cada uno, fue levantado de la vía y uno de los vagones fue lanzado a cerca de 24 m de distancia. La velocidad de traslación de un tornado típico es de 50 km/h, habiendo registros de hasta 112 km/h o de tornados estacionarios. La dirección usual es de suroeste a noreste y, aunque el efecto de Coriolis es muy pequeño, el giro más común es ciclónico. El ancho característico es de unos 100 m y su recorrido de unos 25 km, con grandes desviaciones; el de 1925 tuvo un ancho ocasional de más de 1.5 km y su recorrido fue de 325 km. La velocidad de rotación es típicamente de unos 400 km/h, con registros de hasta 800 km/h. La altura del embudo superior, que se desvanece en la nube madre, alcanza entre 800 y 1 500 m. El inevitable honor de máxima aparición de tornados le corresponde a EUA, con más de 650 por año; en 1965 se registraron 898 tornados. Australia, con más de 100 eventos anuales ocupa el segundo lugar. En forma eventual aparecen en casi todo el mundo. Sin que la estación del año o la hora del día (o la noche) tengan algo que ver con sus apariciones, su frecuencia es ligeramente mayor durante los meses de mayo, junio y julio y entre las 3 y las 7 de la tarde. Sin embargo, nada garantiza que no se aparezcan repentinamente en la madrugada del 25 de diciembre. La mayor parte de las características de un tornado, como las distribuciones de velocidad y presión, son inferidas de estudios teóricos y evaluaciones de ingeniería de daños. La rapidez y violencia del fenómeno han limitado severamente la medición directa pues casi todos los instrumentos son destruidos. De la filmación de un tornado en la ciudad de Dallas, EUA, en abril de 1957, se hicieron las primeras observaciones cuantitativas al seguir el movimiento de escombros y de algunas zonas de su estructura. Hay registros esporádicos de caídas de presión de hasta 200 milibares (20% abajo de la presión atmosférica normal) en tiempos de 30 segundos. Como consecuencia hay un efecto de succión o explosión. Los techos son levantados y las paredes revientan hacia afuera. La circulación del aire en un tornado está esquematizada en la figura IV. 6. Superpuesto al movimiento horizontal giratorio, presente en todo el tornado, el aire se mueve en dirección vertical; hacia abajo dentro delembudo y hacia arriba en la parte exterior y en la región cercana al piso. En esta última, la capa de Ekman, el aire fluye en forma espiral hacia el centro de la zona de contacto y ahí sube violentamente por fuera del tubo y el embudo.
Figura IV. 6. (a y b) Circulación en un tornado.
Para la formación de un tornado es necesario que exista una zona de flujos encontrados con suficiente vorticidad, durante varias horas y en la escala de kilómetros. Estas condiciones se dan en los frentes fríos, donde chocan masas de aire frío y caliente, en zonas de ráfagas, en la vecindad de huracanes y, con frecuencia, en las erupciones volcánicas. A unos 5 km de altura, chorros encontrados se tuercen por la fuerza de Coriolis y el aire frío se arremolina y hunde sobre la nube madre del tornado. Aquí el proceso semeja al vórtice que se genera en un desagüe de lavabo. Hundimiento y circulación se organizan y acoplan, fortaleciendo al vórtice. En el fondo, en la capa de Ekman, el fluido sólo puede ir hacia arriba al converger en una región reducida; conectado con el extremo incipiente del tubo que sale del embudo, sirve para "amarrar" al tornado a la superficie de la Tierra. Cuando un tornado pasa o se forma sobre una superficie de agua recibe el nombre de tromba o tromba marina. Como los tornados, puede tener formas distintas y ocurre frecuentemente en grupos; se han visto hasta 15 trombas simultáneamente. La intensidad de la tromba parece ser menor que la de sus hermanos terrestres, aunque los datos son más escasos (no hay muchos habitantes humanos en las aguas). Siendo más débiles que los modelos terrestres, pueden confundirse con remolinos común y corrientes. Contrario a lo que se cree, las trombas no elevan el agua a grandes alturas, si acaso unos cuantos metros. La estructura (Figura IV. 5 (b)), como la nube madre, está formada de vapor de agua dulce y gotas que resultan de la condensación. En la parte inferior es usual ver una envoltura ancha de rocío que gira con el vórtice. Una de las trombas más famosas fue vista por cientos de turistas bañistas y varios científicos en la costa de Massachusetts, el 19 de agosto de 1896. Se estimó que su altura era de 1 km, el ancho de 250 m en la parte superior, 150 m en la zona intermedia y 80 m en la base. La envoltura de rocío que rodeaba al vórtice en la base era de 200 m de ancho y 120 m de altura. Desapareció y volvió a formarse tres veces, durando una media hora en cada ocasión; el tamaño y la vida de ésta fueron mucho mayores que la generalidad. Aunque son un peligro para embarcaciones pequeñas, hay pocas indicaciones confirmadas de que barcos de calado mediano o grande hayan sido destruidos por uno de estos vórtices acuícolas. Lo que sí ha sucedido es que emigren a tierra con afanes anfibios y causen destrucción y muerte. Si bien aparecen en cualquier época del año y a cualquier hora, son más frecuentes entre mayo y octubre y, como los violentos y pedestres parientes, les gusta el sonido del idioma inglés modificado; se ven seguido en las costas estadounidenses y australianas. En Nueva Gales del Sur, Australia, se registró uno de más de 1 800 m de altura. El Golfo de México es un buen lugar para espiarlos. Otros vórtices comunes son los vórtices de marea, los vórtices de desagüe y los remolinos de tierra. Los vórtices de marea resultan de las corrientes causadas por las mareas. Cuando la marea entrante alcanza las
aguas de la marea saliente, en estrechos que separan grandes masas de agua, se manifiestan estos temidos enemigos de los navegantes. Esto explica por qué son protagonistas en leyendas y mitos de la antigüedad. El más famoso de los vórtices de marea es sin duda Caribdis, que dio nombre temporal a estos vórtices. Descrito por Homero en la Odisea, Caribdis fue el terror de los héroes que navegaban en el Mar Mediterráneo; otros, no glorificados por las epopeyas homéricas, también le temieron y sucumbieron en él. No en vano Virgilio los muestra a Dante en su paso por el Infierno. El Estrecho de Messina, entre Sicilia y Calabria, al sur de Italia, separa los mares Jónico y Tirreno; el estrecho es casi un canal que acaba abruptamente en el Tirreno. Varios elementos combinados lo convierten en el lugar ideal para la malévola existencia de Caribdis. Los dos mares tienen mareas opuestas, y la alta de uno coincide con la baja del otro; así, cuando uno va, el otro viene. Además, el mar Jónico tiene una temperatura menor y una salinidad mayor que el Tirreno, lo cual hace que las aguas del Jónico sean más pesadas. Estas circunstancias provocan una situación inestable y propicia, durante los cambios de marea, para la formación de intensos vórtices verticales y horizontales. Para perfeccionar los maquiavélicos detalles, en la parte más angosta del Estrecho de Messina, precisamente en la salida al Tirreno, el fondo marino tiene la menor profundidad (100 m). Del lado norte, en el Tirreno, la profundidad es de 350 m, a 1 km de distancia de la salida del estrecho. Del lado sur, dentro del canal y a la misma distancia de la salida, la profundidad es de 500 m. Ahí, justamente, acechó oculta la clásica monstruosidad a los valientes argonautas. Muchos ejemplos aparecen en la mitología de diversas civilizaciones. En el folklor noruego destaca el Maelstrom, que inspirara miedo a los notables navegantes de los mares del norte y motivara el poema de Schiller y la novela de Edgar Allan Poe El Maelstrom, situado en los estrechos de las islas Lofoten, en el Mar de Noruega, aparece citado desde el siglo XVI en las primeras cartas de navegación de los fiordos. Otros casos conocidos son los vórtices en St. Malo, en la costa francesa del Canal de la Mancha, el de Pentland Firth, entre la costa escocesa y la Isla de Orkney y, los más grandes que hay, en los estrechos de Naruto, en el Mar de Japón. Estos últimos presentan vórtices tales que la boca, la región con forma de campana invertida que ruge como una amenazante catarata, es de más de 15 m de diámetro. Los remolinos de tierra, que seguramente todos hemos visto, son como versiones miniatura de los tornados. Tienen la forma de columnas o de conos invertidos y el movimiento del aire es giratorio, en cualquier dirección, y ascendente. Cerca del piso la corriente es de forma espiral y es capaz de arrastrar toda clase de pequeños objetos, incluyendo animales no muy grandes, como liebres. La altura que alcanzan es entre 2 y 1 500 m, siendo característica la de 100 m. El diámetro oscila entre 1 y 50 m, siendo el más común de 10 m. Es muy probable que alcancen valores mayores, lo cual permite a los pilotos de los planeadores subir hasta 5 000 m usando las corrientes espirales ascendentes de estos remolinos, cuya vida es mayor de lo que la evidencia visual indicaría; sólo cuando arrastran material como arena, polvo, humo, inclusive nieve o fuego, es que son visibles. Hay registros de múltiples remolinos que duraron varias horas. Uno de los más célebres fue seguido en las planicies saladas del estado de Utah, en EUA, de 800 m de altura, y viajó 65 km durante 7 horas. Otro, en la orilla del desierto de Sonora, en México, se mantuvo estacionario y activo por un lapso de cuatro horas. Los de tamaño apreciable son visitantes frecuentes de los desiertos del mundo; cientos de informes sobre ellos provienen de los desiertos de EUA, México, Sudán, Egipto, Arabia Saudita, Iraq y Etiopía; entre otros. Se cree que las nubes de polvo que se observan en la atmósfera de Marte, nuestro enigmático y colorado vecino cósmico, son debidas a grandes remolinos de tierra. Usualmente, los remolinos de tierra resultan de la estratificación térmica del aire y aparecen en condiciones de mucho calor y cielos despejados. No hay nubes madre que los acompañen y guíen por la vida, como es el caso de los tornados y las trombas. Mientras que estos últimos son generados por el hundimiento del aire más pesado de una nube con rotación, los remolinos en cuestión se forman muy cerca del piso, a partir de capas delgadas de aire muy caliente. En un día caluroso de verano, especialmente en las zonas desérticas, los primeros dos metros de aire sobre la superficie elevan su temperatura por arriba de los 60º y, como el humo, la capa tiende a subir. Mientras la capa se mantiene horizontal no puede ascender; cualquier alteración local dispara la inversión en ese sitio. Una perturbación relativamente chica, como una leve brisa o el paso de un animal, rompe la inestable situación y se
inicia un movimiento de aire hacia arriba; el hueco que deja el aire que sube es llenado por el aire inferior circundante en un flujo espiral. Una vez iniciado se va fortaleciendo el remolino, siendo la fuente de energía el calor almacenado en la superficie del piso. Seguramente más de un lector espera leer sobre su remolino preferido. Desde luego que hay otros tipos de vórtices, pero aquí no es posible hablar de todos ellos; hay obras completas dedicadas al tema que no han logrado agotarlo (Lugt, 1983). Veamos por encima al más trillado y estudiado, que no por eso deja de ser interesante ni del todo entendido. Los remolinos que vemos todos los días en el lavabo son los llamados vórtices de desagüe. Si uno le da rotación con la mano al agua dentro de un lavabo o de un recipiente y permite que empiece a salir por un agujero situado en la parte central del fondo, observará que se genera un remolino. La superficie libre del vórtice (la que está en contacto con el aire) toma una forma que depende, entre otras cosas, de la cantidad de rotación que se le imprimió al agua, de la profundidad del recipiente (el tirante) y del diámetro del agujero. Dos aspectos sobre este tipo de vórtices han llamado la atención de investigadores durante siglos. Uno tiene que ver con la forma de la superficie libre y otro, independiente, con el sentido de la rotación del vórtice. Si la rotación no es muy grande o el tirante lo es, la superficie muestra sólo una pequeña concavidad (Figura IV.7(a)). A mayor giro o menor tirante aparece un núcleo o centro de aire (Figura IV.7(b)). Cuando la columna de aire alcanza el fondo (Figura IV.7(c)) se dice que el tirante toma su valor crítico y a partir de ese momento el centro del vórtice se mantiene lleno de aire. La cantidad de líquido que sale por el desagüe se ve reducida por la competencia del aire, razón por la cual el hecho se convierte en un problema de suma importancia desde el punto de vista práctico. Las fallas en sistemas de enfriamiento en reactores nucleares, la pérdida de la eficiencia de bombas, los desbordamientos de presas, los daños en turbinas y vibraciones son sólo algunos de los problemas que se presentan. El reto teórico de predecir esta situación en una instalación dada o en el caso más sencillo sigue abierto. Por ahora se maneja en forma empírica, sin que eso quiera decir que se sigue en la total oscuridad, hay cierta penumbra.
Figura IV. 7. Superficie libre del vórtice de desagüe. De izquierda a derecha, (a) vórtice débil, (b) mediano con núcleo de aire y (c) núcleo del vórtice llegando al desagüe.
Predecir la dirección del giro es más complicado de lo que podría creerse. En el hemisferio norte los huracanes, sin excepción, giran contra las manecillas del reloj. Los tornados y las trombas, casi siempre, imitan a sus mayores. Los remolinos de tierra no presentan patrón alguno, les da igual girar en un sentido que en el otro. Los de desagüe son simple y sencillamente raros. Es desafortunadamente común ver escrito en libros serios (¿?) que los vórtices en un lavabo hacen lo mismo que los huracanes debido a la fuerza de Coriolis. Una cosa es clara, los autores no se tomaron la molestia de
confirmarlo al ir al baño. En la casa de un amigo hay dos lavabos que siempre hacen lo mismo, en uno el remolino gira con el reloj y en el otro en sentido contrario. ¿Habrá algo místico en sus baños? La respuesta es que tienen formas ligeramente distintas, aun siendo de la misma marca, y la llave que los llena está colocada un poco diferente; el agua de cada llave también sale un poco diferente. Otra cosa que los autores no hicieron fue estimar el tamaño de la fuerza de Coriolis sobre el agua en un lavabo; es tan ridículamente pequeña que igual (casi) hubieran podido invocar la ubicación de Urano como la responsable de los giros. Para ver el efecto de la rotación de la Tierra sobre la dirección del giro de un vórtice pequeño, como los de desagüe, es preciso hace un experimento bajo condiciones cuidadosamente controladas. El primero de esta naturaleza fue realizado a principios del siglo XX por Otto Turmlitz, en 1908, en Austria; su trabajo fue titulado Una nueva prueba física de la rotación de la Tierra. La confirmación la llevó a cabo Ascher Shapiro, en 1961, haciendo el experimento en Boston, EUA y en Sydney, Australia. Entre otros cuidados, el agua debía pasar varios días en absoluto reposo. En uno de los experimentos de Shapiro se observó un giro contrario al esperado. Principió como un giro igual a los demás, después de un lapso de tiempo se fue reforzando, alcanzó un giro máximo y, a diferencia de los otros casos, se fue debilitando hasta que, tras desaparecer, se invirtió en la última etapa. Estudiando el mismo fenómeno, Merwin Sibulkin hizo dos observaciones, un año después. Una fue que si llenaba el recipiente con un tubo inclinado de modo que girara en una dirección o en la otra, el efecto (como de memoria) persistía durante mucho tiempo; el vórtice de desagüe seguía esa dirección al destapar el fondo. La otra observación fue que el proceso de inversión del giro en la etapa final era común, independientemente del giro inicial, lo cual contradecía a la aparentemente convincente explicación de Shapiro. Experimentos posteriores de otros investigadores contribuyeron a oscurecer el mecanismo que determina el giro y su dependencia de la profundidad. La situación es como sigue. Imaginemos un recipiente cilíndrico, lleno de agua, con un agujero circular en el centro del fondo. El agua está inicialmente en reposo. Al destapar el agujero, el agua empieza a moverse hacia el centro y hacia abajo. ¿Qué rompe la simetría del flujo e introduce una dirección privilegiada de giro? ¿Qué da lugar al debilitamiento del vórtice, flujo estabilizador por excelencia, e invierte la dirección cuando el tirante es muy pequeño (como del tamaño del agujero)? Muy probablemente la explicación empieza por dos hechos que se suponen implícitamente en los estudios teóricos. Uno es que causas pequeñas producen efectos igualmente pequeños y el otro es que sólo puede haber una solución a un problema con la misma formulación. Como veremos en el siguiente capítulo, las últimas dos décadas nos han enseñado mucho sobre estos dos aspectos. Lo cierto es que aun problemas tan aparentemente sencillos como algunos de los mencionados en este libro, son motivo de la investigación intensa de científicos de diversas disciplinas, en distintos países y por las razones más disímbolas. Es difícil no sentir curiosidad por describir y entender al vórtice de desagüe que se muestra en la figura IV. 8.
Figura IV. 8. Fotografía del vórtice de desagüe.
V. LA TURBULENCIA Aquí vamos a considerar algunas de las ideas mencionadas con anterioridad para esbozar lo que constituye uno de los desafíos más grandes de la física, el problema de la turbulencia. El problema aparece en casi todas las ciencias experimentales y, por su formulación, en las matemáticas. La "solución" a este problema ha eludido a matemáticos, ingenieros y físicos por más años de los que el decoro permite aceptar. Los intentos de abordar el problema han generado o estimulado ramas de las matemáticas, han introducido múltiples ideas en física y han generado una gran variedad de métodos matemáticos y experimentales; todos de una utilidad notable en otras disciplinas. Muchos científicos sobresalientes estudiaron el problema y luego prefirieron cambiar de tema para lograr las contribuciones que los hicieron figurar en la historia. Por intentos no ha quedado, si bien las cosas no están como al principio. Al iniciarse la década de los años setenta se abrieron varias perspectivas teóricas y experimentales de muy diversa índole. Cada una por separado parecía ser la adecuada para atacar en forma definitiva el problema. Cada una de ellas inició una etapa de intenso, extenso y excitante trabajo en todo el mundo. Combinando ideas y métodos recién desarrollados en las matemáticas, desde las muy abstractas como la topología diferencial, hasta las más prácticas como el análisis numérico (aunado a la construcción de computadoras cada vez más grandes y veloces), se revisaron experimentos clásicos desde una nueva perspectiva y se encontraron elementos que estaban a la vista, pero que no se habían buscado o que simplemente se ignoraban invocando diversos argumentos. También, nuevas técnicas experimentales y cuidadosas observaciones hicieron cambiar algunas ideas preconcebidas y el enfoque teórico que sistemáticamente se había estado siguiendo. Así, se revisaron las teorías y repitieron experimentos. Si bien cada una de las nuevas ideas y métodos, teóricos y experimentales, siguen en una efervescente actividad, el optimismo inicial sobre la comprensión del fenómeno de la turbulencia ha ido decayendo con el tiempo en vista de los exiguos resultados específicos. Muchas cosas han quedado más claras y los horizontes por explorar se han abierto en forma sorprendente. Algo claro e irreversible que sucedió a lo largo de este proceso, fue el inicio de un cambio en la actitud de la mayoría de los físicos; en los que no se ha dado es porque no lo requerían o porque todavía no lo pueden aceptar. El enfoque reduccionista de la ciencia, llevado a su culminación en la física, busca explicar todos los fenómenos con base en un conjunto reducido de leyes fundamentales. Así, la materia se redujo, pasando por las moléculas y los átomos, a las partículas elementales, los cuarks. De todas las fuerzas en la naturaleza, pasando por las eléctricas, las magnéticas, las nucleares y las gravitacionales se llegó (casi) a una sola, la gravitacional - cuántica (supersimétrica). Logrado esto, dirían (y aun dicen) pomposamente algunos, el resto es un problema de aplicaciones; esta imagen va diluyéndose poco a poco ante los hechos y la humildad regresa al lugar de donde no debió salir. Todavía hace poco se decía que las leyes básicas habían sido encontradas en la primera mitad del siglo XX y que con esto se cerraba una etapa gloriosa del pensamiento humano (algo parecido se pensaba hace cien años con la mecánica newtoniana y el electromagnetismo de Maxwell). Aun suponiendo que conocemos estas leyes fundamentales, en forma clara y precisa, lo que sería decepcionantemente pretencioso, algo ha cambiado. Se ha puesto de manifiesto que esto no es suficiente y que para explicar el mundo se requiere mucho más. El argumento es más o menos el siguiente. La dirección opuesta al reduccionismo, creciendo en grado de complejidad, ha traído sorpresas que muy pocos preveían. A partir de casi cualquier punto en esta dirección aparecen nuevos fenómenos, ricos y variados, con elementos ausentes en el nivel anterior, más sencillo; se generan nuevas simetrías y emergen formas nuevas de organización. Si a un nivel de descripción parece sólo haber desorden, al siguiente aparece orden en el caos, como en un acto de magia medieval donde los encantamientos son las fuerzas ocultas que nos desafían a descubrirlas. El comportamiento de grupos de átomos o moléculas parece tener poco que ver con sus elementos constituyentes, cúmulos de estos grupos tienen aún menos memoria de sus elementos básicos. Estos cúmulos se autorganizan, duplican y evolucionan solos; confabulados en grupos de cúmulos cada vez más grandes llegan a producir patrones de flujo cuya belleza adorna la superficie de algunos planetas, a ladrar en las esquinas oscuras de colonias olvidadas o se atreven a construir máquinas que empiezan a pensar sobre ellas mismas...
Comienza a verse claro que el buscar las leyes básicas de los constituyentes últimos de la materia es tan fundamental como investigar las leyes que rigen los procesos que se dan con el aumento en la complejidad de los sistemas. Casos característicos son los estudios sobre los mecanismos que dan lugar a la autorganización, a la formación de patrones, a la aparición de simetrías o a la desaparición de éstas y al orden que nace cada día en lo que sólo parece ser el caos... Como siempre, cuando parece que se alcanza el horizonte, la naturaleza nos muestra que hay otro igualmente lejano, nuevo, más rico que el imaginado, más estimulante para ser estudiado. La investigación fundamental sigue tan abierta y hay tanto por hacer como lo había antes del descubrimiento de las leyes básicas. Los grandes pasos que se han dado en el avance del conocimiento son sobre un camino que no tiene final. En el mejor de los casos, el camino se volverá infinitamente autorreferente, como la espiral de Arquímedes o los conjuntos de Julia. Con esta frase críptica podemos ahora regresar al asunto que nos reúne. ¿Cuál es el problema y qué sabemos de él? Todos los flujos que se observan pueden clasificarse en dos grandes grupos, los laminares y los turbulentos. Los casos más sencillos que ejemplifican a los primeros son el flujo uniforme, donde la velocidad del fluido es la misma en todos lados, y el flujo de Couette plano, ilustrado en la figura IV. 3. Los hay más complicados, como los que aparecen en las figuras II. 7, II. 8, IV. 2, IV. 4 y IV. 7. En todos estos el fluido se mueve en láminas y parece obedecer reglas más o menos claras. Estudiando los flujos laminares es como se han entendido los principios básicos que describen a los fluidos. Por otra parte, son los flujos turbulentos los que dominan el foro. Cuando el movimiento de un fluido es irregular y complicado se dice que el flujo es turbulento. En la figura V.1 se muestra un chorro turbulento de agua; aunque muy familiar, la complicada estructura ilustra las características de la turbulencia. Esta definición, como tantas otras en nuestro negocio, no parece muy precisa: podíamos haber dejado el pudor a un lado y caracterizar simplemente a la turbulencia como el estado no- laminar. Ésta es parte de la dificultad.
Figura V. I. Chorro turbulento de agua.
¿Cuándo es un flujo lo suficientemente complicado como para ser bautizado como turbulento? Como con el estado mental de las personas, es relativamente fácil distinguir los casos extremos. A quienes están totalmente desquiciados los confinamos a una habitación acolchonada, dejando fuera a los normales (¿?), pero siempre nos preocupa distinguir la ubicación de la línea que separa los casos marginales. A los "fluidicistas" les pasa un poco lo que a los psiquiatras (con la única ventaja de no ser sujetos de su propio estudio).
Una característica del estado turbulento es la completa irreproducibilidad de los detalles de un flujo; hay un elemento aparentemente caótico que es inherente a este estado de movimiento. Al abrir completamente la llave de un lavabo observamos un chorro de agua que cae, choca con el fondo del vertedero, se reúne con la que cayó previamente y, moviéndose de manera irregular, se va por el desagüe. Si midiéramos algún parámetro del flujo con mucha precisión, como la velocidad en el chorro encontraríamos que conforme transcurre el tiempo, tal parámetro va cambiando de valor y da lugar a un patrón como el que se muestra en la figura V.2. Si después medimos muchas veces, abriendo la llave de la misma forma, esperando el mismo tiempo y a la misma distancia de la boca de la llave, el resultado será muy parecido al anterior, pero nunca igual.
Figura V. 2. Gráfica de la velocidd (vertical) contra el teimpo (horizontal). El valor medio de la velocidad es vo.
No sólo la velocidad cambia en esta forma irregular. Casi todas las variables hacen lo mismo. Por ejemplo, supongamos que se determina el gasto, que es la cantidad de agua que sale cada segundo, manteniendo todo fijo. El resultado sería de -digamos- un litro cada diez segundos (100 ml/s), aproximadamente; a veces unos mililitros más, a veces otros menos. Es decir, fluctúa alrededor de un valor promedio, el de 100ml/s. El asunto no tiene remedio, siempre es así cuando el valor promedio de alguna cantidad excede de cierto valor, llamado crítico. Para ciertos casos muy simples se ha logrado predecir razonablemente el valor crítico que debe alcanzar cierto parámetro (usualmente el número de Reynolds) para que el flujo pase de un movimiento laminar a uno turbulento. Es decir, que se pierda completamente la estabilidad del flujo (se vuelva un tanto loco). Por otra parte, el describir estas fluctuaciones, que podemos observar y cuantificar, es uno de los aspectos más difíciles de abordar que tiene el problema, ya que se trata de poderlos predecir, no sólo de medirlos; la medición es hoy en día un trabajo de rutina en muchos laboratorios, si bien es necesaria una tecnología relativamente complicada. Los cientos de trabajos que se publican sobre estudios teóricos y experimentales de la turbulencia, cada año y desde hace muchas décadas, hacen que una reseña de los avances logrados se convierta en una obra de volúmenes. El uso de las más variadas técnicas experimentales y matemáticas las hace, además, de difícil lectura aun para los especialistas. Sin embargo, algunas de las ideas más viejas y más recientes, que comparten elementos, nos permiten asomarnos a este mundo agitado y convulso que llamamos turbulencia. V.1. LA LEY DE KOLMOGOROV Lewis Fry Richardson (1881-1953), uno de los pioneros de la meteorogía moderna y miembro representativo de la tradición científica inglesa, estudió la dinámica atmosférica y, desde luego, se enfrentó con la turbulencia, siempre presente en el monumental laboratorio de la atmósfera. En un poema sencillo, que todavía se cita en los textos, resumió lo que Da Vinci plasmó en sus lienzos al observar el fluir de las aguas y lo que los científicos creen que sucede en un fluido excitado.
Big whorls have little whorls, which feed on their velocity; and little whorls have lesser whorls, and so on to viscosity (in the molecular sense). Vórtices grandes tienen vórtices más chicos, nutridos por su velocidad. Vórtices chicos tienen vórtices más chicos, así hasta la viscosidad (en el sentido molecular).
Dejando a un lado el adagio latino de "traductor, ¡traidor!", el contenido del verso expresa el proceso que parece sufrir la energía que se le comunica a un fluido para mantenerlo en estado turbulento, el llamado modelo de la cascada de energía. Imaginemos un tanque con agua, a la que agitamos con una paleta de cierto tamaño (escala). Al mover la paleta se producen vórtices de la misma escala. Observamos que estos vórtices migran y se desintegran, generándose en el proceso otros vórtices de una escala menor. Este mecanismo se continúa de una escala a otra, hasta que la escala es lo suficientemente pequeña como para que el movimiento de los vorticillos resultantes sea dominado por los efectos de la fricción interna del fluido, la viscosidad. Ahí, los pequeños remolinos comienzan una etapa de decaimiento, disipándose hasta desaparecer; la longitud típica de esta última escala es de fracciones de milímetro. De acuerdo con estas ideas, la energía pasa de una escala a otra, como en una cascada en la que el agua cae de un nivel a otro, perdiendo altura (energía potencial) pero ganando movimiento (energía cinética). En el fondo de las escalas el movimiento se convierte en calor, disipándose la energía, y queda el fluido en reposo. En la medida en que se siga agitando la paleta (inyectando energía al fluido) se podrán apreciar las estructuras en las distintas escalas, siendo la más pequeña la más difícil de ver. Por consiguiente el estudio de la dinámica de vórtices es uno de los más importantes en los trabajos de turbulencia. El objetivo es entonces entender cómo se generan, cómo interaccionan entre sí, cómo se rompen y, finalmente, cómo decaen. Algunas de las teorías más comunes abordan estos problemas desde diversos puntos de vista, tratando de encontrar cantidades que se conserven en este proceso y estudiando la forma en que van cambiando otras, al pasar a través de las distintas escalas. Uno de los resultados más célebres en la teoría de la turbulencia se debe a Andrei Nikolayevich Kolmogorov (1903-) y a A. M. Obukhov, quienes obtuvieron el mismo resultado, en forma independiente, en 1941. La importancia de la expresión se debe a que es uno de los pocos resultados generales y cuantitativos y a que es válida para todo flujo turbulento isotrópico y homogéneo. Que la turbulencia sea homogénea significa que se ve igual si nos trasladamos a distintos puntos del fluido; que sea isotrópica quiere decir que parece igual si vemos en cualquier dirección. Para que lo anterior sea (aproximadamente) cierto se requiere que la región en estudio se encuentre lejos de objetos o de las paredes que contienen al fluido; se dice entonces que la turbulencia es localmente isotrópica. Esta simplificación fue introducida por Geoffrey Ingram Taylor (1886-1975) en 1936. Muchas ideas fundamentales en la dinámica de fluidos moderna fueron propuestas por Taylor en los profundos trabajos que hizo a lo largo de su prolífica carrera científica. Kolmogorov, quien era un distinguido matemático soviético, fundador de la teoría moderna de la probabilidad, logró atraer la atención de numerosos colegas hacia la teoría de la turbulencia. Al ver la naturaleza física, más que matemática, de la contribución de Kolmogorov, la mayoría optó por volver a sus intereses originales. Curiosamente, el mismo resultado fue obtenido en 1948 por tres físicos del más alto nivel, en forma independiente y por caminos diferentes. Werner Karl Heisenberg (1901-1976) y Karl Friedrich von Weizsacker
(1912), durante su detención en Inglaterra con otros científicos alemanes, y Lars Onsager (1903-1976), en los EUA. Como ha sucedido en otros casos, la ley descubierta por estos investigadores debía llevar como nombre un anagrama con sus iniciales, algo como wookh; afortunadamente no fue así. La famosa expresión establece en forma cuantitativa varios aspectos relacionados con la cascada de energía propuesta por Richardson. Para percibir la esencia del resultado seguiremos a Kolmogorov en su razonamiento. Empezaremos por formular el resultado, que parece más un criptograma de la Guerra Fría que una descripción de lo que puede pasarle a un fluido. Después, intentaremos descifrarlo. La ley de los dos tercios de Kolmogorov, como se le conoce, afirma lo siguiente. En un flujo turbulento, la autocorrelación de velocidades entre dos puntos separados por una distancia l, dentro del subintervalo inercial, es igual a C( l) 2/3; C es una constante numérica universal y es el flujo promedio de la energía (por unidad de masa). Todo indica que para entender el enunciado harían falta estudios serios de paleología. Realmente no es así, es suficiente con algo de física y de matemáticas; para apreciar el sabor basta un poco de paciencia. La cascada de energía "a la Richardson", sugiere la existencia de una serie de escalas a través de las cuales la energía transita, hasta disiparse en calor. En la escala más grande, las estructuras (vórtices) llevan "impresa" la forma en que fueron generadas. Chorros y estelas ejemplifican este hecho; cada uno parece estar estructurado de manera muy distinta. A este nivel, son aspectos como la geometría del sistema los que definen el tamaño y la forma de los vórtices portadores de la mayor parte de la energía. En el otro extremo, los vorticillos más pequeños consumen toda la energía al disiparse por efecto directo de la viscosidad. En este proceso de cascada, en el que las estructuras se van descomponiendo en otras más pequeñas, el flujo va perdiendo la memoria del mecanismo generador de la turbulencia. Con estas ideas en mente, Kolmogorov introduce su primera hipótesis. Propone la existencia de un intervalo de escalas en el que el comportamiento turbulento es universal (olvidó sus orígenes...). Es decir, el flujo turbulento es homogéneo, isotrópico y estacionario. Este último atributo indica que, en promedio, el estado no cambia con el tiempo; la amnesia es permanente, digamos. Además, nos asegura el abstracto pensador, en este intervalo las cosas no pueden depender más que de dos parámetros: el flujo de energía ( ) que se le inyecta al flujo para mantenerlo agitado (algo así como el sufrimiento que experimenta el que mueve la paleta o sopla el chorro) y la viscosidad (v), que caracteriza la disipación de la energía (el calentamiento del fluido). Hecha esta suposición, recurre a algo muy ingenioso. Estima el tamaño de la escala máxima para la cual los efectos de la fricción todavía desempeñan un papel. Al efecto demuestra que sólo hay una manera de combinar los parámetros y v para que formen una longitud, ¡así de simple! (sólo con propósitos morbosos cito el resultado: ( )-1/4 v3/4). La escala así determinada, que con suma originalidad fue bautizada de Kolmogorov, se denota por η. Entonces - se atreve a postular de nuevo- a escalas mayores que η no hay disipación, por lo que la viscosidad debe ser una cantidad irrelevante. De esta manera, hay una zona de escalas (subintervalo) en la que v debe desaparecer, quedando como el único parámetro importante. La energía inyectada para mantener la turbulencia se va transfiriendo a escalas cada vez más chicas, hasta aparecer una envidiable amnesia. Sigue pasando a escalas todavía más pequeñas, hasta que la viscosidad aparece en la escena, iniciando su destructivo papel, y luego el final fatal, que a todo le llega. Como la energía sólo transita por estas escalas intermedias, al subintervalo se le llama inercial, ¡como de paso! Así, en la traducción de la ley de los dos tercios se aclara un poco lo de subintervalo inercial y el significado de . Sigamos adelante con la interpretación. En un flujo turbulento la velocidad cambia (fluctúa) en el tiempo y en el espacio. Es decir, al medir la velocidad en un punto fijo del espacio, conforme transcurre el tiempo, se obtienen datos como los que se muestran en la figura V.2. Un patrón semejante se obtiene si se mide la velocidad, simultáneamente, en varios puntos. Desde luego, el promedio de la fluctuación es cero; igual aumenta que disminuye, o se mueve a uno u otro lado. ¿Qué tan independiente es el valor que tiene la velocidad en un punto del que tiene en otro punto o del valor que tomó tiempo antes? La respuesta a esta pregunta se encuentra en la autocorrelación de las velocidades, espacial o temporal, respectivamente. Nos dice cómo están (cor)relacionados los valores de la velocidad (el prefijo auto
indica que es la correlación de una cantidad dada consigo misma). Si los puntos están muy cercanos, es de esperarse que exista alguna conexión entre los valores de la velocidad, mientras que si están muy separados probablemente no tendrán relación alguna. En lenguaje técnico se dice que la autocorrelación de las velocidades decae con la distancia. Por ejemplo, mi autocorrelación temporal de memoria es de corto alcance; hay quienes aseguran que no pasa mucho tiempo para que mis recuerdos sean cada vez más vagos... Regresando a la ley de los dos tercios, podemos resumirla de la siguiente manera. Primero, existe una escala a partir de la cual el movimiento turbulento es independiente de la forma en que se generó. Segundo, para dos puntos en el fluido separados por una distancia l, las velocidades están relacionadas. Tercero, si la escala de l es suficientemente grande, los efectos disipativos (la viscosidad) no desempeñan un papel determinante. Cuarto, la relación entre las velocidades (su producto) depende, a lo más, de y de la distancia l. Al recapitular hemos introducido dos puntos adicionales. Uno, que la autocorrelación está definida como el promedio del producto; aunque es importante este punto, no es necesario entrar en más detalles. El otro consiste en proponer la dependencia exclusiva en y l. Si l está en el subintervalo inercial, cualquier cantidad dependerá sólo de , como parámetro característico del flujo. El último ingrediente para obtener el resultado de Kolmogorov es el argumento dimensional. Nuevarnente, la única forma de combinar y l para que formen el producto de dos velocidades (una autocorrelación) es... ¡la escala de Kolmogorov! El factor restante sólo puede ser un número (sin dimensiones, igual para los que miden en pies, que para los civilizados que miden en metros) y, no sabiendo cuánto valía, le llamó C. Los experimentos indican que su valor es cercano a 0.5. Los intentos por extender las ideas de Kolmogorov, Obukhov, Heisenberg, Von Weizsäcker y Onsager han sido hasta ahora infructuosos. Las extensiones han requerido de aparatos matemáticos formidables y en ellas el esfuerzo realizado contrasta con los escasos resultados o lo poco significativo que son. Una de ellas fue desarrollada por Robert H. Kraichnan, durante los años cincuenta y sesenta, con técnicas importadas de la teoría cuántica del campo, desarrolladas para el tratamiento de fenómenos relacionados con las partículas elementales. En un contexto distinto aparecieron los enfoques de la siguiente década, la de los setenta. Las ideas de estructuras coherentes, de atractores extraños y de fractales generaron un frenesí que todavía no acaba, aunque el optimismo inicial ha disminuido. Aún es prematuro hacer una evaluación justa de la repercusión de las ideas actuales sobre el problema de la turbulencia; todavía hay muchas esperanzas y es posible que alguien sepa combinarlas en las proporciones adecuadas para dar el siguiente gran paso. Con la sobriedad y la madurez que sólo vienen con el tiempo se podrá apreciar la perspectiva con más objetividad. Veamos en qué consisten algunas de estas ideas. V.2. ESTRUCTURAS COHERENTES La tecnología usada en la investigación experimental se ha mantenido en constante desarrollo a través del tiempo. Una parte considerable de la llamada tecnología de punta ha sido el fruto de las necesidades específicas de la investigación en diversos campos de la física; tristemente, han sido las aplicaciones a la industria de la violencia las que han sido argumentadas para justificarla y el motor para su desarrollo. El uso de computadoras cada vez más grandes y veloces, de electrónica cada vez más rápida y versátil, de sondas mecánicas, ópticas y acústicas más complejas y delicadas han dado lugar a una revolución en la forma de hacer experimentos en las ciencias naturales. Los laboratorios dedicados al estudio de la turbulencia no son la excepción, es más, son un excelente ejemplo. No sería exagerado afirmar que, por ejemplo, el desarrollo de computadoras cada vez más grandes ha tenido como principal promotora a la dinámica de fluidos. Sin embargo, aún no existe un problema de turbulencia que se pueda solucionar con la computadora más grande disponible, aunque ya se empiezan a acercar... Al iniciarse la era de la electrónica moderna, acoplada a sistemas de adquisición de datos y técnicas de medición y visualización, basadas en la óptica de láseres, se llevaron a cabo algunas observaciones que influyeron decisivamente en la investigación de la turbulencia. Curiosamente, éstas se realizaron con métodos ópticos sencillos que se venían usando por décadas. El descubrimiento central fue que la mayoría de los flujos turbulentos no son tan irregulares como se creía; dentro del evidente caos hay cierto orden en el movimiento del fluido. Al azar, aparecen estructuras con características bien definidas estadísticamente: la distribución de sus escalas, sus tiempos de vida (periodos), etcétera.
Estos sorprendentes resultados dieron lugar a una reconsideración profunda de los experimentos que se venían realizando. Una calificación más cuidadosa de la estructura espacial de cada flujo turbulento se hizo necesaria para llegar a entender las observaciones (Figura V. 1). Nuevamente se repitieron experimentos y se formularon otros para delinear las propiedades de estas formas semiordenadas que parecían pulular entre el caos. La explosión en la capacidad de cómputo, que todavía no acaba, vino a dar mayores posibilidades a este nuevo giro experimental. Las medidas más extensas que se hacían con anterioridad eran autocorrelaciones de la velocidad, lo que daba lugar a que, al observar en dos puntos distintos y promediar el resultado, se borraran estas estructuras; las medidas tendían a registrar estados distintos de estas estructuras que poco tenían de relación unas con otras. Al promediar entre pulpos y niños se obtienen seres que en promedio tienen seis apéndices; este dato promedio no parecería ser muy útil a un observador externo. Así, la forma de medir y sobre todo, de analizar los datos, sufrió un cambio de fondo. Un huracán que se mueve en el Océano Atlántico, visto desde un satélite orbital a 300 km de distancia, parece una estructura (vórtice) perfectamente organizada, regular, que se mueve lentamente. Para el capitán de una nave camaronera y para sus asustados tripulantes, que lo ven en una escala de metros, o decenas de éstos, parece un infierno húmedo e irregular que varía violentamente de un lugar a otro y de un instante al siguiente. Ni lo ven muy organizado (excepto para ahogarlos) ni lo ven variar lentamente. Esta estructura coherente, vista por el astronauta, está conformada por miles de vórtices más pequeños en plena algarabía, que sufre el argonauta. En la figura V.3 se ilustra una de las primeras fotografías que exhibían estas estructuras coherentes. En ésta se pone de manifiesto una estructura bidimensional de vórtices sobre la que hay superpuesta una complicada trama de vorticillos (la turbulencia). El flujo corresponde a lo que se llama la capa de mezclado. Dos fluidos, uno arriba y otro abajo, se mueven de derecha a izquierda con velocidades distintas. En este caso se trata de nitrógeno (arriba) y de una mezcla de helio y argón (abajo). Las velocidades son de 1 000 cm/s y de 380 cm/s, respectivamente, y la presión es de 8 atmósferas. La fotografía fue tomada por el grupo de Anatol Roshko, en la década de los setenta, usando un método que podríamos llamar sombragrafía.
Figura V. 3. Estructuras coherentes en un flujo turbulento; capa de mezclado. El procedimiento para obtener estas fotografías es relativamente sencillo y el fenómeno que lo genera es muy común. Quien ha visto una fogata o un montón de brasas encendidas, recordará que las imágenes que se ven del otro lado parecen bailar; sobre un fondo claro y uniforme pueden verse ciertas sombras irregulares, como ondas de calor. El efecto es producido por las variaciones que sufre la dirección de la luz al pasar por regiones con temperaturas distintas. Al aumentar la temperatura del aire, éste se expande, cambia su densidad y tiende a moverse hacia arriba. La luz que va pasando, tan rápido que ni se entera que se mueve el aire, modifica su dirección al pasar de un medio más denso a otro menos denso; decimos que cambia el índice de refracción. Las zonas de diferente densidad, irregulares en forma, generan un patrón tembloroso de imágenes. En el flujo en cuestión, cada uno de los fluidos tiene un índice de refracción distinto y deja pasar a la luz de diferente manera. Así, en la región de mezclado turbulento hay una complicada combinación de ambos índices de refracción y la luz sigue estas variaciones. Al poner una pantalla del otro lado del flujo se pueden ver los patrones resultantes (una criatura con una cámara fotográfica de plástico puede hacer el resto). Es interesante notar que destacados investigadores habían estudiado este flujo y habían determinado todo lo que entonces se consideraba necesario para caracterizar sus propiedades estadísticas. Descubrir la existencia,
persistencia y evolución de estas estructuras, en lo que parecía un flujo sin orden alguno, fue una verdadera revelación. La caracterización de estructuras coherentes sigue siendo el gran tema de actualidad en la investigación experimental. La parte teórica se encuentra todavía en sus inicios, cosa no del todo rara en este churrigueresco problema. Los intentos por elaborar una explicación cuantitativa de estos fenómenos siguen desafiando a la imaginación y al colmillo de la comunidad científica que se interesa en el problema. Las dificultades se inician desde la forma de definir matemáticamente a estas criaturas que viven en el caos. Si recordamos que la definición de un vórtice sencillo nos elude todavía, no es de sorprender que este asunto le quite el sueño a más de uno. Hay la sospecha fuerte de que una de las mejores formas de acorralar a las elusivas estructuras coherentes es estudiar el problema en términos de la vorticidad, y los enfoques teóricos se mueven en esta dirección. De esta manera, los experimentales tratan de medir la vorticidad y los teóricos de ver cómo se distribuye en el espacio y el tiempo. Aquí, de nuevo, los investigadores depositan sus esperanzas en las computadoras. Los experimentales, para la adquisición, manejo y análisis de grandes cantidades de datos; sin ellas, este trabajo tomaría cientos de miles de años, de todos aquellos que trabajan en el tema, ¡para un solo caso! A los teóricos les pasa algo semejante. Para todos se ha convertido en la herramienta indispensable y la fuente de inspiración para muchos estudios, desde las simulaciones directas de flujos sobresimplificados hasta el terreno de juego para los experimentos pensados. El estado actual de esta situación es todavía nebuloso (¡turbulento!), si bien hay múltiples ideas cualitativas sobre el papel que desempeñan las estructuras coherentes. Estas ideas platicadas son el motor del trabajo experimental y teórico que se puede consultar en la bibliografía especializada. La forma de plantear matemáticamente lo que sugiere la intuición y la información acumulada es parte de la tarea para llevar a casa. El problema continúa abierto y ofrece la posibilidad de ganarse el pan cotidiano a muchos curiosos y necesitados de la ciencia y el conocimiento, ya sea motivados por razones prácticas o estéticas. V.3. ATRACTORES EXTRAÑOS Y CAOS Una serie de revolucionarias ideas y de descubrimientos paralelos a los anteriormente descritos, independientes, diferentes y aparentemente desconectados, pero sobre el mismo problema general de la turbulencia, ocurrieron en la misma prolífica década en que se descubrieron las estructuras coherentes. Describiremos sólo una parte, pero no tocaremos las sugerentes ideas e importantes teorías como las de Mitchel Feigenbaum, Benoit Mandelbrot, Pierre Manneville e Yves Pomeau. Uno de los antecedentes fue el descubrimiento hecho por otro meteorólogo, Edward N. Lorenz, en 1963. Estaba interesado en comprender ciertos aspectos de la atmósfera terrestre con el propósito de avanzar en los métodos para la predicción del tiempo. Con esto en mente elaboró un modelo muy sencillo para estudiar lo que le pasa a un fluido sometido a una diferencia de temperaturas en presencia del campo gravitacional, conocido como el problema de Rayleigh- Bénard. A partir de las ecuaciones básicas de la mecánica de fluidos, las de NavierStokes, introdujo varias hipótesis para reducir las ecuaciones a lo que en su opinión aún tenía elementos suficientes para generar una dinámica interesante. Luego, procedió a resolverlo en forma numérica. Cuál no sería su sorpresa al encontrar que, para ciertos valores de los parámetros que caracterizaban al problema, la solución mostraba un comportamiento errático. Curiosamente, no tiró a la basura los resultados. ¿Cómo era posible que el resultado de una ecuación, compuesta por términos bien definidos y perfectamente regulares, diera lugar a un comportamiento no determinista? Otros, seguramente, hubieran descartado los resultados y pensado que había algo equivocado con el método de solución o con la computadora misma. Para Lorenz había algo nuevo y profundo en lo que acababa de encontrar; había descubierto a los atractores extraños. Pasaron varios años para que la comunidad cientifica se percatara de la enorme importancia de su hallazgo. Baste decir que gracias a su trabajo, ahora sabemos que nunca podremos predecir el tiempo más allá de siete días. Si oímos que se espera buen clima para la semana próxima, podemos asegurar que es precisamente eso, una esperanza. A la impredictibilidad del clima a largo plazo se le ha dado por llamar el efecto mariposa. La razón para este nombre proviene del hecho de que una pequeña diferencia en las condiciones iniciales digamos, hoy dará lugar a una profunda diferencia a lo que puede estar ocurriendo tiempo después. El efecto de la imperceptible variación
irá creciendo con el tiempo, acumulándose poco a poco, como una avalancha; para exagerar el punto, se dice que el aleteo de una mariposa modificará el clima en unos meses. Desde luego, aquí nos referimos a la predicción detallada de las condiciones meteorológicas después de unos días. Características burdas o promediadas sobre muchos eventos y muchos años no se verán modificadas en forma sustancial por estos pequeños mariposeos; la erupción de un volcán o la desmesurada producción de contaminantes en alguna región hipotética del planeta, no estarían incluidos entre estos últimos. La temporada de lluvias será igual, si por ello entendemos que es parecida a la temporada del béisbol; no tienen fechas fijas y los caprichos de los protagonistas respectivos siempre están presentes. ¿Qué es un atractor extraño? Veamos primero qué son los no extraños, por extraños (o triviales) que parezcan. Si estiramos un resorte con una canica de cada lado y lo soltamos dentro del agua, observaremos que empieza a oscilar y que poco a poco se va parando. Si hacemos la misma prueba fuera del agua, en el aire sucio que algunos respiran, sucede lo mismo, aunque el amortiguamiento será mucho menor y se tardará más en detenerse. Decimos que la disipación es menor en este caso. Si lo pudiéramos hacer en el vacío, tardaría más en detenerse; habríamos reducido aún más la fricción. Al cambiar el material del que está hecho el resorte por uno más elástico (más caro), la disipación podría reducirse aún más. A pesar de que nunca podríamos quitar la fricción (disipación) por completo, podríamos ver que cada vez tarda más en detenerse. En condiciones ideales se quedaría oscilando ad infinitum. Estas observaciones ilustran el punto siguiente. El estado final de un resorte (oscilador) es el reposo total o la oscilación perenne. ¡Pues que trivialidad!, decimos todos. La ventaja del ejemplo, que no es el único, es que todo puede hacerse con un lenguaje matemático preciso y entonces puede demostrarse que los movimientos posibles tienden (son atraídos) a un punto, el del reposo. Este estado final es un atractor y su dimensión es cero. En el espacio en el que viven estos movimientos, que llamamos variedades, hay diferentes tipos de atractores: puntos (como en el caso de osciladores con fricción), curvas (como en el caso de los osciladores no amortiguados, de dimensión uno), superficies (de dimensión dos), etc.; objetos más o menos simples. Antes de Lorenz se creía que todos eran de este tipo y fue entonces que aparecieron los extraños, que resultaron ser cosas (variedades) conocidas, aunque eran consideradas como curiosidades matemáticas sin conexión alguna con el mundo real. Baste decir que su dimensión no es ningun número entero (si no serán raros). Para poder imaginar a los atractores extraños es conveniente mencionar una de sus principales características, la de ser autosemejantes, lo cual en este caso significa que mientras más le vemos menos enseña, o que enseña lo mismo (por algo son extraños). Un objeto autosemejante que puede ilustrar (¿confundir?) la autosemejanza y que tiene una dimensión fraccionaria (fractal), es lo que se conoce como el conjunto de Cantor y se construye de la siguiente manera. Consideremos el segmento de recta del cero al uno (Figura V.4). Lo dividimos en tres partes iguales y quitamos la del centro (segundo renglón de la Figura V.4). Ahora, a cada segmento restante lo dividimos en tres y volvemos a quitar los tramos centrales (tercer renglón). Luego repetimos este proceso hasta el cansancio y... le seguimos ad nauseam. El resultado es algo que tiene la propiedad de que si lo vemos parece una serie de puntitos con cierta distribución espacial que no alcanzamos a distinguir claramente. Si tomamos una parte y la amplificamos cien veces digamos se ve una serie de puntitos con cierta distancia... ¡exactamente igual! No importa cuánto o cuantas veces amplifiquemos, ¡siempre se verá igual!
Figura V. 4. Conjunto de Cantor.
Un atractor extraño, llamado de Henón-Heiles en honor a sus descubridores en un modelo astrofísico, se muestra en la figura V.5. Se han hecho varias amplificaciones que exhiben parte de su estructura. En el problema correspondiente, todos los movimientos son atraídos por el atractor.
Figura V. 5. (a) Atractor de Henón Heiles. Forma general.
Figura V. 5. (a) Atractor de Henón Heiles. Amplificación del recuadro de la parte (a).
Figura V. 5. (a) Atractor de Henón Heiles. Amplificación del recuadro de la parte (b).
En 1971, David Rouelle y Floris Takens propusieron una nueva teoría de la turbulencia basados en el descubrimiento de Lorenz. En 1978 Rouelle y Takens, en colaboración con Steven Newhouse, publicaron una importante extensión a la teoría y es la versión que ahora se maneja. La propuesta ha permitido cambiar el marco conceptual desde el que contemplamos el problema de la turbulencia, aunque su utilidad práctica para describir la
turbulencia totalmente desarrollada se ve tan cercana como la colonización de la galaxia más cercana; es cosa de tiempo, un tanto largo, desde luego. El resultado fue una verdadera explosión de trabajos teóricos y experimentales sobre el tema, abriéndose por completo un área de investigación que se había circunscrito a los iniciados en matemáticas relativamente complejas. ¿Cuál era el dogma aceptado? Lev Davidov Landau (1908-1968), tal vez el más brillante físico soviético, famoso por sus profundos trabajos en la más variada gama de temas de la física, publicó en 1944 un célebre artículo. En éste propuso un modelo sobre la forma en que se genera la turbulencia en todos los flujos. En forma esquemática, la idea era que si en cierto flujo se iba aumentando el parámetro básico, como el número de Reynolds, el estado de movimiento cambiaría con el tiempo a otro de naturaleza un poco mas complicada. Al seguir aumentando el parámetro de nuevo ocurriría un cambio en la estructura del flujo, y así sucesivamente. A la larga decía, el flujo es lo suficientemente complicado como para que se vea turbulento. Por ejemplo, en el flujo alrededor de un cilindro, inicialmente laminar (Figura II. 7 y II. 8), se observa que al aumentar la velocidad con la que llega el fluido se transforma en otro flujo, también laminar, con más estructura. A mayor velocidad los vórtices posteriores se desprenden y aparece una estela hermosa y compleja, difícil de describir matemáticamente (Figura V.6). Al continuar el proceso la estela se va complicando hasta verse completamente turbulenta.
Figura V. 6. Estela detrás de un cilindro circular en flujo uniforme. La velocidad del flujo es mayor que en los casos de las figuras II. 7. Y II. 8.
La teoría de Landau, de carácter esencialmente cualitativo, prevaleció hasta la década de los setenta. Hoy en día tiene sólo valor histórico; sin embargo, motivó numerosos trabajos para estudiar estas transiciones y sirvió para desarrollar diversos métodos matemáticos para atacar el problema. Lo anterior, que parecía perfectamente plausible, fue modificado por Rouelle y Takens; su teoría, construida sobre bases conceptuales y matemáticas más sólidas también es, por lo pronto, de carácter cualitativo. Vencer las dificultades para utilizarla en forma explícita para hacer predicciones concretas es un proyecto a futuro. Si bien la teoría parece sumamente abstracta (matemática), las ideas físicas pueden verse con relativa sencillez. Estas pueden resumirse en dos principales. El primer resultado sobre el que está construida la teoría es la demostración de que las ecuaciones de NavierStokes tienen dependencia sensible en las condiciones iniciales. Esto quiere decir, en términos normales, que todo lo que le pasa a un fluido depende de los detalles de su estado inicial. Más directo, que los fluidos tienen muy buena memoria cuando se les excita demasiado. Lo que hacen depende de cómo empezaron. Esto explica por qué cada vez que se empieza un flujo dentro de un túnel de viento, por ejemplo, se observan patrones muy diferentes. Sucede que nunca podemos repetir un experimento exactamente en la misma forma;
siempre partimos de un estado muy parecido, pero no del mismo. Todo tiene que ver con la forma en que un movimiento va a evolucionar; la contaminación del aire en el túnel, la deformación nocturna del dispositivo mecánico y, podría argumentarse, el humor del investigador. Ernst Mach (1838-1916), uno de los profundos pensadores sobre el quehacer científico, hubiera estado fascinado por tal resultado; el llamado principio de Mach, en pocas palabras, postula la influencia de cada parte del Universo sobre el resto. Esto, "aunque usted no lo crea", le ocurre a los queridos fluidos; algo así tenía que andar pasando. De hecho, desde el siglo XIX, James Clerk Maxwell fue explícito al respecto cuando decía: "Es una doctrina metafísica que de las mismas causas se siguen los mismos efectos... Pero es poco útil en un mundo como éste, en el que las mismas causas nunca se repiten y nada ocurre dos veces..." Luego agregaba: "[....] el axioma físico análogo es que de causas semejantes se siguen efectos semejantes. Ahora hemos pasado de la igualdad a la semejanza, de la certeza absoluta a la burda aproximación [...]; cuando sucede, el curso de los acontecimientos es estable. Hay fenómenos más complicados en los que ocurren inestabilidades [...] que aumentan rápidamente con el número de variables relacionadas". Con la intuición que lo llevó al Olimpo de la ciencia, concluía: "[...] el estudio de las singularidades y las inestabilidades, más que el de las cosas continuas y estables, tal vez elimine el prejuicio en favor del determinismo [...]." La segunda parte de la receta para cocinar la teoría de Rouell-Takens-Newhouse está ligada muy de cerca con el punto anterior. El meollo del asunto radica en que las ecuaciones de Navier-Stokes tienen atractores, como casi todas las ecuaciones, pero que resultan ser de los extraños; esto sucede en el espacio (variedad) en el que se encuentran sus posibles soluciones. Así, el movimiento de un fluido se va transformando en otros al ir cambiando el número de Reynolds, a la Landau. Pero, y aquí es donde cambian las cosas, al ocurrir el tercer cambio es muy probable que el flujo sea turbulento. Matemáticamente se dice que la solución que describe el tercer estado de movimiento está cerca de un atractor extraño. En estas condiciones las cosas se van a ver por demás extrañas (o sea turbulentas). Veamos un poco más de cerca la razón. Digamos que la forma del atractor es la que se ilustra en la figura V.5. El estado inicial del fluido corresponde a un punto cualquiera en el papel de la gráfica; el punto escogido podría describir un movimiento regular y sencillo que no cambia en el tiempo. Ahora cambiamos el número de Reynolds (abrimos más la llave, digamos) lo suficiente como para que el estado de movimiento cambie a otro estado (cambiamos de punto en la gráfica). Si está lejos del atractor, desde luego que será atraído a él. Repetimos el proceso y... se acerca al atractor (como en las novelas de terror). La siguiente ocasión en que repetimos la operación el movimiento cambia, muy probablemente, a uno turbulento. Visto en la gráfica, el punto se acercó tanto que empieza a moverse sobre la curva ilustrada; va cambiando en el tiempo. Como sólo lo podemos ver cada cierto tiempo (con la vista, menos de treinta veces cada segundo), parecerá brincar de un lugar a otro, sin ton ni son, siendo que en realidad se mueve sobre el atractor que se muestra. Cuando parece que el estado es uno que se registró anteriormente, en realidad es uno parecido que se encuentra en otra parte de la curva; en una amplificación parecería estar en una de las líneas adyacentes. En realidad no es ni curva ni superficie..., es un atractor extraño. Al publicarse la teoría, los investigadores pensaron que las cosas eran demasiado abstractas como para tener conexión alguna con los experimentos. Después de todo, a pesar de que los autores tenían un reconocido prestigio, se trataba de matemáticas muy complicadas. Al irse traduciendo la teoría al lenguaje de los interesados en el tema, se vio que había formas de poner a prueba algunas de las afirmaciones de la teoría. Varios investigadores se dieron a la tarea de reexaminar, con las nuevas ideas, algunos flujos conocidos; unos años después, Jerry Golub y Harry Swinney, experimentales reconocidos en el campo de los superfluidos, habían logrado demostrar que había un flujo que seguía el camino que insinuaba la teoría. Reinterpretando observaciones anteriores, encontraron que tras de un par de cambios, el flujo perdía la brújula y su estabilidad; en su locura exhibía la turbulencia en forma descarada y de la manera esperada. Los experimentos consistieron en estudiar los patrones de flujo que ocurren cuando se pone agua entre dos cilindros concéntricos y uno de éstos se pone a girar (Figura V.7(a)). Este arreglo se conoce como el flujo de Couette-Taylor, recordando a quien lo estudió por primera vez y a quien mejor lo hizo, respectivamente. Lo que ocurre en este sencillo arreglo es sorprendente.
Figura V. 7. (a) Flujo de Couette- Taylor. Diagrama del arreglo experimental.
Al ir aumentando la velocidad con la que gira el cilindro interior, con el cilindro exterior fijo, se llega a un valor para el cual el fluido deja de dar vueltas en órbitas circulares alrededor del cilindro. Ahora se mueve siguiendo una trayectoria que -puede decirse- está enrollada en la superficie de una dona contenida entre los cilindros. Observando el sistema se aprecian estas donas, bautizadas celdas de Taylor, a todo lo largo del cilindro exterior (Figura V.7(b)); ésta es la primera transición. El patrón se hace visible cuando se agregan al agua partículas pequeñas.
Figura V. 7. (b) Flujo de Couette- Taylor. Celdas de Taylor.
Al seguir aumentando la velocidad de giro aparece un patrón de celdas de Taylor moduladas. Como si distintas partes de las donas quisieran ir hacia arriba y parte hacia abajo; una especie de onda congelada se superpone a las celdas de Taylor. Esta segunda transición se puede apreciar en la figura V.7(c). Luego, se viene abajo el
espectáculo y hace su aparición la turbulencia.
Figura V. 7. (c) Flujo de Couette- Taylor. Celdas de Taylor moduladas. Un movimiento caótico alrededor del cilindro es lo único que sobrevive del flujo (Figura V.7(d)).
Figura V. 7. (d) Flujo de Couette- Taylor. Régimen turbulento.
Como lo indica la nueva teoría, después de un par de transiciones aparece la turbulencia. Desechada la teoría de Landau, heredó el foro la nueva prima donna (excepto que ahora no está sola...); pero al igual que con los aplaudidos artistas, deportistas, etc., su tiempo dura en tanto llegan los nuevos. Como dijera hace unos años Uriel Frisch, destacado físico contemporáneo: "Yo creo que tenemos un conocimiento peor sobre lo que sucede en un milímetro cúbico de agua, que sobre lo que ocurre en el interior del núcleo atómico." Sabiendo que se refería al problema de la turbulencia, como prototipo de esta ignorancia crasa que cargamos sobre los hombros, no puede uno menos que compartir su visión.
Una anécdota sobre este punto la debemos a Sir Horace Lamb (1849-1934), destacado investigador inglés en el campo de la mecánica de fluidos. En un homenaje internacional que se le brindó al cumplir los ochenta años, en 1929, declaró lo siguiente: "Cuando muera, espero ir al cielo. Ahí, espero ser iluminado sobre la solución de dos problemas, la electrodinámica cuántica y la turbulencia. Sobre el primero, soy muy optimista..." En cuanto al segundo esperamos que Lamb haya ido al cielo. Seguramente así sabrá la respuesta del primero. Cabe agregar que el primero fue resuelto por uno de los grandes físicos de este siglo, Richard P. Feynman (1918-1988), por lo que le fue otorgado el premio Nobel en 1965. En palabras de Feynman: "la turbulencia es el último problema importante por resolver de la física clásica."
VI. SUPERFLUIDOS EN LA naturaleza hay 92 átomos diferentes y más de una docena de átomos que han sido creados artificialmente por el hombre (y la mujer). Estos elementos son los ladrillos básicos que componen a la extraordinaria variedad de objetos que forman el Universo. Sin excepción, todo está construido con este relativamente pequeño conjunto de "dados para armar". Las ratas de drenaje, las estrellas, los diamantes y las verrugas, la Luna, las flores silvestres, los elefantes y la ruinas incas, todos están compuestos por grupos de átomos que se combinan en complejas proporciones. Después de todo, Demócrito, hace casi 7000 años, tenía una idea bastante cercana a la que ahora tenemos. sólo le faltaba la evidencia empírica para sustentar sus extraordinarias especulaciones. Aun sabiendo que todos los colores son combinaciones de sólo tres ingredientes primarios, el rojo, el azul y el amarillo, no deja de sorprender la gama cromática que percibimos. ¡Qué espectáculo disfrutaríamos si contásemos con noventa colores primarios! Así, la pasmosa riqueza en la diversidad de objetos y comportamientos contrasta con la sobria sencillez de sus pequeñísimos componentes. El más ligero de los elementos naturales es el hidrógeno y el más pesado el uranio, criterio usado para ordenarlos por número en la Tabla Periódica. Después del hidrógeno sigue el helio, que es un poco más complicado en estructura y es el más estable e inerte de todos los elementos, lo que sugeriría un comportamiento poco interesante. Pero, como veremos más adelante, es notablemente extravagante. Todos los elementos están formados por tres tipos de partículas distintas: electrones (con carga eléctrica negativa), protones (con carga eléctrica positiva) y neutrones (sin carga); los protones y los neutrones son más de mil veces más pesados que los electrones. La diferencia entre un elemento y otro es sólo la cantidad de electrones que tienen, que siempre es igual a la de los protones, lo cual asegura la neutralidad eléctrica de los átomos. Los llamados isótopos son variedades de un mismo elemento que difieren en el número de neutrones que, junto a los protones, se encuentran en el núcleo. El hidrógeno es la sencilla unión de un electrón con un protón, mientras el uranio U238 tiene 92 electrones en movimiento alrededor de un núcleo con 238 partículas, entre protones y neutrones. Hinchado así, no es sorprendente que frecuentemente arroje cosas (partículas-α, que son núcleos de helio, por ejemplo) y se transforme con el paso del tiempo en otro elemento, como el plomo (Pb206); ésta es la radiactividad. Hay dos isótopos del helio en la naturaleza llamados 4He y 3He (helio cuatro y helio tres). Ambos tienen dos electrones y la diferencia está en el número de componentes del núcleo; además de los dos protones, el helio cuatro tiene dos neutrones y el tres tiene sólo uno, por lo que el 3He es más ligero. Por ser el más abundante en la naturaleza y por ser el protagonista principal de lo que sigue nos referiremos al 4He como helio. Como paréntesis aclaratorio (que puede contribuir a la confusión), es conveniente mencionar que en realidad hay algunas "cosas" adicionales aparte de los átomos. La luz, por ejemplo, nada tiene que ver con los átomos; está hecha de fotones. Además, hay otros entes exóticos que pululan el Cosmos, como los neutrinos, los muones, los cuarks, los positrones y antipartículas varias. ¿Qué son en realidad los átomos, los electrones, los neutrinos y demás objetos microscópicos? La teoría correspondiente, que llamamos genéricamente mecánica cuántica, y cuyo idioma natural es el de las matemáticas, nos dice claramente qué son y qué hacen. Permite hacer predicciones notables sobre los eventos más probables, los valores esperados para velocidades, masas, energías, fuerzas, vidas y milagros de estas peculiares criaturas. La falta de un diccionario adecuado para traducir los conceptos cuánticos al lenguaje que recibimos con la leche después de nacer, complica las cosas cuando discuten los físicos entre sí y las hace casi incomprensibles cuando éstos hacen aclaraciones a los demás. La respuesta no es sencilla y es preciso hacer juegos malabares intelectuales para explicarlos con un lenguaje poco apropiado para ello. ¿Son partículas pequeñas, como canicas de dimensiones invisibles, o son ondas, como las que vemos siempre en la superficie del mar? Partícula, onda, canica y mar, son palabras que inventamos para referirnos a objetos que todos conocemos y percibimos a través de los sentidos. Nuestro lenguaje cotidiano tiene esta virtud. Si algo es difícil de describir, lo presentamos para ser visto, olido, oído, sentido y saboreado, cuando es sensato o necesario hacerlo. El problema se inicia cuando tratamos de
describir o explicar algo que no se ha visto directamente o se comporta esencialmente diferente a todo lo que estamos acostumbrados a percibir. Bajo ciertas condiciones, la evidencia experimental, siempre indirecta, sugiere que el objeto se porta como un balín indestructible y entonces decimos que es una partícula. En otras circunstancias se comporta como la onda superficial en un estanque y decimos que es una onda. Recordando lo que dijimos primero y pretendiendo acabar con la aparente confusión, empleamos el término onda-partícula, sin ser ni lo uno ni lo otro y siendo ambos a la vez. Así son estas minúsculas entidades. Su comportamiento muestra que los conceptos de onda y de partícula, cada uno, son insuficientes para describirlos y que son sólo analogías para poder expresar algo en un lenguaje apto para describir lo que sucede en muchos, muchísimos átomos. Las matemáticas no tienen esta limitación. Lo curioso es que a fuerza de hablar, experimentar y pensar en ellas, la familiaridad hace creer que se entienden fácilmente y que cualquiera puede apreciar sus peculiaridades cuando se intenta describirlas. Se habla de propiedades que poseen como el espín, el color, el encanto y la extrañeza, por citar algunos. Los nombres, salvo el primero, son poco afortunados pues se refieren a atributos que conocemos pero que nada tienen que ver con lo que representan en el caso de estos entes cuánticos; el primero, para quienes no usamos el inglés todo el tiempo, tiene la ventaja de ser una nueva palabra para representar algo igualmente novedoso. De haber llamado a estas propiedades la grisca, el cotro o la ruspela, sin el prejuicio de un contenido dado, se estaría más preparado a asimilar un concepto ajeno a la experiencia cotidiana. Otro elemento totalmente novedoso que forma parte esencial de la mecánica cuántica es la relación que hay entre el objeto bajo estudio y el observador. A diferencia de lo que sucede al estudiar otro tipo de sistemas, no tan pequeños, en los que el objeto de estudio tiene un comportamiento independiente del observador, los sistemas cuánticos sufren las acciones del investigador y modifican su comportamiento detallado en forma impredecible. Al estudiar un electrón, por ejemplo, es inevitable afectarlo en forma incontrolada. Para estudiar su movimiento hay que "iluminarlo" para "tomarle una película" y determinar gracias a ella su velocidad. Sin embargo, cuando intentamos iluminar al electrón, este se desvía al chocar con el primer fotón (la onda-partícula que constituye la luz), impidiéndonos saber qué velocidad llevaba; al llegar la luz, mostrándonos en qué sitio se encontraba, desaparece la posibilidad se saber a dónde iba. Es decir, posiciones y velocidades son cantidades incompatibles. La precisión en la determinación de una es a costa de la otra. Este tipo de efectos trae como consecuencia la existencia de límites naturales ineludibles en la precisión con la que es posible determinar ciertas cantidades, simultáneamente. Estas limitaciones tienen el carácter de leyes fundamentales y forman parte de los postulados básicos de la mecánica cuántica. Se conocen como las relaciones de incertidumbre de Heisenberg. VI. 1. EL HELIO Y EL FRÍO El helio fue descubierto como uno de los componentes de la atmósfera solar, de donde viene su nombre (del griego helios, Sol), en la segunda mitad del siglo XIX por P. Janssen y J. N. Lockyer, independientemente. Casi veinte años más tarde se encontró en la Tierra disuelto en minerales y un poco después en mezclas de gases naturales; al separarlo siempre se obtenía helio en su fase gaseosa. El primer derivado de las reacciones nucleares que ocurren en el interior de las estrellas es el helio. Las enormes presiones que existen en el interior de las estrellas dan como resultado que se fusionen los átomos de hidrógeno, formando helio, liberándose así enormes cantidades de energía. El hidrógeno es el "combustible" más usado por las estrellas para iluminar el cielo (de noche solamente, claro). Agotado el hidrógeno se siguen con el helio, formando átomos cada vez más pesados, que a la larga se combinan para formar moléculas y éstas, agrupadas en cúmulos, forman partículas que a la larga se autorganizan y mugen en medio de verdes pastizales. Decir que somos polvo de estrellas, además de una frase poética saturada de meloso romanticismo, es una afirmación científica literal. Descubrir cada elemento, para después caracterizarlo y conocer sus propiedades más distintivas, fue un proceso arduo y tedioso que tomó muchos siglos. Tras de lograr purificar una cantidad razonable de cada uno se procedía, entre otras cosas, a determinar las condiciones bajo las cuales el elemento se encontraba en las fases sólida, líquida o gaseosa. Se aprendió que bajando la temperatura de un gas se convertía en líquido y que enfriándolo más
el líquido se solidificaba. Así empezó el desarrollo de la tecnología de bajas temperaturas. Contar con un sibil (sitio fresco o frío para guardar comida o pieles), ciertamente era común desde tiempo inmemorial, por lo que sorprende que no fuera sino hasta el siglo XVIII cuando se desarrollaran los primeros procesos para enfriar artificialmente. De hecho, la primera máquina para producir hielo se construyó hasta 1755 por William Cullen. Sin embargo, fue el interés por licuar a todos los gases el que motivó el desarrollo de métodos para producir temperaturas cada vez más bajas. Para reducir la temperatura de un gas se utilizan dos hechos sencillos. Uno es el conocido efecto de que al poner en contacto dos cuerpos a diferente temperatura, alcanzan una temperatura intermedia, enfriándose el más caliente y calentándose el más frío. El otro hecho consiste en que si un gas se expande rápidamente, disminuye su presión y baja su temperatura. La combinación alternada en forma ingeniosa de estos hechos y la adecuada selección de gases produce la receta para enfriar lo que sea y tanto como se desee (casi). Recordemos que la temperatura más baja que es posible alcanzar en el Universo es la de cero grados Kelvin (0ºK) o el cero absoluto. En la escala práctica de temperatura, de grados centígrados o Celsius (ºC), que es la que se usa para calentar el horno, decidir si es necesario un suéter o si el catarro se convirtió en gripe, el límite natural inferior corresponde a -273.15ºC. Para pasar una temperatura en grados Celsius a la escala absoluta de grados Kelvin basta con restarle 273.15. Es bueno mencionar que, de acuerdo con una de las leyes de la física (la llamada tercera ley de la termodinámica), NO es posible alcanzar la temperatura de 0ºK en un proceso que comprenda un número finito de pasos. En otras palabras (más tontas desde luego), habría que vivir un tiempo infinito para manipular una sustancia y enfriarla hasta el cero absoluto. (Véase García- Colín, L. S.) La licuefacción de gases se inicia propiamente en el siglo XIX. Uno de los genios experimentales de todos los tiempos, el científico inglés Michael Faraday (1791-1867), entre muchas de sus investigaciones logró licuar por primera vez varios gases hacia finales de 1822. A pesar de haber logrado temperaturas tan bajas como 110º C bajo cero y del éxito que obtuvo en la condensación del amoniaco, el cloro y el bióxido de carbono, no pudo hacer lo mismo con el hidrógeno, el oxígeno y el nitrógeno. Junto con el monóxido de carbono, éstos fueron llamados los gases permanentes, ante los múltiples intentos infructuosos por licuarlos. Con técnicas cada vez más refinadas, el último cuarto del siglo XIX vio por fin la licuefacción de los reacios gases comunes que constituyen nuestra atmósfera. Entre 1883 y 1885, en Cracovia, Polonia, S. V. Wroblewski y K. S. Olzewski lograron finalmente licuar oxígeno, nitrógeno y monóxido de carbono. El 10 de mayo de 1898, en Londres, Inglaterra, J. Dewar licuó el hidrógeno. El siglo XIX terminaba y ya se habían alcanzado temperaturas de 15ºK (casi 260ºC bajo cero) y la licuefacción de todos los gases, excepto el helio. Al iniciarse el siglo XX, el helio se empezaba a obtener en cantidades apenas suficientes para ser estudiado en laboratorios muy especializados. A las temperaturas más bajas que entonces se podían producir (8ºK), el helio sólo podía mantenerse en forma de gas, lo que había generado una verdadera carrera internacional para poder lograr su licuefacción. Varios grupos de científicos de mucho prestigio trabajaron intensamente para lograr este objetivo. Finalmente, el 10 de julio de 1908, Heike Kamerlingh-Onnes (1853-1926) logró enfriar helio hasta licuarlo, en Leyden, Holanda. La temperatura que requirió alcanzar fue menor que 4ºK (-269ºC), y se encontró que la temperatura de ebullición del helio es de 4.2ºK. Con esa fecha podría darse la fe de bautismo a la criogenia (del griego kryos, frío y gennao, engendrar, generar frío), el estudio de las bajas temperaturas. Kamerlingh-Onnes fue honrado con el premio Nobel, en 1913, por haber producido temperaturas tan bajas y por los consecuentes descubrimientos sobre el comportamiento de la materia en estas condiciones. Durante las siguientes décadas, hasta principios de 1940, se logró ir bajando aún más la temperatura hasta llegar a unas décimas por abajo de 1ºK, en el intento por solidificar el helio líquido. En este proceso se descubrieron una serie de hechos y de fenómenos sin paralelo en la naturaleza, que se creían exclusivos, hasta mediados de 1986, de los sistemas fríos (los verdaderamente fríos). Tres años después de haber licuado el hio, Kamerlingh-Onnes descubrió el fenómeno de la superconductividad. Estudiando cómo disminuía la resistencia eléctrica de algunos materiales al disminuir la temperatura, lo cual era bien sabido, se sorprendió al encontrar que el mercurio puro perdía su resistencia por completo y en forma abrupta al pasar a una temperatura inferior a los 4.12ºK (véase Magaña, F.). Se había encontrado la primera
manifestación macroscópica del comportamiento cuántico de la materia. Sin entrar en los detalles de este descubrimiento y de sus valiosas consecuencias, baste decir que para 1940 se conocían 17 elementos puros y casi una centena de compuestos que presentaban este comportamiento; todos con temperaturas inferiores a los 10ºK y en estado sólido. La explicación del fenómeno, que por muchos años resistió los esfuerzos de los físicos teóricos más notables del siglo, fue dada hasta 1957 por John Bardeen (1908-1991), J. Robert Schrieffer (1931-) y Leon Cooper (1930-). Por esta teoría, conocida como BCS, recibieron el premio Nobel de Física en 1972. Para Bardeen fue el segundo premio Nobel; el primero lo compartió con William Shockley (1910-) y Walter Houser Brattain (1902-) en 1956, por sus trabajos sobre semiconductores y el descubrimiento del transistor. A partir de 1986, cuando J. Georg Bednorz y K. Alex Müller descubrieron superconductores con temperaturas mucho más altas que las usuales, en los laboratorios de IBM en Suiza, se inició una etapa de investigación que produjo más de 20 000 publicaciones en cinco años. Tomando en cuenta que, de superconductores con temperaturas inferiores a los 20º K, se habían descubierto unos con temperaturas cercanas a los 90º K, las posibilidades tecnológicas y económicas presagiaban un inusitado interés. Lo que no se esperaba era la explosión bibliográfica de dudosa calidad, que parece (y es) absurda, en vista de los escasos resultados realmente novedosos o valiosos que se han obtenido desde entonces. La fiebre inicial afortunadamente bajó, sin que hubiese subido la temperatura de los superconductores calientes y sin que se tenga un buen indicio de la teoría correcta, aunque cada vez hay más investigadores dedicados al tema de lo que la sensatez sugiere. Claro que, después de todo, hay un premio Nobel en juego. En resumen, no se sabe cómo producir superconductores con temperaturas mayores a los 125º K, el máximo registrado y confirmado a finales de 1991, y no parece haber indicios de una teoría que los explique. Todo parece indicar que la teoría BCS y sus más directas extensiones no son aplicables a estos complicados compuestos. Parte del problema es que la desproporcionada cantidad de papel dedicada a presentar resultados sobre estos materiales incluye un gran número de trabajos, teóricos y experimentales, contradictorios. Es posible, si bien es poco probable, que los elementos básicos de la nueva teoría se encuentren sepultados en algún vehículo de información científica, como el "Acta de erudición de Macondo". Habría que revisar parte de las publicaciones existentes y leer u oír críticamente las supuestamente ingeniosas teorías que se pregonan casi todos los meses explicando el fenómeno. Ya dirá el siglo XXI. Por lo pronto, el siglo que acaba vio al ser humano producir las más bajas temperaturas del Universo. En los primeros instantes de la Gran Explosión que dio origen al Universo, hace más de quince mil millones de años, las temperaturas fueron tan altas que son difícilmente imaginables y tal vez nunca puedan ser alcanzadas ni con los más grandes aceleradores de partículas. Sin embargo, el extraordinario proceso de enfriamiento que se inició con ese violento amanecer, no ha logrado producir temperaturas más bajas que los 3º K que constituyen la llamada radiación de fondo, vestigio arqueológico del nacimiento cósmico. VI. 2. UN FLUIDO IDEAL QUE SÍ EXISTE Como sucede con los materiales superconductores, el helio presenta un comportamiento insólito cuando su temperatura es suficientemente baja, es decir, cuando se encuentra en la fase líquida. Otra vez, la naturaleza nos muestra su extraña cara cuántica. La superfluidez, como ahora se le llama al fenómeno que en forma exclusiva presenta el helio líquido, en cualquiera de sus variedades, fue descubierta 30 años después de la superconductividad y explicada 20 años antes. Una vez licuado el helio, la siguiente meta fue solidificarlo, cosa que nunca se pudo lograr a presión atmosférica. En la década de los veinte se construyó la curva de coexistencia líquido-sólido. Esto quiere decir que se encontraron los valores de la presión y la temperatura a los que el helio líquido se solidifica. A presiones altas se logró licuar y solidificar al gusto del investigador. Por ejemplo, en 1930, se determinó que el helio gaseoso se solidifica a una temperatura de 42º K si la presión es de 5 800 atmósferas, y que si ésta es menor de 25 atmósferas el helio jamás pasa a la fase sólida, aun a cero absoluto (sí se pudiese alcanzar); esto es lo que se llama un resultado asintótico o límite. Con diversos colaboradores, W. H. Keesom continuó la tradición holandesa de Kammerlingh-Onnes, en Leyden, trabajando a presión atmosférica con helio líquido y encontró que al seguir bajando la temperatura y llegar a 2.3º
K, aparecía una nueva fase líquida del helio. Así, el gélido líquido que se producía del gas a 4.2º K fue rebautizado como helio I y a la nueva fase se le llamó helio II; a la temperatura en que ocurría la transformación (temperatura de transición) se le conoce ahora como el punto λ (lambda). Posteriormente, en el punto λ se fueron descubriendo cambios bruscos en una serie de propiedades como la viscosidad, la tensión superficial, la velocidad del sonido y la conductividad térmica. Esta última es la habilidad o eficiencia que tiene un material de conducir el calor; las maderas y los plásticos tienen baja conductividad térmica, mientras que en los metales esta conductividad es alta. Todo parecía indicar que el helio II era el sistema más eficiente en la naturaleza para conducir el calor y que un fenómeno análogo a la superconductividad hacía su debut. El helio, además de ser el único fluido que permanece como tal en el cero absoluto, hace trucos igualmente únicos cuando se encuentra con el disfraz de helio II. Se había observado que el helio II burbujeaba como cualquier otro líquido cuando se encuentra en ebullición. Al llegar al punto λ el efecto desaparecía y quedaba una superficie en total reposo; había que agitar el sistema para convencerse de que aún se encontraba ahí. Al descubrir que era capaz de conducir el calor 200 veces más rápido que el cobre se pudo explicar el hecho anterior: la eficiencia de la conducción es tal que lleva el calor de las paredes a la superficie del líquido sin necesidad de aspavientos, como el burbujeo que los otros líquidos requieren, incluido el helio I. La dificultad era que no había forma de entender cómo podía conducir tan rápido; daba al traste con las ideas comunes y corrientes. Estas se salvaron a costa de ideas aún más exóticas. El 7 de diciembre de 1940, la Revista de Física de la URSS recibió un artículo de Pyotr L. Kapitza (1894-1984), investigador y director del Instituto de Problemas Físicos de Moscú, en el que se presentaban los resultados de una meticulosa serie de experimentos en los que se exhibían fenómenos nuevos y se reinterpretaban otros conocidos, desde una perspectiva no considerada hasta ese momento. Tres años antes, Kapitza había presentado la sugerencia de que más que un notable cambio en la conductividad térmica, se trataba de una radical e inesperada caída en la viscosidad del fluido. Su famoso trabajo, publicado en 1941, introducía las ideas de superfluidez. Para demostrar que no era una extraordinaria conductividad térmica la que adquiría el helio II, y que era la aparición de corrientes lo que hacía eficiente el proceso, tuvo que demostrar que se trataba de un superfluido y así lo llamó. Para medir la viscosidad, que es la oposición que presentan los fluidos a moverse (por fricción interna), es común utilizar tubos capilares angostos y medir el flujo resultante. Al no ser aplicables los métodos tradicionales, Kapitza tuvo que diseñar un sistema como el que se muestra en la figura VI.1. El helio, para pasar al recipiente externo, debe fluir hacia abajo y pasar entre dos placas de vidrio muy pulidas y separadas entre sí una distancia menor a una micra (¡una millonésima de metro!). Mientras que el flujo era casi imperceptible a temperaturas por arriba del punto λ, por abajo de éste el helio II pasaba a gran velocidad, igualándose rápidamente los niveles.
Figura VI. 1. Helio II y flujo en capilares.
La conclusión del experimento fue que el helio II tenía una viscosidad menor que ¡una diezmilésima de la que tiene el hidrógeno gaseoso! Kapitza sugirió que no tenía viscosidad alguna, y que reflejaba un comportamiento igual al de un fluido ideal, "aunque usted no lo crea". Como veremos en la siguiente sección, la teoría de Landau permitió elaborar una explicación a éste y otros hechos raros. Otra de las pintorescas manifestaciones de la superfluidez es la habilidad de escabullirse a través de una película que se arrastra por las paredes. La figura VI.2 ilustra el curioso fenómeno. Se había observado que si se ponía helio II en un recipiente con un pared divisora, con el paso del tiempo y en forma espontánea se igualaban los niveles de cada lado. En la Universidad de Oxford, Londres, John G. Daunt y Kurt Mendelssohn demostraron experimentalmente que se formaba una película ultradelgada (de 200 milmillonésimas de metro) por la que el helio II fluía libremente con velocidades cercanas a los 50 cm/s. En la figura VI.2(c) el helio II llega a vaciar el recipiente de arriba. Aunque otros fluidos que mojan el material del recipiente que los contiene también crean estas películas, como el agua en un recipiente de vidrio muy limpio, el movimiento que ocurre es mucho más lento y pronto se detiene por la viscosidad.
Figura VI. 2. Flujo de Helio en las películas delgadas (a y b) El helio II se las ingenia para igualar los niveles; (c) vaciado espontáneo de un recipiente.
Paradójicamente, en experimentos independientes realizados para determinar la viscosidad del helio II, se encontró que al introducir un pequeño cilindro dentro del líquido y haciéndolo rotar, se registraba una (débil) fuerza de fricción que se oponía a la rotación. Cada uno de los experimentos, con capilares y cilindros rotantes, fue repetido con los mismos resultados. A veces sí y a veces no, según la forma de medirla, el helio II tenía viscosidad. Esta aparente contradicción también fue explicada por la teoría correspondiente. El efecto fuente es uno de los espectáculos circenses más sorprendentes que nos proporciona el helio II, si bien téoricamente no es tan interesante y el mismo Kapitza lo diseñó sólo para apoyar la imagen de superfluido que iba desarrollando. Si se ponen dos recipientes con helio II conectados por un capilar muy delgado, los niveles se igualan (esto, desde luego, lo hacen hasta los ponches navideños). Sin embargo, si se varía la temperatura (o la presión) de uno de los lados, se produce un flujo por el capilar que da lugar a un cambio en la presión (o la temperatura) del otro lado, por lo que también se le llama efecto termomecánico. Para demostrar que un flujo de calor llevaba aparejado un movimiento rápido del fluido, Kapitza hizo algo semejante a lo que se presenta en la
figura VI. 3. iluminando la parte inferior del tubo que contiene helio II, comunicándole calor de esta manera, ¡se produce un chorro permanente!
Figura VI. 3. Efecto fuente en el Helio II.
La perplejidad de Kapitza debe haber ido en aumento con cada portentoso truco que observaba. También buscando demostrar que el eficiente transporte de calor era el resultado de la superfluidez del helio II, llevó a cabo el siguiente experimento. En la salida de un recipiente con helio II, que conectaba con otro igual, puso una pequeña propela o rehilete con el propósito de detectar la salida de fluido. Al iluminar una de las caras del recipiente (pintada de negro para que absorbiera calor) para subir su temperatura, las aspas empezaron a dar vueltas y el helio II salió hacia el recipiente más frío. Con esto confirmaba, fuera de toda duda, que el flujo de calor incluía cierto tipo de movimiento del helio II. Lo que sí no esperaba es que, aun cuando salía helio II del recipiente, el nivel permaneciera igual, ¡manteniéndose lleno! Los experimentos de Kapitza, así como la reinterpretación que dio a los que hicieron sus antecesores, demostraron la existencia del fenómeno de la superfluidez. Pero, ¿cómo ocurría?, ¿qué la producía?, ¿cuál era el mecanismo? ¿Cómo podría explicarse la de un fluido sin viscosidad que en ocasiones parece tenerla y que al salir de un frasco lo mantiene lleno? La respuesta la dio Lev D. Landau en 1941, de quien hablamos en el capítulo anterior, recibiendo el premio Nobel por ello en 1962. Antes de que pasara un año de la publicación de los resultados experimentales sobre la superfluidez, el brillante colega de Kapitza elaboró una teoría cuántica, comprensible sólo por los especialistas, que además predecía varios efectos posteriormente, confirmados. Sin embargo, como varias preguntas quedaron sin respuesta, la teoría de Landau fue modificándose y extendiéndose para abordar y explicar los problemas pendientes, hasta alcanzar la forma casi completa que ahora posee y que a su vez ha sido confirmada por muchos experimentos. Antes de traducir la teoría básica de Landau al lenguaje común, que será más bien una especie de alegoría, por lo raro que es el mundo microscópico, haremos una breve digresión. Es difícil resistir la tentación de comentar sobre la adjudicación de los premios Nobel. A Landau se le dio más de veinte años después de su contribución principal, aunque lo merecía de todas formas por sus brillantes y diversas contribuciones en casi todas las ramas de la física. A Kapitza hasta 1978 se le otorgó este premio, mientras que lo
recibieron otros que hicieron menos. Sus trabajos, involuntariamente realizados en la URSS, hubiesen sido mucho más reconocidos si hubiera permanecido en Inglaterra. Muchos científicos destacados, tanto como los que sí recibieron el Nobel, nunca fueron premiados. Siendo el honor más reconocido internacionalmente, la componente geopolítica siempre ha estado presente, por lo cual se han hecho graves omisiones o asignaciones desproporcionadas. Aun cuando los premios Nobel de la Paz son los más controvertidos (pues incluso se han otorgado a promotores de la guerra), los premios Nobel de Física y otras actividades científicas se han dado a investigadores que, si bien han hecho trabajos notables, lo recibieron por razones ajenas a los criterios básicos que uno supone determinarían la asignación. La nacionalidad del candidato, la situación política del momento y el hecho de si está o no a la moda el tema de trabajo parecen desempeñar un papel poco afortunado aunque importante. En física, todos los honrados por el codiciado galardón lo han merecido (en ocasiones hasta han sido los mejores). VI. 3. MEZCLAS CUÁNTICAS El elemento que llamamos helio, como ya vimos, viene en dos presentaciones isotópicas, el helio tres y el helio cuatro. A su vez, cuando este último se encuentra en la fase líquida recibe el nombre de helio I, si su temperatura está por encima del punto λ, y helio II cuando está por debajo. Ahí no acaba la cosa. De acuerdo con la teoría de Landau, el helio II está formado por una mezcla de dos fluidos, conocidos como la componente normal y la componente superfluida. En el punto λ todo el helio II es normal y conforme va disminuyendo la temperatura empieza a crearse la componente superfluida hasta que, a cero grados Kelvin, todo el helio II es superfluido. En cierto sentido, la parte normal es la que tiene temperatura y la superfluida siempre esta en el cero absoluto. De esta manera, si compramos unos litros de helio y los enfriamos a 1º K, tendremos un líquido en el que una pequeña parte es helio tres y la parte restante es helio cuatro, el que a su vez, hallándose en su forma de helio II, tiene una parte normal a 1º K y una superfluida a 0º K (ésta es la parte fácil). No hay que perder de vista que en realidad se trata de un solo fluido hecho de los mismos átomos y que la imagen de una mezcla es una analogía para interpretar "hechos consumados". Lo que sucede es que, al igual que la gente, los átomos van cambiando su comportamiento conforme baja la temperatura. A nadie le llama la atención que al poner agua en un congelador se convierta en hielo, aun sabiendo que está constituido por las mismas moléculas de agua (H2O); de algún modo, lo que sucede es que sólo se han organizado de otra manera. Según la teoría, el helio II presenta dos tipos de movimientos simultáneos e independientes, el del superfluido y el del normal. Mientras que para caracterizar un flujo común y corriente basta con determinar la velocidad en cada punto, para este pintoresco líquido hay que hallar dos velocidades en cada punto, la de cada componente de la mezcla. Se advirtió que sería un tanto raro y ahora es claro que no es nada intuitivo (excepto por el hecho de que las personas raras son frías). Las diferencias más notables entre las componentes de la mezcla son las siguientes. La componente superfluida no tiene viscosidad, se mueve sin problema alguno por cualquier rendija (capilar o capa delgada), y no transporta calor. Es el fluido ideal con el que soñaron los físicos y desearían utilizar los ingenieros. Por su lado, la componente normal es la que tiene todos los defectos, empezando por ser real. Se mueve sobre —¿dentro?— un fondo ideal absolutamente helado que no lo afecta y transporta calor en forma muy eficiente. Con estas ideas en mente, es posible poner en claro algunos de los experimentos descritos anteriormente. Empecemos con el último, donde un rehilete indicaba la salida de fluido sin que bajara el nivel del recipiente. La razón por la que la pequeña propela gira, indicando un flujo de salida del recipiente, es que la componente normal es la que transporta calor al recipiente más frío. Al salir ejerce una fuerza sobre las aspas como resultado de su viscosidad. A cambio, la componente superfluida se mueve en la dirección contraria, sin oposición alguna y sin ejercer fuerza sobre la propela, manteniendo el nivel del recipieite a la misma altura. No habiendo un flujo neto de helio II, al compensarse exactamente los movimientos opuestos de las componentes normal y superfluida, el nivel permanece fijo. En el caso presentado en la figura VI. 1, es la componente superfluida la que se escapa tranquilamente por el minúsculo capilar, mientras la componente normal sale muy lentamente y a duras penas. La viscosidad medida por este procedimiento es la del superfluido, que es cero. En el caso del cilindro rotante, es la componente normal la que entra en acción y la que manifiesta su viscosidad, que desde luego no es cero. Con esto la teoría de Landau
lograba explicar cualitativa y cuantitativamente las observaciones que de otra manera parecían paradójicas o contradictonas. La explicación de las peculiares películas delgadas por las que escapa de recipientes el helio II y la del efecto termomecánico (fuente), ilustradas en las figuras VI. 2 y VI. 3, son ahora más fácil de entender. En las delgadas capas que forma el helio II, como cualquier fluido que moja el recipiente que lo contiene, es la componente superfluida la que puede moverse libremente y a gran velocidad; la componente normal, mucho más lenta, también se escabulle, lubricada por su envidiable compañera. De esta manera sale hasta vaciar el lugar que ocupaba o igualar el nivel exterior. En el caso del efecto termomecánico la comprensión del fenómeno está basada en el hecho de que la componente superfluida no transporta calor y se mantiene a una temperatura cero. Se tienen dos recipientes con helio II a la misma temperatura y conectados por un capilar. Al aplicar una presión a uno de los lados, es la componente superfluida la que se mueve rápidamente hacia el otro lado. Al salir el fluido más frío genera una baja en la temperatura del recipiente en el que entra. En mediciones directas se comprobó que el fluido saliente estaba más frío que el que se quedaba. Sin el modelo de los dos fluidos sería inexplicable que un fluido salga más frío que el del recipiente de donde se saca. El proceso complementario, en el que una diferencia de temperaturas genera una diferencia de presiones, manifestado teatralmente por el efecto fuente, tiene la misma explicación. Es inevitable confesar que hay muchos fenómenos relacionados con la superfluidez que no hemos mencionado. Sólo para entreabrir un poco más la puerta de este fascinante mundo de los fluidos cuánticos, traeremos a cuento algunos hechos adicionales. Bajo condiciones especiales hacen su aparición pequeños vórtices que se acomodan en hexágonos o se entrelazan como madejas irrecuperables de estambre. Estos remolinos, que siguen sus propias leyes cuánticas, tienen dimensiones atómicas y formas de girar que vagamente recuerdan a un tornado. Su demostrada existencia, predicha por Lars Onsager a finales de los cuarenta y desarrollada posteriormente por Richard P. Feynman, permitió explicar múltiples observaciones hechas en superfluidos. Entre otras, la respuesta que tienen cuando son forzados a rotar, el comportamiento de partículas cargadas (iones) que se organizan alrededor de vórtices arreglados en hexágonos, etcétera. En calidad de misterio final de un tema vasto, que sigue siendo objeto de profundas investigaciones, mencionaremos a las cuasipartículas que viven en los superfluidos, los fonones y los rotones, y la propagación de cuatro diferentes sonidos. En el agua y en el aire (afortunadamente) se propaga el sonido con una velocidad característica. En el helio II también se propaga el sonido y el segundo sonido y el tercer sonido y el cuarto sonido (es reconfortante no tener que platicar en un medio superfluido). Así, para sorpresa de casi todos los investigadores, al menos por un rato, en 1972 se descubrió otro superfluido, el helio tres. Aun cuando nos podría parecer que se trataba casi de la misma cosa, resulta que las teorías existentes (Landau y continuadores) no podían aplicarse directamente. Con un nuevo fluido cuántico y las posibilidades de mezclarlo con el otro, el estudio de estas peculiares y únicas formas de materia se convirtió en uno de los temas centrales de investigación en la física de bajas temperaturas, salvo por la referida fiebre de los superconductores calientes. El helio tres es más raro en la naturaleza y juntar una cantidad razonable cuesta mucho más trabajo y, desde luego, dinero. Como era de esperarse, licuarlo iba a ser posible sólo a bajas temperaturas y su comportamiento estaría descrito por las leyes cuánticas; después de todo es hermano mellizo del helio cuatro, pero no gemelo. Sus características individuales lo hacen interesante para quien estudia asuntos tan disímbolos como las estrellas de neutrones o la superconductividad. Véamos brevemente la razón. Las partículas elementales (como los cuarks), las un tanto menos primarias (como el neutrón), los átomos, las moléculas y demás entes que constituyen lo que es, están divididos por la mecánica cuántica en dos grandes grupos fundamentalmente distintos, los fermiones y los bosones. Los nombres honran a dos notables físicos del siglo XX, Enrico Fermi (1901-1954) y Satyendra Nath Bose (1894-1974), quienes de manera independiente resolvieron problemas en los que esta diferencia era esencial. Se mencionó que una de las características cuánticas que etiquetan a las partículas es el espín. En nuestro
pintoresco lenguaje de palanganas y tornillos, el espín puede imaginarse como un particular modo de giro que se mide en múltiplos de la unidad fundamental de momento angular o giro: (hache barra). Esta cantidad es una de las constantes físicas universales, la constante de Planck (h) dividida por 2π, y su presencia es la firma de los sucesos cuánticos. La existencia de fue predicha por Max Planck (1858-1947) en sus revolucionarios estudios sobre la radiación del calor, que a la postre dieran génesis a toda la teoría cuántica. Los fermiones, entre los que se encuentran los constituyentes del átomo (electrones, protones y neutrones), tienen espín semientero y los bosones, como, los fotones y los piones, lo tienen entero. Por ejemplo, el electrón es fermion por tener espín 1/2 (y momento angular
/2), mientras que el fotón es un bosón al tener espín 1 (con
momento angular ). Cuando se combinan varias partículas para formar un objeto más complicado, basta con sumar los espines de cada componente para saber si tiene carácter bosónico o fermiónico. En el caso que nos ocupa, el 3He está formado por dos protones, dos electrones y un neutrón, lo que trae como consecuencia que sea un fermión; el 4He es un bosón debido al neutrón adicional que tiene. De acuerdo con una de las leyes cuánticas, llamada el principio de exclusión de Pauli, los fermiones se acomodan (donde sea que lo hagan) de manera que no hay dos en el mismo estado, mientras que los bosones pueden amontonarse en el mismo lugar sin restricción alguna. La consecuencia es que los comportamientos son muy distintos, especialmente a muy bajas temperaturas. La temperatura de transición superfluida para el 3He es 1 000 veces menor que la del 4He. A esta temperatura, con los átomos casi quietos, se pone de manifiesto una ligera atracción que produce el apareamiento de parejas de átomos, como si orbitaran uno alrededor del otro. Estas parejas, llamadas pares de Cooper, son bosones que resultan de la combinación de dos fermiones. Ya como bosones, la situación cambia y como en el caso del 4He las cosas pueden superfluir. Curiosamente, al pasar por la temperatura de transición superfluida, aparecen dos tipos de superfluido, el 3He-A y el 3He-B. Estos nuevos fluidos tienen la inesperada característica de tener textura, lo cual no adorna al otro superfluido conocido, el helio II. La razón para que aparezca esta singular característica es que los pares de Cooper pueden ser alineados por la presencia de agentes externos, como campos magnéticos o superficies, en forma parecida a los cristales líquidos. Sin entrar en detalles de lo que es un cristal líquido, casi todos hemos visto las gracias que hacen estos materiales; en los relojes y demás aparatos electrónicos modernos, que tienen lo que se llama carátula digital, hemos visto cómo aparecen y desaparecen zonas oscuras. Ahí hay un cristal líquido y lo que ocurre es que al hacer pasar una pequeña corriente a través de ellos se calientan, pasan por una transición y se orientan cambiando de color y textura. Algo análogo pasa con las variedades A y B de 3He superfluido. Los vórtices que aparecen en estos medios son verdaderamente extravagantes, más que los del 4He, y son los responsables (casi siempre) de la textura que tienen. Las teorías existentes sugieren la posibilidad de mezclas de estos helios superfluidos de hasta tres componentes y los comportamientos serían igualmente ajenos a toda intuición. Las temperaturas para lograr estas combinaciones de fluidos raros, cercanas a la milmillonésima parte de un grado Kelvin, son por ahora inalcanzables, aunque los "criogenicistas" van acercándose. Como siempre sucede, hay más por decir y hacer que lo dicho y hecho. Este vago y extraño mundo que hemos esbozado de los superfluidos es más para sugerir un panorama que para describir un paisaje. Ciertamente hay otros comportamientos igualmente interesantes que se han descubierto (con sus correspondientes explicaciones teóricas) además de los que aquí hemos tratado. También, lo que es igualmente importante, sigue completamente abierta la puerta para hacer, descubrir y explicar. La pasión por buscar caminos nuevos en las artes y las ciencias es insaciable, sus fuentes son inagotables.
VII. EPÍLOGO "DE LA VISTA NACE EL AMOR", dice un refrán que nos deja pensando sobre lo que sucede después de que nació. Pasada la primera impresión, el trato y el conocimiento enriquecen (o matan) la relación hasta convertirla en algo real, objeto de cuidados y atenciones (o fuente de obsesiones y peculiares melodramas). Difícilmente nos contentamos con esa "vista" inicial y buscamos más de cerca para completar lo que dejó entrever alguno de nuestros sentidos. Esa cara, esa figura o esa voz, sin perder su encanto, son siempre insuficientes. ¿Por qué hacer igual con los atardeceres exquisitos de apastelados cielos, con las mágicas nubes que crecen tomando formas que sólo llevamos en la mente, con las hipnotizantes flamas que calientan la piel, la pupila y el alma, con las columnas de humo que desatan la imaginación al disiparse en nada o con las olas que traen recuerdos y espumas de otras playas? La poesía que puede inspirar la vista de un ocaso tornasol no se pierde si apreciamos los mecanismos diminutos y ocultos que dan lugar al maravilloso espectáculo. Un mar embravecido sobrecoge a cualquier marino, por experimentado que sea, de la misma manera que un zumbante tornado impresiona al meteorólogo que busca predecirlo. Ambos aprenden y actúan al ver lo que otros sólo sufren con terror. Al estudiar más allá de lo que se ve por encima, literalmente bajo la superficie, se descubre un universo adicional que únicamente puede hacer más delicioso el momento, como con las personas. Ciertamente, no vamos a perder el saludable miedo a un huracán, ni la inspiración que despiertan las rojas brasas de una hoguera. Para apreciar una ópera, basta con sentarse a escucharla. Si además de escuchar la música y las voces, vemos la escenografía y el vestuario o ponemos nuestra atención en los bailes y la actuación, la opulencia del "espectáculo sin límites" se pone en evidencia. Sin embargo, esto es sólo el principio. Si conocemos la historia que une cada una de las partes entre sí, la obra toma una dimensión diferente. Si leemos el libreto, podemos paladear los diálogos llenos de poesía, drama y comedia, descubriendo la universalidad de las pasiones humanas, de las ilusiones y los desamores y la dulzura que hay en la ingenuidad de cada adolescente. Así, agregando la música, se realzan esas emociones hasta tocar las fibras íntimas del corazón de quienes sienten o piensan. Descubrir los sutiles movimientos de escena, los cambios de tono en un aria o el contrapunto de un cuarteto, exquisito y dramático, jamás disminuirá la belleza del momento. Lo mismo pasa con el universo que nos rodea. Cada parte encierra una complejidad que sigue sorprendiéndonos. Nuestra capacidad de asombro está más desarrollada que nunca antes en la historia. Lo menos que nos merecemos es la oportunidad de ver más allá de lo que ven las miríadas de especies con las que compartimos el mundo. A quienes leyeron este libro les correspondería escribir un epílogo. En realidad hay mucho, muchísimo más que decir de lo que aquí aparece. Así, al final, la convicción de no haber hecho referencia a tantas cosas importantes o interesantes me deja un poco apenado. Sin embargo, si la lectura despertó el interés por averiguar un poco más sobre los fluidos, habré logrado mi propósito. Si además cada quien encontró una novedad o aclaró un concepto o disfrutó de alguna parte, el esquizofrénico sufrimiento y placer que están detrás de cada línea habrán valido totalmente la pena.
COLOFÓN Este libro se terminó de imprimir y enucadernar en el mes de febrero de 1994 en Impresora y Encuadernadora Progreso, S.A. de C.V. (IEPSA), Calz. de San Lorenzo 244, 09830 México, D. F. Se tiraron 10 000 ejemplares. La Ciencia desde México es coordinada editorialmente por MARCO ANTONIO PULIDO y MARÍA DEL CARMEN FARÍAS.
CONTRAPORTADA La violencia de un tornado en las planicies de Australia, las penetrantes observaciones de Leonardo da Vinci, el comportamiento exótico de un superfluido en las inmediaciones del cero absoluto, los invisibles átomos y la ventaja de ignorarlos, las olas, los humos y el tornasol de los atardeceres son parte de los temas que cubre casi cualquier reflexión sobre los fluidos; con frecuencia es sólo en forma implícita, pero ahí están. Este libro no es la excepción. La magia de un fluido nos hipnotiza cuando vemos arder una fogata, cuando miramos las burbujas dentro de una cerveza o cuando se forman dragones en las nubes que luego se disipan en nada. ¿Por qué querría uno entender lo que hace un fluido, cortando la imaginación o esterilizando la poesía? Por la misma razón que un enamorado quiere más que el recuerdo de una voz o una mirada. Los fluidos, que nos envuelven todo el teimpo, producen su espectáculo maravilloso cada día y, si lo sabemos pedir, cada vez que los deseamos. La belleza o la dificultad estriba en que mientras mejor creemos conocerlos, mas fácil escurren entre nuestras teorías y nuestros dedos. Ramón Perala-Fabi es doctor en Ciencias (Física) por la Facultad de Ciencias de UNAM. Se desempeña actualmente como profesor titular de carrera y coordinador del Laboratorio en el Departamento de Física de la Facultad de Ciencias de la UNAM. También es investigador nacional. Su campo de estudio es la dinámica de fluidos y la mecánica estadística.