La Antimateria Resumen En este ensayo se exponen, desde un punto de vista conceptual, el origen y el desarrollo de la teoría de la antimateria. Para entender el origen, se revisan las ideas fundamentales de la mecánica clásica y su interpretación semántica; luego las ideas de la mecánica cuántica, las de la mecánica cuántica relativista, y las de la teoría de la antimateria. Finalmente, se explica la forma en que fue detectada la antimateria. Introducción Para el hombre de la calle la idea de antimateria es esotérica, enigmática, posiblemente oscura e incomprensible. Forma parte de su cultura, cultura mal formada o desinformada; cultura al fin. La palabra es parte de su vocabulario, pero no de su comprensión. Esta y otras ideas de la ciencia moderna han sido implantadas en el léxico del lego por las historias de ciencia ficción, las series de televisión, y ocasionalmente por la prensa y la radio; de manera muy aislada por los hacedores y practicadores de la ciencia. Tal es la cultura de los medios de comunicación masiva. Son muy pocos los que tienen una idea fiel de lo que antimateria significa. Son muy pocos también los que poseen alguna noción, aunque sea muy vaga, de las teorías que la sustentan y que le dieron origen, a pesar de que estas ultimas forman parte de la cultura universal de nuestro tiempo. En nuestra época, todo ser humano, en principio, debería tener alguna noción de las grandes ideas de su tiempo, ya pretérito, ya actual; todo ser humano que se ostente de ser un ser de su tiempo y de su cultura. Por lo anterior: Esta es la historia, esbozada tan solo, de una de las grandes ideas de nuestro tiempo, implantada ya en la cultura universal y llamada a formar una pieza integral del pensamiento humano universal. Va emparejada a otras ideas igualmente geniales y trascendentales del siglo XX, como son la mecánica cuántica y la teoría especial de la relatividad. Esta es la historia de la antimateria. En las próximas páginas delinearemos las ideas primeras sobre el mundo; las teorías de la naturaleza que dieron origen a la idea de antimateria y sobre las que descansa, su origen, las incertidumbres y errores de los autores que le dieron paternalidad, su consolidación al tenerse la confirmación experimental, sus consecuencias, y su estado actual; también esbozaremos la forma en que ha afectado para siempre nuestra concepción del mundo.
1. La mecánica clásica Por mecánica clásica entendemos la gran síntesis sobre la concepción del mundo hecha por los científicos del siglo XVII. Figuran algunos estudiosos del movimiento de los cuerpos celestes Brahe, Kepler, Galileo, etc. - y del movimiento de los cuerpos terrestres -Galileo, Newton, y otros-; por supuesto sin que una lista excluya a la otra. Es una gran síntesis porque resume en 3 axiomas, y unas cuantas definiciones todo el conocimiento sobre la mecánica -esto es, movimiento- de los cuerpos y sintetiza éste; es decir, descubre que las explicaciones del movimiento de los cuerpos terrestres y de los cuerpos celestes están englobadas por los mismos principios. La naturaleza supuesta ya divina o terrestre no cuenta, las leyes son las mismas. La mecánica clásica fue la primera teoría de tipo axiomático sobre el mundo; axiomático en el sentido de la geometría euclideana clásica; es decir todas la verdades se deducen de unos pocos principios o axiomas también llamados autoverdades- y unas cuantas definiciones. Los axiomas son conocidos por todas las personas con educación media superior. Estos son: I Todo cuerpo en estado de reposo o de movimiento continuará así hasta que una fuerza exterior modifique este estado de reposo o de movimiento.
II Las fuerzas aplicadas sobre determinado cuerpo son proporcionales a las aceleraciones obtenidas del cuerpo. III A toda acción que se ejerce sobre un cuerpo, corresponde una reacción, de la misma intensidad y de sentido contrario.
Dentro de las definiciones están: estado de reposo, estado de movimiento, fuerza, aceleración, acción, masa, tiempo, velocidad, materia, y muchas otras. Vale la pena hablar un poco sobre estas últimas, ya que conforman el conocimiento junto con los axiomas que tenemos del movimiento de los cuerpos del mundo exterior. Aunque es pertinente una aclaración; una persona que sabe, o que decimos que sabe, mecánica clásica, no solamente conoce los axiomas y las definiciones -aparato conceptual- sino que además maneja con soltura el aparato matemático involucrado ecuaciones diferenciales- y sabe como aplicarlo a situaciones físicas. En la mecánica clásica, muchas de la definiciones son limitadas, ambiguas y no libres de dificultades. Sin embargo, en el ámbito para el que fueron pensadas, estas funcionan bien. Veamos algunos ejemplos concretos. Newton propuso que el tiempo es absoluto, fluye ajeno a todo influjo externo y es universal; es decir, no depende del estado de movimiento del observador. Éstas son llanamente suposiciones sobre la naturaleza del parámetro que llamamos tiempo. Es lo que observamos, o lo que nos dicta la experiencia más inmediata. Nada contradice estas o nos hace pensar que son erróneas; tal es nuestro acondicionamiento. Veremos más tarde que indagaciones mas profundas sobre estos hechos llevaron a la formulación de la teoría especial de la relatividad. Aunque parece ser que Newton estaba consciente de estas dificultades, no tuvo otra alternativa. Ahora tomemos la idea de reposo. Esta es ambigua pues depende del observador. Solamente existe un sistema de coordenadas inercial donde un determinado cuerpo esta en reposo; visto desde cualquier otro esta en movimiento. ¡Un cuerpo que esta en reposo y a la vez se mueve! No hay paradoja, todo depende del estado del sistema desde donde se este observando. Otro ejemplo: por definición, masa es la cantidad de materia que contiene un cuerpo. A su vez, clásicamente, materia es todo aquello que compone a los cuerpos. Esta es una idea intuitiva, fabricada para describir objetos macroscópicos, esto es, objetos de la vida diaria, y con los cuales tenemos experiencias directas. No hay ninguna garantía de que sea válida cuando la extrapolemos a regiones -microcuerpos- donde no tengamos experiencias diarias. Decimos, los objetos están hechos de materia. Sí, pero qué es la materia. La definición es recursiva; materia es todo aquello que compone a los cuerpos. Nada mas absurdo que esto, porque la lógica se ha perdido. Para que no suceda tal cosa hay que cortar en algún punto, y tomar como evidente -es decir, sin demostración- alguna proposición. La mecánica clásica toma como evidente la idea de materia, en el sentido de que es todo lo que constituye a los cuerpos. No se define más. Porque no se puede, además no se necesita más. Luego veremos que podemos calar más hondo cuando tengamos experiencias con cuerpos microscópicos y además enfoquemos las cosas desde una perspectiva diferente. Un ejemplo más: Energía es otro paradigma de concepto clásico, su definición dice que es la propiedad que poseen todos los cuerpos para realizar un trabajo; trabajo es la energía almacenada o gastada por un cuerpo, o en un cuerpo. No comentamos mas sobre este concepto. Al margen de la teoría clásica, al menos en principio, quedan discusiones como, que es el vacío, cual es el propósito de la mecánica clásica, y otras cuestiones; más cerca estas de los objetivos de la filosofía que de la mecánica clásica. Si bien la física clásica, es decir, la mecánica clásica, no esta dispensada de problemas de consistencia, nadie puede negar u omitir los grandes logros aquilatados. Con toda justicia podemos decir que es una teoría autoconsistente, es una teoría de las llamadas cerradas. Las
inconsistencias surgen cuando forzamos las autoevidencias supuestas para que se revelen en evidencias. ¡Esto es equivalente a pretender construir el conocimiento de la nada! Pretensión completamente absurda. Tenemos que suponer algo, para empezar. Como una primera aproximación en la descripción del mundo externo, la mecánica clásica es válida. En realidad ninguna teoría axiomática esta libre de estos problemas. La misma geometría de Euclides los tiene; empero estos no le restan ningún mérito, excepto el de ser una teoría absoluta. Basten, para ejemplificar, recordar las interminables discusiones sobre la autoevidencia de sus postulados. Discusiones que llevaron a la formulación de otras geometrías igualmente verdaderas y autoconsistentes conocidas como geometrías no-euclideanas, y posteriormente a todo un programa para la construcción de todo tipo de geometría posible. Las discusiones sobre la autoevidencia de los postulados y de las definiciones de la mecánica clásica, junto con la abrumadora evidencia experimental no explicada por los primeros, desembocaron en nuevas mecánicas. Pero antes de pasar a revisar esas nuevas mecánicas, echemos un vistazo a los principios que aun estas preservan. En la mecánica clásica se supone, por principio, la conservación de la cantidad de movimiento -ya sea lineal, ya sea angular-; también la conservación de la masa; y la conservación de la energía, cualquier tipo de energía. Dentro de la interpretación semántica de la mecánica clásica están como principios: i) La objetividad. Esto es, la postulación de un mundo externo al observador y que es factible de ser descrito por leyes naturales independientes de toda intervención de la voluntad del hombre. ii) La localidad. Esto es, todo fenómeno natural es de tipo local; quiere decir que los resultados de un experimento en la luna, por ejemplo, o en el laboratorio vecino no afectan los resultados de otro en la tierra o en otro laboratorio. iii) La causalidad. Esto es, a todo fenómeno antecede una causa o razón. iv) El determinismo. Esto es, la suposición de que podemos predecir el futuro, si conocemos con todo detalle las condiciones iniciales y las leyes que rigen el comportamiento de los cuerpos involucrados. En mecánica clásica, en principio, podemos hacerlo; conocemos las leyes que rigen y podemos conocer las condiciones iniciales con toda la precisión que querramos; no existen limitaciones a la precisión, por principio. La teoría clásica no presupone una incertidumbre inherente al proceso de medición. Si bien existen las incertidumbres en los procesos de medición, las presupone tan pequeñas como se deseen, sin que por ello nuestras mediciones queden afectadas. Dicho de otra manera, los efectos del observador sobre el fenómeno son tan péquenos que no le alteran en su naturaleza, y se pueden reducir tanto como se quiera. No existen incertidumbres en el proceso de medición, y las obtenidas están dadas por las limitaciones experimentales. v) Completez. Esto es, a cada elemento de la realidad física le corresponde un elemento de la teoría; si en una teoría esto se cumple, decimos que la teoría es completa. Tomemos como ejemplo la electrodinámica clásica. En el mundo externo existe una propiedad de la materia -puede ser observada- la electrodinámica se refiere a esta como "carga eléctrica". De esta forma a un elemento de la realidad física, se le asocia un elemento o concepto de la teoría. La teoría clásica sobre el mundo externo es objetiva, es local, es causal, es determinista, y es completa. Los principios antes numerados no son recuperados por la mecánica cuántica. como veremos más adelante.
2. La mecánica cuántica
La teoría cuántica fue introducida por M. Planck en un comunicado a la Sociedad Alemana de Ciencias Físicas en 1900. Su hipótesis fundamental fue la discretización o cuantización de la radiación electromagnética cuando es absorbida por las paredes del cuerpo negro, i.e., las paredes solo admiten-hipotetizó- unidades cuantizadas de energía. Por cuerpo negro se entiende cualquier cuerpo capaz de absorber y radiar energía al mismo ritmo. Una pared metálica pintada de negro es una buena aproximación. Una constante, ahora conocida como constante de Planck, caracteriza esta absorción. Planck no discretizó la radiación electromagnética cuando se propaga, sólo cuando es absorbida o intercambiada por o con las paredes del cuerpo negro. Con ésta hipótesis describió y reprodujo las curvas del espectro de radiación del cuerpo negro. La hipótesis de Planck fue una hipótesis muy afortunada que le tomo 4 años en formular. Aunque al principio no fue del todo claro su significado, otros físicos usaron la misma hipótesis para describir fenómenos aparentemente no conectados con el fenómeno de radiación del cuerpo negro. El efecto fotoeléctrico, por A. Einstein trabajo que le valió el premio Nóbel-. Explicación de los espectros de radiación electromagnética del átomo de hidrógeno por N. Bohr -trabajo por el cual se le concedió el premio Nóbel-; y otros muchos que cimentaron la teoría de los cuantos y acunaron la universalidad de la constante de Planck. Niels Bohr, autor de la primera teoría atómica, contribuyó sustancialmente a la creación de la mecánica del cuanto. Su teoría explicaba muy bien los espectros de radiación emitida por el átomo de hidrógeno. Tales espectros eran conocidos muy bien mucho antes de haber nacido la teoría del cuanto. Sin embargo, aunque la teoría funcionaba muy bien en átomos hidrogenoides -es decir, de un solo electrón-, fracasaba dramáticamente en átomos de más de un electrón. La teoría no contemplaba, por ejemplo, como tomar en cuenta la interacción entre dos electrones. Debido a estas y otras dificultades que la teoría presentaba, era necesario un formalismo para describir la mecánica del cuanto. Las ideas filosóficas de A. Einstein y N. Bohr contribuyeron decididamente a su formulación. Albert Einstein consideraba que toda teoría física debería basar sus conceptos en variables de tipo observable, es decir, que todo concepto físico tuviera su contraparte experimental. Consideraba que este era un requisito que toda teoría física debería cumplir. Estos requisitos los cumple la teoría de la relatividad -como veremos en la próxima sección-. Empero no los cumple la teoría atómica de Bohr. La teoría atómica de Bohr hablaba -bueno, habla porque todavía se enseña en las escuelas de física como un preámbulo para la mecánica cuántica- de órbitas atómicas, periodos atómicos, etc., ninguno de estos conceptos tiene su contraparte experimental. En la mecánica clásica existen las contrapartes experimentales a los conceptos antes señalados, luego es lícito hablar de ellos. Pero en la física del microcosmos no, por lo tanto algo estaba completamente equivocado en la teoría de Bohr. Fue W. Heisenberg, quien al aplicar el criterio de Einstein para las teorías físicas, pudo dar con el formalismo para la creación de la mecánica del cuanto. El observable fundamental resulto ser el concepto de estado cuántico. En los espectros atómicos no se observan períodos y órbitas atómicas, solo estados cuánticos atómicos. -El formalismo de Heisenberg consistió en decir como calcular amplitudes de probabilidad de que un sistema pase de un estado a otro-. El estado inicial y el estado final en una transición atómica radiactiva. Fueron estos los observables de la mecánica cuántica de Heisenberg. Se cuenta -por el propio Heinserberg- que cuando Einstein le preguntó cómo había creado la mecánica del cuanto, esto es, cómo se le había ocurrido la formulación, le dijo que simplemente había usado su requisito de observables para toda teoría física; a lo que Einstein contestó que ya había cambiado de opinión. Siguiendo con nuestra historia. Cuando Heisenberg desarrolló el álgebra pertinente se topó con un álgebra no conmutativa. Permítaseme explicar esto. En otras palabras, significa que el producto de a por b no es igual al producto de b por a. El resultado anterior preocupó enormemente al autor de la teoría, quien al principio consideró que algo andaba completamente incorrecto. Sin embargo poco después se comprendió que tal producto es posible; los matemáticos ya lo manejaban con anterioridad y llamaban a los elementos de esta
álgebra matrices, y por supuesto conocían sus propiedades de no conmutación multiplicativa. Expliquemos un poco más. Nos han enseñado que 4 x 5 es igual a 5 x 4, de aquello no hay duda. Decimos que el producto es conmutativo porque el producto final es igual en ambos casos. En general las operaciones a las que estamos acostumbrados en la vida diaria son conmutativas; la multiplicación, la suma, etc., lo son; empero podemos definir una serie de operaciones que no lo son, de tal suerte que al ejecutar una y después la otra el resultado es dramáticamente diferente de si primero aplicamos la segunda y enseguida la primera. concretemos nuestra ejemplificación: sea A, la operación de disparar una pistola; y sea B, la operación de llevar la pistola a la sien. El proceso y el producto BA son: disparar la pistola y en seguida llevar la pistola a la sien; el resultado es el pedazo de plomo en el aire. El proceso y el resultado de AB son: llevarse la pistola a la sien y en seguida disparar, el resultado es el pedazo de plomo incrustado en el cráneo; el resultado es drásticamente diferente al anterior. El primer resultado es inofensivo, y el segundo resultado es mortal. Claramente, pues, AB no es igual a BA. Luego las operaciones A y B no son conmutativas. A la mecánica de Heisenberg se le conoció con el nombre de la mecánica matricial. Otros desarrollos paralelos fueron dados por Schrödinger enteramente independientes de Heisenberg. Schrödinger planteó una ecuación de onda que describe como varía en el espacio y como evoluciona en el tiempo la función de onda que describe un estado físico -observable físico-. Esta es una ecuación diferencial de segundo orden en el espacio y de primer orden en el tiempo. Este tipo de ecuaciones eran muy conocidas en mecánica clásica. La versión de Schrödinger es análoga a la versión -en el sentido de la formulación en términos de ecuaciones diferenciales- a la formulación de la mecánica clásica. El propio Schrödinger demostró que el formalismo de Heisenberg y el de él de la mecánica cuántica son equivalentes. El formalismo de Schrödinger acarreó otro problema; que al principio no resultó fácil resolver, ya que significaba la función de onda. Diferentes escuelas le dieron distintas interpretaciones. Ésta fue una situación sin precedente en la historia de la física. Generalmente en mecánica clásica las ecuaciones eran obtenidas cuando ya se tenia una interpretación para ellas. Las ecuaciones describían situaciones físicas con las que ya se tenían experiencias directas. Luego su interpretación se seguía naturalmente. Pero esta situación no se da cuando se estudian sistemas microscópicos, donde no tenemos una experiencia directa. La interpretación de la función de onda de la ecuación de Schrödinger tomo varios años. Ésta función depende de la posición y de los momentos -tomados como operadores- y del tiempo. Si la función es propiamente normalizada, es decir, si existe una constante multiplicativa de tal manera que su módulo al cuadrado sea la unidad cuando se integra sobre todo el espacio considerado, entonces el módulo al cuadrado de la función de onda puede ser interpretado como la densidad de probabilidad de encontrar la partícula en determinada reunión del espacio a determinado tiempo. Tenemos ahora un formalismo para decir cual es la probabilidad de encontrar una partícula en cierta región del espacio a determinado tiempo. Con esto hemos perdido el determinismo de la mecánica clásica. Ya no se puede decir que la partícula esta en determinado lugar del espacio. Podemos decir tan sólo, la probabilidad de tenerla en algún lugar del espacio. Se dice que Einstein exclamó: "Dios no juega a los dados". La interpretación estadística le resultaba inadmisible; por consiguiente dedicó mucho tiempo y esfuerzos a encontrar una interpretación determinista a la función de onda. El abandono del determinismo clásico le molestaba enormemente. Nunca aceptó la interpretación probabilística de la mecánica cuántica. Niels Bohr replicaría: "no le corresponde a los físicos decirle a Dios como debe jugar". Bohr estaba satisfecho con la interpretación de la mecánica cuántica. Estos dos personajes nunca se pusieron de acuerdo. Los debates y encuentros amistosos entre estos dos científicos duraron hasta la muerte de A. Einstein en 1954. N. Bohr murió después, en 1962. Lo mas que pudo hacer Einstein fue mostrar que la mecánica cuántica no es completa, no sigue el principio de completez, aunque es lógicamente consistente. Para hacerlo,Einstein definió la realidad física: en base a su definición mostró que había elementos de la realidad física que no estaban contemplados por la mecánica cuántica; luego se seguía la incompletez de la mecánica cuántica.
Bohr aceptó la consistencia de la demostración pero objeto la definición de realidad física. Con ello el debate continuo. Era el año de 1935; diecinueve años mas tarde el debate continuaba. Aún, hoy en día algunos físicos no la aceptan. Sin embargo es la interpretación aceptada por la mayoría de los físicos. Aunque a regañadientes los físicos aceptaron la potencia de la nueva mecánica del cuanto. Otros se dieron cuenta casi inmediatamente de la utilidad de la nueva mecánica. Paul A. M. Dirac fue uno de ellos. La potencia de la nueva mecánica surgió aun más, cuando se escribió en la formulación canónica, es decir, en una forma donde aparecen las coordenadas espaciales y las variables conjugadas -momentos-; formulándola así, la nueva mecánica adquiere una forma análoga a la mecánica clásica. Las diferencias están dadas por la propiedad de no conmutación de las variables conjugadas posición y momento. Y esta formulación admite una generalización a todo tipo de variables conjugadas que no son del tipo de momento y posición. Verbigracia, las variables conjugadas pueden ser del tipo de los operadores de permutación; pueden ser los operadores que representan las rotaciones de un cuerpo en un espacio tridimensional; pueden ser operadores de creación y destrucción de partículas; pueden ser operadores de emisión y absorción de partículas; o de manera muy general podemos decir que pueden ser los elementos de un grupo cualquiera. La generalización puede ir mas lejos, al escoger apropiadamente las variables conjugadas para representar el espacio físico; y escribir ecuaciones análogas a la ecuación de Heisenberg en este espacio, sin que se requiera una analogía clásica, y aun poder interpretar la función de onda al cuadrado como una densidad de probabilidad. A pesar de todos los logros sorprendentes de la formulación de la mecánica cuántica, subsistía una dificultad; como hacerla compatible con la teoría especial de la relatividad. En la próxima sección revisaremos brevemente las hipótesis y consecuencias de la relatividad especial; luego veremos como se resolvió el problema de hacer compatible la mecánica cuántica y la teoría especial de la relatividad.
3. La relatividad especial La teoría especial de la relatividad fue introducida por Albert Einstein en 1905. Once años más tarde introdujo la teoría general de la relatividad donde compaginó la teoría especial de la relatividad y la teoría de la gravitación. Como en partículas submicroscópicas las interacciones gravitacionales son pequeñas -al menos ese es el sentimiento generalizado, no se toman en cuenta cuando se formula la teoría de partículas elementales; esto quiere decir que la teoría general de la relatividad no se toma en cuenta, solamente se hace uso de la teoría especial de la relatividad dado que intervienen altas velocidades. La teoría especial de la relatividad surgió casi como una consecuencia natural después de examinar algunas inconsistencias de la electrodinámica de los cuerpos en movimiento. La teoría de Maxwell -conocida como electrodinámica clásica- requería, según versión del propio Maxwell, la existencia de un marco de referencia de propiedades mecánicas extrañas y contradictorias, donde la velocidad de las ondas electromagnéticas fuera c y solamente c (la velocidad de la luz en el vacío). No se concebía, según la visión mecánica del universo, la propagación de una onda sin requerir de un medio que la condujera. (El sonido requiere de un medio material para propagarse). Por ello se invento el éter (el medio ficticio que desempeñaba el papel del medio donde la luz se propaga). Este medio debería tener propiedades extrañas. El experimento de Michelson & Morley desmintió la existencia de un marco de referencia como el del éter. Dejando por sentado que la velocidad de la luz es independiente de la velocidad de la fuente. Algo incomprensible según la mecánica clásica; donde la velocidad de la fuente mas la velocidad de la perturbación sería la nueva velocidad de la perturbación, si se le observara desde otro marco de referencia. Para la luz esta ley de adición no parecía funcionar, y no funciona. Basándose en las
consideraciones anteriores, Einstein postuló que la velocidad límite máxima para los objetos materiales es la velocidad de la luz en el vacío. Y además, ésta es una constante independiente del marco de referencia desde el cual se mide. Con estos dos postulados transformó la mecánica de Newton en mecánica válida para objetos a bajas velocidades comparadas con la velocidad de la luz- en una nueva mecánica -mecánica relativista- válida para objetos que se mueven a cualquier velocidad menor que la velocidad de la luz en el vacío, por supuesto. La mecánica relativista contiene en el límite a bajas velocidades la mecánica de Newton. En la mecánica relativista las coordenadas espaciales quedan en la misma categoría que la coordenada temporal y viceversa. Las coordenadas espaciales se funden con la coordenada temporal en una formulación tetradimensional de la mecánica. Diciéndolo de otra manera, podemos agregar que la mecánica relativista puede ser formulada exigiendo que la coordenada temporal sea simétrica con las coordenadas espaciales, excepto por algunos cambios de signo que ocurren en las ecuaciones. La teoría especial de la relatividad tuvo sus predicciones espectaculares corroboradas, al comprobarse la dilatación temporal y la contracción de la longitud. Según la teoría especial de la relatividad, la energía de una partícula es la suma de su energía en reposo -la energía que le corresponde en virtud de su masa- y la energía cinética -energía que le corresponde en virtud de su movimiento-. Para una partícula en reposo, la energía se escribe como el producto de su masa por el cuadrado de la velocidad de la luz. Otra predicción de la teoría especial de la relatividad. La conversión de materia en energía, desprendida de la formulación anterior, en una pila atómica o en una desintegración radiactiva cualquiera -reacciones donde se consume masa. Esta predicción fue espectacularmente confirmada. Con ello cambió la política mundial y la forma de hacer la guerra. Nació la bomba atómica en 1945. Las estrategias de los gobiernos cambiaron para siempre, el mundo no volvió a ser el mismo.
4. La mecánica cuántica relativista La mecánica cuántica de Heisenberg o la de Schrödinger es una mecánica no relativista. Es válida para sistemas de partículas a bajas velocidades. Para hacer válida la mecánica cuántica a altas velocidades es necesario hacerla consistente con la teoría especial de la relatividad. Se ha indicado anteriormente que la teoría especial de la relatividad puede ser formulada haciendo que la coordenada temporal sea simétrica con respecto a las coordenadas espaciales. Esta es la idea que vamos a aplicar para hacer consistente la mecánica cuántica con la teoría especial de la relatividad. La ecuación de Schrödinger es una ecuación asimétrica en sus coordenadas espaciales y temporales. En ella aparecen los operadores temporales a la primera potencia, y los operadores espaciales a la segunda potencia. Podemos hacer esta ecuación consistente con la teoría especial de la relatividad exigiendo que los operadores, tanto espaciales como temporales, sean del mismo orden; ya sea de segundo orden o de primer orden. Veamos que ocurre cuando pedimos que ambos operadores sean de segundo orden. Para hacerlo simplemente se usa la expresión para la energía relativista al cuadrado y el operador temporal al cuadrado. Con ello los operadores espaciales y temporales quedan ambos al cuadrado y a la vez simétricos. Esta ecuación fue adivinada primeramente por L. de Broglie, y es conocida como la ecuación de Broglie. Fue adivinada porque no se dedujo, simplemente se planteó. La ecuación de Broglie puede ser modificada para incluir la influencia de un campo electromagnético externo. La ecuación resultante es una ecuación algo complicada. Y además satisface los requerimientos de la teoría especial de la relatividad, y es como la ecuación de Schrödinger. Esta ecuación es conocida como la ecuación de Klein & Gordon. Se dice que fue en realidad descubierta por Schrödinger, pero el nunca la publicó debido a que no da el espectro correcto del átomo de hidrógeno; Schrödinger siempre estuvo insatisfecho con esto. Muchos físicos estaban satisfechos con la ecuación de Klein & Gordon a pesar de las serias dificultades que esta
presenta. Aunado a lo anterior, la densidad de probabilidad dada por la ecuación de Klein & Gordon no está bien definida; esta no viene dada por el cuadrado de una amplitud, sino que puede tomar valores positivos y negativos; lo cual la hace inadmisible. Los físicos interpretaban esta expresión, que puede tomar valores negativos y positivos, como una densidad de carga. Todos los físicos estaban contentos con usar la ecuación de Klein & Gordon y su interpretación. Todos, excepto Dirac. A Dirac le disgustaba que la teoría de Klein & Gordon violara algunas de las características que hacían a la teoría de Schrödinger elegante y general; como la teoría de transformaciones. Quebrantaba la teoría de transformaciones porque no había forma posible de trasformar la función de onda para ser referida a otras variables distintas a las de posición, como se puede hacer en la teoría de Schrödinger. Dirac cuenta que en aquella época los físicos parecían contentos con la ecuación de Klein & Gordon a pesar de todas las dificultades que presentaba. Dirac se planteó el problema de encontrar una ecuación de onda consistente con la teoría especial de la relatividad y que preservara las características de la teoría de transformaciones. Dirac encontró que la otra alternativa que mencionamos era la solución correcta. Es decir, exigir que todos los operadores que aparecen en la ecuación sean de primer orden y no de segundo orden como en la ecuación de Klein & Gordon. La ecuación que resulta se conoce como ecuación de Dirac. La nueva ecuación cumple con los requerimientos de la simetría impuesta por la teoría especial de la relatividad y con los requerimientos fundamentales de la mecánica cuántica. La ecuación de Dirac resultó útil para describir una partícula de espín un medio del cuanto y con momento magnético. Estos resultados no estaban contemplados originalmente por Dirac. Los físicos a menudo resuelven una dificultad y les aparecen otras. La ecuación de Dirac resolvió las dificultades que planteaba la ecuación de Klein & Gordon pero otra se hizo evidente. La función de onda de la ecuación de Dirac presentaba 4 componentes, en vez de una como la ecuación de Schrödinger; una función de dos componentes era perfectamente aceptable y comprensible, cada una de las componentes se refería a un estado posible del espín del electrón, pero cuatro componentes exigía ir al límite de la imaginación de los físicos. Al principio no fue entendido el significado de la función de onda con cuatro componentes. Sin embargo, Dirac logro darle un interpretación satisfactoria. Las primeras dos se referían a los dos posibles estados del electrón con energía positiva, y las otras dos a los mismos estados posibles pero con energía negativa. Los estados de energía negativa se antojaban inadmisibles. Por primera vez los físicos se preocuparon por entender el significado de estados físicos con energía negativa. Por supuesto, esta no era la primera vez que los físicos se topaban con el problema de la energía negativa; en la teoría especial de la relatividad aparecen cuando escribimos la energía como la raíz cuadrada de la suma de el producto del momento por la velocidad de la luz al cuadrado y el producto de la masa por la velocidad de la luz al cuadrado al cuadrado. En la teoría cuántica aparecen estados de energía negativa porque usamos la expresión descrita anteriormente para escribir la energía. Aparecen en la teoría de Klein & Gordon y en la teoría de Dirac. En la teoría de la relatividad no nos preocuparon mucho los estados con energía negativa; tales estados no se observan. Si una partícula posee energía positiva permanecerá ahí sin oportunidad de pasar a estados con energía negativa, al menos si nos restringimos a la visión clásica. Los niveles de energía para una partícula, según la teoría de la relatividad, consiste de todos los estados desde la energía que le corresponde a su masa en reposo hasta el infinito; y además de todos los estados desde la energía que le corresponde a menos su masa es reposo hasta el menos infinito. Según la visión clásica, si una partícula tiene energía positiva no puede transitar a estados de energía negativa y viceversa. Sin embargo esta situación no se tiene en mecánica cuántica, donde es posible brincar desde estados de energía positiva a estados de energía negativa sin pasar por los estados intermedios. Si empezamos con una partícula en los estados con energía positiva, esta puede pasar a los estados con energía negativa. Luego el problema de los estados de energía negativa fue el problema más grave de la teoría de Dirac. La solución de este problema condujo al concepto de antimateria.
Un electrón en un campo electromagnético exterior puede tener transiciones desde los estados de energía positiva a los estados de energía negativa, inducidas por el campo electromagnético exterior. El mismo Schrödinger sugirió algunas posibles soluciones, al problema de los estados de energía negativa, ninguna de ellas funcionó satisfactoriamente; y como no podían deshacerse de los estados de energía negativa, lo mas natural fue encontrarles una interpretación. Por supuesto no se permiten físicamente; los estados con energía negativa no se observan en el laboratorio. La interpretación puede ser realizada usando el principio de Pauli. Éste sugirió que la propiedades de la tabla periódica podían ser explicadas satisfactoriamente si se consideraba que un estado cuántico solo puede ser ocupado por un electrón. Un estado cuántico se refiere al estado de movimiento y de espín, en conjunto, del electrón. Este enunciado es conocido por el nombre de principio de exclusión de Pauli. Este describe una de las propiedades del electrón. Dos de ellos no pueden estar en un mismo estado cuántico. Usando este principio podemos imaginar que todos los estados posibles de energía negativa, en nuestro mundo tal y como lo conocemos, están llenos con un electrón en cada uno de ellos. Con esto estamos requiriendo una densidad infinita de electrones porque los estados se prolongan hasta menos infinito. Imaginamos esta situación como un mar de electrones, infinito y sin fondo. Debemos suponer también que los electrones de este mar infinito no contribuyen al campo electromagnético. Debemos suponer además que en el vacío todos los estados de energía positiva están desocupados y todos los estados de energía negativa están completamente ocupados. Con ello podemos suponer que las desviaciones de esta distribución son las que contribuyen al campo electromagnético. Con la imagen de un mar infinito de electrones llenando todos los posibles estados de energía negativa, los posibles saltos desde los estados de energía positiva hacia estados de energía negativa por los electrones quedan prohibidos, por el principio de Pauli.
5. La teoría de hoyos Existe la posibilidad de que un electrón salte a estados de energía negativa, y la situación se da cuando existe un hoyo en el mar de electrones con energía negativa; es decir, si hay un estado vacante en el mar que puede ser ocupado por un electrón. Cuando el electrón baja al estado de energía negativa, ambos, el electrón y el hoyo desaparecen, y la energía aparece en otra forma; esta se observa como dos veces la energía del electrón original. La energía que se observa puede ser en forma de fotones. Los hoyos aparecen en la distribución de energías negativas del electrón, y se revelan como nuevos entes en la teoría. Debemos tener una interpretación para estos. De acuerdo con la teoría de Dirac, la transición de los electrones desde estados con energía positiva a estados con energía negativa es insoslayable. Entonces lo más razonable es buscarles una interpretación física a esas transiciones. Dirac planteó la siguiente hipótesis: la imagen de vacío es ya no de una región donde no existe nada, sino de una región donde todos los estados con energía negativa están completamente llenos. Para Dirac la imagen de vacío más razonable es aquella región del espacio que esta en su estado más bajo de energía posible. Mientras mas se agreguen electrones al estado de energía negativa mas baja será su energía. El estado mas bajo se logrará cuando todos los estados estén ocupados. Esta es la imagen de vacío planteada por Dirac. Un hoyo en ese mar de energía negativa aparece como una partícula; una partícula con energía positiva, ya que para hacer desaparecer el hoyo debemos agregar energía negativa. Podemos ir un poco mas lejos y preguntarnos como se va a mover el hoyo bajo la influencia de un campo electromagnético externo. Las ecuaciones de movimiento para una partícula cargada en un campo electromagnético y en estados de energía positiva se aplicarían para una partícula en estados de energía negativa. No existe algún argumento para no aplicar estas ecuaciones, en principio podemos usarlas. Existirá diferencia en su trayectoria, y nada más.
La diferencia esta en que la segunda se movería como lo haría la primera en el caso de tener la carga eléctrica opuesta. Entonces los hoyos en un campo electromagnético externo se moverían exactamente como electrones con carga eléctrica positiva. Un hoyo en los estados de energía negativa se mueve como si tuviera una carga eléctrica positiva; de aquí que su movimiento corresponde al de una partícula en estado de energía positiva y carga positiva. Resta investigar su masa. La teoría es completamente simétrica, por lo tanto lo más natural es suponer que la masa de un hoyo sea idéntica a la masa de un electrón. Sin embargo Dirac dudo de esta situación porque en aquella época la única partícula cargada positivamente conocida era el protón. Parece que estaba enterado de la enorme diferencia de masas entre el protón y el electrón, y de la simetría entre los estados de energía positiva y los estados de energía negativa que el mismo estaba proponiendo; aun así apoyo la idea corriente de que la materia en su totalidad debía ser explicada tomando en cuenta únicamente, como entes cargados, a los electrones y a los protones. Era común pensar que sólo se requerían dos partículas, una cargada positivamente y otra cargada negativamente -el protón y el electrón en orden respectivo-. No se requería mas, según sentimiento generalizado de la época. Pero la naturaleza es mas rica que la imaginación, a veces. La opinión imperante era que no se requerían nuevas partículas para explicar la materia del mundo observable. Lo cual es cierto; pero también era cierto que estaban mirando cosas que no son usuales o corrientes en este mundo. Por ello Dirac, penso que el hoyo seria el protón. Dirac cedió a la corriente de opinión imperante y publicó su artículo sobre la teoría de hoyos con el nombre de la teoría de los electrones y protones. Rápidamente encontró oposición a su interpretación; principalmente de parte de los físico matemáticos; H. Weyl, físico matemático de la Universidad de Göttingen, por ejemplo. Weyl estableció categóricamente que la teoría demandaba que la masa del hoyo debería corresponder a la masa del electrón. Y por lo tanto el hoyo sería algo no usual y desconocido hasta entonces por los físicos. Sin saberlo siquiera sus autores, la antimateria había nacido. Y a Dirac se le iba de las manos un premio Nóbel.
6. Detección de la antimateria Años después de la publicación del artículo de Dirac, se anunció que una partícula con la masa del electrón y carga positiva había sido descubierta. Al parecer fue Blacket el descubridor de esta partícula -se lo contó a Dirac-, sin embargo no publicó nada porque sería que las evidencias que tenía no eran suficientes, y mientras se hacía de mas evidencias otros físicos publicaron resultados conclusivos. Anderson fue quien publicó estos resultados definitivos sobre la existencia de antielectrones. En la época se examinaban trazas de partículas cargadas, moviéndose en un campo magnético, dejadas en cámaras de Wilson. Partículas cargadas con un signo se mueven en cierta dirección, las cargadas con el signo opuesto se mueven en dirección opuesta. Empero, si uno observa una trayectoria curvada en una dirección, no sabe uno si interpretarla como la trayectoria de una partícula cargada con un determinado signo moviéndose en una dirección, o bien como la trayectoria de una partícula cargada con el signo opuesto moviéndose en la dirección inversa. En las fotografías tomadas con cámaras de Wilson, los físicos notaban frecuentemente que algunas trayectorias podían interpretarse como electrones saliendo de una fuente -fuente radiactivamientras que otras podían ser interpretadas como electrones moviéndose hacia la fuente o entrando a la fuente. Situación por demás singular. Como esto ocurría con mucha frecuencia para ser casualidad, los físicos se dieron a la tarea de investigar el fenómeno. Para determinar la naturaleza de la partícula bastaba con investigar la naturaleza de su carga, o bien la dirección hacia la cual se estaba moviendo. Anderson interpuso una placa de plomo en las trayectorias de las partículas, con el fin de pararlas; observo a ambos lados de la placa de plomo. Como la partícula es frenada, en el lado que lleve menor velocidad su trayectoria será mas curvada que en el lado donde lleve más velocidad. Como las partículas no pueden obtener energía de la placa de plomo, solo perderla, entonces la partícula venía de la región de donde la curvatura es mayor hacia la región en donde su curvatura es menor -es mas lenta-. Con este método la dirección de la trayectoria se
determinó. Todas las trayectorias resultaban de partículas que provenían de la fuente; ninguna partícula entraba. Las trayectorias de partículas que parecían entrar a la fuente correspondieron a partículas que salían pero con carga opuesta a la carga del electrón. Electrones positivos o positrones. Por este descubrimiento a C.D. Anderson se le otorgó el Premio Nóbel en 1936. Desde el descubrimiento de Anderson, los positrones se han observado innumerables veces. Los positrones son la antimateria de los electrones. Hoy en día ya son partículas fácilmente manejables, y se presentan a diario en el seno de los aceleradores de partículas en varias partes del mundo. Los argumentos anteriores llevaron a descubrir los positrones, esto es, los antielectrones. Resta responder una pregunta. Y concierne a la existencia de las antipartículas en general. ¿Existe la antipartícula para cualquier partícula que exista o se pueda crear? La respuesta es afirmativa. Primero; para toda partícula que siga la estadística que sigue el electrón, es decir la estadística que siguen las partículas de espín un medio, los argumentos delineados anteriormente conducen a la predicción de la existencia de su correspondiente antipartícula. Por ejemplo para el protón, existe el antiprotón; para el neutrón, existe el antineutrón, etc. Aunque en estos dos últimos casos las situaciones son un poco mas complicadas que en el caso de los electrones, porque si bien siguen una ecuación de onda parecida a la ecuación de onda de los electrones, para el caso de los protones la ecuación de onda es un poco mas complicada. Las complicaciones se derivan de la intervención de otras fuerzas además de las electromagnéticas. Podemos seguir visualizando las antipartículas de estas partículas como estados no ocupados en los estados de energía negativa asociados a las partículas. Estos, como en el caso de los electrones, aparecerán como partículas diferentes; con la misma masa y con la carga opuesta. Con la imagen anterior abrimos la posibilidad de crear pares de partículas y antipartículas; basta con perturbar el vacío apropiadamente para obtener un par de partícula antipartícula. El proceso de crear un par partícula-antipartícula lo podemos ver como sigue: si ya creamos un par, lo que ha ocurrido es que hemos sacado una partícula de los estados de energía negativa hacia un estado observable, como lo es el estado de energía positiva; el hueco en los estados de energía negativa lo observamos como la antipartícula de la partícula que hemos sacado, y se ve como una vacante en los estados de energía negativa, i.e., energía positiva. Decimos que hemos creado un par. Por supuesto el proceso inverso también es posible; un par partícula antipartícula puede ser destruido, sus cenizas estarán compuestas de fotones. La energía que se requiere para crear un par es dos veces la energía de la partícula en reposo. Para el caso del electrón positrón es alrededor de un millón de electrón voltios, es decir, un millón de veces la energía cinética que adquiere un electrón cuando cae a través de la diferencia de potencial de un volt. La energía que se requiere para crear un par de protón antiprotón es cerca de 4,000 veces mayor. Estas energías son fácilmente alcanzables por la tecnología moderna; esto quiere decir que pares de protones antiprotones, de neutrones-antineutrones, y de electronesantielectrones son fácilmente creados en los laboratorios de altas energías en el mundo. Antimateria en general puede ser creada; antideuterios, antihelios, etc., han sido producidos en los laboratorios, antiátomos livianos también. Las partículas que no satisfacen el principio de Pauli también tienen sus antipartículas, aunque no siguen la estadística de las partículas que cumplen con el principio de Pauli. Las primeras, aquellas que no siguen el principio de Pauli, son llamadas bosones, y las que lo cumplen son fermiones. Para los bosones, algunas partículas son sus mismas antipartículas; como es el caso del portador de la interacción electromagnética, el fotón. Para algunos bosones cargados sus antipartículas son las partículas con el signo opuesto de la carga eléctrica. Por supuesto para los bosones ya no tenemos la imagen de un vacío con los estados de energía negativa llenos completamente, y la teoría se hace mas complicada. Las ideas de Dirac, sobre la antimateria, son solo cualitativas. Ideas alternas han sido desarrolladas por Stückelberg, Feynman y otros. La idea que se explota es: los positrones, en general toda la antimateria, pueden ser considerados como electrones, materia en general, con el tiempo real invertido o corriendo hacia el pasado. Es decir la antimateria seria la materia ordinaria pero corriendo hacia atrás en el tiempo.
Con el desarrollo de la teoría de la antimateria la idea de partícula elemental se hizo más vaga. La idea de partícula elemental, como aquella que es el bloque fundamental desde el cual se construyen las demás no tiene sentido; porque en el proceso de división de la materia nuevas partículas pueden ser creadas a partir de la energía de las partículas que se están dividiendo, y no significa que estaban dentro de las partículas que se disociaron. Por esta razón no podemos describir de una manera simple los últimos constituyentes de la materia. Los físicos ahora batallan con un gran número de partículas, todas ellas parecen igualmente fundamentales; lo que hacen en este tiempo es estudiar las transformaciones de estas en otras. Pero ya no las piensan como fundamentales. La antimateria ahora es un hecho, aunque tecnológicamente su uso y manejo es limitado. Empero existen aceleradores de partículas que en una dirección circula materia, digamos electrones también los hay en donde circulan protones-, y en la dirección opuesta antimateria, los antielectrones o antiprotones en su caso. Cuando estos dos pedazos de materia antimateria se encuentran se aniquilan uno al otro y surgen fotones u otras partículas. Lo mismo ocurriría con un bloque de materia y otro bloque de antimateria que se juntasen. La materia y la antimateria, juntas, seria la forma de explosivo mas poderoso que jamás se haya inventado. Tan sólo nos limita su uso la tecnología para poder guardar un pedazo de antimateria sin que interacciones con la materia ordinaria. El rastro electromagnético que deja la antimateria es igual al rastro que deja la materia. Estudiando solamente sus espectros electromagnéticos no podríamos decir cual es materia y cual es antimateria, hasta hacerlos que se junten; si explotan, es antimateria, si no lo hacen es materia. Esto da pie a la especulación de la existencia de estrellas y galaxias formadas de antimateria. Incluso la especulación sobre la existencia de universos formados enteramente de antimateria. No lo sabremos nunca, a no ser que se descubra un método para distinguir la materia de la antimateria sin necesidad de ponerlas en contacto. Por último, nuestro universo esta formado básicamente de materia, esta asimetría es un misterio. En un misterio desde el punto de vista de la teoría de antimateria que hemos explicado. Tal teoría sabemos que funciona; sin embargo nada asegura que sea completa. Siguiendo con su lógica: ,Donde quedo la antimateria que debería estar en nuestro mundo? La antimateria solo la conocemos por las trazas que deja en una cámara u otro medio para detectarse. Esta se crea en los laboratorios, en las estrellas, en las desintegraciones nucleares, pero es una ínfima cantidad comparada con la cantidad de materia que observamos. Y su vida es efímera. ,Por que nuestro universo esta formado por una sola clase de materia a la que llamamos simplemente materia? Quizá estemos lejos de descubrir este enigmático misterio. Porque es mucho lo que ignoramos sobre nuestro universo. Los científicos, en particular los físicos, se entregan a estas hermosas investigaciones . Lecturas recomendadas Feynman, R.P. (1994). Six Easy Pieces. Addison-Wesley. Félix, J.(1992). Distinguibilidad de los neutrinos. Avance y Perspectiva,11: 211. Selleri, F. (1986). El debate de la teoría cuántica. Madrid: Alianza Teller, E.(1991). Conversations on the Dark Secrets of Physics. Plenum.
Autor: Julián Félix Valdez Instituto de Física, Universidad de Guanajuato Apartado Postal E-143 C. P. 37150 León, Gto., México
*********************************** La Antimateria: Hasta 1928, en la física ni siquiera como concepto se había desarrollado la idea de antimateria y, mucho menos, la capacidad de producirla. Pero el estadio cambió cuando se empezaron a conocer los estudios del físico británico Paul Dirac. En la práctica, todo comienza con los trabajos de Dirac que publicó en el año 1929, en una época que coincide con los tiempos que se descubrían los primeros secretos de la materia, se teorizaba sobre el comportamiento de las partículas que comportan la fuerza débil, y se profundizaban los estudios de los componentes de los átomos, especialmente en la teorización de lo que se llama fuerza fuerte. Fueron tiempo en que la audacia tuvo una preeminencia como rol intelectual dentro del mundo de la física, en el cual se plantearon conceptos como el de la mecánica ondulatoria, el principio de incertidumbre o, también, el descubrimiento del espín en los electrones. Se dice que fue una de las épocas más exotérica de la física, en la cual hubo ejercitantes que concurrieron a simpáticas metáforas para hacer más accesibles sus teorías, como fue el caso del físico austríaco Erwin Schroedinger cuando apeló a la historia de los gatitos para exponer su principio de indeterminación, con el cual describía en síntesis que las partículas más pequeñas tienen un comportamiento que, dentro del razonamiento común, no es el mayormente aceptado por las personas. La descripción anterior, implica ubicar el escenario en el cual Paul Dirac estaba inserto cuando planteó que donde había materia, también podía haber antimateria. Concretamente señaló, que si el átomo tenía partículas de carga negativas llamadas electrones, debía haber partículas que fueran "electrones antimateria", a los que se les llamó positrones y que debían tener la misma masa del electrón, pero de carga opuesta y que se aniquilarían al entrar en contacto, liberando energía. Este descubrimiento de Dirac fue tan revolucionario que lo hizo merecedor del premio Nobel en el año 1933. El siguiente paso se dio en 1932, cuando Carl Anderson, del Instituto Tecnológico de California, en un trabajo de experimentación confirmó la teoría de Dirac al detectar la existencia de un positrón al hacer chocar rayos cósmicos. Pasaron dos décadas para dar otro salto y este vino en 1955, cuando un equipo de la Universidad de Berkeley formado por los físicos Emilio Segre, Owen Chamberlain (ambos ganadores del Nobel de física de 1959), Clyde Weingand y Tom Ypsilantis lograron hallar el primer antiprotón, o sea, la primera partícula especular del protón que es la partícula de carga positiva del átomo. Un año después, con el uso de las mismas instalaciones, otro equipo, formado por Bruce Cork, Oreste Piccione, William Wenzel y Glen Lambertson ubicaron el primer antineutrón, el equivalente a la partícula de carga neutra de los átomos. La carrera por las tres antipartículas básicas - equivalentes a la neutra, la negativa y la positiva - estaba terminada. Otro paso lo dieron los soviéticos, que por el año 1965 contaban con el acelerador de partículas más poderoso de los existentes en esos momentos. En un trabajo encabezado por el físico León Lederma, los soviéticos lograron detectar la primera partícula compleja de antimateria, el antineutrino, formado por dos partículas básicas. Posteriormente, usándose el mismo acelerador se detectó el antihelio. Con la inauguración, en 1978, de las instalaciones europeas del Centro de Investigación de Alta Energía (CERN) de Ginebra, y los avances tecnológicos que ello implicó, se pudo lograr crear antitritio y, en 1981, realizar el primer choque controlado entre materia y antimateria, con lo que comprobaron una hipótesis valiosa: la cantidad de energía liberada por el mismo choque era enorme, mil veces superior a la energía nuclear convencional. Pero para la receta para generar antiátomos faltaba un ingrediente que permitiera la combinación de antipartículas para poder producirlo, lo que precisamente faltaba era una fórmula para conseguirlo. La dificultad radicaba en la velocidad con que se producen las partículas de antimateria y sus violentas colisiones. Era necesario contar con una fórmula que permitiera desacelerarlas o igualar su velocidad para unirlas, interrogante que fue respondida, en parte, por los trabajos del
profesor de física de la Universidad de Stanford Stan Brodsky y por el ingeniero físico chileno Iván Schmidt. En 1992, Brodsky y Schmidt publicaron sus trabajos de complejos cálculos en los cuales sugerían la fórmula de un método para producir antiátomos, o sea, como poder unir antielectrones y antiprotones. Pero también se requería capacidad de experimentación. A ellos llegó Charles Munger, quién formó su propio equipo en Chicago para realizar los experimentos. Pero las publicaciones nortearnericanas-chilenas también llamaron la atención de físicos europeos del CERN donde se formó un equipo multinacional encabezado por Walter Oelert con el objetivo de experimentar en la creación de un antiátomo. En la práctica, con ello, se dio una competencia científico-mundial para alcanzar este logro. El 4 de enero de 1996, los científicos del CERN anunciaron el éxito de haber obtenido en un proceso de experimentación, no uno, sino nueve antiátomos de hidrógeno. No se trata de partículas fundamentales o de pequeñas combinaciones, se trata - en propiedad - de lo que se puede mencionar como átomos de antihidrógeno. El método propuesto por la pareja Brodsky y Schmidt consistió, básicamente, en hacer chocar un haz de antiprotones con un gas y, en cuyo proceso, se producirían pares de electrónpositrón; luego, de esos positrones, una pequeña fracción viajaría casi a la misma velocidad de los antiprotones, lo que implicaría que los positrones sean capturados por un antiprotón, lo que haría que ambas antipartículas se combinaran para formar un antiátomo. Los antiprotones rompen los núcleos del xenón y crean algunos pares de electrón y positrón(2). Una fracción de estos pares es capturada por los antiprotones, alrededor de los cuales pasan a orbitar; se crean átomos de anti-hidrógeno(3). Como estos átomos son eléctricamente neutros, el campo magnético del acelerador no los desvía y continúan una trayectoria recta que los lleva a atravesar a gran velocidad una fina barrera de silicio(4). Mientras que el antiprotón continúa su camino, el positrón choca contra el electrón(6) con lo que ambas partículas se aniquilan. Ahora, el experimento que hizo el CERN consistió en la elección del hidrógeno como elemento de trabajo porque es el más simple y abundante de todos los que conforman el universo. Con apenas dos componentes - uno positivo y otro negativo - era lo más sencillo. El acelerador LEAR, con el cual se realizó el experimento, disparó un chorro de antiprotones a través de una fina nube de gas xenón. Los antiprotones rompieron los núcleos del xenón y crearon algunos pares de electro-positrón. Una fracción de estos pares fue capturada por los antiprotones, lo que implicó que empezaran a orbitar alrededor de ellos; entonces se crearon antiátomos de hidrógeno. Como estos antiátomos son neutros, el campo magnético del acelerador no los desvía y continuarán una trayectoria recta que los lleva a atravesar a gran velocidad una barrera de silicio. Mientras tanto el antiprotón continúa su camino, el positrón choca contra el electrón aniquilándose ambos. El resultado es una emisión de rayos gamma que choca contra la barrera de silicio y delata lo que ocurrió. Uno de los problemas interesantes para desarrollar el proceso fue el de poder establecer como poder atrapar la antimateria. Una de las dificultades era la de evitar que la antimateria explotara al tomar contacto con la materia. La solución a la cual se llegó, en los trabajos realizados por el CERN, fue la de usar un envase diseñado por el Laboratorio Nacional de Los Álamos de EE.UU.. Este tipo de envase consiste en mantener a la partícula de antimateria en forma estable por medio de campos eléctricos y magnéticos. Un ciclotrón puede frenar a un antiprotón de modo que pueda ser capturado, detenido y paralizado con campos magnéticos. Una vez quieto, el antiprotón es introducido en un envase que comporta un vacío interior para evitar choques con átomos de aire y el magnetismo impide que el antiprotón toque sus paredes, detonando una explosión de rayos gamma. En el proceso se detectaron once choques contra la barrera, de éstos, nueve son considerados indudablemente causados por la aparición de antiátomos de hidrógeno; sobre los otros dos hay dudas. El antiátomo de hidrógeno producido, sólo dura 10 segundo antes de
encontrar materia a su paso y desaparecer y, fue por eso, que Brodsky y Schmidt propusieron en sus trabajos la creación de un campo magnético para poder detectar los antiátomos en medio de todas las partículas que se generan en el proceso. Las partículas - que tienen cargas positivas o negativas - comportarán una órbita curva, pero el antiátomo (cuya carga total es neutra) no será afectado por el campo magnético y saldrá en línea recta. El antihidrógeno es el estado más simple del límite atómico de la antimateria y, hasta el anuncio efectuado por el CERN en enero de 1996, nunca antes se había observado experimentalmente. Se logró sintetizar un átomo de antimateria desde sus antipartículas comitentes. El átomo de hidrógeno ha sido uno de los sistemas físicos más importantes para una variedad amplia de medidas fundamentales relativas al comportamiento de la materia ordinaria. La producción de antihidrógeno abre las puertas para una investigación sistemática de las propiedades de la antimateria y la posibilidad única de comprobar principios físicos fundamentales. En la cosmología podemos prever que a futuro se podrán contar con tecnologías que permitan investigar con más y mejor precisión la estructura del universo y, por ende, las características y fuentes de emisión de antimateria en él. Para ello en particular, la NASA ha desarrollado un proyecto para instalar en la estación espacial Alpha, en el año 2002, un detector de antipartículas que se la ha denominado Espectrómetro Alfa Magnético (AMS). El instrumento está diseñado para detectar antimateria atómica (hasta ahora solamente se han observado antipartículas) entre las partículas de los rayos cósmicos, que a la velocidad de la luz bombardean intensamente la Tierra. La mayor parte de ellas provienen del Sol y también de remanentes de estrellas que han explosionado en nuestra galaxia, pero la detección de las más energéticas se ha conseguido en lugares ubicados próximos al centro de la Vía Láctea y de fuentes lejanas de ésta. En consecuencia, serán estos últimas los blancos focalizado para ejecutar los procesos de detección de antimateria atómica espacial. Pero no sólo para el campo de la investigación en física la producción de antimateria tiene ribetes de excepción, si no que también en otros campos de la ciencia podría tener aplicaciones inmensas como el aerospacial, o como ya se ha demostrado en la medicina, etc.... Podemos soñar con energía ilimitada y barata; motores para naves interestelares que podrían desarrollar velocidades a más de un tercio la de la luz; mayor intensidad en la exploración del espacio y, por supuesto, muchas otras cosas más que, por ahora, podrían ser consideradas pura ciencia ficción. Al momento de escribirse estas líneas, solamente se han desarrollado en laboratorio diecinueve antiátomos de hidrógeno y el equipo de norteamericanos encabezados por Charles Munger proyecta a futuro, lograr unos cien. Lo anterior, no significa que se podrá contar en el corto plazo con reactores de materia-antimateria, o que pronto se podrán unir antiátomos para crear antimoléculas y, luego, anticosas. Por ahora, es mejor considerarlo como ficción. Consideremos que para poder contar con un supercombustible de antimateria para viajes espaciales, hay todavía que pasar una multiplicidad de obstáculos. El primero es encontrar un método para crear antiátomos en reposo, en vez de alta velocidades, para que no desaparezcan al chocar con la materia. Luego, habría que producir 1020 de estos, por lo menos. Lograrlo, no es imposible, pero por ahora debe ser considerado a un largo plazo. En cuanto a las "anticosas", es mejor adherirse a la idea de que nunca se puedan concretar. Se escogió hacer un antiátomo de hidrógeno porque este es el más simple de todos. Pero para producir moléculas de antiátomos, sería necesario crear antiátomos más complejos, y luego unirlos, lo que teóricamente es factible, pero de ahí a la práctica es casi invisualizable.
Antimateria Particulada Cósmica
Detectar antimateria generada en el cosmos no es una cosa fácil. Hasta ahora, solamente se ha podido observar una nube de positrones que fue detectada cerca de un torrente de rayos gamma, ubicado en las cercanías del centro de la Vía Láctea, y que estaba siendo monitoreado por el espectrómetro OSSE. Tanto de la nube de positrones como de los rayos gamma no se conocen las fuentes de origen, se presume que deberían encontrarse en algún lugar aledaño entorno al centro de la galaxia.
Nube de Antimateria Particulada Cósmica Para detectar y estudiar las emisiones de rayos gamma en la Vía Láctea la NASA, el 5 de abril del año 1991, colocó en el espacio el satélite científico Compton Gamma-Ray Observatory (CGRO) con cuatro instrumentos orientados a localizar los rayos y a estudiar sus espectro electromagnético dentro de una banda de rangos de energía que va desde los 30_[KeV]a los 30_[GeV]. En el proceso de localización de rayos gamma, el OGCR ha logrado elaborar varios mapas de ubicaciones que han permitido en ellos distinguir los rayos que se genera entorno a las explosiones de estrellas masivas jóvenes a lo largo del plano de la galaxia cerca del centro de ésta. Pero esos mapas, no sólo han mostrado a los rayos gamma, sino que fuera de programa, sorprendentemente han descrito la existencia de una nube relativamente alejada del plano del centro de la galaxia ubicada a un costado en los mapas de detección de rayos gamma, y cuyas bandas espectrales han sido captadas por uno de los más sensibles espectrómetros de la actualidad el OSSE, que se encuentra empotrado en el satélite CGRO. El estudio de las bandas del espectro que captó el OSSE señaló que se trataría de una nube de antimateria particulada, precisamente de positrones (antipartícula elemental). Ahora bien, el origen de esa inesperada nube de antimateria particulada que aparece a uno de los costados de los mapas desarrollados por el CGRO es, por ahora, un misterio. Seguramente se tendrá que esperar hasta que pueda entrar en servicio el próximo satélite que ha proyectado instalar en el espacio la NASA, en el año 2002, para el monitoreo, rastreo y estudio de rayos cósmicos y también antimateria. Las huellas espectrales de los procesos de aniquilamientos de electrones y positrones han sido detectadas por el espectrómetro OSSE. Los colores del mapa de la derecha representan la energía del aniquilamiento de electrones y positrones que han ocurrido en el plano de la Vía Láctea, cerca del centro galáctico, y que se han transformado en rayos gamma . La energía que se capta es de 511_[KeV], y corresponde a los restos energéticos de la masiva energía del positrón. El mapa es un modelo adaptado de los 511 KeV detectados. El OSSE ha descubierto que la mayor cantidad de radiación se concentra mayormente dentro de una región comprendida dentro de los 10 grados del diámetro del centro de la galaxia. Las líneas superpuestas sobre el mapa representan las emisiones de 511_[KeV] de energía captadas por el OSSE. La nube detectada de antimateria particulada , podría haberse formado a raíz de múltiples explosiones de estrellas, hecho que ha sido detectado justamente en el lugar de la galaxia donde fue hallada. Tampoco es descartable la eyección de antimateria particulada desde un disco de acreción de un agujero negro cercano al centro de la Vía Láctea, la fusión de dos estrellas de neutrones, o la producción de ella por una fuente enteramente diferente. Se piensa que los positrones así como la antimateria en general, son relativamente raros en el universo. Sin embargo, existen varias formas como para que sea posible la generación de positrones. Una de ellas es a través de la descomposición natural de los elementos radiactivos. Tales materiales radiactivos pueden originarse en fuentes astrofísicas como supernovas, novas, y estrellas Wolg-Rayet que son masivas y tienen una violenta actividad en sus superficies. Como se trata de objetos relativamente comunes en las galaxias, los positrones resultantes de los materiales radiactivos pueden expandirse a través del espacio. Es posible que este tipo de estrellas que generan estos materiales radiactivos sean también las responsables de crear toda la materia constituyente que se distribuye por el universo, incluida la Tierra.
Fuente Teórica de Antimateria Cósmica.Las bandas horizontales anchas representan a la radiación generada por la desde el disco de la galaxia. La región circular de colores resaltados corresponde a la radiactiva producida en el centro galáctico. La posible fuente de la antimateria descubierta por una radiación de aniquilación ascendente, se encontraría lejos del galaxia.
aniquilación aniquilación particulada, plano de la
Otra manera en que se podrían generar positrones es con la caída de materia sobre los campos gravitacionales altos de los agujeros negros, ya que la temperatura de ella debería incrementarse lo suficiente como para generar pares de positrones y electrones que podrían ser disparados lejos de los agujeros negros a velocidades altísimas. El número de positrones que se puedan crear en un agujero negro depende de la cantidad de materia que aporte por insuflación alguna estrella que esté jugando el rol de compañera, mientras que el número de positrones creados por descomposición radiactiva se mantiene constante por un largo período de tiempo.
Modelo Teórico de Fuente de Antimateria.Modelo de contornos graficados sobre una imagen óptica del lugar donde fue ubicada la nube de positrones en nuestra galaxia. No se pueden observar evidencias visuales de una fuente de gas caliente cerca del centro de la Vía Láctea debido a la gran cantidad de polvo y gas que se encuentra en ese lugar impidiendo una visión más profunda y detallada. Una tercera posibilidad es que en aquellos lugares donde se ha detectado la presencia de positrones --digamos por ahora en un sitio de nuestra galaxia-- sean espacios en que los últimos millones de años han sido la morada de la fusión de dos estrellas de neutrones de donde sale la emisión de partículas como un bólido galáctico masivo. De esos sucesos se crean las condiciones de los fenómenos de las explosiones de rayos gamma que tanto han desconcertado a los científicos que se focalizan en el estudio de las estructuras del cosmos. Dado que el universo muestra tener más materia que antimateria, el positrón tiene un muy corto período de existencia desde que se crea. El positrón es la antipartícula del electrón y cuando ambos colisionan se aniquilan convirtiéndose en energía que se manifiesta en rayos gamma con un rango energético de 511_[KeV], lo que refleja el aniquilamiento del positrón.
Recamado de la Fuente.Contornos de radio recamados sobre un modelo de la fuente de la radiación producida por la aniquilación. La observacion de los radios sugieren la existencia de un canal conductor de la radiación que va desde el centro de nuestra galaxia a latitudes altas. En general, ello es consecuente con la ubicación y dirección de la fuente de aniquilación. Las primeras observaciones que se pudieron realizar de explosiones de rayos gamma debido a emanaciones desde el centro de nuestra galaxia fueron a comienzos de 1970, y registraban un rango energético de 511_[KeV]. Posteriormente, a comienzos de 1980, la energía de las explosiones pareció disminuir cuando aparentemente emanaba desde el mismo lugar registrado anteriormente, volviéndose a observar emisiones con el rango de 511_[KeV] en las últimas detecciones que realizó el espectrómetro OSSE del satélite CGRO. Ello estaría indicando que los aniquilamientos de positrones se estarían generando en una pequeña y discreta fuente, posiblemente en la vecindad de un agujero negro al cual se le ha apodado "El Aniquilador".
La nube de antimateria particulada, que fue detectada en los mapas de explosiones de rayos gamma elaborados por el CGRO, se observa elevarse como un especie de pluma partiendo desde costado del centro de la Vía Láctea, y es extremadamente difusa. Por lo que se ha podido distinguir, es factible considerar que sólo hay en ella positrones, y no antiprotones o antiátomos.
Dibujo del Centro de la Vía Láctea.El dibujo de la derecha,????? representa al centro de la Vía Láctea con objetos y diferentes actividades cósmicas que cohabitan en esa región de la galaxia. La actividad que más se distingue es una fuente de gas caliente cargado de positrones, mucho de ellos aniquilándose mientras viajan dentro de los halos galácticos. La radiación de esa aniquilación ha sido observada por los instrumentos del OSSE empotrados en el satélite CGRO. La detección de antiátomos fuera de los laboratorios no será un trabajo sencillo. Los antifotones que emitiría un antiátomo serían indistinguibles de los fotones que emitiría un átomo, de manera de que por este simple hecho de medición una galaxia no sería diferente de una antigalaxia. Tampoco es una labor sencilla rastrear señales de su presencia en los rayos cósmicos de alta energía. Ahora bien, el hecho de que se llegara a descubrir dentro de los flujos de emisión de rayos cósmicos de tan sólo un núcleo de antihelio, ello daría cabida como para pensar con más de un fundamento sobre la existencia de estrellas y galaxias de antimateria, lo que llevaría también a implicaciones profundas sobre aspectos fundamentales que guardan relación con la asimetría bariónica del universo. Para poder captar directamente los rayos cósmicos se han desarrollado experimentos con globos instalados en la atmósfera y satélites orbitando a la Tierra. Pero es un método que sólo permite la captación de ellos por algunas pocas horas y, en lapsos breves, solamente es posible distinguir antimateria si uno de cada 10.000 rayos cósmicos proviniera de un antinúcleo. Como las fuentes emisoras provienen desde lugares distantes, probablemente las antipartículas correspondan sólo a una de cada 10.000 millones de partículas. Pero, no cabe duda esperar, de que el espectrómetro Alfa Magnético orbitando fuera de la atmósfera, tendrá muchas mayores posibilidades de éxito que los experimentos con los actuales satélites, globos ubicados en la atmósfera o con instrumentos empotrados en la superficie de la Tierra. Se piensa que con el AMS se podrán detectar los rayos cósmicos vírgenes. Asimismo, las mediciones podrán extenderse por períodos mucho más prolongados, lo que indudablemente facilitará la ubicación de la antimateria en medio de lluvias de partículas comunes. Por los conocimientos experimentales que hemos adquirido hasta ahora, sobre la formación de antimateria en laboratorios y por el hallazgo de la existencia de positrones, no es arriesgado pensar en antimateria atómica deambulando por el espacio como fósiles ocasionados por los primeros segundos del Big Bang o como producto de la propia dinámica del universo. En teoría, en el momento del Big Bang, debiera haber habido igual cantidad de materia que de antimateria. Ahora, por qué esta última se fue extinguiendo, las razones de ello las podemos encontrar en la explicación que nos entregó, en el año 1967, el físico Andrei Sakharoc. Según él, ese proceso de extinción se debería a una pequeña asimetría en las leyes de la física, conocida como violación CP. Esa asimetría que formula Sakharoc, debería haber comenzado a intervenir en el primer segundo del Big Bang. En ese instante, y de acuerdo a la Teoría Unificada de la Física, todas las fuerzas que ahora se conocen en la naturaleza estaban fundidas en una sola, exteriorizadas en la llamada partícula X. Más tarde, cuando el universo se enfrió y estas partículas decayeron, la asimetría habría dejado una pequeña y mayor proporción de partículas en relación a las antipartículas. Específicamente, mil millones más una partícula, por cada mil millones de antipartículas.
En función a lo inmediatamente anterior, la mayoría de los físicos piensan, por lo tanto, de que tanto partículas como antipartículas en un instante se habrían mezclado, y como ambas se aniquilan en una bocanada de rayos gama, el resultado final sería que el universo actual no estaría conformado por antimateria. Por lo menos, la brillantez del trasfondo de radiación que lo llena, cerca de mil millones de fotones por cada partícula de materia, indicaría que ello es así, efectivamente. Puede que esta sea una explicación convencional, pero comparto la opinión de Stephen Hawking y de otros científicos en cuanto a que pensar experimentalmente en la posibilidad de la existencia de galaxias y antigalaxias o, más aún, de universo y de antiuniverso es, de alguna manera, una contradicción con las leyes de la física. Lo anterior, no significa desterrar las posibilidades de que en algún momento la asimetría de las leyes de la física de las cuales hemos hablado podría haber sido revertida en ciertas regiones de la bola de fuego del Big Bang, favoreciendo la creación de antimateria sobre la materia. Eso abriría la posibilidad de que en alguna parte del espacio pueda haber sobrevivido antimateria, formando incluso, antigalaxias. Ello se sostiene en algunos modelos teóricos que se han desarrollado, pero se opone la experiencia experimental de laboratorio, lo que lo hace aparecer poco verosímil por ahora. La primera prioridad para la física en esta cuestión se encuentra en poder entender y distinguir cuales son las leyes que gobiernan la antimateria. Según la relatividad general, la antimateria tiene que comportarse básicamente como la materia, y esto si que abre una tremenda interrogante. Si el comportamiento es asímil y la antimateria esta presente fuera de los laboratorios, entonces que pasa con el efecto gravitatorio sobre ella. A lo mejor, ha empezado un ciclo de la física en que se podría llegar a cuestionar hasta sus leyes fundamentales. El mayor conocimiento que se está adquiriendo sobre la antimateria, promete revelar muchas interrogantes acerca del comienzo del universo. Después del Big Bang, existió tanta antimateria como materia, pero por lo que hasta ahora hemos deducido, sólo esta última fue capaz de sobrevivir los propios procesos evolutivos del universo, ya que la que hemos detectado en el espacio correspondería a una nueva generación. ¿Por qué la antimateria estuvo y está condenada al ocaso? ¿Cómo fue que el universo no colapso fracciones de segundo después de que comenzó, si sabemos en laboratorio que la antimateria y la materia se anulan con sólo toparse? Estos, entre muchos otros, son algunos de los misterios que afloran con mayor intensidad al tenerse la certeza de que en experimentación de laboratorio se visualiza el antiátomo. De una cosa los humanos, por ahora, podemos estar seguros: solamente hemos podido detectar en el universo, precisamente cerca del centro de nuestra galaxia, antimateria particulada. En la Tierra, no hay fuente alguna de antimateria, y la exploración astronómica del sistema solar, incluyendo el astro central, tampoco la ha encontrado en ninguna parte. Los electrones y protones que nos llegan del Sol, atravesando la atmósfera terrestre, son partículas de la materia ordinaria. Tampoco es probable que los campos siderales -estrellas y materia interestelar- escondan antimateria; si no fuera así, estaríamos percibiendo regularmente, y en todas las direcciones de la galaxia, intensas radiaciones gamma, muy superiores a las detectadas en los aniquilamientos de positrones (antimateria particulada) que se han podido registrar, generada de la aniquilación de los antiátomos que cohabitaran allí, producto de sus colisiones con la materia ordinaria. Y tal cosa no ha sucedido, lo que debería ser inevitable si se considera que la materia se está constantemente intercambiando entre las estrellas. En cambio, ignoramos si remotas regiones extragalácticas dan o no dan albergue a la antimateria. Hemos detectado grandes radiaciones de rayos gamma, cuya procedencia, posiblemente, sea de explosiones ocurridas en galaxias lejanas, pero no tenemos certeza alguna de qué las causó o si allí se hubiesen producido aniquilamientos de antiátomos. ¿Somos moradores de un cosmos asimétrico, formado únicamente de la materia que nos es familiar, o al contrario, habitantes de un universo simétrico que incluye a la vez galaxias, unas de materia y otras de antimateria, como lo sugieren los físicos suecos H.Alfvén y O. Klein? Al nivel que nos encontramos en el desarrollo de nuestros conocimientos, que aún está muy lejano para entender muchas cuestiones relacionadas
con propiedades fundamentales de la composición de la materia, contestar afirmativa o negativamente la pregunta equivaldría, en ambos casos, a vestirse, por ahora, con una gran audacia intelectual. Pero no puedo terminar esta parte de este trabajo sin hacer un último alcance al respecto. Si por casualidad Ud. se encuentre con su anti-yo, por favor no le dé la mano. Ambos desaparecerían en un gran destello luminoso. Autor: Patricio Díaz Pazos