biblioteca aprender a aprender
coordinadores de áreas y especialidades Luis de la Peña ciencias de la materia Pablo Rudomin ciencias de la vida Pablo González Casanova ciencias humanas Rolando García teoría y metodología Raymundo Bautista matemáticas Hugo Aréchiga ciencias de la salud Felipe Lara Rosano ingenierías y tecnologías
Esta página dejada en blanco al propósito.
CLÁSICOS DE LA BIOLOGÍA MATEMÁTICA por FAUSTINO SÁNCHEZ GARDUÑO PEDRO MIRAMONTES JOSÉ LUIS GUTIÉRREZ SÁNCHEZ JORGE SOBERÓN MAINERO GERMINAL COCHO GIL ALBERTO ALDAMA MANUEL FALCONI MAGAÑA LOURDES ESTEVA MIGUEL LARA-APARICIO coordinado por FAUSTINO SÁNCHEZ GARDUÑO PEDRO MIRAMONTES y JOSÉ LUIS GUTIÉRREZ SÁNCHEZ
siglo veintiuno editores
siglo veintiuno editores, s.a. de c.v. CERRO DEL AGUA 248, DELEGACIÓN COYOACÁN, 04310, MÉXICO, D.F.
siglo xxi editores argentina, s.a. LAVALLE 1634, 11 A, C1048AAN, BUENOS AIRES, ARGENTINA
edición a cargo de concepción alida casale núñez portada de maría luisa martínez passarge primera edición, 2002 © siglo xxi editores, s.a. de c.v. en coedición con el centro de investigaciones interdisciplinarias en ciencias y humanidades, unam isbn 968-23-2361-4 derechos reservados conforme a la ley impreso y hecho en méxico/printed and made in mexico
BIBLIOTECA APRENDER A APRENDER Esta colección se propone transmitir a los lectores los conocimientos necesarios para aprender una disciplina, una especialidad interdisciplinaria o un concepto determinado. Se propone asimismo dar a conocer lo último sobre el tema. La colección también tiene el propósito de dar cuenta de las llamadas nuevas ciencias, vinculadas al creciente desarrollo del análisis de sistemas complejos y autorregulados, que corresponden a una gran revolución científica, técnica y humanística. Esta revolución científica y humanística que vivimos se caracteriza por cambios de paradigmas de investigación y reestructuración de categorías y conceptos, de nuevos métodos y técnicas de análisis, interpretación y acción, y abarca las ciencias de la materia, las ciencias de la vida y las ciencias humanas. Su alcance y profundidad replantean los problemas de la cultura general y la especialidad en todos los campos del pensamiento y de la acción, de las ciencias y las humanidades. La colección busca acercar al lector a sus temas y problemas y adiestrarlo en las artes y métodos de aprender a aprender nuevos conocimientos. Está destinada a lectores con educación media y superior, y a los especialistas que quieran actualizar sus conocimientos en las disciplinas que cultivan o en otras de su interés.
[vii]
Esta página dejada en blanco al propósito.
ÍNDICE
PRESENTACIÓN, por FAUSTINO SÁNCHEZ GARDUÑO, PEDRO MIRAMONTES JOSÉ LUIS GUTIÉRREZ SÁNCHEZ PRÓLOGO,
y
por JORGE SOBERÓN MAINERO
1 5
ERNST MAYR, LA TEORÍA SINTÉTICA DE LA EVOLUCIÓN Y UNA NUEVA VISIÓN DEL AZAR Y LA NECESIDAD,
por GERMINAL COCHO GIL
WADDINGTON, THOM Y LA BIOLOGÍA TEÓRICA, por JOSÉ LUIS GUTIÉRREZ SÁNCHEZ
11 22
EL ORIGEN DE LAS FORMAS VIVAS: DE GEOFFROY SAINT-HILAIRE A D’ARCY THOMPSON,
por PEDRO MIRAMONTES y JOSÉ LUIS GUTIÉRREZ SÁNCHEZ
FISHER: LA PRIMERA SÍNTESIS,
por ALBERTO ALDAMA
UNA SEMBLANZA DE VITO VOLTERRA,
por MANUEL FALCONI MAGAÑA
KOLMOGOROV Y LA BIOLOGÍA TEÓRICA,
por FAUSTINO SÁNCHEZ GARDUÑO
47 67 93 110
EL MODELO DE KERMACK Y MCKENDRICK O CÓMO PREDECIR EL CURSO DE UNA EPIDEMIA,
135
por LOURDES ESTEVA
MODELOS MATEMÁTICOS DE LOS RITMOS CIRCADIANOS: DE WIGGLESWORTH A WINFREE,
154
por MIGUEL LARA-APARICIO
ÍNDICE ONOMÁSTICO
169
ÍNDICE ANALÍTICO
172
[ix]
PRESENTACIÓN
La relación entre la biología y la matemática ha sido fructífera para ambas desde que alguien, por primera vez, se dio cuenta de la posibilidad de representar los fenómenos biológicos mediante modelos matemáticos. Si bien desde la Antigüedad clásica se hacían tablas de nacimientos y mortandad, ingrediente fundamental en cualquier estudio demográfico, posiblemente el primer modelo matemático –en el sentido moderno del término– en biología se deba a Leonardo de Pisa, Fibonacci, quien en 1219 en el Liber abacci propuso un problema cuya solución se daría en términos de ecuaciones para la dinámica de una población. Desde ese momento, los nombres de los pensadores que han contribuido a describir matemáticamente fenómenos biológicos, a matematizar sus conceptos o, con mayor ambición, a cimentar y construir una biología teórica, se pierden en medio de un mar de abundancia. Así, el reverendo Thomas Robert Malthus en la Inglaterra de fines del XVIII, el demógrafo belga Pierre François Verhulst –durante el primer tercio del siglo XIX– y el matemático italiano Vito Volterra en los albores del XX, sentaron las bases de la ecología matemática. A su vez, en 1908, el médico alemán Wilhelm Winberg y el matemático inglés Godfrey Harold Hardy, en apoyo de la teoría corpuscular mendeliana de la herencia, enunciaron de manera independiente el Principio de Equilibrio Génico que lleva el nombre de ambos y de donde arranca el estudio cuantitativo de la genética de poblaciones. A su vez, siguiendo una filosofía de las ciencias naturales cuya historia se puede remontar hasta Platón, el zoólogo y humanista clásico escocés D’Arcy Wentworth Thompson aborda, por primera vez, el estudio del crecimiento y la forma de los seres vivos sobre los fundamentos de lo que podría considerarse una verdadera biología teórica. Thompson argumenta en su maravillosa y ya clásica obra On Growth and Form que los fenómenos biológicos, a pesar de sus particularidades, están sometidos a las leyes del mundo físico. Por consiguiente, la fragmentación del estudio de la naturaleza en leyes físicas, químicas y biológicas –causante de malentendidos múltiples– es [1]
2
PRESENTACIÓN
errónea. En su lugar, Thompson nos regala la idea útil y atractiva de que la ciencia posee una unidad esencial porque en el universo hay, simplemente, leyes naturales. Herederos de esta idea e impulsores modernos de la biología del desarrollo son Alan Turing, quien en 1952 propuso un mecanismo fisicoquímico para la formación de patrones biológicos; el embriólogo Conrad Hal Waddington, creador de una serie de conceptos profundos sobre la morfogénesis; Brian Goodwin, quien ha señalado, a contracorriente, la necesidad de tomar en cuenta aspectos estructurales en la evolución y Germinal Cocho, el cual desde las aulas mexicanas ha insistido una y otra vez en que la enorme complejidad del mundo vivo es discernible y pudiera ser la expresión aparentemente barroca de leyes naturales simples y comprensibles. En el caso de México, no es posible pasar por alto el ejemplo paradigmático de colaboración interdisciplinaria en beneficio de la biología matemática del fisiólogo mexicano Arturo Rosenblueth y el matemático estadunidense Norbert Wiener quienes, en los años cuarenta, trabajaron en nuestro Instituto Nacional de Cardiología, en la elaboración de modelos matemáticos de la conducción de impulsos nerviosos en el músculo cardiaco. Por la extensión, necesariamente breve, de este recuento histórico del prolífico maridaje entre biología y matemática, hemos omitido referirnos a científicos de la importancia de Sewall Wright, Ronald Aylmer Fisher, René Thom, Stuart Kauffman, Andrei Nikolaievich Kolmogorov –y la poca conocida escuela soviética de evolucionistas, genetistas y biólogos teóricos– pero se cuentan por decenas los estudiosos que, a lo largo y ancho del mundo, han contribuido a poner en práctica la unidad de la ciencia para ir construyendo, como quería Waddington, la biología teórica. La relación entre biología y matemática, empero, no ha estado exenta de sinsabores como la frecuente sobresimplificación (“supongamos que una vaca es un cilindro infinito…”) o el uso descuidado y manipulador de los modelos con el que algunos investigadores en ciencias naturales pretenden justificar lo injustificable o darle un aire de cientificidad a sus trabajos. Asimismo, es preciso reconocer falsas esperanzas y desengaños –¿qué matrimonio podrá jactarse de no haberlos tenido nunca?– como la pretensión de explicar, en los años setenta, “casi todos” los procesos biológicos mediante la teoría de catástrofes. No obstante, nuestro momento, el tiempo que nos tocó vivir, es extraordinario por el desarrollo reciente de la matemática: la teoría del
PRESENTACIÓN
3
caos, las geometrías fractales y la teoría de los sistemas complejos, por ejemplo, han abierto amplias perspectivas para enfrentar uno de los problemas más importantes de la biología matemática: cómo contener la inmensa riqueza de las manifestaciones de la vida, su enorme variabilidad, en un conjunto reducido de leyes y principios. En este trabajo se han recopilado las versiones escritas de la serie de conferencias “Clásicos de la biología matemática”, organizada por el Grupo de Biomatemática de la Facultad de Ciencias de la UNAM y que se llevó al cabo en las instalaciones de la misma Facultad entre el 16 de febrero y el 4 de junio de 1996. El contenido de este libro es sólo una muestra de la variedad de intereses que existen en el Grupo y refleja el crecimiento que ha tenido desde sus orígenes en 1982. Cada autor ha querido sumar su esfuerzo para consolidar la biología matemática como integrante legítimo de la ciencia. Asimismo, hay aquí un atisbo de las posibilidades de búsqueda conjunta entre las ciencias de la vida y la matemática. Esperamos hallar eco entre nuestros lectores. FAUSTINO SÁNCHEZ GARDUÑO PEDRO MIRAMONTES JOSÉ LUIS GUTIÉRREZ SÁNCHEZ
Facultad de Ciencias, UNAM
Esta página dejada en blanco al propósito.
PRÓLOGO
El título de esta antología vuelve a plantear un debate antiguo y por lo visto aún no resuelto. La pregunta recurrente ante una denominación tal como Clásicos de la biología matemática sería ¿qué es la biología matemática?, ¿de qué se ocupa, cómo se define, cómo se distingue de las meras aplicaciones matemáticas a problemas biológicos? Que la pregunta es válida lo demuestra el hecho de que la mitad de las contribuciones al libro no incluyen una sola ecuación (o lo hacen solamente como en passant) y que varios de los clásicos sobre los que se escribe son grandes teóricos de la biología, pero ciertamente no matemáticos, ni siquiera biólogos con cultura matemática. En efecto, el excelente capítulo de Germinal Cocho es esencialmente una discusión acerca de la existencia de paradigmas diferentes e incluso aparentemente opuestos sobre la teoría de la evolución. Germinal discute cómo, en la llamada teoría sintética de la evolución, convergieron los puntos de vista, métodos y datos de los practicantes de la genética de poblaciones con los de los naturalistas para, finalmente, encontrarse con que los distintos paradigmas se complementaban naturalmente. Germinal sugiere que un proceso similar se está dando, o se dará, entre los darwinianos y los investigadores de los procesos ontogenéticos. En este capítulo se discuten problemas teóricos importantes, pero no existe una sola ecuación. En el capítulo de José Luis Gutiérrez sobre Waddington y Thom se retoma una parte de este problema, revisando la forma en que las ideas topológicas de René Thom se aplicaron para intentar matematizar ciertos conceptos teóricos del célebre embriólogo Waddington. Este capítulo ciertamente muestra la forma en la que un problema teórico central de la biología (tal y como se discute en el capítulo de Germinal Cocho), que es el de la morfogénesis, puede atacarse utilizando métodos matemáticos serios, en este caso la teoría de las catástrofes. Desafortunadamente, es posible que la distancia entre los datos empíricos de los estudios sobre la ontogénesis de los organismos y los conceptos matemáticos sea aún casi insalvable. En el tercer capítulo, en el que se aborda el problema de la relación entre la teoría de la selección natural y la aún faltante teoría de la mor[5]
6
PRÓLOGO
fogénesis, Pedro Miramontes y José Luis Gutiérrez ejemplifican la disyuntiva tan claramente planteada por Germinal Cocho: este capítulo es un planteamiento del conflicto entre la visión de la evolución planteada por los biólogos neodarwinianos (particularmente Richard Dawkins, que es uno de los más radicales seleccionistas) y la percepción de que las formas vivas no se pueden explicar por la sola acción de la selección natural. El capítulo presenta algunas ideas bastante interesantes. Por ejemplo, considerar a los Phyla, que son las grandes divisiones de la clasificación de los organismos, como clases de equivalencia (dentro de la variedad de la vida) bajo las transformaciones morfogenéticas de D’Arcy Thompson. Estas transformaciones T mapearían un punto (x, y) de la forma A en otro (x, y) de la forma B en forma continua y localmente invertible. Según el argumento presentado en el capítulo, los cordados forman una clase de equivalencia, los artrópodos otra, y así cada Phyla. Los autores no se quedan en la simple apariencia externa, y proponen que el método thompsoniano puede extenderse a la organización interna (sistemas, aparatos, órganos y tejidos). Es claro que la idea es poderosa y que hasta un cierto grado de aproximación es correcta. Sin embargo, está llena de excepciones, como es obvio, si intentamos mapear, dentro de los artrópodos, miriápodos con hexápodos; dentro de los cordados, perros o gatos con, no la larva del anfioxo, sino con su adulto, o amniotas con peces, etc. De hecho, el estudio teórico de la morfogénesis está aún en una etapa en la cual abundan más las metáforas sugerentes que las leyes, como lo es la selección natural, y por lo tanto no es sorprendente que muchos seleccionistas, como Dawkins, mantengan posiciones rayanas en lo hegemónico. Pero el predominio de la visión seleccionista se debe simplemente a su éxito empírico (pensemos en su valor predictivo en el fitomejoramiento o en el entendimiento del fenómeno de creación de variedades resistentes a pesticidas o antibióticos), así como teórico, pues la teoría de la selección natural es la más poderosa con la que cuenta la biología. En efecto, en cualquier sistema en el que existan replicadores e interactores, es una consecuencia lógica que habrá selección natural y es una ley de la naturaleza (empíricamente refutable) que se producirá adaptación (que no es lo mismo que adecuación ni se define tautológicamente) a consecuencia de los procesos selectivos, y esto es totalmente independiente de las particularidades fisicoquímicas que constituyan a los replicadores e interactores. Ahora bien, el problema planteado por los autores de los tres primeros capítulos es el
PRÓLOGO
7
de la naturaleza de los procesos fisicoquímicos y morfogenéticos que dan origen a los replicadores e interactores. Es obvio que las particularidades fisicoquímicas subyacentes a la morfogénesis de los interactores pueden ser tanto o más interesantes desde muchas perspectivas (por supuesto no todas) que la altamente abstracta ley de la selección natural. Es también obvio que dichas particularidades acotan las posibilidades de la selección, que la forma o formas como esto ocurre aún no se entienden cabalmente y que este problema constituye uno de los grandes interrogantes de la biología contemporánea. También es claro que las ideas de Waddington, Thom, D’Arcy Thompson y otros, tal vez articuladas en un estructuralismo dinámico que formalice los hallazgos de la embriología, seguramente contribuirán a la creación de una “teoría de la morfogénesis de los interactores biológicos”, la cual, junto a la teoría de la selección natural, posiblemente constituirá la teoría total de la evolución biológica que satisfaga, finalmente, a tirios y troyanos. En mi opinión, este capítulo ilustra claramente el conflicto entre las dos escuelas de pensamiento al que hace referencia Germinal Cocho, y también me resulta claro que este conflicto, que pertenece a lo más fundamental del pensamiento biológico, está destinado a resolverse no por el triunfo de una escuela sobre otra, sino por la síntesis de sus paradigmas, esto es, por encontrar los puentes a los que hace referencia Germinal. Un ejemplo de uno de estos puentes se ilustra en la contribución de Alberto Aldama. En efecto, a principios de este siglo los estudiosos de la genética se encontraban distanciados de los naturalistas y parecía que sus posturas eran irreconciliables. El puente que unió las tendencias opuestas se conoce hoy con el feliz nombre de “la síntesis”. El título del trabajo de Aldama habla de “la primera síntesis”. quizá para subrayar la necesidad que tiene la biología contemporánea de una segunda en el sentido que se menciona un par de párrafos arriba. En este capítulo queda de manifiesto por qué la genética de poblaciones es una de las disciplinas de la biología que más se ha matematizado e ilustra también el poder que pueden tener los métodos estadísticos cuando son bien empleados. Adicionalmente, es de destacar la reseña histórica que nos ofrece Aldama de los trabajos que precedieron a los famosos experimentos de Mendel, pues son aspectos poco conocidos para buena parte de los biólogos e ilustran cómo el proceso que desembocó en la síntesis evolutiva tuvo un desarrollo continuo y la forma en que su estudio nos
8
PRÓLOGO
puede eventualmente dar luz para la construcción de nuevas síntesis en el sentido en el que lo propone Cocho. Si los cuatro primeros capítulos se refieren a la morfogénesis y la teoría de la evolución, los siguientes tres están directamente orientados a problemas ecológicos. Además de la genética de poblaciones, la ecología es la rama de la biología donde la matematización ha avanzado más y resultado más fructífera. En el capítulo de Manuel Falconi se discuten algunas de las contribuciones de Vito Volterra, quien, junto con Alfred Lotka, es el autor de las célebres ecuaciones de Lotka-Volterra, que esencialmente postulan crecimientos per cápita lineales para las diferentes poblaciones interactuantes en una comunidad ecológica. Para los sistemas depredador-presa estudiados por Volterra las soluciones son órbitas cerradas que implican la oscilación desfasada de las poblaciones de presas y depredadores. Para los sistemas competitivos, las soluciones implican la exclusión de alguna de las especies en competencia. Si bien las funciones lineales para el crecimiento per cápita no tienen ya más que un interés histórico, el capítulo de Falconi plantea el problema de la exclusión competitiva en términos más generales, no lineales. Este planteamiento no se debe a Volterra, y se basa en considerar conjuntos invariantes dentro del espacio de fase del sistema de ecuaciones diferenciales. Si bien ausente de casi todos los libros de texto sobre ecología matemática, es un método muy poderoso que permite plantear el problema de la exclusión competitiva en términos mucho más asequibles a la experimentación que las ideas originales de Volterra. En una vena similar, Faustino Sánchez Garduño analiza el tratamiento que Andrei N. Kolmogorov hace del problema de la interacción depredador-presa. El enfoque de Kolmogorov, no lineal y cualitativo, es mucho más moderno y teóricamente satisfactorio que el de Lotka o Volterra, y desafortunadamente permanece muy poco conocido por los ecólogos de poblaciones. Kolmogorov también incursionó en el campo de la genética de poblaciones, aplicando en forma pionera métodos de las ecuaciones diferenciales parciales a encontrar la distribución de un alelo en una población. El capítulo de Faustino Sánchez discute este problema en el contexto de los planteamientos de Ronald A. Fisher, uno de los padres de la genética de poblaciones. Los trabajos de Kolmogorov en ecología teórica merecen ser mucho mejor conocidos y es afortunado que el capítulo de Faustino Sánchez se refiera a este importante pionero.
PRÓLOGO
9
Es costumbre incluir dentro del cuerpo de la “ecología matemática” los problemas epidemiológicos. En su capítulo, Lourdes Esteva describe el planteamiento de uno de los modelos pioneros en epidemiología matemática, resultado de los trabajos de Kermack y McKendrick. La estructura y supuestos de este modelo son generales y robustos, a tal grado que muchos de los modelos epidemiológicos actuales se basan en el de Kermack y McKendrick, o utilizan supuestos similares. El resultado principal del modelo, que es el teorema del umbral de las epidemias, y que Esteva obtiene y analiza en forma muy clara, es una propiedad genérica de los modelos epidemiológicos. Este capítulo es el primero del libro en donde se presentan datos cuantitativos empíricos pertinentes a la evaluación de las predicciones de los modelos. Finalmente, Miguel Lara nos presenta un capítulo dedicado al importante problema de los ritmos individuales en organismos. El capítulo de Lara es una revisión de los principales autores sobre este tema, así como de algunas de las ecuaciones que se han propuesto para modelar ciclos circadianos en biología. La bibliografía sobre este tema es muy vasta, entre otras razones porque el problema de la conducta periódica tiene una amplia historia en física y en ingeniería. Miguel Lara nos ofrece una panorámica general del tema desde una perspectiva histórica reciente. La compilación que se nos presenta en este libro no es exhaustiva: si Sewall Wright, por ejemplo, no es un clásico de la biología matemática entonces no sé quién lo sea. Sin embargo, los autores nos ofrecen una panorámica amplia y útil en donde queda muy claro que desde hace ya más de cincuenta años las relaciones de cooperación entre biólogos y matemáticos estaban firmemente establecidas. Es tema de frustración para muchos biólogos teóricos que la matematización de la biología aparezca siempre como asunto casuístico, ad hoc, y que una verdadera axiomatización, seguida del desarrollo de teoría matemática explicativa y predictiva, como en la física, permanezca como un sueño distante. Algunos pensamos que la biología es demasiado compleja como para reducirse a las categorías conceptuales y métodos matemáticos que se originan en la física. Tal vez la matematización de la biología nunca se logre, simplemente por la casi insondable complejidad del fenómeno de la vida. Sin embargo, como varios autores en este libro afirman, el avance de la ciencia no se detendrá jamás, y este avance, dado por el incesante juego dialéctico entre observación y reflexión, teoría y experimento, cuenta con las
10
PRÓLOGO
matemáticas como uno de sus más poderosos aliados. ¿Cuál es la diferencia entre biología teórica y biología matemática? En realidad no importa. Cuando hace falta, los biólogos teóricos han echado mano de los conceptos y herramientas matemáticas a su alcance, y cuando los matemáticos han modelado fenómenos biológicos, frecuentemente han surgido conceptos y avances teóricos de relevancia para la biología. La ciencia biológica (como todas las ciencias) ha avanzado y seguirá avanzando saliéndose de los cajones y esquemas que los filósofos gustan de crear para su propia conveniencia. Creo que los diferentes capítulos de este libro ilustran bien esta situación. JORGE SOBERÓN MAINERO
Instituto de Ecología, UNAM
ERNST MAYR, LA TEORÍA SINTÉTICA DE LA EVOLUCIÓN Y UNA NUEVA VISIÓN DEL AZAR Y LA NECESIDAD GERMINAL COCHO GIL*
Construir puentes, definir convergencias, complementar o encontrar la síntesis del conocimiento han sido procesos fundamentales en la historia de la ciencia. En la física, por ejemplo, con la ley de la gravitación universal, la mecánica newtoniana da una sola visión de los fenómenos celestes y de los que tienen lugar en la Tierra; Maxwell descubre o inventa la forma de sintetizar electricidad y magnetismo en un solo cuerpo teórico formal y el trabajo de Einstein sobre el efecto fotoeléctrico unifica concepciones aparentemente irreconciliables acerca de la naturaleza de la luz. Cuando las síntesis tienen lugar dentro del mismo paradigma (en el sentido de Kuhn), se ha contribuido a la maduración de una forma de pensar vigente; si ocurre la convergencia de paradigmas diferentes o se da una lucha de donde resulta la destrucción de uno de ellos, se dice legítimamente que se ha dado una revolución científica. Los procesos de convergencia requieren del desarrollo de lo que el sociólogo portugués Sousa Santos ha llamado, en el ámbito de las ciencias sociales, hermenéutica diatópica: un arte de interpretación para ir de un lugar a otro y comprender significados lejanos, contrapuestos o ajenos; un puente para mostrar explícitamente simpatías y diferencias y con la capacidad de, como en los casos que refiere este ensayo, dar como resultado no sólo el tránsito de las ideas entre los dos lugares sino su identificación como una sola. En este trabajo se discuten dos ejercicios de hermenéutica diatópica: la que culminó al término de la primera mitad de este siglo en la teoría sintética de la evolución y la de hoy, en proceso de gestación todavía, entre la biología del desarrollo y la de la evolución.
* Departamento de Sistemas Complejos, Instituto de Física, Universidad Nacional Autónoma de México,
[email protected]
[11]
12
GERMINAL COCHO GIL
En la primera fue necesario tender los puentes entre evolucionistas atentos a dos tipos de causas, las próximas y las remotas; entre dos tradiciones de investigación, la de la genética mendeliana y la de los naturalistas; entre biólogos de laboratorio y biólogos de campo. La segunda, bautizada como la síntesis del programa Evo-Devo al tomar las primeras sílabas de los nombres ingleses de evolución y desarrollo, surge de la tensión entre la mutabilidad biológica, azarosa y sorpresiva, y el desarrollo embriológico, determinista y fiable; atiende al conflicto no resuelto entre función y estructura en la historia de la vida, surgido cuando se confrontan los mecanismos de adaptación evolutiva con las restricciones de carácter mecánico, energético y fisicoquímico.
LA CONFERENCIA DE PRINCETON Y LA TEORÍA SINTÉTICA DE LA EVOLUCIÓN
En el extenso ensayo inicial, prólogo a The Evolutionary Synthesis, Ernst Mayr1 (ver figura 1) sostiene que la expresión “síntesis evolucionista” como teoría en donde convergen la genética y la visión darwiniana de la historia de la vida –capaz de explicar convincentemente el origen de las especies tanto en la evolución gradual a pequeña escala como en la macroevolución– había sido presentada por Julian Huxley en Evolution: The Modern Synthesis (1942), en donde el biólogo británico había escrito: El momento está maduro para avanzar rápidamente en nuestro entendimiento de la evolución. La genética, la fisiología del desarrollo, la ecología, 1
Ernst Mayr, biólogo estadounidense, nació en Alemania en 1904. Es conocido, sobre todo, por sus investigaciones en taxonomía de las aves, genética de poblaciones y evolución. Graduado en la Universidad de Berlín en 1926, ha trabajado de manera ininterrumpida en Estados Unidos desde 1932. Con base en un trabajo de campo extraordinario (sobre todo para estudiar las aves del Pacífico suroccidental), antes aún de 1940, Mayr hizo contribuciones esenciales a la teoría de la evolución por selección natural. En particular, propuso una nueva definición del concepto de especie (hasta entonces impreciso y vago) y explicaciones como el llamado “principio del fundador” para el proceso de especiación. La lectura de su obra se considera imprescindible en sistemática, biología evolutiva y filosofía de la biología. Entre sus trabajos más conocidos destacan Methods and Principles of Systematic Zoology (con E. G. Linsley y R. L. Usinger), Animal Species and Evolution (1963) y The Growth of Biological Thought (1982).
ERNST MAYR, LA TEORÍA SINTÉTICA DE LA EVOLUCIÓN
13
Figura 1. Ernst Mayr (1904 - ). la sistemática, la paleontología, la citología y el análisis matemático nos han proporcionado tanto nuevos hechos como nuevas herramientas de investigación. Lo que hoy necesitamos es un ataque concertado y una síntesis. Si este libro contribuye a ese punto de vista sintético, me dará mucho gusto (Mayr y Provine, 1980:29).
Empero, la unificación había empezado años antes y estaba esencialmente terminada en enero de 1947 cuando, bajo los auspicios del Consejo Nacional de la Investigación (NRC, por su sigla en inglés) de Estados Unidos y la organización entre otros del propio Mayr, se reunieron destacados especialistas de los más diversos campos –sistematistas, paleontólogos, morfólogos, ecólogos y genetistas de varias escuelas– en Princeton, Nueva Jersey, para examinar los rápidos cambios experimentados en genética evolutiva entre 1936 y 1947, lapso aproximado en el cual se había producido la síntesis, tratar de reconstruir la serie de acontecimientos que le habían dado lugar e identificar los factores responsables de los desacuerdos precedentes.
14
GERMINAL COCHO GIL
Todavía en la década de los veinte y la primera mitad de la de los treinta había grandes diferencias entre los evolucionistas darwinianos y los genetistas. Los primeros eran zoólogos, paleontólogos o botánicos con largas carreras de práctica en el campo y defendían las tesis de la evolución gradual y de la selección natural como su fuerza directriz. A su vez, los mendelianos eran genetistas de laboratorio, y para ellos la presión mutacional génica, al actuar en pequeñas poblaciones, es la responsable de la evolución no sólo sin la ayuda de la selección natural sino en oposición a ella y, como la variación genética es discontinua, la evolución tiene que ocurrir a saltos. Las publicaciones especializadas de las dos primeras décadas del siglo exhiben grandes diferencias en la terminología al uso en las diversas ramas de la biología. En particular, los naturalistas ignoraban los avances de la genética posteriores a 1910 y en sus alegatos había una confusión, por ejemplo, entre el concepto de “mutación” de Hugo de Vries2 y el de Thomas H. Morgan.3 Los genetistas, a su vez, desconocían la literatura sobre variación geográfica y especiación en poblaciones naturales y: no había nada en los escritos supuestamente evolucionistas de T. H. Morgan, R. A. Fisher y J. B. S. Haldane para explicar la multiplicación de las especies ni de taxones superiores ni el surgimiento de las novedades evolutivas. Sus interpretaciones sólo se referían al nivel de gen en un solo acervo génico (Mayr y Provine, 1980:9).
de manera que la brecha en la comunicación entre ambos grupos era enorme. 2 Hugo Marie de Vries (1848-1935), botánico y genetista holandés. Introdujo el estudio experimental de la evolución orgánica; redescubrió en 1900 los principios mendelianos de la herencia y reconoció la primacía de Gregorio Mendel, quien los había publicado en 1866. Para él, una “mutación” es la aparición aleatoria de nuevas formas o variedades en una población biológica formada por especímenes comunes; con base en la observación de este tipo de fenómenos, en donde se tenía la posibilidad de estudiar la evolución experimentalmente, de Vries postuló la evolución como una serie de cambios radicales abruptos suficientes para producir la existencia de nuevas especies en un solo salto. 3 Thomas Hunt Morgan (1866-1945), zoólogo y genetista estadunidense, recibió el Premio Nobel de Fisiología y Medicina en 1933 por su trabajo experimental con la mosca de la fruta (Drosophila melanogaster) mediante el cual estableció la teoría cromosomática de la herencia. Para él, una “mutación” es una alteración génica que afecta los rasgos heredados por los descendientes.
ERNST MAYR, LA TEORÍA SINTÉTICA DE LA EVOLUCIÓN
15
Asimismo, según Mayr, la discordia provenía de las formas de pensar esencialmente distintas de los actores del diferendo; sus preocupaciones estaban motivadas por “biologías diferentes”: una, atenta a las causas próximas, la otra, a las causas últimas. Esta diversidad de intereses es sustancial para comprender los escollos que hubieron de librarse en la elaboración de la síntesis. Las causas próximas ocupan la atención de los biólogos funcionalistas, interesados en el fenotipo y su desarrollo como resultado de la ejecución del programa genético sujeto a las restricciones del medio ambiente y a las particularidades de los individuos. En la contraparte, los biólogos evolucionistas abstraen la búsqueda de las causas últimas del dominio de lo sobrenatural y lo someten al de la razón: investigan los orígenes del genotipo, indagan la historia de las adaptaciones, responsables de los programas genéticos actuales, y por ello les importa lo que haya ocurrido hace mucho, desde el principio de los tiempos. En el primer tercio del siglo XX esta diversidad de intereses provocaba verdaderos diálogos de sordos. Por ejemplo, prevalecía la idea –presente aún en disputas como la de hoy entre evolucionistas y embriólogos– de que los métodos del biólogo experimental son más objetivos y científicos y por lo tanto superiores al enfoque especulativo del naturalista. Por esto, zoólogos como Koelliker insistían en que muchos de los taxones de la sistemática pueden ser polifiléticos pues consisten de especies o géneros similares no porque desciendan de un ancestro común sino porque han sido producidos por las mismas leyes fisicoquímicas. Además, en cada campo se trataban niveles diferentes de la jerarquía evolutiva: desde la perspectiva de los genetistas, bastaba entender lo que ocurre a nivel de los genes para comprender el proceso evolutivo pues la adecuación total sería la suma de las adecuaciones de los genes individuales; los naturalistas, a su vez, no veían conexión alguna entre los cambios de las frecuencias génicas y los acontecimientos evolutivos en los niveles jerárquicos de especies y taxones superiores. También había un conflicto asociado con el número de variables y la dimensión correspondiente a los procesos considerada por cada grupo: antes de la síntesis, al tratar el comportamiento de genes individuales y sus alelos dentro de un solo acervo génico, los genetistas trabajaban en un sistema prácticamente adimensional, excepto por cambios temporales menores a lo largo de una secuencia breve de generaciones; los naturalistas, por el contrario, trabajaban en siste-
16
GERMINAL COCHO GIL
mas bidimensionales de variación y especiación geográficas, en los espacios multidimensionales de recursos ecológicos y en las escalas temporales del paleontólogo, de decenas de miles de generaciones y miles de millones de años. Las grandes discrepancias entre los genetistas experimentales y los naturalistas de poblaciones eran, del mismo modo, resultado de las diferentes tradiciones de investigación de cada grupo. Para cada quien, la suya era superior a la de la contraparte que “simplemente no comprendía ni los hechos ni los asuntos importantes”. La síntesis evolucionista fue, entonces, obra de los constructores de puentes –miembros de la escuela genético-naturalista como Chetverikov, genetistas como Ford, sistematistas como Rensch, Mayr y Simpson, zoólogos como Huxley y botánicos como Anderson y Stebbins– biólogos diatópicos, con un pie en cada lado, investigadores en una de las zonas capaces de comprender lo que hacían los de la otra; arquitectos que empezaron por crear la indispensable nueva terminología (“mecanismos de aislamiento”, “especies politípicas”, “acervo génico”, “simpatría”, “alopatría”, “polimorfísmo balanceado”, “deriva génica”, etc.) para la hermenéutica de la visión unificada. Pero la síntesis fue sólo el resultado de un proceso de convergencia y no una revolución científica en el sentido de Kuhn. El paradigma de la inmutabilidad biológica lo habían minado y hecho volar en pedazos los evolucionistas del XVIII y XIX, la revolución había dado sus primeros pasos con Geoffroy Saint-Hilaire y Jean-Baptiste de Lamarck y, al sustituir las formas viejas de pensamiento con el convencimiento del cambio de las especies, Charles Darwin y Alfred Russel Wallace la habían convertido en una revolución triunfante. La síntesis fue su culminación: la robusteció y mostró su inmensa fecundidad como idea articuladora esencial del pensamiento biológico. En su ensayo, Mayr concluye: los acontecimientos durante la síntesis ilustran de la manera más gráfica ciertos fenómenos y procesos que han tenido lugar de modo similar, una y otra vez, en la historia de la ciencia. La resistencia a las nuevas ideas, el papel de las terminologías, las dificultades de comunicación, la fusión de piezas ajenas para dar lugar a nuevas teorías, la construcción de puentes entre niveles jerárquicos diferentes, la importancia de los generalizadores y muchos otros fenómenos son importantes no sólo para la historiografía objetiva, sino también para entender el método real de la ciencia (Mayr y Provine, 1980:44).
ERNST MAYR, LA TEORÍA SINTÉTICA DE LA EVOLUCIÓN
17
El proceso de construcción de la ciencia es, desde luego, inacabable. La síntesis evolucionista de mediados de siglo logró algunos acuerdos básicos pero no resolvió todos los problemas.4 Persisten, por ejemplo, posiciones encontradas respecto al papel que se le atribuye al determinismo y al azar en la teoría darwiniana y se precisa un puente nuevo: los procesos aleatorios son importantes en la producción de variabilidad pero uno de los factores cruciales de la evolución son las restricciones no debidas al azar asociadas a la fisiología y a la competencia entre individuos y para las cuales pueden existir varias soluciones. De este modo, dentro de la nueva hermenéutica, si las restricciones están asociadas a la fisiología y a la interacción con otros organismos, ocurre lo que puede llamarse selección externa; si se deben a las propiedades fisicoquímicas de las macromoléculas biológicas, la podemos denominar selección interna. Así, lo aleatorio ya no pesa tanto: es más, el azar es muy poco, el estrictamente necesario.
EVOLUCIÓN Y DESARROLLO, OTRO CONFLICTO, OTRO PUENTE
Los biólogos del desarrollo y los evolucionistas darwinianos tienen, asimismo, tradiciones de investigación y preocupaciones distintas. En cierto sentido, persisten allí las diferencias entre experimentalistas y biólogos de campo y se manifiestan también las que corresponden al par opuesto de las concepciones deterministas o puramente estocásticas. Por un lado, el desarrollo embriológico es fiable pues el programa genético que transforma el huevo fecundado en ser adulto lleva a cabo un proceso complejo de múltiples cambios en cascada, pero ordenado y previsible, que ha de desembocar en estructuras orgánicas determinadas. Por el contrario, según la visión dominante, estrictamente contingencista, la evolución resulta de la composición de dos factores esencialmente azarosos: largas cadenas de pequeños cambios fenotí4 Incluso la discrepancia esencial entre gradualismo y saltacionismo ha resurgido. Véanse, como ilustración del nivel que ha alcanzado, los múltiples ensayos de Stephen Jay Gould o consúltese a Niles Eldredge en Reinventing Darwin, the Great Debate at the High Table of Evolutionarv Theory, Nueva York, John Wiley & Sons, 1995.
18
GERMINAL COCHO GIL
picos, cada uno atribuible a sendas mutaciones génicas que ocurren de manera desordenada, y desastres o catástrofes de todas las escalas en el entorno fisicoquímico y biótico en donde, al actuar la selección natural, puede resultar casi cualquier tipo de organismo.5 No son extraños, por consiguiente, los problemas biológicos fundamentales en los cuales ambas concepciones parecen irreconciliables. Por ejemplo, en el nivel de la evolución biótica, no es claro de qué manera un órgano tan complicado como el ojo de un vertebrado pudo haberse formado evolutivamente por medio sólo de una serie muy larga de mutaciones génicas azarosas. Consideremos también la evolución prebiótica: ¿cómo se pudo pasar de compuestos inorgánicos y orgánicos relativamente sencillos, primero a moléculas orgánicas complicadas como los polímeros biológicos y luego a células, en lapsos razonables respecto a la edad de la Tierra? Nuestro mundo se formó hace 4 500 millones de años aproximadamente y se han encontrado microestructuras, posibles fósiles celulares, con una antigüedad de 3 860 millones de años; como la temperatura terrestre fue muy alta durante los primeros cientos de millones de años, el lapso necesario para que una evolución prebiótica en el tercer planeta llegase a producir células habría sido extremadamente breve. Esto ha llevado a algunos estudiosos del origen de la vida a considerar la hipótesis de una evolución prebiótica en el espacio exterior, en el medio interplanetario, en cometas o en el material interestelar del cual se forman estos cuerpos celestes: de hecho, se ha encontrado allí una gran riqueza de material orgánico, se han hallado (por ejemplo, mediante el uso de métodos espectroscópicos en sondas que se aproximaron al cometa Halley) estructuras esponjosas formadas de filamentos y canales que son cuasi-unidimensionales y podrían haber llegado a la Tierra debido al bombardeo con meteoritos. Allí, las temperaturas llegan apenas a 100° K; las formas primarias de energía son la mecánica y la electromagnética –como es el caso de escenarios en donde una fuerza motriz importante es la radiación electromagnética polarizada de los pulsares– y el papel de la energía 5
Recuérdese la célebre metáfora gouldiana según la cual, si nos fuese dado repetir las condiciones iniciales en que apareció la vida en la Tierra y volver a tocar el cassette, la sucesión de contingencias sería tan distinta que su resultado podría ser una historia de la vida completamente diferente de como ha sido.
ERNST MAYR, LA TEORÍA SINTÉTICA DE LA EVOLUCIÓN
19
termodinámica queda en un segundo plano; por consiguiente, las colisiones moleculares disminuyen drásticamente con respecto a las que podrían ocurrir en el medio terrestre: en tal escenario, la frialdad hace completamente improbable la aparición de las primeras formas de vida. Pero, como fruto del azar y con pocas restricciones, tampoco en nuestro planeta habría sido posible la aparición de la vida: la edad de la Tierra como lugar habitable no sería suficiente; la probabilidad de que ocurriesen síntesis tan complejas en un lapso así de breve es también extremadamente baja. La controversia entre los biólogos del desarrollo y los evolucionistas darwinianos es vieja ya de varias décadas. Empero, hay elementos en los cuales apoyar una síntesis de las dinámicas del desarrollo embriológico y de la evolución; hoy es posible construir puentes sobre la idea de que la evolución es un sistema dinámico en cuyo espacio fase hay regiones privilegiadas donde la búsqueda se acelera y la probabilidad de asimilación a estructuras antecesoras se vuelve positiva. Es posible, entonces, encontrar una explicación en los mecanismos de restricción del espacio de búsqueda. Si las mutaciones hubiesen de explorar de manera uniforme en todo el espacio fase potencialmente accesible, el problema sería insoluble. Es decir, en una búsqueda ciega, la probabilidad de aparición del ojo sería prácticamente nula. Entonces, es necesario considerar mecanismos de restricción de la zona de exploración para que ésta se dé en una “tierra prometida”, en un lugar con potencial de integrarse fácilmente a las estructuras y procesos del desarrollo embriológico, presentes de antemano en los ancestros. Para empezar, veamos la estructura y el funcionamiento de las células: en una primera mirada se les puede considerar recipientes microscópicos, de volumen minúsculo, en donde ocurre un conjunto de reacciones químicas complicadas, base de la vida. Sin embargo, a pesar de su pequeñez, la probabilidad de que –a la temperatura ambiente y por colisiones moleculares azarosas– las reacciones bioquímicas básicas se den con velocidad suficientemente grande es prácticamente nula. De hecho, esas reacciones sólo pueden suceder a tal temperatura gracias a la aceleración producida por la presencia de enzimas catalizadoras, superficies inhomogéneas sobre las cuales tienen lugar las reacciones químicas, y donde por la acción de fuerzas de Van der Waals (fuerzas atractivas de corto alcance), los sustratos se acomodan y pueden ser deformados en regiones específicas cercanas: la dimen-
20
GERMINAL COCHO GIL
sión del espacio de ocurrencia de las reacciones se reduce entonces de tres, un volumen, a dos, una superficie. Además, la inhomogeneidad hace muy probable encontrar los sustratos en determinadas zonas y esto implica aún más restricciones sobre los espacios enzimáticos bidimensionales donde son posibles las reacciones. Sin embargo, ésta no es toda la historia: hay procesos biológicos esenciales en espacios de dimensión aún menor, cuasi-unidimensionales. Tales son los casos de la copia y transcripción genéticas y de la síntesis de proteínas en el ribosoma celular: estos procesos se dan a lo largo de un canal o filamento y son generalmente unidireccionales; en ellos hay movimiento y transferencia de materia, energía e información a escala molecular, son máquinas moleculares en régimen browniano porque, a las temperaturas a que tienen lugar en la Tierra, las fluctuaciones térmicas son esenciales para su funcionamiento. Entonces, los procesos responsables de la variabilidad genética y la síntesis de nueva materia viva son máquinas moleculares –para las cuales tanto la energía mecánica como la termodinámica son importantes– trabajando a lo largo de espacios cuasi-unidimensionales y, en general, en una sola dirección. Todo esto implica la restricción, en varios órdenes de magnitud, del espacio de búsqueda evolutiva y es incompatible con la idea de que la vida va, como el “relojero ciego” de Richard Dawkins,6 haciendo su historia a puro golpe de azar. También los llamados genes y mutaciones homeóticos –merced a los cuales, por ejemplo, puede suceder que una mosca tenga una pata o un ala en el lugar en donde debería haber una antena– restringen las posibilidades en el espacio de búsqueda. Este tipo de genes es casi ubicuo entre los seres vivos; los hay en una gran variedad de organismos, desde la mosca hasta el hombre, y desempeñan papeles similares aunque no idénticos en el desarrollo embriológico. De hecho, se les puede asociar un “lapso de aparición” y un modo de “montaje específico”; es decir, sólo pueden ensamblarse en una arquitectura génica particular en un momento preciso. Este “montaje modular” es, por consiguiente, otro mecanismo reductor del espacio fase efectivo de la evolución biológica. Otro puente ha empezado a tenderse, también, desde el área de los sistemas complejos: cuando un sistema de este tipo opera con 6 Richard Dawkins es un neodarwiniano duro y puro, célebre por las metáforas y trasposiciones a las que suele recurrir en numerosos libros de divulgación como The Selfish Gene o The Blind Watchmaker.
ERNST MAYR, LA TEORÍA SINTÉTICA DE LA EVOLUCIÓN
21
una dinámica al borde del caos o en zona crítica, las contribuciones a la energía libre termodinámica provenientes de la entalpía y de la entropía (y que tienen signo contrario) casi se cancelan y pueden tener lugar cambios estructurales grandes con cambios energéticos pequeños; de este modo, las diversas escalas estructurales y los tiempos de relajación se presentan simultáneamente y pueden existir transformaciones con poco gasto energético. En este sentido, a temperatura celular, en los polímeros biológicos como las proteínas y los ácidos nucleicos, la contribución energética de la entropía casi cancela la de la entalpía y se aproximan mucho a la zona crítica en donde se anulan recíprocamente. Por esto y por su carácter cuasi-unidimensional la dinámica de los polímeros es flexible. Por otro lado, la presencia en el borde del caos de niveles jerárquicos en todas las escalas espaciales y tiempos de relajación indica que la selección natural actuaría de modo eficiente sobre los diversos niveles de organización. Por todo lo anterior, la vida no es un artífice inteligente y genial a cuya disposición hay un número infinito de posibilidades para realizar insospechadas obras de arte biológico: al contrario, dispone sólo de un número limitado de herramientas y métodos porque la naturaleza la sujeta a muchas restricciones y debe resolver los problemas como buenamente puede, con los materiales y en las regiones que la constelación de leyes fisicoquímicas le impone. Descubrir que los procesos biológicos más importantes no pueden ser el resultado de una larga cadena de casualidades –esto es, no están sometidos al capricho del dios todopoderoso y laico de la selección natural– vuelve la vida más inteligible de lo que hasta ahora habíamos creído. Pero reconocer esto no sólo no disminuye la admiración ante la obra magna de la evolución biológica: por el contrario, ¿acaso no es la vida aún más maravillosa si, entre tantas restricciones, ha podido producir algo tan complejo como el cerebro humano y éste, arquitecto incansable, es capaz de construir puentes entre lugares tan distantes?
BIBLIOGRAFÍA
Mayr, E. y W. Provine (eds.). 1980. The Evolutionary Synthesis. Perspectives on the Unification of Biology, Cambridge, Harvard University Press.
WADDINGTON, THOM Y LA BIOLOGÍA TEÓRICA JOSÉ LUIS GUTIÉRREZ SÁNCHEZ*
A mediados de los años sesenta, el Comité Ejecutivo de la Unión Internacional de Ciencias Biológicas (IUBS, por su sigla en inglés) le encomendó al brillante biólogo experimental y filósofo de la ciencia de la Universidad de Edinburgo Conrad Hal Waddington1 (véase figura 1), la organización de una serie de encuentros o symposia académicos donde se explorara la posibilidad de construir una nueva disciplina o rama del conocimiento, llamada biología teórica general. Parecía cercano el momento de concederle a tal materia un lugar semejante al de la física teórica en las ciencias de la materia inerte, pero en el dominio de las de la vida. Desde el principio, Waddington planteó establecer los fundamentos de esta rama como una biología matemática: un cuerpo de enunciados formales en donde fuese posible deducir teoremas sobre los procesos biológicos. Sin embargo, aún hoy muchos estudiosos de la vida muestran extrañeza al planteárseles esta intención y suelen responder que “la biología ya tiene una teoría, la de la evolución por selección natural, cimentada por Charles Darwin a mediados del * Universidad Autónoma Chapingo y Departamento de Matemáticas, Facultad de Ciencias, Universidad Nacional Autónoma de México,
[email protected]. unam.mx 1 Conrad Hal Waddington (1905-1975), embriólogo, genetista y filósofo de la ciencia británico. En 1926 se graduó como geólogo pero muy pronto sus intereses se orientaron hacia la biología. Sus investigaciones embriológicas en aves y mamíferos lo llevaron a descubrir (1933) en algunos tejidos mensajeros químicos inductores del desarrollo de otros conjuntos tisulares y, más tarde, a indagar los efectos reguladores de los genes sobre la formación de tejidos y órganos. En Organisers and Genes (1940), intentó relacionar la genética mendeliana con los hallazgos de la embriología experimental. Durante la segunda guerra mundial participó en el esfuerzo bélico del Reino Unido haciendo investigación de operaciones para el ejército británico y, al terminar la guerra, estableció la Unidad de Genética Animal para el Consejo Británico de la Investigación Agrícola. Su Principles of Embryology (1956) es considerado un texto clásico, indispensable en su rama. The Ethical Animal (1960), Biology for the Modern World (1962) y Tools for Thought (1975) contienen su filosofía de la ciencia y su ética de la naturaleza.
[22]
WADDINGTON, THOM Y LA BIOLOGÍA TEÓRICA
23
Figura 1. Conrad Hal Waddington.
siglo XIX sin una sola ecuación”, teoría suficiente para darle coherencia a toda la ciencia biológica por su gran capacidad explicativa. A veces, quienes opinan tienen también una buena formación matemática –bastante para no confundir la matemática con la estadística– y aceptan la aplicación de los métodos de esta ciencia a la biología para sugerir y plantear conjeturas respecto a cómo funciona la vida en un lenguaje preciso y claro; conviene incorporar la modelación matemática como una herramienta para interrogar a la naturaleza, agregan, sólo cuando las consecuencias no sean obvias, pero esto no implica la posibilidad de hallar los equivalentes biológicos de la ecuación de Schrödinger, el principio de incertidumbre de Heisenberg o la ley de la distribución de Maxwell–Boltzmann. Para ellos, la búsqueda de las que pudieran llamarse “ecuaciones de la evolución de la vida” –sea cual fuere su significado– es algo sin sentido. Más o menos entre 1936 y 1947, en los centros académicos de Oc-
24
JOSÉ LUIS GUTIÉRREZ SÁNCHEZ
cidente se había gestado una síntesis de la genética mendeliana y la teoría clásica de la evolución –llamada desde entonces neodarwinismo– como doctrina respecto a la cual habría de referirse todo en biología: se le consideraba modelo de explicación científica y venía a resolver una disputa aparentemente irresoluble entre biólogos de campo y biólogos de laboratorio (véase el artículo de Germinal Cocho en este mismo volumen). Esto y el descubrimiento en 1953 de la estructura molecular del ADN, un éxito experimental sin precedentes en la biología molecular, se presentaban como demostración de la solidez conceptual de las ciencias de la vida. No obstante, para críticos como René Thom2 (véase figura 2) y Waddington, aunque el desarrollo alcanzado por la biología era importante, provenía de una concepción según la cual todo en la naturaleza se podía reducir a cosas relacionadas entre sí mecánicamente y esta visión del mundo no sólo era limitada sino esencialmente errónea. Por ello, aún poco antes de su muerte en 1975, Waddington juzgaba muy severamente a la biología del siglo XX: El gran avance en nuestra comprensión de los seres vivos durante la primera mitad de este siglo prueba qué tan eficaz puede ser el punto de vista mecanicista, de [considerar a la naturaleza formada sólo por] “las cosas”, como método de investigación de los procesos biológicos: dio como resultado un enorme incremento en el entendimiento del cuerpo como máquina fisiológica con todas las [muy notables] repercusiones de esto en medicina y, finalmente, llevó al descubrimiento de la base material de la herencia en el ADN y el código genético. Aún así, por poderoso que pueda ser este enfoque, ha tenido éxito sólo con respecto a algunas cuestiones pero no con respecto a todas: nos ha dado poco sobre el desarrollo del embrión; unas teorías, algo huecas, sobre la evolución; y casi nada sobre la mente (Waddington, 1979:20).
2
René Frédéric Thom (1923-), matemático francés, graduado en la École Normale Supérieure en 1946 y profesor, desde 1964, del Institut des Hautes Études Scientifiques à Bures-sur-Yvette. Recibió la Medalla Fields en Edinburgo durante el Congreso Internacional de Matemáticos de 1958 por su trabajo en topología. Seguramente, su contribución más conocida es la teoría de catástrofes: un intento de modelar cambios abruptos en procesos continuos (de una manera imposible si sólo se usa cálculo diferencial) ideal para representar procesos físicos, biológicos o sociales cuya característica esencial es este comportamiento de “cambio de fase violento” luego de transponer un umbral de saturación. Dos de sus obras más destacadas son Stabilité structurelle et morphogénèse (1972) y Théorie des catastrophes et biologie (1979).
WADDINGTON, THOM Y LA BIOLOGÍA TEÓRICA
25
Figura 2. René Thom.
Discutir la pertinencia de aproximarse al estudio de la biología desde un punto de vista distinto del dominante y sentar las bases metodológicas para superar las limitaciones que él percibía en esa disciplina sería la tarea de Waddington y sus aproximadamente veinte invitados durante los tres encuentros, convocados bajo el nombre inequívoco de Towards a theoretical biology y llevados al cabo en los meses de julio de 1966, 1967 y 1968 en un lugar llamado Villa Serbelloni, en la Lombardía alpina, a orillas del lago Como. Desde luego, no todos los asistentes compartían los juicios del organizador respecto al desarrollo de las ciencias de la vida, y el conflicto de sus posiciones produciría uno de los debates más intensos e inteligentes en la historia del pensamiento científico sobre la filosofía del conocimiento biológico. Como se sabe, la uniformidad de opiniones produce esterilidad intelectual y, muy probablemente, Waddington se interesó en evitarla al seleccionar a sus invitados. Por ejemplo, en Serbelloni hubo partidarios de una revisión profunda de los postulados del seleccionismo: el joven matemático francés René Thom –quien había recibido la Medalla Fields, el equivalen-
26
JOSÉ LUIS GUTIÉRREZ SÁNCHEZ
te al Premio Nobel en matemáticas– era uno de los críticos más radicales de la doctrina neodarwiniana y, tal vez, era él quien tenía, entre todos, una idea más desarrollada de cómo podría construirse la biología teórica. Asimismo, en aquellos encuentros había partidarios del neodarwinismo “tal cual es”. Tales eran los casos, por ejemplo, del insigne zoólogo y evolucionista germano-estadounidense Ernst Mayr –quien había sido uno de los principales promotores de la Conferencia de Princeton (1947) en la cual, finalmente, había cuajado la síntesis entre la teoría clásica de Darwin y la genética mendeliana– y del biólogo británico John Maynard Smith –por cierto, uno de los más destacados difusores del uso de ideas matemáticas en biología3 pero, también, uno de los defensores más decididos de la interpretación ortodoxa de la evolución (véase figura 3).
EL TEMARIO DE CONRAD HAL
El nacimiento de la biología teórica, trabajo de parto para el cual se había reunido aquella veintena de pensadores, no podía dar como resultado un cuerpo de conocimiento totalmente coherente en donde todas las preguntas estuviesen nítidamente resueltas; la labor era mucho más básica, fundacional: se trataba de decidir los procesos y problemas esenciales de las ciencias de la vida –equiparables a los de la física teórica por su generalidad y alcance– y apuntar los métodos para encontrar respuestas. En “Las ideas básicas de la biología” (Waddington y Thom, 1968a: 1-41) –un artículo hecho llegar a los invitados antes del primer symposium– Waddington enuncia con líneas bastas y firmes sus propuestas para dar inicio a la discusión y Thom las analiza puntualmente y sugiere formalizaciones pertinentes. Aquel biólogo excepcional tratará de distanciarse de los múltiples problemas de detalle –lugar común donde se pierden los naturalistas– al estudiar los seres vivos y discernir sólo las nociones fundamentales, entre otras: ¿qué es la vida?, ¿cómo ocurre el 3 Son clásicos sus textos Mathematical Ideas in Biology (Cambridge University Press, 1968) y Mathematical Models in Ecology (Cambridge University Press, 1974), publicados a contracorriente de la opinión de la inmensa mayoría de los estudiosos quienes suponían que, si acaso, sólo los métodos estadísticos son útiles en biología.
WADDINGTON, THOM Y LA BIOLOGÍA TEÓRICA
27
Figura 3. Asistentes al Primer Symposium: Villa Serbelloni, julio de 1966. De izquierda a derecha: el segundo de pie, René Thom; sentados: segundo y tercero, Ernst Mayr y Conrad Hal Waddington; en el extremo de la derecha, John Maynard Smith.
proceso que va del genotipo al fenotipo?, ¿cuáles son las fuerzas de la evolución biológica?, ¿cómo ha contribuido la biología a la filosofía?, ¿existe una ética intrínseca a la naturaleza? En el máximo nivel de generalidad, por ejemplo, postula a los seres vivos como ejemplos particulares de algún tipo de “complejidad organizada” y la tarea de los symposia y de la nueva disciplina es indagar qué clase de complejidad tienen y cuáles son los principios de su organización. Los asistentes afrontaron estas cuestiones y sugirieron respuestas diversas y provisionales desarrolladas posteriormente con mayor profundidad y alcance por investigadores tan reconocidos hoy en la biología y la biología matemática como Brian Goodwin, Christopher Zeeman, Richard Lewontin o Steven Kauffman. No creo exagerado asegurar que todos ellos, a la sazón muy jóvenes, aprendieron en Serbelloni a ver las ciencias de la vida con nuevos ojos. En este ensayo presento un resumen de la filosofía de Waddington y algunos rasgos generales de la propuesta de matematización de René Thom.
28
JOSÉ LUIS GUTIÉRREZ SÁNCHEZ
INSTRUMENTAL PARA EL INTELECTO
No es posible hacerse una idea cabal de la propuesta de Waddington sin seguirlo en sus reflexiones filosóficas generales. Poco antes de su muerte, las resumirá en Herramientas para el pensamiento (Waddington, 1979): un instrumental útil para analizar y comprender procesos de la naturaleza –como los de la evolución del embrión, la vida, el cerebro o las sociedades– en los cuales ocurre la interacción de una multitud de elementos –moléculas, genes, órganos, individuos, instituciones– pero los efectos no son proporcionales a las causas ni es posible explicar el comportamiento en un nivel como la suma de la conducta de sus componentes. A los procesos de este tipo Waddington los llamará sistemas complejos.
LA SABIDURÍA CONVENCIONAL
Waddington rondaba los sesenta años y su prestigio y autoridad como biólogo experimental eran incuestionables. Muchos de sus colegas –incluidos los jóvenes a quienes, según el mito, les habría correspondido ser portadores de nuevas ideas– aceptaban sin chistar la doctrina biológica oficial mientras él la criticaba de frente, sin concesiones, y hallaba en la sumisión una pobreza de espíritu resultante del desdén manifiesto del scientific stablishment por las reflexiones filosóficas. Cualquier tipo de indagación exige y conlleva una filosofía pero la mayoría de los científicos rehuyen afrontarla explícitamente pues la consideran inútil y prefieren dejarse guiar por el sentido común –como si éste no fuese la filosofía inculcada por los padres o los mayores a los niños cuando éstos ni se dan cuenta– y sustituirla por “medir lo que haga falta”. Por consiguiente, esta actividad (medir) ciertamente primaria en el proceso de construcción del conocimiento, se convierte en divisa, método y consigna de la “sabiduría convencional del grupo dominante” de cuya expresión en inglés (conventional knowledge of the dominant group) Waddington deriva el acrónimo cowdung (caca de vaca, en castellano) y en él resume los vicios del modo hegemónico de hacer ciencia. Entre otras, esa práctica común de eludir las consideraciones filosóficas es simple y llanamente cowdung (véase la figura 4).
WADDINGTON, THOM Y LA BIOLOGÍA TEÓRICA
29
Figura 4. La fuente de la sabiduría convencional del grupo dominante o cowdung. Según C. H. Waddington (1979).
. FILOSOFÍA DE LA NATURALEZA
Waddington empieza por ubicar su propio marco intelectual de la naturaleza con respecto a las dos grandes corrientes filosóficas asociadas, por sus orígenes en la Antigüedad clásica, con Demócrito de Abdera (c. 460-c. 370 a. C.) y con Heráclito de Éfeso (c. 540-c. 480 a. C.). En la visión del primero, el mundo consiste esencialmente de “cosas” y cualquier alteración en ellas es realmente secundaria y proviene sólo de la forma en que las cosas se integran entre sí. La concepción heracliteana, por el contrario, entiende al universo como procesos y las cosas no pasan de ser cuadros aislados, fotos fijas, en el cine del mundo. Con la primera interpretación, un ser vivo es nada más un conjunto de interacciones físicas y químicas entre cosas esencialmente inmutables, como si un organismo fuese una fábrica. Llevada al extremo, esta visión conduciría al científico a juzgar la vida con la mentalidad
30
JOSÉ LUIS GUTIÉRREZ SÁNCHEZ
de quien aprieta tuercas y ajusta tornillos en el trabajo de un taller mecánico; lo haría olvidar los procesos característicos de los seres vivos y hacer caso omiso de su desarrollo desde un huevo fertilizado hasta un ser adulto, de la maduración, el envejecimiento, la reproducción y la muerte. No obstante, estos procesos ocurren en la vida a todas las escalas, desde las células y los individuos hasta las especies y las sociedades. La concepción del mundo reducido a objetos ha sido la base de la interpretación mecanicista de la naturaleza, dominante sin interrupciones en el pensamiento científico desde el siglo XVII hasta nuestros días. En contraposición con la democriteana, quienes siguieron la concepción filosófica de Heráclito sostuvieron primero –desde Aristóteles y quizá hasta el primer tercio del siglo XX– una doctrina llamada “vitalismo” según la cual la vida se distingue de la materia inerte merced a la existencia de una “fuerza vital”, encargada de controlar la forma y el desarrollo así como de dirigir las actividades de los organismos y exclusiva de éstos. Esta hipótesis, insostenible por no poder probarse la naturaleza de tal fuerza, cedió su lugar a la noción de los sistemas vivos como constituidos por entidades fisicoquímicas y “relaciones organizadoras” merced a las cuales ocurren comportamientos que no pueden suceder en las partes aisladas de los sistemas: La importancia de las relaciones organizadoras entre las entidades básicas y la posibilidad del surgimiento de propiedades nuevas en sistemas suficientemente complicados constituyen hoy, probablemente, la principal oposición a la cowdung de “nada sino cosas materiales” (Waddington, 1979:20-21).
ÉTICA DE LA NATURALEZA
Pero no nada más, dice Waddington, ha sido relegada la discusión sobre si interesa estudiar sólo las cosas en la naturaleza o si lo importante en ella son los procesos. En el medio científico han recibido aún menos atención cuestiones tan básicas para la filosofía como los valores y la ética. La búsqueda de lo verdadero, de lo cierto, en el mundo de la materia y sus relaciones con lo bueno, con el bienestar de los seres vivos o la felicidad de los humanos casi nunca han figurado entre las preocupaciones de la ciencia convencional. La cowdung ha dejado estas reflexio-
WADDINGTON, THOM Y LA BIOLOGÍA TEÓRICA
31
nes “a un grupo exiguo de filósofos de la moral, cuyo prestigio es cercano al ínfimo en el mundo académico” (Waddington, 1979:25). Sin embargo, para el embriólogo británico, ni la forja del nuevo instrumental para el intelecto ni, por consiguiente, la construcción de la biología teórica pueden prescindir de la ética; al menos debe haber un sistema básico de valores para “sugerir el tipo de herramientas necesarias” (Waddington, 1979:25). En este tema, Waddington reconoce la influencia del filósofo y matemático inglés Alfred Norton Whitehead4 sobre sus ideas y sostiene haberlas desarrollado a pesar de trabajar en un medio “poblado de materialistas [donde] toda la ciencia estaba dominada por concepciones esencialmente newtonianas de átomoscomo-bolas-de-billar…” (Waddington, 1969b:78-79). Para explicar su posición, en “Herramientas para el pensamiento” Waddington plantea tres alternativas: • (a) La naturaleza consiste de cosas versus (b) La naturaleza consiste de procesos. • (p) Los valores están dentro de la naturaleza versus (q) Los valores están fuera de la naturaleza. • (x) Los valores provienen de Dios versus (y) Dios proviene de los valores. Y opta por la terna (b)-(p)-(y); por consiguiente, para él “la naturaleza consiste de procesos que conllevan valores y Dios –si quisiésemos usar este término– surge de los valores inherentes a los procesos”. Waddington es más explícito en “Las ideas básicas…”: explica por qué la ética es un producto intrínsecamente inevitable del universo material, donde se separa de la posición de Whitehead, para quien “la conciencia y los valores son de una naturaleza tan distinta de las nociones tratadas por la ciencia física que ninguna manipulación de 4 Alfred Norton Whitehead (1861-1947), escribió entre 1900 y 1910 con su joven discípulo Bertrand Russell los Principia Mathematica, una monumental fundamentación lógica de la matemática pura. Desarrolla su metafísica y su ética en Science and the Modern World (1925) y Process and Reality (1929) donde parte de una crítica del “materialismo científico” y para argumentar en favor de la existencia de valores en la naturaleza apela a los poemas de W. Wordsworth y P. B. Shelley. Para Whitehead (nótese la semejanza con las propuestas de Waddington), el Universo consiste completamente de transiciones (becomings en el original), cada una de las cuales es un proceso en donde se integran la infinidad de detalles (la “realidad”) provistos por el Universo antecesor y por Dios (la fuente donde moran las posibilidades de lo nuevo). Como metafísico, a Whitehead se le compara con Leibniz y con Hegel.
32
JOSÉ LUIS GUTIÉRREZ SÁNCHEZ
estas nociones podría producirlas (por ejemplo, como resultantes de la pura complejidad)…” (Waddington y Thom, 1968a:29-32). Para Waddington, la evolución de la vida dondequiera que pudiere ocurrir llevaría a los organismos a darse formas complejas, como el lenguaje de los seres humanos, para transmitir información, y recuerda: En The Ethical Animal (1960) he discutido cómo la forma particular de este sistema […] en la forma desarrollada por el hombre, lo conecta inextricablemente con nociones de autoridad (usualmente paterna) social pues sólo la asociación con restricciones socialmente impuestas (esencialmente alguien diciendo “No”) induce en un bebé la percepción de que las modulaciones de la presión del aire en sus oídos son codificadoras de un mensaje. Es más […] cuando el joven individuo humano lleva al cabo el importante paso evolutivo de convertirse en un miembro de la “red de transmitir-información-mediante-palabras”, se percata de que las palabras pueden ser portadoras de instrucciones, desarrolla la idea de la existencia de instrucciones casi absolutas y, más tarde, forma con ellas una “ética”, un sistema de valores…
En la visión waddingtoniana, por consiguiente, no hay cotos de la realidad inabordables; no hay actividad de los seres vivos ni específicamente humana ante la cual las ciencias de la naturaleza deban rendirse y aceptar explicaciones ajenas a ellas; hasta los aparentemente inaccesibles vericuetos de la conciencia y su producción ética, su elaboración ideológica de un sistema de valores, es posible interpretarlos si se tienen las herramientas adecuadas con una visión compleja del Universo.
LA TEORÍA DE LOS FENOTIPOS
Para definir qué es la vida, Waddington revisará las definiciones de fisiólogos y genetistas y se declarará insatisfecho con las dos. Desde el punto de vista de los primeros, el ser vivo es un “estado de la materia” capaz de sintetizar y mantener dentro de sí estructuras moleculares mucho más complicadas que las entidades fisicoquímicas relativamente simples usadas en su construcción.5 En la definición de los genetis5 Ésta era, dicho sea de paso, una de las razones por las cuales los seres vivos eran considerados “inversos locales” de la segunda ley de la termodinámica: ¿cómo, si no, era posible que en los seres vivos no ocurriese que la tendencia al desorden o entropía aumentara indefinidamente y surgiese orden y organización autorregulada y reproducible?
WADDINGTON, THOM Y LA BIOLOGÍA TEÓRICA
33
tas se agrega como igualmente importante su capacidad reproductora y, sobre todo, el hecho de estar empeñados en el proceso de largo alcance de la evolución. Sin embargo, esto define la vida completamente en términos del genotipo y no basta la capacidad de copiarse a sí mismo y ser sujeto de evolución para estar vivo; para Waddington, la vida involucra también la producción del fenotipo: es decir, algo desarrollado desde el genotipo y que interactúa con el medio ambiente. En los symposia, esta propuesta es aceptada por todos y se produce un acuerdo por consenso: la transmisión hereditaria de información genética mutable no es un criterio bastante para distinguir a la materia viva de la inerte; debe, además: evolucionar mediante el proceso de selección natural y eso implica una interacción suficiente con el entorno para que la selección sea efectiva […] La vida, empeñada en la tarea de la evolución, requiere no sólo un genotipo sino un fenotipo. El proceso mediante el cual el genotipo se transforma en fenotipo se llama “epigénesis” (por consiguiente, el “metabolismo”, considerado por los biólogos de vanguardia hace treinta años o más como la característica discriminante de la biología en los “inversos locales de la Segunda Ley” no es más que un breve corte en la escala temporal de la epigénesis) (Waddington, 1969a:4).
Además, este proceso no puede interpretarse solamente como el de transmitir una cierta cantidad de información; exige también la comprensión de las instrucciones o algoritmos para el desarrollo desde los genes hasta el fenotipo. Por ello, una teoría de los fenotipos y una epigenética –el estudio de las relaciones causa-efecto entre los genes y su producto final, el fenotipo– habrían de ser partes esenciales de la biología teórica general.
CARACTERIZACIÓN MATEMÁTICA
En el trabajo experimental de Waddington destacan sus estudios en epigénesis y quizá sea en su concepción de ésta como un sistema dinámico donde exprese mejor el sentido de su propuesta para la biología teórica: un aparato formal, matematizado, capaz de modelar los procesos de la vida con suficiente generalidad, por ejemplo, para explicar
34
JOSÉ LUIS GUTIÉRREZ SÁNCHEZ
relaciones de causa-efecto en el desarrollo embrionario, el origen de las especies o la formación de la conciencia de los seres humanos. En The Basic Ideas of Biology (Waddington y Thom, 1968a:10) se sugiere formular el fenotipo como una función X = X(t) en donde la configuración fisicoquímica, estructural y fisiológica de un huevo fecundado –representada por el vector de estado X– depende del tiempo t. De la observación experimental se sabe que X(t) no puede ser una función continua: el hígado está claramente diferenciado de los riñones y éstos, a su vez, del corazón, tanto por su forma y su posición en el espacio como por las particularidades de los tejidos de cada órgano; por esto, el fenotipo X(t) está obligado a bifurcarse en diversas subconfiguraciones, cada una de las cuales se extiende separadamente a lo largo de la dimensión del tiempo; esto da lugar a las trayectorias epigenéticas en el espacio fase del sistema. Además, en contraposición con la idea de que cada momento de diferenciación celular durante el desarrollo va a terminar con la aparición de ciertos “estados estables” –un prejuicio largamente sostenido en la embriología del periodo entre guerras y todavía presente a mediados de los sesenta– Waddington asegura que el disparo de inicio del recorrido de una trayectoria, desde una bifurcación, produce una avalancha de estados transitorios y las subconfiguraciones del fenotipo sólo se vuelven estables cuando madura el individuo. De hecho: Si uno considera cualquier caso real, como el cambio de parte del ectodermo de la gástrula de un anfibio para convertirse en tejido neuronal o en epidermis, es muy claro que [el conglomerado de células] no entra a un estado estable sino todo lo contrario: arranca por alguna trayectoria particular de cambio en la cual, por ejemplo, una dirección la llevará a formar parte de la placa neuronal, luego del tubo neuronal, luego de alguna región de la médula espinal o del cerebro, para convertirse en parte de la materia gris o de la blanca o, quizás, madurar como el tronco de un nervio. Solamente después de haber pasado por un gran número de estados transitorios llegará a una situación relativamente estable […] en realidad, cuando el individuo sea adulto (Waddington y Thom, 1968a:10-11).
Por otro lado, normalmente las trayectorias epigenéticas tienen un carácter canalizado o amortiguado en el sentido de dar lugar a patrones espaciales y son robustas ante perturbaciones genéticas o del desarrollo: pequeños cambios no alteran fácilmente el curso de una de ellas y, cuando una perturbación lo logra, implica cambios generaliza-
WADDINGTON, THOM Y LA BIOLOGÍA TEÓRICA
35
dos en todo el organismo. Éste es un hecho observado experimentalmente de importancia capital para la teoría biológica. Esto, dice Waddington, es similar a una dinámica fisiológica de homeostasis en la que el organismo compensa lo necesario a fin de mantener algún parámetro dentro de un rango prestablecido. Si la constancia no es la de un simple parámetro sino una trayectoria a lo largo del tiempo, la dinámica es llamada de homeorhesis y por consiguiente, se ha estabilizado un flujo. Al comentar estos conceptos waddingtonianos, Thom dará la formalización matemática en términos de sistemas dinámicos: en la homeostasis, la configuración del sistema está en la vecindad de una posición de equilibrio estable en el espacio fase; en la homeorhesis, el estado se encuentra en la vecindad de un conjunto invariante, una hipersuperficie de trayectorias, hacia las cuales es atraído el sistema cuando se acerca suficientemente. Las trayectorias con cauce de la embriología de Waddington se llaman creodas;6 un neodarwinista atribuiría su existencia al largo proceso de ensayo y error de la selección natural que, ya se sabe, sirve para justificar cualquier cosa; Waddington sugiere una explicación muy distinta: bajo ciertas condiciones, la interacción múltiple de una gran cantidad de agentes produce necesariamente algún tipo de canalización o amortiguamiento; i.e. un sistema como el embrión en desarrollo lleva consigo la obligación de hacer surgir, espontáneamente, patrones espaciales.7 Importa dilucidar si es lo uno o lo otro. Thom abordará el problema en su teoría dinámica de la morfogénesis. 6
El lector interesado en las definiciones originales puede seguir las indicaciones del mismo Waddington en su correspondencia con Thom: “Si desea usted dar referencias para mis discusiones de estos conceptos, podrían ser: (i) la palabra creoda: Strategy of the Genes (Allen and Unwin, Londres, 1957: 32). (ii) El paisaje epigenético: Organisers and Genes (Cambridge University Press, 1940) y Strategy of the Genes. (iii) Homeorhesis: Strategy of the Genes fue el primer lugar donde propuse la palabra; el concepto, como he tratado de mostrarle, estaba implícito en la Introduction to Modern Genetics de 1939 (Allen and Unwin, Londres) y en Organisers and Genes” (Waddington y Thom, 1968b:179). 7 De hecho, Ilya Prigogine ganará diez años después del segundo symposium el Premio Nobel de Química por demostrar que exactamente eso pasa en estructuras disipativas lejos del equilibrio termodinámico como los seres vivos. Por cierto, estas investigaciones resolverían, finalmente, la disputa del vitalismo al caracterizar el orden presente en los seres vivos como autoorganización, una propiedad intrínseca de los sistemas abiertos; en consecuencia, ni se viola la segunda ley de la termodinámica, ni la materia viva es distinta de la inerte y la hipótesis de la “fuerza vital” es tan innecesaria como la intervención de un dios para la existencia de la vida.
36
JOSÉ LUIS GUTIÉRREZ SÁNCHEZ
LA TEORÍA DE LA EVOLUCIÓN, EN EL CENTRO DEL DEBATE
El esfuerzo de los asistentes a los symposia de la IUBS hubo de iniciarse con una revisión profunda de los fundamentos de la biología; de hecho, en Serbelloni se vivió uno de los episodios más interesantes de una lucha intelectual –aún no resuelta en la filosofía de las ciencias de la vida– pendiente desde que la pleamar darwinista había, prácticamente, arrollado las corrientes de pensamiento evolucionista anteriores a El origen de las especies. Por ejemplo, eso había ocurrido en la segunda mitad del XIX con las propuestas de los racionalistas franceses como Geoffroy SaintHilaire o Jean-Baptiste Lamarck y, ya en nuestro siglo, la disputa tendría una de sus expresiones más nítidas entre la fe en el seleccionismo de Fisher, Haldane y Pierce –la “Santísima Trinidad” darwinista del primer tercio de siglo– y el estructuralismo de D’Arcy Thompson (véase el ensayo de Pedro Miramontes y José Luis Gutiérrez en este mismo volumen). Sin duda, uno de los temas más sugestivos y seguramente el más heterodoxo y provocador, abordado en “Las ideas básicas…” es la crítica de la doctrina oficial del neodarwinismo lograda apenas en 1947, como ya he dicho, durante la famosa Conferencia de Princeton (véase el artículo de Germinal Cocho en este mismo libro) a partir de la cual toda posición discrepante en torno a la historia de la vida sería literalmente avasallada. Al atribuir las fuerzas de la evolución a la variación génica aleatoria mientras Darwin mismo se refería a variaciones del fenotipo e interpretar al más apto como el que contribuye con más gametos para la siguiente generación, el neodarwinismo ha cambiado por completo el sentido original de la propuesta del naturalista del Beagle: además de referirlo todo a cambios azarosos genotípicos ha desaparecido: toda consideración sobre la habilidad para habérselas con el trajín de la vida y la ha reemplazado completamente por la concepción de la eficiencia reproductiva […] [esto] hace a un lado la discusión respecto a por qué los animales habrían evolucionado hacia todo tipo de estructuras altamente adaptativas [y desarrollado habilidades] para hacer cosas inesperadas en lugar de reducirse, simplemente, a ser costales de huevos y esperma como ciertas lombrices parásitas (Waddington y Thom, 1968a:19).
Por otro lado, Darwin se había empeñado en establecer como un hecho el cambio de las especies, y que unas provenían de otras estaba
WADDINGTON, THOM Y LA BIOLOGÍA TEÓRICA
37
ya fuera de toda discusión. ¿Cuáles, entonces, serían los problemas actuales de la teoría de la evolución?
HACIA UNA TEORÍA MATEMÁTICA DE LA EVOLUCIÓN
En términos generales, Waddington propone –con visión y herramientas de epigenetista– volver a la preocupación de Darwin sobre el cambio azaroso de los fenotipos para tratar de discernir los problemas de la adaptación y de cómo los seres vivos se dividieron en distintas categorías taxonómicas; asuntos centrales en cualquier explicación del proceso evolutivo sobre los cuales, paradójicamente, El origen de las especies dice o nada o muy poco. De manera particular, Waddington sugiere abordar la discusión de los siguientes temas y, en cada uno, apunta una propuesta de solución: 1. La herencia de los caracteres adquiridos. Se trata de ver el asunto con nuevos ojos: la capacidad de un organismo para responder a las presiones ambientales es, en sí misma, una cualidad heredada y la canalización de su desarrollo conduce a una asimilación genética. 2. Las formas dinámicas de autocontrol. Mediante un proceso de realimentación (feedback, en el original), el comportamiento de los animales determina en gran medida el tipo de presión selectiva al cual van a estar sujetos; las grandes poblaciones animales mueven sus piezas en un juego conductual dentro y contra la naturaleza y modulan, por sí mismas, las presiones resultantes. De este modo, se establece cierto autocontrol del cual puede derivarse alguna estabilidad dinámica en la ecología de esas poblaciones. 3. El “valor de adecuación” de una población. Es preciso discutir el concepto en términos evolutivos de largo plazo, considerándolo un parámetro de la dinámica entre la población y su entorno físico y biótico y no solamente como una medida de la probabilidad de dejar descendencia entre una generación y la siguiente. 4. El problema de los “primeros principios” para la dinámica de la evolución. No puede ser uno de ellos el “dejar más descendencia que el vecino”, como quiere el neodarwinismo, olvidando cualquier aspecto fenotípico aparentemente ajeno a la reproducción. Tal vez, sugiere, una respuesta mejor sea “encontrar alguna modificación fenotípica propicia para dejar más descendencia que el vecino”. 5. El papel de los arquetipos en la evolución. La selección natural ac-
38
JOSÉ LUIS GUTIÉRREZ SÁNCHEZ
túa sobre las poblaciones y se manifiesta en los organismos; éstos no son la suma de una serie de procesos independientes echados a andar por factores genéticos inconexos sino el resultado de la interacción de cada población con decenas de otras poblaciones. Una característica mayor de sistemas de tal tipo es la ocurrencia de “fenómenos de umbral” en donde la transición de un parámetro s de un lado a otro de un valor crítico puede producir un efecto magnificado por n para n muy grande. Digamos que ésta es una manera de “pegarle al gordo” en la evolución a largo plazo. Por cierto, para Thom el concepto de realimentación (tomado en préstamo de la ingeniería de sistemas) es inadecuado para entender la estabilidad biológica, y propone sustituirlo por la noción matemática de “estabilidad estructural”; ésta refleja un atributo indispensable de toda forma identificable (de la aparición de un patrón geométrico o temporal): aunque sea posible alterarla con pequeñas perturbaciones, puede ser extremadamente robusta ante otras y se puede decir, con razón, que dicha estabilidad es parte del “patrimonio genético” de las especies. Por lo tanto, debería haber al menos tres grandes capítulos en una teoría matemática de la evolución:8 (a) El de las “transiciones de fase”, para explicar el proceso de diferenciación taxonómica (en particular entre dos arquitecturas diferentes), inexplicable mediante la acumulación gradual de pequeños cambios. Esto es, ¿cuándo un pequeño incremento en un parámetro σ del sistema dinámico de la vida implica un incremento de s por varios órdenes de magnitud? (b) El de la caracterización de los diferentes phyla como variedades topológicas en el espacio fase para saber cómo se distinguen entre sí los patrones de organización estructuralmente distintos. (c) El de la formalización de los arquetipos. Para la cual es preciso considerar dos escalas en el tiempo: • La del desarrollo orgánico, donde el arquetipo no es una forma de organización individual, no es el estereotipo de la configuración 8 Otros aspectos esenciales de la filosofía evolutiva waddingtoniana y, sobre todo, la contraparte en favor del neodarwinismo, deben leerse en el debate a cuatro voces entre él, John Maynard Smith, David Bohm y Marjorie Grene contenido en la serie de ensayos “The Status of Neo-Darwinism” de J. Maynard Smith y “Paradigm for an Evolutionary Process” de Waddington. Además de a las réplicas cruzadas entre estos autores, póngase atención particular al “Addendum on order and neo-Darwinism” de David Bohm y las “Notes on Maynard Smith's Status of neo-Darwinism” de la filósofa Marjorie Grene (IUBS, 1969:18-128).
WADDINGTON, THOM Y LA BIOLOGÍA TEÓRICA
39
de un adulto, sino la trayectoria epigenética completa, la creoda arquetípica que va del huevo al organismo maduro. • La correspondiente a la evolución de las especies. Donde no se tendrían arquetipos de díptero o de caballo sino de sus respectivas familias filogenéticas, caracterizadas dinámica y topológicamente porque, en su seno, hay una mínima resistencia al cambio evolutivo.
EL PAISAJE DE LA SUBVERSIÓN
Muchas de las cuestiones indicadas por Waddington en “Las ideas básicas…” las abordó René Thom de manera muy sugestiva. Por ejemplo, en el primero de sus comentarios, busca una analogía en la física para desarrollar la idea de que el determinismo y la doctrina de las causas finales no son, necesariamente, excluyentes: Se sabe que, en mecánica clásica, la evolución de un sistema puede describirse ya sea mediante ecuaciones diferenciales locales como las de Hamilton
P=
∂H ∂H , Q= ∂q ∂p
. ∂H . ∂H q= , p= ∂p ∂q o mediante un principio de variación global, como el de Mínima Acción de Maupertuis y ambos enunciados son equivalentes, aunque el punto de vista de uno es determinista y el otro, finalista (Waddington y Thom, 1968a:32).
En efecto, el principio –establecido por Maupertuis9 de la siguiente manera: “en todos los cambios que tienen lugar en el Universo, la suma de los productos de la masa de cada cuerpo multiplicada por la distancia que recorre y por su rapidez, es la mínima posible”– es un postulado teleológico pues supone una causa final (en el sentido del telos aristotélico) obedecida por la naturaleza, implica alguna economía general en ella; i.e., siempre hace tender alguna magnitud –la cantidad de movimiento o la longitud de una trayectoria, por ejemplo– a una cantidad mínima. Thom continúa de la siguiente manera: 9
Pierre Louis Moreau de Maupertuis (1698-1759), matemático, biólogo y astrónomo francés que ayudó a popularizar la mecánica newtoniana en la Europa continental.
40
JOSÉ LUIS GUTIÉRREZ SÁNCHEZ
En biología, probablemente todo proceso epigenético u homeostático sea, del mismo modo, susceptible de una doble interpretación: determinista y finalista. La unidad fundamental en biología, no debe olvidarse, no es el individuo aislado sino la configuración continua en el espacio-tiempo que conecta a un padre individual con sus descendientes (o, más generalmente, la unión de estas configuraciones sobre la familia de todas las especies que tienen interacciones funcionales como depredación, fertilización compartida, etcétera).
De esta suerte, a Thom no le resulta extraño aproximarse a la comprensión de los procesos biológicos desde puntos de vista opuestos en la tradición filosófica ni reforzar, con Waddington, una reinterpretación lamarckiana de la evolución para la cual “los mecanismos internos” de los sistemas vivos –emergentes en la dinámica inter e intraespecífica y en la relación con el medio físico– contribuyen significativamente y donde, por consiguiente, la selección natural no es el único factor que origina las especies: Yo creo que a cada proceso adaptativo se le puede asociar una función S de “estado biológico” que mediría de alguna manera la “complejidad” local (o neguentropía) relativa al proceso considerado. Entre dos tiempos t0 y t1 (por ejemplo, entre un padre a la edad a y su descendiente a la misma edad a), la configuración continua evolucionaría para que ocurriera un mínimo para la complejidad total, es decir de manera que
δ δ
∫
t1
t0
∫
t1
t0
Sδtt = 0 Sdt = 0
y, de este modo, se habría efectuado la adaptación más económica en el proceso considerado. Sin duda, la selección natural es solamente uno de los factores en esta evolución; personalmente, creo que los mecanismos internos –efectivamente lamarckianos– operan en el mismo sentido.
Como tantas en los míticos años sesenta, la idea es abiertamente subversiva; no sólo no rehuye al teleologismo, desentierra a Lamarck y cuestiona frontalmente el papel preponderante de la selección natural en la historia de la vida; sin duda tres herejías mayores para la cowdung. No todos los asistentes habrían de sumarse a la subversión pero muchos estudiosos sí se identificarían plenamente con ella. Por ejemplo, Pedro Miramontes dirá treinta años más tarde:
WADDINGTON, THOM Y LA BIOLOGÍA TEÓRICA
41
Desde que la teoría de la evolución por selección natural fue expuesta, se acepta casi sin cuestionamiento que las formas de los organismos actuales se originaron a partir de un proceso histórico de diversificación […] Pese a su elegancia y sencillez, esta teoría es incapaz de explicar los orígenes o las particularidades de las formas; las teorías históricas describen hechos pero no [los] explican […] […] es común escuchar […] que la morfología de los seres vivos es como es debido a la ventaja que en términos adaptativos confiere a los organismos. Sin embargo, las explicaciones ad hoc, de este tipo, son incapaces de responder preguntas que ellas mismas generan: ¿Por qué es tan pequeño el número de arquitecturas fundamentalmente distintas en la naturaleza?… (Miramontes, 1996:12).
LA TEORÍA DINÁMICA DE LA MORFOGÉNESIS
El proceso epigenético tratado con mayor detalle matemático en Villa Serbelloni es la morfogénesis. En el primer encuentro, Thom plantea “Une théorie dynamique de la morphogénèse” (Thom, 1968:152-166) y formaliza en términos de teoría de catástrofes los conceptos de creoda, paisaje epigenético y homeorhesis descritos en la sección 2.2 o en la obra de tema embriológico de Waddington (véase la nota 6). La idea fundamental de la teoría thomiana es representar la dinámica morfogenética como un sistema de ecuaciones diferenciales de reacción-difusión: la especialización celular se caracteriza mediante los atractores Ai de la cinética bioquímica, regímenes de metabolismo local estable y el significado funcional de los tejidos correspondientes se expresa en la estructura geométrica o topológica de dichos atractores.
RAÍCES Y FRUTOS
La propuesta refleja, sin duda, una filosofía de la ciencia alejada por completo de la cowdung: en un medio dominado por la compulsión de medir y por la aceptación reverencial del paradigma darwinista, la teoría de Thom resulta iconoclasta e inquietante. También el análisis de la dinámica del desarrollo del embrión lleva a Thom a hacer una interpretación heterodoxa al empeñarse en mos-
42
JOSÉ LUIS GUTIÉRREZ SÁNCHEZ
trar como compatibles sus resultados con el vitalismo de la corriente heracliteana de principios de siglo: es legítimo decir –conforme a un punto de vista vitalista (a la Driesch)– que todo microfenómeno interior en el ser vivo tiene lugar conforme al plan o al programa global; pero no es menos correcto afirmar que la evolución de todos [los] subsistemas [los cuales conforman unitariamente la materia viva y coexisten en una configuración bioquímica y espacial, coherente y persistente] se efectúa únicamente bajo la acción de un determinismo local reducible, en principio, a las fuerzas de la fisicoquímica (Thom, 1968:162).
Asimismo, en una de las defensas más convincentes de la necesidad de matematizar la biología, argumenta –para convencer a los “espíritus estrictamente empiricistas, a la Bacon”– no ser razón bastante para rechazar un modelo como el suyo el que no pueda someterse a control experimental; la especulación teórica no es vana y, de hecho, es incorrecto suponer mejor un modelo cuantitativo pues, en última instancia todo modelo cuantitativo presupone un corte cualitativo [una descomposición] de la realidad: [en él se hace] un aislamiento preliminar de un “sistema“ considerado estable y reproducible experimentalmente. Los mismos modelos estadísticos parten de presuponer la existencia de conjuntos de procesos estables y reproducibles. Esta descomposición, que nuestro aparato de percepción nos ofrece casi inconscientemente, es utilizada –mal que les pese– por todos los estudiosos del mismo modo que Monsieur Jourdain hablaba en prosa sin saberlo. En estas condiciones ¿no tiene más sentido volver a discutir este corte e integrarlo en el cuadro de una teoría general y abstracta, en lugar de aceptarlo ciegamente como un hecho irreductible de la realidad? [Además][…] el objetivo final de la ciencia no es acumular datos empíricos sino organizarlos en estructuras más o menos formalizadas que los subsuman y los expliquen. Y para llegar a esta meta, hay que tener ideas a priori sobre la manera en que ocurren las cosas, hay que tener modelos (Thom, 1968:161).
DIALÉCTICA DE LA NATURALEZA
Pero tal vez lo más atractivo e interesante de la propuesta thomiana es que recupera y continúa la línea de pensamiento que va de Anaximandro y Heráclito a Hegel y Engels: a la luz de la dinámica, dice, se tiene una
WADDINGTON, THOM Y LA BIOLOGÍA TEÓRICA
43
geometría que le da un significado preciso a la noción de lucha, de conflicto, un término antropomórfico, importado de las disciplinas humanísticas; finalmente, por ejemplo, la diferenciación celular ocurre merced al conflicto que se da cuando una configuración particular puede tender a uno u otro de entre dos o más atractores. Desde aquí vuelve a abordar la cuestión clave de la teoría ortodoxa de la evolución: La biología de hoy hace de la selección natural el principio exclusivo –el Deus ex machina– de toda explicación biológica; su único pero […] es tratar al individuo (o la especie) como una entidad funcional irreductible: en realidad, la estabilidad del individuo o de la especie, descansa sobre una competencia entre campos, entre arquetipos de carácter más elemental, cuya lucha engendra la configuración geométrica estructuralmente estable para asegurar la regulación, la homeostasis del metabolismo y la estabilidad de la reproducción. Es del análisis de estas estructuras subyacentes, más profundamente ocultas, desde donde se logrará una mejor comprensión de los mecanismos determinantes de la morfogénesis del individuo y la evolución de la especie. La lucha tiene lugar no solamente entre individuos y especies sino, también, a cada instante, en todo punto del organismo individual. Recordemos a Heráclito: “es preciso saber que el conflicto es universal, que la justicia es una lucha y que todas las cosas se engendran merced a la lucha y la necesidad” (Thom, 1968:166).
UN DEBATE VIVO
Hasta hoy persiste la polémica sobre la posibilidad de constituir un cuerpo teórico formalizable –es decir, enunciable en el lenguaje de la matemática– para referir a él los grandes principios de la ciencia de la vida. Tanto la biología como la matemática han avanzado significativamente desde los symposia del lago Como pero aún no hay acuerdo. A pesar del tercio de siglo transcurrido, muchos y muy destacados biólogos siguen todavía asegurando que no existe ni es factible una biología teórica en el sentido de Waddington (con un conjunto de postulados claros del que se deducen teoremas al modo, digamos, de los Principia mathematica de Newton) y suponen que la creatura, cuyo alumbramiento habría de darse en Lombardía en aquellos veranos casi alpinos con tan buenos parteros como auspicios, habría muerto antes de madurar. Waddington seguiría, hasta su muerte en 1975, convocando a los
44
JOSÉ LUIS GUTIÉRREZ SÁNCHEZ
científicos de su tiempo a ver sus propias disciplinas con un espíritu nuevo: muchos de quienes hoy son la avanzada no sólo de la biología matemática sino del conocimiento en su más amplia acepción publicaron trabajos pioneros, preñados de ideas revolucionarias para ese momento, en antologías editadas por él.10 Tools for Thought (obra póstuma), las “Herramientas para el pensamiento” a las que me he referido a lo largo de este ensayo, es un manifiesto popular de filosofía de la ciencia, guía para los nuevos modos de percibir y pensar el mundo y comparable quizá con el Organon de Aristóteles o los Dialoghi galileanos. Están por cumplirse treinta y cinco años del primer symposium y mucho se han desarrollado aquellas líneas gruesas de su programa; científicos de todo el mundo se han reunido para compartir sus avances en las “Conferencias Waddington para la biología teórica”; son comunes los congresos11 sobre temas afines y existe un Bulletin of Theoretical Biology. Cada vez más biólogos se aproximan a la matemática para encontrar en ella las herramientas cuya forja anunció Waddington, y cada vez más matemáticos encuentran en los grandes temas de la biología una fuente de ideas para resolver problemas de su propia disciplina, ideas tan sugestivas como los algoritmos genéticos o las redes neuronales; tal vez no esté lejano el día en que la biología se equipare a la física como la ciencia natural ligada con el crecimiento de la matemática de la manera más estimulante. Abundan hoy textos de biomatemática (aunque se deba reconocer en este nombre una desafortunada concesión al espíritu esquematizador de los tiempos y que bajo él se cobija de todo, como en la viña del Señor) o de biología matemática, y muchas revistas especializadas –de las más diversas ramas de la biología– incluyen aproximaciones matematizadas, con modelos deterministas o de determinismo-estocástico, no estadísticos, a sus objetos de estudio. Yo no lo sé de cierto, pero tal vez todo esto signifique que los cruzados serbellonensis siguen librando sus batallas y van ganando terreno.
10 Por ejemplo, hay un ensayo notable de Ilya Prigogine (Prigogine, 1976) –uno de los científicos más influyentes de nuestros días– en una antología coeditada por Jantsh y Waddington en 1976. 11 Sin ir más lejos, este libro está compuesto por ensayos que son las versiones escritas de la serie de conferencias del ciclo “Clásicos de la biología matemática” que tuvo lugar en la Facultad de Ciencias de la UNAM entre febrero y junio de 1996.
WADDINGTON, THOM Y LA BIOLOGÍA TEÓRICA
45
Bien mirado, quizá sea posible decir a quienes auguraron la pronta muerte de la biología teórica waddingtoniana –o más drásticamente, apostaron a que no nacería– como en el drama de Zorrilla: “los muertos que vos matásteis, gozan de cabal salud” o ¿ustedes qué piensan, amables lectoras y lectores?
BIBLIOGRAFÍA
Miramontes, P. 1996. “La geometría de las formas vivas”, Ciencias, revista de difusión, núm. 42, abril-junio, México, Facultad de Ciencias de la UNAM, 12-19. Prigogine, I. 1976. “Order through fluctuation: self-organization and social system”, en Jantsch, E. y C. H. Waddington (eds.), Evolution and Consciousness: Human Systems in Transition, Londres, Addison-Wesley (Advanced Book Program), 93-126. Thom, R. F. 1968. “Une théorie dynamique de la morphogénèse”, en Waddington, C. H. (ed.), Towards a Theoretical Biology, vol. 1, Prolegomena, Edinburgo, International Union for Biological Sciences (IUBS), Edinburgh University Press, 152-156. Waddington, C. H. (ed.). 1968. Towards a Theoretical Biology, vol. 1, Prolegomena, Edinburgo, International Union for Biological Sciences (IUBS), Edinburgh University Press. ___ y R. Thom. 1968a. “The Basic Ideas of Biology”, comentarios por René Thom, en Waddington, C. H. (ed.), Towards a Theoretical Biology, vol. 1, Prolegómenos, Edinburgo, International Union for Biological Sciences (IUBS), Edinburgh University Press, 1-41. ___ y R. Thom. 1968b. “Correspondence between Waddington and Thom”, en Waddington, C. H. (ed.), Towards a Theoretical Biology, vol. 1, Prolegomena, Edinburgo, International Union for Biological Sciences (IUBS), Edinburgh University Press, 166-179. ___ (ed.), 1969. Towards a Theoretical Biology, vol. 2, Sketches, Edinburgo, International Union for Biological Sciences (IUBS), Edinburgh University Press. ___ 1969a. “Sketch of the Second Serbelloni Symposium”, en Waddington, C. H. (ed.), Towards a Theoretical Biology, vol. 2, Sketches, Edinburgo, International Union for Biological Sciences (IUBS), Edinburgh University Press, 1-9. ___ 1969b. “The Practical Consequences of Methaphysical Beliefs on a Biologist’s Work: an Autobiographical Note”, en Waddington, C. H.
46
JOSÉ LUIS GUTIÉRREZ SÁNCHEZ
(ed.), Towards a Theoretical Biology, vol. 2, Sketches, Edinburgo, International Union for Biological Sciences (IUBS), Edinburgh University Press, 72-81. ___ 1979. Instrumental para o pensamento, Borisas Cimbleris (tr.), Belo Horizonte, Itatiaia-Editora da Universidade de São Paulo (Coleção o Homem e a Ciência, vol. 9).
EL ORIGEN DE LAS FORMAS VIVAS: DE GEOFFROY SAINT-HILAIRE A D’ARCY THOMPSON PEDRO MIRAMONTES* y JOSÉ LUIS GUTIÉRREZ SÁNCHEZ**
En una época de optimismo desbordado en la biología, hacia el fin del tercer cuarto de este siglo, Theodosius Dobzhansky acuñó una sentencia convertida en el símbolo de su generación y epítome de su disciplina:1 “nada tiene sentido en biología si no es a la luz de la evolución”. El estado de ánimo de la inmensa mayoría de los estudiosos2 correspondía a la convicción de que la ciencia de la vida tenía, por fin, un aparato teórico con capacidad explicativa ilimitada: la teoría sintética o neodarwinista de la evolución proveía herramientas poderosas para comprender la naturaleza viva y había propiciado una certeza: todos los procesos biológicos podrían interpretarse por medio de variantes adecuadas de la síntesis del adaptacionismo darwiniano con la genética de Mendel. La misma confianza en la solidez irrefutable de la teoría sintética inspiró a Richard Dawkins su famoso The Blind Watchmaker. Quince años después de Dobzhansky, en las primeras líneas del prefacio, Richard Dawkins declaró con intención lapidaria: * Departamento de Matemáticas, Facultad de Ciencias, Universidad Nacional Autónoma de México,
[email protected] ** Universidad Autónoma Chapingo y Departamento de Matemáticas, Facultad de Ciencias, Universidad Nacional Autónoma de México,
[email protected]. unam.mx 1 Theodosius Dobzhansky (1900-1975), genetista y evolucionista estadounidense nacido en Ucrania. Uno de los artífices más importantes de la teoría sintética de la evolución (véase el artículo de Germinal Cocho en este mismo volumen) en cuya gestación participó de principio a fin. Su libro Genetics and the Origin of Species (1937) fue la primera síntesis sustancial de la teoría darwiniana y la genética de Mendel. La frase citada aparece en Mackay, 1992:75, y es el título de un ensayo en Dobzhansky (1973) en The American Biology Teacher, vol. 35:125-129. 2 No deben olvidarse no sólo las reservas sino las severas críticas a la teoría sintética de científicos tan destacados como Conrad Hal Waddington y René Thom (véase el artículo de José Luis Gutiérrez en este mismo volumen).
[47]
48
PEDRO MIRAMONTES Y JOSÉ LUIS GUTIÉRREZ SÁNCHEZ
Este libro ha sido escrito con la convicción de que alguna vez nuestra propia existencia significó para nosotros el más profundo de los misterios pero ese misterio no existe más porque ya fue resuelto. Darwin y Wallace lo resolvieron. A nosotros no nos resta, al menos por un rato, sino trabajar en los detalles de esa solución (Dawkins, 1991:xiii).
LA RADIACIÓN DEL CUERPO NEGRO
Y sin embargo, bien vale la pena atemperar el entusiasmo; conviene no olvidar algunas lecciones de la historia reciente del pensamiento científico. Una actitud semejante –una idea parecida al sentimiento de no tener ya mucho por hacer– permeaba el ambiente de la física de finales del siglo pasado; a propósito, Barbara Lovett Cline narra la siguiente anécdota: A los diecisiete años de edad [en 1875], al entrar a la universidad, Max Planck buscó al jefe del departamento de física y [le] expuso […] sus ambiciones. La respuesta no fue alentadora: “la física es una rama del conocimiento que casi está completa” –dijo el profesor sombríamente– “todos los descubrimientos importantes han sido hechos. Ya casi no vale la pena dedicarse a ella” (Lovett-Cline, 1973:52).
De hecho, la mecánica newtoniana, la mecánica estadística de Boltzman y Gibbs y las leyes de la electrodinámica de Maxwell parecían ser los remates del edificio de la física. A lo lejos, una sola nube oscura ensombrecía el horizonte: el espectro de emisión del cuerpo negro. Como se sabe, disolver esa nube no resultó ser una cuestión de detalle; exigió, según Planck, un “acto de desesperación”: la teoría de los quanta; desató una revolución conceptual que estremeció el edificio de la física desde sus cimientos e indujo a sus profesionales a ser menos arrogantes y, en muchos casos muy notables, hasta humildes. Sin duda, el conocimiento acumulado en la física hasta la época estudiantil de Planck era importante pero muy poco comparado con la inmensidad aún por descubrirse. La biología del umbral del siglo XXI puede estar en una posición muy parecida a la de la física de fines del XIX: la descripción de genomas completos, la genética de poblaciones y la biología celular parecen culminarla. No obstante, su cuerpo negro radiante –un problema cuya solución exige una forma de considerar la génesis de la vida con
EL ORIGEN DE LAS FORMAS VIVAS
49
una visión radicalmente nueva– puede ser el origen de las formas vivas pues, a despecho de la confianza de Dawkins y el optimismo de Dobzhansky, con la teoría de la evolución por selección natural no es posible explicar cómo se generaron esas formas ni por qué son tan pocas ni por qué otras, esperables según la versión ortodoxa del evolucionismo neodarwiniano, no se encuentran por ningún lado.
UNAS CUANTAS FORMAS
Supongamos, como lo acepta hoy la mayoría de los estudiosos que, al actuar la selección natural, sobreviven sólo las especies con mayores ventajas adaptativas. En un ejercicio de imaginación, no sería difícil concebir la existencia de seres hiperadaptables: un vertebrado volador con cinco ojos –depredador infalible o presa inalcanzable– o una planta que, además de poder sintetizar su propio alimento, se desplazase a voluntad para conseguir nutrientes donde los hubiere: las ventajas selectivas en estos casos serían enormes. Los ejemplos podrían multiplicarse ad infinitum y ad absurdum y habitar bestiarios famosos como el de Jorge Luis Borges, incorporarse a los horrores de los cuadros de El Bosco o poblar las fantasías oníricas de muchos de nosotros. Según la doctrina neodarwinista, la naturaleza gesta especies gradualmente; lo hace merced a la combinación afortunada entre variabilidad genética y selección natural y deja sobre la faz de la Tierra sólo a las más aptas. Pero ¿qué ha impedido la existencia de organismos con estructuras tan eficaces como las de nuestro bestiario? o, si se quiere reducir la fantasía, ¿dónde están, en el árbol filogenético, las formas intermedias predichas por la teoría sintética de la evolución? Vistas así las cosas, se pueden sugerir al menos dos reflexiones importantes y una cuestión fundamental: • A pesar de su aparente enormidad, el número de formas vivas existentes es insignificante, si se compara con la cantidad de las concebibles, y muy pequeña en relación con las necesarias para llenar los huecos en la sucesión de especies que se lee en la historia darwiniana de la vida. • Si algo explica, la teoría de la evolución por selección natural no lo hace con respecto a las numerosas ausencias en el conjunto de las formas vivas existentes. Éste es el problema de los fenotipos faltantes.
50
PEDRO MIRAMONTES Y JOSÉ LUIS GUTIÉRREZ SÁNCHEZ
• Entonces, ¿qué sucede con las formas faltantes?, ¿por qué hay tal escasez de estructuras? Hoy por hoy, nadie tiene la respuesta y si se sigue la línea de pensamiento dominante –la de Dawkins, por ejemplo– se ve difícil dar con ella. ¿Estamos realmente trabajando sólo en la solución de cuestiones de detalle después de la solución esencial dada por Darwin y Wallace? “No, en absoluto. Necesitamos un libro completamente nuevo” ha sido la enérgica respuesta del “poeta de la biología teórica” (Stuart Kauffman dixit) Brian Goodwin (Lewin, 1993:35-36). Se precisa, entonces, tratar el problema de otro modo. Veamos cómo.
UNA POLÉMICA A DESTIEMPO
Las siguientes ideas han sido relegadas durante mucho tiempo y su importancia en el cuerpo de conocimiento biológico, particularmente sus consecuencias evolutivas, se ha desdeñado en favor del seleccionismo. Para resolver el problema de los fenotipos faltantes o el de la mezquindad en el número de diseños del relojero ciego, es necesario partir de un postulado diferente a todos los de la teoría sintética: las formas de los seres vivos están determinadas no por una larga cadena de contingencias, no por la historia dominada por el todopoderoso azar, sino por restricciones estructurales fisicoquímicas impuestas por el medio; esto hace posible comprender el origen y acotar el desorden aparentemente exuberante –aunque relativa y ciertamente escaso– de las formas vivas con base en principios racionales; hace posible, también, no recurrir al dios laico de la selección natural para explicar por qué los organismos son como son y no de otro modo. En este enfoque, las especies pueden ser numerosas pero están obligadas a atenerse sólo a las formas que éste, el verdadero mundo, les impone. Este modo de concebir la vida permite explicar hechos biomorfológicos allí donde el neodarwinismo no puede; es el fundamento para reconstruir la forma de los organismos hallados en el registro fósil mediante la anatomía comparativa y ha orientado el pensamiento de grandes estudiosos de la vida antes y después de El origen de las especies. A pesar de todo, tal concepción está prácticamente ausente del para-
EL ORIGEN DE LAS FORMAS VIVAS
51
digma evolutivo dominante; cuando se muestra cómo se aplica al análisis de relaciones de tipo causal entre las condiciones del medio y las estructuras vivas realmente existentes, suele vérsele sólo como una colección de curiosidades o especulaciones vanas. ¿Por qué? Fue tal el impacto de Darwin en la arena científica –y aquí la metáfora boxística no es casual– que barrió no nada más con estas ideas sino con las de casi todos sus antecesores. En términos generales, dentro de la historia de la biología, el valor de las propuestas de los naturalistas predarwinianos se subordinó a si habían o no inspirado las concepciones del padre de la teoría de la selección natural y no es extraño que se trate de disminuir su valor o hasta de ridiculizarlas como ejemplos de pensamiento precientífico. Por ejemplo, a Jean-Baptiste de Lamarck se le recuerda solamente por la metáfora sobre el cuello de las jirafas y suele olvidarse que el evolucionismo, con toda su capacidad de subversión, fue postulado y defendido por él en un medio hostil en donde fue víctima de ataques enconados e injustos; además, por la aceptación generalizada del dogma central de la biología contemporánea sobre la imposibilidad de heredar caracteres adquiridos,3 hoy también se le excomulgaría sin posibilidad de redención tan arbitrariamente como los inmutabilistas de su tiempo lo echaron del seno de la ortodoxia naturalista. Así, la divulgación de antecedentes evolucionistas ajenos al neodarwinismo ha sido relegada sistemáticamente: si un naturalista del XVIII o del XIX no es un afluente de la corriente oficial, se le ignora; se desconocen las biografías de personajes que se han ocupado de temas cercanos o ajenos a la evolución, cuyas aportaciones podrían contener la clave para resolver el problema de los fenotipos faltantes, pero cometieron el pecado de hacerlo por una ruta ajena a la postulada por la doctrina oficial. Herejes anacrónicos e involuntarios, sufren la excomunión del sistema creado por la “sabiduría convencional del grupo dominante”. Éste es el caso de Étienne Geoffroy Saint-Hilaire (1772-1844) y de D’Arcy Wentworth Thompson (1860-1948), quienes le dan nombre a este ensayo. Situados históricamente en momentos simétricos respecto al de Darwin, es posible distinguir la continuidad intelectual entre la visión de ambos y entre ésta y la nuestra (la de los autores). 3 No obstante, aun este dogma tendría que revisarse: descubrimientos recientes indican que la presencia de proteínas sesga las tasas de mutación del ADN. De este modo, como el camino de la información proteína-ADN no está cerrado...
52
PEDRO MIRAMONTES Y JOSÉ LUIS GUTIÉRREZ SÁNCHEZ
VIDA Y OBRA
D’Arcy Thompson Hijo de un profesor de griego, D’Arcy Wentworth Thompson nació en Edinburgo y fue, él mismo, un destacado estudioso de la Antigüedad clásica. Su vida, siempre cercana a los círculos académicos y tranquila hasta donde se tiene noticia, transcurrió en su país de origen o en la vecina Inglaterra. En 1880 inició sus estudios superiores en la universidad de su ciudad natal;4 egresó para trabajar como zoólogo del Trinity College en Cambridge, en 1884 se convirtió en profesor de biología de la Universidad de Dundee, pasó a la de Saint Andrews como titular de historia natural e hizo allí, hasta su muerte, una de las más largas carreras académicas que se conocen.
Figura 1. D’Arcy Wentworth Thompson (1860-1948). 4
D’Arcy Wentworth Thompson demoró veintinueve años en obtener su doctorado, lo que, en nuestros días y en nuestro medio, le hubiera impedido acceder a las becas del SNI o a los estímulos por desempeño y, posiblemente, desarrollar su obra monumental.
EL ORIGEN DE LAS FORMAS VIVAS
53
Thompson no sólo destacó por su habilidad como biólogo naturalista; su interés por la cultura griega lo hizo también un conocedor profundo de la geometría euclideana: con el método cartesiano de coordenadas, inspirado en los estudios anatómicos de grandes artistas del Renacimiento como Alberto Durero y Leonardo da Vinci, D’Arcy desarrollaría estudios morfológicos iluminadores y profundos. Publicó más de trescientos artículos científicos y libros; su contribución mayor al tema que nos importa aquí es el tratado On Growth and Form, cuya última edición revisada por el autor en 1946 (Thompson, 1992) suma investigaciones de toda la vida y culmina un trabajo publicado por primera vez en 1917.
Étienne Geoffroy Saint-Hilaire La vida de Étienne Geoffroy Saint-Hilaire, nacido en la villa de Étampes, cerca de París, contrasta violentamente con la de su apacible colega D’Arcy Thompson. El naturalista francés vivió de cerca las grandes convulsiones sociales que sufrió su patria en el terrible tránsito entre el siglo de Voltaire y el de Hugo. Hombre de su tiempo –comprometido con su quehacer científico y las grandes empresas de la Francia de la primera mitad del XIX– viajó, fue diplomático y participó en polémicas científicas tan importantes como agrias y que no siempre se dieron ni se resolvieron con base en la argumentación razonada o la presentación de evidencias para respaldar las afirmaciones; muchas veces, resultaron ser escenarios de confrontación de posiciones de poder.5 Abogado en 1790, estudió después medicina bajo la dirección de Louis Daubenton en el Collège du Cardinal Lemoine en París. No se tiene información respecto a sus actividades o posición respecto a la Revolución de 1789, pero su participación durante el Terror para salvar la vida de condiscípulos y profesores, con riesgo evidente de la propia, está bien documentada (University of California, 1996). Fue cercano a los gobiernos napoleónicos y, en 1798, participó en el equipo científico de la expedición a Egipto. Años después, Saint5 Un ejemplo claro de hasta dónde puede alejarse la actividad científica o académica de sus objetivos esenciales cuando se traslapa con el poder político es el conflicto entre Lamarck y Saint-Hilaire y el poderoso e influyente Cuvier. Véanse Appel, 1987 y Jordanova, 1984.
54
PEDRO MIRAMONTES Y JOSÉ LUIS GUTIÉRREZ SÁNCHEZ
Hilaire fue comisionado por el emperador Napoleón I para obtener colecciones y especímenes para los museos franceses.
Figura 2. Étienne Geoffroy Saint-Hilaire (1772-1844).
Como profesor de zoología de la Universidad de París, a la que se adscribió en 1809, Saint-Hilaire desarrolló un importantísimo trabajo en morfología animal; su Philosophie anatomique (1818-1820) es una pieza fundamental para nuestra discusión.
CIENCIA VERDADERA
En On Growth and Form, Thompson se aparta de la tradición naturalista: no le basta la observación y el registro cuidadoso de la diversidad; para él, la descripción de los hechos no explica nada; en ellos la naturaleza dibuja un jeroglífico, plantea un enigma e investigar es llevar al cabo una pesquisa para descifrarlo, encontrarle un sentido y establecer relaciones causales. D’Arcy hará de la matemática su piedra Rosetta: la morfología y el desarrollo pueden, según su tesis general, comprenderse a partir de principios generales formalizables en el lenguaje de la geometría y su obra es un brillante intento de aplicar a sus indagaciones la divisa de Leonardo, a quien el zoólogo escocés cita en el capítulo introductorio de su libro: “Ninguna investigación humana puede ser lla-
EL ORIGEN DE LAS FORMAS VIVAS
55
mada ciencia verdadera si no se somete a la demostración matemática” (Thompson, 1992:1). Las 1116 páginas del tratado thompsoniano acerca de la forma y el crecimiento son una prueba elocuente de las enormes posibilidades de la matemática para iluminar amplias zonas del conocimiento biológico; en particular, el capítulo XVII, “Sobre la teoría de las transformaciones o la comparación de las formas relacionadas” (Thompson, 1992:1026-1095) sugiere, como se verá enseguida, una explicación convincente del porqué de los fenotipos faltantes. “¿Cómo dejar atrás la pasión naturalista por los detalles?” parece preguntar Thompson al discutir su concepción de la morfología y responde: “con los métodos de la física y de la matemática”: ¿qué más da que las cadenas verdaderas no cuelguen formando catenarias perfectas ni que las gotas de lluvia no sean esferas exactas? Si no lo son, es porque sobre ellas actúan fuerzas distintas de la primordial y es tarea de físicos y matemáticos descubrirlas y dilucidar cómo las formas imperfectas son transformaciones resultantes de esas fuerzas secundarias. Por ello, dice Thompson, Newton habría asegurado que “la Naturaleza se deleita en las transformaciones” y, para precisar, agrega: Por una u otra razón, hay muchas formas orgánicas que no podemos describir ni, aún menos, definir en términos matemáticos: exactamente del mismo modo en que hay problemas de la física que están más allá de la matemática de nuestro tiempo. Ni siquiera buscamos una formula para definir éste o aquel pez ni éste o aquel cráneo; pero ya podemos hacer uso del lenguaje de la matemática para describir y hasta definir la forma de la concha de un caracol, la torsión de un cuerno, el contorno de una hoja, la textura de un hueso, el tejido de un esqueleto, las líneas de flujo en los pájaros y los peces o el fantástico encaje de las alas de un insecto. Para hacer esto, debemos aprender del matemático a eliminar y a descartar, a guardar en la mente el tipo y dejar de lado el caso singular con todos sus accidentes y a encontrar, en este sacrificio de lo poco importante para conservar lo que importa mucho, una de las excelencias peculiares del método de la matemática (Thompson, 1992:1030-1031).
TRANSFORMACIONES DE UNA FORMA EN OTRA
Según la definición de Thompson, dos formas vivas están relacionadas si es posible mapear una en la otra mediante transformaciones (analíticas) continuas y localmente invertibles del plano en sí mis-
56
PEDRO MIRAMONTES Y JOSÉ LUIS GUTIÉRREZ SÁNCHEZ
mo. Esto es, la forma A, representada en un plano cartesiano en coordenadas rectangulares XY, está relacionada con la forma B, si existe una transformación T que cambie las coordenadas al nuevo sistema, donde T( x, y ) = ( u ( x, y ), v ( x, y ) ) (1) es tal que cada punto de A se convierte, bajo T, en un punto homólogo de la forma B en el plano UV. Es decir: T( A ) = B El efecto de este tipo de mapeos es deformar continuamente el plano –como quien estira o comprime una banda elástica sin romperla, aplicando fuerzas posiblemente distintas en ciertas direcciones– hasta hacer coincidir las líneas originales de A en las de B.6 Por ejemplo, si a la figura de un pez de la familia Polyprion se le sobrepone una rejilla cartesiana rectangular y se le aplica una transformación lineal adecuada, la forma se convierte en la de un pez de la familia Pseudopriacantus (figura 3). Ahora, si se deforma el plano de manera no homogénea en distintas direcciones (de hecho, es suficiente hacerlo mediante un mapeo cuadrático), es posible pasar la forma de cualquiera de los ejemplos anteriores a las de familias morfológicamente muy alejadas de aquella en la que se hubiese iniciado la transformación (figura 4). En el libro de Thompson los ejemplos son numerosos e incluyen mapeos tan interesantes como los que permiten identificar las líneas de un cráneo humano con las de un chimpancé, un mandril y hasta un perro (figuras 5 y 6). 6 Según René Thom, la visión de la morfogénesis que se da en On Growth and Form es demasiado avanzada para su tiempo; Thompson trata de comprender la generación de las formas “sin recurrir a las propiedades especiales de [su] sustrato […] ni a la naturaleza de las fuerzas que actúan sobre ellas” y sus ideas, esencialmente innovadoras y fecundas, “se expresan, con frecuencia, de una manera demasiado ingenuamente geométrica” (Thom, 1968:153) pues les falta una justificación sólo existente en la teoría de los sistemas dinámicos. Quizá D’Arcy no recurre a tal aparato matemático por su acendrado clasicismo: parece empeñado en buscar sólo las invariantes morfológicas y, para ello, es suficiente el método cartesiano de coordenadas aplicado a la geometría euclideana.
EL ORIGEN DE LAS FORMAS VIVAS
57
Figura 3. Una transformación lineal del plano en sí mismo, el paso de una familia a otra.
Figura 4. Mapeos cuadráticos del plano en sí mismo, la relación entre especies.
Sin embargo, podrán preguntarse los atentos lectores y las amables lectoras: ¿no son sólo un juego estas manipulaciones geométricas?; o más drásticamente aún: ¿no resultan de un empeño por aplicar a todo trance el estilo de razonamiento matemático en donde no cabe?, ¿una forma de imponerle a la biología una visión del mundo esencialmente inadecuada para estudiar la vida que sólo funciona bien en la química y la física? No, las transformaciones thompsonianas no se han traído aquí por poseer (aunque lo tengan) el encanto de lo original y lo inesperado –en cuyo caso pertenecerían al ámbito de lo puramente
58
PEDRO MIRAMONTES Y JOSÉ LUIS GUTIÉRREZ SÁNCHEZ
Figura 5. Cráneos humanos, de chimpancé y de mandril y las transformaciones thompsonianas entre ellos.
Figura 6. Cráneo de un perro, thompsonianamente equivalente al de un ser humano.
EL ORIGEN DE LAS FORMAS VIVAS
59
lúdico– ni nos anima la intención procustiana de recortarle el cuerpo a la biología para que pueda yacer en el lecho de la matemática. No. Como veremos, la propuesta de Thompson proveerá la base para sugerir una respuesta adecuada al problema del origen de las formas vivas.
LOS PHYLA, CLASES DE EQUIVALENCIA
Si bien es posible relacionar las formas de peces con peces, primates con primates (o, en general, con mamíferos) y crustáceos con crustáceos, no existe una transformación con las características de continuidad mostradas que lleve la forma de un ser humano a la de un artrópodo ni ésta a la de un molusco; por consiguiente, el Homo sapiens y Pennaeus vanamei, por ejemplo, no son del mismo tipo: no “están morfológicamente relacionados”, como diría D’Arcy. Por otro lado, si el método de Thompson se aplica no sólo al aspecto externo de los organismos, sino también a su organización interna (sistemas, aparatos, órganos, tejidos) como una unidad estructural, entonces los cordados se pueden mapear en cordados pero no en artrópodos y éstos, a su vez, están relacionados con otros artrópodos pero no con equinodermos, ni éstos ni los primeros con moluscos, etcétera. De hecho, la relación de Thompson es una relación de equivalencia y, por consiguiente, induce una partición en el conjunto de las formas vivas: todas las especies que pertenezcan a una clase están relacionadas entre sí y pueden mapearse las formas y estructuras orgánicas de unas en otras pero, entre clases distintas, es imposible transformar dos elementos. Las clases de equivalencia de la relación inducida por el mapeo definido en la ecuación (1) corresponden a la categoría taxonómica de phylum. Cada phylum puede identificarse, por consiguiente, con la arquitectura particular de una forma de vida y las variantes internas son precisamente eso: modificaciones de un patrón elemental o esencial. Se puede, entonces, conjeturar así: la escasez de formas vivas se refleja en que si bien las especies de cada phylum son muchas –centenas de miles, quizá millones– los phyla son menos de cuarenta.
60
PEDRO MIRAMONTES Y JOSÉ LUIS GUTIÉRREZ SÁNCHEZ
SÓLO UN ARQUETIPO, UN ÚNICO ANIMAL
Volvamos ahora nuestra atención a la obra de Geoffroy Saint-Hilaire, quien aplicó por primera vez los métodos de la anatomía comparada al estudio morfológico de los vertebrados. En Philosphie anatomique, enunció principios de análisis racional como los de “unidad en la composición”, “compensación” y “posición relativa” así como leyes del desarrollo de los organismos que aún hoy son los fundamentos a partir de los cuales un paleontólogo reconstruye –desde el registro fósil fragmentado e incompleto y mediante la técnica llamada de “correlación de partes”– la forma que tenía el ser vivo. Si bien Geoffroy antecede a D’Arcy Thompson en un siglo, su concepción de la variabilidad de las formas vivas va mucho más lejos: para él, todos los vertebrados son modificaciones de una sola forma y tanto los vestigios de órganos como las transformaciones embrionarias lo comprueban: son funcionalmente inútiles pero indican cómo cada animal se deriva de un arquetipo común. De este modo, las divergencias entre la gran variedad de vertebrados y su arquetipo son los detalles de la metáfora thompsoniana respecto a la catenaria o la esfera imperfecta. Asimismo, Geoffroy aseguraba la precedencia de la estructura sobre la fisiología corporal;7 de hecho, en 1829 escribió que la forma de los organismos determina su estilo de vida porque: los hábitos de los animales son sólo aquéllos que resultan de la estructura de sus órganos; si ésta varía, alterará de un mismo modo todos sus resortes de acción, todas sus facultades y todo su comportamiento (University of California, 1996).8
Además, son las restricciones fisicoquímicas del medio las que imponen a los seres vivos sus formas y éstas se transmiten a los descendientes en un proceso adaptativo necesario –del mismo modo 7 Por cierto, en contra de la opinión del poderoso Cuvier, para quien las semejanzas anatómicas entre órganos homólogos de diferentes especies obedecen sólo a que deben cumplir funciones parecidas. 8 Las citas de Geoffroy se han tomado de University of California (1996), donde se las refiere al reporte: Geoffroy Saint-Hilaire, 1833. “Le degré d’influence du monde ambiant pour modifier les formes animales; question intéressant l’origin des espèces téléosauriens succesivement celle des animaux de l’époque actuelle”, en Mémoires de l’Academie Royale des Sciences, núm. 12, París, 63-92.
EL ORIGEN DE LAS FORMAS VIVAS
61
que la fricción modifica la forma esférica de una gota que cae– y no azaroso, como quiere la teoría de la selección natural: El mundo externo es todopoderoso en la alteración de la forma de los cuerpos organizados […] estas [modificaciones] se heredan e influyen todo el resto de la organización del animal, porque si producen efectos dañinos, los animales que las exhiban perecen y son reemplazados por otros de alguna forma diferente, una forma que ha cambiado hasta adaptarse al nuevo ambiente (University of California, 1996).
En consecuencia, la estructura no sólo determina la función, también gobierna la dinámica de las adaptaciones: la forma no puede variar gradualmente; todo el organismo ha de modificarse, el mínimo cambio implica una avalancha de transformaciones. De manera análoga, las transformaciones del tipo (1) no operan en los detalles de una forma sino que la obligan a cambiar totalmente para preservar la estructura.
LA PERCEPCIÓN TIPOLÓGICA DE LA NATURALEZA
El pensamiento de Saint-Hilaire y Thompson y las tesis defendidas en este ensayo son ramificaciones de un tronco filosófico común, derivaciones de una concepción del mundo que les da coherencia: la teoría de los arquetipos y la percepción tipológica de la naturaleza. Los filósofos neoplatónicos de Bizancio la recuperaron de entre las ruinas de la Antigüedad clásica y fue compartida por los más importantes naturalistas del Renacimiento y la Ilustración, de Paracelso y John Dee a Owen y Goethe. Platón postulaba la existencia de los arquetipos para comprender el mundo real. Un arquetipo es ideal, reúne en sí las características y atributos definitorios de las clases o categorías de los seres imperfectos habitantes de este mundo; por ejemplo, los perros reales son reflejos o variantes de su modelo, el perro arquetípico. En el mundo platónico no hay formas intermedias y esto implica que los patrones básicos están dados y el conjunto de los arquetipos es discreto; no cabe en él, por consiguiente, ni el bestiario de los hiperadaptados ni el de los estadios evolutivos intermedios del neodarwinismo.
62
PEDRO MIRAMONTES Y JOSÉ LUIS GUTIÉRREZ SÁNCHEZ
En los albores del siglo XIX estas ideas fueron el sustento del movimiento de la morfología racionalista –Geoffroy Saint-Hilaire, Kant, Goethe, Bateson, el mismo Cuvier, Lamarck, Owen– y la línea persiste en el xx con D’Arcy Thompson, Conrad Hal Waddington, René Thom, Brian Goodwin, Germinal Cocho y Stuart Kauffman, Octavio Miramontes y los autores de este ensayo. La vertiente contemporánea incorpora una interpretación dinámica de los procesos naturales; en particular, concibe la evolución como un sistema con dinámica de baja dimensionalidad cuyo espacio fase tiene una infinidad de estados posibles (el universo de los seres vivos imaginables) pero sólo un conjunto relativamente pequeño –y, desde luego, finito– de estados viables o atractores, compatibles con la dinámica y sus restricciones (el mundo de los phyla realmente existentes, cada uno con sus miles de especies en la cuenca de un atractor). Así, para los morfólogos racionalistas la naturaleza es discreta; el conjunto de sus formas vivas es finito y necesario: puede explicarse en términos de una ley natural, lógica y asequible al conocimiento, en el mismo sentido en que las leyes de Newton explican la dinámica del Universo y, las de Maxwell, la de la electricidad y el magnetismo. D’Arcy Thompson explica así su concepción: Célula y tejido, caparazón y hueso, hoja y flor; son parte de la materia y es de conformidad con las leyes de la física que sus componentes se han moldeado y conformado. No hay excepciones a la regla; Dios siempre geometriza. Los problemas de la forma orgánica son en primera instancia problemas matemáticos, los problemas del desarrollo son esencialmente problemas físicos y el morfólogo es, ipso facto, un estudioso de la física…
Para Thompson, la aparente exuberancia de formas vivas no es sino un espejismo: hay pocas estructuras esenciales, unos cuantos arquetipos y muchas variantes. Hacia atrás, éste es un hilo que va de Thompson a los morfólogos racionalistas, a Geoffroy Saint-Hilaire, a Paracelso, a John Dee, Plotino y Platón y, hacia adelante, convierten al extraordinario zoólogo de St. Andrew en sombra tutelar de las tesis sostenidas aquí y de la corriente de pensamiento científico que podemos llamar, con ánimo de sintetizar y hacer escuela, del estructuralismo dinámico.9 9 Véase el ensayo fundacional de esta corriente de pensamiento en Miramontes, 1999.
EL ORIGEN DE LAS FORMAS VIVAS
63
LA POLÉMICA HOY
La teoría de evolución por selección natural consta de dos partes: mutación y selección. La primera genera variabilidad y riqueza a partir de una exploración al azar en un espacio infinito de estados posibles y la segunda impone orden sobre el azar, filtra las variantes para castigar a las ineptas y premiar a las aptas. La teoría depende en lo fundamental de la preponderancia asignada a las funciones orgánicas: no es posible definir aptitud y, por consiguiente selección, si no se aclara primero para qué funciones se es más apto: la función determina la forma. En el estructuralismo, las formas resultan de la acción física y química sobre la naturaleza inanimada, no son el resultado fortuito de una larga y absolutamente improbable cadena de casualidades sino que pueden explicarse con base en los principios y las leyes de aquellas ciencias. Christian de Duve lo dice así: La vida no se produjo en un único destello. Sólo un milagro podría haberla generado de ese modo. Si la vida surgió merced a sucesos científicamente explicables, debe haber pasado por una muy larga sucesión de etapas químicas que llevaron a la formación de agregados moleculares cada vez más complejos. Por ser de naturaleza química, aquellas etapas deben haber sido fuertemente deterministas y [por ende] reproducibles; [deben haber sido] impuestas por las condiciones químicas y físicas bajo las cuales tuvieron lugar (Duve, 1996:12).
El estructuralismo contemporáneo geometriza la naturaleza en el lenguaje de las teorías de los sistemas dinámicos y de los sistemas complejos: las formas existentes son atractores de sistemas dinámicos, arquetipos en cuyas cuencas se hallan todas las especies del mismo phylum y de donde no pueden salir mediante una acumulación gradual de pequeños cambios. No se trata de negar la selección natural sino de acotar su importancia: comparado con el papel de las restricciones dinámicas subyacentes en todo proceso vivo, el de la mutación contingente y la selección funcional es secundario. Empero, las cuencas de atracción no son estáticas, no existen de una vez y para siempre: la propia dinámica puede determinar cambios estructurales o extinciones; Duve (1996) llama a estos cambios globales “evolución vertical” para contrastarla con la “horizontal” que únicamente modifica los detalles “de acabado” y no altera los patrones básicos (las categorías thompsonianas): “hay más de un millón de especies de insectos, pero todos son insectos...”.
64
PEDRO MIRAMONTES Y JOSÉ LUIS GUTIÉRREZ SÁNCHEZ
La evolución horizontal es la responsable de la abundancia de las especies y estaría a cargo de la selección natural. La evolución vertical determina las arquitecturas posibles, los patrones básicos y los cambios definitorios de los incrementos en la complejidad del mundo vivo; en suma, lo que John Maynard Smith llama las grandes transiciones biológicas.10 Hemos descrito las raíces del estructuralismo dinámico. Las del seleccionismo en cambio podrían estar, paradójicamente si se quiere, relacionadas con las de la teología natural de William Paley para quien sólo la intervención divina puede reducir la astronómica cantidad de formas vivas posibles, pues sería tan inconcebible un organismo sin la firma de su creador como un reloj sin la intervención de un relojero. Darwin alejó a los creacionistas del debate sobre la historia de la vida en la Tierra. Desde luego, fue ése el mayor triunfo de la biología del siglo XIX. No obstante, subsiste una pregunta fundamental: ¿quién o qué pone orden en la Babel de las mutaciones azarosas e ilimitadas? El Dios de Paley se sustituye por el relojero ciego de Dawkins, por el mecanismo ad hoc de la selección natural. Darwin y Dawkins son legatarios de Paley; ambas explicaciones requieren de un ente exógeno: la primera es de orden teológico; la segunda, materialista. Existe otra diferencia entre el neodarwinismo y el estructuralismo dinámico, una diferencia primordial de tipo epistemológico. El programa seleccionista postula: “las formas vivas son el resultado de una concatenación de sucesos: cada especie ha surgido de otra, después de un pequeño cambio adaptativo; la primera especie es, a su vez, una adaptación de otra anterior… y así, ad infinitum”. Este enfoque corresponde a una descripción histórica, soslaya la peliaguda cuestión del antecesor primigenio y no contempla la posibilidad de cambios abruptos. Pero una característica básica de la ciencia es la refutabilidad de sus enunciados; las disciplinas históricas no cumplen con ella porque la historia no explica, únicamente narra, y esta peculiaridad hace de la historia natural –reconstruida con las herramientas del 10
Maynard, uno de los más destacados y agudos defensores de la teoría sintética, sin renunciar a su profesión de fe neodarwinista reconoce, empero, que los argumentos selectivos no son suficientes para justificar estas transiciones (Maynard Smith y Sathmáry, 1995).
EL ORIGEN DE LAS FORMAS VIVAS
65
neodarwinismo– una leyenda inverificable por la sencilla razón de que, hasta ahora, nadie ha podido regresar al pasado.11 En contraparte, una teoría dinámica trata los fenómenos de la naturaleza basándose en sus propiedades elementales y sus leyes: no sólo describe cómo son los procesos que estudia, los explica; puede ser falsa o verdadera, pero lo más importante es que puede comprobarse. Si la evolución de la vida fuese un proceso histórico, sería único e irrepetible; por el contrario, de ser dinámico, estaría determinado y podría reproducirse. Dice de Duve “la vida y la conciencia son imperativos cósmicos, escritos en la urdimbre del universo. Si se le concede la oportunidad, la materia da lugar a la vida y la vida a la conciencia” (Duve, 1996:12). Es probable que la vida sea un proceso intermedio entre los dos extremos. Pero, a contracorriente de la opinión dominante y precisamente por su hegemonía, es necesario hacer hincapié en la importancia, la pertinencia y la necesidad del enfoque dinámico: la naturaleza es inteligible12 y la ciencia sabe interrogarla para desentrañar los secretos que aún guarda para nosotros. Contingencia o necesidad, función o estructura, gradualismo o equilibrio punteado, historia o dinámica; éstas son algunas de las grandes interrogantes que, a despecho del confiado optimismo de muchos biólogos contemporáneos, persisten en el campo de las ciencias de la vida. Hay quienes creen que sólo son detalles. Nosotros sostenemos que pueden requerir, como el espectro de emisión del cuerpo negro, varios actos de desesperación.
BIBLIOGRAFÍA
Appel, T. A. 1987. The Cuvier-Geoffroy Debate: French Biology in the Decades before Darwin, Oxford, Oxford University Press. Dawkins, R. 1991. The Blind Watchmaker, Londres, Penguin Books. 11 Ciertamente, la astrofísica cuenta la historia del Universo o del Sistema Solar y no hace falta que se vaya al pasado para ello. Pero como sus investigaciones sí se someten a “la demostración matemática” exigida por Leonardo, es posible leer las consecuencias de la dinámica en las ecuaciones y verificarlas o refutarlas en el firmamento. 12 Es tan inteligible, que el mismo big bang –acontecimiento desmesurado, si los hay, de cuyas consecuencias hubiéramos podido esperar el mayor desgarriate posible– generó ese modelo de buen orden que es la tabla periódica de los elementos.
66
PEDRO MIRAMONTES Y JOSÉ LUIS GUTIÉRREZ SÁNCHEZ
Duve, Ch. de. 1996. “The constraints of chance”, Scientific American, núm. 112, enero. Geoffroy Saint-Hilaire, E. 1818-1820. Philosophie anatomique. Des organes respiratoires sous le rapport de la determination de leurs pieces osseuses & c, París. Jordanova, L. J. 1984. Lamarck, Oxford, Oxford University Press. Lewin, R. 1993. Complexity: Life at the Edge of Chaos, Nueva York, MacMillan. Lovett Cline, B. 1973. Los creadores de la nueva física, México, Fondo de Cultura Económica (Breviarios, núm. 134). Mackay, A. L. 1992. A Dictionary of Scientific Quotations, Bristol and Philadelphia, Institute of Physics Publishing. Maynard Smith, J. y E. Szathmáry, 1995. “The Major Transitions in Biology”, Nature, núm. 374, 227. Miramontes, P. 1999. “El estructuralismo dinámico”, en Ramírez Santiago T. (coord.), Perspectivas en las teorías de sistemas, México, CEIICH-UNAM-Siglo XXI, 70-82. Papavero, N. y J. Llorente-Bousquets (eds.). 1995. Principia taxonómica. Una introducción a los fundamentos lógicos, filosóficos y metodológicos de las escuelas de taxonomía biológica, vol. VI, Analogía y conceptos relacionados en el periodo pre-evolutivo, México, Facultad de Ciencias, UNAM. Thom, R. F. 1968. “Une théorie dynamique de la morphogénèse”, en Waddington, C. H. (ed.), Towards a Theoretical Biology, vol. 1, Prolegomena, Edinburgo, International Union for Biological Sciences (IUBS), Edinburgh University Press, 152-156. Thompson, D. W. 1992. On Growth and Form, Nueva York, Dover. University of California. 1996. “Geoffroy St. Hilaire (1772-1844)”, Museum of Paleontology, www.ucmp.Berkeley.edu/history/hilaire.html.
FISHER: LA PRIMERA SÍNTESIS ALBERTO ALDAMA*
Para hablar de historia de lo que hoy llamamos genética de poblaciones es preciso partir cuando menos de la segunda mitad del siglo XIX, pues es en esta época cuando aparecen dos trabajos fundamentales para el ulterior desarrollo de la biología y de la ciencia en general. Se trata de la publicación, en 1859, del libro El origen de las especies, escrito por Charles Darwin, y la presentación del reporte “Experimentos de hibridación en plantas”, de Gregor Mendel, en el año de 1865, ante la Sociedad para el Estudio de las Ciencias Naturales de Brün, Austria (hoy Brno, República Checa).
Ronald Aylmer Fisher (1890-1962).
*Secretaría del Medio Ambiente, Recursos Naturales y Pesca,
[email protected]
[67]
68
ALBERTO ALDAMA
La ciencia biológica anterior a la segunda mitad del siglo XIX estuvo enfocada principalmente hacia introducir cierto orden en la clasificación de plantas y animales; había muy poca teoría cuantitativa y muy poca especulación cualitativa sobre las causas de la enorme variabilidad observada de formas y especies: es por esta razón que, aunque pueda perfectamente trazarse la historia del estudio de la genética y de los conceptos estadísticos y matemáticos en la biología con mucha anterioridad a las dos fechas mencionadas arriba, pueda abordarse con legitimidad –para el objetivo de este ensayo– la historia de la genética matemática a partir de estos dos fundamentales y exitosos intentos de aplicación de los conceptos matemáticos en la teoría biológica. En efecto, las leyes de la herencia, tal y como fueron enunciadas por Mendel, constituyen el prototipo de teoría cuantitativa en biología; el experimento mismo y el reporte final son ejemplos sorprendentes de un magnífico diseño experimental y de una habilidad no común en aquel tiempo para la inferencia estadística. Por otro lado, el trabajo de Charles Darwin, meditado y preparado durante casi veinte años, ofrece un ejemplo de una experiencia fascinante de observación, acopio de datos, síntesis, inferencia y especulación cualitativa teórica sin igual hasta entonces en la historia de la biología, a excepción, por supuesto, del trabajo de Lyell en geología y del trabajo paralelo de Wallace que llevó a éste a concebir la selección natural independientemente de Darwin. Es precisamente en la concepción del fenómeno de la selección natural donde la especulación teórica se ve claramente recompensada por la influencia del pensamiento matemático –o estadístico–, fundado en una tradición filosófica contraria al vitalismo y al esencialismo: el ver a las especies o grupos de seres vivos no como formas o tipos únicos, sino como poblaciones cuyos miembros presentan gran variabilidad, aunado al razonamiento lógico matemático, basado en la observación de que los seres vivos se reproducen a tasas constantes, de modo tal que, en condiciones ideales, las poblaciones crecerían explosivamente (exponencialmente, o “geométricamente”, según las palabras de Malthus), lleva a Darwin a inferir correctamente –como puede admirarse en el capítulo III de su libro– que la razón de que esto no suceda se debe a una mortandad diferencial (o reproducción diferencial, en sentido positivo) debida a la competencia por el alimento, la capacidad diferencial de huir del depredador, etc., aptitudes variables de individuo a individuo correlacionadas con la variabilidad de formas, lo
FISHER: LA PRIMERA SÍNTESIS
69
que implica que, en promedio, “los más aptos sobrevivan”. Es claro entonces que “selección natural” es un concepto estadístico: las poblaciones de seres vivos se enfrentan a la vida en un medio ambiente en el cual algunos tienen mayores probabilidades que otros de dejar descendencia.
MENDEL Y EL MENDELISMO
Desde un siglo antes de Mendel se habían hecho ya experimentos sobre hibridación en plantas, destacando los trabajos de Koelreuter, quien explicaba las diferencias encontradas entre las generaciones F1 y F2 en términos químicos, quizá influido por el mecanicismo reduccionista de la época, motivado por el éxito de los métodos de Descartes y Newton; llegó a demostrar un par de hechos importantes: que la hibridación no produce nuevas especies y que las contribuciones genéticas de ambos progenitores –padre y madre– son iguales, refutando así las afirmaciones de Linneo y sus seguidores, quienes suponían cosas distintas a partir de resultados de cruzas que nunca llevaron más allá de las generaciones F1. Otros dos investigadores anteriores a Mendel fueron Naudin y Gaertner, quienes redescubrieron la segregación en la generación F2, consistente en los tres tipos: dos parentales y un híbrido, pero no pusieron atención a las proporciones y vieron en sus resultados sólo una reversión de los híbridos a las especies progenitoras. Quizá la contribución más importante de Gaertner fue probar un gran número de especies, mostrando que algunas eran más susceptibles que otras para la investigación genética, lo que debió facilitar a Mendel elegir los famosos chícharos (Pisum) para sus experimentos, pues este género es excepcionalmente adecuado para estos propósitos. En efecto, se sabe que Mendel poseía una copia del libro de Gaertner y que lo estudió cuidadosamente, haciéndole posible no sólo seleccionar esmeradamente su material experimental, sino también plantearse las preguntas correctas que desembocarían en una interpretación exitosa, completamente diferente, de los resultados. Mendel realizó sus experimentos en un destartalado jardín de 40 m de largo por unos 7 m de ancho que se hallaba junto a la biblioteca de su monasterio en Brün. Antes de convertirse en monje había estudiado filosofía en Olmütz y, ya en el monasterio, el prelado le dio
70
ALBERTO ALDAMA
oportunidad no sólo de estudiar botánica y hacer experimentos en el jardín, sino de ir a Viena a estudiar física, matemáticas y zoología en la Universidad. Estuvo allí casi dos años bajo la tutela de eminentes físicos y zoólogos. Su profesor de botánica, Franz Unger, le enseñó no sólo anatomía y fisiología, sino que lo introdujo en los entonces modernos campos de la citología y la embriología vegetales. Unger había adoptado la teoría de la evolución y había expresado la opinión de que las variantes aparecen en las poblaciones naturales y dan lugar a variedades y subespecies hasta que finalmente las más diferentes alcanzan el nivel de especies distintas. Aparentemente, Mendel quiso probar la hipótesis de Unger y tuvo que fijarse en variantes y variedades en vez de hacerlo en la “esencia de la especie”, como había sido hecho por sus predecesores. Además de los resultados expresados en las leyes, una contribución fundamental de Mendel fue su método, consistente en la contabilidad cuidadosa y sistemática de las clases observadas y en el cálculo de las razones numéricas. Mendel tuvo una excelente educación en física y matemáticas y llevó cursos en Viena con el famoso físico Doppler, sirviendo incluso como ayudante en el Instituto de Física de la Universidad de Viena por un tiempo. Así, debió aprender mucho de la teoría de probabilidades que se estudiaba en aquel tiempo, sobre todo los modelos binomial, de Poisson y normal, diseñados por los matemáticos Bernoulli, Poisson y Gauss, quienes eran muy famosos en las principales universidades alemanas; debió aprender también a llevar registros cuidadosos de sus observaciones y a obtener generalizaciones numéricas. Mendel, en contraste con los primeros hibridadores, se había construido una hipótesis de trabajo definida antes de comenzar sus experimentos con Pisum; tal vez su primer modelo fue puramente matemático y sólo después obtuvo razones numéricas definidas que fueron las que lo llevaron a preguntarse qué factores dentro de los organismos podrían explicar la ocurrencia tan precisa, definida y predecible de tales cocientes. Quizá fue entonces que propuso –y probó una y otra vez– la hipótesis de que una planta produce dos clases de células huevo y dos clases de polen para cada uno de sus caracteres. En aquella pequeña parcela, Mendel sembró cientos de plantas de chícharos de varios tipos: de flores violetas y de flores blancas, altas y enanas, de semillas lisas y de semillas rugosas, de color amarillo y de color verde, etc., y durante siete años realizó cientos de experimentos de cruce. De entre los caracteres elegidos que cumplían
FISHER: LA PRIMERA SÍNTESIS
71
con los requisitos elegidos por él mismo (que fuesen caracteres diferenciadores constantes), elegiremos dos para seguir sus experiencias y razonamientos: la textura del tegumento de la semilla, que podía ser liso o rugoso, y el color, que podía ser amarillo o verde. Cada par de los correspondientes caracteres diferenciadores mencionados fue unido por fecundación cruzada; para la textura se hicieron 60 fecundaciones con 15 plantas; para el color, 58 fecundaciones con 10 plantas; posteriormente, observó que, de estos cruces, las plantas hijas (F1) no eran de carácter intermedio, sino igual al de alguno de los progenitores, siendo el carácter manifiesto siempre el mismo, al que por ello Mendel llamó dominante, y recesivo al otro puesto que “espera” a manifestarse hasta la segunda generación, como vio después. De los caracteres que aquí hemos elegido para mostrar el razonamiento de Mendel, los dominantes eran: para la textura del tegumento, el liso; para el color, el amarillo. El reporte de Mendel procede a describir las cruzas de los híbridos entre sí, manteniendo aislados los grupos de cada carácter; apunta que los descendientes obtenidos de esta cruza (generación F2 para nosotros) son de dos tipos: exactamente los de los individuos de las estirpes parentales y que se hallan presentes en la proporción 3:1 “en promedio” (sus palabras); esto es, 3/4 de los individuos poseen el carácter dominante y 1/4 el recesivo. Inmediatamente subraya que “no se observaron formas de transición en ningún experimento”. Los resultados que registra (omitimos otros caracteres que no sean textura del tegumento y color de la semilla) son los siguientes: 1. Textura: Se obtuvieron 7 324 semillas de 253 híbridos; 5 474 lisas y 1 850 rugosas. Proporción: 2.96:1. EXPERIMENTO 2. Color: Se obtuvieron 8 023 semillas de 258 híbridos; 6 022 amarillas y 2 001 verdes. Proporción: 3.01:1. EXPERIMENTO
Mendel hace notar que el carácter dominante “puede tener doble significado: parental o híbrido” (homócigo o heterócigo, diremos nosotros), mientras que aquellas plantas con carácter recesivo producen progenie constante con ese carácter en todas las generaciones sucesivas. El siguiente experimento trata de confirmar que, de los dominantes, un tercio es con carácter dominante constante (como en los recesivos) y los dos tercios restantes se comportan como híbridos (dan progenie de dos tipos en la proporción 3:1) y apunta:
72
ALBERTO ALDAMA
aparece determinada con certeza la razón media de 2:1 [y] queda claro ahora que los híbridos forman semillas que tienen uno u otro de los caracteres diferentes y que de éstos una mitad se desarrolla de nuevo en forma híbrida, mientras que la otra mitad da plantas que permanecen constantes y que reciben en igual cantidad los caracteres dominante o recesivo (Mendel, 1965).
Mendel procede entonces a elaborar un modelo matemático representando con mayúsculas los caracteres dominantes y con minúsculas los recesivos, conviene en que el símbolo Aa se refiere a los híbridos y las letras solas A y a se refieren a los caracteres constantes y postula que “la expresión A + 2Aa + a representa los términos de la serie de la progenie de los híbridos de dos caracteres diferenciadores” que se hallan en las proporciones 1:2:1. Registra enseguida los experimentos sobre progenie de híbridos con varios caracteres diferentes asociados y concluye que “la progenie de los híbridos en los que hay combinados caracteres esencialmente distintos presenta los términos de una serie de combinaciones en las que están unidas las series evolutivas de cada par de caracteres diferentes”, haciendo ver que en el mismo experimento se infiere que la relación de cada par de caracteres diferentes de la unión híbrida es independiente de las otras diferencias de las dos razas paternas originales y concluye esta parte del reporte diciendo: queda demostrado prácticamente que los caracteres constantes que aparecen en las distintas variedades de un grupo de plantas pueden obtenerse en todas las asociaciones que sean posibles según las leyes [matemáticas] de combinación mediante fertilización artificial repetida (Mendel, 1965).
Por último, en el capítulo final del reporte, redondea y da forma a su teoría postulando la manera en que los caracteres se hallan presentes en las células germinales, llamando “factores” a los entes responsables (“genes” para nosotros) y es capaz de predecir con absoluta precisión los resultados de diversas cruzas en las que se hallan involucrados dos caracteres. Siguiendo su nomenclatura (y con los caracteres que elegimos arriba) denota como A-lisas, a-rugosas; Bamarillas, b-verdes, y realiza los experimentos de fecundación: híbridos con polen de AB híbridos con polen de ab AB con polen de híbridos ab con polen de híbridos y dice:
FISHER: LA PRIMERA SÍNTESIS
73
Si la teoría fuese correcta, debería cumplirse en las células huevo y polen de los híbridos la presencia de las formas AB, Ab, aB y ab y se combinarían: células huevo AB, Ab, aB y ab con polen AB células huevo AB, Ab, aB y ab con polen ab células huevo AB con polen AB, Ab, aB y ab células huevo ab con polen AB, Ab, aB y ab y resultarían solamente las siguientes formas: AB, ABb, AaB, AaBb AaBb, Aab, aBb, ab como en 1 como en 2 (Mendel, 1965)
y apunta, después de explicar su razonamiento: La cosecha colmó plenamente estas esperanzas. Se obtuvo: • En el primer experimento: 98 semillas exclusivamente lisas y amarillas. • En el segundo: 31 semillas lisas y amarillas, 26 lisas verdes, 27 rugosas y amarillas, 26 rugosas verdes. • En el tercero: 94 semillas exclusivamente lisas y amarillas. • En el cuarto: 24 semillas lisas y amarillas, 25 lisas verdes, 22 rugosas amarillas y 27 rugosas verdes. […] por tanto, queda confirmada experimentalmente la teoría de que los chícharos híbridos forman células polen y huevo que, en su constitución, manifiestan en números iguales todas las formas constantes que resultan de la combinación de los caracteres unidos por fertilización (Mendel, 1965).
Es en efecto, en ese momento, cuando nace la primera teoría matemática en biología: la genética mendeliana. Del trabajo se desprenden dos conclusiones fundamentales (las “leyes de Mendel”): en cada individuo los genes se encuentran formando pares, los genes contenidos en esos pares, ya sean dominantes o recesivos, son entidades independientes “que emergen separadas y sin cambio en los gametos para cooperar en el zigoto” (primera ley); cuando las células sexuales maduran, los pares se disuelven y los genes se separan unos de otros; esta separación da la oportunidad de que se combinen caracteres diferentes porque los miembros de cada par de genes se separan independientemente de los otros pares –durante la gametogénesis– y se mezclan y distribuyen también independientemente de los otros pares al momento de la formación del zigoto (segunda ley).
74
ALBERTO ALDAMA
Así, Mayr resaltaría su admiración por el inspirado trabajo de Mendel –calificándolo de uno de los éxitos más brillantes de la historia de la ciencia– diciendo que, a pesar de no contar con los adelantos en citología cromosómica ni con los análisis teóricos de Weissman, había descubierto una manera nueva de ver la herencia y de expresarla en términos de caracteres unitarios para, desde allí, hacer generalizaciones de largo alcance. Sin embargo, el mismo Mayr apuntaría que la contribución más significativa de Mendel no fue –contrariamente a lo que muchos biólogos suponen– demostrar la realidad de una teoría corpuscular o discreta de la herencia, sino su insistencia en que cada carácter está representado en un zigoto por sólo dos factores, uno derivado del padre y el otro de la madre, lo que fue la idea que revolucionó la genética. Esta pertinente aclaración de Mayr es importante, pues, desde el mismo Darwin y en los trabajos de Weissmann –e incluso en los de De Vries y Bateson anteriores a 1900– se sostenía que existían numerosos factores idénticos determinantes para un carácter dado en cada célula (teoría de los pangenes o pangénesis). Según la pangénesis, cada célula del cuerpo producía un “germen” que se instalaba en las células gaméticas con el fin de reproducir el fragmento del futuro individuo que cada una representaba en la generación siguiente. Una vez refutada por Mendel esta hipótesis –aunque habría que esperar hasta el siguiente siglo para su conocimiento universal– era necesario el trabajo minucioso en citología para sentar las bases materiales de la nueva genética mendeliana. Otra característica significativa de su trabajo es que la estadística, con Mendel, entra a jugar un papel esencial en la biología, del modo en que, con Boltzmann, lo hizo en la física. No es el desarrollo de un individuo y el comportamiento de sus características hereditarias en relación con sus ancestros lo importante, sino el comportamiento de tales características en las poblaciones, entre una y otra generaciones, lo que ofrece ante los nuevos científicos una fenomenología susceptible de ser cuantificada. Esta actitud, con la que Mendel se adelantó a su época, es la que a finales del siglo comienza a ser adoptada y rápidamente extendida (y no es casual entonces que en diversos lugares e, independientemente, se comience a trabajar con ella), siguiendo la misma metodología experimental de procesamiento de datos e inferencia estadística para llegar, finalmente, a las mismas conclusiones, “redescubriendo” así, en Alemania, en Holanda, en Austria, los
FISHER: LA PRIMERA SÍNTESIS
75
resultados del trabajo de Mendel. Son hibridadores de nuevo De Vries, Correns, Tschermark, quienes independientemente llegan, al mismo tiempo, a las mismas conclusiones no tan casualmente; la comunicación de los resultados se propaga con rapidez y todos ceden el honor del descubrimiento original al monje austriaco fallecido sin pena ni gloria años atrás. Simultáneamente, los avances hechos en citología por Fleming, Waldeger, Van Beneden, entre otros, habían llevado a los naturalistas a proponer una drástica separación entre “soma” y “germen” y a los citólogos a identificar el papel central del núcleo celular primero y, luego, definitivamente, de los cromosomas –por Boveri– como responsables de la transmisión de los caracteres hereditarios. Así, Weismann afirma que las células germinales pueden dar origen a células somáticas y germinales, mientras que las somáticas sólo dan origen a células somáticas; esto último tiene una implicación importante: las alteraciones sufridas por las células somáticas no tienen nada que ver con la herencia, “todos los cambios debidos a influencias exteriores son pasajeros y desaparecen con el individuo”, lo que refuta definitivamente la teoría lamarkiana y será la pauta para rechazar eventualmente toda hipótesis sobre “herencia suave” relacionada con la pangénesis original adoptada por Darwin. Confluyen en este momento tres tendencias distintas en la biología: los estudios estadísticos sobre la herencia; la búsqueda de la sustancia responsable de la estabilidad de las especies y de la variabilidad dentro de las poblaciones, y los trabajos de laboratorio en citología, que apuntaban hacia los cromosomas como los entes idóneos para sustentar las bases materiales de los factores mendelianos, y cuya variación en distribución u ordenamiento fueran responsables de las fluctuaciones observadas en las poblaciones reales sobre las que actuaría la selección natural. No fue, sin embargo, tan inmediato y directo el camino que llevaría a esta síntesis de la ciencia evolutiva. Habría que esperar todavía cuarenta años. Hubo un sinnúmero de confusiones y malentendidos que analizaremos brevemente. En cuanto al camino que trazaron los hibridadores primero, y luego los genetistas de laboratorio, puede decirse que, aun cuando en un principio éstos siguieron los métodos mendelianos, la falla en uno de los pasos fundamentales –elegir los especímenes adecuados– llevó a los mendelianos a proponer como primordial –si no única– causa directa y creadora del proceso evolutivo los eventuales cambios, azarosos y bruscos (mutaciones) en el
76
ALBERTO ALDAMA
contenido factorial (o “genético”, según Johannsen) de las especies. Así, por ejemplo, De Vries afirma que las mutaciones se dan al azar, tanto progresivas como regresivas, “en todas direcciones, unas útiles y otras perjudiciales, la mayoría neutras”, de modo que proporcionan “un material considerable para la actuación de la selección natural”, la que se convierte en una fuerza “meramente pasiva, sin dirección” (Bateson). Esta actitud, contraria a la sostenida por los naturalistas darwinistas, llevó a discusiones acres y violentas, durante mucho tiempo, entre mendelianos y naturalistas y biómetras. Las razones principales fueron la incapacidad de los mendelianos de pensar en términos poblacionales –pues, contradictoriamente a la tradición estadística que pretendían heredar de Mendel, casi todos ellos pensaban en las especies como “tipos” o “formas” dadas, invariables y únicas–, por un lado, y la reticencia inicial de los biómetras y naturalistas a ver en la dinámica mendeliana el complemento –y sustento genético– de la necesaria variabilidad y estabilidad sobre las que actuase la selección natural. El concepto de “mutación” sería poco a poco modificado por los investigadores posteriores en genética, como Müller y Morgan –sobre todo este último– hasta admitir mutaciones que cambian sólo ligeramente la composición (fenotípica) de los individuos, haciendo posible así la conciliación entre la genética mendeliana y la biometría de Galton y Pearson. Sólo añadimos, a manera de anécdota, que en lo que falló De Vries –en elegir adecuadamente los sujetos experimentales– Morgan tuvo éxito al hallar a la famosa mosca de la fruta (Drosophyla) como sujeto idóneo. Así entonces, uno de los conceptos por revisar con detalle (con Fisher) es el que desacreditó a los mendelianos (ante los naturalistas darwinianos) durante años: el de mutación.
LA ESCUELA BIOMÉTRICA INGLESA
En la última parte del siglo XIX los estudios de genética se concentraron en la cruza de plantas (principalmente horticultura) y los investigadores se veían abrumados por las innumerables sutilezas y variaciones manifiestas en los caracteres cuantitativos, pero estaban intrigados por los cambios en las frecuencias de rasgos continuos tal y como se transmiten a través de generaciones sucesivas en las poblaciones humanas. Francis Galton (primo de Darwin) y Karl Pearson
FISHER: LA PRIMERA SÍNTESIS
77
(un protegido de Galton, originalmente economista) desarrollaron los fundamentos de la biometría, precursora de la ciencia estadística moderna –a la que legaron conceptos fundamentales como los de covarianza y correlación– motivados principalmente por problemas planteados por la teoría de la evolución y la eugenesia. Durante los primeros años del siglo XX el campo de la biología evolutiva se hallaba en un estado de controversia (como hoy) y desorden. Los encuentros personales entre sus protagonistas exacerbaron las ya de por sí profundas divisiones sobre las cuestiones relevantes de la evolución y no alcanzaba a verse la posibilidad de una conciliación. La causa principal, como hemos dicho, fue el redescubrimiento de las leyes de Mendel, lo que reforzó una previa división entre los biólogos acerca de la naturaleza de la evolución, ya que cuando fue publicado El origen de las especies, aparte de las controversias de índole no científica que provocó, puso a los científicos en posiciones encontradas con respecto a varios aspectos de la teoría. El hecho de que la evolución ocurriese no fue, en general, cuestionado; lo más controvertido fue la aseveración de que el agente que la llevaba a cabo fuese la selección natural e, incluso dentro de los seleccionistas, la controversia estaba en la forma en que debía darse el cambio evolutivo. El punto de vista de Darwin fue el “gradualista”, consistente en postular que los cambios en la naturaleza de los organismos en las poblaciones son graduales y por incrementos. Curiosamente, algunos de quienes defendieron la teoría de Darwin, como T. H. Huxley y Francis Galton, fueron, sin embargo, “saltacionistas”, esto es, pensaban que los cambios evolutivos ocurrían más frecuentemente “a saltos” de magnitud no despreciable. Se desarrollaron, por tanto, dos escuelas de pensamiento a partir de estos puntos de vista, cuyos argumentos intentaremos describir brevemente. Siendo desconocido el mecanismo de la herencia antes de 1900, existía una visión común acerca de ella, consistente en pensar que las características de un individuo son –o tienden a ser– una mezcla de las de sus padres. Esta hipótesis “mezcladora” atrajo quizá la más sustancial objeción científica a la teoría de Darwin. Es fácil ver que, ante la hipótesis de apareamientos aleatorios, la varianza de una característica en una población, bajo la herencia mezcladora, decrecería en un medio en cada generación. La consecuente uniformidad de características que rápidamente se obtendría no dejaría lugar a la variación sobre la cual actuase la selección natural. Esa tasa de decremento tan rápida en la varianza se modificaría sólo muy ligeramen-
78
ALBERTO ALDAMA
te ante hipótesis de apareamientos no aleatorios. Puesto que tal uniformidad no se observa en las poblaciones reales, el argumento queda incompleto y, dado que el grado de variación observado sólo puede explicarse entonces postulando la existencia de otros factores de notable efecto que hiciesen que las características de la progenie se desviasen de las de sus padres, entonces no se podría argumentar razonablemente que los padres favorecidos positivamente por la selección produjesen descendencia que se les pareciese cercanamente y que por ello fuese también favorecida por la selección. Este argumento fue reconocido por Darwin como un gran obstáculo para su teoría de la evolución mediante selección natural y resulta interesante notar que las versiones posteriores a 1859 de Sobre el origen... se vieron claramente influidas por dicho argumento. Galton jugó un papel ambiguo en la controversia entre gradualistas y saltacionistas. Por un lado, él mismo era un convencido de la teoría de los saltos y esto debió inducirle a proponer a Darwin, en una carta que le escribió en 1875, una teoría de herencia en mucho similar a la mendeliana y basada solamente en especulaciones y razonamiento abstracto. No obstante, tenía una relación intelectual y personal muy cercana con Darwin y, debido a ella, intentó cuantificar el proceso de la evolución gradualista; esto lo llevó a introducir los conceptos estadísticos de correlación y de regresión, que se convirtieron pronto en las principales herramientas del grupo de científicos después conocidos como biómetras, quienes fueron en cierto sentido los herederos de la teoría gradualista darwiniana. El trabajo de investigación matemática de este grupo comenzó en 1890, bajo el liderazgo de W. F. R. Weldon y Karl Pearson. Al mismo tiempo, los saltacionistas ganaron muchos adeptos, entre los que sobresale William Bateson, y la disputa entre estos dos grupos llegó, en el final del siglo, a un clímax. Habiéndose redescubierto el mendelismo en 1900, la naturaleza particular de esta teoría fue, por supuesto, muy atractiva para los saltacionistas. Muchos biólogos comenzaron a pensar en un proceso no darwiniano de evolución a través de saltos mutacionales. Por otro lado, los biómetras continuaban convencidos por la teoría darwiniana de evolución gradual mediante selección natural y eran, por ello, reacios a creer en el mecanismo mendeliano de herencia, o por lo menos a pensar que éste fuese de importancia fundamental para la evolución. Incluso los argumentos brillantes de Yule, basados en un análisis matemático del sistema mendeliano, acerca de que el men-
79
FISHER: LA PRIMERA SÍNTESIS
delismo y el darwinismo podrían conciliarse, fueron largamente ignorados. Sin embargo, como veremos, no solamente fue esta conciliación posible, sino inmensamente fructífera para la teoría de la evolución en la forma de lo que llamamos la genética matemática de poblaciones.
LA LEY DE HARDY–WEINBERG
Considérese una población monoica que se reproduce formando parejas al azar, lo suficientemente grande (infinita, en teoría) como para que las frecuencias génicas puedan determinarse de modo exacto y sin desviaciones debidas a “errores de muestreo”; céntrese la atención en un locus génico dado donde pueden presentarse dos alelos, digamos A1 y A2. Supóngase que en cualquier generación las proporciones de los tres genotipos: A1 A1, A1 A2, A2 A2, son d, h y r, respectivamente. Debido a la hipótesis de apareamientos aleatorios, la frecuencia de los apareamientos A1 A1 x A1 A1 es d 2 , la de A1 A1 x A1 A2 es 2dh, la de A1 A1 x A2 A2 es 2dr, etc. Ahora, considérense los resultados de estos apareamientos. Si se ignora la muy pequeña probabilidad de mutación, y si no hay diferencias en adecuación para estos genotipos, las elementales reglas mendelianas indican que el resultado del primer apareamiento debe ser progenie tipo A1 A1 en el cien por ciento, que la mitad de la progenie del segundo apareamiento debe ser de tipo A1 A1 y la otra mitad de tipo A1 A2, que toda la progenie del tercer apareamiento debe ser de tipo A1 A2, etc., con resultados similares para el resto de los apareamientos posibles. Entonces, puesto que la progenie A1 A1 sólo puede obtenerse de apareamientos A1A1 x A1A1 (con frecuencia 1 para tales apareamientos), de apareamientos A1A1 x A1A2 (con frecuencia 1/2 ) y de apareamientos A1A2 x A1A2 (con frecuencia 1/4 ), y puesto que las frecuencias de tales apareamientos son: d 2 , 2dh, h2, respectivamente, la frecuencia d’ de A1A1 en la siguiente generación es: 1 d 2 + (2dh) 2 1 1 1 1 d ' = d 2 + (2dh) + h 2 = d 2 + dh + h 2 = d + h 2 4 4 2
2
(1)
80
ALBERTO ALDAMA
Consideraciones similares dan las frecuencias h’ de A1 A2 y r’ de A2 A2 como: h' =
1 1 1 1 1 (2dh) + h 2 + 2dr + (2rh) = 2 d + h r + h 2 2 2 2 2
r' =
1 2 1 1 h + (2rh) + r 2 = r + h 4 2 2
(2)
2
(3)
Las frecuencias d”, 2h”, r” para la siguiente generación se encuentran reemplazando d’, h’, r’ por d”, 2h”, r” y d, h, r por d’ , 2h’, r’, teniéndose: 2
2 2 1 1 1 1 d” = d’ + h’ = d + h + d + h r + h = 2 2 2 2 2
1 1 1 d + h d + h + r + h = 2 2 2 2
2
1 1 2 d + h (d + r + h ) = d + h = d ' 2 2 De manera similar, se encuentra que h” = h’, r” = r’ . Por tanto, las frecuencias genotípicas establecidas en la segunda generación se mantienen en la tercera y consecuentemente en todas las generaciones subsecuentes. Nótese que las frecuencias que tienen esta propiedad pueden caracterizarse por satisfacer la relación h’2 = 4d’r ’
(4)
Claramente, si esta relación se da desde la primera generación, de modo que h 2 = 4 dr
(5)
entonces no sólo no habría cambios en las frecuencias genotípicas entre la segunda y la tercera generaciones, sino que estas frecuencias también serían las mismas que las de la primera generación. Las poblaciones para las cuales la relación (5) se cumple, se dice que tienen sus frecuencias genotípicas en equilibrio Hardy-Weinberg (H-W).
FISHER: LA PRIMERA SÍNTESIS
81
Puesto que d + h + r = 1, sólo dos de las frecuencias d, h, r, son independientes. Si, además, la relación H-W (5) se cumple, sólo una de las frecuencias es independiente. Un breve análisis de las relaciones (1) – (3) nos lleva a que la cantidad más conveniente para considerarla como independiente es p = d+h/2; esto es, la frecuencia (gamética) del alelo A1. Los resultados de arriba pueden resumirse en la forma de un teorema: Teorema (Hardy-Weinberg). Bajo las hipótesis establecidas, una población con frecuencias genotípicas d (de A1A2), h (de A1A2) y r (de A2A2) alcanza, después de una generación de apareamientos aleatorios, las frecuencias genotípicas estables p2, 2pq y q2, donde 1 1 h; q = r + h = 1 ± p 2 2 Si las frecuencias iniciales d, h, r están en la forma p2, 2pq, q 2 , entonces, éstas serán estables en todas las generaciones. En 1905, Castle –quien posiblemente conocía el teorema en toda su generalidad– proporcionó ejemplos numéricos; así lo hicieron también Yule en 1906 y Pearson en 1904. La primera prueba general fue publicada por Hardy (1908) y por Weinberg ese mismo año, y es por ello que el teorema lleva el nombre de estos últimos. Este teorema es importante por dos razones diferentes, una meramente técnica, la cual ha oscurecido su valor principal. La razón técnica consiste en que, si la relación (5) es verdadera, entonces el comportamiento matemático de la población puede examinarse en términos del parámetro p, en vez del vector (d, r), lo cual es en efecto muy conveniente, pero no fundamentalmente importante. La parte realmente trascendental del teorema yace en el comportamiento de equilibrio estable: si no actúan fuerzas externas, no hay ninguna tendencia intrínseca para que las variaciones presentes en la población desaparezcan (variaciones dadas por la existencia de diferentes genotipos). Esto indica inmediatamente que la principal crítica al darwinismo, esto es, el hecho de que la variación decrece rápidamente bajo la teoría mezcladora, no se aplica con la herencia mendeliana. Es claro a partir de la ley de H-W que, bajo un sistema mendeliano de herencia, la variación tiende a mantenerse. (Claro que la acción de la selección a menudo tiende a destruir tal variación, y esto es importante, pero ya se verá que el grado de disminución de la variación bajo cualquier esquema menp=d+
82
ALBERTO ALDAMA
deliano realista es mucho menor que bajo cualquier esquema mezclador también realista). La ley de H-W muestra que, lejos de ser incompatible, el darwinismo y el mendelismo son casi inseparables. Sería difícil pensar en un proceso hereditario diferente del esquema “cuántico” mendeliano en el cual la selección natural pudiese actuar con tal eficiencia, mientras que, por otro lado, las diferencias de adecuación entre los genotipos generalmente darán por resultado cambios en las frecuencias genotípicas y por tanto evolución. La ley de H-W puede ser generalizada de muchas maneras. En este momento histórico comenzaba a quedar claro que no sólo era posible una reconciliación entre darwinismo y mendelismo, sino que de hecho era inevitable. En 1911 esto era muy aparente para un joven estudiante de matemáticas que ese año dio una conferencia sobre “Herencia” en la Sociedad de Eugenesia de la Universidad de Cambridge, en la cual subrayaba la necesidad de tal reconciliación. Varios años después, este joven, Ronald Aylmer Fisher, escribió un artículo seminal en genética de poblaciones en el cual se estableció dicha reconciliación. Consideraremos su aproximación al problema, pues muchas de las cantidades que juegan un papel clave en su argumentación han resultado ser de importancia fundamental para consideraciones evolutivas.
LA VARIANZA GÉNICA
Considérese cualquier carácter cuantitativo medible, digamos m, que esté determinado enteramente por un locus A en donde puedan hallarse los alelos A1 o A2. Supóngase que todos los individuos A1 A1 tienen medida m11, todos los individuos A1 A2 tienen medida m12 y todos los individuos A2 A2 tienen medida m22. Supóngase de momento que no hay ninguna contribución ambiental a este carácter, por lo que, conociendo el genotipo, puede conocerse de inmediato el fenotipo (el valor de esta medida). Supóngase también que, con respecto a este carácter, los apareamientos son aleatorios y que las frecuencias de A1 A1, A1 A2, A2 A2 son inicialmente: p2, 2pq, q 2 , respectivamente. Entonces el valor medio de m es: m = p 2m11 + 2 pqm12 + q 2m22
83
FISHER: LA PRIMERA SÍNTESIS
y la varianza:
σ 2 = p 2 ( m11 ± m ) + 2 pq( m12 ± m ) + q 2 ( m22 ± m )
(6)
Considérese ahora cuáles serían los cambios en el carácter m si se hiciese el reemplazo de un alelo A1 por uno A2. El efecto de esto depende de si el reemplazo se hace en un individuo A1A1 o en un individuo A1A2. En el primer caso este efecto sería m12 – m11, mientras que en el segundo sería m22 – m12, y éstos, en general, no tienen por qué ser iguales. Para hallar una expresión que describa este efecto, supóngase que los valores m11, m12, m22 pueden aproximarse mediante expresiones de la forma µ+ 2 α 1 , µ+α 1 +α 2, µ+2α 2 , respectivamente, con la restricción p α 1 + q α 2 = 0 (pues pensamos que los valores α son desviaciones de un hipotético valor medio µ y que corresponderían al efecto de cada alelo). Si derivamos la expresión: 2
2
S( µ, α 1 , α 2 ) = p 2 ( m11 ± µ ± 2α 1 ) + 2 pq( m12 ± µ ± α 1 ± α 2 ) + q 2 ( m22 ± µ ± 2α 2 )
2
(7)
(una especie de varianza) con respecto a µ, hallamos que el valor mí_ nimo para µ es µ = m. Diferenciando ahora la expresión lagrangiana: 2
S( m , α 1 , α 2 ) ± 4 λ ( pα 1 + qα 2 ) = p 2 ( m11 ± m ± 2α 1 ) + 2
2
2 pq( m12 ± m ± α 1 ± α 2 ) + q 2 ( m22 ± m ± 2α 2 ) ± 4 λ ( pα 1 + qα 2 )
(8)
con respecto a α1 y a α1 (siendo λ el “multiplicador” del método lagrangiano), obtenemos:
α 1 = p( m11 ± m ) + q( m12 ± m ) α 2 = p( m12 ± m ) + q( m22 ± m )
(9)
y podemos entonces definir al efecto promedio de sustituir a A1 por A2 como:
α 2 ± α 1 = p( m12 ± m11 ) + q( m22 ± m12 )
(10)
El valor mínimo para S es:
σ D2 = p 2q 2 (2m12 ± m11 ± m22 )
2
(11)
84
ALBERTO ALDAMA
Ahora bien, regresando a la expresión para la varianza σ2, si a esta última (la suma de cuadrados) restamos el término recién obtenido σD2 (la suma de cuadrados residual), se tiene:
[
σ 2 ± σ D2 = σ A2 = 2 pq pm11 + (q ± p)m12 ± qm22
]
2
(12)
Entonces, puesto que σA2 ha venido a ser aquella componente de la varianza que resulta ser un término de la varianza total, siendo el otro la suma de los residuales, se le llama varianza génica aditiva, ya que viene a ser la parte de la varianza total en cuanto al carácter medido que puede achacarse a los efectos promedio de los alelos A1 y A2, mientras que a σD2 –la suma de residuales– se le denomina varianza de dominancia; esta denominación proviene de la forma específica en que aparecen en ella la medida de los caracteres fenotípicos (nótese que para una dominancia completa, digamos de A1, se tendría que m12 = m11 y σD2 = p2q2(m11 – m22)2, mientras para una ausencia completa de dominancia, esto es, para m12 = (m11+m22)/2, se tendría σD2).
EVOLUCIÓN
Veamos ahora las consecuencias evolutivas de la dinámica genética mendeliana. Los hitos de la teoría darwiniana de la evolución son la variación y la selección natural; la variación es dada, bajo el sistema mendeliano, en última instancia, por la mutación: en todas las poblaciones naturales la mutación provee de una fuente continua de variación genética. Puesto que los diferentes genotipos creados de tal modo tendrán diferentes adecuaciones (diferirán en viabilidad, éxito reproductivo y fertilidad), la selección natural podrá actuar. El objetivo de Fisher era cuantificar este proceso, y su trabajo realizado durante las décadas de los años veinte y treinta (paralelamente al de Haldane y Wright) estaba encaminado en esa dirección. Tal cuantificación implicó una descripción científica de la teoría darwiniana en términos mendelianos. Como un primer paso, es necesario hacer una serie de suposiciones y aproximaciones acerca de los procesos evolutivos considerados. Por ello, aunque hemos dicho que la mutación es esencial para la evolución, y puesto que las tasas de mutación son normalmente muy
85
FISHER: LA PRIMERA SÍNTESIS
pequeñas, entonces, para ciertos problemas específicos puede ignorársele. Además, aunque la adecuación de un individuo está determinada de un modo complejo por su acervo genético completo (y aún así diferirá de un ambiente a otro), se supondrá, como una primera aproximación, que su adecuación depende de su genotipo en un solo locus, o que al menos puede hallarse “sumando” las contribuciones de varios loci a la adecuación. También es difícil trabajar con la componente de la adecuación que se relaciona con la fertilidad, y se harán suposiciones especiales acerca de esto. Supóngase entonces que las adecuaciones de los tres genotipos A1A1, A1A2, A2A2, en cierto locus A, están dadas por: Genotipo
A1A1
A1A2
A2A2
Adecuación
ω11
ω12
ω22
Frecuencia
p2
2pq
q2
Nótese que se han escrito las frecuencias de estos genotipos en la forma apropiada a la suposición de apareamientos aleatorios. Las frecuencias H-W se aplican sólo en el momento de la concepción puesto que a partir de entonces las viabilidades diferenciales alteran las frecuencias genotípicas de su forma H-W. Por esta razón contamos la población al momento de la concepción en cada generación y, por tanto, también se está haciendo implícitamente la suposición extra de un modelo de generaciones “separadas”. La cuestión más interesante es el comportamiento de la frecuencia p del alelo A1 bajo la selección natural. Puesto que se piensa que la unidad fundamental del proceso evolutivo es el reemplazo de un alelo “inferior” por uno “superior”, esta cuestión es esencial para la comprensión del proceso evolutivo. Esta cuestión fue atacada por primera vez, en ciertos casos específicos, por Norton, y después, con mayor detalle, por Haldane. Se considerarán aquí sólo los casos más simples. Antes, nótese que se requiere explicar dos fenómenos aparentemente contradictorios. Por un lado debe poder explicarse el proceso dinámico de la sustitución de un alelo por otro y, por otro lado, debe explicarse la existencia observada de polimorfismo génico considerable, aparentemente estable. La primera cuestión es hallar la frecuencia p’ de A1 en la siguiente generación. Considerando las adecuaciones de cada individuo y todos los apareamientos
86
ALBERTO ALDAMA
posibles, se encuentra fácilmente que p ’– p = pq
ω 11 p + ω 12 (q – p ) – ω 22q ω 11 p 2 + 2ω 12 pq – ω 22q 2
(13)
La iteración de la relación de recurrencia (13) da los valores sucesivos que toma la frecuencia de A1. Desafortunadamente no siempre es posible dar expresiones explícitas (como funciones dependientes del tiempo) y sólo puede contarse con aproximaciones. Antes, nótese que p’ depende de los cocientes de las adecuaciones ωij, más que de sus valores absolutos, por lo que p’ permanecerá sin cambio si se multiplica a cada ωij por alguna constante. Por tanto, es posible escalar a las ωij en cualquier forma conveniente. Diferentes escalas son convenientes para diferentes propósitos, como se verá. Abajo se indican dos escalas alternativas para los valores de adecuación: A1A1
A1A2
A2A2
ω11...
ω12...
ω22...
(14)
1+s,
1+sh,
1...
(15)
1– s1...
1...
1– s2...
(16)
Normalmente se supone que, excepto en casos extremos (tal vez implicando letalidad), los diferenciales de adecuación s, sh, s1, s2, son pequeños, tal vez del orden del 1%. En este caso se ignorarán términos de orden superior en estos parámetros. Usando el esquema (15), en la relación de recurrencia (13) puede escribirse, con suficientemente buena aproximación:
[
]
p ’– p = spq p + h (q – p )
(17)
Además, si se mide el tiempo en unidades de una generación, esta ecuación puede aproximarse por la ecuación diferencial dp = spq p + h(q ± p) o, mejor: dt
[
]
dp = sp(1 ± p) p + h(1 ± 2 p) dt
[
]
(18)
87
FISHER: LA PRIMERA SÍNTESIS
Si se denota por t(p1,p 2 ) al tiempo requerido para que la frecuencia de A1 cambie del valor p1 al valor p2 , entonces: p2
t ( p1 , p2 ) =
dp
∫ sp(1 ± p)[ p + h(1 ± 2 p)]
(19)
p1
Aun cuando es posible obtener una expresión explícita para t(p1,p2), es más conveniente usar la expresión (19) directamente. Supóngase primero que s > sh > 0; entonces, de (18), la frecuencia de A1 se incrementará hasta valer 1. Sin embargo, cuando esta frecuencia se aproxima a la unidad, el tiempo requerido para incluso pequeños cambios será muy grande, debido al factor 1 – p en el denominador del integrando en (19). Este comportamiento es aún más marcado en el caso h = 1 (A1 dominante con respecto a A2 en adecuación), ya que entonces el integrando contiene un término (1 – p)–2. Esta tasa muy lenta de incremento se debe al hecho de que una vez que p está cerca de la unidad, la frecuencia del genotipo A2 A2 (en contra del cual actúa la selección) es extremadamente baja. En el caso particular h = 1/2 (no dominancia en adecuación), la ecuación (19) toma la forma: p2
t ( p1 , p2 ) =
2dp
∫ sp(1 ± p)
p1
(20)
A partir de las ecuaciones (19) y (20) es posible evaluar los tiempos requeridos para cualesquiera cambios en la frecuencia de A1 (ver tabla abajo). Los tiempos mostrados en la tabla apoyan las conclusiones dadas y, mientras actúa la selección hasta que la variación es destruida, los tiempos requeridos son usualmente muy largos, mucho más de los que se requieren bajo la teoría mezcladora de la herencia. h /rango 10–3 →10–2 10–2 →10–1 1/2 462 480 1 232 250
0.1→0.5 439 309
0.5 → 0.9 0.9 → 0.99 0.99 → 0.999 439 480 462 1020 9240 90631
Se puede esperar observar un polimorfismo genético considerable en las poblaciones aun cuando estén sujetas a selección natural direccional: los artículos de Haldane ofrecen valores análogos a los de la tabla en condiciones cada vez más complejas (por ejemplo, endogamia, adecuaciones diferenciales dependientes del sexo, etc.).
88
ALBERTO ALDAMA
Este procedimiento cuantifica, aunque sea aproximadamente, al proceso unitario microevolutivo del reemplazo de un alelo por otro. Es claro que si s < sh < 0, sucederá un proceso paralelo al anterior, con el alelo A2 remplazando al alelo A1. Este proceso es la imagen especular del anterior y no requiere más comentario. Un comportamiento completamente diferente sucede cuando la adecuación ω12 del heterócigo es mayor que las adecuaciones de los dos homócigos. Este caso puede tratarse de manera más conveniente usando el esquema (16) con s1, s2 > 0. Aquí la relación de recurrencia (19) puede ser reescrita, con suficiente aproximación, como:
[
]
p' ± p = p(1 ± p) s2 ± p(s1 + s2 )
(21)
Es claro que no habrá cambio en la frecuencia p de A1 si p toma el valor particular s2 ω 22 ± ω 12 p* = = (22) s1 + s2 ω 11 + ω 22 ± 2ω 12 Nótese además que si p < p*, entonces p < p’< p*, mientras que si p > p* , entonces p* < p < p. Por tanto, p* es un punto de equilibrio estable y, cualquiera que sea su valor inicial, la frecuencia p de A1 se aproximará a p*. No es difícil ver que si s1 < 0, s2 < 0 entonces p* sigue siendo un punto de equilibrio del sistema de recurrencia (13), pero en este caso se trata de un equilibrio inestable y por ello es de poco interés. La frecuencia de A1 caerá a cero si su valor inicial es menor que p* y subirá a uno si es mayor que p*. Todas estas consideraciones muestran que una condición necesaria y suficiente para que exista un equilibrio estable de la frecuencia de A1 en el intervalo (0,1) es que el heterócigo tenga una mayor adecuación que los dos homócigos. Este hecho tan importante fue establecido por Fisher en 1922 (Fisher, 1958) y brinda una posible explicación para la ocurrencia de frecuencias alélicas estables en las poblaciones. Puede decirse que en la década de los años veinte ya se habían dado los primeros grandes pasos para explicar y cuantificar en términos mendelianos las que quizá sean las dos principales propiedades de las poblaciones biológicas: su capacidad de evolucionar y su capacidad de mantener la variación por lapsos muy largos. Ahora, será conveniente considerar brevemente el efecto de la mutación. Se supondrá que A1 muta a A2 a una tasa µ y que A2 muta a A1 a una tasa ν. Entonces es fácil ver que, si no hay selección,
89
FISHER: LA PRIMERA SÍNTESIS
p' = p(1 ± µ ) + ν (1 ± p)
(23)
y que se alcanza un equilibrio estable cuando p = p* =
ν µ +ν
(24)
Supóngase ahora que se dan ambos fenómenos, mutación y selección, teniendo en cuenta que las diferencias selectivas son del orden del 1%, mientras que las tasas de mutación son del orden de 10–5 o 10–6. Considérese primero el caso en que exista una ventaja selectiva para el heterócigo, de modo que, con sólo selección y mutación, habrá un nuevo equilibrio estable que diferirá sólo trivialmente del dado por (22). No se considerará este caso, por tanto, más allá. Usando el esquema (15) con s > sh > 0, es claro que habrá un punto de equilibrio estable para cuando la frecuencia de A1 se encuentre cerca de la unidad. Más exactamente, encontramos la fórmula aproximada p* = 1 ±
µ s ± sh
(25)
mientras que si s > 0, h = 1 (A1 dominante sobre A2) la fórmula correspondiente es: p* = 1 ±
µ s
(26)
Fórmulas paralelas se aplican cuando s < sh < 0; en tal caso, para el equilibrio: p* =
ν sh
(27)
p* =
ν s
(28)
mientras que para s < 0, h = 1:
Todas estas fórmulas fueron obtenidas durante la década de los años veinte; nótese que implican una segunda forma en que la variación genética puede mantenerse en una población; esto es, por el “balance entre selección y mutación”. Sin embargo, la frecuencia de uno u otro alelo será muy pequeña para cualquiera de los equilibrios arriba descritos, aunque la frecuencia del alelo menos frecuente es menos pequeña si la dominancia es completa, así que cuando s = 0.01,
90
ALBERTO ALDAMA
µ = 10–6, la frecuencia de A2 en equilibrio será de 0.01 cuando h = 1 (dominancia completa) y de 0.00002 cuando h = 1/2 (no dominancia). Ya se había hecho notar antes que el sistema mendeliano de herencia permite cuantificar, al menos a una primera aproximación, la tasa de sustitución alélica en un proceso evolutivo: ¿es posible llegar a principios generales, derivados del sistema mendeliano, que cuantifiquen las dos principales características de un proceso evolutivo a través de la selección natural darwiniana: el requerimiento de la variación y el “mejoramiento” alcanzado por esta población? En su teorema fundamental de la selección natural, Fisher (1930) intentó encontrar ambos principios. Su derivación original no está claramente basada en un modelo explícito acerca del modo en que una frecuencia alélica cambia en el tiempo, y por ello se da aquí una derivación basada en un modelo explícito que lleva efectivamente a las mismas conclusiones a las que llegó Fisher. Considérese una población para la cual la adecuación de cada individuo depende sólo de su constitución genética en un solo locus A. Supóngase que dos alelos, A1 y A2, son posibles en este locus y que las adecuaciones de los tres posibles genotipos están dadas como en (14). Se supone que la población se reproduce en generaciones separadas de modo que se aplica la ecuación (13), con ω en vez de µ. En cada generación podemos definir la adecuación media de la población en esa generación como
ω = ω 11 p 2 + 2ω 12 + ω 22q 2
(29)
donde p es la frecuencia de A1 y q la de A2 en esa generación. La frecuencia p’ de A1 en la siguiente generación puede hallarse a partir de (13) y por tanto la adecuación media en esa otra generación puede computarse como (30)
ω ’ = ω 11 p ’2 +2ω 12 p ’ q ’ +ω 22q ′ 2
Considérese el cambio ∆ω = ω ’ – ω en adecuaciones medias entre estas dos generaciones. No es difícil mostrar, usando (13), que 2
∆ω =
2
2 pq[ω 11 p + ω 12 ( q ± p) ± ω 22q ] ω 11 p + ω 12 +
ω2
1 2
ω 11 +
1 2
(31)
ω 22 pq + ω 22q 2
91 _ Claramente ω es no negativa, de modo que podemos concluir que la selección natural actúa de modo que incrementa, o al menos mantiene, la adecuación media de la población. Ésta es la primera parte del teorema fundamental de la selección natural, y es claramente una cuantificación en términos genéticos del concepto darwiniano de que ha habido un “mejoramiento” (“adaptación”, se puede decir) en la población, debido a la selección natural. También podemos usar (31) para cuantificar la segunda parte del principio darwiniano en cuanto a que la variación (en este caso la variación genética) es necesaria para que actúe la selección natural. Claramente, ∆ω es cero si p = 0, o si p = 1; esto es, si no hay variación genética en la población. Es posible hacer una aseveración más fuerte que ésta: nótese que si las ωij son todas cercanas a 1, puede escribirse, con buena aproximación: FISHER: LA PRIMERA SÍNTESIS
[
∆ω = 2 pq ω 11 p + ω 12 (q ± p) ± ω 22q
]
2
(32)
Ahora, la ecuación (12) muestra inmediatamente que la varianza genética aditiva en adecuación es:
[
σ A2 = 2 pq ω 11 p + ω 12 (q ± p) ± ω 22q
]
2
(33)
y podemos entonces cuantificar en términos genéticos al segundo mayor elemento de la teoría darwiniana: la tasa de incremento de la adecuación media es esencialmente igual a la componente aditiva de la varianza genética en adecuación. Si los diferenciales en adecuación no son pequeños, se ha encontrado (Seneta, 1973) una fórmula diferente. Inicialmente, puede pensarse que la varianza total en adecuación, esto es: (34) σ 2 = ω p 2 + 2ω pq + ω q 2 ± ω 2 11
12
22
en vez de la sola componente aditiva de la varianza, debería estar relacionada con el incremento en la adecuación media. Existen al menos dos argumentos por los cuales esto no es así. Primero, si los valores de adecuación son de la forma (16) con s1, s2 > 0, y si la población está en el punto de equilibrio (22), entonces la varianza total en adecuación será positiva y, aun así, debido a que la población está en equilibrio, no habrá incremento en la adecuación media. Segundo –y más importante– la componente aditiva de la varianza genética es aquella porción explicada por los alelos mismos liberados, tanto
92
ALBERTO ALDAMA
como sea posible, de desviaciones debidas a dominancia. Puesto que, en el modelo considerado, los cambios en las frecuencias alélicas son los componentes fundamentales de la evolución, puede esperarse que la tasa de incremento de la adecuación media esté relacionada con aquella componente de la varianza genética total que es explicada por los alelos mismos.
BIBLIOGRAFÍA
Fisher, Ronald Aylmer. 1958. The Genetical Theory of Natural Selection, Nueva York, Dover. Hardy, Godfrey Harold. 1908. “Mendelian proportions in a mixed population”, Science, núm. 28, 49. Mendel, Gregor. 1965. Experiments in Plant Hybridisation, J. H. Bennett (ed.), Londres, Oliver and Boyd. Seneta, Eugene. 1973. Non-negative Matrices: an Introduction to Theory and Application, Londres, Allen and Unwin.
UNA SEMBLANZA DE VITO VOLTERRA MANUEL FALCONI MAGAÑA*
En nuestros días la palabra ecología aparece por todas partes y casi cualquier persona tiene una idea propia de lo que significa. En esa imagen popular, el término ecología generalmente se encuentra asociado con el efecto pernicioso que la actividad humana tiene sobre el medio ambiente y casi llega a considerársele un antónimo de contaminación. Como en el presente los problemas causados por la contaminación han alcanzado niveles realmente preocupantes y reciben una gran difusión, se tiene la creencia de que éstos son problemas recientes y, a menudo, se piensa en la ecología como una ciencia nueva. Ciertamente se relaciona con esto, pero la ecología es
Vito Volterra (1860-1940). *Departamento de Matemáticas, Facultad de Ciencias, Universidad Nacional Autónoma de México,
[email protected]
[93]
94
MANUEL FALCONI MAGAÑA
una disciplina científica mucho más amplia, interesada en el estudio del desarrollo de las comunidades bióticas como producto de la interacción de sus diversos componentes, y aunque es relativamente nueva tiene antecedentes muy antiguos. El término ecología proviene de la palabra griega oikos, que significa casa, y fue introducido en 1869 por el biólogo alemán Ernst Haeckel, para nombrar a la disciplina que consiste en el “estudio de la economía de la naturaleza y de las relaciones de los animales con el medio ambiente orgánico e inorgánico”. A partir de esta declaración que pone el énfasis en ciertos aspectos del reino animal, el término ha evolucionado y poco a poco se ha ido delimitando su campo de estudio. En 1927, para Charles Elton la ecología es “la historia natural científica” (Elton, 1927), afirmación bastante vaga y general. Más recientemente, en 1961, Andrewartha dice “la ecología es el estudio científico de la distribución y de la abundancia de los organismos” (Andrewartha, 1961). Esta definición se olvida de la característica dinámica que tiene la distribución y la abundancia. Slobodkin reconoce la importancia del concepto de interacción cuando, en un tono tal vez un tanto ambicioso, declara que “la ecología, en términos generales, se ocupa de la interacción entre los organismos y su medio ambiente, en el sentido más amplio posible” (Slobodkin, 1961). Actualmente, la acepción tal vez más aceptada es la de Krebs (1972): “la ecología es el estudio científico de las interacciones que determinan la distribución y la abundancia de los organismos”. Esta definición pone el acento en las interacciones y presupone la existencia de mecanismos capaces de determinar la distribución y la abundancia de los organismos. Así, surge el problema de cómo estudiar estas interacciones y cómo aclarar el efecto que tienen sobre las comunidades. Si nos remontamos a los antecedentes, vemos que en la práctica el hombre, a lo largo de la historia, ha intuido estas interacciones y ha sido capaz de dominar o manejar muchas de ellas. Como ejemplo relevante tenemos la agricultura tradicional que ha creado ecosistemas artificiales más o menos estables y útiles. Para un antecedente más académico o científico mencionemos que en 1756 Buffon discute, entre otros problemas, la regulación del número de individuos en las especies con alta tasa de fertilidad, por medio de sus depredadores naturales. Buffon afirma que cualquier población de organismos vivos está sujeta a los mismos procesos dinámicos.
UNA SEMBLANZA DE VITO VOLTERRA
95
En esta breve revisión histórica, no se puede olvidar el muy famoso Ensayo sobre las poblaciones, publicado por Robert Malthus en 1798, en donde se afirma que el número de individuos crece geométricamente mientras los alimentos disponibles lo hacen en forma aritmética, por lo que la humanidad tiene como futuro un ambiente de hambrunas y guerras que la pueden llevar a la destrucción final (Malthus, 1798). En 1838 el estadístico belga Verhulst encuentra una ecuación que describe el crecimiento de una población en un ambiente con recursos limitados, de cuyo análisis se concluye que, contrariamente al futuro malthusiano, las poblaciones tienden a un nivel de equilibrio (Verhulst, 1845). A la curva de la población en este modelo se le conoce como curva logística y es todavía el más famoso de los modelos demográficos. Más tarde los estudiosos empiezan a darle importancia a la diversidad de las interacciones en un hábitat. Así, en 1844 E. Forbes estudia los organismos que habitan en una cierta costa del mar Egeo y describe los cambios que sufren las interacciones de acuerdo con la profundidad (Forbes, 1844). En esta misma dirección se debe recordar el trabajo clásico de S. A. Forbes de 1807 (ver Forbes 1887), “El lago como un microcosmos”, cuya afirmación principal es que las interacciones entre las diversas especies es tan fuerte que no se puede alterar una sin provocar un cambio en las otras. De este modo, se reconoce que las comunidades no son solamente un conjunto más o menos numeroso de especies, sino también una intrincada red de interacciones. En 1899 Cowles describe el proceso de colonización de las plantas en una zona inicialmente desprovista de ellas (Cowles, 1899) y, en 1911, Ross describe en su estudio la interacción hombre-anófeles y da dos ecuaciones diferenciales para explicar la propagación de la epidemia del paludismo (Ross, 1911). Así, llegamos al año 1925, en el que Lotka utiliza un par de ecuaciones diferenciales para describir la dinámica de una presa y un depredador y, en 1927, en forma independiente, Volterra desarrolla y generaliza el modelo de Lotka. Esta rapidísima revisión histórica sirve para mostrar que, aunque la problemática es antigua, es sólo hasta tiempos relativamente recientes que se incorporan los métodos matemáticos como herramienta esencial para su estudio y son precisamente Lotka y Volterra quienes en forma especial inician esta corriente matemática dentro de la ecología.
96
MANUEL FALCONI MAGAÑA
LA ECOLOGÍA MATEMÁTICA DE VOLTERRA
Como se vio en la sección anterior, uno de los principales problemas del ecólogo ha sido encontrar una caracterización adecuada de su objeto de trabajo. Esto significa decidir sobre qué se quiere hablar y cómo se quiere hablar. Muchas de estas decisiones fueron tomadas por Vito Volterra, como pionero que fue de la ecología matemática. Volterra centró su atención en la “asociación biológica”, esto es, un grupo de especies en el cual cada una es influida por las otras pero ninguna es afectada por las especies fuera de la asociación. Aunque tales asociaciones no existen en la naturaleza, son idealizaciones útiles para el estudio de cierto tipo de comunidades como, por ejemplo, la comunidad que consiste de todas las plantas y animales que viven juntos en un espacio delimitado –un lago, un arrecife, etc.– Volterra caracterizó a su “asociación” o “comunidad” por un vector de estado, con tantas componentes como especies hay en la comunidad. La i-ésima componente del vector de estado es simplemente el tamaño de la población de la especie i de la comunidad. Ahora bien, ¿cómo cambia el vector de estado?, es decir, ¿cuál es la “ley de cambio” que decide cómo varía la densidad de la especie i ? Lotka y Volterra –el primero biofísico y el segundo físico-matemático– de acuerdo con sus experiencias científicas buscaron explicar el comportamiento de comunidades simples, capaces de ser estudiadas en laboratorio. Volterra propone ciertas formas de interacción que lo llevan a expresar las variaciones del vector de estado por medio de ecuaciones diferenciales que dependen de parámetros. Una hipótesis fundamental de su modelo es que el tiempo es continuo y que las tasas de crecimiento de las poblaciones son funciones diferenciables del tiempo t (para ambas suposiciones no se pueden dar argumentos biológicos). Los resultados obtenidos a partir del análisis de las soluciones de las ecuaciones involucradas son enunciados como leyes por Volterra. Por ejemplo, para un sistema formado por una especie de presas y otra de depredadores se tienen las leyes siguientes: 1. Ley de los ciclos periódicos: las fluctuaciones de dos especies son periódicas y el periodo depende sólo de los coeficientes de crecimiento, del de decaimiento y del número inicial de individuos. 2. Ley de conservación del valor medio: el valor promedio del número de individuos de cada especie es el mismo para cualquier nú-
UNA SEMBLANZA DE VITO VOLTERRA
97
mero inicial de individuos, si los coeficientes de crecimiento, decaimiento, protección y ataque permanecen constantes. 3. Ley de perturbación del valor medio: el intento de destruir a los individuos de dos especies uniforme y proporcionalmente a su número lleva a un aumento del valor medio de las presas y a un decrecimiento del valor medio de los depredadores. Por otra parte, un aumento en la protección de la presa lleva a un aumento de ambos valores medios. Estos resultados permitieron una explicación del problema que tiempo antes le había planteado el biólogo Umberto D’Ancona. Éste tenía datos estadísticos de la captura pesquera en el mar Adriático desde 1904 hasta 1925, los cuales mostraban que la proporción de seláceos (especies depredadoras) en la captura comercial había aumentado después de la guerra de 1914-1918. Era de suponerse que durante la guerra el esfuerzo pesquero había disminuido por lo que, de acuerdo con la tercera ley, en los años posteriores a la guerra, al aumentar la mortalidad por pesca debía aumentar la población de presas y disminuir la población de depredadores. Éste fue el primer éxito de la teoría. También coincidía con la afirmación que en su muy famoso El origen de las especies Charles Darwin había hecho: muy frecuentemente no es la cantidad de alimento, sino el servir de presa lo que determina el número de individuos de una especie. Parece haber poca duda de que la población de aves y liebres en un campo, depende principalmente de la destrucción de alimañas. Si durante los siguientes 20 años ninguna ave fuera cazada en Inglaterra y al mismo tiempo ninguna rata fuera destruida, con toda seguridad habría menos aves que en el presente.
Otro ejemplo que a menudo se cita como confirmación del principio de Volterra es el caso del pulgón de los cítricos, proveniente de Australia, que accidentalmente se introdujo en Estados Unidos en 1868 y que atacó las huertas con efectos desastrosos. Posteriormente se introdujo un depredador natural y la población del pulgón fue mantenida en niveles aceptables. Cuando se descubrió que el DDT mataba a los pulgones, en su afán de exterminarlos definitivamente, los citricultores lo aplicaron a sus árboles y sorpresivamente el resultado fue un aumento en el número de pulgones, como predecía Volterra.
98
MANUEL FALCONI MAGAÑA
MODELO DEPREDADOR–PRESA
Para obtener su modelo, Volterra supuso dos especies, una de las cuales tiene una tasa de crecimiento positivo dP dt = E1 . P La otra especie, si estuviera sola, moriría por falta de alimento con una tasa –E2, (E2 > 0) dD dt = ± E2 . D Sin embargo si coexisten y la segunda se alimenta de la primera, E1 decrecerá y –E2 crecerá. Supongamos además que E1 decrece conforme D crece y E2 crece cada vez más si P crece. La forma más simple de expresar esto es tomando una relación de la forma E1 = ε 1 ± αD
E2 = ε 2 ± βP.
Así se obtiene . D = ε 1P – αPD, . P = – ε 2 D + βPD,
(2.1)
Recordemos que el punto sobre P y D significa derivada respecto a t. De acuerdo con Volterra, mide la habilidad de la presa para protegerse del depredador, y β el éxito en el ataque de la segunda sobre la primera especie. Se demuestra fácilmente que las soluciones de (2.1) están dadas por la familia de curvas D(t )ε 1
P(t )ε 2
e ±αD(t )
e βP(t )
= K.
(2.2)
99
UNA SEMBLANZA DE VITO VOLTERRA
Si los tamaños iniciales de ambas poblaciones son positivos, es decir D0 > 0 y P0 > 0, y la constante K es positiva y entonces la ecuación (2.2) define una curva cerrada que rodea al punto (ε2/β2, ε1/α); esto quiere decir que las soluciones de (2.1) son soluciones periódicas _y γ_(t)=(ε2/β2, ε1/α) es una solución de equilibrio. Los valores promedios D y P y de las poblaciones de depredadores y presas se pueden calcular fácilmente. Por definición se tienen las igualdades D=
1 T
T
∫
D(t )dt, P =
0
1 T
T
∫ P(t )dt, 0
donde T es el periodo. De la ecuación (2.1) se obtiene 1 T
T
∫ 0
dP T dt 1 ε ± αD(t )dt = dt = P(t ) T 1
∫ 0
1 ε1 ± α T
T
D(t )dt = ε 1 ± αD 0
∫
pero T
∫ 0
dP dt T dt = log P(t ) 0 , P
y por periodicidad, este último término es cero, por lo tanto ε 1 – α D = 0. De donde se obtiene D = ε 1 / α. Análogamente, se demuestra que P = ε 2 / β . Esto significa que si una población de presas interactúa con una población de depredadores de acuerdo con la ley expresada en la ecuación (2.1), sus tamaños oscilarán y así en algunas ocasiones la población de presas o de depredadores será pequeña y en otras grande, pero el tamaño promedio a través del tiempo será igual a sus valores de equilibrio. En la figura 1 se muestran las soluciones de la ecuación (2.1). En 1932 G. F. Gause inició una serie de experimentos diseñados para verificar en el laboratorio las oscilaciones predichas por Volterra; para ello utilizó como depredador al protozoario Didinum
100
MANUEL FALCONI MAGAÑA D
ε1 α
P
ε1 β
Figura 1. Trayectorias del modelo de Volterra.
nasatum y como presa al Paramecium caudatum. En el primer experimento colocó dentro de un tubo de ensaye las poblaciones de Didinum y Paramecium, dentro de un cultivo de bacterias para alimentar al Paramecium. Después de unos días el Didinum exterminaba a la población de Paramecia y él mismo se extinguía poco más tarde, por falta de alimento. Cuando en un segundo experimento colocó escondites para la presa, el depredador se extinguió y la población de presas pudo sobrevivir. En 1935, Gause usó la levadura Saccharomyces exiguus como alimento del Paramecium aurelia y obtuvo tres ciclos completos, (véase Gause, 1932 y Gause, 1935). En los años siguientes mucho trabajo de laboratorio fue realizado con muy diversos resultados, lo que condujo a la cuestión de identificar a los distintos tipos de depredador de acuerdo con la forma en que se apropian de su alimento. Trabajos muy importantes en esta dirección son los realizados por Holling (Holling, 1959a, 1959b, 1965, 1966), quien fue el que introdujo el concepto de respuesta funcional para referirse a la relación que existe entre el número de presas devoradas por un solo depredador y el número de presas disponibles. Holling reconoció tres tipos de respuesta funcional, los cuales se muestran en la figura 2. En el eje horizontal se representa el tamaño de la población de presas y en el eje vertical el número de presas devoradas por cada organismo de la población de depredadores.
101
UNA SEMBLANZA DE VITO VOLTERRA
Tipo 2
Tipo 1
Tipo 3
Figura 2. Respuestas funcionales de Holling.
La dinámica depredador-presa depende del tipo de respuesta funcional; por ejemplo, el sistema . P = ε 1P – f (P )D, . D = – ε 2 D + f (P )D,
(2.3)
que es una variación sencilla del modelo (2.1) tiene un punto de equilibrio que es un repulsor global si la respuesta funcional f es del tipo 2; en cambio, si f es del tipo 3 el sistema puede tener un punto de equilibrio globalmente atractor o bien un ciclo límite estable (véase Castellanos, 1993). El siguiente modelo . p rPD P = ε 1P 1 – – K (1 + αP ), . D = – ε 2 D – sDP (1 + αP ),
(2.4)
aunque es una modificación ligera de (2.3), presenta un punto de equilibrio globalmente atractor, un ciclo límite o la extinción del depredador, de acuerdo con las distintas relaciones de los paráme-
102
MANUEL FALCONI MAGAÑA
tros involucrados. Actualmente un campo muy activo de investigación consiste en el estudio de la dinámica de modelos de la forma . P = a (P ) – f (P )b ( D ), . D = n (P )s ( D ) + c ( D ),
(2.5)
donde a(P) es la razón de crecimiento de la presa en ausencia del depredador, f(P) es la respuesta funcional del depredador, n(P) es una medida de la conversión de biomasa de presa en biomasa de depredador y c(D) es la tasa de crecimiento o mortalidad del depredador en ausencia de la presa.
MODELO DE COMPETENCIA
Otro tipo de relación estudiada por Volterra fue la de competencia. Ésta es la interacción que surge cuando dos especies viven en un mismo medio ambiente y consumen un mismo recurso (alimento, espacio vital, fuente energética, etc.) de modo que el abasto de cada una depende no sólo de su propio nivel de población sino del nivel de la otra. Volterra obtuvo con su modelo que una de las dos especies siempre se extinguía; de hecho, desaparecía la especie para la cual el cociente ε/γ era el más pequeño. Aquí ε es la tasa de crecimiento y γ es un coeficiente que mide qué tanto afectan a la tasa ε, los niveles de población de las dos especies. El razonamiento que siguió Volterra para obtener su modelo de competencia es muy semejante al que utilizó con su modelo depredador-presa. Sean N1 y N2 los niveles de población de las dos especies cuyas tasas de crecimiento son dN1 dt = E1 , N1 dN 2 dt = E2 . N2
103
UNA SEMBLANZA DE VITO VOLTERRA
Por efecto del crecimiento continuo de las poblaciones N1 y N2, decrece el alimento disponible. Supongamos que la presencia de Ni individuos hace decrecer el alimento a un nivel hiNi,i = 1,2. Por lo tanto la disminución conjunta sobre el recurso es h1N1+h2N2. Volterra supuso que esta disminución afectaba a la tasa Ei en forma proporcional, y consecuentemente las tasas de crecimiento resultantes son E1 ± γ 1 (h1 N1 + h2 N 2 ), E2 ± γ 2 (h1 N1 + h2 N 2 ). Así, el modelo es . N 1 = ε 1 – γ 1 h1N 1 + h 2 N 2 N 1, . N 2 = ε 2 – γ 2 h1N 1 + h 2 N 2 N 2 .
( (
)) ))
( (
(2.6)
De este sistema se deduce la relación d d log N1 ± γ 1 log N 2 = ε 1γ 2 ± ε 2γ 1 , dt dt
γ2 de la cual se sigue
N1 (t )γ 2 N 2 (t )γ 1
(
)
= C exp (ε 1γ 2 ± ε 2γ 1 )t ,
(2.7)
donde C es una constante. De la ecuación (2.7) resulta que la especie para la cual el cociente ε/γ es menor, se extingue. Volterra aún trató el modelo más general . N 1 = ε 1 – γ 1 F N 1, N 2 N 1, . N 2 = ε 2 – γ 2 F N 1, N 2 N 2 ,
( (
( (
)) ))
(2.8)
con F(0,0) y F creciente en N1 y N2, y encontró el mismo comportamiento; siempre una especie se extingue. Fue nuevamente Gause el que puso a prueba estos resultados; para ello utilizó poblaciones de Paramecium caudatum y Paramecium aurelia viviendo en un medio
104
MANUEL FALCONI MAGAÑA
nutriente formado de bacilos. Observó que, por separado, cada especie de paramecios crecía siguiendo aproximadamente una curva sigmoidea. Sin embargo, cuando juntó a las dos especies en la misma solución nutritiva, invariablemente se extinguía la población de caudatum y sobrevivía la de aurelia. Estos experimentos y los resultados teóricos de Volterra llevaron a Gause a enunciar el célebre Principio de exclusión competitiva: las especies con hábitos idénticos no pueden vivir juntas al mismo tiempo. La controversia que este enunciado ha provocado ha contribuido fuertemente al desarrollo de la ecología. Por otra parte, los intentos por demostrarlo teóricamente han generado problemas matemáticos muy interesantes. El modelo de Volterra es de la forma . N 1 = – ε i N i + G i ( Ai )N i , donde Ai es la porción de alimento y Gi es el aprovechamiento de esa porción por la especie i. Supongamos muy en general que 1. La tasa de crecimiento aumenta con la porción per cápita, i.e. dGi > 0. dAi 2. Las porciones A1 y A2 y son funciones crecientes de la concentración c del recurso: df1 A1 = f1 (c), >0 dc df A2 = f2 (c), 2 > 0 dc La concentración del recurso es función de la cantidad de consumidores y decrece al aumentar el número de cualquiera de ellos c = h( N1 , N 2 ),
∂h ∂h < 0, < 0. ∂N1 ∂N 2
También suponemos que h(0,0) = c* > 0 y que h se anula para niveles suficientemente grandes de N1 y N2.
105
UNA SEMBLANZA DE VITO VOLTERRA
Bajo estos tres supuestos las ecuaciones resultantes son . N 1 = – ε 1 + G 1 f 1 h N 1, N 2 . N2
[ ( ( ( )))]N , = [ – ε + G ( f (h (N , N )))]N . 2
2
2
1
1
2
(2.10)
2
El análisis de la ecuación (2.10) demuestra que nada de lo sustancial cambia respecto de los modelos más simples de Volterra: aún vale el principio de exclusión competitiva; una de las dos especies se extingue. Ahora revisaremos uno de los intentos que se han hecho para demostrar el principio de exclusión y que ilustra muy bien una forma de matematizar la ecología. Supongamos una comunidad de n especies, cada una de ellas con reproducción continua, sin estructura de edades y cuyo tamaño se regula por factores que dependen del tamaño mismo de la población (factores denso-dependientes). El modelo matemático general es de la forma . x i = x i g i (x 1,…, x n ),
(2.11)
donde xi es el tamaño de la población de la especie. i. El significado de esta ecuación es que la tasa de crecimiento ± xi / xi de la i-ésima población depende de los tamaños de todas las poblaciones presentes en la comunidad; por eso, gi es función de (x1,…, xn). La ecuación (2.11) define un campo vectorial en la variedad En =
{( x ,…, x ) x 1
n
i
}
≥0 .
Observe que la evolución de una comunidad queda determinada por las n funciones gi, i = 1,…n. Sea Ψ n = C ∞ E n , R n . Una comunidad ecológica de n especies se puede pensar como una función g = ( g1 , …, gn ) ∈ Ψ n cuya dinámica está dada por (2.11). La solución de esta ecuación con condición inicial x 0 ∈ E n , determina una curva φ ( x 0 , t ) en Ei que expresa el tamaño de cada población en cada instante t. A continuación se enuncian algunos conceptos dinámicos, que serán muy útiles para definir persistencia y exclusión en una comunidad ecológica.
(
(
)
)
106
MANUEL FALCONI MAGAÑA
a) Se dice que K ⊂ E n es un conjunto invariante de –g si para toda x ∈ Κ, se tiene que φ(x,t) pertenece a K para todo tiempo t ∈ R. b) Un conjunto K compacto e invariante es un atractor de –g si existe un conjunto abierto U ⊃ K, tal que para toda x ∈ U, φ(x,t) tiende a K cuando t tiende a infinito. c) El conjunto B compacto, con interior no vacío, es una cuenca de atracción de –g si para todo punto x ∈ δB, φ (x,t), pertenece a B, para t > 0. Definición 1. Una comunidad ecológica –g ∈ Ψn es persistente si tiene un atractor contenido en el interior de En. Si –g no es persis_ tente, se dice que g exhibe exclusión. Un conjunto de comunidades _ C ⊂ Ψn, tiene la propiedad de exclusión, si g exhibe exclusión para toda –g ∈ C. Ahora se supondrá que las tasas de crecimiento de las distintas especies de la comunidad dependen de diversos factores limitantes tales como espacio vital, luz, alimentos, etc. y por lo tanto compiten entre ellas por estos recursos. La dinámica de una comunidad así, con n especies y k factores limitantes está dada por . (2.12) x i = x i ui (z 1,…, z k ), i = 1,…n . Donde ui es la tasa de crecimiento de la i-ésima población y zj es un factor limitante que depende de la densidad de cada una de las n poblaciones, i.e. zj = rj(y1,…,yn); por lo tanto, la ecuación de la dinámica de una comunidad de n especies con k factores limitantes es . x i = x i ui r1 (x 1,…x n ),…, r (x 1,…, x n )k , i = 1,…,n .
(
)
De aquí resulta natural definir la clase de las comunidades ecológicas con n especies con k factores limitantes como
{
(
)
(
)}
Φ nk = g = u o r r ∈ C ∞ E n , R n , u ∈ C ∞ R k , R n . Fácilmente se ve que Φ nk ⊂ Ψn para toda k y para toda n, además = Ψn si k ≥ n, por lo que Φ nk no satisface la propiedad de exclusión si k ≥ n. Sin embargo, la cuestión de saber si una comunidad con un número de especies mayor que el número de factores limitantes es persistente o no, da lugar a problemas matemáticos muy interesantes. El análisis de estos problemas va más allá del propósito de este trabajo; a los lectores interesados se les recomienda que lean el trabajo de McGehee y Armstrong (1977). Φ nk
UNA SEMBLANZA DE VITO VOLTERRA
107
VITO VOLTERRA
Para finalizar esta revisión de algunos aspectos de la obra de Vito Volterra, daremos un vistazo a su biografía. Este matemático nació en Ancona, ciudad enclavada en la región que en aquella época formaban los Estados Papales, el 3 de mayo de 1860, en medio de los conflictos armados de la unificación italiana. De hecho, Volterra estuvo a punto de morir a los tres meses de edad durante un sitio a la ciudad. Sin padre desde los dos años de edad y en el seno de una familia muy pobre, sólo con muchos trabajos pudo realizar sus estudios superiores. Desde muy temprana edad dio muestras de su talento y de su interés por las matemáticas; a los 11 años lee por iniciativa propia La geometría de Legendre y adquiere nociones de cálculo. Dos años más tarde llama su atención el “problema restringido de los 3 cuerpos” y realiza importantes progresos utilizando la idea de partir el intervalo en pequeños subintervalos de modo que la fuerza la podía suponer constante en cada uno de ellos. Todos sus descubrimientos tempranos en este campo fueron en realidad redescubrimientos. En 1882 se graduó de doctor en física bajo la dirección de Enrico Betti, matemático ya muy famoso en esa época. En su trabajo de tesis redescubre algunos resultados de Stokes sobre hidrodinámica. Al año siguiente se convierte en profesor de mecánica en la Universidad de Pisa y después de la muerte de Betti ocupa su cátedra en física-matemática. A Vito Volterra se le reconoce como uno de los creadores del análisis funcional ya que, en 1883, concibe la idea de una teoría de funciones que dependen de un continuo de valores de otra función –entre paréntesis, fue Hadamard quien bautizó con el nombre de funcional a esta nueva clase de funciones–. Con este nuevo cálculo funcional Volterra extendió los resultados sobre ecuaciones diferenciales de Hamilton y Jacobi a otros campos de la física-matemática; pero tal vez su trabajo más famoso es el de ecuaciones integrales que realizó entre 1894 y 1896. Existe un tipo de ecuaciones integrales que lleva su nombre. En 1901 acepta un puesto en la Universidad de Roma y en su conferencia inaugural muestra su naciente interés por los retos que presentan las ciencias sociales y biológicas, y en su opinión existe la necesidad de probar en estas disciplinas los métodos matemáticos que tan exitosos han resultado en la física. Aunque entre 1901 y 1906 escribe algunos trabajos “biomatemáticos”, por causa de la primera guerra mundial no es sino hasta 1925 el año en que empieza realmente su trabajo de modelación matemática de los
108
MANUEL FALCONI MAGAÑA
procesos poblacionales, asunto éste que por el resto de su vida se convierte en su principal interés académico. No podemos terminar este breve repaso biográfico de Volterra sin mencionar que, además de un hombre de ciencia muy creativo, también fue un hombre muy comprometido con sus ideas políticas. Durante la primera guerra mundial se unió a la fuerza aérea, aunque habría podido evitarlo debido a su condición académica y, más tarde, ya como senador, luchó contra el fascismo en el parlamento italiano. En 1930, cuando el parlamento fue abolido, se rehusó a dar juramento de lealtad al gobierno de Mussolini por lo que, en 1931, fue forzado a dejar la Universidad de Roma y a renunciar a todas las academias científicas italianas. Finalmente, muere en Roma en octubre de 1940, durante plena segunda guerra mundial.
BIBLIOGRAFÍA
Andrewartha, H. G. 1961. Introduction to the study of animal populations, Chicago, University of Chicago Press. Castellanos, V. V. 1993. Ciclos límites en dimensión dos, tesis de licenciatura en matemáticas, Cunduacán, Universidad Juárez Autónoma de Tabasco. Cowles, H. C. 1899. “The ecological relations of the vegetation on the sand dunes of Lake Michigan”, Bot. Gaz, núm. 27. Elton, Ch. 1927. Animal Ecology, Londres, Sidgwick and Jackson. Forbes, E. 1844. “Report on the Molluscs and Radiata of the Aegean Sea, and on their distribution considered as bearing on Geology”, Rep. Brit. Ass. Adv. Sci., núm. 13, 130-193. Forbes, S. A. 1887. “The lake as a microcosm”, Bull. Peoria Sci. Assoc., 77-87. (Reimpreso en 1925, en Bull. Illinois Natural History Survey, núm. 15, 537–550). Gatto, M. 1989. Introduzione all’Ecologia delle popolazioni, Milán, Clup. Gause, G. F. 1932. “Experimental studies on the struggle for existence. I. Mixed Population of two Species of Yeast”, J. Of Exp. Biol., núm. 9, 389402. ___ 1934. The struggle for existence, Nueva York, Macmillan. (Reimpreso en 1964, por Hafner, en Nueva York). ___ 1935. “Experimental demonstration of Volterra’s periodic oscillations in the number of animals”, J. of Exp. Biol., núm. 12, 44-48. Holling, C. S. 1959a. “The components of predation as revealed by a study of small mammal predation of the European pine sawfly”, Canad. Entomol., núm. 91, 293-320.
UNA SEMBLANZA DE VITO VOLTERRA
109
___ 1959b. “Some characteristics of simple types of predation and parasitism”, Canad. Entomol., núm. 91, 385-398. ___ 1965. “The functional response of predators to prey density and its role in mimicry and population regulation”, Mem. Ent. Soc. Can., núm. 45, 360. ___ 1966. “The functional response of invertebrate predators to prey density”, Mem. Ent. Soc. Can., núm. 48, 1-86. Krebs, C. J. 1994. Ecology, Nueva York, Harper & Collins. Lotka, A. J. 1956. Elements of Mathematical Biology, Nueva York, Dover. Malthus, T. R. 1798. An Essay on the Principle of Population, Londres, Johnson. (Reimpreso en 1926, por Macmillan, en Nueva York). McGehee, R. y R. A. Armstrong. 1977. “Some mathematical problems concerning the ecological principle of competitive exclusion”, J. Diff. Eq., núm. 23, 30-52. Pianka, E. R. 1988. Evolutionary Ecology, Nueva York, Harper and Row. Ross, R. 1911. The prevention of Malaria, Londres, Waterloo. Slobodkin, L. B. 1961. Growth and regulation of animal populations, Nueva York, Holt, Rinehart and Winston. Verhulst, P. F. 1845. “Recherches mathématiques sur la loi d’accroissement de la population”, Mem. Acad. Roy. Belg., núm. 18, 1-38. Volterra, V. 1927. “Variazioni e fluttuazioni del numero d’individui in specie animali conviventi”, R. Comit. Tallas. Memoria, núm. 131.
KOLMOGOROV Y LA BIOLOGÍA TEÓRICA FAUSTINO SÁNCHEZ GARDUÑO*
La ecología y la genética son dos áreas del conocimiento en las que se ha investigado, no sólo desde hace mucho tiempo, sino que el derrotero seguido por los estudios realizados en estas disciplinas ha sido accidentado, zigzagueante, controversial, pero siempre tesonero, siempre en aumento. Con frecuencia, los esfuerzos dirigidos a la introducción de aspectos cuantitativos y cualitativos propios de otra forma de pensar (por ejemplo, la derivada de los razonamientos matemáticos) en biología han fructificado en trabajos que han marcado, amén de su importancia interpretativa, líneas de investigación novedosas e interesantes dentro de la propia matemática. Por ejemplo, el comportamiento caótico, entre otros modelos en los que originalmente se encontró, fue hallado en el análisis de modelos discretos1 surgidos en dinámica de poblaciones (May, 1975). El demógrafo inglés Robert Malthus, quien realizó estudios sobre el incremento de la población en la Inglaterra de fines del siglo XVII, sintetizó en el siguiente apocalíptico párrafo sus análisis: El aumento de la población humana sigue una progresión geométrica (PG); mientras que la producción de alimentos lo hace según una progresión aritmética (PA) y como una PA nada tiene que hacer frente a una PG, entonces la humanidad está condenada al vicio, la miseria, la promiscuidad y a la degradación… (Malthus, 1798).
Para nadie es un secreto que los trabajos malthusianos han servido como sustento científico para imponer políticas de control demográfico en los países del tercer mundo. La cita anterior también nos muestra que la preocupación por el crecimiento desmesurado de la pobla* Departamento de Matemáticas, Facultad de Ciencias, Universidad Nacional Autónoma de México,
[email protected]. Agradezco a José Luis Gutiérrez y Pedro Miramontes por la labor que realizaron en la edición final de este artículo. 1 Estos modelos se introducen cuando la densidad poblacional cambia en generaciones discretas.
[110]
KOLMOGOROV Y LA BIOLOGÍA TEÓRICA
111
Andrei Nicolaievich Kolmogorov (1903-1987).
ción humana, y la consecuente implementación de medidas para frenarlo, tiene añejos antecedentes. Igualmente, los estudios malthusianos sirvieron a Darwin en el desarrollo de su teoría de la evolución por selección natural. En su autobiografía, el naturalista inglés escribió: En octubre de 1838, es decir, quince meses después de mi búsqueda sistemática, sucedió que leí para distraerme el trabajo de Malthus sobre Población; estando bien preparado –en virtud de una larga y continua observación de animales y plantas– para apreciar la lucha por la existencia que se da en todos los terrenos, de pronto se me ocurrió que en esas condiciones las variaciones favorables tenderían a ser preservadas, y las desfavorables a ser destruidas. El resultado sería la formación de especies nuevas… por fin hallé una teoría para guiarme en mi trabajo (Darwin, 1958).
Sin duda alguna, quien introdujo la primera teoría sistemática de la dinámica de poblaciones siguiendo el enfoque determinista2 fue Vito 2 Según este punto de vista, si uno conoce en cualquier instante la ley que describe la interacción, el tamaño poblacional de las especies y el valor de los parámetros involucrados, entonces puede determinar la densidad poblacional para tiempos posteriores.
112
FAUSTINO SÁNCHEZ GARDUÑO
Volterra (Volterra, 1931). El célebre matemático italiano se vio involucrado en estas investigaciones a instancias de Umberto D’Ancona, un zoólogo quien, a la postre, se convirtió en su yerno. D’Ancona estaba interesado en el análisis de los registros de las pesquerías del mar Adriático en el periodo comprendido entre las dos guerras mundiales. La teoría desarrollada por Volterra explicó las oscilaciones en el tamaño poblacional de algunas especies estudiadas por el biólogo pesquero. El aparato formal de Volterra incluye lo mismo sistemas de ecuaciones diferenciales ordinarias (EDO’s) que ecuaciones integrales. Algunos de los métodos introducidos por él continúan, con las actualizaciones del caso, usándose hoy día. Por otro lado, Alfred Lotka (Lotka, 1930), habiendo estado trabajando en demografía y en bioquímica, propuso –contraviniendo una vieja y bien establecida creencia–3 una reacción autocatalítica que exhibía las mismas oscilaciones temporales en las concentraciones que aquellas que predecían las ecuaciones propuestas por Volterra para describir una interacción de tipo presa-depredador. De hecho, las ecuaciones que dan la cinética del mecanismo propuesto son las mismas que las introducidas por Volterra. La razón por la que a modelos que contienen como caso particular a los de presa-depredador de Volterra se les llama genéricamente sistemas de Lotka-Volterra viene de un alegato interpuesto por Lotka, quien afirmaba que él había sido el primero en introducir tales ecuaciones para describir dicha relación entre dos especies. En este artículo, el lector encontrará (sección 2) una revisión de un trabajo escrito por Kolmogorov, el cual versa sobre el análisis cualitativo de un sistema de dos EDO’s que generaliza el sistema de Lotka-Volterra para presa-depredador. En la sección 3 presentamos una visión general del que, sin duda, es el primer estudio sistemático sobre la existencia de soluciones del tipo onda viajera para una ecuación de reacción-difusión surgida en un contexto biológico. Ésta describe el avance espacial de una onda de concentración de un gen ventajoso dentro de una población. Este trabajo termina en la sección 4, con una versión sucinta del papel jugado por Kolmogorov en una fuerte controversia entre dos escuelas de pensamiento en 3 Durante mucho tiempo se pensó que era imposible que en reacciones homogéneas se produjeran oscilaciones temporales en la concentración de las sustancias reaccionantes; de hecho, se pensaba que una condición necesaria para que tal fenómeno ocurriera era la existencia de gradientes.
113
KOLMOGOROV Y LA BIOLOGÍA TEÓRICA
genética. Aquélla tuvo lugar en la antigua Unión Soviética en la década de los años cuarenta. En el apéndice se incluyen algunas notas biográficas del científico soviético motivo de este trabajo.
2. LA RELACIÓN PRESA-DEPREDADOR DE KOLMOGOROV
Desde los pioneros trabajos de Malthus (1798), Verhulst (1845), Lotka (1930) y Volterra (1931) para describir la dinámica de una y dos especies, mucho trabajo se ha hecho para tratar de extender los modelos propuestos por estos autores. Dentro de aquéllos, un papel fundamental lo ocupa el trabajo de Kolmogorov (Kolmogorov, 1936), que describe la dinámica que resulta de la interacción presadepredador. Uno de los aspectos meritorios de Kolmogorov al estudiar tal sistema de EDO’s es que introduce los métodos cualitativos de los sistemas dinámicos en el análisis de modelos con relevancia en lo que actualmente se llama ecología matemática. A fin de iniciar la presentación, enseguida introducimos la terminología necesaria. El resultado neto de la interacción entre dos individuos pertenecientes a diferentes especies puede ser de los siguientes tres tipos: 1) que ambos se beneficien, 2) que uno se beneficie y otro se perjudique y, 3) que para ambos sea indiferente. A fin de tener un recurso mnemotécnico para recordar las formas de interacción entre individuos de dos especies, introduzcamos la siguiente nomenclatura, por demás común en la literatura ecológica (Krebs, 1978; Soberón, 1995). Escribamos el signo + cuando el resultado de la interacción sea benéfico, – cuando sea perjudicial y 0 cuando sea de indiferencia. En el siguiente cuadro se muestran las interacciones posibles:
+
–
0
+
++
+–
+0
–
–+
––
–0
0
0+
0–
00
Cuadro 1. Tipos de interacciones entre dos especies.
114
FAUSTINO SÁNCHEZ GARDUÑO
La interpretación de las parejas de símbolos que se ven en el cuadro 1 es como sigue: (+,+) significa que ambos individuos de las especies se benefician (mutualismo). En (–,+), el individuo de la primera especie se perjudica y el individuo de la segunda se beneficia (presa-depredador); mientras que en (–,–) ambos individuos se perjudican (competencia) y así sucesivamente. Nótese que las interacciones (–,+), (+,–), (0,+), (+,0), (0, –) y (–,0), se reducen a sólo tres; mientras que la (0,0) puede considerarse como inexistente. Por tanto, el número de interacciones distintas entre individuos de dos especies se reduce a cinco. Aunque él no las establece, conviene hacer explícitas las premisas en las que se basa el modelo analizado por el matemático soviético: 1. Poblaciones homogéneas: todos los individuos tienen la misma probabilidad de reproducción y de muerte. En particular, esto implica que no se considera alguna estructura, por ejemplo de edades o de sexos (bien pudiera ser cualquier otra), en las poblaciones. 2. Hábitat homogéneo: significa que las características físicas (temperatura, luz, etc.), biológicas (distribución de alimento, por ejemplo) son las mismas en el espacio donde habitan las especies. 3. Tiempo homogéneo: representa, por ejemplo, que los cambios estacionales no modifican la intensidad y el tipo de interacción, equivalentemente, que las tasas de crecimiento de cada especie sólo dependen explícitamente de la densidad poblacional y no del tiempo. 4. Crecimiento continuo, es decir, las poblaciones crecen en generaciones traslapadas. Por la premisa 1, sólo bastan dos variables para cuantificar el tamaño poblacional (una por cada especie); mientras que, por la segunda, éstas sólo dependen del tiempo t y no de las variables espaciales. Luego, si denotamos por u(t) y ν(t) a la densidad poblacional de cada especie al tiempo t (supuestas funciones diferenciables de t) e incorporamos las hipótesis 3 y 4, se puede suponer que la velocidad instantánea de cambio de u y ν está dada por el sistema autónomo de ecuaciones diferenciales ordinarias (EDO’s): . u = uM (u,ν ) . v = vN (u,ν )
(1)
donde el punto sobre u y ν representa la derivada respecto a t. Dependiendo de las características cualitativas de las tasas instantáneas
KOLMOGOROV Y LA BIOLOGÍA TEÓRICA
115
per cápita M y N, será el tipo de interacción entre las dos especies. Por ejemplo, recuérdese el clásico sistema de Lotka-Volterra. En éste, M(u,ν) = (b1+a11u+a12ν) y N(u,ν) = (b2+a21u+a22ν); el signo de los coeficientes aij determina el tipo de interacción; por ejemplo, si a11 < 0, a 12 < 0, la especie cuya densidad poblacional es u presenta los dos tipos de competencia: la intraespecífica (consigo misma) y la interespecífica (con la otra especie); mientras que si a12 > 0 la especie con densidad poblacional ν “coopera” para que la velocidad instantánea de la otra aumente. El análisis de signos de los coeficientes aij no es más que un caso particular del correspondiente para las derivadas parciales
∂M ∂M ∂N ∂N , , y ∂u ∂ν ∂u ∂ν evaluadas en el punto (u,ν) perteneciente al plano de las densidades poblacionales. Por la interpretación de u y ν resulta que ambas deben ser mayores o iguales a cero. Conviene entonces llamar al conjunto {(u,ν)| u ≥ 0, ν ≥ 0}, región de interés biológico. Normalmente las partes derechas del sistema (1) son funciones no lineales de u y ν. La no linealidad hace que la búsqueda de soluciones explícitas para él sea, por lo general, sólo un buen deseo y no una realidad. Sin embargo, la no linealidad trae consigo, según lo veremos párrafos más adelante, una gran riqueza en la dinámica dada por el sistema (1). Ésta, además de ser importante desde el punto de vista matemático, lo es por su interpretación ecológica. Cuando se tiene un sistema no lineal de EDO’s (como (1)), según lo hemos dicho antes, en vez de tratar de buscar sus soluciones analíticas se opta por averiguar las propiedades cualitativas de aquéllas, o bien por usar métodos numéricos para obtener aproximaciones cuantitativas a las soluciones. El trabajo de Kolmogorov (1936) es de tipo cualitativo; su introducción al análisis de modelos surgidos de la ecología ha enriquecido a la ecología matemática. Es de notarse que la publicación de este trabajo de Kolmogorov (1936) se da en un periodo (1923-1940) de intensa actividad científica en el área, al que algunos autores (Scudo y Ziegler, 1978) han llamado la edad de oro de la ecología teórica, por ser precisamente en estos años en los que se publicaron los artículos seminales en esta rama interdisciplinaria. En cuanto al ambiente matemático, debemos mencionar que para
116
FAUSTINO SÁNCHEZ GARDUÑO
el tiempo en el que apareció el artículo de Kolmogorov, en la mente de muchos matemáticos estaba fresco un problema planteado por el matemático alemán David Hilbert quien, en el Segundo Congreso Mundial de Matemáticas, celebrado en París en 1900, enunció su Problema 16.4 Conociendo la profundidad de pensamiento de Kolmogorov, no sería extraño que, además de las motivaciones ecológicas, él tuviera en mente el Problema 16 de Hilbert (que por cierto, sigue sin solución). Vayamos ahora a los aspectos más técnicos de esta sección. Sean u0 y ν0 los tamaños iniciales de las presas y los depredadores, respectivamente. Así, la pareja (u0, ν0) determina el estado inicial del sistema descrito por (1). En el enfoque cualitativo, estamos interesados en saber cómo son (y no en quiénes son exactamente) los estados posteriores, i.e., en determinar el comportamiento (que no las reglas de correspondencia) de la pareja u = u(t) y ν = ν(t), en el entendido de · que las derivadas u(t) y ν·(t) y están dadas por el sistema (1). Con esto en mente se introduce la siguiente interpretación dinámica: Sea α: R → R2 tal que si t está en R, α(t) = (u(t), ν(t)) con α· (t) = · (u(t), ν·(t)) = (uM(u, ν), vN(u, ν)). Luego, para cada t en R, α· (t) es el vector tangente (trazado tomando como inicio el extremo más alejado del origen de coordenadas del vector α(t))a la curva α. Así, a α se le asigna un sentido en el que ha de recorrerse al aumentar t, a saber: aquel que “le va dando” su vector tangente α· (t). Véase la figura 1. v
α
v(t)
• α(t)
α(t) 0
t u(t)
u
Figura 1. Campo vectorial definido por un sistema de EDO’s; (1) es uno de ésos. 4 Hilbert enunció el problema en los siguientes términos: “Quiero plantear un problema […] éste es el de determinar el número máximo y la posición de ciclos límite del sistema x = f(x, y), y = g(x, y), donde f y g son dos funciones racionales[…]”
KOLMOGOROV Y LA BIOLOGÍA TEÓRICA
117
Con esta interpretación, por cada punto (u, ν) de la región de interés biológico, el sistema (1) define un vector α· (t). A este conjunto de vectores se le llama campo vectorial. Por otro lado, fijémonos en el conjunto (u, ν) de la región de interés biológico para el que uM(u, ν) = 0; sobre éste, la componente horizontal de los vectores α es cero; mientras que sobre las parejas (u, ν) para las que νN(u, ν) = 0, la componente vertical es nula. Por esta razón, a tales conjuntos se les llama genéricamente ceroclinas : ceroclina horizontal al primero y ceroclina vertical al segundo. La ceroclina horizontal tiene dos ramas u ≡ 0 (el eje vertical) y M(u, ν) = 0. La ceroclina vertical también tiene dos ramas: v ≡ 0 (el eje horizontal) y N(u, ν) = 0. A los puntos (u, ν) de la región de interés para los que uM(u, ν) = 0 y νN(u, ν) = 0, se les llama puntos de equilibrio del sistema (1). Éstos corresponden a la intersección de las ceroclinas del sistema. La caracterización de los puntos de equilibrio de sistemas planos puede consultarse en cualquier texto básico de EDO’s. En Gutiérrez S. y Sánchez G., 1998, el lector también encontrará una presentación accesible de estos temas. Usando consideraciones ecológicas, Kolmogorov propuso una forma cualitativa para las ramas principales, M(u, ν) = 0 y N(u, ν) = 0, de las ceroclinas, a fin de describir la relación de tipo presa-depredador. Éstas se ilustran en la figura 2. Su propuesta contiene como caso particular al clásico sistema de Lotka-Volterra para presa-depredador que exhibe oscilaciones periódicas en ambas densidades poblacionales. Las ramas M(u, ν) = 0 y N(u, ν) = 0, dividen en cuatro partes a la región de interés biológico. En éstas, el campo vectorial, α· (t), definido por (1) es como lo ilustra la figura 2; aquí mismo se ven los puntos de equilibrio de (1): P0 = (0, 0), P1 = (u1, 0) y P = (u*, ν*). El punto P es la intersección de las ramas principales M(u, ν) = 0 y N(u, ν) = 0. La dinámica a la que da lugar el sistema (1) se dibuja en la región de interés biológico y aquélla la da su retrato fase. Éste se determina haciendo, en primer lugar, el análisis local alrededor de cada punto de equilibrio y, en segundo, el análisis global, es decir, en la región de interés biológico. Debido a las características cualitativas impuestas a M y N (véase la figura 2), del análisis local se concluye que: P0 no es estable, la única trayectoria de (1) que termina ahí es el eje vertical y la única que sale de P0 es el eje horizontal; P1 es un punto silla; mientras que el retrato fase de (1) alrededor de P cambia, dependiendo de la forma en que se intersecten las ramas principales de las ceroclinas. Tanto para completar el análisis local como para dar el comportamiento global, Kolmogorov considera los siguientes casos:
118
FAUSTINO SÁNCHEZ GARDUÑO
v
II I
A
M=0
IV
III N=0
P0
C
P1
u
Figura 2. Modelo kolmogoroviano para la relación presa-depredador. Figura adaptada de Kolmogorov, 1936.
Caso 1. La intersección de M(u, ν) = 0 y N(u, ν) = 0 es como lo ilustra la figura 3(a). Aquí P es un foco localmente estable. Para completar el retrato fase de (1), Kolmogorov nota que la trayectoria L que abandona el punto P1 y entra a la región I, tiende al punto P “espiraleando” alrededor de él. Este comportamiento también lo tienen todas las trayectorias de (1) con condición inicial (u0, ν0) siendo ambos, u0 y ν0, números positivos. El comportamiento ilustrado en el retrato fase de la figura 3(a) puede enunciarse así: si las densidades poblacionales iniciales, u0 y ν0, de las especies presa y depredador son positivas, entonces los tamaños poblacionales u = u(t) y ν = ν(t) oscilarán amortiguadamente alrededor de u* y ν*, respectivamente, al aumentar el tiempo, según lo muestra la figura 3(b). Caso 2. En éste las trayectorias de (1) tienden a P en una dirección fija (P es nodo), ello corresponde a la situación en la que ambos tamaños, el de la especie presa y la depredadora, tienden a u* y ν* cuando t tiende a infinito, respectivamente: lo hacen de forma exponencial si P es un nodo; mientras que lo hacen amortiguadamente (sin oscilar) si P es un nodo degenerado. Caso 3. Las ramas M(u, ν) = 0 y N(u, ν) = 0 se intersectan como se ve en la figura 4(a). Aquí el sistema (1) tiene una trayectoria, C, cerrada y aislada (ciclo límite, es llamado en la jerga matemática a este tipo
119
KOLMOGOROV Y LA BIOLOGÍA TEÓRICA
u v
u0 u*
t v A v* v* L v0 P0
C
P1
u*
(a)
u
t (b)
Figura 3. Dinámica del caso 1 considerado por Kolmogorov. (a) Ésta es una forma en la que M = 0 y N = 0 se intersectan (figura adaptada de Kolmogorov, 1936). Aquí, P es un foco estable. (b) Cualquiera que sea el estado inicial, los tamaños posteriores oscilan amortiguadamente hacia u* y ν*.
de trayectorias, que corresponden a soluciones periódicas del sistema en cuestión) que rodea al equilibrio P. El comportamiento cualitativo de una trayectoria de (1) con condición inicial (u0, ν0), depende de dónde exactamente se encuentre este punto. Distingamos los siguientes subcasos: 1. Si (u0, ν0) con u0 > 0 y ν0 > 0, está fuera de la región encerrada por C, entonces tal trayectoria tenderá a C siguiendo una espiral al aumentar t ; es decir, los tamaños poblacionales tienden hacia sendas funciones periódicas a medida que el tiempo avanza. 2. Si (u0, ν0) está sobre el ciclo límite C, entonces los estados posteriores recorrerán una y otra vez C, en el sentido que lo señala la figura 4(a) y, por tanto, las densidades poblacionales son funciones periódicas. 3. Si (u0, ν0) está dentro de la región cuya frontera es C, entonces, según Kolmogorov, “se requieren hipótesis adicionales para determinar el comportamiento cualitativo de la trayectoria con esta condición ini-
120
FAUSTINO SÁNCHEZ GARDUÑO
cial”. De hecho, el equilibrio P es inestable y puede ser nodo o foco y bien puede ocurrir que en esa región el sistema (1) tenga uno o más ciclos límite estables e inestables, teniendo como centro el punto P. Un caso simple es en el que C es el único ciclo límite de (1) y P es o bien un foco inestable o un foco estable. En estas circunstancias la trayectoria de (1) con condición inicial en la región encerrada por el ciclo límite tenderá hacia él. Véase la figura 4(a).
u
v
u* t t v L v*
ciclo límite
P0
C
P1 (a)
u (b)
Figura 4. Una posible dinámica originada en el caso 3 del modelo kolmogoroviano para la relación presa-depredador. (a) La existencia de un ciclo límite (figura adaptada de Kolmogorov, 1936). (b) Los tamaños poblacionales tienden a un comportamiento periódico.
Con el listado de estos tres subcasos, concluimos la revisión y anunciamos que el trabajo de Kolmogorov ha sido referencia obligada para el estudio de otros modelos que se obtienen al sustituir alguna(s) premisa(s) de la lista dada al inicio de esta sección. En aquéllos, los distintos autores han tratado de extender, completar, etc., los resultados del matemático soviético. No pretendemos aquí hacer una revisión exhaustiva; citaremos sólo unos cuantos. Rescigno y Richardson (1967) extendieron la metodología de análisis desarrollada por Kolmogorov, a fin de determinar la dinámica
KOLMOGOROV Y LA BIOLOGÍA TEÓRICA
121
asociada a los modelos que describen una relación de: 1) competencia y, 2) simbiosis. Una variante de los modelos presa-depredador es considerar que: 1) los procesos de captura y consumo de presas por parte de los depredadores requieren tiempo para su ejecución y, 2) el consumo de presas no es un proceso ilimitado, pues llega un momento en que los depredadores se hartan de consumir el mismo alimento. La incorporación de estos factores conlleva a los modelos de presa-depredador con respuesta funcional de Holling (Hassel, 1988). En Conway y Smoller, 1986, los autores estudian una importante familia de modelos de tipo presa-depredador en los que la presa exhibe el efecto Allee, entendido como el decrecimiento del tamaño poblacional de presas siempre que la densidad de éstas sea menor que cierto tamaño umbral. En otro tenor, supóngase que hay factores que hacen que la distribución espacial de los individuos no sea homogénea. En ese caso, es necesario incorporar en los modelos las variables espaciales; concretamente las densidades poblacionales, además de depender del tiempo, dependerán de las variables que dan cuenta del espacio en el hábitat. Un tipo de modelos para describir la dinámica espacio-temporal de la interacción entre las especies, son las así llamadas ecuaciones de reacción-difusión. Para los fines de esta presentación, no es necesaria la deducción de las ecuaciones de reacción-difusión, y sólo señalamos que éstas toman la forma: u t = D1∇ 2u + uM (u , ν )
ν t = D 2∇ 2ν + νN (u , ν )
(2)
donde D1 y D2 son las difusividades (supuestas constantes positivas), el subíndice t significa derivada parcial respecto a t y ∇2 =
∂2 ∂2 ∂2 + + ∂x 2 ∂y 2 ∂z 2
→ → y ν(r,t) son las densidades poblaes el laplaciano, por otra parte u(r,t) cionales de cada una de las especies en el punto r→= (x, y, z) del hábitat al tiempo t. El sistema (2), junto con las condiciones iniciales (que darían la distribución inicial de cada especie en el hábitat) y las de frontera (que indicarían el tipo de interacción con el entorno, por ejemplo, si hay o no individuos que escapen), completan el problema matemático por analizar. Un aspecto de este análisis consiste en ver el
122
FAUSTINO SÁNCHEZ GARDUÑO
papel que juegan los términos difusivo y de interacción en la formación de patrones de distribución espacial de ambas especies. Para la dinámica espacio-temporal a la que dan lugar algunos modelos de la forma (2), en ecología, el lector puede consultar Okubo, 1980.
3. INCURSIÓN DE KOLMOGOROV EN LA GENÉTICA
Uno de los precursores de la genética teórica es el estadístico inglés R. A. Fisher quien, entre muchos otros problemas, se planteó hacer el análisis de la forma en que se dispersa un gen ventajoso dentro de una población que vive en un hábitat unidimensional, suficientemente grande. Dejemos la palabra al propio Fisher (1937): Considérese una población distribuida en un hábitat lineal, como la ribera de un río. Si en cualquier punto del hábitat ocurre una mutación la cual pasa a ser en algún grado, aunque leve, ventajosa para sobrevivir en la totalidad de sus efectos, debemos esperar que el gen mutante se incremente a expensas del alelomorfo o alelomorfos que ocupaban previamente el mismo locus. Este proceso primero se completará en la vecindad de ocurrencia de la mutación y, más tarde, como el gen ventajoso se difunde hacia la población circundante, en la porción adyacente de su rango. Suponiendo que el rango sea grande comparado con las distancias que separan los sitios de los descendientes de aquéllos de sus padres, ahí estará avanzando, desde el origen, una onda de incremento en la frecuencia génica. Nosotros debemos, primero, basados en los postulados más simples, considerar el movimiento de la onda. Sea p la frecuencia del gen mutante y q aquélla de sus padres alelomorfos, los cuales supondremos son los únicos alelomorfos presentes. Sea m la intensidad de la selección en favor del gen mutante, supuesta independiente de p… Entonces p satisface la ecuación:
∂p ∂ 2p = k 2 + mpq ∂t ∂x donde t se mide en generaciones… El uso de la analogía con difusión física será solamente satisfactoria cuando la distancia de dispersión en una sola generación sea pequeña comparada con la longitud de la onda.
A continuación, Fisher (1937) da un razonamiento de plausibilidad mediante el cual determina la velocidad con la que avanza la onda de concentración del gen ventajoso. Una versión del razona-
123
KOLMOGOROV Y LA BIOLOGÍA TEÓRICA
miento seguido por el genetista teórico inglés puede verse en Sánchez G. y Peralta, 1994. Fisher encuentra: “que las soluciones en forma de una onda estacionaria que avanza con velocidad c sólo son posibles si c ≥ 2 km ”. Véase la figura 5. –14 –12 –10
–8
–6
–4
–2
0
2
4
6
8
10
12
14
0.9
0.9
0.8
0.8
0.7
0.7
0.6
0.6
0.5
0.5
0.4
0.4
0.3
0.3
0.2
0.2
0.1
0.1
0 –14 –12 –10
–8
–6
–4
–2
0
2
4
6
8
10
12
14
0
Figura 5. Onda de avance del gen ventajoso de Fisher. Figura tomada de Fisher (1937).
En la misma línea de trabajo de Fisher, Kolmogorov y sus colaboradores (1937) hicieron una importante contribución. El trabajo de estos autores fue publicado en el mismo año que el de Fisher pero, dado que en el artículo de Kolmogorov et al. se cita un trabajo de Fisher (The Genetical Theory of Natural Selection, Oxford University Press, 1930) es razonable suponer que, al menos en cuestiones de genética, los matemáticos soviéticos conocían los intereses del inglés. A continuación centraremos nuestra atención en el trabajo de Kolmogorov et al. Para la deducción de la ecuación analizada por estos autores, ellos hacen el siguiente razonamiento: Consideramos ahora un cierto territorio o región poblada por una especie cualquiera. Supongamos que un cierto gen dominante A está distribuido en un territorio, teniendo concentración constante u (0 ≤ u ≤ 1). Supongamos a continuación que individuos con la característica A (esto es, pertenecientes a los genotipos AA y Aa) tienen una ventaja en su lucha por la existencia contra individuos que no poseen tal característica (pertenecientes al genotipo aa). Más precisamente, supondremos que la razón de la probabilidad de sobrevivencia de un individuo con la característica A con respecto a la probabilidad de sobrevivencia de un individuo que no la posee, es igual a 1 + α, donde α es un número positivo pequeño.
124
FAUSTINO SÁNCHEZ GARDUÑO
A continuación, los autores suponen que: 1. u depende de las coordenadas espaciales x y y, 2. en el intervalo entre nacimiento y reproducción cada individuo puede moverse en una dirección arbitraria (todas las direcciones tienen la misma probabilidad) una distancia, con probabilidad f(r)dr, cuyo valor está entre r y r + dr con desplazamiento cuadrático medio el segundo momento 1
2 ∞ ρ = r 2 f (r )dr 0
∫
3. u es derivable respecto a x, y y t, adicionalmente, el tercer momento, d 3 es pequeño en comparación con el segundo, 4. α y ρ son muy pequeños, para desarrollar en serie de Taylor a u hasta los términos de segundo orden y deducir la ecuación:
∂u 1 2 ∂ 2u ∂ 2u 2 = ρ + + αu (1 – u ) ∂t 4 ∂x 2 ∂y 2 Aunque estos autores dedujeron una ecuación para un hábitat bidimensional, en realidad analizan el caso unidimensional considerando un término cinético que generaliza al término αu(1–u)2 de la ecuación anterior. Sigamos el texto de nuestros autores: Examinamos ahora el caso en la que una vasta región ya ha sido ocupada por el gen A con una concentración u cercana a la unidad. Naturalmente una banda de concentración intermedia será hallada a lo largo de la frontera de la región. Suponemos que más allá de esta banda, u es cercana a cero. Ya que hay selección positiva, la región ocupada por A se alargará: en otras palabras, su frontera se moverá hacia regiones todavía no ocupadas por A… Nuestro primer problema es determinar la velocidad de propagación del gen A, esto es, decir la velocidad de movimiento de la frontera (Kolmogorov et al., 1937).
En la figura 6 se ve la onda de avance de la onda mencionada en la cita anterior. Kolmogorov et al. (1937) no establecen explícitamente las premisas en las que basan su ecuación, por lo que conviene enunciarlas:
125
KOLMOGOROV Y LA BIOLOGÍA TEÓRICA u
1
τ = t0
τ=t
τ=
t2
t3
>
>
t3
t2
τ=
τ=
t2 > t
1
1
x
Figura 6. Avance de la onda de concentración del gen ventajoso. Figura tomada de Kolmogorov et al. (1937).
1. Población homogénea. 2. Hábitat unidimensional, homogéneo e infinito. 3. Población diploide; con esto lo que queremos decir es que consideraremos una población con dos alelos, digamos A y a en un locus. 4. Estado de equilibrio, esto es, consideramos que la población está en equilibrio Hardy-Weinberg. 5. Crecimiento continuo. 6. Tiempo homogéneo. 7. Población panmíctica, es decir, que los apareamientos entre los individuos de la población son al azar. El significado de las premisas 1, 2, 5 y 6 es el mismo que el dado en la sección anterior, y para los detalles sobre la premisa 4, consúltese cualquier libro de genética de poblaciones. Para la construcción del modelo (del que el analizado por Kolmogorov et al. resulta ser un caso particular), sea u: R x R → [0,1], la probabilidad de ocurrencia del gen A en el punto x al tiempo t. Luego, la correspondiente para a es (1 – u). Así, la descendencia de padres que poseen el par de genes A y a puede tener cualquiera de los siguientes tres genotipos: AA, Aa y aa. Por la premisa 7, la probabilidad de ocurrencia de cada uno de estos genotipos es u2, 2u(1 – u) y (1 – u)2, respectivamente. Llamando ρ , σ y τ a las adecuaciones de los genotipos AA, Aa y aa, respectivamente, puede probarse (Aronson y Wienberger, 1975) que la probabilidad u satisface la ecuación diferencial parcial (EDP):
∂u ∂ 2u = + u (1 – u ) ρ – τ – (2ρ – σ – τ )u . ∂t ∂x 2
[
]
(3)
126
FAUSTINO SÁNCHEZ GARDUÑO
Dependiendo de la relación que guarden las adecuaciones, la ecuación (3) describe varios casos de interés. En Aronson y Wienberger, 1975, los autores clasifican los casos según lo ilustra el cuadro 2. Caso
I
II
III
IV
Comparación de las adecuaciones
aa≤Aa≤AA aa
Aa
AA≤Aa≤aa AA
AA
Nombre
Heterocigótico intermedio
Heterocigótico inferior
Heterocigótico intermedio
Heterocigótico superior
Gráfica de la parte reactiva en la ecuación (3)
Cuadro 2. Diferentes casos de interés genético.
La ecuación analizada por Kolmogorov et al., es la correspondiente al caso heterocigótico intermedio del cuadro 2, es decir, la EDP:
∂u ∂ 2u = + f (u ), ∂t ∂x 2 donde la función f tiene las propiedades cualitativas que se ilustran en ese caso. En lenguaje más reciente resulta que tanto Fisher como Kolmogorov et al. estaban interesados en determinar los valores de la velocidad, c, para los que su EDP admitía soluciones del tipo onda viajera,5 i.e., las que se escriben como u(x, t) = φ (x – ct), siendo c la velocidad con la que se propaga la onda: lo hace de izquierda a derecha si c > 0 ; mientras que si c < 0, la onda viaja de derecha a izquierda. Nótese la diferencia entre la onda de Fisher (figura 5) y la de Kolmogorov et al. (figura 6); ella proviene de que éstos consideran φ (x + ct) con c > 0 en vez de φ (x – ct) con c > 0, como Fisher. En la introducción de sus respectivos trabajos, estos autores dan argumentos que fundamentan el porqué φ ha de satisfacer, además, condiciones de frontera que reflejen la característica de ser una onda de avance (invasión). Tomando u(x, t) = φ(x – ct) con c > 0, éstas resultan ser: 5 Las características de una onda viajera son: se propaga por el espacio a velocidad constante y lo hace conservando su forma. Para una presentación elemental de estas cuestiones, véase Sánchez Garduño y Esteva Peralta, 1994.
KOLMOGOROV Y LA BIOLOGÍA TEÓRICA
127
φ ( ±∞) = 1 y φ ( +∞) = 0 (5) además de la obvia que debe satisfacer la probabilidad u, es decir, 0 ≤ φ ( ξ ) ≤ 1, ∀ ξ ∈ ( – ∞ ,+∞ ). Como mencionamos en la sección 1, sin duda alguna fueron Kolmogorov et al. quienes introdujeron la primera metodología sistemática para el estudio de la existencia y de la convergencia 6 hacia soluciones del tipo onda viajera. La parte medular de la metodología de análisis introducida por Kolmogorov et al. consiste en replantear el problema. En efecto, en vez de determinar las condiciones bajo las cuales la ecuación (4) tiene solución del tipo onda viajera u(x, t) = φ (x – ct ) cumpliendo las condiciones de frontera (5), ellos muestran que este problema es equivalente a determinar el conjunto de valores de la velocidad c, para los que un sistema autónomo de EDO’s tiene trayectorias que conectan a dos puntos de equilibrio.7 Para precisar lo anterior, planteamos el siguiente problema: Problema 1. (P1). Investigar la existencia de soluciones del tipo onda viajera u( x, t ) = φ ( x ± ct ) ≡ φ (ξ ) para la ecuación (4) con condición inicial u(x, 0)= u0 (x) tal que 0 ≤ u0(x) ≤ 1 para toda x y 0 ≤ φ(ξ) ≤ 1; para toda x, cumpliendo las condiciones de frontera (5). Si suponemos que la ecuación (4) tiene soluciones de la forma u(x, t) = φ (x – ct) y sustituimos φ en (4), se obtiene la EDO de segundo orden
φ”(ξ ) + cφ’ (ξ ) + f (φ ) = 0 Introduciendo ν como ν = φ y considerando las condiciones iniciales y de frontera de P1, damos lugar al siguiente problema:
6 Por convergencia, aquí queremos decir lo siguiente: supóngase que para cierto valor c, φ (x – ct) es solución de la EDP. Considérese ahora una distribución inicial u(x, 0) = u0(x) y denotemos con ν(x, t) a la solución de la EDP. Si ocurre que φ(x – ct) – ν(x, t)→0 cuando t → ∞ , entonces diremos que la solución ν converge a la onda viajera φ. 7 A la trayectoria de un sistema de EDO’s que une a pares de puntos de equilibrio, se le llama trayectoria heteroclínica del sistema.
128
FAUSTINO SÁNCHEZ GARDUÑO
Problema 2 (P2). Investigar la existencia de soluciones del sistema
φ’ = ν ν’ = −cν’ – f (φ ) con φ ( – ∞) = 1, ν ( – ∞) = 0, φ ( +∞) = 0, ν ( +∞) = 0 y 0 ≤ φ (ξ ) ≤ 1, ∀ξ ∈ ( – ∞, +∞). Puede probarse (Fife, 1979; Kolmogorov, 1940) que los problemas P1 y P2 son equivalentes. En los siguientes párrafos usaremos la interpretación dinámica que describimos en la sección 2 a fin de obtener información del retrato fase del sistema (6) al variar c. Esto se hará en la región de interés: {(φ,ν)|0 ≤ φ ≤1, – ∞ < ν <+ ∞ }. Si f tiene las propiedades cualitativas que se ven en la primera figura del cuadro 2, el sistema (6) tiene dos puntos de equilibrio: P0 = (0,0) y P1= (1,0). Mediante la aproximación lineal de (6) alrededor de cada punto, uno obtiene el comportamiento local. Así, se concluye: P1 es un punto silla para todo valor de c; mientras que el comportamiento de las trayectorias de (6) alrededor de P0 depende de los valores que tome c, de la siguiente manera: 1. si c 2 ≥ 4’(0), P0 es un nodo estable y 2. si c 2 < 4φ’(0), P0 es un foco estable. Dado que el comportamiento local que se predice en el caso 2 contraviene una de las condiciones que ha de cumplir φ, a saber, aquella que se expresa en la desigualdad 0 ≤ φ(ξ) ≤ 1, entonces excluiremos de nuestro análisis esos valores de c. Véase la figura 7.
v
v
P1
P1
P0 φ
(a)
φ
P0
(b)
Figura 7. Dinámica local del sistema (6) para valores positivos de c. (a) c2 < 4f’(0) (b) c2 ≥ 4f’(0).
129
KOLMOGOROV Y LA BIOLOGÍA TEÓRICA
Para completar el retrato fase de (6) en la región de interés, es decir, tener el comportamiento global, sólo basta “seguir” el comportamiento de aquella trayectoria, T, de (6) que deja el equilibrio P1 y entra a la región {(φ,ν)|0 ≤ φ ≤,1 – ∞ < ν <+ ∞ }. Puede probarse (Fife, 1979; Kolmogorov, 1940) que, para cada valor positivo de c cumpliendo c2 ≥ 4f’(0), la trayectoria T “termina” en el punto P0 y la forma como lo hace es según lo ilustra la figura 8(a). Justamente, para cada valor de c que satisface la desigualdad anterior, se tiene una trayectoria heteroclínica de (6) que es la consistente con las condiciones impuestas en el P2 y, por tanto, para cada c que cumple la condición anterior, ella define la solución u(x, t) = φ (x – ct) de P1: ésta es la onda de avance del gen ventajoso. Véase la figura 8(b). v
φ
1 P0
P1
φ ξ
t (b)
(a)
Figura 8. Dinámica global del sistema (6) para c 2 ≥ 4f’(0), que son los que tienen sentido biológico. (a) Para cada c, como antes, la trayectoria T que deja P1 “termina” en P0 cuando ξ → ∞. (b) Correspondiente a la trayectoria T se tiene una onda viajera de tipo frente.
En la segunda parte de su trabajo, por cierto bastante técnica, Kolmogorov et al. estudian el problema de la estabilidad de la onda viajera. Prueban que para un conjunto relativamente grande de condiciones iniciales, la correspondiente solución de (4), tiende a φ (x – ct), cuando t tiende a infinito (véase la nota 6). Desde la publicación del artículo de Kolmogorov et al., que versa sobre genética teórica, muchos trabajos se han publicado tratando de extender este trabajo pionero. Las extensiones han seguido dos
130
FAUSTINO SÁNCHEZ GARDUÑO
vertientes no necesariamente excluyentes: 1) en genética (selecciónmigración) y, 2) en el análisis de existencia de ondas viajeras de modelos surgidos de problemas de biología, fisiología, química, física de medios porosos, etcétera. Una revisión de los trabajos en la primera línea puede ser hallada en Fife, 1979, mientras que en la segunda, podemos decir que sus autores han extendido los resultados pioneros, propuesto nuevos métodos (tanto analíticos como numéricos), hallado otros tipos de ondas viajeras, estimado el valor de c para ciertos tipos de ondas viajeras, etc. A manera de muestra, aquí sólo mencionaremos unos cuantos ejemplos en los que han aparecido las ondas viajeras en ciencias de la vida. Quizás uno de los mayores éxitos de la modelación matemática en biología es la descripción de impulsos nerviosos viajando a través del axón de las neuronas. La teoría más aceptada para hacer esta descripción es la propuesta por Hodgkin y Huxley a principios de los años 50. Consta de un sistema de cuatro ecuaciones diferenciales no lineales acopladas: una EDP y tres EDO’s. La complejidad a la que conduce su análisis ha hecho que se consideren versiones simplificadas pero que recojan los rasgos esenciales del problema por estudiar. Uno de ellos es el modelo de Fitzugh-Nagumo que reduce a dos las ecuaciones diferenciales. Una de las variables de interés que aparece en ellos es el potencial de membrana. Precisamente este impulso viaja a través del axón siguiendo el patrón de una onda viajera. El análisis de estos modelos ha conducido a problemas matemáticos muy importantes. La onda epizoótica es la forma en que se propaga la rabia entre zorros en Europa. Igualmente, la invasión de una variedad de ardillas que fue introducida en Inglaterra a principios del siglo XX y que fue desplazando a la autóctona, siguiendo un patrón espacial de tipo onda viajera. Para éstos y otros procesos en los que aparecen las ondas viajeras, consúltese Murray, 1993. Otras extensiones del trabajo de Kolmogorov et al. pueden consultarse en Sánchez G. y Maini, 1994, y Sánchez G. y Maini, 1997.
UNA FACETA DESCONOCIDA
Antes de concluir esta revisión queremos, de forma muy resumida, comentar otra faceta del trabajo matemático de Kolmogorov en relación con la genética, poco conocida por los biólogos y matemáticos.
KOLMOGOROV Y LA BIOLOGÍA TEÓRICA
131
Empezaremos por mencionar que el trabajo de Kolmogorov et al. (1937) fue publicado cuando en los círculos científicos relacionados con el uso de la genética en la agricultura, en la antigua Unión Soviética, se daba una fuerte discusión iniciada a principios de los años treinta entre dos corrientes de pensamiento en genética. Una de ellas, la tradicional escuela de genetistas soviéticos y la otra, acaudillada por el académico Lysenko, un protegido de Stalin, quien, usando el poder que esta relación le brindaba y un discurso en apariencia congruente con el socialismo soviético, contribuyó a la destrucción de la otra corriente. Esto ocurrió en las resoluciones que tomó la Sesión de la Academia Lenin de Ciencias Agrícolas de la URSS, celebrada del 31 de julio al 7 de agosto de 1948; en ella se discutió sobre La situación de las ciencias biológicas (Academia Lenin de Ciencias Agrícolas de la URSS, 1949; Lecourt, 1974). Según lo expresó Lysenko en el informe que presentó en la sesión inaugural, una de las cuestiones que estaba en el centro de la discusión era la confrontación entre dos ideologías en biología. Una, la de los neodarwinistas (weissmanismo-mendelismomorganismo, en quienes, según Lysenko, se basaba la tradicional escuela de genetistas soviéticos) y los minchuristas-lysenkistas, quienes, en palabras de Lysenko, apoyaban la teoría materialista de la evolución de Darwin. Para éstos, un punto básico era el hecho de que los caracteres individuales adquiridos se heredaban. Kolmogorov también participó de las controversias mencionadas. De hecho, en su trabajo On a new confirmation of Mendel’s laws, probó (Kolmogorov, 1940) que, contra lo que sostenían, los argumentos dados por los lysenkistas más bien apoyaban la tesis mendeliana. En su réplica a Kolmogorov, Lysenko escribió: En su deseo para probar la verdad e invulnerabilidad de las leyes de Mendel, el autor da argumentos matemáticos, fórmulas y aun curvas. No creo que yo sea competente para dar una opinión sobre estas pruebas y argumentos matemáticos. Más aún, como biólogo no estoy interesado en la cuestión de si Mendel era o no un buen matemático… (Lysenko, 1940).
Más adelante Lysenko descalificó el trabajo de Kolmogorov diciendo que sus argumentos no tenían fundamento biológico. Que se sepa, nuestro autor ya no polemizó más… el tiempo dio la razón a los derrotados en la tristemente célebre sesión de la Academia Lenin, y a escasos diez o quince años de ese acontecimiento no había quien se acordara de Lysenko y sus seguidores.
132
FAUSTINO SÁNCHEZ GARDUÑO
NOTA BIOGRÁFICA
Andrei Nikolaievich Kolmogorov nació en Tambov, Rusia, el 25 de abril de 1903, y murió el 20 de octubre de 1987 en Moscú. Se quedó huérfano de madre siendo muy pequeño, por lo que una tía suya se hizo cargo de él. Por el lado materno, Kolmogorov venía de una familia aristocrática; del lado paterno no se sabe mucho. Uno de los datos que se conoce es que su padre era un agrónomo muy calificado. Su infancia la pasó en familia y, después de la Revolución de Octubre empezó a trabajar, algunas veces como conductor de tren. En el otoño de 1920, ingresó a la Universidad de Moscú, donde se graduó en 1925. En 1931 fue hecho profesor de dicha universidad y, desde 1937, ocupó la cátedra de probabilidad. Los campos matemáticos cultivados por Kolmogorov fueron variados. Fue el padre de la teoría axiomática de la probabilidad; hizo contribuciones notables a las teorías de sistemas dinámicos, integración, medida, procesos aleatorios, lingüística matemática, mecánica celeste, etc. También se destacó como promotor de la enseñanza de las matemáticas a nivel de secundaria. Excepto la teoría de números, no hay rama de la matemática que no haya estudiado y, sobre todo, con profundidad notable. Kolmogorov no estudiaba éste o aquel detalle de tal o cual ecuación, se planteaba problemas fundamentales y, aunque en muchos casos sus escritos fuesen cortos, en ellos hacía análisis profundos que marcaron rutas de desarrollo posterior. Ejemplos de esto lo constituyen sus dos trabajos en biología matemática. Tuvo una producción científica abundante; sus publicaciones llegan a unas 300 entre artículos, libros, monografías, etc. Andrei Nicolaievich Kolmogorov tuvo intereses intelectuales variados. Se sabe que cultivó la historia rusa. Sobre el particular, hizo estudios de manuscritos de los siglos XV y XVI, que trataban sobre cuestiones agrarias en Novgorod. Hizo esfuerzos por obtener información cuantitativa de la poesía de Pushkin. Era afecto al esquí, al montañismo y le gustaba surfear. Su trabajo académico fue ampliamente reconocido dentro y fuera de la Unión Soviética. Le fueron conferidas siete Órdenes Lenin y la Orden de la Revolución de Octubre; se le nombró Héroe del Trabajo Socialista; obtuvo los premios Lenin y del Estado. Fue nombrado honoris causa por las universidades de París, Berlín, Varsovia, Estocolmo y varias más. Fue el matemático soviético con mayor número de membresías a sociedades científicas extranjeras.
KOLMOGOROV Y LA BIOLOGÍA TEÓRICA
133
Kolmogorov participó en la formación de toda una escuela de destacados matemáticos soviéticos, entre los que figuran Maltsev, Gnedenko, Gelfand, Shilov, Sinai, Arnold, Uspensky y otros. Lo que hemos ofrecido aquí es una versión resumida de la biografía de Kolmogorov escrita por Paul M. B. Vitanyi (1988).
BIBLIOGRAFÍA
Academia Lenin de Ciencias Agrícolas de la URSS. 1949. “La situación en las ciencias biológicas”, Actas Taquigráficas, sesión del 31 de julio al 7 de agosto de 1948, Moscú, Ediciones en Lenguas Extranjeras. Aronson, D. G. y H. F. Weinberger. 1975. “Nonlinear diffusion in populations, genetics and nerve pulse propagation”, en Goldstein, J. A. (ed.), Partial Differential Equations and Related Topics, núm. 466, Nueva York, Springer Verlag (Lecture Notes in Biomathematics, 5-49). Conway, E. D. y J. A. Smoller. 1986. “Global Analysis of a System of PredatorPrey Equations”, SIAM Journal of Applied Mathematics, vol. 46, núm. 4, 630642. Darwin, Ch. 1958. The Autobiography of Charles Darwin and Related Letters, Francis Darwin (ed.), Nueva York, Dover. Esteva Peralta, L. y F. Sánchez Garduño. 1995. “Ondas viajeras II”, Ciencias, revista de difusión, núm. 37, enero-marzo, México, Facultad de Ciencias de la UNAM, 65-73. Fife, P. 1979. Mathematical Aspects of Reacting Diffusing Systems, Nueva York, Springer Verlag (Lecture Notes in Biomathematics, 28). Fisher, R. A. 1937. “The wave of advance of advantageous genes”, Ann. Eug., núm. 7, Londres, 355-367. Gutiérrez Sánchez, J. L. y F. Sánchez Garduño. 1998. Matemáticas para las ciencias naturales, México, Sociedad Matemática Mexicana (Serie Textos núm. 11 de Aportaciones Matemáticas). Hassel, M. P. 1988. Dinámica de la competencia y la depredación, Barcelona, Oikos-Tau. Kolmogorov, N. 1936. “Sulla Teoria di Volterra della lotta per l’esistenza”, Giornale dell’Instituto Italiano degli Attuari, núm. 7, Roma, 74-80. ___ et al. 1937. “Étude de la quantité de la matiere et son application á un probleme biologique”, Le Bulletin de l’Université d’etat á Moscow, Moscú. [Existe una versión abreviada en inglés que contiene tanto la motivación biológica como los resultados (sin demostraciones), editada por Conolly y Pinto]. ___ 1940. “On a New Confirmation of Mendel’s Law”, Dokl. Akad. SSSR, vol. XXVI, núm. 1, 37-41.
134
FAUSTINO SÁNCHEZ GARDUÑO
Krebs, Ch. J. 1978. Ecology, The Experimental Analysis of Distribution and Abundance, Harper International Edition. Lecourt, D. 1974. El caso Lysenko, Anagrama. Lotka. 1930. Elements of Mathematical Biology, Dover. Lysenko, T. D. 1940. “In response to an article by A. N. Kolmogoroff”, Dokl. Akad. SSSR., vol. XXVIII, núm. 9, 832-833. Malthus, T. R. 1970. Ensayo sobre el principio de la población, Madrid, Alianza Editorial. May, R. M. 1975. Stability and Complexity in Model Ecosystems, 2a. ed., Princeton, Princeton University Press. Murray, J. D. 1993. Mathematical Biology, Nueva York, Springer Verlag. Okubo. 1980. “Diffusion and Ecological Problems: Mathematical Models”, Biomathematics, núm. 10, Nueva York, Springer Verlag. Rescigno y I. W. Richardson. 1967. “The strugle for life: I. Two species”, Bull. Math. Biophys., núm. 29, 377-388. Sánchez Garduño, F. y L. Esteva Peralta. 1994. “Ondas viajeras en ciencias químico-biológicas: motivación y trabajos pioneros”, Ciencias, revista de difusión, núm. 36, octubre-diciembre, México, Facultad de Ciencias de la UNAM, 71-83. ___ y P. K. Maini. 1994. “Existence and uniqueness of a sharp travelling wave in degenerate non-linear diffusion Fisher-KPP equations”, Journal of Mathematical Biology, núm. 33, 163-192. ___ 1997. “Travelling wave phenomena in non-linear degenerate Nagumo equations”, Journal of Mathematical Biology, núm. 35, 713-728. Scudo, F. M. y J. M. Ziegler. 1978. The Golden Age of Theoretical Ecology: 19231940, Nueva York. Springer Verlag (Lecture Notes in Biomathematics, 22). Soberón, J. 1995. Ecología de poblaciones, México, Fondo de Cultura Económica (La Ciencia desde México, 82). Verhulst, P. F. 1845. “Recherches mathematiques sur les taux d’accroissement de la population”, Mem. Acad. Roy. Belgique, núm. 18, Bruselas, 1-38. Vitanyi, P. M. B. 1988. “Andrei Nikolaevich Kolmogorov”, CWI Quarterly, núm. 1: 3-18. Volterra, V. 1931. Leçons sur la théorie mathématique de la lutte pour la vie, París, Gauthier Villar.
EL MODELO DE KERMACK Y MCKENDRICK O CÓMO PREDECIR EL CURSO DE UNA EPIDEMIA LOURDES ESTEVA*
En 1927, Kermack y McKendrick publicaron un trabajo (Kermack y McKendrick, 1927) en el cual abordaron el siguiente problema: una persona infecciosa se introduce en una comunidad de personas susceptibles a la enfermedad en cuestión. Ésta comienza a propagarse de los afectados a los no afectados por contagio. Cada persona infectada eventualmente se recupera, muere o es puesta en cuarentena y el número de personas no afectadas por la enfermedad va disminuyendo. Finalmente, después de un cierto lapso, podemos decir que la epidemia cesa. Entonces, uno se pregunta si ésta se detuvo debido a que no existen individuos susceptibles o por la interacción de factores como facilidad de transmisión del agente infeccioso, recuperación del huésped y mortalidad, en cuyo caso quedan aún muchos individuos susceptibles. Este problema es muy difícil de tratar en su forma más general, pero a lo largo de este artículo veremos cómo Kermack y McKendrick, a través de modelos matemáticos, dieron una respuesta adecuada en casos particulares. Obviamente, Kermack y McKendrick no fueron los primeros interesados en desentrañar los mecanismos que permiten que una enfermedad se difunda. De hecho, nos atrevemos a decir que el estudio de los brotes epidémicos y sus posibles causas es tan viejo como el hombre mismo, lo cual no nos debe sorprender, si pensamos que las enfermedades infecciosas han acompañado al hombre a lo largo de toda su historia. Así, Hipócrates (459-377 a. C.) en su ensayo sobre Aires, aguas y lugares, escribió que el temperamento de una persona, así como sus hábitos y el medio ambiente que los rodea, son factores importantes para el desarrollo de una enfermedad, lo cual suena razonable aún en estos tiempos (Bailey, 1975). En todas las épocas, las *Departamento de Matemáticas, Facultad de Ciencias, Universidad Nacional Autónoma de México, [email protected]
[135]
136
LOURDES ESTEVA
epidemias se han atribuido a espíritus malignos, castigo de dioses o conjunción de planetas. A este respecto, Alexander Howe (1865), en su Leyes de la peste, menciona que el periodo interepidémico está en relación con el periodo lunar (Bailey, 1975). Aún en nuestros días, no falta quien mencione que el sida es un castigo divino. Podemos decir que el verdadero progreso de la epidemiología teórica empezó en la segunda mitad del siglo XIX. Con el desarrollo espectacular de la bacteriología, debido a los trabajos de Pasteur (1822-1895), Koch (1843-1910) y otros, se conocieron los mecanismos físicos involucrados en el proceso de transmisión de una enfermedad. Éste fue quizás el gran paso que permitió el desarrollo de teorías matemáticas adecuadas para explicar la propagación de una enfermedad en una comunidad, en contraposición con el uso de descripciones puramente empíricas. También por esa época ya se había alcanzado algún progreso en el manejo de datos estadísticos que mostraban la incidencia de casos de una enfermedad a nivel local. A este respecto, es interesante mencionar los trabajos pioneros de John Graunt (1620-1674) y William Petty (1623-1687) quienes, en el siglo XVII, construyeron las tablas de mortalidad de Londres. Su trabajo es considerado el comienzo de las estadísticas vitales y médicas, así como del entendimiento a gran escala de los fenómenos que relacionan enfermedad y muerte (Bailey, 1975). Sin embargo, en esa época las técnicas matemáticas requeridas estaban aún en proceso de desarrollo y no se contaba con hipótesis suficientes acerca del desarrollo de una enfermedad que permitieran expresarlas en términos de ecuaciones. Aunque ya por esas fechas se tenía un buen comienzo en la modelación de fenómenos físicos, particularmente en la mecánica y la astronomía, se necesitaron alrededor de doscientos años antes de que un verdadero progreso se alcanzara en el ámbito biológico. Sin embargo, hubo algunos intentos aislados de modelar matemáticamente la difusión de una enfermedad. En 1760, Daniel Bernoulli presentó ante la Academia Real de Ciencias de París un método matemático para estudiar la efectividad de la técnica de variolación en contra de la viruela, con miras a influir las políticas de salud vigentes en esa época. Así, el problema teórico planteado por Bernoulli no sólo surgió de un problema real sino que sus conclusiones se relacionaron directamente con acciones prácticas (Daley y Gani, 1999).
EL MODELO DE KERMACK Y MCKENDRICK
137
Pero, fuera de estos casos aislados, como ya se ha mencionado anteriormente, fue realmente hasta que se sentaron las causas físicas de las enfermedades infecciosas en el siglo XIX que se comenzaron a dar los primeros pasos hacia el desarrollo de la epidemiología matemática. A finales del siglo XIX el conocimiento de los mecanismos generales de difusión de una enfermedad, así como la familiaridad con los datos epidemiológicos –debida principalmente a los trabajos de Farr (1840)– hicieron posibles nuevos desarrollos en la epidemiología. Hammer (1906) postuló que el curso de una epidemia depende de la tasa de contactos entre individuos susceptibles e infecciosos. Esta noción se convirtió en uno de los conceptos más importantes en epidemiología matemática: la ley de acción de masas de la epidemiología, la cual dice que la tasa a la cual una enfermedad se propaga es proporcional al número de individuos susceptibles por el número de individuos infecciosos. Con el uso de estas ideas en una forma simple, Hammer pudo deducir la existencia de brotes epidémicos recurrentes. Por la misma época, Sir Ronald Ross (1911), en sus investigaciones sobre el paludismo, formuló un modelo matemático más estructurado, tomando en cuenta una serie de parámetros básicos en la transmisión de dicha enfermedad. En su modelo, de naturaleza determinística, el futuro de la enfermedad puede ser determinado de manera precisa, una vez que se han dado el número inicial de susceptibles e infecciosos, así como las tasas de ataque, recuperación, nacimiento y muerte de las poblaciones involucradas. Por primera vez fue posible usar una teoría matemática bien organizada como una herramienta de investigación en epidemiología. Estudios matemáticos más elaborados del mismo tipo fueron realizados por Kermack y McKendrick entre 1927 y 1939. En su modelo, estos autores introdujeron un alto grado de generalidad, ya que incluyeron tasas variables de infección y recuperación. El resultado más espectacular obtenido por Kermack y McKendrick fue el celebrado teorema del umbral, el cual postula que la introducción de un individuo infeccioso a una comunidad no dará lugar a un brote epidémico, a menos que la densidad de susceptibles sobrepase un cierto umbral. Se considera actualmente que los trabajos de Kermack y McKendrick son clásicos de la epidemiología matemática, debido a su gran influencia en el desarrollo de esta disciplina. La bibliografía actual sobre este tema es bastante extensa, así como sus aplicaciones en el campo de la medicina preventiva.
138
LOURDES ESTEVA
IMPORTANCIA DE LA MODELACIÓN MATEMÁTICA EN EPIDEMIOLOGÍA
Los mecanismos de transmisión de un infeccioso a un individuo susceptible se conocen para casi todas las enfermedades. Sin embargo, la forma en que se lleva a cabo la transmisión de una enfermedad en una población es muy compleja, ya que depende de muchos factores, entre ellos sociales, económicos, ambientales, etc. y, por lo tanto, resulta complicado entender la dinámica a gran escala de la propagación de una enfermedad sin la estructura formal de un modelo matemático. Un modelo epidemiológico usa una descripción microscópica (un individuo infeccioso) para predecir el comportamiento macroscópico de una enfermedad en una población. En muchas ciencias es posible llevar a cabo experimentos para obtener información y con ésta probar hipótesis. Evidentemente, es imposible realizar experimentos sobre enfermedades infecciosas en la población humana debido a muchas razones, en particular por aquellas de tipo ético. Los datos disponibles en epidemiología provienen de epidemias ocurridas de manera natural o de registros sobre incidencia de enfermedades endémicas; sin embargo, esta información, por lo general, es escasa o está incompleta. La falta de datos da lugar a que la estimación precisa de los parámetros epidemiológicos sea difícil de realizar, por lo que sólo es posible estimar un rango de valores para algunos de esos parámetros. Este tipo de limitaciones se salva con la ayuda de modelos matemáticos y simulaciones numéricas que permiten llevar a cabo experimentos teóricos con gran variedad de parámetros y juegos de datos. La comparación entre distintas enfermedades puede ayudarnos a entender sus mecanismos de propagación. Los modelos matemáticos pueden ser usados para comparar distintas enfermedades en la misma población, o la misma enfermedad en distintas poblaciones, o la misma enfermedad en distintos tiempos. Comparaciones entre sarampión, rubéola, varicela, tosferina y otras enfermedades han sido hechas por London y Yorke (1973), Hethcote (1983) y Anderson y May (1982), entre otros autores. Los modelos matemáticos pueden ayudarnos a predecir el curso de una epidemia dentro de una población; pueden también ser una herramienta útil para detectar los umbrales de población más allá de los cuales existe el riesgo de una epidemia. En el contexto de una enfermedad endémica (esto es, que permanece todo el tiempo en la población), los modelos matemáticos
EL MODELO DE KERMACK Y MCKENDRICK
139
pueden darnos información acerca de cómo los niveles de endemicidad están relacionados con factores que pueden ser controlados por la intervención de las autoridades sanitarias. Ayudan, asimismo, a la elección de programas óptimos de vacunación o de técnicas de erradicación para ciertas enfermedades. Así, por ejemplo, con la ayuda de modelos matemáticos, Hethcote y Yorke (1984) compararon los procedimientos para el control de la gonorrea en la población estadounidense. Longini, Ackerman y Elveback (1978) usaron un modelo matemático para decidir qué grupos de edad deben vacunarse primero para minimizar el riesgo de muerte en una epidemia de influenza. En muchas ocasiones los modelos matemáticos son la única herramienta práctica que nos permite contestar preguntas acerca de qué medida de control o prevención es la más efectiva. Las predicciones de tipo cuantitativo obtenidas con dichos modelos siempre están sujetas a cierto grado de incertidumbre, ya que los modelos son una idealización de la realidad y los valores de los parámetros son sólo estimaciones. Sin embargo, las predicciones de tipo cualitativo sobre los métodos de control en general son robustas, en el sentido de que las mismas conclusiones se cumplen para un amplio rango de parámetros. Los modelos matemáticos tienen tanto capacidades como limitaciones, las cuales deben ser reconocidas por el modelador. Algunas preguntas no pueden ser contestadas con el uso de modelos epidemiológicos, pero en ocasiones el modelador debe ser capaz de encontrar la combinación adecuada de datos disponibles, una pregunta interesante y un modelo matemático que le permita encontrar la respuesta a dicha pregunta. A continuación ilustraremos mediante un ejemplo simple las potencialidades de los modelos matemáticos en el estudio de la dinámica de las enfermedades infecciosas. Cabe mencionar que en los modelos epidemiólogicos no es posible incorporar todos los factores que intervienen en el proceso de difusión de una enfermedad, sino aquellos que, expresados de la manera más simple posible, ayuden a entender los mecanismos que dan lugar a dicho proceso.
140
LOURDES ESTEVA
CONCEPTOS GENERALES
A continuación daremos algunas definiciones básicas: La epidemiología es la rama de las ciencias de la salud que estudia la difusión de las enfermedades transmisibles, especialmente las que se presentan por brotes epidémicos. Una epidemia es un aumento importante, en un territorio y momento determinados, del número de personas afectadas por una enfermedad infecciosa. Se dice que una enfermedad es endémica si persiste todo el tiempo en una zona geográfica. La prevalencia se define como el número de casos de una enfermedad en una población en un tiempo dado La incidencia se define como el número de casos nuevos en una población por unidad de tiempo. Para que una enfermedad infecciosa se vuelva epidémica se necesita la conjunción de una serie de condiciones que permitan que el proceso de infección se desarrolle en la población. Una de estas condiciones es obviamente la presencia del agente infeccioso, el cual puede considerarse el factor causal de la enfermedad. Igualmente, es necesaria la presencia de un individuo susceptible que sirva de huésped al agente infeccioso. Dependiendo de las condiciones sociales existentes (alimentación, vivienda, costumbres, condiciones ambientales, etc.) el desarrollo del proceso puede verse fortalecido o debilitado. Para que una enfermedad infecciosa se difunda en una población se necesita –en cierto tipo de enfermedades– la presencia de un agente transmisor de la infección. Este agente transmisor, o vector de transmisión, puede tomar la materia infecciosa de individuos infectados o de algún otro lugar y depositarla en los individuos susceptibles de adquirir la enfermedad. Ejemplos de enfermedades que se transmiten con la participación de un vector transmisor son el paludismo, el dengue, la fiebre amarilla y la peste, entre otras. En muchas enfermedades infecciosas, dicho agente transmisor no interviene y la enfermedad se transmite directamente de un individuo infectado a otro susceptible. A este tipo de enfermedades se les conoce como enfermedades de transmisión directa, y los ejemplos más comunes son el sarampión, la varicela, la rubeola, la influenza, la poliomielitis y las enfermedades de transmisión sexual.
EL MODELO DE KERMACK Y MCKENDRICK
141
Otras enfermedades se transmiten por una fuente común, como un depósito de agua contaminada. Entre este tipo de enfermedades se encuentra la tifoidea, el cólera y la amibiasis. Las investigaciones médicas demuestran que, para muchas enfermedades infecciosas, es necesario que transcurra un cierto tiempo a partir de haber sido infectado, llamado periodo de latencia o de exposición, para que dicho individuo infectado pase a ser un individuo infeccioso. Así, en el periodo de latencia el individuo está infectado, pero no es infeccioso. En general, dada una enfermedad, el periodo de latencia es el mismo para todos los individuos. Cuando un individuo adquiere la infección, los síntomas no se manifiestan necesariamente de manera inmediata; éstos aparecen posteriormente. El periodo que transcurre desde el momento de haber sido infectado hasta el momento en que aparecen los primeros síntomas se llama periodo de incubación. El periodo de incubación no tiene por qué coincidir con el periodo de latencia. El ejemplo más sobresaliente de esta situación es el sida, donde la diferencia entre ambos periodos puede ser de años. En particular, cuando el periodo de incubación es mayor que el de latencia, hay en la población presencia de individuos infecciosos a los cuales es imposible detectar sin análisis de laboratorio. El periodo en el que un individuo infectado es capaz de transmitir la enfermedad se llama periodo infeccioso y puede durar unos cuantos días o el resto de vida del infeccioso. Este periodo da inicio una vez que ha terminado el periodo de latencia.
MODELO DE KERMACK Y MCKENDRICK
En esta sección expondremos lo que se conoce como el “modelo clásico de Kermack y McKendrick” (1927) que resulta ser un caso particular del modelo original. A pesar de su simplicidad, este modelo puede darnos información relevante acerca de un proceso epidémico y, de hecho, en muchos casos describe adecuadamente epidemias específicas. Este modelo supone que el proceso de infección es de transmisión directa, esto es, la enfermedad se transmite directamente de un individuo infeccioso a uno susceptible. Como estudiaremos la aparición de brotes epidémicos, no es necesario considerar los nacimientos y muertes ocurridos en la pobla-
142
LOURDES ESTEVA
ción debido a que, por lo general, las epidemias tienen un periodo de duración relativamente corto (menos de un año) y, por lo tanto, la dinámica demográfica de la población afecta poco a la de la enfermedad. Cabe mencionar que en el caso en que estemos interesados en el comportamiento de una enfermedad durante un lapso largo, será necesario incluir los nacimientos y muertes de la población, ya que éstos sí influyen en su dinámica. El proceso de difusión de una enfermedad dentro de una población puede estudiarse a partir de modelos compartamentales. Esto es, dividimos a la población total en diferentes clases, las cuales cambian con el tiempo t; usualmente se distinguen tres clases: 1. Los susceptibles S, la cual consiste de todos los individuos que son propensos a adquirir la infección. 2. Los infecciosos I, la cual se compone de aquellos individuos que pueden transmitir la enfermedad a otros. 3. Los eliminados Z, compuesta de aquellos individuos que son eliminados de la interacción susceptible-infeccioso, ya sea porque se recuperaron de la enfermedad y son inmunes a ella, o porque están aislados del resto de la población. Se pueden considerar otras clases epidemiológicas: la de los infectados latentes, que incluye a todos aquellos individuos que han adquirido la enfermedad pero que aún no la transmiten, o la de los portadores asintomáticos, integrada por quienes aparentemente están sanos, pero son portadores del agente infeccioso y son capaces de transmitirlo. La incorporación de otras clases al modelo dependerá, por supuesto, de las características de la enfermedad en cuestión. Para describir la dinámica de la enfermedad basta conocer el número de individuos de las clases arriba mencionadas al tiempo t, el cual denotaremos por S(t), I(t) y Z(t), respectivamente. Ahora bien, es claro que S(t), I(t) y Z(t) dependen del flujo de una clase epidemiológica a otra. En el modelo que formularemos aquí, dicho flujo está regido por las siguientes suposiciones: a) La población a considerar es constante y de tamaño igual a N. No consideraremos nacimientos y muertes en el proceso de difusión de la enfermedad. b) La población es cerrada, esto es, no hay inmigración ni emigración. c) La población está homogéneamente mezclada. El proceso de transmisión de la enfermedad está regido por la ley de acción de masas, la cual –como mencionamos anteriormente– postula que los
EL MODELO DE KERMACK Y MCKENDRICK
143
susceptibles se convierten en infecciosos a una tasa proporcional al producto del número de individuos de ambas clases, con constante de proporcionalidad l, la cual es una medida de la eficiencia de la transmisión de la enfermedad y depende, entre otras cosas, de la virulencia del agente infeccioso, la resistencia del huésped y las condiciones ambientales. Puesta en el lenguaje matemático, nuestra suposición dice que la tasa de pérdida de personas susceptibles y la ganancia de infecciosas es igual a λSI. d) El periodo de latencia desde el momento de la exposición hasta aquel en que el individuo comienza a ser infeccioso es lo suficientemente pequeño como para tomarlo en cuenta; esto es, un individuo susceptible que contrae la enfermedad se convierte inmediatamente en infeccioso. e) Los infecciosos abandonan su clase para formar parte de los eliminados a una tasa per capita constante e igual a γ. Entonces, la proporción de individuos expuestos (e inmediatamente infecciosos) en el tiempo t0, que son aún infecciosos al tiempo t0 + t está dado por exp(–γt), de donde se obtiene que el periodo esperado de permanencia en la clase infecciosa es 1/γ. Antes de pasar a la formulación del modelo, daremos la definición de dos conceptos fundamentales en la teoría epidemiológica: el número reproductivo básico de una enfermedad y el umbral, los cuales nos permiten caracterizar globalmente las distintas enfermedades. El número reproductivo básico, denotado comúnmente por R0, se define como el número promedio de infecciones secundarias producidas por un individuo durante su periodo infeccioso,
λN γ en una población donde todos son susceptibles (esto es S = N). En nuestro caso, R0 toma la forma: R0 =
λN (1) γ El valor de R0 dependerá entonces de las características epidemiológicas de la enfermedad (reflejadas en los coeficientes λ y γ), así como de la población (reflejada en N ) . Entonces, para una población y una enfermedad particulares, R0 toma un valor constante. Los umbrales son valores críticos de variables como el número R0 =
144
LOURDES ESTEVA
reproductivo básico, la densidad de la población susceptible, o la densidad de la población vector (en caso de enfermedades que se transmitan vía un vector), los cuales deben ser rebasados para que ocurra un brote epidémico, o una enfermedad permanezca de forma endémica. De acuerdo con las suposiciones a), b), c) y d), el modelo de Kermack y McKendrick se representa esquemáticamente por el siguiente diagrama de flujo: γI
λSI
S → I → Z λSI
γI
S → I → Z En un intervalo de tiempo ∆t se producen λSI∆t infecciones nuevas y γI∆t individuos son eliminados. Por lo tanto, de acuerdo con el diagrama de flujo, el cambio promedio de las tres poblaciones S, I y Z, está dado por: ∆S = ±λSI∆t ∆I = λSI∆t ± γI∆t ∆Z = γI∆t Dividiendo entre ∆t y tomando el límite cuando t tiende a cero, se obtiene el siguiente sistema de ecuaciones diferenciales: S’ (t ) = – λS (t )I (t )
(2)
I ’ (t ) = λS (t )I (t ) – γI (t )
(3)
Z ’ (t ) = γI (t )
(4)
donde ’ denota derivada con respecto a t. La formulación matemática del problema epidémico está completa al dar las condiciones iniciales (5) S(0) = S0 ≥ 0, I (0) = I 0 ≥ 0, Z (0 ) = Z 0 = 0 Al haber impuesto la condición Z(0) = 0, estamos suponiendo que al inicio del proceso de difusión de la enfermedad la población sólo está constituida por individuos susceptibles e infecciosos. Esto es, la población es virgen ante la enfermedad y, por lo tanto, nadie la ha superado. Así, podemos asegurar que S0 + I0 = N. Como los eliminados Z(t) pueden encontrarse a partir de la relación
EL MODELO DE KERMACK Y MCKENDRICK
Z (t ) = N ± S (t ) ± I (t )
145 (6)
entonces, es suficiente considerar el problema de valores iniciales para las ecuaciones (2) y (3). Una pregunta fundamental en una situación epidémica es la siguiente: conociendo los parámetros λ, γ y el número inicial de susceptibles S0 e infecciosos I0, queremos determinar cuándo la infección se propagará en la población. En caso de que esto suceda, estamos también interesados en conocer su curso temporal y, por supuesto, cuándo empezará a declinar. La primera pregunta se puede responder evaluando las ecuaciones (2) y (3) al tiempo t = 0 : I ’ (0 ) = I 0 (λS 0 – γ )
(7)
Si I0 > 0 y S0 > γ/λ, de la ecuación (7) se deduce que I’(0) es mayor que cero y, por lo tanto, el número inicial de infecciosos aumentará y habrá un brote epidémico. Una situación epidémica existe formalmente si I(t) > I0 para alguna t > 0. Si por el contrario, I0 > 0 y S0 < γ/λ, entonces I ’ (0) es menor que cero. Por otro lado, de la ecuación (2) se tiene que S ’ (t) ≤ 0 para toda t ≥ 0, de donde S(t) ≤ S0 para toda t ≥ 0. Entonces, si inicialmente se tiene la condición S0 ≤ γ/λ, se cumplirá siempre la relación I ’ (t ) = I (λS – γ ) ≤ 0
(8)
lo cual implica, a su vez, que I0 ≥ I(t) para toda t > 0. En este caso la epidemia no prosperará en la población. Como So
λ So λN So = = Ro N γ N γ
λ S 0 λN S 0 = = R0 N γ N γ el sencillo análisis del párrafo anterior nos dice que S0
So Ro = 1 N S0 R =1 N 0
(9)
146
LOURDES ESTEVA
es la condición umbral que determina la existencia de una epidemia. S0R0/N es número promedio de infecciones secundarias producidas por un infeccioso, en una comunidad donde inicialmente existen S0 susceptibles. Se tiene entonces el siguiente resultado: si el número promedio de infecciones secundarias producidas por un infeccioso en una comunidad con un número inicial de susceptibles S0 es menor que uno, el número de infecciosos decrecerá con el tiempo y no habrá epidemia. Si por el contrario, un infeccioso produce, en promedio, más de una infección secundaria, el número de infecciosos aumentará dando lugar a un brote epidémico. Podemos obtener otros resultados analíticos del modelo. Resolviendo las ecuaciones algebraicas que se obtienen igualando la parte derecha de (2) y (3) a cero, vemos que las soluciones de equilibrio (esto es, las soluciones constantes) del modelo están dadas por (S, 0), donde S es cualquier valor entre 0 y N. Para I ≠ 0, las soluciones de (2) y (3) se pueden obtener de la siguiente ecuación dI N = ±1 + dS R0S
(10)
la cual se resuelve por el método de separación de variables, y obtenemos S N ln S0 I (S) = ±S+ N (11) R0 La figura 1 ilustra las trayectorias solución de (2) y (3) en el plano fase (S, I), obtenidas a partir de la ecuación (10). Cada curva está determinada por las condiciones iniciales I(0) = I0, S(0) = S0 con S0 + I0 = N. Si las condiciones iniciales están a la izquierda de la línea S = N/R0, I(t) es decreciente; si se encuentran a la derecha, entonces I(t) crece hasta un máximo el cual se encuentra sobre dicha línea, y después decrece a cero. En todos los casos se observa lo ilustrado en la figura 1. En la gráfica se observa también que S(t) es decreciente y se acerca a un valor límite denotado por S(∞), el cual es la única raíz entre 0 y N de la ecuación N ± S( ∞ ) +
N S( ∞ ) ln =0 R0 S0
(12)
147
EL MODELO DE KERMACK Y MCKENDRICK I N
S+I=N
Imax
N
S
N
Figura 1. Trayectorias en el plano fase SI para el modelo de Kermack y McKendrick.
Una consecuencia interesante de este análisis es que la enfermedad desaparece por falta de infecciosos y no por falta de susceptibles. Esto es, una vez que la epidemia ha pasado, quedan aún individuos susceptibles. En caso de que exista una epidemia, nos gustaría saber qué tan severa es. Esto se obtiene encontrando el punto máximo de infectados denotado por Imax. Este máximo ocurre cuando I’ = 0 e I ≠ 0. De la ecuación (3) vemos que el máximo ocurre cuando S = N/R0. Sustituyendo este último valor en la ecuación (11), 1 ln( N / R0S0 ) Imax = N 1 ± ± R0 R0
(13)
La figura 2 muestra la prevalencia de I(t) como función del tiempo obtenida a partir del modelo; la incidencia también se incrementa hacia un pico y después decrece. En la figura 3 se muestran los casos de hepatitis infecciosa en un campo de refugiados en Tug Wajale, Somalia, a partir del 15 de marzo hasta el 25 de octubre de 1986. Aunque los datos son irregulares, la forma general de la curva es consistente con la de la figura 2.
148
LOURDES ESTEVA
400
infecciosos (t)
300
200
100
días 50
100
150
200
250
300
350
400
Figura 2. Curva de prevalencia obtenida de las ecuaciones (2)-( 3). Los valores de los parámetros y las condiciones iniciales son N = 1000, λ = 0.0005/día, 1/γ = 7 días, S0 = 990, I0 = 10. En este caso R0S0 = 3.46.
En general, el número reproductivo básico R0 de una enfermedad es difícil de estimar directamente de las curvas de prevalencia, ya que usualmente no se conocen todos los parámetros involucrados en el modelo. Sin embargo, a partir de la ecuación (4.11) se puede hacer una estimación de dicho número, si se tiene conocimiento de las fracciones inicial y final de susceptibles en una epidemia que ocurre en una población homogénea, y no hay vacunación durante la misma. Podemos pensar que al inicio de la epidemia, I0 es muy pequeño y que por lo tanto S0 = N. Despejando R0 de (11), se obtiene S0 S∞ R0 = S0 ± S∞ ln
(14)
donde S = S / N denota la proporción de susceptibles en la población de tamaño N. Las proporciones S 0 y S∞ pueden estimarse a partir de estudios serológicos; esto es, haciendo análisis de respuesta inmunológica en muestras de sangre de individuos de una población. En estudios serológicos realizados a la población de alumnos de primer año de la Universidad de Yale, Evans (1982) encontró que la
50
Número de casos
40
30
20
10
0 5
22
29
MAR
5
12
19
ABR
26
3
10
17
24
MAY
31
7
14
21
JUN
28
5
12
19
JUL
26
2
9
16
23
AGO
30
6
13
20
SEP
27
4
11
18
25
OCT
Figura 3. Casos de hepatitis en un campo de refugiados de Tug Wajale, Somalia, marzo 15 a octubre 25, 1986. Datos tomados de Centers for Disease Control, Enterically transmited non–A, non B-hepatitis, East Africa, Morbidity and Mortality Weekly Report, 1987.
150
LOURDES ESTEVA
fracción de susceptibles a la rubéola, al principio y al final del año escolar, fue de 0.25 y 0.0965, respectivamente. Entonces, la ecuación (14) nos da la estimación R0 = 6.2; es decir, durante el año escolar, un enfermo de rubéola infectó en promedio a 6 personas. Para la influenza, la fracción de susceptibles al principio y al final del año escolar fue de 0.911 y 0.5138, lo que da un valor estimado del número reproductivo básico para esta enfermedad de R0 = 1.44.
VACUNACIÓN
En esta sección veremos una aplicación del modelo de Kermack y McKendrick a la elección de estrategias de vacunación. Decimos que una población tiene inmunidad de masas hacia una enfermedad si un número suficientemente grande de personas son inmunes a ella, de tal forma que la entrada de un infeccioso a la población no dará lugar a un brote epidémico. Si la población está homogéneamente mezclada, y los individuos inmunes están distribuidos uniformemente en la población, entonces la inmunidad de masas se obtendrá si una fracción suficientemente grande de individuos es inmune. De acuerdo con el modelo de Kermack y McKendrick, la difusión de una infección se previene si se cumple la relación R0S < 1, esto es, la fracción de susceptibles debe ser lo suficientemente pequeña como para que, en promedio, un infeccioso infecte menos de una persona durante su periodo infeccioso. Una forma de alcanzar la inmunidad de masas en una población es vacunando a los susceptibles de ésta. Si denotamos por Z a la fracción de la población que es inmune por vacunación, entonces S = 1 – Z cuando I = 0. De aquí que la inmunidad de masas se alcanza si R0(1 – Z ) < 1 o Z > 1±
1 R0
(15)
Así por ejemplo, si R0 = 5, al menos el 80% de la población debe ser inmune para alcanzar inmunidad de masas. Si R0 es 10, entonces el 90% debe ser inmune para alcanzar inmunidad de masas. Estos resultados son intuitivamente razonables, ya que un mayor número reproductivo básico corresponde a una enfermedad que se propaga
EL MODELO DE KERMACK Y MCKENDRICK
151
más fácilmente, y por lo tanto, un mayor porcentaje de la población debe ser inmune para alcanzar inmunidad de masas. Anderson (1982) estimó, para varias enfermedades en distintos tiempos y países, el número reproductivo básico y la proporción de la población que debe ser vacunada para alcanzar inmunidad de masas. Así, por ejemplo, para el sarampión en Inglaterra durante los años de 1956 a 1959 se encontró un estimado de 15.6 para R0 ; por lo que en ese caso, al menos el 94% de la población debió haber sido vacunada para alcanzar inmunidad de masas. Por varias razones, una fracción de aquellos que son vacunados no se convierten en inmunes. Esta fracción varía usualmente entre los valores 0.05 y 0.10, pero en algunas enfermedades, como por ejemplo la influenza, puede llegar a valer hasta 0.4. La eficacia de la vacuna denotada por VE se define como la fracción de aquéllos que son vacunados y se convierten en inmunes. Por ejemplo, la vacunación en contra del sarampión y rubéola a la edad de 15 meses, tiene una eficacia de aproximadamente 0.95. Considerando la eficacia de la vacuna, la fracción R0 de vacunados e inmunes satisface Z = (V)(VE), donde V es la fracción de vacunados en la población. Si sustituimos Z en la desigualdad (15) obtenemos que la inmunidad de masas se alcanza si la fracción vacunada satisface la desigualdad 1 1 V > 1 ± R0 VE
(16)
Esta desigualdad nos dice cuál es la proporción de la población que debe ser vacunada, considerando la eficacia de la vacuna. Ramos (1996) calculó el valor R0 = 10.02 para el sarampión en México, durante los años 1990-1993. Usando una eficacia de la vacuna igual a 0.95 encontró, a partir de la ecuación (15), que V > 0.95; esto es, se debe vacunar al menos al 95% de la población en México si se quiere obtener inmunidad de masas en contra del sarampión.
CONCLUSIONES
Como hemos visto a lo largo de este artículo, aun el modelo epidemiológico más simple nos puede dar información relevante acerca del proceso de difusión de una enfermedad. Asimismo, a partir de él se
152
LOURDES ESTEVA
pueden obtener aplicaciones de interés práctico en el campo de la medicina preventiva, como la elección de estrategias de vacunación. El modelo de Kermack y McKendrick provee las bases para la elaboración de modelos más refinados. La mayoría de los modelos que se aplican en la actualidad a enfermedades específicas son mucho más complicados, pues contemplan una variedad de aspectos que no son cubiertos por el modelo presentado aquí. Así, por ejemplo, existen modelos que contemplan las oscilaciones estacionales de ciertas enfermedades (Dietz, 1975; Hethcote y Levin, 1988). En este artículo hemos supuesto que la población es uniforme y se mezcla de manera homogénea; sin embargo, muchas enfermedades se propagan de distinta manera en diferentes grupos de la población (tal es el caso de las enfermedades venéreas). Por tanto, hay modelos (Hethcote y Levin, 1984) que consideran a la población dividida en subpoblaciones en las cuales la enfermedad tiene diversas características epidemiológicas. También existen modelos que incorporan la estructura de edad de la población huésped, ya que es claro que para muchas enfermedades la fuerza de la infección depende no sólo del tiempo sino también de la edad (Hoppenstead, 1974). Asimismo, hay investigaciones enfocadas hacia el estudio de la difusión espacial de una enfermedad (Rvachev y Longini, 1985; Murray, 1989). Por último, mencionaremos que el estudio de la difusión de una enfermedad puede realizarse a través del enfoque probabilístico. A este respecto, Bailey (Bailey, 1975) hace una recopilación de diferentes modelos probabilísticos en epidemiología.
BIBLIOGRAFÍA
Anderson, R. M. 1982. “Directly transmitted viral and bacterial infections of man”, en R. M. Anderson (ed.), Population dynamics of infectious diseases. Theory and Applications, Londres, Chapman and Hall, 1-39. ——- y R. M. May. 1982. “Directed transmitted infectious diseases: control by vaccination”, Science, núm. 215, 1053-1060. Bailey, N. T. J. 1975. Mathematical Theory of Infection Diseases, 2a. ed., Londres, Griffin. Daley, D. J. y J. Gani. 1999. Epidemic Modelling. Cambridge Studies in Mathematical Biology, C. Cannings et al. (eds.), Cambridge, Cambridge University Press. Dietz, K. 1975. “The incidence of infectious diseases under the influence of
EL MODELO DE KERMACK Y MCKENDRICK
153
season fluctuations”, en Berger, J. et al. (eds.), Mathematical Models in Medicine, Nueva York, Springer-Verlag, 1-15 (Lecture Notes in Biomathematics, 11). Evans, A. S. 1982. Viral Infections on Humans, 2a. ed., Nueva York, Plenum Medical Book Company. Farr, W. 1840. “Progress of epidemics”, Second Report of the Registrar General of England and Wales, Londres, 91-98. Hammer, W. H. 1906. “Epidemic disease in England”, Lancet, vol. I, 733-754. Hethcote, H. W. 1976. “Qualitative analysis for communicable disease models”, Math. Biosc., núm. 28. 335-356. ___ 1983. “Measles and rubella in the United States”, Am. Journal of Epidemiology, núm. 117, 2-13. ___ y Yorke J. A. 1984. Gonorrea Transmission Dynamics and Control, Heidelberg, Springer-Verlag (Lecture Notes in Biomathematics, 56). ___ y Levin S. A. 1988. “Periodicity in epidemiological models”, en Levin, S. A. et al. (eds.), Mathematical Ecology, vol. II, Nueva York, Springer-Verlag. Hoppenstead, F. C. 1974. “An age dependent epidemic model”, Journal of the Franklin Institute, núm. 295, 325-333. Kermack, W. y A. McKendrick. 1927. “Contributions to the mathematical theory of epidemics”, Proc. Roy. Soc., núm. A 115, 700-721. London, W. A. y J. A. Yorke. 1973. “Recurrent outbreaks of measles, chickenpox and mumps I”, Am. J. Epid., núm. 98, 453-468. Longini, I. M. et al. 1978. “An optimization model for influenza”, Math. Biosci., núm. 38, 141-157. Murray, J. D. 1989. Mathematical Biology, vol. 19, Nueva York, Springer-Verlag (Biomathematics Texts). Ramos, M. L. 1996. Métodos matemáticos de epidemiología aplicados a enfermedades infecciosas en México, tesis de licenciatura, México, Facultad de Ciencias, UNAM. Rvachev, L. A. e I. M. Longini. 1985. “A mathematical model for the global spread of influenza”, Math. Biosci., núm. 75, 3-22. Ross, R. 1911. The prevention of Malaria, 2a. ed., Londres, Murray.
MODELOS MATEMÁTICOS DE LOS RITMOS CIRCADIANOS: DE WIGGLESWORTH A WINFREE MIGUEL LARA-APARICIO*
En la naturaleza es común hallar fenómenos de tipo oscilatorio cuyos periodos cubren una amplia gama de valores que van desde los milisegundos hasta los años (de esto último podemos citar como caso el aumento de la actividad de las manchas solares cada once años). Como una muestra, consideremos el cuerpo humano, en el que se detectan varios tipos de oscilaciones (o ritmos como los conocen los biólogos): La respiración, por ejemplo, es un ritmo que mientras hay vida no se interrumpe. Se genera como consecuencia de que el centro respiratorio bulbar envía series rítmicas de impulsos nerviosos a los músculos del tórax y el diafragma. En un estado de tranquilidad se podría pensar que, fuera de la respiración, no hay ninguna otra actividad rítmica. Sin embargo, otros ritmos internos se desarrollan dentro del cuerpo humano, así como la aparición de nuevas células que equilibra la desaparición de las viejas, la constante renovación de las células de la piel, del cabello, de las uñas, de la sangre, de la flora intestinal, la síntesis y la degradación de distintas sustancias, la actividad eléctrica de las células nerviosas. También hay muchos otros ritmos en la naturaleza en los que el periodo que muestran tiene valores muy próximos a los de algunas señales externas bien establecidas, como las mareas, el día y la noche, las fases de la luna, las estaciones del año. Piénsese en la migración anual de las aves o en la actividad que muestran algunos crustáceos y que se relaciona con el ritmo de las mareas. * Departamento de Matemáticas, Facultad de Ciencias, Universidad Nacional Autónoma de México, [email protected]. Este trabajo fue apoyado por los donativos de DGAPA: IN-228399 y de CONACYT: 27481-N. El autor desea agradecer la ayuda editorial de José Luis Gutiérrez.
[154]
MODELOS MATEMÁTICOS DE LOS RITMOS CIRCADIANOS
155
Como último ejemplo considérese la existencia de ritmos que tienen un periodo semejante al día y la noche, cuya señal influye, de manera importante, en muchas funciones de los organismos. Estos ritmos se han denominado ritmos circadianos (circa = casi, diem = día), y son de los que nos ocuparemos principalmente. ¿Cómo identifica un biólogo un ritmo circadiano? Requiere verificar que el ritmo en cuestión consta de varias características esenciales como: i) Al registrar cierta actividad en condiciones ambientales constantes, tal actividad muestra oscilaciones cercanas, pero diferentes, de 24 h. ii) Los parámetros de la oscilación (frecuencia, amplitud y fase) dependen de la cantidad de luz que recibe el organismo. iii) El ritmo debe ser capaz de ser sincronizado mediante señales externas, en particular el día y la noche. iv) El ritmo debe ser innato. Algunos autores mencionan otras características de los ritmos circadianos aun cuando éstas no se han universalizado; tal es el caso de Pittendrigh (uno de los precursores más famosos de este tema), quien sugiere que los ritmos deben ser indemnes a las “perturbaciones” de origen químico; también propuso que tienen mecanismos de compensación de los cambios de temperatura (Pittendrigh, 1960). En todo ritmo circadiano subyacen las siguientes estructuras: 1. Un marcapaso. 2. Un sistema sincronizador. 3. Una serie de componentes donde se exprese el ritmo.
ANTECEDENTES
Desde el punto de vista biológico se pueden considerar precursores del estudio de los ritmos circadianos, con aportaciones fundamentales para su estudio, entre otros, a los siguientes investigadores: Bünning, Aschoff y Pittendrigh. Bünning, en la década de los años treinta, comienza, prácticamente, el estudio sistemático de los ritmos circadianos en plantas e insectos y sienta, con ello, las bases para su caracterización (Bünning, 1960).
156
MIGUEL LARA-APARICIO
Aschoff relaciona de manera importante los factores externos (como la luz) en la manifestación y comportamiento de los ritmos circadianos (Aschoff, 1960). Pittendrigh tiene, entre otras distinciones, el mérito de haber aglutinado a un grupo muy fuerte de alumnos y colaboradores, el cual dio un impulso al desarrollo del análisis de los ritmos circadianos, aun con enfoques matemáticos. Por la parte matemática, hay trabajos fundamentales que se desarrollaron a partir de la década de los años sesenta, en los que se pretende, fundamentalmente, hacer una simulación matemática de diversos aspectos de los ritmos. Posteriormente, y en forma paulatina, se ve que la problemática generada por la ritmicidad queda circunscrita al estudio teórico de las oscilaciones no lineales. De tal forma, se restringirá el intervalo de los precursores de la fundamentación matemática de los ritmos circadianos, desde la década de los años sesenta hasta la de los ochenta. Por lo anterior, nos podemos dar cuenta de que el estudio matemático de los ritmos es realmente muy reciente y aún hay mucho por hacer y decir sobre el tema.
LOS PRECURSORES
En un simposio sobre ritmos biológicos, llevado a cabo en Cold Spring Harbor, Estados Unidos, Kalmus y Wigglesworth (1960) presentaron un trabajo titulado Shock excited system as models for biological rhythms, en el que, para el estudio matemático de un ritmo, asocian a éste un ciclo límite. Este hecho determina la posibilidad de enmarcar el estudio de los ritmos circadianos dentro de la teoría de los sistemas dinámicos. En este trabajo, Kalmus y Wigglesworth (biólogo el primero y matemático el segundo) marcan los requerimientos de sus modelos –de tipo hidráulico–, a los que no sólo les pedirán las propiedades usuales de excitabilidad y de oscilación autosostenida, sino que, además, tengan las siguientes características: i) Serán excitables mediante perturbaciones, es decir, mediante la alteración de un factor que también cambia las propiedades internas del sistema.
MODELOS MATEMÁTICOS DE LOS RITMOS CIRCADIANOS
157
ii) Mostrarán “transitorios” inmediatamente después de que se apliquen cambios en las condiciones externas. iii) Oscilarán con un periodo aproximadamente igual en los diferentes niveles de tales factores externos. iv) Podrán fluir en forma oscilatoria cuando no sean perturbados. Después definen lo que se entiende por retrato fase y el significado de ciclo límite; finalmente, muestran la construcción de un modelo simplificado de dos “sustancias” cuyas concentraciones son en el tiempo t, x(t), y(t) y donde las razones de cambio de las cantidades totales presentes se especifican de la siguiente manera, cuando la variable externa es constante: 1. La sustancia y se transforma en la sustancia x con una rapidez K(y-x), que tan sólo depende de (y – x); 2. La sustancia y también se renueva (de un “reservorio”) con una rapidez que depende únicamente de x, digamos F(x), 3. La sustancia x decae con una rapidez G(x), que depende sólo de x, Si las cantidades totales presentes son Ax, By, donde A y B son constantes, tenemos el siguiente sistema de ecuaciones diferenciales que modelan el proceso: . Ax = K ( y – x ) – G (x ) . By = –K ( y – x ) + F (x ) donde, como siempre, el punto sobre cada variable indica su derivada con respecto al tiempo. Se puede considerar una variable externa θ que puede ser constante o puede variar (como la temperatura, la presión barométrica, etcétera). A esta variable externa θ la hacen presente, de forma lineal y de manera implícita, en la rapidez de transferencia, a saber: K(y – x) = k(y – x + h), donde k es constante y h depende sólo de θ. Luego maniobran a fin de reducir este sistema a una ecuación lineal de segundo orden y llegan a una ecuación diferencial muy conocida en mecánica no lineal, de la siguiente forma:
158
MIGUEL LARA-APARICIO
.. A + Bk g ' (x ) . k x= + g (x ) – f (x ) = 0 x + AB A AB donde f(x) = F(x) – F(0), g(x) = G(x) – G(0) y F(0) = G(0) Finalmente, muestran la condición para la existencia de una solución periódica estable para esta última ecuación. En esos mismos históricos Proceedings aparecen dos artículos de K. Klotter (Klotter, 1960a, b). Uno de ellos, “General properties of oscillating system”, resulta de importancia fundamental pues, ilustrado con el oscilador armónico y alguna generalización del mismo, precisa varios conceptos, que son esenciales para emprender y comprender la simulación matemática. Así, identifica las oscilaciones autónomas con las oscilaciones de tipo endógeno, a las oscilaciones no autónomas con las de tipo exógeno, define un sistema libre como aquél que no es capaz de oscilar e indica que las oscilaciones autosostenidas aparecen sólo en los sistemas que son capaces de autooscilar. En biología se usan varios términos para designar la frecuencia o periodo de las oscilaciones autosostenidas; Pittendrigh las llama oscilaciones naturales u oscilaciones libres (free running). Aschoff las denomina oscilaciones espontáneas. Otra manera de enfocar las oscilaciones endógenas consiste en observar que si la energía disipada en un ciclo se restaura a partir de una fuente no periódica entonces la oscilación todavía es autónoma y se conoce como auto-oscilación. De acuerdo con la cantidad de energía disipada durante un ciclo, en relación con la energía total del sistema, las oscilaciones autosostenidas son oscilaciones recuperadas o bien oscilaciones de relajación. Como ejemplo de las oscilaciones del primer tipo podemos considerar al péndulo de un reloj, cuyo muelle le restituye la energía perdida en cada oscilación. Véase la figura 1. Este sistema tiene como propiedades que la amplitud de la oscilación se mantiene casi constante y que la frecuencia de oscilación es casi la misma que la frecuencia natural del péndulo libre. Para las oscilaciones de relajación podemos considerar las oscilaciones generadas por un circuito como el mostrado en la figura 2. Al principio, la carga del capacitor es nula y éste se va cargando poco a poco hasta que llega un momento en que se descarga a través de la lámpara de gas de neón de manera abrupta, lo que da por
[
]
MODELOS MATEMÁTICOS DE LOS RITMOS CIRCADIANOS
159
Figura 1. Ejemplo de una oscilación “recuperada”.
S
+
–
F.e.m
–
+ C
–
Figura 2. Oscilador de relajación y su gráfica.
resultado una onda como la de la figura 2. Este oscilador se distingue por no generar una onda senoidal. Un ejemplo muy importante, que inicialmente apareció dentro de la electrotecnia y ha resultado fundamental para el estudio de las oscilaciones no lineales, es el oscilador de Van der Pol:
160
MIGUEL LARA-APARICIO
.. . y – ε (1 – α 2 y 2 ) y + ω 2 y = 0 donde ε, α y ω son constantes positivas. Esta ecuación diferencial tiene como solución una oscilación autosostenida con un amplia variedad de formas: Si ε ≤ 1 entonces la oscilación es recuperable, digamos como en el péndulo. Si ε ≥ 1 entonces la oscilación es de relajación. Por otra parte, los sistemas no autónomos se definen de la siguiente manera: Si existe una fuente de energía no constante y periódica que depende del tiempo, la cual actúa sobre un sistema, entonces éste recibe el nombre de no autónomo y se dice que las oscilaciones son forzadas. Los casos que aparecen varían dependiendo de que la frecuencia forzadora actúe sobre un sistema no auto-oscilante o sobre uno auto-oscilante. Un fenómeno importante desde todos los puntos de vista resulta ser el de los transitorios. Klotter trata de precisar su definición al decir que un transitorio es un régimen intermedio que va desde las condiciones de arranque hasta que el sistema se estabiliza. A partir del ordenamiento que hace Klotter de los conceptos inherentes a los sistemas oscilatorios aparecen modelos que tratan de simular diversos aspectos de los ritmos circadianos. En forma casi paralela a los trabajos de Klotter y Wigglesworth destacan los de Wever (1965, 1987) que se refieren a la ritmicidad circadiana en el humano. Uno de los valores intrínsecos de estos trabajos radica en que sus modelos corresponden, directamente, a los ritmos circadianos y no usa, como en el caso de Klotter y Wigglesworth, modelos paralelos. A partir de trabajos experimentales efectuados por él en el Instituto Max Planck de Psiquitaría, construye un modelo dinámico basado en un oscilador tipo Van der Pol forzado del siguiente tipo: . .. . .. y + ε ( y 2 + y – a ) y + y + gy 2 = z + z + z donde y representa la variable biológica bajo consideración (por ejemplo, la actividad, la temperatura corporal o la concentración de una hormona) y z representa el estímulo externo de control
161
MODELOS MATEMÁTICOS DE LOS RITMOS CIRCADIANOS
(por ejemplo, la intensidad de iluminación, la fuerza de los contactos sociales o la intensidad de un campo eléctrico) el cual puede ser constante o una función del tiempo t. ε, α y g son parámetros que pueden variar de especie en especie (desde un punto de vista matemático, ε representa la rapidez, dadas las condiciones iniciales, con la cual el sistema se aproxima al estado estable). En este modelo, al dar un valor predeterminado a z, sólo hay una solución que, por lo regular, es una solución autónoma, y si se permite que z tenga una periodicidad definida también se obtiene una única solución que, comúnmente, es heterónoma. En la figura 3, se muestran siete soluciones de la ecuación con distintos valores de z. Con respecto a Wever cabe mencionar su vasta producción en el tema, pues en un periodo que va de 1962 a 1987 publica 55 artículos. Un hecho interesante, sobre el cual conviene hacer una reflexión, es que la ecuación de Van der Pol es un caso particular de la ecuación de Lienard: . .. x + f (x )x + g (x ) = 0 ambas ecuaciones surgen por problemas de electrotecnia y, aunque hoy en día el tipo de circuitos que las originó está fuera de moda por tratarse de una válvula electrónica, sus ecuaciones han encontrado gran demanda en otras disciplinas ya que, desde un punto de vista matemático, por ejemplo, se sugieren problemas interesantes como el de ver bajo qué condiciones existen ciclos límite, así como preguntas sobre la unicidad de los mismos. Como referencia enunciamos el siguiente teorema sobre la existencia y unicidad de una solución periódica de la ecuación de Lienard. Teorema (Levinson-Smith). Sean x 0
1
f ∈ C ( R), g ∈ C ( R) y G( x ) = g( s)ds
∫ 0
si f es par, existe un x0 > 0 tal que F(x) < 0 para 0 < x < x0 , y F(x) > 0 para x > x0 , g es impar, xg(x) > 0 para x ≠ 0 , F es monótona creciente en (x, ∞), F(x) → ∞ y G(x) → ∞ cuando x → ∞, entonces la ecuación de Lienard tiene una única solución periódica no constante (aparte de las traslaciones en el tiempo t). Como se puede apreciar, el teorema en cuestión tiene una limitante fuerte y es que pide condiciones de simetría para las funciones f y g.
162
MIGUEL LARA-APARICIO
y 2 z = 3.6
1 0 2
3.1
1 0 2
2.6
1 0 2
2.1
1 0
2 1.6
1 0 2
1.1
1 0 2
0.6
1 0
1
2
3
4
5
6
7
8
9
10
11
12
Tiempo (días)
Figura 3. Soluciones de la ecuación con diferentes valores de la fuerza externa z, a través de la cual se sobrepone, en cada una, la misma fluctuación aleatoria. Los diagramas superior e inferior representan soluciones fuera del rango de oscilación. Aparecen dibujados diez ciclos sucesivos de cada solución. Las áreas sombreadas representan estados “activos” (arriba del umbral fijo en y = 1) (Wever, 1987).
MODELOS MATEMÁTICOS DE LOS RITMOS CIRCADIANOS
163
Sin embargo, el siguiente teorema elimina esta limitación. No obstante, como se puede observar, el teorema asegura la existencia pero no dice nada acerca de la unicidad. Teorema (G. Villari). Supóngase que i) f ∈ C 0 (R) y g ∈ C1(R) ii) f(0) < 0 y que existe un x0 tal que f(x) > 0 para |x| > x0 ; iii) xg(x) > 0, para x ≠ 0 ; ±g( x ) g( x ) iv) min lim sup lim sup f x < ∞ f x ( ) x →∞ ( ) x →∞ v) existen constantes positivas ˜x > x0 y b > 0 tales que f(x) + |g(x)| > b > 0 para |x| > ˜x Entonces, la ecuación de Lienard tiene al menos una solución periódica no constante. Otro importante precursor de la matematización de los ritmos circadianos es Teodosius Pavlidis, ingeniero electricista de origen, quien se preocupa por estudiar los diversos aspectos de los ritmos biológicos, en particular los circadianos, y formula, entre otros, un modelo matemático de tipo topológico, el cual se puede encontrar en su importante libro Biological Rhythms, publicado por Academic Press en 1976. Este libro, debido a su contenido, fungió durante un buen tiempo como la Biblia de los ritmos biológicos ya que reúne y resume tanto definiciones como resultados matemáticos relativos a los ritmos biológicos y brinda, además, resultados novedosos, algunos de ellos del propio Pavlidis. Todo aquel que desee conocer los fundamentos matemáticos y biológicos de los ritmos deberá asomarse a esta obra. Finalmente, aparece en el campo de los ritmos circadianos A. Winfree, biólogo de origen, alumno de Pittendrigh, y doctorado en matemáticas. Sus trabajos en la disciplina lo convierten en el líder durante un largo tiempo. El estudio que hace Winfree de los ritmos circadianos resulta fundamental para el desarrollo de los métodos de los sistemas dinámicos desde los puntos de vista matemático y bioquímico. Sin embargo, dentro de su amplia bibliografía, se considera que la aportación más importante de Winfree al estudio de los ritmos circadianos es un artículo titulado “Twenty-four hard problems about the mathematics of 24-hour rhythms” (1984). En la introducción del mencionado artículo Winfree, quien posee un espíritu festivo, dice que aprovecha la oportunidad de apartarse un poco de lo cotidiano y que en vez de tratar de decir algo, como
164
MIGUEL LARA-APARICIO
puede ser cómo funciona un organismo y hacernos saber qué tan listo ha sido él para averiguarlo, tratará de preguntar a los lectores algo. En seguida, destaca las suposiciones más razonables de aceptación común acerca de los relojes circadianos y plantea lo siguiente, 1. En un ambiente idealmente constante, el reloj del organismo . tiene una cinética autónoma. Esto es, la razón de cambio xi de cada una de las muchas variables de estado xi (por ejemplo, las concentraciones bioquímicas) está dada como función de todas aquellas varia. bles. O sea que se trabaja con un sistema x = R(x, P) donde P representa la salida de parámetros externos desde alguna configuración estándar. 2. Ese sistema tiene un único ciclo límite atractor y regresa a él rápidamente después de la mayoría de los tipos de perturbación transitoria. 3. Para muchos propósitos, comúnmente se considera razonable suponer que el reloj siempre se encuentra suficientemente próximo a su ciclo atractor de manera que su cinética se puede escribir en términos de una variable de fase sencilla φ ∈ (0,1). 4. Un estímulo (como la exposición a la luz visible o el enfriamiento durante la noche) es un cambio de los parámetros P, a partir de O. En muchas situaciones de laboratorio P(t) es cero hasta un tiempo t0, a partir de ahí es constante y luego de un intervalo M es nuevamente cero. 5. La salida observable de un sistema biológico raramente es x o alguna función F(x). Es más común observar variables Oi que están indirectamente afectadas por las variables de estado xi . Dada la ritmicidad regular de x, no es necesario que O sea regularmente rítmica. Sin embargo, a menudo lo es luego de unos cuantos ciclos de irregularidad transitoria. Pero a mi entender, en los transitorios está la esencia de la adaptación temporal y el primer objetivo del cambio evolutivo. Esto es debido a que los ritmos circadianos funcionan en forma autónoma sólo en el laboratorio. En la naturaleza están perpetuamente gobernados por la sucesión día y noche, de manera que su comportamiento es un poco más que una sucesión continuamente renovada de transitorios. La dinámica de los transitorios ha sido universalmente ignorada. Recientemente, ha sido considerada en el caso del ritmo circadiano de amplitud de respuesta a la luz del acocil (Fuentes-Pardo et al., 1995). 6. Algunas veces no observamos O(t) directamente, debido a que el organismo es un mosaico de muchos osciladores semejantes (así
MODELOS MATEMÁTICOS DE LOS RITMOS CIRCADIANOS
165
sucede en muchas células separadas) del cual sólo observamos el comportamiento colectivo mediante mediciones burdas del comportamiento del organismo completo. 7. De acuerdo con el punto 6, estos muchos osciladores individuales quizás no siempre interactúen de una manera adecuada como para mantenerse en sincronía estricta en un ciclo límite atractor común. Esta distribución interna de la fase puede ser una característica vital de los ritmos biológicos. 8. De manera particular, en situaciones que abarquen espacialmente campos externos de células puede haber gradientes espaciales de fase. Las interacciones vecinas pueden lograr sincronizaciones locales sin afectar grandemente el patrón del espacio. A partir de estas observaciones se generaron varios modelos de ciertos aspectos de fenómenos circadianos particulares como, por ejemplo, los modelos de Daan-Berde (1978). Además, estas cuestiones de tipo biológico llevan a planteamientos de naturaleza puramente matemática, cuyo interés no radica en su supuesta aplicación biológica. Como muestra se tiene el trabajo de J. Guckenheimer sobre los conjuntos sin fase (Guckenheimer, 1975). A continuación se describe un importante concepto que aparece en algunas de las preguntas de Winfree. Isocronas. En muchos problemas de contexto biológico se requiere saber la diferencia de tiempo entre dos osciladores independientes cuando ambos se encuentran suficientemente cercanos a un ciclo límite atractor común. Lo que se “conoce” es sólo un estado inicial de cada oscilador en la cuenca atractora pero no en el ciclo atractor. Winfree asegura que existe una foliación de la base atractora en una familia de variedades de 1-parámetro llamadas “isocronas” con la propiedad siguiente: “Todos los estados en una isocrona determinada confluyen en el sentido de que los ritmos que aparecen a partir de tales condiciones iniciales, eventualmente, son indistinguibles.” Se dice entonces que todas estas condiciones iniciales tienen la misma “fase latente” φ, que es una transformación del espacio de estados del oscilador al círculo de las fases Ru → S 1 En la figura 4 se aprecia un dibujo simple de un sistema de isocronas en donde cada partición corresponde a estados que están en la misma isocrona con respecto a la misma intensidad luminosa, lo que implica que su fase es la misma.
166
MIGUEL LARA-APARICIO
0
22
2
20
4
6
18
16
8
14
10 12
Figura 4. Cada partición corresponde a estados que están en la misma isocrona con respecto a cierta intensidad luminosa, lo que implica que su fase coincide. El círculo mayor es el ciclo límite correspondiente a la oscuridad. La sucesión ascendente de ciclos límite tiende a un punto en la parte superior, lo que corresponde a intensidades luminosas sucesivamente más altas que tienden a infinito. Observe que las isocronas convergen a un punto crítico sin fase. En este caso, se observa que en cualquier tiempo existe sólo un ciclo límite y un sistema de isocronas determinado por la intensidad luminosa (Peterson, 1980).
MODELOS MATEMÁTICOS DE LOS RITMOS CIRCADIANOS
167
El círculo mayor es el ciclo límite correspondiente a la oscuridad. La sucesión ascendente de ciclos límite tiende a un punto en la parte superior, el cual corresponde a intensidades luminosas sucesivamente más altas. Se observa, además, que las isocronas convergen al punto crítico sin fase. Se destaca que en cualquier tiempo habrá tan sólo un ciclo límite y un sistema de isocronas determinadas por la intensidad luminosa (Peterson, 1980). En seguida se muestran algunas de las 24 preguntas: ¿Cómo se pueden calcular las isocronas analíticamente? ¿Se puede decir algo más acerca de las isocronas de la cinética arbitraria del ciclo límite, al menos cerca del equilibrio? ¿Es cierto que toda isocrona se aproxima arbitrariamente a todo punto de la variedad sin fase o a su frontera? Como podemos apreciar, Winfree tiende un puente entre los aspectos biológicos experimentales y la matemática puramente teórica. Winfree (1980), además, publica un compendio de todos los resultados acerca de los ritmos, en particular los circadianos, que resulta referencia obligatoria para matemáticos y biólogos que estén interesados en el tema. Hay trabajos importantes obtenidos por otros investigadores que, aunque no se pueden considerar propiamente precursores en el estudio del tema, han marcado en sus trabajos ciertos hitos en el conocimiento de los ritmos circadianos. En la bibliografía aparecen algunas referencias sobre trabajos de otros autores como Strogatz (1978), Rand y Holmes (1980), Kawato (1981), Peterson (1980) y Kopell, (1983) que, aunque matemáticos, muchos de ellos han contribuido a la modelación de los fenómenos rítmicos, en particular los circadianos, a través del análisis matemático puro.
BIBLIOGRAFÍA
Aschoff, J. 1960. “Exogenous and endogenous components in circadian rhythms”, Biological Clocks. Cold Spring Harbor Symp. Quant. Biol., núm. 25, 11-28. Bünning, E. 1960. “Opening address: Biological clocks”, Biological Clocks. Cold Spring Harbor Symp. Quant. Biol., núm. 25, 1-9. Daan, S. y C. Berde. 1978. “Two coupled oscillators: Simulations of the cir-
168
MIGUEL LARA-APARICIO
cadian pacemaker in mammalian activity rhythms”, J. theor. Biol., núm. 70, 297-313. Fuentes-Pardo, B., M. Lara-Aparicio y S. López de Medrano. 1995. “Perturbation of a circadian rhythm by single and periodic signals and its mathematical simulation”, Bulletin of Mathematical Biology, vol. 57, núm. 2, 175-189. Guckenheimer, J. 1975. “Isochrons and phaseless sets”, J. Math. Biol., núm. 1, 259-273. Kalmus, H. y L. A. Wigglesworth. 1960. “Shock excited systems as models for biological rhythms”, Biological Clocks. Cold Spring Harbor Symp. Quant. Biol., núm. 25, 211-216. Kawato, M. 1981. “Transient and steady state phase response curves of limit cycles oscillators”, J. math. Biol., núm. 12, 13-30. Klotter, L. 1960a. “General properties of oscillating system”, Biological Clocks. Cold Spring Harbor Symp. Quant. Biol., núm. 25, 185-188. ___ 1960b. “Theoretical analysis of some biological models”, Biological Clocks. Cold Spring Harb. Symp. Quant. Biol., núm. 25, 189-196. Kopell, N. 1983. “Forced and coupled oscillators in biological applications”, Proceedings of the International Congress of Mathematicians, Varsovia, 16-24. Peterson, E. L. 1980. “A limit cycle interpretation of a mosquito circadian oscillator”, J. theor. Biol., núm. 84, 281-310. Pittendrigh, C. S. 1960. “Circadian rhythms and the circadian organization of living systems”, Biological Clocks. Cold Spring Harb. Symp. Quant. Biol., núm. 25, 150-184. Rand, R. H. y P .J. Holmes. 1980. “Bifurcation of periodic motions in two weakly coupled van der Pol oscillators”, J. Non-Linear Mech., núm. 15, 387399. Strogatz, S. H. 1978. “Human sleep and circadian rhythms: a simple model based on two coupled oscillators”, J. Math. Biol., núm. 25, 327-347. Wever, R. 1965. “A mathematical model for circadian rhythms”, en J. Aschoff (ed.), Circadian Clocks, 47-63. ___ 1987. “Mathematical Models of Circadian One and Multi-Oscillators Systems”, Some Mathematical Questions in Biology. Circadian Rhythms. Lectures on Mathematics in the Life Sciences, núm. 19, 205-265. Winfree, A. 1980. The Geometry of Biological Time, Nueva York, SpringerVerlag. ___ 1984. Nonlinear Oscillations in Biology, Hoppenstead (ed.), Providence, American Mathematical Society (Lectures in Applied Mathematics, 17).
ÍNDICE ONOMÁSTICO
Doppler, 70 Durero, Alberto, 53
Ackerman, 139 Aldane, J. B. S., 14, 36, 84, 85, 87 Anaximandro, 42 Ancona, 107 Anderson, 16, 51 Andrewartha, 94 Arnold, 133 Aschoff, 155, 156, 158
Einstein, 11 Elton, Charles, 94 Elveback, 139 Engels, 42 Farr, 137 Fisher, R. A., 2, 8, 14, 36, 67, 76, 82, 84, 88, 90, 122, 123, 126 Fitzugh-Nagumo, 130 Fleming, 75 Forbes, E., 95 Forbes, S. A., 95 Ford, 16
Bacon, 42 Bailey, 135, 136, 152 Bateson, William, 62, 74, 76, 78 Bernoulli, Daniel, 70, 136 Betti, Enrico, 107 Bizancio, 61 Boltzmann, 23, 48, 74 Boveri, 75 Buffon, 94 Bünning, 155 Castle, 81 Chetverikov, 16 Cocho, Germinal, 2, 5-8, 24, 36, 47, 62 Correns, 75 Cowles, 95 Cuvier, 53, 60, 62 D’Ancona, Umberto, 97, 112 Daan-Berde, 165 Darwin, Charles, 16, 22, 26, 36, 37, 48, 50, 51, 64, 67, 68, 74-78, 97, 111, 131 Daubenton, Louis, 53 Dawkins, Richard, 6, 20, 47-50, 54 Dee, John, 61, 62 Demócrito de Abdera, 29 Descartes, 69 Dobzhansky, Theodosius, 47, 49
Gaertner, 69 Galton, Francis, 76-78 Gause, G. F., 99, 100, 103, 104 Gauss, 70 Gelfand, 133 Gibbs, 48 Gnedenko, 133 Goethe, 61, 62 Goodwin, Brian, 2, 27, 50, 62 Graunt, John, 136 Guckenheimer, J., 165 Hadamard, 107 Haeckel, Ernst, 94 Haldane, J. B. S., 14, 36, 84, 85, 86 Hamilton, 39, 107 Hammer, W. H., 137 Hegel, 31, 42 Heisenberg, 23 Heráclito de Éfeso, 29, 30, 42, 43 Hethcote, H. W., 138, 139, 152
[169]
170 Hilbert, David, 116 Hipócrates, 135 Hodgkin, 130 Holling, C. S., 100, 101, 121 Holmes, 167 Howe, Alexander, 136 Huxley, Julian, 12, 16, 130 Huxley, T. H., 77 Johannsen, 76 Jourdain, 42 Kalmus, 156 Kant, 62 Kauffman, Steven, 27 Kauffman, Stuart, 2, 50, 62 Kawato, 167 Kermack, 9, 135, 137, 141, 144, 147, 150, 152 Klotter, K ., 158, 160 Koch, 136 Koelliker, 15 Koelreuter, 69 Kolmogorov, A. N., 2, 8, 111-113, 115120,123-133 Kopell, 167 Krebs, 94, 113 Kuhn, 11, 16 Lamarck, Jean-Baptiste de, 16, 36, 40, 51 Legendre, 107 Levín, 152 Levinson-Smith, 161 Lewontin, Richard, 27 Lienard, 161, 163 Linneo, 69 London, 138 Longini, 139, 152 Lotka, Alfred, 8, 95, 96, 112, 113 Lovett Cline, Bárbara, 48 Lyell, 68 Lysenko, 131
ÍNDICE ONOMÁSTICO
Malthus, Robert, 1, 68, 95, 110, 111, 113 Maltsev, 133 Maupertuis, Louis de, 39 Maxwell, 11, 48, 62 May, 110, 138 Mayr, Ernst, 12-16, 26, 27, 74 McKendrick, 9, 135, 137, 141, 144, 147, 150, 152 Mendel, 7, 14, 47, 67-77, 131 Miramontes, Pedro, 6, 36, 40, 41, 110 Morgan, Thomas H., 14, 76 Müller, 76 Mussolini, 108 Napoleón, 54 Naudin, 69 Newton, 43, 55, 62, 69 Norton Whitehead, A., 31, 85 Owen, 61, 62 Paley, William, 64 Paracelso, 61, 62 Pasteur, 136 Pavlidis, Teodosius, 163 Pearson, Karl, 76, 78, 81 Peterson, 166, 167 Petty, William, 136 Pierce, 36 Pittendrigh, 155, 156, 158, 163 Planck, Max, 48, 160 Platón, 1, 61, 62 Plotino, 62 Poisson, 70 Ramos, 151 Rand, 167 Rensch, 16 Rescigno, 120 Richardson, 120 Ross, Ronald, 95, 137
171
ÍNDICE ONOMÁSTICO
Saint-Hilaire, Etienne Geoffroy, 16, 36, 51, 53, 54, 60, 61, 62 Schrödinger, 23 Shilov, 133 Simpson, 16 Sinai, 133 Slobodkin, 94 Smith, John Maynard, 26, 27, 38, 64 Sousa Santos, 11 Stebbins, 16 Stokes, 107 Strogatz, 167 Thom, René, 2, 5, 7, 24, 25-27, 32, 34, 35, 36, 38-43, 47, 56, 62 Thompson, D’Arcy Wentworth, 1, 2, 6, 7, 36, 51, 52, 53-56, 59-62 Tschermark, 75 Unger, Franz, 70 Uspensky, 133 Van der Pol, 159-161 Van Beneden, 75 Verhulst, Pierre François, 1, 95, 113
Villari, G., 163 Vinci, Leonardo da, 53 Volterra, Vito, 1, 8, 93, 95-100, 102105, 107, 108, 112, 113, 115, 117 Vries, Hugo Marie de, 14, 74-76 Waddington, Conrad Hal, 2, 5, 7, 22, 23-41, 43, 44, 47, 62 Waldeger, 75 Wallace, Alfred Russel, 16, 48, 50, 68 Weissman, 74, 75 Weinberg, 81 Weldon, W. F. R., 78 Wever, 160-162 Wigglesworth, 156, 160 Winberg, Wilhelm, 1 Winfree, A., 163, 165, 167 Wright, Sewal, 2, 9, 84 Yorke, 138, 139 Yule, 78, 81 Zeeman, Christopher, 27
ÍNDICE ANALÍTICO
acervo génico, 14-16, 85 ácidos nucleicos, 21 adaptación evolutiva, 12 ADN, 24, 51 agente infeccioso, 135, 140, 142, 143 agente transmisor, 140 agricultura tradicional, 94 aleatorio, 14, 17, 36, 77-79, 81, 82, 85, 88-92, 125, 162 alelo, 8, 15, 79, 81-85, 88-92, 125 alopatría, 16 amplitud, 155, 158, 164 análisis funcional, 107 análisis global, 117 análisis local, 117 anófeles, 95 aparato formal, 33, 112 aparatos, 6, 33, 42, 47, 56, 59, 112 arquetipos, 37-39, 43, 60-63 arquitectura génica, 20 asociación biológica, 96 ataque, 97, 98, 137 atractor, 41, 43, 62, 63, 106, 165 auto-oscilación, 158, 160 axón, 130 azar, 17, 19, 20, 50, 63, 76, 79, 125 bacteriología, 136 biología celular, 48 biología evolutiva, 12, 77 biología teórica, 1, 2, 10, 22, 26, 31, 33, 43, 44, 45, 50 biólogo experimental, 15, 22 biólogos diatópicos, 16 biólogos evolucionistas, 15, 19 biólogos funcionalistas, 15 biomasa de depredador, 102 biomasa de presa, 102 biomatemática, 44, 107
biómetras, 76, 78 biótico, 18, 37 brote epidémico, 135, 137, 140, 141, 144-146, 150 brotes epidémicos recurrentes, 137 campo vectorial, 105, 116, 117 caos, 3, 21 capacidad diferencial, 68 capacitor, 158 carácter, 71, 74, 82-84 catenaria, 55, 60, 61 células gaméticas, 74 células germinales, 72, 75 células huevo, 70, 73 células polen, 73 células somáticas, 75 cerebro, 21, 28, 34 ceroclina, 117 ceroclina horizontal, 117 ceroclina vertical, 117 ciclo límite, 101, 116, 118-120, 156, 157, 161, 165-167 ciclos, 9, 96, 162, 164, 165 citología, 13, 70, 74, 75 citología cromosómica, 74 clases de equivalencia, 6, 59 colisiones moleculares azarosas, 19 compacto, 106 compensación, 60, 155 competencia, 8, 17, 68, 102, 114, 115, 121 competencia interespecífica, 115 competencia intraespecífica, 115 comportamiento global, 129 comportamiento local, 128 composición, 60, 76 comunidad ecológica, 8, 105, 106 comunidades, 95, 96, 105, 106
[172]
ÍNDICE ANALÍTICO
comunidades bióticas, 94, 95 conflicto, 6, 7, 12, 15, 17, 25, 43, 107 conglomerado, 34 conjunto, 8, 35, 62, 106, 115, 117, 127, 165 conjuntos sin fase, 165 contingencista, 17 convergencia, 127 cordados, 6, 59 correlación de partes, 60 crecimiento, 8, 95-98, 102-106, 114 crecimiento continuo, 114, 125 creodas, 35, 39, 41 cromosomas, 75 crustáceos, 59, 154 cuenca de atracción, 62, 63, 106, 165 cuerpo negro, 48, 65 curva logística, 95 decaimiento, 96, 97 depredadores naturales, 94, 97 deriva génica, 16 desarrollo, 12, 17, 19, 24, 30, 33, 34, 38, 54, 62 desarrollo embriológico, 12, 17, 19, 20, 24 determinista, 12, 17, 39, 40, 44, 63, 111, 137 dominancia, 84, 87, 89, 90, 92 dominante, 71-73, 87, 89, 123 ecología, 8, 12, 37, 93-95, 104, 105, 110, 122 ecología matemática, 1, 8, 9, 96, 113, 115 ecosistemas artificiales, 94 ectodermo, 34 ecuación de Lienard, 161, 163 ecuación de Schrödinger, 23 ecuaciones de la evolución de la vida, 23 efecto Allee, 121 efecto fotoeléctrico, 11
173 eliminados, 142 embriología, 7, 22, 34, 35, 70 embriólogos, 2, 5, 15, 22, 31 embrión, 24, 28, 35, 41 endemicidad, 139 energía mecánica, 18, 20 energía termodinámica, 18-21 enfermedad endémica, 138, 140, 144 enfermedad infecciosa, 135, 137-141 entalpía, 21 entropía, 32 enzimas catalizadoras, 19 epidemia, 9, 95, 135-142, 145-148 epidemiología, 137, 138, 140, 152 epidemiología matemática, 9, 137 epidemiología teórica, 136 epidermis, 34 epigénesis, 33 equinodermos, 59 esencialismo, 68 esfera imperfecta, 60 espacio fase, 19, 20, 34, 35, 38, 62 espacio temporal, 121, 122 especies, 8, 12, 14, 15, 16, 30, 34, 36, 38-40, 43, 49, 50, 57, 59, 60, 6264, 68-70, 75, 76, 94-98, 102-106, 111-115, 118, 121-123, 161 especies politípicas, 16 estabilidad biológica, 38 estabilidad estructural, 38 estado biológico, 40 estado de equilibrio, 125 estado estable, 34, 161 estados transitorios, 34 estructura, 12, 17-19, 32, 35, 36, 4143, 50, 51, 59-65 estructuralismo dinámico, 62-64 estudios serológicos, 148 evolución, 5-8, 11, 12, 14, 17, 19-22, 24, 26-28, 32, 33, 36-43, 47, 49, 51, 62, 63, 65, 70, 77-79, 82, 84, 92, 111 evolución biótica, 18 evolución horizontal, 64
174 evolución vertical, 63 evolucionistas , 14-17, 26, 47 excitabilidad, 156 excitables mediante perturbaciones, 156 exclusión, 8, 104-106 existencia, 127, 128, 130 exógeno, 64, 158 fase, 155, 164, 165, 166, 167 fase latente, 165 fenomenología, 74 fenómenos de umbral, 38 fenotípica, 76 fenotipo, 15, 27, 32-34, 36, 37, 49, 50, 51, 55, 82 fenotipos faltantes, 49, 50, 55 filósofos neoplatónicos, 61 finalista, 39, 40 foco estable, 119, 120, 128 foco localmente estable, 118 formas de transición, 71 forzadas, 160 fósiles celulares, 18 frecuencia, 85 frecuencia forzadora, 160 frecuencias génicas, 15, 79-81 fuerzas de van der Waals, 19 función, 34, 40, 104, 105, 107, 126, 147, 161, 164 función continua, 34 funcional, 107 gametogénesis, 73 gametos, 36, 73 gástrula, 34 generación, 36, 37, 69, 71, 74, 77, 7981, 85, 86, 90, 122 genes, 15, 20, 22, 28, 33, 72-74, 125 genes y mutaciones homoéticos, 20 génesis, 48 genética, 7, 12, 14, 68, 76, 110, 113, 122, 123, 129-131
ÍNDICE ANALÍTICO
genética de poblaciones, 5, 7, 8, 12, 47, 48, 67, 82, 125 genética evolutiva, 13 genética matemática, 68 genética matemática de poblaciones, 79 genética mendeliana, 12, 22, 24, 25 genomas, 48 genotipo, 15, 27, 33, 79, 81, 82, 84, 85, 87, 90, 123, 125 germen, 74, 75 globalmente atractor, 101 gradualista, 65, 77, 78 hábitat, 95, 114, 121, 122, 124, 125 hechos biomorfológicos, 50 herencia, 1, 14, 24, 37, 68, 74, 75, 77, 78, 81, 87, 90 herencia suave, 75 hermenéutica diatópica, 11 heterócigo, 71, 88, 89 hibridación, 67, 69 híbrido, 69, 71-73 hipersuperficie, 35 homeorhesis, 35, 41 homeostasis, 35, 43 homócigo, 71, 88 horticultura, 76 huésped, 135, 140, 143, 152 Ilustración, 61 impulsos nerviosos, 2, 130, 154 incidencia, 136, 140, 147, 166 incubación, 141 individuos eliminados, 142 individuos infectados, 140, 141 individuos inmunes, 150 individuos susceptibles, 135, 137, 138, 140-144, 147, 148, 150 individuos infecciosos, 137, 138, 140144 infectados latentes, 142 inhomogeneidad, 20
175
ÍNDICE ANALÍTICO
inmune, 142, 150, 151 inmunidad de masas, 150, 151 inmutabilistas, 51 instituciones, 28 interacciones, 94, 95, 113, 114 interior, 106 invariante, 8, 35, 56, 106 isocronas, 165, 166, 167 lapso de aparición, 20 ley de acción de masas, 137, 142 ley de la distribución de MaxwellBoltzmann, 23 leyes fisicoquímicas, 15, 21 localmente estable, 118 locus génico, 79 lucha, 43 macroevolución, 12 mamíferos, 22, 59 máquinas moleculares, 20 mecanismos de aislamiento, 16 medir, 28 médula espinal, 34 mendelianos, 14, 75, 76 meteoritos, 18 métodos espectroscópicos, 18 microestructuras, 18 modelación matemática, 23, 207, 130, 136, 138, 167 modelo, 2, 9, 24, 42, 44, 65, 70, 85, 90, 92, 95, 96, 98, 100, 101-104, 110, 112-115, 120, 121, 130, 135, 137, 139, 141-144, 146-148, 150152, 156, 157, 160, 161, 165 modelos compartamentales, 142 modelos demográficos, 95 modelos matemáticos, 1, 2, 72, 105, 135, 137-139, 154, 163 moléculas, 18, 28 montaje específico, 20 morfogénesis, 2, 5-8, 35, 41, 43, 56 morfólogos racionalistas, 13, 62
mortandad diferencial, 68 mutación, 14, 18-20, 51n, 63, 64, 75, 76, 79, 84, 88, 89, 122 mutación contingente, 63 mutaciones génicas, 18 mutualismo, 114 naturalistas, 5, 7, 12, 14-16, 26, 51 Naturalistas, 75, 76 neguentropía, 40 neodarwinismo, 6, 20, 24, 26, 35-37, 38, 47, 49, 50, 64, 65, 131 neuronas, 130 no lineales, 8, 115, 130, 156, 157, 159 nodo estable, 128 núcleo celular, 75 número reproductivo básico, 143, 148, 150, 151 onda epizoótica, 130 onda senoidal, 159 onda viajera, 112, 126, 126, 127, 129, 130 órganos, 6, 18, 22, 28, 34, 59, 60, 61 origen de las especies, 12, 34 oscilación autosostenida, 156, 158, 160 oscilaciones, 8, 99, 112, 154, 155, 158, 160, 163 oscilaciones autónomas, 158 oscilaciones de relajación, 158 oscilaciones de tipo endógeno, 158 oscilaciones espontáneas, 158 oscilaciones libres, 158 oscilaciones naturales, 158 oscilaciones no autónomas, 158 oscilador armónico, 158 oscilador de Van der Pol, 159, 160 paisaje epigenético, 41 pangénesis, 74, 75 periodo de exposición, 141 periodo de incubación, 141 periodo de latencia, 141, 143
176 periodo infeccioso, 141, 143, 150 periodo interepidémico, 136 persona infecciosa, 135 perturbaciones, 155, 156, 164 phylum, 38, 59, 62, 63 placa neuronal, 34 población diploide, 125 población homogénea, 114, 125, 148 población monoica, 79 población panmíctica, 125 poblaciones, 68, 74 polen, 70, 72, 73 polímeros, 21 polímeros biológicos, 18, 21 polimorfismo balanceado, 16 portadores asintomáticos, 142 posición relativa, 60 presa-depredador, 112-114, 117, 188, 120, 121 presión mutacional génica, 14 prevalencia, 140, 147 primates, 59 principio de incertidumbre de Heisenberg, 23 progenie, 71, 72, 78, 79 programa Evo-Devo, 12 propiedad de exclusión, 106 protección, 97 pulsares, 18 punto silla, 117, 128 puntos de equilibrio, 88, 89, 91, 101, 117, 127, 128 radiación electromagnética, 18 reacción-difusión, 41, 112, 121 realimentación, 37, 38 recesivo, 71 región de interés biológico, 115, 117, 128, 129 relación de equivalencia, 59 relaciones de causa-efecto, 33, 34 Renacimiento, 53, 61 reproducción diferencial, 68
ÍNDICE ANALÍTICO
repulsor global, 101 respuesta funcional, 100, 101, 102 respuesta funcional de Holling, 121 respuesta inmunológica, 148 retrato fase, 117, 118, 128, 129, 157 reversión, 69 ribosoma celular, 20 ritmos circadianos, 9, 155, 156, 160, 163, 164, 167 sabiduría convencional, 28, 29, 51 saltacionistas, 77, 78 segregación, 69 selección, 63, 78, 81, 87-89, 122, 130 selección funcional, 63 selección interna, 17 selección natural, 5-7, 12, 14, 18, 21, 22, 33, 35, 37, 40, 41, 43, 49-51, 61, 63, 64, 68, 69, 75-78, 82, 84, 85, 87, 90, 91, 111 seleccionismo, 25, 36, 64 serológicos, 148 simbiosis, 121 simpatría, 16 síntesis evolucionista, 12, 16, 17 sistema dinámico, 19, 33, 35, 38, 56, 63, 132, 156, 163 sistema no auto-oscilante, 160 sistemas, 6, 30, 42, 59 sistemas complejos, vii, 3, 20, 28, 63 sistemas de Lotka-Volterra, 8, 112, 115, 117 sistemas no autónomos, 160 solución de equilibrio, 99 soluciones periódicas, 99, 119 soma, 75 subconfiguraciones, 34 sustancia, 157 tablas de mortalidad de Londres, 136 tamaño umbral, 121 taxones, 14, 15 técnica de variolación, 136
177
ÍNDICE ANALÍTICO
tegumento, 71 tejido neuronal, 34 tejidos, 6, 22, 34, 41, 59, 62 teología natural, 64 teorema del umbral, 9, 137 teoría corpuscular, 1, 74 teoría de la evolución, 5, 8, 12, 22, 24, 37, 41, 49, 63, 70, 78, 79, 84, 111 teoría de la evolución y la eugenesia, 77 teoría de los pangenes, 74 teoría discreta, 74 teoría gradualista darwiniana, 78 teoria sintética, 5, 11, 47, 49, 50, 64 tiempo homogéneo, 114, 125 tipos, 68, 76 transiciones de fase, 38 transmisión directa, 140, 141
trayectoria heteroclínica, 127, 129 trayectorias, 34, 35, 39 tubo neuronal, 34 umbral, 146 unidad en la composición, 60 vacunación, 139, 148, 150-152 Van der Waals, fuerzas de, 19 variación genética, 14, 36, 91 varianza de dominancia, 84 varianza génica aditiva, 84 variedades topológicas, 38 vector de estado, 34, 96 vector transmisor, 140 vitalismo, 35, 42, 68 zigoto, 73, 74