Globalización: Revista Mensual de Economía, Sociedad y Cultura


Enero de 2023

EL ENFOQUE ENERGÉTICO EN LOS PROCESOS DE LA VIDA, DEL CLIMA Y DE LA PRODUCCIÓN
Dr. Walter Ritter Ortíz y Hugo Ritter Ortíz


Centro de Ciencias de la Atmósfera, Sección Bioclimatología, UNAM y ENS

Dr. Juan Suarez Sánchez, Dr. Alfredo Ramos Vásquez, Dr. Hipólito Nava Muñoz, Dr. José Jiménez, M. en C. Alejandra López Mancilla,
M en C. Rogelio Rodríguez Maldonado, Biol. Silvia Aguila Zempoaltecatl, Biol. Angélica Arvizu, Biol. José Emilio Gutiérrez, Biol. Martín Dorantes, Biol. Manuel Corona Pérez.
Facultad de Agrobiología, Universidad Autónoma de Tlaxcala, UAT



INTRODUCCIÓN

Los seres vivos somos el resultado de una evolución de millones de años dirigida por los cambios ambientales que nos rodean y a los cuales debemos de adaptarnos.

Esta evolución nos presenta interesantes interrogantes acerca del balance de los organismos vivos con su medio ambiente, así como la observación de respuestas complejas en plantas y animales, (Monod, 1971).

La estabilidad de los sistemas en la naturaleza, depende de dos factores primordiales: la entalpía y la entropía.

La primera, es la cantidad de energía del sistema, donde para valores pequeños de ésta, son observados mayores valores de estabilidad. Mientras que la segunda, es el grado de desorden o el equilibrio máximo, en el cual no pueden existir más cambios físicos ni químicos, ni posibilidades de desarrollo o trabajo donde la presión, la temperatura y la concentración son uniformes en todo el sistema, (Fifkin, 1980).

La potencia, da la razón de flujo de energía útil, medida en unidades de tiempo. En todo proceso real, se pierde energía útil, por lo que todo trabajo entraña una transformación unidireccional de la energía. Los procesos irreversibles aumentan la entropía, mientras que los reversibles hacen que ésta permanezca constante. La reversibilidad está definida para los sistemas cerrados: (clima). En los sistemas abiertos (biológicos), los procesos reversibles nunca ocurren, pero pueden definirse como casos limitantes de algunos procesos reales. Los seres vivos, son sistemas abiertos, lo que les permite estructurarse como los sistemas más complejos, inestables, heterogéneos y menos probables que se conocen en la naturaleza; son los que logran un mayor nivel de diferenciación debido a la energía que obtienen de otros sistemas, los que a su vez se desordenan y dispersan para proporcionar un orden, siendo los únicos sistemas conocidos que pueden obtener una entropía negativa (negentropía), a expensas de aumentar la entropía del medio ambiente, (Margalef, 1963 a 1980), (Cesarman, 1984). La transformación de energías microscópicas en una energía macroscópica, dependiente de pocos grados de libertad, resulta ser uno de los principios fundamentales de los fenómenos biológicos.

La energía es constantemente almacenada y liberada en los seres vivos, de acuerdo a la primera ley de la termodinámica; por lo que en ocasiones el éxito de algunos organismos en la competencia con otros, a menudo radica en el mayor grado de eficiencia que poseen dichos organismos para utilizar la energía disponible.

La liberación por almacenamiento de esta energía, así como su uso, es a través de los procesos metabólicos de los organismos vivos. La razón de generación de entropía en un sistema abierto, se describe en la termodinámica de estado estacionario, como la diferencia entre la potencia de entrada y, la de salida. Los seres vivos somos un resultado de la energía solar. La célula es una máquina que transforma la energía solar radiante en energía química, utilizándola para diversos tipos de trabajo. El metabolismo de cada célula en el que interviene un cambio de energía, se desarrolla de manera cuasi-rítmica y periódica (Jones, 1979). La información se puede definir como una medida aditiva de la complejidad de un sistema y, debe ser considerada como un parámetro básico para describir a los sistemas vivos.

Todo organismo tiene su muy particular estructura y funciones, en virtud de la información almacenada en su mecanismo genético; un organismo mientras más complejo sea, mayor será la información que requiere para alcanzar su estructura y menor será la entropía que representa ese estado. Y la organización y reducción de la entropía, requiere del uso de la información, ( Schroedinger, 1945), y (Jacobson, 1955). Sólo las estructuras disipativas, que se mueven en la dirección irreversible del aumento de entropía, son creativas; creando el movimiento, la vida y la organización y tanto más cuanto más lejos se hallen del punto de equilibrio; ya que en el mundo físico el equilibrio puede ser una condición deseable, pero en los sistemas vitales, el equilibrio es la muerte; no existe flujo energético que se transmita de un sistema a otro. Y ese proceso es la vida, maravillando como algo desorganizado como es la materia primordial, pueden surgir estructuras tan complejas y organizadas como son los seres vivos, (Arnheim, 1971). El grado de ajuste de una comunidad a su ambiente o su aproximación a un equilibrio dinámico, es inversamente proporcional a la relación global de salida/entrada de energía. La baja eficiencia energética observada en la naturaleza, es sólo una consecuencia de su tendencia a obtener la eficiencia óptima con un máximo poder de salida (Odum y Pinkerton, 1955). Las energías potenciales de un sistema ecológico, son agrupadas bajo la designación de producción (P) y respiración (R) respectivamente. Anualmente y en promedio, en un sistema cerrado tienden a ser iguales; en el verano P suele superar a R, pero en invierno R suele superar a P (E=P+R). Mientras que el bióxido de carbono del aíre, disminuye en primavera y aumenta en otoño, los promedios biosféricos de P y R se han estimado aproximadamente en un gramo de materia orgánica por m² y por día, lo cual equivale a cerca de cuatro kilocalorías de energía potencial almacenada diariamente y, vueltas a quemar. Los procesos de P y R de la biosfera, están íntimamente ligados en el aspecto energético con los productos físicos terrestres, su calor, sus vientos, corrientes de agua etc. (Munn, 1970), (Geiger, 1969). Cada uno de los cambios, ya sea en el régimen de radiación solar, la altitud, la lluvia o la temperatura, requiere una respuesta de la comunidad de plantas y animales sometidos a ellos. Algunos organismos se adaptan y sobreviven, pero otros no lo consiguen y desaparecen. Ambientes parecidos ocasionan adaptaciones similares, y de este modo, en diferentes partes del mundo aparecen animales que tienen entre sí notables semejanzas, pero cuyos antepasados fueron completamente distintos. Así también al cambiar de posición, trasladándose hacía el Ecuador o hacía los polos, la selva tenderá a transformarse en tundra y los fértiles campos en desiertos, o viceversa, (Budyko, 1974), (Billings, 1978), (Lowry, 1970) y (Rosenberg, 1974).

Si bien los mecanismos de simulación cíclicos se observan fácilmente en los microcosmos, en la biosfera terrestre no es tan obvia esta relación, pero también parece funcionar por estimulación cíclica, pero por períodos más largos.

La sucesión ecológica se relaciona a cambios fundamentales de la forma de flujos básicos de energía.

Conforme el sistema se desarrolla hacía la madurez (Clímax), La relación P/R se aproxima a la unidad y, las razones B/E, B/P ó B/R aumentan. El comportamiento de la naturaleza no es la de maximizar la eficiencia de la producción, como a menudo es lo deseable, sino la de optimizar la capacidad de sostén y la complejidad de la estructura de la Biomasa (B) tanto como sea posible, por unidad de flujo de energía disponible. Las razones B/E, B/P y B/R son de gran interés teórico con respecto al desarrollo de la comunidad y la sucesión ecológica.

En general, la proporción de energía utilizada en la respiración, es grande en poblaciones de mayor tamaño tales cómo el hombre, árboles y comunidades de sucesión avanzada; mientras que en comunidades de tamaño pequeño, es la producción la que es relativamente grande, tal como en bacterias y algas y, en las primeras etapas de la sucesión ecológica, (Slobodkin, 1960), (Blum, 1951) y (Moreno et al, 1989). Los ecosistemas jóvenes (etapas primeras de la sucesión) se caracterizan por una elevada eficiencia productiva P/B, mientras que los ecosistemas maduros (etapas tardías de la sucesión), por una elevada eficiencia de mantenimiento. Para una determinada B (Biomasa), los ecosistemas jóvenes tienden a maximizar P (flujo de producción) y tiene una elevada eficiencia productiva P/B; mientras que los ecosistemas maduros tienden a minimizar P, logrando así una elevada a eficiencia de mantenimiento B/P. Los ecosistemas jóvenes parecen entrañar producción, crecimiento y cantidad, en tanto que los maduros implican protección estabilidad, calidad. Para los sistemas jóvenes, el flujo de producción es la fuente cuantitativa del crecimiento que se maximiza.

Para los maduros, el flujo de producción es el costo de mantenimiento para proteger la estabilidad y la calidad del acervo que se minimiza. La sucesión está caracterizada como una progresión hacía la máxima complejidad, diversidad, productividad y estabilidad; donde la estabilidad está relacionada con la cantidad de posibilidades que la energía tiene en pasar a través de los niveles de producción del ecosistema. Y la tasa de sucesión está determinada por el grado de balance o disponibilidad energética positiva en que se localiza, así por ejemplo: si la negentropía es igual, mayor o menor a la entropía, implicará respectivamente que en el primer caso, el equilibrio se dará en el clímax; con los valores positivos del segundo caso, se dará la sucesión y, con los calores negativos correspondientes a la última situación, se presentará la senectud del ecosistema. Con el aumento del grado de complejidad de las estructuras, se emplea cada vez más ahorrativamente el patrimonio energético; los sistemas son más capaces de difundirse y ampliarse con menos gasto de energía. Las reacciones bioquímicas de las enzimas que hacen posible el aumento de la complejidad estructural son mucho más eficientes, ya que utilizan la energía de la que disponen las moléculas de forma más ahorrativa en comparación con las reacciones de la química inorgánica, (Stevens, 1989).

Las mutaciones son los acontecimientos que introducen alteraciones y que por lo tanto, constituyen la base de la evolución biológica y pueden ser causadas por desordenes moleculares que se producen a corto plazo y son imprevisibles. Son las responsables de que se produzcan organismos defectuosos (los que generalmente tienden a desaparecer), así como las que ofrecen la oportunidad de perfeccionar funciones todavía en desarrollo (Laysen, 1975). La evolución orgánica, se da en una dirección de aumento de información. La evolución, es la historia de un sistema en el curso de transformaciones irreversibles.

El segundo principio de la termodinámica, está fundado sobre consideraciones estadísticas idénticas a las que se establecen en la irreversibilidad, considerando legitimo pensar en la irreversibilidad de la evolución, como una expresión de este principio aplicado a la biosfera, (Ayala, 1987), (Kam y Wiener, 1967). Todo se desarrolla o evoluciona hasta alcanzar formas cada vez más adaptadas a su entorno. Igualmente, todos los cuerpos tienden a lograr la configuración que posea la menor energía posible, lo que se traduce en la tendencia a conseguir la adaptación más perfecta al medio, ya se trate de los seres vivos o de la materia inerte, ocupando las menores alturas posibles o efectuando la menor cantidad de movimiento, etc. Así mismo, las formas existentes en la naturaleza son precisamente aquellas que teniendo en cuenta todas las posibilidades tienen una mayor probabilidad de existir.

Dentro del dominio de la naturaleza, sus producciones se hallan limitadas por la escases de los recursos y por las restricciones impuestas por el espacio tridimensional, así como por las relaciones existentes entre los distintos tamaños de los objetos y, por un peculiar sentido de austeridad, (Stevens, 1989). La naturaleza manifiesta unas cuantas formas de geometría fundamental y luego las repite. Así, cuando vamos reduciendo o ampliando la escala de observación, comenzamos a encontrarnos con formas similares, donde lo grande repite lo pequeño o viceversa. Algo similar a la escasez de pautas, parece haber sucedido en la evolución de la materia agrupando en conjuntos cada vez más complejos elementos químicos, moléculas inorgánicas, células vivas, bacterias, vegetales, animales y hombres. Y en cualquier caso, parece evidente que el universo entero bulle y palpita repleto de innumerables procesos de información, pero para que este proceso creativo tenga lugar, es preciso que haya energía abundante o que la vida haya nacido precisamente de las estructuras disipativas. El orden, implica siempre la aplicación de un suplemento energético y eso es precisamente lo que ha estado haciendo la naturaleza durante millones de años; crear estructuras cada vez más organizadas que han acabado por desembocar en el punto máximo del orden; los seres humanos y nosotros, a su vez, seguimos repitiendo esa pauta natural, imponiendo al mundo entero una mayor organización, ordenando la naturaleza a nuestro modo con cada vez más desmesurados gastos de energía. La Segunda Ley de la Termodinámica (aumento de entropía), mantiene la segunda posición entre las leyes de la naturaleza. La termodinámica del desequilibrio se divide naturalmente en dos partes: La versión lineal, que describe el comportamiento de sistemas cercanos al equilibrio mientras que la versión no lineal, trata de sistemas de los cuales está todavía lejano el equilibrio.

Prigogine se dedicó a analizar los sistemas lejos del equilibrio, donde la ley linear se rompe para ver si era posible generalizar sus ideas en un criterio de evolución que funcionaría para los sistemas no lineales. Lejos del equilibrio, dichos estados estacionarios pueden pasar a ser inestables. Puede surgir un punto de crisis al que se refiere técnicamente como punto de bifurcación, en el cual el sistema deja el estado constante, evolucionando en cambio hacía algún otro estado. Un sistema sólo puede mantenerse lejos del equilibrio si está abierto a su entorno.

La bifurcación, representa el dilema con el que se enfrenta un sistema cuando ha alcanzado su punto de crisis termodinámica los nuevos estados que surgen, lejos del equilibrio pueden poseer un grado extraordinario de orden dentro del cual billones de moléculas coordinan sus acciones en el tiempo y en el espacio. Se acuñó el término estructuras disipativas para describirlos, dado que resulta del intercambio de materia y energía entre sistemas y entorno, junto con la producción de entropía por el sistema.

Los procesos complejos y mutuamente independientes que conducen a la formación de estas estructuras, se llaman colectivamente autoorganización. Podemos ver que la creación espontánea de orden no está prohibida por la termodinámica, aunque la segunda ley se contemple comúnmente y erróneamente como si fuera un mecanismo de relojería para la degeneración uniforme hacía el desorden. Nuestro punto de vista cosmológico, resultante de la temeraria aplicación de la termodinámica del equilibrio, implicaría que la evolución del universo es sinónimo de un crecimiento inexorable del azar, que termina finalmente en equilibrio termodinámico cuando cesa todo cambio.

Pero el estudio de los procesos del desequilibrio, ha mostrado que un universo que evolucione lejos del equilibrio, no puede describirse en estos términos simplistas, tenemos una descripción más optimista que ésta.

En un universo semejante, la termodinámica irreversible del desequilibrio, permite la posibilidad de una autoorganización espontánea, que conduce a una estructura que va desde los planetas y galaxias hasta las células y organismos.

Si cambia el medio ambiente, tendremos que adaptarnos a sobrevivir, pero el cambio adaptativo provocará nuevos problemas en otros organismos y, creará condiciones de selección. La inexactitud en la reproducción y los cambios geológicos y climáticos, constituyen la fuerza motriz que impulsa el continuo desarrollo de los seres vivos y, hay que tener en cuenta que desarrollo significa un aumento de la información genética.

ELEMENTOS BÁSICOS DEL PRONÓSTICO EN LOS SISTEMAS CLIMÁTICOS Y PRODUCTIVOS

La naturaleza tiene que ser interpretada como materia, energía e información, donde el universo y sus formas de vida presentan una base azarosa pero no necesariamente accidental. Las fuerzas del azar y del no azar, coexisten a través de una relación complementaria. Einstein, descubrió que el movimiento Browniano se presenta frecuentemente en la naturaleza. Su matemática representativa no se basa en una simple relación de causa y efecto, sino en el azar y en la estadística. Wiener, reconoció que el envió y recepción de mensajes tiene bastantes cosas en común con el movimiento Browniano. El lazo que une los dos conceptos es la estadística, una rama de la teoría de probabilidad; el principio maestro que se halla tras algunos de los más profundos descubrimientos de la física moderna. La secuencia de estos hechos espaciados en el tiempo, que no son conocidos por completo de antemano y que los matemáticos denominan estocásticos, del griego “stokos”, que significa adivinar, (Parsegian, 1972).

Al hacer este tipo de predicción, un matemático no considera un solo futuro, sino muchos futuros simultáneos, que puede decirse que coexisten en sentido abstracto y, la estadística no puede hacer nada con un solo dato.

Un hecho aislado no tiene sentido. Necesita ser parte de un modelo de muchos hechos posibles, cada uno con cierta posibilidad de ocurrir, (Wiener, 1948), (Ashby, 1972).

Con el determinismo absoluto, se supone que con un conocimiento perfecto de lo que un objeto hace en el presente, es posible predecir con exactitud lo que hará en cualquier momento del futuro. Wiener expuso su firme convicción de que un científico nunca podrá tener un conocimiento perfecto de lo que una parte del universo hace en determinado momento, mientras lo observa. Como consecuencia, no hay esperanza de conocer con seguridad y en detalle, lo que será en el futuro. El científico debe tratar de superar esta incertidumbre sobre el futuro, considerando una gama de diferentes contingencias y, asignando una probabilidad apropiada a cada una. Entonces, puede señalar lo que quizá suceda en tal o cual conjunto de circunstancias. Y estos nuevos conceptos de comunicación y control, implican una nueva interpretación del hombre, del conocimiento, del universo y de la sociedad. Cuando un sistema es ordenado y por lo tanto improbable; cuando es pobre en entropía y rico en una estructura de escala macroscópica, se puede saber más de él que cuando es desordenado y rico en entropía. Giorolamo Cardano, se percató de que la incertidumbre posee una estructura y de que una vez descubierta la clave de ella, el azar deja de ser una parte de la incertidumbre y se vuelve inteligible.

La complejidad del mundo es ilimitada y sus partes están en continuo cambio. Nada de lo que se puede afirmar sobre ella en un momento dado, puede servir para decirse que sea absolutamente cierto. La teoría de la información de Shannon, se ocupa de este tipo de error como algo intrínseco fundamental, donde las probabilidades sólo existen como resultado de la experiencia del experimento.

Es imposible hablar de la probabilidad de un hecho aislado; tiene que haber muchos. El experimento debe continuar hasta que exista una razón de peso para creer de manera confiable, que la frecuencia relativa se aproximaría a un límite fijo, si el experimento continuara indefinidamente.

El valor de este límite es la probabilidad. La probabilidad que se encuentra en la raíz de la teoría de la información, está relacionada con la cantidad y el tipo de conocimiento que poseemos sobre cualquier hecho o serie de hechos, cuyo desenlace es incierto (Shannon y Weaver, 1949).

Los conceptos de información y entropía, se relacionan con la termodinámica, tendiendo a convergir, llevándonos a una teoría más general que prácticamente lo abarca todo.

La expansión cósmica creó un conjunto de condiciones iniciales que hicieron posibles dos tipos totalmente distintos de procesos generadores de orden: La evolución cósmica y la evolución biológica, donde la dirección de este proceso, también se aparta irreversiblemente de la uniformidad, hacía nuevas formas de estructura y mayor complejidad.

A lo largo de este sendero, apunta también la flecha termodinámica, porque la entropía, brota naturalmente como resultado de los procesos mismos que hacen surgir a los sistemas vivos e impulsan, la máquina de civilización humana, con su creciente dependencia de las máquinas y de la tecnología moderna degradadoras de energía, (Cook, 1971). La entropía es información perdida, como observó Boltzman, hace más de 100 años, en los sistemas cerrados. La información perdida en la gran escala del macrocosmos, se convierte en creciente información en pequeña escala del microcosmos. Si entendemos por sistema a un conjunto de elementos unidos por alguna forma de interacción o interdependencia, de tal manera que forma una unidad, con un objetivo en común. Cualquier sistema real puede observarse desde diferentes puntos de vista y cada uno, da una perspectiva adicional sobre el mismo. Todas las perspectivas no igualan al sistema real, porque siempre es posible encontrar una adicional. La colección de puntos de vista, permite la formación de un concepto de sistema, a ser formado (Bartenieff, 1980). Un excelente ejemplo de relaciones entre diferentes niveles de conceptos y, entre estos y el mundo real, se da por el campo de la termodinámica. Este hecho es utilizado por (Adem, 1964, 1970, 1991), para desarrollar un modelo termodinámico del clima, imprimiendo por primera vez dentro del campo de la climatología, una visión holística dinámica e integradora, cuyas bondades de simulación y pronóstico presentan muchas ventajas sobre otras, incluyendo a los de circulación general de la atmósfera, para preferirlo en aplicaciones prácticas en muchos campos de la ciencia. Sin embargo, quien no deja de remarcar (en Adem, 1974), que no importa qué tan complejos parezcan los modelos, éstos son extremadamente simples si son comparados con la complejidad observada en la naturaleza. Este mismo enfoque o procedimiento de abordar el problema predictivo, es imposible de realizar para los sistemas biológico-productivos, debido a la falta de un mayor desarrollo de la termodinámica de sistemas abiertos, por lo que en la práctica, se tiende a simularlos como un efecto resultante de un factor climático limitante, (Patron y Jones, 1989), (Versteege, 1985).

El pronóstico del estado del tiempo, por métodos numéricos (el cual podríamos considerar como posible auxiliar en los modelos de clima-producción) siempre comienza con las condiciones iniciales observadas a varios niveles y, para ciertos tiempos y para áreas bastante grandes (como un hemisferio).

En la realización del computo de cada interacción, de aproximadamente 5 minutos, se inicia ésta de la última predicción que ha sido calculada, siguiéndose este procedimiento para varios días. El propósito consiste en pronosticar el viento, a diferentes niveles y con la ayuda de modelos termodinámicos y de dinámica de fluidos, obtener indicaciones de desarrollo y trayectorias de tormentas. Y de estos sistemas de vientos, deducir pronósticos de temperatura y precipitación, asistidos incluso por el uso de procesos estadísticos. Predicciones detalladas de los métodos numéricos iterativos, aún para cuando se tenga la información perfecta, no va más allá de un par de semanas, llegando en ocasiones a rebasar las predicciones de los resultados de métodos climatológicos probabilísticos.

Aunque no existe una evidencia generalizada de esto, se espera que con una mayor y mejor información en las observaciones, combinado con un mayor conocimiento de la modelación atmosférica, se mejoren dichos resultados; ya que si bien estas metodologías están muy lejos de ser perfectas, sí indican que los métodos contienen algún entendimiento del comportamiento atmosférico a corto plazo. El uso de análogos de situaciones similares en el pasado, como guías de pronósticos del futuro, como lo son las tendencias a largo plazo, teleconexiones, ecuaciones de regresión, funciones ortogonales empíricas, contingencias climatológicas (indicando probabilidades de ocurrencia después de observadas ciertas condiciones atmosféricas), el uso de anomalías en la cubierta de nieve, temperatura superficial oceánica y humedad del suelo (para determinar probables patrones de forzamiento y estabilización) se siguen utilizando mientras no se tenga el método numérico de pronóstico adecuado y confiable.

Las ecuaciones que rigen la circulación atmosférica y de los que depende por lo tanto el clima, tienen la propiedad de la estabilidad exponencial, donde una condición inicial dada de cierto estado de la atmósfera (presión, temperatura y humedad) corresponde una evolución futura perfectamente determinada, resultado de un cálculo en el que el azar no interviene. Si modificamos esta condición inicial, este cambio ínfimo tendrá sólo pequeñas consecuencias en los primeros instantes, pero este cambio tendrá tendencias a amplificarse en el tiempo a un ritmo exponencial. Esto quiere decir que, si se pretende prever lo que va a ocurrir, es menester tener en cuenta todo lo que nos rodea. Von Neumann se dio cuenta de las limitaciones de esta manera de encarar las cosas y comprendió que la índole de las ecuaciones en relación con las condiciones iniciales, impediría siempre todo pronóstico preciso a largo plazo. Pero llegó también a una conclusión más original: la posibilidad de que esa misma estabilidad, permitiera tal vez dirigir el tiempo. Acaso fuera más fácil dirigir el tiempo que preverlo. La inestabilidad exponencial y la dificultad de predecir, que es su consecuencia, son fenómenos corrientes que se manifiestan en situaciones muy variadas, tanto en las más simples situaciones como en las más complejas. El tiempo que observemos dentro de un año, revelará informaciones sobre el estado de la atmósfera de hoy, a excepción de las informaciones en una escala demasiado fina y que no podamos percibirlas directamente.

Sin embargo, es más práctico considerar que hay creación de información con el correr del tiempo y, decir que la evolución futura del sistema depende del estado actual y del azar. En tanto, que condiciones geográficas semejantes producirán efectos climáticos semejantes, no es cierto que condiciones atmosféricas semejantes produzcan condiciones atmosféricas semejantes. La inestabilidad exponencial impide toda previsión cuantitativa a largo plazo, pero no excluye previsiones de orden cualitativo, incluso en plazos mucho mayores. Los científicos de hace 100 años, sabían bien que un sistema determinista puede comportarse de un modo aparente aleatorio. Pero también sabían que no era realmente aleatorio; sólo lo aparentaba debido a una información imperfecta. Y también que esto sólo ocurría en sistemas muy grandes y complicados, con muchísimos grados de libertad, muchísimas variables distintas y muchísimas partes constituyentes; sistemas cuyo comportamiento detallado parecería estar siempre más allá de la capacidad de la mente humana. El progreso completo de la ciencia estaba basado en la creencia de que la forma de buscar la simplicidad en la naturaleza es, hallando ecuaciones diferenciales para describirla.

Ciertos impulsos innatos hacen que la humanidad se esfuerce por comprender las regularidades de la naturaleza, por encontrar las leyes ocultas tras las complejidades del universo, por extraer el orden a partir del caos. La realidad práctica es que la matemática constituye el método más efectivo y fiable de que disponemos para el entendimiento de nuestro alrededor. Conforme una teoría suplanta a otra y, un paradigma destrona a otro paradigma, una cosa permanece constante, la aplicabilidad de la matemática. Estaríamos mucho mejor, si hubiese más gente, no sólo en la investigación, sino también en el mundo de la política y economía, que comprendiera que los sistemas simples no poseen necesariamente propiedades dinámicas simples. Del mismo modo, que en el siglo XVIII se creía en un mundo que funcionaba como un reloj, a mediados del siglo XX se creía en uno lineal. La teoría del caos al estudiar estructuras irregulares presentes en el mundo natural, ha descubierto que en ciertos sistemas deterministas, se producen comportamientos que por su aparente aleatoriedad, son completamente impredecibles.

La ciencia de hoy en día muestra que la naturaleza es inexorablemente no lineal. La matemática clásica se concentró en las ecuaciones lineales por un motivo lógico: no se podía resolver ninguna otra cosa. La matemática de los procesos estocásticos, floreció junto con la matemática de los procesos deterministas. Dos formas de ver al mundo, dos paradigmas, dos ideologías matemáticas.

El determinismo, para los sistemas simples con pocos grados de libertad; la estadística para los sistemas complicados con muchos grados de libertad y, cualquier sistema o bien era aleatorio o no lo era. (Lazlo, 1972a).

Hace falta un generalista para darse cuenta de lo que es realmente importante y, de que hoy en día existen signos de una nueva unificación de las matemáticas. Tradicionalmente las ciencias buscan estructuras y regularidades en los datos que tienen probabilidades de encontrar algún sentido en ellos. Así, actualmente uno de los principales problemas que enfrenta la ciencia consiste en diferenciar el caos determinista y el estocástico.

El orden y el caos determinista, proceden de la misma fuente; los sistemas dinámicos descritos por ecuaciones diferenciales no lineales. Los regímenes ordenados muy a menudo son más importantes para la biología y la vida misma que los caóticos. La evolución caótica refuta cualquier predictabilidad a largo plazo y, las medidas registradas en un experimento no pueden repetirse nunca. Sin embargo, el caos, puede seguir siendo interpretado en términos del concepto de atractor. Aunque las ecuaciones diferenciales de los sistemas irreversibles y de su evolución en el tiempo sean determinísticas, su sensibilidad anula el ensueño de un universo exacto y predecible. La más ligera incertidumbre, que siempre habrá en el mundo real, da al traste con la predicción. El atractor contiene una infinidad de posibilidades, aunque confinadas en una región finita, donde el sistema se ve que adopta configuraciones diferentes a medida que pasa el tiempo sin repetirse nunca.

Lo que significa que el sistema formula formas dentro de formas. Un atractor extraño o atractor caótico, es completamente distinto a los atractores de punto fijo o ciclo límite; aunque también es estable pero al contrario de un ciclo límite, muestra una enorme sensibilidad respecto a las condiciones iniciales; el comportamiento a largo plazo de un sistema atrapado por un atractor extraño, depende hasta de los detalles más pequeños y de cómo empezó. Y a diferencia de un ciclo límite, es un objeto fractal; presentando una invariancia de escala, ya que su forma es la misma sin importar la escala en que se contempla el objeto. El descubrimiento de los fractales, ha revelado una nueva forma de contemplar infinitos niveles de complicación en la naturaleza. En el caos resultante de ecuaciones dinámicas determinísticas no lineales, se generan internamente propiedades intrínsecas, diferenciándose de los efectos incontrolados del azar y de las fluctuaciones estocásticas. La atmósfera es un sistema de una enorme complejidad, en el que se observa que regiones muy alejadas por las distancias, terminan por influirse recíprocamente. El carácter aleatorio de todo pronóstico, parecería deberse sencillamente a la imposibilidad de dominar todos los parámetros significativos. Sin embargo, no por el hecho de que el sistema sea complicado, su comportamiento es imprevisible, existen sistemas muy simples cuyo comportamiento es también muy complicado; así por ejemplo (Lorenz, 1963) ha reducido la multitud de ecuaciones que rigen la evolución de la naturaleza a solamente tres y, demostrado que este modelo reducido conserva la complejidad casi infinita de la original. Lorenz trató de crear un modelo matemático del flujo del clima atmosférico, tan sencillo como fuera posible y al mismo tiempo, respetar a los aspectos físicos esenciales. Utilizó ecuaciones no lineales acopladas con el mínimo requerido, surgiendo un atractor extraño, aunque dicho atractor no se ha demostrado rigurosamente que sea un atractor extraño.

Observándose que si se añaden más variables a las ecuaciones de Lorenz, en un intento de que el cuadro sea más realista, el caos se vuelve más difícil de encontrar.

Sigue siendo una empresa gigantesca el formular una teoría completa de todos los supuestos en los cuales puede emerger el caos. Las personas que por el relieve exagerado que se otorga habitualmente al caos no lineal, en su visión (que difiere de la autoorganización), reconocen que cuando se trabaja con semejantes sistemas, en algún punto, es casi inevitable encontrarse con tal fenómeno.

Sin embargo, es discutible que ello tenga una significación intrínseca profunda. Muchos parecen contentarse con buscar el caos en problemas modelo y, calcular la dimensión fractal de los atractores extraños resultantes.

Suponiendo que ello sea útil, lo será solamente para inflar la literatura científica. Se sabe bastante acerca de ciertas situaciones que generan caos. Se pueden derivar atractores extraños, al romperse un estado regularmente oscilante regido por ciclos límite y periódicos o, de estados estacionarios independientes del tiempo, gobernados por atractores de punto fijo. El determinismo macroscópico que impera en la escala de la meteorología, es reducible al azar cuántico, gracias a las leyes de la estadística que se aplican a la presencia de grandes cantidades de partículas.

Así, podemos decir que el azar parece ser el dato fundamental y el mensaje último de la naturaleza. Decir que el mundo no tiene sentido, significa que no discernimos en él ninguna regla, que no comprendemos el pasado y que no podemos predecir su futuro; decir que tiene un sentido, significa, si ese sentido fuese perfectamente comprendido, que el pasado y el futuro están abiertos ante nosotros como un libro. La verdad parece que se sitúa a la mitad del camino entre ambas, es decir, que podemos discernir un sentido pero sólo de tipo local, lo cual nos permite actuar en ciertas direcciones, pero en otras parece que se nos escapa. Podemos encontrar al mundo un sentido, pero éste será solamente en el sentido probabilístico. Las series engendradas por interacción de sus elementos, aún cuando parezcan aleatorios, representan un mundo puramente determinístico, en el cual el futuro es previsible partiendo del pasado. Las series contingentes, para un mundo desprovisto de sentido en el que se rechaza cualquier regla, se pliegan dócilmente al cálculo de las probabilidades. Estos dos modelos constituyen los polos entre los cuales oscila nuestra comprensión del mundo.

A medida que nos alejamos de uno, nos aproximamos al otro. Sabemos que pronosticar el estado del tiempo es una cosa, pero pronosticarlo correctamente es otra. El principal defecto de los métodos actuales de predicción del estado del tiempo, es que no son muy buenos en predecir cambios repentinos. Por lo que podemos decir que podemos pronosticar, siempre y cuando no ocurra nada inesperado.

La aplicación de la ecuación logística discreta, no sólo pone de manifiesto la aparición del caos, sino también la manera en que éste puede ser creado. La aplicación logística muestra que los cambios drásticos no tienen que tener causas drásticas. Para estudiar la dinámica de la ecuación logística, debemos contemplar el comportamiento a largo plazo, de sus atractores. El mismo extraño ordenamiento, no sólo es válido para la aplicación logística, sino también para las iteraciones de cualquier aplicación de curvas de tipo uni-modal. Los modelos del caos, podían ser universales, es decir, no específicos, para ejemplos individuales, sino representativos de clases enteras de sistemas, (May, 1976). La cadena lineal de la causalidad y el poder profético de sus ecuaciones matemáticas, han dominado la ciencia durante tantas generaciones que ahora es difícil de ver dónde hay lugar, en el universo, para la libertad, la novedad y la creatividad. Para los filósofos, la idea de causalidad no es del todo clara, bien fundamentada y, no resiste un punto de vista estrictamente lógico.

La cadena de la causalidad lineal, es una mezcla de costumbres, creencias y sentido común; por lo que es necesario romper el dominio que ejerce sobre nosotros.
A medida que la ciencia explora más profundamente en su universo de flujos internos y desarrollos dinámicos, de influencias sutiles y escalas de tiempo, las cadenas causales ya no se pueden analizar y reducir a conexiones lineales de sucesos individuales, de modo que el concepto mismo de la causalidad empieza a perder su fuerza.

Cuando la causalidad y el determinismo, se utilicen en algo tan complejo como un sistema ecológico, las redes empleadas se vuelven más complejas, hasta el extremo de que las teorías y modelos matemáticos corran peligro de desmoronarse. La física clásica pareciera haber mostrado que la causalidad existía al nivel de la vida cotidiana.

En un universo que parece ser extremadamente causalista, el indeterminismo trae consigo una nueva visión del mundo, cuyas repercusiones tal vez apenas han comenzado a socavar los cimientos de la física clásica, echando abajo las ideas sobre la conexión de los acontecimientos. Fue Willard Gibbs, el primero en reconocer que el universo es predecible sólo dentro de límites estadísticos, es decir, que no podemos seguir ocupándonos de lo que siempre ocurre, sino de lo que ocurre una abrumadora mayoría de las veces. Todos los sistemas pueden ser descritos en forma estadística. La aparente causalidad del universo se debe al hecho de que las probabilidades en los sistemas mayores, más que en los pequeños, son aproximadamente iguales a uno. El azar no es un nuevo instrumento matemático aplicable a la física, sino que forma parte del mismo entramado de ésta. Ello implica que la apariencia de la causalidad en la vida cotidiana, es un puro engaño estadístico. Esta visión implica que todas las realidades posibles, coexisten dejando fuera todas aquéllas que no pueden aceptar las propias intuiciones. Vivimos en un universo participativo, (Peatt y Briggs, 1990). Si se examina detalladamente a cualquier fenómeno, resultará que el todo es lo que causa todas las demás partes. Por otra parte, puede ser que los efectos más sutiles resulten ser cada vez más importantes. Al afirmar que el todo causa todo lo demás, se da a entender que los fenómenos de la naturaleza se originan en los cambios frecuentes del conjunto y, que se describen mejor con una ley del todo.

Mientras que la causalidad lineal puede funcionar suficientemente bien para sistemas limitados, mecánicos y aislados, en general se necesita algo más delicado y complejo, para describir la extrema riqueza de la naturaleza.

Existe una economía en la naturaleza, el movimiento, y el cambio, surge del universo como un todo. Lagrange, Fermat y Euler, demostraron que el movimiento y el cambio, siempre se consiguen de un modo que minimizan la acción de la naturaleza. Max Plank, creía que los principios de variación eran universales y, que deberían aplicarse a todo tipo de comportamiento dentro del universo; donde los principios de variación sugieren que los movimientos de la naturaleza son completos, de una manera similar y, solamente se pueden entender en un sentido total. La teoría de la relatividad y la teoría cuántica, son consecuencia lógica de los principios de variación. Esta nueva dinámica demuestra que todo movimiento y cambio, surge de una ley del todo y, que los patrones y sucesos de la naturaleza, son la expresión de una unidad fundamental de forma. La ciencia, es una forma de comprender la naturaleza, es un planteamiento objetivo en que nada se da por supuesto y la razón y el experimento son inseparables, considerado dentro del contexto de una percepción directa de la totalidad de las cosas y la unidad de la naturaleza.

Todo lo que ocurre, en nuestro universo, es causado por todo lo demás. La totalidad del universo se revela o se expresa en sus acontecimientos individuales. Las ciencias naturales acabaran englobando la ciencia del ser humano y aún al mismo tiempo; la ciencia del ser humano englobara las ciencias naturales; no habrá más que una ciencia.

Un modelo de simulación clima-producción, puede ser definido como una representación simplificada de los mecanismos fisiológicos, químicos y físicos de la planta y de sus procesos de crecimiento. Si los procesos básicos de producción y distribución en la planta y, sus relaciones con el agua son propiamente entendidos y modelados, la respuesta de la planta a condiciones ambientales puede ser simulada, mostrando los factores limitantes de su crecimiento. La simulación será más útil, si el modelo considera los fenómenos más relevantes y no contiene consideraciones inadecuadas, para proveernos de una visión real en las relaciones clima-producción, donde es posible evaluar procesos específicos como fotosíntesis, transpiración o respiración. La simulación, debe ser considerada más como una guía de investigación del comportamiento del sistema biológico, que como una solución final. Y explicando el porqué, algunos factores son más importantes en la producción que otros, también dándonos las bases para nuevos experimentos sobre procesos aparentemente importantes pero no lo suficientemente entendidos. El desarrollo y prueba de estos modelos de simulación, requieren de una visión inter y transdisciplinaria.

Los sistemas de predicción pertenecientes al análisis de los modelos clima-producción, son sistemas basados en procesos de causa-efecto. El diseño de estos sistemas predictivos, se basa en la hipótesis de que las tasas de crecimiento de la planta, reflejadas en el crecimiento acumulativo logístico durante el proceso formativo del desarrollo de la planta, están correlacionadas con el rendimiento productivo. Los máximos en las curvas clima-producción, nos dan el óptimo ambiental para un fenotipo. Y su altura es la medida de su mejor realización en ambientes óptimos y, el grosor de la curva, la medida de la tolerancia para ambientes no-óptimos. Esta tolerancia será una medida de su homeostasis. En general, podemos decir que un ecosistema será más complejo conforme sea más maduro, cualidad que aumenta con el tiempo en que permanezca sin ser perturbado. La sucesión nos lleva a considerar como más maduro o más complejo al ecosistema, cuando está compuesto de un mayor número y grado de interacción de sus elementos; largas cadenas alimenticias, un uso más completo del alimento, relaciones bien definidas o más especializadas, situaciones más predecibles, promedio de vida mayor, menor número de hijos y la organización interna pasa por perturbaciones aleatorias a ritmos cuasi regulares. La madurez tiene un doble significado; en su aspecto estructural puede ser medido en términos de diversidad o de complejidad sobre un cierto número de niveles. En los aspectos relacionados a la materia y a la energía, puede ser medida como producción primaria por unidad de biomasa total.

Los índices de diversidad expresan la distribución de los individuos dentro de las especies en el ecosistema.

Los organismos pequeños, usualmente muestran un menor grado de organización y madurez que los animales mayores, quiénes muestran patrones definitivos de distribución. Pero aún para escalas locales, la distribución de organismos no es aleatoria, demostrándose la existencia de leyes naturales capaces de pronosticar patrones ecológicos, aunque momentáneamente no fuera factible su formulación matemática. Si los patrones de abundancia relativa, resultan de la interacción de muchos factores independientes, una distribución log-normal es pronosticable por la teoría y es, lo usualmente encontrado en la naturaleza. En grupos relativamente pequeños y homogéneos de especies, donde un factor pueda predominar o ser el factor limitante, nos lleva a distribuciones de “vara rota”; mientras que lo opuesto, nos lleva a distribuciones logarítmicas. Esto es que la distribución log-normal refleja el “teorema de límite central” o “ley de los grandes números”. En cambio, circunstancias especiales, donde la distribución de “vara rota”, “series geométricas” o “distribuciones logarítmicas” son observadas, éstas reflejaran las características intrínsecas de la comunidad biológica. Un ecosistema con una estructura compleja, es rico en información y necesita una menor cantidad de energía para mantener esta estructura.

Sus interrelaciones o canales de comunicación, funcionan en promedio más eficientemente, permiten el mantenimiento de la misma biomasa con un suplemento menor de energía o, una biomasa mayor con el mismo suplemento energético. La única limitante a este cambio progresivo, es la interferencia del ambiente físico.

Un ecosistema que no está sujeto a perturbaciones fuertes del exterior, cambia de manera progresiva y direccional, convirtiéndose en más maduro, con incrementos de la complejidad de su estructura y, disminución del flujo de energía por unidad de biomasa. En el caso de ambientes fluctuantes, el ecosistema estará compuesto de especies con una razón reproductiva alta y menores requerimientos especiales, con menor diversidad y menor complejidad y su flujo de energía por unidad de biomasa permanece relativamente alto. Al variar las condiciones impuestas a un sistema, éste dependiendo de su naturaleza, puede presentar diversas formas de comportamiento. Es casi imposible hacer predicciones detalladas acerca de las subdivisiones de las mayores unidades ecológicas, aunque es generalmente posible hacer predicciones sobre el tipo de organismos presentes y ausentes. Así también, si se desea pronosticar futuros procesos de producción, sería necesario tener una descripción de estos sistemas en su ambiente particular, que incluya tantos detalles relevantes como sea posible. Debemos estar interesados en todas las interacciones que controlan o alteran el número o tipo de organismos encontrados en una región dada; ya que una noche fría o una hora de fuerte viento pueden producir grandes diferencias en el mundo biológico. Tal información puede ser construida en una simulación poblacional, que puede ser usada para predecir los efectos de políticas particulares de administración. El valor de la simulación es obvio, pero su utilidad reside principalmente al analizar casos particulares. Una teoría ecológica debe hacer afirmaciones sobre el ecosistema como un todo global, así como de especies y de tiempos, en particular afirmaciones válidas para muchas especies y no solamente para una.

El comportamiento de todo el sistema, depende especialmente de su complejidad y, el comportamiento individual de las especies dependerá del todo. La alternativa es intentar analizar la naturaleza de tal forma, que pueda ser descrita en una forma rigurosa donde las predicciones puedan ser derivables mediante procedimientos reproducibles; siendo capaces de definir en algún grado, la diferencia entre lo que conocemos sobre bases teóricas y lo que nos falta por hacer, antes de que podamos realizar predicciones más seguras. La ecología es aún una rama de la ciencia en la que usualmente es mejor confiar en el juicio de un experimentado practicante en contacto directo diario con los problemas reales, que en las predicciones de un teórico. Una descripción matemática precisa de los sistemas productivos, puede incluir cientos de parámetros; muchos de los cuales son difíciles de medir y cuyos resultados esperados de las muchas ecuaciones diferenciales parciales simultaneas no-lineales de simulación, usualmente no tienen solución, para conseguir respuestas que son complicadas expresiones de los parámetros y que no son fáciles de interpretar. Claramente, se observa la necesidad de diferentes metodologías para tratar con estos sistemas, que son intrínsecamente complejos. Las fluctuaciones ambientales, parches y productividad, pueden combinarse para algunos propósitos de medida global de incertidumbre ambiental. La relación: productividad/ biomasa, es el metabolismo por unidad de biomasa. Su razón de cambio es negativo, a lo largo de la sucesión. El cociente: biomasa/productividad puede definirse como la cantidad de información que puede ser mantenida con un gasto definido de energía potencial. Tomando a la información en el sentido de algo a lo que la vida ha llegado, a través de una serie de decisiones y que influye de una u otra manera en posibles futuros eventos.

La “entropía organizacional” será una medida del costo energético por unidad de desarrollo y puede extenderse para cubrir un amplio rango de ambientes, a costa de ir reduciendo la eficiencia de su óptimo. Donde la noción de “grano” procede del tamaño de los parches ambientales.

Si el parche es lo suficientemente grande y uniforme y el grano es “grueso”, mientras que si los parches son pequeños de tal forma que el individuo se mueve en varios parches, tendremos un ambiente de “grano fino”.

La forma de la “función adaptativa” puede variar de la forma de hipérbola a la forma lineal y en cualquier caso, la estrategia óptima está representada por el punto en que la línea toca la curva.


Visitas: 116