Globalización: Revista Mensual de Economía, Sociedad y Cultura


Febrero de 2020

SOBRE EL PRONÓSTICO EN LOS SISTEMAS FÍSICO CLIMÁTICOS Y BIOLÓGICO PRODUCTIVOS
Walter Ritter Ortíz


POSIBILIDADES Y LIMITACIONES


Sección de Bioclimatología, Centro de Ciencias de la Atmósfera, UNAM. Circuito Exterior de Ciudad Universitaria, Del. Coyoacán, México, D. F., C. P. 04510. walter@atmosfera.unam.mx


RESUMEN

Se propone una nueva visión sobre el pronóstico de los sistemas físico climáticos y biológico-productivos, basados en conceptos de: Teoría General de Sistemas, Sistema Termodinámico, Cibernética, Teoría de la Información, Teoría del Caos y de las Transformaciones de los Sistemas Dinámicos; lo cual nos permite señalar ventajas y desventajas de la situación actual y, la conveniencia de un nuevo enfoque estadístico (estocástico) global e integral de los modelos, como de sus procesos de retroalimentación continua.

INTRODUCCIÓN

El conocimiento científico de la antigüedad, fue sistematizado y organizado por Aristóteles, quién creo el esquema que iba a servir de base a la visión occidental del universo durante dos mil años.

Hemos de esperar entonces, al renacimiento, para alcanzar un mayor desarrollo de la ciencia occidental cuando el hombre comienza a liberarse de la influencia de Aristóteles y de la iglesia y muestra un nuevo interés hacía la naturaleza.

A finales del siglo XV, se realizó por vez primera una aproximación al estudio de la naturaleza con un espíritu realmente científico, y se realizaron experimentos para probar ideas especulativas.

Como este desarrollo fue seguido de un creciente interés por las matemáticas, condujo finalmente a la formulación de verdaderas teorías científicas basadas en experimentos y expresadas en lenguaje matemático.

Galileo, fue el primero en combinar el conocimiento empírico con las matemáticas y es por tal motivo, considerado el padre de la ciencia moderna.

Muchos científicos han señalado que las matemáticas son la manera más abstracta, lógica y coherente de pensar que conocemos, donde estamos totalmente abiertos a la creación libre sin encontrar limitaciones por los requisitos de las experiencias sensitivas de la realidad ordinaria.

Sin embargo, también podemos decir que la matemáticas son un esquema lingüístico limitado, que permite una gran precisión y coherencia pero, al precio de una abstracción tan extrema, que su aplicabilidad ha de limitarse en algunas vías claves (Bohm y Peat, 1987).

El hecho de que las matemáticas son un lenguaje, es algo especialmente importante para la formulación de nuevas teorías científicas.

Una teoría científica suele desarrollarse por etapas.

Los científicos tienen que crear la teoría, basándose en parte, en cosas conocidas y en parte, en las desconocidas.

Una formulación matemática de parte de la teoría que ya se conoce, otorga a los científicos una forma de pensar coherente y, sugiere cuáles son las zonas en que la teoría está Incompleta y por lo tanto, donde habrá que efectuar modificaciones.

En la actualidad, existen a nuestra disposición muchas estructuras matemáticas nuevas, que podrían aplicarse a nuevas áreas científicas aunque, muchas de tales estructuras se hayan desarrollado sin pensar en dichas aplicaciones.

Sin embargo, en general, podemos adelantar la hipótesis de que cuanto más dura sea una disciplina o una rama de la ciencia, tanto más comenzará a descubrir y señalar fenómenos y propiedades que permitan establecer paralelos con los hallazgos logrados por otras disciplinas.

En muchas de las estructuras más nuevas que han descubierto los matemáticos, no intervienen de alguna manera directa los números.

Haciendo referencias del tipo de: ¿Cómo pueden conectarse los objetos entre sí?, ¿Qué clase de distorsiones se pueden aplicar a un espacio Sin cambiar sus propiedades? o ¿Cuáles son las reglas combinatorias de símbolos abstractos que llevan a estructuras con propiedades interesantes? (Lazlo, 1972b).

El conocimiento se adquiere a través del proceso de investigación científica, que como puede verse procede por etapas:

La primera etapa, consiste en reunir evidencia experimental acerca del fenómeno a ser aplicado.

En la segunda etapa, los hechos experimentales se correlacionan con símbolos matemáticos y, se resuelve un esquema matemático que interconecta estos símbolos de una manera precisa y consistente.

A este esquema se le llama usualmente modelo matemático o si es más comprensible, teoría. Esta teoría se emplea para predecir los resultados de posteriores experimentos que se llevan a cabo para comprobar todas sus consecuencias.

Esta manera de basar todas las teorías firmemente en el experimento, se conocen como el Método Científico (Peters, 1985).

El conocimiento racional y las actividades racionales, ciertamente constituyen la principal parte de la investigación científica, pero no son todo cuanto hay en ella.

La parte racional de la investigación, sería de hecho inútil si no estuviera complementada por la intuición, que ofrece a los científicos nuevas perspectivas y les hace creativos.

Las penetraciones intuitivas, sin embargo, no son de utilidad a menos que puedan ser formuladas dentro de una estructura matemática consistente y suplementada con una interpretación en lenguaje sencillo.

La abstracción es un rasgo crucial de esta estructura. Consiste en un sistema de conceptos y símbolos que constituyen un mapa de la realidad.

La abstracción definitiva, tiene lugar en las matemáticas cuando las palabras se remplazan por símbolos y donde, las operaciones de conectar los símbolos están rigurosamente definidas.

De este modo, los científicos pueden condensar la información en una ecuación por ejemplo, de una sola línea de símbolos se necesitarían varias páginas de escritura ordinaria. La visión de que las matemáticas no son más que un lenguaje extremadamente abstracto y comprimido que no pasa inadvertido.

Muchos matemáticos en realidad, creen que las matemáticas no son sólo un lenguaje para describir la naturaleza, sino que son inherentes a la misma naturaleza.

El inventor de esta creencia fue Pitágoras, quién hizo la famosa afirmación de que todas las cosas son números y, desarrolló una clase muy especial de misticismo matemático (Bohn y Peat, 1987).

La creencia predominante de que el formalismo matemático expresa por sí mismo la esencia de nuestro conocimiento de la naturaleza (sostenida por los pitagóricos y reafirmada por Kepler, quién creía que las matemáticas eran una fuente básica de verdad), no fue comúnmente aceptada hasta época relativamente reciente. James Jeans (1930), afirmó que Dios tenía que ser un matemático y más tarde, Heisenberg (1971), tenía la idea de que las matemáticas son la expresión básica de nuestro conocimiento de la realidad.

Los científicos que han trabajado en la creencia de que las explicaciones más profundas también debían de ser matemáticamente bellas, han conseguido a menudo deducir un conocimiento nuevo, a través del énfasis por el formalismo matemático.

Pero las matemáticas nunca fueron el único criterio de sus descubrimientos. Las matemáticas son sólo una función de la mente humana y, otras funciones pueden con toda seguridad, ser igualmente importantes.

Así, Einstein, sobre todo en su período más creativo, ciertamente apreciaba la belleza matemática; pero en realidad, en sus investigaciones no empezaba por los desarrollos matemáticos. En lugar de eso, comenzaba con sentimientos intuitivos y una sucesión de imágenes, de las cuales surgían conceptos más detallados; y estas ideas, en algún momento conducían a posteriores desarrollos matemáticos o incluso, a surgir nuevas formas matemáticas (Schlip, 1951; Einstein, 1951).

Es difícil que la mente humana pueda clasificar y comprender todos los tipos diferentes de complejidad, que se producen en los grandes sistemas.

Sin embargo, los avances en las matemáticas, nos brindan ciertas perspectivas de comprensión con respecto a dos tipos de complejidad, que pueden considerarse como opuestos y se denominan “caos” y “orden”.

Y sin embargo, hay cierto tipo de caos y de orden, que son consecuencia del mismo tipo de estructura matemática, las ecuaciones no-lineales; versión moderna del filósofo griego Anaxágoras quién pensaba que los opuestos surgen de un absoluto carente de forma y que, finalmente acaban por regresar a él.

El comportamiento en los sistemas de grandes dimensiones, a menudo resulta imprevisible y está sujeto a grandes variaciones como consecuencia de lo que parece ser cambios secundarios, por lo que recibe el nombre de “comportamiento caótico”.

En los sistemas que manifiestan un comportamiento caótico, el más pequeño error que aparezca en nuestro conocimiento acerca de su estado cuando empezamos a estudiarlo, nos conducirá muy pronto a una incertidumbre total, con respecto a sus condiciones reales.

El comportamiento caótico no puede predecirse, aunque las ecuaciones fundamentales tengan un carácter determinístico. Maxwell, a mediados del siglo pasado, señaló que ciertos fenómenos son imprevisibles en la práctica, porque en la forma en que se desarrollan, depende de manera decisiva de la situación específica que exista al comienzo de su desarrollo.

El universo entero influye en todos los conocimientos que ocurren dentro de él y si bien, esta influencia no puede ser descrita detalladamente, se puede reconocer un cierto orden y expresarlo en términos de leyes estadísticas; por lo que el uso del concepto de probabilidad, es que hay una serie de variables ocultas que nos impiden realizar pronósticos exactos (Koestlar, 1972).

La importancia de las conexiones limitadas y, de la probabilidad, suponen una nueva noción de causalidad que seguramente tiene profundas repercusiones en todas las ramas de la ciencia. Pero así también, el hecho de que este enfoque no acepte entidades fundamentales, lo convierte en uno de los sistemas más profundos de pensamiento y al mismo tiempo, que se trata de un enfoque muy difícil de abordar (Grer y Green, 1977).

El concepto de orden, como un nuevo enfoque, es el elemento clave de estas teorías. El orden en este concepto, significa las interconexiones ordenadas de los procesos que pueden conectarse de varias maneras, por lo que cabe determinar varias categorías de orden en que la topología se utiliza para clasificar estás categorías.

Cuando el concepto de orden (donde los modelos de interacciones que resultan son iguales a los que se observan en la naturaleza) se incorpora la estructura matemática y, el resultado es que sólo pocas categorías de relaciones ordenadas son consecuentes con esta estructura (Peat y Briggs, 1990).

Desde hace tiempo sabemos que vivimos en un mundo pluralista, en el que tienen lugar tanto fenómenos deterministas como estocásticos.

Encontrando evolución, diversificación e inestabilidad, donde quiera que miremos. Es un mundo de inestabilidades y fluctuaciones, Y éstas son, en última instancia, las responsables de la sorprendente variedad y riqueza de formas y estructuras que observamos alrededor nuestro, en la naturaleza.

Muchos procesos fundamentales que estructuran la naturaleza, son irreversibles y estocásticos, ya que las leyes deterministas y reversibles que describen las iteraciones elementales, no contienen posiblemente toda la verdad.

En lugar de construir un mundo en el que el pasado condiciona el futuro, pasamos a un mundo cuyo futuro está abierto, en el que el tiempo juega un papel constructivo. Dos disciplinas han cambiado la visión de lo complejo de forma significativa:

La física de los estados del no equilibrio, descubriendo nuevas propiedades fundamentales de la materia que se encuentra muy alejada de las condiciones de equilibrio.

La teoría de los sistemas dinámicos, donde el descubrimiento central es el papel dominante de las inestabilidades, donde pequeñas variaciones de las condiciones iniciales, pueden dar lugar a grandes efectos de reforzamiento.

Los fenómenos complejos que aparecen en el marco de los sistemas físico-químicos y biológicos, así como en el mundo macroscópico, conducen a una serie de conceptos tales como: no equilibrio, estabilidad, bifurcación, ruptura de simetría y orden de gran escala.

El problema de la complejidad, desde el punto de vista de la moderna teoría de los sistemas dinámicos, sirve para discutir algunos mecanismos gracias a los cuales los sistemas no lineales sacados del equilibrio, pueden generar inestabilidades, que a su vez dan a lugar a bifurcaciones y rupturas de simetría.

Uno de los objetos fundamentales a los que se dirigen los métodos analíticos para el tratamiento de sistemas complejos, es la capacidad de romper barreras interdisciplinarias y de poder probar nuevos caminos.

La diferencia entre los fenómenos físico-químicos y biológicos, entre el comportamiento sencillo y complejo, no es tan grande como podría suponerse intuitivamente. Este descubrimiento nos acercará a una contemplación pluralista del mundo físico, según la cual, al variar las condiciones impuestas a un sistema, éste puede presentar dependiendo de su naturaleza, diversas formas de comportamiento.

El pensamiento complejo, aspira al conocimiento multidimensional. Pero sabe desde el principio que el conocimiento completo es imposible.

La totalidad es la no-verdad. Implica el conocimiento de un principio de incomplitud y, de incertidumbre.

Todas las cosas son causadas y causantes, ayudadas y ayudantes, mediatas e inmediatas y todas subsisten por un lazo natural e insensible que liga a las más alejadas y a las más diferentes.

El pensamiento complejo, está animado por una tensión permanente entre la aspiración a un saber no dividido, no reduccionista y, en el reconocimiento de lo inacabado e incompleto de todo conocimiento

El cosmos, no es una máquina perfecta sino un proceso en vías de desintegración continua y, al mismo tiempo, de organización. Y la vida no es una sustancia, sino un fenómeno de auto-eco-organización extraordinariamente complejo, que produce autonomía.

“Lo simple no existe, sólo existe lo simplificado”; por lo que, de la naturaleza, lo complejo debe concebirse como elemento primario de la naturaleza.

El concepto de información, presenta grandes lagunas y grandes incertidumbres. La organización actúa como concepto central de la biología.

El organicismo, quiso ver en la sociedad una analogía del organismo animal, investigando las equivalencias entre vida biológica y vida social.

Sin embargo, la autoorganización, está más allá de las posibilidades de la Cibernética, Teoría de Sistemas y Teoría de la información.

Con Wiener y Ashby, la complejidad entra en escena en la ciencia y, con Von Newmann, el concepto de complejidad aparece enlazado con los fenómenos de autoorganización.

La complejidad siempre está relacionada con el azar.

Las propiedades de los modelos básicos, sólo pueden entenderse dentro de un contexto dinámico; en términos de movimiento, interacción y transformación. Nunca se sabe de antemano cuándo ni cómo, van a ocurrir estos fenómenos. Sólo se pueden predecir las probabilidades de que lo hagan, lo cual no significa que actúen de forma arbitraria, sino que los originan causas ilimitadas.

El comportamiento, de una parte está determinado por las conexiones limitadas que ésta tiene con el conjunto y, puesto que es imposible saber con precisión cuáles son estas conexiones, hay que reemplazar la visión clásica y parcial de causa y efecto, por un concepto más amplio de causalidad estadística.

Las leyes de la naturaleza son leyes estadísticas, según las cuales las probabilidades de que ocurran ciertos fenómenos están determinadas por la dinámica de todo el sistema; es el todo, lo que determina el comportamiento de las partes (Yuann y Lake, 1977; Bohn, 1980 y Peters, 1985).

Cada vez más, fenómenos pueden cubrirse gradualmente con la precisión siempre en aumento, mediante un mosaico de modelos que se entrelazan, cuyo número de parámetros no explicados debe continuar disminuyendo.

El adjetivo utilizado para esta situación, no es nunca apropiado para ningún modelo individual, sino que sólo puede ser aplicado a una combinación de modelos consistentes, ninguno de los cuales es más fundamental que los de más, (Capra, 1971; Sapp, 1971 y Weiss, 1971).

Ningún pensamiento puede ser absolutamente correcto cuando es ampliado de manera indefinida. El hecho de que una cosa tenga cualidades que van más allá de lo que pensamos y decimos sobre ella, se encuentra tras de nuestra noción de la realidad objetiva.

Está claro que si la realidad dejara en algún momento de mostrarnos aspectos nuevos que no están en nuestra mente, entonces difícilmente podría afirmarse que tiene una existencia objetiva independiente de nosotros.

Todo esto implica que, cualquier tipo de pensamiento, incluidas las matemáticas, es una abstracción que ni cubre ni puede cubrir la totalidad de la realidad. Todos tienen sus limitaciones, pero juntos, llevan nuestro conocimiento de la realidad más lejos de lo que sería posible hacer con un solo método (Jung y Paul, 1955; Prigogine, 1980).Elementos básicos del pronóstico, en los sistemas climáticos y productivos.

La naturaleza tiene que ser interpretada como materia, energía e información; donde el universo y sus formas de vida presentan una base azarosa pero no necesariamente accidental.

Las fuerzas del azar y del no azar, coexisten a través de una relación complementaria. Einstein, descubrió que el movimiento Browniano se presenta frecuentemente en la naturaleza. Su matemática representativa no se basa en una simple relación de causas y efectos, sino en el azar y en la estadística.

Wiener reconoció que el envío y recepción de mensajes, tiene bastantes cosas en común con el movimiento Browniano. El lazo que une los dos conceptos es la estadística, una rama de la teoría de probabilidad; el principio maestro que se halla tras algunos de los más profundos descubrimientos de la física moderna.

La secuencia de estos hechos espaciados en el tiempo, que no son conocidos por completo de antemano y, que los matemáticos denominan estocásticos, del griego “stokos”, que significa adivinar (Persegian, 1972).

Al hacer este tipo de predicción, un matemático no considera un solo futuro, sino muchos futuros simultáneos, que puede decirse que coexisten en sentido abstracto. La estadística no puede hacer nada con un solo dato. Un hecho aislado no tiene sentido. Necesita ser parte de un modelo de muchos hechos posibles, cada uno con cierta posibilidad de ocurrir (Wiener, 1948 y Ashby, 1972).

Con el determinismo absoluto, se supone que con un conocimiento perfecto de lo que un objeto hace en el presente, es posible predecir con exactitud lo que hará en cualquier momento del futuro. Wiener, expuso su firme convicción de que un científico nunca podrá tener un conocimiento perfecto de lo que una parte del universo haga (mientras lo observa) en determinado momento.

Como consecuencia, no hay esperanza de conocer con seguridad y en detalle, lo que será en el futuro. El científico debe tratar de superar esta incertidumbre sobre el futuro, considerando una gama de diferentes contingencias y, asignando una probabilidad apropiada a cada una.

Entonces, puede señalar lo que quizá suceda en tal o cual conjunto de circunstancias. Estos nuevos conceptos de comunicación y control, implican una nueva interpretación del hombre, del conocimiento, del universo y de la sociedad.

Cuando un sistema es ordenado y por lo tanto improbable y, cuando es pobre en entropía y rico en una estructura de escala macroscópica, se puede saber más a cerca de él que cuando es desordenado y rico en entropía. Gerolamo Cardano, se percató de que la incertidumbre posee una estructura y, que una vez descubierta la clave de ella, el azar deja de ser una parte de la incertidumbre y se vuelve inteligible.

La complejidad del mundo es ilimitada y, sus partes están en continuo cambio; sin embargo, las leyes de la física permanecen válidas e inalterables.

Nada de lo que se afirme de esta complejidad, en un momento dado, puede ser total y absolutamente cierto.

La teoría de la información de Shannon, se ocupa de este tipo de error como algo intrínseco y fundamental, donde las probabilidades sólo existen como resultado de la experiencia del experimento.

Es imposible hablar de la probabilidad de un hecho aislado; tiene que haber muchos.

El experimento, tiene que continuar hasta que exista una razón de peso para creer de manera confiable, que la frecuencia relativa se aproximaría a un límite fijo, si el experimento continuara indefinidamente.

El valor de este límite, es la probabilidad. La probabilidad que se encuentra en la raíz de la teoría de la información, está relacionada con la cantidad y el tipo de conocimiento que poseemos sobre cualquier hecho o serie de hechos, cuyo desenlace es incierto (Shannon y Weaver, 1949).

La información se relaciona con la termodinámica. Los conceptos de información y entropía convergen y, nos pueden llevar a una teoría más general, que lo abarque todo.

El ruido es desorden, pero importantes mensajes pueden estar inmersos en este ruido. Y es axioma de la termodinámica clásica, que el desorden es más fácil que se dé y tiene permanencias más prolongadas que el orden, el cuál es difícil de conservar y es temporal.

La expansión cósmica del Big Bang, creó un conjunto de condiciones iniciales que hicieron posibles dos tipos totalmente distintos de procesos generadores de orden: la evolución cósmica, con sus procesos generadores espacio-tiempo, disminución de temperatura y densidad y sus respectivas pérdidas de capacidad de trabajo (aumento de entropía) y, la evolución biológica, donde la dirección de este proceso también se aparta irreversiblemente de la uniformidad, dirigiéndose hacia nuevas formas de estructura de mayor complejidad.

A lo largo de este sendero, apunta también la flecha termodinámica, porque la entropía brota naturalmente como resultado de los procesos mismos que hacen surgir a los sistemas vivos e impulsan la máquina de la civilización humana, con su creciente dependencia de las máquinas y de la tecnología moderna, degradadoras también de energía (Cook, 1971).

La entropía, es información perdida como observó Boltzman, hace más de 100 años. En los sistemas cerrados, la información perdida en la gran escala del macrocosmos, se convierte en creciente información en pequeña escala del microcosmos. Si entendemos por sistema, un conjunto de elementos unidos por alguna forma de interacción o interdependencia, de tal manera que forma una unidad con un objetivo en común, cualquier sistema real puede observarse desde diferentes puntos de vista y, cada uno da una perspectiva adicional sobre el mismo.

Todas las perspectivas no igualan al sistema real, porque siempre es posible encontrar una adicional. La colección de puntos de vista permite la formación de un concepto de sistema a ser formado (Bartenieff, 1980).

Un excelente ejemplo de relaciones entre diferentes niveles de conceptos y, entre estos y el mundo real, es dado por el campo de la termodinámica. Este hecho es utilizado por Adem, (1964; 1970 y 1991), para desarrollar un modelo termodinámico del clima: Imprimiendo por primera vez dentro del campo de la climatología, una visión holística, dinámica e integradora, cuyas bondades de simulación y pronóstico presentan muchas ventajas sobre otros, incluyendo a los de circulación general de la atmósfera, para preferirlo en aplicaciones prácticas en muchos campos de la ciencia y, quién sin embargo, no deja de remarcar (Adem, 1974) que no importa que tan complejos parezcan los modelos, éstos son extremadamente simples si son comparados con la complejidad observada en la naturaleza.

Este mismo enfoque o procedimiento de abordar el problema predictivo, es imposible de realizar para los sistemas biológico-productivos, debido a la falta de un mayor desarrollo de la termodinámica de sistemas abiertos; por lo que en la práctica, se tienda a simularlos como un efecto resultante de un factor climático limitante (Patron y Jones, 1989; Verstehe y Keblen, 1986; Ritter et al., 1979; 1982; 1984 y 1986).

Mientras que el pronóstico del estado del tiempo, es por métodos numéricos (el cual podríamos considerar como posible auxiliar en los modelos de clima-producción). Siempre comienza con las condiciones iniciales observadas a varios niveles y para ciertos tiempos y, para áreas bastante grandes (como un hemisferio).

En la realización del cómputo de cada iteración, de aproximadamente 5 minutos, se inicia ésta de la última predicción que ha sido calculada, siguiendo este procedimiento, para varios días. El propósito consiste en pronosticar el viento a varios niveles y, con la ayuda de modelos termodinámicos y de dinámica de fluidos, obtener indicaciones de desarrollo y trayectoria de tormentas. Y de estos sistemas de vientos, deducir pronósticos de temperatura y precipitación, asistidos incluso por el uso de ecuaciones estadísticas.

Predicciones detalladas de los métodos numéricos iteractivos, aún para cuando se tenga la información perfecta, no va más allá de un par de semanas, llegando en ocasiones a rebasar las predicciones de los resultados de métodos climatológicos probabilísticos.

Aunque no existe una evidencia generalizada de esto, se espera que con una mayor y mejor información en las observaciones, combinado con un mayor conocimiento de la modelación atmosférica, se mejoren dichos resultados, ya que si bien estas metodologías están aún muy lejos de ser perfectas, sí indican que los métodos contienen algún entendimiento del comportamiento atmosférico a largo plazo.

El uso de análogos de situaciones similares en el pasado, como guías de pronóstico del futuro, como lo son: las tendencias a largo plazo, teleconexiones, ecuaciones de regresión, funciones ortogonales empíricas, contingencias climatológicas (indicando probabilidades de ocurrencia después de observadas ciertas condiciones atmosféricas),

El uso de anomalías, en la cubierta de nieve, temperatura superficial oceánica y humedad del suelo (para determinar probables patrones de forzamiento y estabilización), se siguen utilizando mientras no se tenga el método numérico de pronóstico adecuado y confiable a utilizar).

Las ecuaciones que rigen la circulación atmosférica y, de las que depende por lo tanto el clima, tienen la propiedad de la inestabilidad exponencial; sin embargo, se pretende que a una condición inicial dada de cierto estado de la atmósfera (presión, temperatura y humedad) le corresponderá una evolución futura perfectamente determinada, resultado de un cálculo en el que el azar no interviene. Si modificamos ligeramente esta condición inicial, este cambio ínfimo tendrá sólo pequeñas consecuencias en los primeros instantes, pero el cambio tendrá tendencias a amplificarse en el tiempo a un ritmo exponencial.

Esto quiere decir, que si se pretende prever lo que haya de ocurrir, es menester realmente tener en cuenta todo lo que nos rodea. Von Newmann, se dio cuenta de las limitaciones de esta manera de encarar las cosas y, comprendió que la índole de las ecuaciones en relación con las condiciones iniciales, impediría siempre todo pronóstico preciso a largo plazo, pero llegó también a una conclusión más original: la posibilidad de que esa misma inestabilidad permitiera tal vez dirigir el tiempo.

Acaso, fuera más fácil dirigir el tiempo que preverlo. La inestabilidad exponencial y la dificultad de predecir qué es su consecuencia, son fenómenos corrientes que se manifiestan en situaciones muy variadas de la atmósfera, tanto en situaciones más simples como en las más complejas.

Así también, debemos esperar que el tiempo que observamos dentro de un año, revelará informaciones sobre el estado de la atmósfera de hoy, a excepción de las informaciones en una escala demasiado fina y que no podamos percibirlas directamente.

Sin embargo, es más práctico considerar que con el correr del tiempo, hay creación de información y, decir que la evolución futura del sistema depende del estado actual y del azar.

Es también sabido que en tanto que condiciones geográficas semejantes producirán efectos climáticos semejantes, no es cierto que condiciones atmosféricas semejantes produzcan condiciones meteorológicas semejantes.

Siempre encontraremos que la inestabilidad exponencial inherente a la física atmosférica, impide toda previsión cuantitativa a largo plazo, pero no excluye previsiones de orden cualitativo incluso en plazos aún mucho mayores.

Un modelo de simulación Clima Producción, puede ser definido como una representación simplificada de los mecanismos fisiológicos, químicos y físicos de la planta y de sus procesos de crecimiento. Si los procesos básicos de producción y distribución de materia seca en la planta y, sus relaciones con el agua son propiamente entendidos y modelados, la respuesta de la planta a condiciones ambientales puede ser simulada, mostrando los factores limitantes de su crecimiento.

La simulación será más útil si el modelo considera los fenómenos más relevantes y no contiene consideraciones inadecuadas, para proveernos de visión real en las relaciones Clima-Producción, donde es posible evaluar procesos específicos como fotosíntesis, transpiración o respiración.

La simulación debe ser considerada más como una guía de investigación del comportamiento del sistema biológico, que como una solución final, explicando porqué algunos factores son más importantes en la producción que otros, y también proveer de las bases de nuevos experimentos sobre procesos no lo suficientemente entendidos, pero aparentemente importantes. El desarrollo y prueba de estos modelos de simulación, requieren de una visión interdisciplinaria.

Los sistemas de predicción pertenecientes al análisis de los modelos Clima-Producción, son sistemas basados en procesos de causa-efecto, más que solamente en relaciones estadísticas.

El diseño de estos sistemas productivos, se basa en la hipótesis de que las tasas de crecimiento de la planta, reflejadas en el crecimiento acumulativo logístico durante el proceso formativo de desarrollo de la planta, están correlacionadas con el rendimiento productivo. Modelos climáticos de simulación y pronósticos de cosechas.

En las últimas décadas, la investigación de las relaciones Clima-Producción ha recibido mucha atención por parte de científicos que trabajan en una gran variedad de disciplinas. El reconocimiento del impacto del estado del tiempo y del clima en la producción de cultivos y por lo tanto, en el suministro mundial de alimentos, se ha traducido en un renovado interés por una continua vigilancia mundial de las previsiones relacionadas con los cultivos. Esta información es de vital importancia para las organizaciones nacionales o internacionales que se ocupan de la planificación ordenada de la producción y distribución de alimentos, especialmente los cereales.

Apareciendo numerosas publicaciones en aspectos específicos del estado del tiempo y del clima, en relación al rendimiento de cultivos, sin embargo, la aplicación práctica de este conocimiento no ha progresado al extremo que pudiera esperarse. Una razón para este lento desarrollo, ha sido la aparente falta de interés por parte de los políticos y planificadores de los años 50s, y 60s en los países mayormente exportadores, quienes debido a los excedentes existentes, consideraban que no era necesario monitorear el efecto del clima en la producción agrícola, sobre tiempos reales. Sin embargo, los meteorólogos agrícolas continuaron desarrollando sus modelos y demostrando la factibilidad de proveer en tiempo real estimaciones regionales de producción, basados en la información meteorológica (Vitkevich, 1968; Montieth, 1965a; 1975 y 1976).

La complejidad de las interacciones entre factores físicos, biológicos, económicos, sociales y políticos en la producción de alimentos, sugiere que para el desarrollo de la agricultura moderna se requiere de una visión de administración integrada, donde todos estos importantes factores sean analizados sistemáticamente en un contexto de condiciones regionales, ejerciendo un gran cuidado para asegurar que no se presenten daños irreversibles en los agro-ecosistemas, considerando que tanto el clima como los suelos, nutrientes, irrigación, cultivos adecuados, control de plagas y prácticas adecuadas en el manejo administrativo, contribuyen a la productividad alimentaria.

Es necesario conocer los efectos del clima del pasado sobre la producción de alimentos, para minimizar el daño a la sociedad cuando tales fluctuaciones inevitablemente ocurran, ya que sabemos que importantes variaciones climáticas para la producción de alimentos se han venido observando desde los años 70s.

Al mismo tiempo, es necesario desarrollar la capacidad de predecir tanto las variaciones climáticas como su impacto sobre la sociedad, minimizando el impacto humano de la fluctuación climática a través de la creación de reservas de alimentos y mejores sistemas de distribución, diversidad en los patrones de cultivos y, mantener potenciales productivos a lo largo de sus nuevos cultivos. O de los ya existentes, mediante prácticas congruentes con el clima local.

La historia muestra que el clima nunca ha estado tranquilo y existe cierta evidencia que sus fluctuaciones pueden estar incrementándose en frecuencia y severidad, lo que nos llevará a suplementos erráticos de los alimentos, particularmente en países en desarrollo con falta de apoyo financiero institucional y uso de tecnologías poco apropiadas. Considerando que para el año 2014 seremos 8,000 millones de habitantes que deben ser adecuadamente alimentados, esto significa que hay que duplicar la producción tenida en los años 80s. Si consideramos que las tres cuartas partes de la tierra cultivable reciben insuficiente lluvia, en los tiempos adecuados para el crecimiento de los cultivos y, que las fluctuaciones anuales en la producción de granos son características aceptadas en el suministro mundial de granos, donde usualmente estas fluctuaciones tienden a escalas globales o locales a suprimirse unas con otras. Pero, debido a las condiciones adversas de 1972, simultáneamente sobre las mayores zonas productoras de granos del mundo, se observó que la repetición de esas condiciones en años sucesivos tendría efectos desastrosos, tanto para los países desarrollados como en los en vías de desarrollo. Existe evidencia además, de que en décadas pasadas, los patrones estacionales del tiempo no mostraron la variabilidad o extremos que pueden ser esperados en períodos largos. La tendencia climática benévola observada, resultó en una serie de años con altas cosechas, pero no puede esperarse que dichas cosechas se presenten en los años por venir.

Esta nueva situación general de los granos, con su dependencia del tiempo, nos lleva a un renovado interés en la necesidad de dar una consideración más seria al análisis de nuestro clima como un recurso natural y, en la necesidad de monitorear e interpretar la información histórica existente en términos de condiciones agrícolas esperadas. Asimismo, rendimientos, donde los modelos Clima-Producción pueden ser útiles para la interpretación de fluctuaciones climáticas en términos de su impacto en la producción agrícola.

Los científicos tienen el prospecto del vasto conocimiento disponible y, que los procesos fisiológicos individuales de la planta pueden ser integrados para explicar el comportamiento de los campos de cultivo. Como resultado de esto, varios modelos de crecimiento de cultivos han sido desarrollados para cultivos específicos, así como para crecimiento de biomasa en general; los cuales tienen en común que los elementos esenciales que son incorporados, son profundamente comprendidos. En general, estos modelos son bastante complejos y su principal objetivo es de servir como una herramienta en la investigación agrícola, para la formulación de hipótesis y el diseño de experimentos.

Unas predicciones confiables de modelos de simulación de crecimiento de las plantas están disponibles, para situaciones donde la irradianza y la temperatura determinan el crecimiento del cultivo o, donde la disponibilidad del agua puede ser el factor limitante (Penning de Vries, 1978).

Aparte de lograr una mayor visión general del funcionamiento de los sistemas biológicos, como razón para el desarrollo de modelos de simulación de crecimiento, otra fuerte motivación ha sido la esperanza de que tales modelos puedan transformarse en herramientas predictivas (Dewit & Penning de Vries, 1982). Sin embargo, a menudo cuando los modelos de simulación son usados en situaciones donde pocos datos específicos del lugar son disponibles, las predicciones parecen desviarse considerablemente de los datos observados.

En algunas situaciones, tales desviaciones pueden ser explicadas por el efecto del factor ambiental local, que el modelo no considera como la influencia de las temperaturas bajas nocturnas o resistencia mecánica del suelo sobre el crecimiento (Versteg, 1985). Pero, aún en el caso de que tales omisiones no jugaran un papel importante, modelos exactos predictivos para situaciones específicas, a menudo requieren gran cantidad de información de los cultivos en relación al sitio de interés, tales como el desarrollo del área foliar, la tasa de asimilación de hojas individuales, el valor de saturación de la luz y la temperatura de referencia para el cálculo de respiración de mantenimiento.

Versteeg (1985), demostró que las variaciones en cada uno de estos factores, pueden afectar considerablemente los resultados de la simulación, por lo que los modelos más sofisticados con propósitos predictivos mediante cálculos horarios detallados, son de poca utilidad si no existen disponibles datos exactos y confiables. Esta observación coincide con Penning de Vries (1982a), quién señala que los métodos simples a menudo tienen un valor predictivo similar al de los modelos más complicados.

Los estudios para prevenir los efectos causados en el clima por las actividades humanas, serán de gran prioridad nacional en los próximos decenios, por lo que se concluye la necesidad de una cosecha de datos y conocimientos al respecto. En el campo de los impactos humanos sobre el clima, hemos aprendido bastante para izar las banderas de peligro, pero no lo suficiente para cuantificarlo adecuadamente. Desde el punto de vista socio-económico, el problema fundamental es el incremento del anhídrido carbónico cuyos efectos en el clima, ecosistemas y agricultura serían causados por el deshielo de los polos y la desertificación. Si la tendencia actual al consumo de las energías fósiles no renovables continúa, la cantidad de anhídrido carbónico en la atmósfera terrestre se duplicaría en menos de 50 años. Un aumento de tal magnitud puede producir efectos de invernadero y el consiguiente aumento de la temperatura global y, tales variaciones de temperatura, tendrían la misma importancia del observado en la presencia de las épocas geológicas, perturbando el equilibrio ecológico de ecosistemas y la producción mundial de alimentos.

La cultura y la sociedad se han desarrollado en un período de absoluta estabilidad climática, sin embargo, esto ya no es más cierto. Y el problema está ligado desde sus raíces. En un momento histórico en que las ciencias económicas, sociales y tecnológicas muestran límites propios de manera irracional y nos impiden administrar los rápidos cambios del planeta, es necesaria la transición a un modelo de vida basado en los recursos renovables y en la conservación del entorno y para esto, debemos utilizar las mejores herramientas a la mano, para el pronóstico del tiempo, reconociendo con honestidad nuestras debilidades y deficiencias, cambiando el curso de la investigación en el menor tiempo posible, hacia áreas más promisorias y productivas (Ritter et al., 1991, 1996, 1997).


Bibliografía

Adem, J. “On the physical basis for the numerical prediction of monthly and seasonal temperature in the troposphere-ocean-continent system”. Mon. Wed.Rev.92 pp.91-104, 1964.
Adem, J. “Experiments aiming at monthly and seasonal numerical weather prediction”. Mon. Wed. Rev. 93. pp. 495-503, 1965.
Adem, J. “On the predictions of mean monthly ocean temperature”. Tellus. 22. pp. 410-430. 1970.
Adem, J. “A critical appraisal of simple climatic models”.The physical basis of climate and climate modeling. Report of the international study conference in Stockolm. Garp Publications series no. 16, April 1975. pp.163-170, 1974.
Adem, J. “Review of the development and applications of the Adem Thermodynamic climate model”, Climatic dynamics, 5. pp, 145-160. 1991.
Ashby, W. R. Introducción a la cibernética. Buenos Aires. Ediciones Nueva Visión, 1972.
Bartenief, I. Body movement. Copying with the Environment. New York. Gordon & Breach. 1980.
Bohm, D. Wholeness and the implicate Order. London. Routless & Kegan Paul. 1980.
Bohm, D. & Peat. D.F. Science order and Creativity. Bantam Books. New York. 1987.
Capra, F. The Tao of Physics. Berkeley. Shambala. London . Wilood House. 1975.
Cook, E. The Flow of Energy in the Industrial Society. Scientific American. September. 1971.
Cruz, T.M. , Ritter, W. y Moreno, P. M. Procedimiento de Evaluación Cuantitativa de los Recursos Naturales. Universidad Autónoma de Guerrero. México. 122 pp. 1989.
Einstein, A. Autobiographical Notes. Albert Einstein: Philosopher/Scientist. Editado por Paul Arthur Schlipp. Tudor. New York. 1951.
Green, E. & Green, A. Beyond Biofeedback. San Francisco. Delacorte Press. 1977.
Heisenberg, W. Physics and Beyond. Harper & Row. New York. 1971.
Jeans, J. The Misterious Universe. New York. Mac Millan. 1930.
Jung, C.G. & Pauli, W. The Interpretation and Nature of the Psyche. Bollingen Series Lt. Phanteon. New York. 1955.
Koestler, A. The Roots of Coincidence. Random House. New York. 1972.
Lazlo, E. Introductions to Systems Philosophy. New York. Harper Torchbooks. 1972a.
Lorenz, The Predictability of Hidrodynamic Flow. Trans. N.Y. Acad. Sci. Serv. II, 25. pp. 409-432. 1963.
May, R.M. “Mathematical aspects of the Dynamics of Animal Populations”. S.A. Levin (Ed) .Studies in Mathematical Biology. Providence. R.I. American Mathematical Society. 1969.
Monteith, J.L. “Radiation and Crops”. Exp. Agric. Rev. I. pp. 241-251. 1965a.
Monteith, J.L. Vegetation and Atmosphere. Vols , 1 and 2. Academic Press. London 1975-1976.
Parsegian, V.L. The Cybernetic World. Double Day & Co. Inc. Garden City. New York. 1972.
Patron, S.R. & Jones, J.G. “Soyabean production in the tropics. A simulation case for Mexico”. Agricultural Systems. 29. pp. 219-231. 1989.
Peat & Briggs, Chaos and Order. Harper & Row. 1990.
Penning de Vries, F.W.T. “Modelling of Growth and Production”. Encyclopedia of Plant Physiology. New Series. Volumen 12 D. Physiological Plant Ecology IV. (Lange O.L., Nober, P.S., Osmond, B.C. & Ziegler, H. (Eds). Springer-Verlag. Berlín. Pp. 117-150. 1983.
Penning de Vries, F.W.T. “Phases of Development of Models”, Simulation of Plant Growth and Corp Production. Penning de Vries, F.W.T. & Van Laar, H.H. (Eds).Simulation Monographs. Pudoc. Wageningen. pp.20-25. 1982a.
Peters, R.H. Prediction and Understanding Alternative Goals in Science. Conferencia ofrecida en el Simposium “Reductionism vs Holism” Universidad de Ottawa. 1985.
Prigogine, I. From Being to Becoming. San Francisco. Freeman. 1980.
Psaropulus, Ch.T. and Ritter, W. “Population Dynamics and Statistical Programs. (Internal Report. VI.1) Inter American Tropical Tuna Comission, Sripps Institute of Oceanography. San Diego, Calif. U.S.A. 1976.
Ritter, W, Guzmán, R.S., Buendía, C.E. y Morales, A.T. “Sobre la Evaluación de los Recursos Naturales (procedimientos de Evaluación Matemática)”. Anales del Instituto de Geofísica. 25. pp . 125-133. Mëxico. 1979.
Ritter, W.,Klimek, G.R.. y Guzmán, S.R. “Sobre la abundancia, distribución y comportamiento del atún aleta amarilla en el Océano Pacífico Este y su correlación a condiciones físicas ambientales”. Ecofísica. No.17. IPGNCOCAJ. 1982.
Ritter, W. y Guzmán, S. R. “Modelo generalizado de producción pesquera con dependencia ambiental. Una aplicación al golfo de Tehuantepec”. Revista Geofísica de I.P.G.H. (OEA). Vol 20. 1984.
Ritter, W., Garay, M.E. y Guzmán, S.R. “Balances de radiación y potenciales de productividad primaria en algunos ecosistemas terrestres de la República Mexicana”. Geofísica Internacional. 25, 2. pp. 285-314. 1986.
Ritter, W. y Guzmán, R.S. “Efectos estocásticos ambientales en el crecimiento poblacional atunero en el Océano Pacífico del Este”. Meteorología (Argentina Vol. XV. No. 1, 1987).
Ritter W, y Guzmán, R. S. “Simulación y pronóstico de lluvias; una aplicación al estado de Tlaxcala”, (Geofísica Internacional, Vol. 30, No. 3, pp. 183-192, 1991).
Ritter W, Patiño Mercado. R. y Pérez M. C. “Micro Climatology Forest Plague (Dendroctunus Adjuntus) in Central México” Geo Journal (Germany) 30, No. 4, pp. 479-481, 1993.
Ritter W, Mociño H. P, Buendía C. E. “Rainfall variability and Predictability for Agricultural Purposes in Central México” Mausan (India) (in press), 1996
Ritter W, Buendía C. E. y Patiño M. R. Un modelo Estadístico Lineal para la Determinación de la Homogeneidad Predictiva de la Lluvia. Revista de la Facultad de Ingeniería, pp. 65-70, 1997.
Shannon and Weaber. The Mathematical Theory of Communication Urbana University of Illinois Press 1949.
Schlipp P. A., Albert Einstein; Philosopher and Scientist, New York Tudor, 1951.
Soberon J. M., “Ecotecnología. Predicción y Ciencia”. Ciencias, especial 4, pp. 65-74, 1990.
Versteegue M. N., y Keulen H. Van. “Factors influencing the productivity of irrigated crops in Southern Peru, in relation to prediction by simulation models” Phd, thesis para doctorado. Agricultural University, Pudocc. Wageninge. 182pp. 1986.
Vidkevich. Agricultural Meteorology. National Science Foundation Jerusalem 330pp., 1968,
Wienner M., Cybernetics. New York, Wiley 1948.

Visitas: 479