(Home page)
Abril 2013

SÍNTESIS METODOLÓGICA TRANSDISCIPLINARIA EN SISTEMAS COMPLEJOS

Parte 4

  1. DELIMITACIÓN DEL SISTEMA E IDENTIFICACIÓN DE PARÁMETROS EN LA SIMULACION DE ESCENARIOS.
  2. SOBRE EL PRONÓSTICO EN LOS SISTEMAS FÍSICO CLIMÁTICOS Y BIOLÓGICOS PRODUCTIVOS, POSIBILIDADES Y LIMITACIONES.


Dr. Walter Ritter Ortíz

INDICE
PRÓLOGO
I.- ANTECEDENTES METODOLÓGICOS
EL PROBLEMA POR RESOLVER

    1. EL MUNDO COMO SISTEMA
    2. ELEMENTOS CRÍTICOS TRANSDISCIPLINARIOS EN CIENCIA Y HUMANIDADES Y EL ANÁLISIS DE SISTEMAS
    3. PROPÓSITOS Y REALIDADES DEL PARADIGMA ECOLÓGICO SISTÉMICO
    4. DINÁMICA GENERAL DE LOS SISTEMAS PRODUCTIVOS Y SITUACIÓN ACTUAL DE SU PRONÓSTICO.
    5. ESTUDIO INTEGRAL DE SIMULACIÓN Y PREDICCIÓN DE ESCENARIOS EN SISTEMAS ECOLÓGICOS CON ENFOQUE SISTÉMICO.
    6. DELIMITACIÓN DEL SISTEMA E IDENTIFICACIÓN DE PARÁMETROS EN LA SIMULACION DE ESCENARIOS.
    7. SOBRE EL PRONÓSTICO EN LOS SISTEMAS FÍSICO CLIMÁTICOS Y BIOLÓGICOS PRODUCTIVOS, POSIBILIDADES Y LIMITACIONES.
    8. BIOCLIMATOLOGÍA; UNA CIENCIA DE LA COMPLEJIDAD SISTÉMICA
    9. SIMULACIÓN DE PROBLEMAS DE TIPO BIOCLIMÁTICO
    10. INTEGRACIÓN DEL IMPACTO AMBIENTAL EN LA TRAMA SOCIOECONÓMICA.
    11. EL CLIMA COMO SISTEMA COMPLEJO ADAPTATIVO EN COEVOLUCIÓN
    12. LOS MODELOS DE PRÓNOSTICO Y SU PROBLEMÁTICA
    13. CIENCIA, PREDICCIÓN Y ENTENDIMIENTO EN EL MUNDO MODERNO DE LA COMPLEJIDAD
    14. LA ENSEÑANZA DE LA CLIMATOLOGÍA DESDE LA PERSPECTIVA DE LA TEORÍA GENERAL DE SISTEMAS.
    15. PLANIFICANDO EL FUTURO

f) DELIMITACIÓN DEL SISTEMA E IDENTIFICACIÓN DE PARÁMETROS EN LA SIMULACION DE ESCENARIOS.

Walter Ritter Ortiz, 1 Jorge Torres Jacome, 2 Hipolito Muñoz Nava 3.

1. Sección de Bioclimatología, Centro de Ciencias de la Atmósfera, UNAM. Circuito Exterior de Ciudad Universitaria, Del. Coyoacán, México, D. F., C. P. 04510. Correos electrónicos: walter@atmosfera.unam.mx.

2. Instituto de investigaciones (ICUAP), de la Benemérita Universidad Autónoma de Puebla (BUAP).

3. Laboratorio de Ciencias Ambientales, Centro de Investigación en Ciencias biológicas. Universidad Autónoma de Tlaxcala, México. Correo electrónico: hipolito78@hotmail.com

INTRODUCCIÓN

La simulación dinámica de escenarios en la naturaleza es una herramienta útil para entender cómo funcionan los sistemas naturales, identificar sus potenciales problemas y explorar soluciones para estos.

Los problemas ambientales desde una perspectiva sistémica, pueden ser descritos por lo que se observa en la naturaleza en términos de procesos y condiciones interdependientes y siempre cambiantes.

La metodología de solución de los sistemas pensantes utilizadas en nuestros modelos de simulación, difieren de muchas otras al estudiar dichos problemas integrando principios científicos con los impactos de nuevas políticas y tecnologías, donde aún los más simples modelos pueden llegar a tener útiles enseñanzas que sirvan de guía en la implementación de políticas y toma de decisiones.

La simulación no es un fin en sí mismo, tampoco es una bola de cristal que pueda pronosticar el futuro con absoluto detalle y exactitud, pero si puede ayudarnos a entender los mecanismos interiores que deciden como trabaja un sistema; describiendo sus procesos y transformaciones e identificando posibles mecanismos detrás de los ciclos y tendencias observadas de largo plazo.

Determinando además como el sistema mantiene su estabilidad o identificando mecanismos por los que puede perderla.

Pronosticando futuras manifestaciones de los sistemas existentes, proyectando ciclos y tendencias, evaluando los impactos de políticas opcionales e identificando escenarios en que la estabilidad se pierda o se restaure.

Personas no familiarizadas con el desarrollo de modelos de simulación, piensan que si un modelo parece lo suficientemente complicado, entonces las predicciones que desarrollen deben ser correctas.

Esto no tiene por que ser así, ya que no debemos olvidar que una manera útil de juzgar un modelo es a través de cuanta información pueda aportarnos con el máximo posible de economía, así como de que nos permita comunicarnos de forma más efectiva con dicho modelo y lo que éste representa; de tal forma que el usuario experto en la materia pueda tener una mayor participación en el proceso de simulación, sugiriendo modificaciones que puedan mejorar su utilidad.

Los modelos usualmente nunca capturan de forma precisa toda la realidad y esto se refleja en el hecho de que muchos de los modelos ampliamente usados en el campo ambiental deben ser continuamente ajustados y refinados.

Pero finalmente lo más valioso de un modelo será su capacidad de detectar sus fluctuaciones y de identificar las variables críticas responsables de dichos cambios, así como de capturar y entender los efectos de retroalimentación en el sistema, ya que en los sistemas dinámicos sus elementos se modifican de manera constante y complicada e incluso sorpresiva.

El objetivo no es desarrollar modelos que capturen todas las facetas de la vida diaria ya que tales modelos tendrían poca utilidad al ser tan complicados como los sistemas que deseamos entender- y el verdadero propósito de la modelación dinámica es descubrir los principios esperados que nos conduzcan a la complejidad observada en la naturaleza.

Para nosotros esto es el significado de simplicidad.

Las estimaciones iniciales de simulación pueden ser derivadas de la información empírica ó aún de sugerencias razonables de expertos en la materia o del equipo de modelación; ya que los modelos construidos en situaciones de tales incertidumbres en sus parámetros pueden ser de gran valor y utilidad, proveyéndonos de un cuadro congruente de referencia de un proceso particular en lugar de información exacta.

La documentación de los parámetros y consideraciones necesarias en cada paso del proceso de simulación es sobre todo importante cuando el juicio del modelador es utilizado, pero también podemos tener la capacidad de simular con mucha exactitud los sistemas biológicos complejos; pero ¿Podemos realmente aprender más de estos sistemas con tales modelos? ¿Podemos aprender a hacer decisiones más sabias de nuestros ejercicios de simulación?

La respuesta debe de analizarse y responderse en un enfoque sistémico.

Los elementos más importantes de un sistema son las variables de estado que nos indican el estado corriente del sistema, donde para mantener la simplicidad del modelo es necesario minimizar el número de dichas variables de estado.

El flujo de información de una variable de estado se hace a través de una cadena de transformaciones para regresar a las variables de control, cambiando dichas variables de estado y así continuar en un ciclo siempre cambiante, volviendo al final a otra variable de estado ó tal vez irse hacia el infinito, al cero ó al caos y esto nos habla de un proceso de retroalimentación, hecho tan común en los sistemas ambientales.

La retroalimentación negativa tiende a forzar a las variables de estado hacia metas establecidas implícitamente o explícitamente en el modelo, mientras que la retroalimentación positiva tiende a ser lo contrario.

La retroalimentación negativa es la idea básica de los sistemas dinámicos de control.

La variación en el proceso de retroalimentación puede llevarnos a relaciones no lineales, las cuales, se haya presente si una variable de control no depende de otras variables de manera lineal.

Como resultado los procesos de retroalimentación no lineales pueden exhibir comportamientos dinámicos complejos, consecuentemente debemos poner especial atención a la no linealidad particularmente si se trata de efectos de retrazo.

Los sistemas complejos relacionados por muchos vínculos son los que suelen ser los más estables, donde la estabilidad de estos sistemas depende de muchos factores; como es el tamaño, cantidad y diversidad de los subsistemas que abarque, y el tipo y grado de conectividad que exista entre ellos.

Esta estabilidad es muy importante ya que cada vez que realizamos un cambio en cualquier sistema complejo, debemos esperar que haya resistencia al cambio y finalmente se alcance un nuevo equilibrio el cual debemos analizar en su pertinencia.

El equilibrio observado en la naturaleza podemos considerarlo como una propiedad emergente y al modificar el ambiente, algunas especies se extinguirán mientras que otras se convertirán en dominantes, pero después de romper el equilibrio inicial, surgirá otro nivel de equilibrio de forma natural, donde es necesario comprender la dinámica de este nuevo sistema para beneficiarse de él.

 

1.- DELIMITACIÓN DEL SISTEMA Y SUS COMPONENTES, EN SUS ASPECTOS DE SIMULACIÓN DE ESCENARIOS

1.1.- CASO GENERAL

Sucede a menudo que aun los modelos más simples pueden darnos muchas pistas útiles que pueden guiarnos en la toma de decisiones y análisis de políticas ambientales administrativas como es el caso del Altiplano Mexicano.

Existen modelos simples y algunos muy complejos en la literatura científica de la ecología y las ciencias ambientales que podemos utilizar para identificar y solucionar problemas ambientales, físicos, biológicos y sociales de gran interés para la zona de estudio, en donde podemos resaltar dos aspectos importantes en estos tipos de modelos, que son:

  1. Tratar de entender los mecanismos implícitos que dictaminan como trabaja en su totalidad el sistema.
  2. Pronosticar futuras actividades de los sistemas existentes, proyectando ciclos y tendencias y evaluando los impactos de políticas opcionales e identificando escenarios por medio de los cuales la estabilidad del sistema será inhabilitada o restaurada.

Para el primer caso y para el problema del Altiplano, lo deseable sería identificar los posibles mecanismos detrás de los ciclos observados y tendencias a largo plazo, así como determinar los sistemas que mantienen la estabilidad en la región o identificar mecanismos por los cuales pudiera perderse dicha estabilidad.

Nuestra intención para el proyecto es mostrar como a través de la dinámica de sistemas o sistemas pensantes podemos conocer y resolver los problemas ambientales existentes o posibles a introducir en la región, describiendo un cuadro de referencia por medio del cual abordaremos estos problemas ambientales en forma tal que consideraremos principios científicos integrados con los impactos de políticas y tecnologías a introducir, caso especial el del Altiplano.

Los sistemas pensantes en la dinámica de sistemas serán parte esencial en nuestro caso de simulación de los escenarios e integración de los factores ambientales físicos, biológicos y sociales, coordinando macroproyectos que incorporan varios componentes así como varios temas e investigadores, enfatizando en el hecho de desarrollar habilidades de pensamiento y solución particularmente en el contexto de simulación y análisis de políticas y decisiones.

Bajo esta característica utilizaremos consideraciones y puntos de vista que caracterizan a los sistemas pensantes y que utilizaremos de forma rutinaria en el caso del Altiplano:

Descripción global de la situación actual en espacio y tiempo de la zona de estudio considerando en el tiempo la creación, a través de la simulación, de escenarios de la situación actual, durante la realización del proyecto y después de terminado dicho proyecto y en el espacio de la zona.

En este proyecto de creación de escenarios en espacio y tiempo, enfocaremos nuestro esfuerzo en los procesos dinámicos de la región, interpretando el comportamiento del sistema como el producto de numerosas posibilidades implícitas en los procesos, que están siempre cambiando e interactuando, pero sobre todo explorando y reconociendo los procesos dinámicos del sistema.

En cada situación en particular a abordar, buscaremos explicaciones derivadas de procesos de retroalimentación ya sea positiva o negativa, considerando que los flujos de intercambio y situaciones de causa efecto no se dan tan sólo en una dirección.

2.- ESTUDIO INTEGRAL MULTIDISCIPLINARIO DE SIMULACIÓN Y PREDICCIÓN DE ESCENARIOS ECOLÓGICOS

Se propone la creación de un modelo general de simulación que de forma integrada de respuesta a una serie de cuestionamientos sobre ecología, manejo de recursos naturales y evaluación de impacto ambiental.

La visión filosófica de este modelo tiene su fundamento en el "enfoque sistémico" derivado de la "teoría general de sistemas", cuyo proceso metodológico nos permitirá la creación de escenarios requeridos para una mejor toma de decisiones.

A fin de utilizar aspectos comunes en los diferentes proyectos se hace necesaria una descripción general de las metodologías del enfoque sistémico a utilizar en el desarrollo del modelo general de simulación, esperando una mayor homogeneidad y cohesión de propósitos así como en una mayor sistematización en la obtención de los objetivos planteados

Cuando nos encontramos con un problema de tipo ambiental o de cualquier otro tipo y necesitamos resolverlo, además de considerar las interacciones entre los factores físicos, biológicos y ecológicos debemos tomar en cuenta también los factores económicos, culturales y legales; ya que si abordamos estos problemas por métodos simplistas llegaremos al diseño de experimentos y muestreos de baja calidad que nos conducirán a tomar decisiones inadecuadas.

El análisis de sistemas se basa en un planteamiento holístico para la solución de estos problemas y usa los modelos matemáticos para identificar, simular y predecir las características importantes de la dinámica de estos sistemas considerados como complejos.

El origen de la visión de sistemas se remonta al periodo de la segunda guerra mundial y estuvo relacionada con la solución de problemas de tipo logístico.

Actualmente el uso de esta perspectiva en ecología, manejo de recursos naturales y evaluación de impacto ambiental, consiste en proporcionar un enfoque que permita abordar la solución de dichos problemas en los sistemas complejos (como son todo tipo de ecosistemas conocidos) y que además promueva el diseño de proyectos de investigación que nos ayuden a tomar decisiones adecuadas utilizando el método científico como una forma de resolver dichos problemas, basándose en una observación disciplinada y en la manipulación de las partes del mundo real que resulten interesantes en el contexto del problema en estudio.

Los sistemas formados por un número pequeño de componentes se pueden abordar matemáticamente en forma analítica, como son los problemas que se presentan en física.

Cuando los problemas se refieren a un sistema compuesto por muchos componentes podemos abordarlos de forma estadística, pero sí además en el problema se involucran sistemas con muchos componentes y el conocimiento de sus relaciones es medianamente conocido, estos sistemas rara vez se pueden resolver matemáticamente, ya que no existe una solución analítica para el conjunto de ecuaciones que describen el sistema, además estos sistemas no se pueden representar estadísticamente a través de valores promedio debido a que la estructura del sistema genera un comportamiento no aleatorio (Grant, 2004).

El análisis de sistemas y su simulación son los apropiados en la solución de estos problemas caracterizados por una "complejidad organizada" en la cual la estructura del mismo sistema no tan solo controla sino que también esta controlada por la dinámica de este mismo sistema; claro que para esto debemos entender que el método más sencillo para resolver un problema determinado en un momento dado depende del nivel de detalle con el cual pretendamos enfrentar el problema.

Como ecólogos y administradores de los recursos naturales frecuentemente debemos analizar sistemas que están caracterizados por una complejidad organizada como cuando se cuenta con poca información, pocos datos y poca expectativa de generar una base de datos completa.

Para esto es precisamente que ha sido diseñado y desarrollado el análisis de sistemas y sus metodologías de investigación, que permiten integrar el conocimiento obtenido por medio de la descripción, la clasificación y el análisis matemático y estadístico de las observaciones del mundo real.

Obviamente si con los conocimientos adquiridos no podemos formular hipótesis útiles acerca de la estructura y funcionamiento del sistema debemos concentrar nuestro esfuerzo en realizar nuevas observaciones en el sistema real.

La idea básica fundamental detrás de todo esto es que podamos realizar experimentos con el modelo de simulación de la misma forma en que se pudiera realizar en un laboratorio o en la misma naturaleza.

3.- JUSTIFICACIÓN

Debido a nuestro interés por lograr un crecimiento económico sin destruir los sistemas ecológicos que forman la base de nuestra existencia, necesitamos introducir el uso de análisis de sistemas y su simulación como herramientas de apoyo para resolver los problemas de impacto ambiental que ha diario se nos presentan y que además nos ayuden en la toma de las mejores decisiones.

El análisis de sistemas y su simulación es un conjunto de técnicas cuantitativas desarrolladas con el propósito de enfrentar problemas relacionados con el funcionamiento de los sistemas complejos como son los diferentes tipos de ecosistemas conocidos.

Se desea diseñar y generar un modelo integral de simulación de los sistemas ecológicos bajo el enfoque de sistemas y de sistemas complejos, con aplicaciones específicas a la evaluación del impacto ambiental

4.- OBJETIVO GENERAL

Diseñar y generar un modelo integral de simulación de los sistemas ecológicos bajo el enfoque de sistemas y de sistemas complejos, con aplicaciones específicas a la evaluación del impacto ambiental

5.- OBJETIVOS ESPECÍFICOS

  • Generar escenarios de los sistemas ecológicos en el tiempo histórico (en el pasado, actual y futuro) y el espacio para evaluar el impacto de origen humano.

  • Analizar la dinámica de transferencia productiva (flujos de materia, información y energía) de los sistemas ecológicos para determinar su estabilidad o inestabilidad a través del tiempo y el espacio.

6.- METAS

Realizar en forma funcional el modelo integral de simulación de los diferentes sistemas ecológicos incorporando las potenciales redes de intercomunicación en dichos ecosistemas de tal forma que el modelo sea multidisciplinario, multifactorial, multirelacional y multifuncional, que sirva de herramienta en la simulación de posibles escenarios y a su vez sea una herramienta para la toma de decisiones.

7.- METODOLOGÍA BÁSICA GENERAL

Para contestar una pregunta, demostrar una teoría o para clasificar una parte del mundo real, todos coincidimos en que dependiendo de nuestros intereses algunas de las posibles perspectivas a elaborar serán más adecuadas y útiles que otras; donde los sistemas de interés generalmente presentan dos propiedades de importancia primordial:

Primero, los sistemas pueden estar anidados, es decir que un individuo es parte de una población, una población es parte de una comunidad y así sucesivamente.

Segundo, a cualquier escala y a cualquier nivel de detalle los sistemas naturales pueden ser estudiados usando el mismo conjunto de principios y técnicas desarrolladas y conocidas por la teoría general de sistemas, donde debemos definir cuidadosamente los límites del sistema de interés de acuerdo con el problema que estamos estudiando.

El análisis de sistemas lo podemos definir como la aplicación del método científico a problemas relacionados con sistemas complejos de la naturaleza y es un conjunto de teorías, técnicas y metodologías que sirven para entender, describir y hacer predicciones acerca de dichos sistemas complejos y donde además frecuentemente se hace uso de la matemática avanzada, procedimientos, estadísticos y uso de computadoras, donde la esencia del análisis de sistemas radica en su universalidad y flexibilidad de su enfoque.

La elección entre un modelo analítico y un modelo de simulación implica respectivamente, la pérdida del realismo ecológico para tener más potencia matemática o la pérdida de potencia matemática para incluir más realismo ecológico.

Si el nivel de detalle para lograr los objetivos nos permite el uso de modelos analíticos debemos de usar estos modelos, sin embargo, si el nivel de detalle apropiado requiere un modelo demasiado complejo como para ser representado analíticamente, debemos cambiar y utilizar entonces un modelo de simulación.

Esto es muy importante ya que en muchos problemas ecológicos, manejo de recursos naturales y estudios de impacto ambiental es necesario representar el sistema de interés de una manera demasiado compleja, ya que no se puede hacer de forma analítica.

En la modelación del impacto ambiental, lo consideraremos ejemplificado como una situación de el último caso; por lo que nuestros estudios de diagnóstico, simulación y pronóstico estarán apoyados exclusivamente en las metodologías de simulación; ya que si escogemos las variables apropiadas y representamos adecuadamente las reglas que gobiernan la dinámica y el proceso de cambio en el sistema de estudio, debemos poder predecir los cambios de dichos sistemas a través del tiempo, es decir, podríamos simular correctamente el comportamiento del sistema basados en las cuatro etapas fundamentales del proceso de desarrollo y uso del modelo, las cuales, son las siguientes:

Desarrollo del modelo conceptual

Desarrollo del modelo cuantitativo

Evaluación del modelo

Uso del modelo

Con base en los objetivos debemos decidir cuales son y como se relacionan entre ellos los componentes del mundo real que incluiremos en nuestro sistema de interés, también debemos bosquejar los patrones esperados de comportamiento en términos de la dinámica temporal de los componentes más relevantes del sistema sirviendo como puntos de referencia en la validación del modelo, asegurándonos que éste provea el tipo de predicciones que nos permita abordar nuestras preguntas y finalmente tomar las mejores decisiones.

Con la generación de este modelo esperamos simular adecuadamente la dinámica general y productiva del sistema, la magnitud del impacto ecológico y económico.

Además de pronosticar el destino de los sistemas actuales, ya que podremos generar escenarios que nos permitirán derivar la mejor toma de decisiones. Así mismo, nos permitirá conocer el grado de estabilidad de los sistemas existentes (naturales, implantados e impactados).

BIBLIOGRAFÍA

1- Forrester, J. W. 1987. Industrial dynamics. Cambridge, Mass., US, The MIT Press.

2- Grant, W. E. 1986. Systems analysis and simulation in wildlife and fisheries sciences. New York, John Wiley.

3- Grant, W. E., Marín, S. L. y Pedersen, E. K. 2001. Ecología y manejo de recursos naturales: análisis de sistemas y simulación. Editorial Agroamérica. San José, Costa Rica. 340 p.

4- Ritter, O. W., P. Mosiño, A. y R. Patiño M. 2000. Predicción y naturaleza. Ciencia y Desarrollo. Volumen XXVI. No. 153.

5- Ritter, O. W., P. Mosiño, A. y R. Klimek. 2000. Una visión estadística no-lineal de El Niño, simulación y posible pronóstico. Ciencia y Mar. Volumen IV. No. 10: 29-37 pp.

6- Ritter, O. W., Guzmán, S. R., Sánchez-Santillán, N., Suárez, J., Corona, C., Muñoz, H., Ramos, A. Rodríguez, R. y Pérez, T. 2002. El clima como sistema complejo adaptativo en coevolución. Ciencia y Mar. Volumen VI. No. 17: 23-35 pp.

 

 

g) SOBRE EL PRONÓSTICO EN LOS SISTEMAS FÍSICO CLIMÁTICOS Y BIOLÓGICO PRODUCTIVOS, POSIBILIDADES Y LIMITACIONES.

Walter Ritter Ortíz1 Orlando Delgado Delgado3 , Marisela Hernandez Vazquez 2 José Jimenez 2, Saturnino Orozco Florez2

1. Sección de Bioclimatología, Centro de Ciencias de la Atmósfera, UNAM. Circuito Exterior s/n, Ciudad Universitaria, Delegación Coyoacan, México, D. F. walter@atmosfera.unam.mx .

2. Laboratorio de Ciencias Ambientales, Centro de Investigación en Ciencias biológicas. Universidad Autónoma de Tlaxcala, México. Correo electrónico: hipolito78@hotmail.com

3. Sección de Climatología Física y Dinámica, Centro de Ciencias de la Atmósfera, UNAM. Circuito Exterior s/n, Ciudad Universitaria, Delegación Coyoacan, México, D. F. walter@atmosfera.unam.mx .

 

RESUMEN

Se propone una nueva visión sobre el pronóstico de los sistemas físico climáticos y biológico-productivos, basados en conceptos de: Teoría General de Sistemas, Sistema Termodinámico, Cibernética, Teoría de la Información, Teoría del Caos, y de las Transformaciones de los Sistemas Dinámicos, lo cual nos permite señalar ventajas y desventajas de la situación actual y la conveniencia de un nuevo enfoque estadístico (estocástico) global e integral de los modelos como de sus procesos de retroalimentación continua.

INTRODUCCIÓN

El conocimiento científico de la antigüedad fue sistematizado y organizado por Aristóteles, quién creo el esquema que iba a servir de base a la visión occidental del universo durante dos mil años.

Hemos de esperar entonces al renacimiento para alcanzar un mayor desarrollo de la ciencia occidental cuando el hombre comienza a liberarse de la influencia de Aristóteles y de la iglesia y muestra un nuevo interés hacía la naturaleza.

A finales del siglo XV se realizó por vez primera una aproximación al estudio de la naturaleza con un espíritu realmente científico, y se realizaron experimentos para probar ideas especulativas.

Como este desarrollo fue seguido de un creciente interés por las matemáticas, condujo finalmente a la formulación de verdaderas teorías científicas basadas en experimentos y expresadas en lenguaje matemático.

Galileo fue el primero en combinar el conocimiento empírico con las matemáticas y es por tal motivo, considerado el padre de la ciencia moderna.

Muchos científicos han señalado que las matemáticas son la manera más abstracta, lógica y coherente de pensar que conocemos, donde estamos totalmente abiertos a la creación libre sin encontrar los limitados por los requisitos de las experiencias sensitivas de la realidad ordinaria.

Sin embargo también podemos decir que la matemáticas son un esquema lingüístico limitado que permite una gran precisión y coherencia, pero al precio de una abstracción tan extrema que su aplicabilidad ha de limitarse en algunas vías clave (Bohm y Peat, 1987).

El hecho de que las matemáticas son un lenguaje es algo especialmente importante para la formulación de nuevas teorías científicas.

Una teoría científica suele desarrollarse por etapas.

Los científicos tienen que crear la teoría, basándose en parte en cosas conocidas y en parte en las desconocidas.

Una formulación matemática de parte de la teoría que ya se conoce otorga a los científicos una forma de pensar coherente y sugiere cuáles son las zonas en que la teoría está Incompleta, y por lo tanto donde habrá que efectuar modificaciones.

En la actualidad existen a nuestra disposición muchas estructuras matemáticas nuevas que podrían aplicarse a nuevas áreas científicas, aunque muchas de tales estructuras se hayan desarrollado sin pensar en dichas aplicaciones.

Sin embargo, en general podemos adelantar la hipótesis de que cuanto más dura sea una disciplina o una rama de la ciencia, tanto más comenzará a descubrir y señalar fenómenos y propiedades que permitan establecer paralelos con los hallazgos logrados por otras disciplinas.

En muchas de las estructuras más nuevas que han descubierto los matemáticos no intervienen de alguna manera directa los números.

Haciendo referencias del tipo de: ¿Cómo pueden conectarse los objetos entre si? ¿Qué clase de distorsiones se pueden aplicar a un espacio Sin cambiar sus propiedades o ¿Cuáles son las reglas combinatorias de símbolos abstractos que llevan a estructuras con propiedades interesantes? (Lazlo, 1972b).

El conocimiento se adquiere a través del proceso de investigación científica que como puede verse procede por etapas.

La primera etapa consiste en reunir evidencia experimental acerca del fenómeno a ser aplicado.

En la segunda etapa los hechos experimentales se correlacionan con símbolos matemáticos y se resuelve un esquema matemático que interconecta estos símbolos de una manera precisa y consistente.

A este esquema se le llama usualmente modelo matemático o, si es más comprensible, teoría. Esta teoría se emplea para predecir los resultados de posteriores experimentos que se llevan a cabo para comprobar todas sus consecuencias.

Esta manera de basar todas las teorías firmemente en el experimento se conocen como el Método Científico (Peters, 1985).

El conocimiento racional y las actividades racionales ciertamente constituyen la principal parte de la investigación científica, pero no son todo cuanto hay en ella.

La parte racional de la investigación sería de hecho inútil si no estuviera complementada por la intuición que ofrece a los científicos nuevas perspectivas y les hace creativos.

Las penetraciones intuitivas sin embargo, no son de utilidad a menos que puedan ser formuladas dentro de una estructura matemática consistente, suplementada con una interpretación en lenguaje sencillo.

La abstracción es un rasgo crucial de esta estructura. Consiste en un sistema de conceptos y símbolos que constituyen un mapa de la realidad.

La abstracción definitiva tiene lugar en las matemáticas cuando las palabras se remplazan por símbolos y donde las operaciones de conectar los símbolos están rigurosamente definidas.

De este modo, los científicos pueden condensar la información en una ecuación por ejemplo, de una sola línea de símbolos se necesitarían varias páginas de escritura ordinaria. La visión de que las matemáticas no son más que un lenguaje extremadamente abstracto y comprimido que no pasa inadvertido.

Muchos matemáticos en realidad, creen que las matemáticas no son solo un lenguaje para describir la naturaleza, sino que son inherentes a la misma naturaleza.

El inventor de esta creencia fue Pitágoras, quien hizo la famosa afirmación de que todas las cosas son números y desarrollo una clase muy especial de misticismo matemático (Bohn y Peat, 1987).

La creencia predominante de que el formalismo matemático expresa por si mismo la esencia de nuestro conocimiento de la naturaleza (sostenida por los pitagóricos y reafirmada por Kepler, quien creía que las matemáticas eran una fuente básica de verdad), no fue comúnmente aceptada hasta época relativamente reciente. James Jeans (1930), afirmó que Dios tenía que ser un matemático y más tarde, Heisenberg (1971), tenía la idea de que las matemáticas son la expresión básica de nuestro conocimiento de la realidad.

Los científicos que han trabajado en la creencia de que las explicaciones más profundas también debían de ser matemáticamente bellas, han conseguido a menudo deducir un conocimiento nuevo a través del énfasis por el formalismo matemático.

Pero las matemáticas nunca fueron el único criterio de sus descubrimientos. Las matemáticas son sólo una función de la mente humana y otras funciones pueden, con toda seguridad ser igualmente importantes.

Así Einstein, sobre todo en su período más creativo, ciertamente apreciaba la belleza matemática; pero en realidad en sus investigaciones no empezaba por los desarrollos matemáticos, en lugar de eso comenzaba con sentimientos intuitivos y una sucesión de imágenes de las cuales surgían conceptos más detallados, y estas ideas en algún momento conducían a posteriores desarrollos matemáticos, o incluso a surgir nuevas formas matemáticas (Schlip, 1951; Einstein, 1951).

Es difícil que la mente humana pueda clasificar y comprender todos los tipos diferentes de complejidad que se producen en los grandes sistemas.

Sin embargo, los avances en las matemáticas nos brindan ciertas perspectivas de comprensión con respecto a dos tipos de complejidad que pueden considerarse como opuestos y se denominan "caos" y "orden".

Sin embargo, hay cierto tipo de caos y de orden que son consecuencia del mismo tipo de estructura matemática, las ecuaciones no-lineales, versión moderna del filósofo griego Anaxágoras quien pensaba que los opuestos surgen de un absoluto carente de forma, y que finalmente acaban por regresar a el.

El comportamiento en los sistemas de grandes dimensiones a menudo resulta imprevisible y está sujeto a grandes variaciones como consecuencia de lo que parece ser cambios secundarios, por lo que recibe el nombre de "comportamiento caótico".

En los sistemas que manifiestan un comportamiento caótico el más pequeño error que aparezca en nuestro conocimiento acerca de su estado cuando empezamos a estudiarlo nos conducirá muy pronto a una incertidumbre total con respecto a sus condiciones reales.

El comportamiento caótico no puede predecirse, aunque las ecuaciones fundamentales tengan un carácter determinístico. Maxwell a mediados del siglo pasado señalo que ciertos fenómenos son imprevisibles en la práctica porque en la forma en que se desarrollan depende de manera decisiva de la situación específica que exista al comienzo de su desarrollo.

El universo entero influye en todos los conocimientos que ocurren dentro de él y si bien esta influencia no puede ser descrita detalladamente, se puede reconocer un cierto orden y expresarlo en términos de leyes estadísticas, por lo que el uso del concepto de probabilidad es que hay una serie de variables ocultas que nos impiden realizar pronósticos exactos (Koestlar, 1972).

La importancia de las conexiones limitadas y de la probabilidad suponen una nueva noción de causalidad que seguramente tiene profundas repercusiones en todas las ramas de la ciencia, pero así también, el hecho de que este enfoque no acepte entidades fundamentales lo convierte en uno de los sistemas más profundos de pensamiento, al mismo tiempo que se trata de un enfoque muy difícil de abordar (Grer y Green, 1977).

El concepto de orden como un nuevo enfoque es el elemento clave de estas teorías; El orden en este concepto significa las interconexiones ordenadas de los procesos que pueden conectarse de varias maneras, por lo que cabe determinar varias categorías de orden en que la topología se utiliza para clasificar estás categorías.

Cuando el concepto de orden (donde los modelos de interacciones que resultan son iguales a los que se observan en la naturaleza) se incorpora la estructura matemática el resultado es que sólo pocas categorías de relaciones ordenadas son consecuentes con esta estructura (Peat y Briggs, 1990).

Desde hace tiempo sabemos que vivimos en un mundo pluralista, en el que tienen lugar tanto fenómenos deterministas como estocásticos.

Encontrando evolución, diversificación e inestabilidad donde quiera que miremos. Es un mundo de inestabilidades y fluctuaciones, Y estas son en última instancia, las responsables de la sorprendente variedad y riqueza de formas y estructuras que observamos, alrededor nuestro en la naturaleza.

Muchos procesos fundamentales que estructuran la naturaleza son irreversibles y estocásticos, ya que las leyes deterministas y reversibles que describen las iteraciones elementales no contienen posiblemente toda la verdad.

En lugar de construir un mundo en el que el pasado condiciona el futuro, pasamos a un mundo cuyo futuro está abierto, en el que el tiempo juega un papel constructivo. Dos disciplinas han cambiado la visión de lo complejo de forma significativa:

  1. La física de los estados del no equilibrio, descubriendo nuevas propiedades fundamentales de la materia que se encuentra muy alejada de las condiciones de equilibrio.
  2. La teoría de los sistemas dinámicos, donde el descubrimiento central es el papel dominante de las inestabilidades, donde pequeñas variaciones de las condiciones iniciales pueden dar lugar a grandes efectos de reforzamiento.

Los fenómenos complejos que aparecen en el marco de los sistemas físico-químicos y biológicos, así como en el mundo macroscópico conducen a una serie de conceptos tales como no equilibrio, estabilidad, bifurcación, ruptura de simetría y orden de gran escala.

El problema de la complejidad desde el punto de vista de la moderna teoría de los sistemas dinámicos, sirve para discutir algunos mecanismos gracias a los cuales los sistemas no lineales sacados del equilibrio pueden generar inestabilidades que a su vez, dan a lugar a bifurcaciones y rupturas de simetría.

Uno de los objetos fundamentales a los que se dirigen los métodos analíticos para el tratamiento de sistemas complejos es la capacidad de romper barreras interdisciplinarias y de poder probar nuevos caminos.

La diferencia entre los fenómenos físico-químicos y biológicos, entre el comportamiento sencillo y complejo, no es tan grande como podría suponerse intuitivamente. Este descubrimiento nos acercará a una contemplación pluralista del mundo físico, según la cual al variar las condiciones impuestas a un sistema, este puede presentar dependiendo de su naturaleza diversas formas de comportamiento.

El pensamiento complejo aspira al conocimiento multidimensional. Pero sabe desde el principio que el conocimiento completo es imposible.

La totalidad es la no-verdad. Implica el conocimiento de un principio de incomplitud y de incertidumbre.

Todas las cosas son causadas y causantes, ayudadas y ayudantes, mediatas e inmediatas y todas subsisten por un lazo natural e insensible que liga a las más alejadas y a las más diferentes.

El pensamiento complejo está animado por una tensión permanente entre la aspiración a un saber no dividido, no reduccionista, y en el reconocimiento de lo inacabado e incompleto de todo conocimiento.

El cosmos no es una máquina perfecta sino un proceso en vías de desintegración continua y al mismo tiempo de organización. Y la vida no es una sustancia, sino un fenómeno de auto-eco-organización extraordinariamente compleja que produce autonomía.

"Lo simple no existe, solo existe lo simplificado", por lo que, de la naturaleza, lo complejo debe concebirse como elemento primario de la naturaleza.

El concepto de información presenta grandes lagunas y grandes incertidumbres. La organización actúa como concepto central de la biología.

El organicismo quiso ver en la sociedad una analogía del organismo animal, investigando las equivalencias entre vida biológica y vida social.

Sin embargo, la autoorganización está más allá de las posibilidades de la Cibernética, Teoría de Sistemas y Teoría de la información.

Con Wiener y Ashby, la complejidad entra en escena en la ciencia y con Von Newmann el concepto de complejidad aparece enlazado con los fenómenos de autoorganización.

La complejidad siempre está relacionada con el azar.

Las propiedades de los modelos básicos, solo pueden entenderse dentro de un contexto dinámico, en términos de movimiento, interacción y transformación. Nunca se sabe de antemano cuando ni como van a ocurrir estos fenómenos. Sólo se pueden predecir las probabilidades de que lo hagan, lo cual no significa que actúen de forma arbitraria, sino que los originan causas ilimitadas.

El comportamiento de una parte está determinado por las conexiones limitadas que ésta tiene con el conjunto y, puesto que es imposible saber con precisión cuáles son estas conexiones, hay que reemplazar la visión clásica y parcial de causa y efecto por un concepto más amplio de causalidad estadística.

Las leyes de la naturaleza son leyes estadísticas, según las cuales las probabilidades de que ocurran ciertos fenómenos están determinadas por la dinámica de todo el sistema; es el todo lo que determina el comportamiento de las partes (Yuann y Lake, 1977; Bohn, 1980 y Peters, 1985).

Cada vez más fenómenos pueden cubrirse gradualmente con la precisión siempre en aumento mediante un mosaico de modelos que se entrelazan, cuyo número de parámetros no explicados debe continuar disminuyendo.

El adjetivo utilizado para esta situación no es nunca apropiado para ningún modelo individual, sino que sólo puede ser aplicado a una combinación de modelos consistentes, ninguno de los cuales es más fundamental que los de más, (Capra, 1971; Sapp, 1971 y Weiss, 1971).

Ningún pensamiento puede ser absolutamente correcto cuando es ampliado de manera indefinida. El hecho de que una cosa tenga cualidades que van más allá de lo que pensamos y decimos sobre ella, se encuentra tras de nuestra noción de la realidad objetiva.

Está claro que si la realidad dejara en algún momento de mostrarnos aspectos nuevos que no están en nuestra mente, entonces difícilmente podría afirmarse que tiene una existencia objetiva independiente de nosotros.

Todo esto implica que cualquier tipo de pensamiento, incluidas las matemáticas, es una abstracción que ni cubre ni puede cubrir la totalidad de la realidad. Todos tienen sus limitaciones, pero juntos llevan nuestro conocimiento de la realidad más lejos de lo que sería posible hacer con un solo método (Jung y Paul, 1955; Prigogine, 1980).

Elementos básicos del pronóstico en los sistemas climáticos y productivos.

La naturaleza tiene que ser interpretada como materia, energía e información, donde el universo y sus formas de vida presentan una base azarosa pero no necesariamente accidental.

Las fuerzas del azar y del no azar coexisten a través de una relación complementaria. Einstein descubrió que el movimiento Browniano se presenta frecuentemente en la naturaleza. Su matemática representativa no se basa en una simple relación de causas y efectos, sino en el azar y en la estadística.

Wiener reconoció que el envío y recepción de mensajes tiene bastantes cosas en común con el movimiento Browniano. El lazo que une los dos conceptos es la estadística, una rama de la teoría de probabilidad; el principio maestro que se halla tras algunos de los más profundos descubrimientos de la física moderna.

La secuencia de estos hechos espaciados en el tiempo, que no son conocidos por completo de antemano y que los matemáticos denominan estocásticos del griego "stokos", que significa adivinar (Persegian, 1972).

Al hacer este tipo de predicción, un matemático no considera un solo futuro, sino muchos futuros simultáneos, que puede decirse que coexisten en sentido abstracto. La estadística no puede hacer nada con un solo dato. Un hecho aislado no tiene sentido. Necesita ser parte de un modelo de muchos hechos posibles, cada uno con cierta posibilidad de ocurrir (Wiener, 1948 y Ashby, 1972).

Con el determinismo absoluto, se supone que con un conocimiento perfecto de lo que un objeto hace en el presente, es posible predecir con exactitud lo que hará en cualquier momento del futuro. Wiener expuso su firme convicción de que un científico nunca podrá tener un conocimiento perfecto de lo que una parte del universo haca (mientras lo observa) en determinado momento.

Como consecuencia, no hay esperanza de conocer con seguridad y en detalle lo que será en el futuro. El científico debe tratar de superar esta incertidumbre sobre el futuro considerando una gama de diferentes contingencias y asignando una probabilidad apropiada a cada una.

Entonces puede señalar lo que quizá suceda en tal o cual conjunto de circunstancias. Estos nuevos conceptos de comunicación y control, implican una nueva interpretación del hombre, del conocimiento, del universo y de la sociedad.

Cuando un sistema es ordenado y por lo tanto improbable; cuando es pobre en entropía y rico en una estructura de escala macroscópica, se puede saber más a cerca de él que cuando es desordenado y rico en entropía. Gerolamo Cardano se percató de que la incertidumbre posee una estructura y que una vez descubierta la clave de ella, el azar deja de ser una parte de la incertidumbre y se vuelve inteligible.

La complejidad del mundo es ilimitada y sus partes están en continuo cambio, sin embargo, las leyes de la física permanecen válidas e inalterables.

Nada de lo que se afirme de esta complejidad en un momento dado, puede ser total y absolutamente cierto.

La teoría de la información de Shannon se ocupa de este tipo de error como algo intrínseco y fundamental, donde las probabilidades sólo existen como resultado de la experiencia del experimento.

Es imposible hablar de la probabilidad de un hecho aislado; tiene que haber muchos.

El experimento tiene que continuar hasta que exista una razón de peso para creer de manera confiable que la frecuencia relativa se aproximaría a un límite fijo si el experimento continuara indefinidamente.

El valor de este límite es la probabilidad. La probabilidad que se encuentra en la raíz de la teoría de la información, está relacionada con la cantidad y el tipo de conocimiento que poseemos sobre cualquier hecho o serie de hechos cuyo desenlace es incierto (Shannon y Weaver, 1949).

La información se relaciona con la termodinámica. Los conceptos de información y entropía convergen y nos pueden llevar a una teoría más general, que lo abarque todo.

El ruido es desorden, pero importantes mensajes pueden estar inmersos en este ruido, y es axioma de la termodinámica clásica que el desorden es más fácil que se de y tiene permanencias más prolongadas que el orden, el cuál es difícil de conservar y temporal.

La expansión cósmica del Big Bang creó un conjunto de condiciones iniciales que hicieron posibles dos tipos totalmente distintos de procesos generadores de orden; la evolución cósmica con sus procesos generadores espacio-tiempo y disminución de temperatura y densidad y sus respectivas pérdidas de capacidad de trabajo (aumento de entropía) y la evolución biológica donde la dirección de este proceso también se aparta irreversiblemente de la uniformidad, dirigiéndose hacia nuevas formas de estructura de mayor complejidad.

A lo largo de este sendero, apunta también la flecha termodinámica, porque la entropía brota naturalmente como resultado de los procesos mismos que hacen surgir a los sistemas vivos e impulsan la máquina de la civilización humana, con su creciente dependencia de las máquinas y de la tecnología moderna, degradadotas también de energía (Cook, 1971).

La entropía es información perdida como observó Boltzman hace más de 100 años. En los sistemas cerrados la información perdida en la gran escala del macrocosmos se convierte en creciente información en pequeña escala del microcosmos. Si entendemos por sistema a un conjunto de elementos unidos por alguna forma de interacción o interdependencia de tal manera que forma una unidad con un objetivo en común, cualquier sistema real puede observarse desde diferentes puntos de vista y cada uno da una perspectiva adicional sobre el mismo.

Todas las perspectivas no igualan al sistema real porque siempre es posible encontrar una adicional. La colección de puntos de vista permite la formación de un concepto de sistema a ser formado (Bartenieff, 1980).

Un excelente ejemplo de relaciones entre diferentes niveles de conceptos, y entre estos y el mundo real, es dado por el campo de la termodinámica. Este hecho es utilizado por (Adem, 1964; 1970 y 1991), para desarrollar un modelo termodinámico del clima. Imprimiendo por primera vez dentro del campo de la climatología, una visión holística, dinámica e integradora cuyas bondades de simulación y pronóstico presentan muchas ventajas sobre otros, incluyendo a los de circulación general de la atmósfera, para preferirlo en aplicaciones prácticas en muchos campos de la ciencia, quien sin embargo no deja de remarcar (Adem, 1974) que no importa que tan complejos parezcan los modelos estos son extremadamente simples si son comparados con la complejidad observada en la naturaleza.

Este mismo enfoque o procedimiento de abordar el problema predictivo, es imposible de realizar para los sistemas biológico-productivos, debido a la falta de un mayor desarrollo de la termodinámica de sistemas abiertos, por lo que en la práctica se tienda a simularlos como un efecto resultante de un factor climático limitante (Patron y Jones, 1989; Verstehe y Keblen, 1986; Ritter et al., 1979; 1982; 1984 y 1986).

Mientras que el pronóstico del estado del tiempo por métodos numéricos (El cual podríamos considerar como posible auxiliar en los modelos de clima-producción). Siempre comienza con las condiciones iniciales observadas a varios niveles y para ciertos tiempos y para áreas bastante grandes (como un hemisferio).

En la realización del cómputo de cada iteración de aproximadamente 5 minutos se inicia esta de la última predicción que ha sido calculada, siguiendo este procedimiento para varios días. El propósito consiste en pronosticar el viento a varios niveles y con la ayuda de modelos termodinámicos y de dinámica de fluidos obtener indicaciones de desarrollo y trayectoria de tormentas y de estos sistemas de vientos deducir pronósticos de temperatura y precipitación asistidos incluso por el uso de ecuaciones estadísticas.

Predicciones detalladas de los métodos numéricos iteractivos aún para cuando se tenga la información perfecta no va más allá de un par de semanas, llegando en ocasiones a rebasar las predicciones de los resultados de métodos climatológicos probabilísticos.

Aunque no existe una evidencia generalizada de esto se espera que con una mayor y mejor información en las observaciones, combinado con un mayor conocimiento de la modelación atmosférica se mejoren dichos resultados ya que si bien estás metodologías están aún muy lejos de ser perfectas, si indican que los métodos contienen algún entendimiento del comportamiento atmosférico a largo plazo.

El uso de análogos de situaciones similares en el pasado como guías de pronóstico del futuro como son; las tendencias a largo plazo, teleconexiones, ecuaciones de regresión, funciones ortogonales empíricas, contingencias climatológicas (indicando probabilidades de ocurrencia después de observadas ciertas condiciones atmosféricas),

El uso de anomalías en la cubierta de nieve temperatura superficial oceánica y humedad del suelo (para determinar probables patrones de forzamiento y estabilización), se siguen utilizando mientras no se tenga el método numérico de pronóstico adecuado y confiable a utilizar),

Las ecuaciones que rigen la circulación atmosférica y de las que depende por lo tanto el clima, tienen la propiedad de la inestabilidad exponencial, sin embargo, se pretende que a una condición inicial dada de cierto estado de la atmósfera (presión, temperatura y humedad) le corresponderá una evolución futura perfectamente determinada, resultado de un cálculo en el que el azar no interviene. Si modificamos ligeramente esta condición inicial, este cambio ínfimo tendrá sólo pequeñas consecuencias en los primeros instantes, pero el cambio tendrá tendencias a amplificarse en el tiempo a un ritmo exponencial.

Esto quiere decir, que si se pretende prever lo que haya de ocurrir, es menester realmente tener en cuenta todo lo que nos rodea. Von Newmann se dio cuenta de las limitaciones de esta manera de encarar las cosas y comprendió que la índole de las ecuaciones en relación con las condiciones iniciales impediría siempre todo pronóstico preciso a largo plazo, pero llegó también a una conclusión más original; la posibilidad de que esa misma inestabilidad permitiera tal vez dirigir el tiempo.

Acaso fuera más fácil dirigir el tiempo que preverlo. La inestabilidad exponencial y la dificultad de predecir que es su consecuencia, son fenómenos corrientes que se manifiestan en situaciones muy variadas de la atmósfera, tanto en situaciones más simples como en las más complejas.

Así también debemos esperar que el tiempo que observamos dentro de un año revelará informaciones sobre el estado de la atmósfera de hoy, a excepción de las informaciones en una escala demasiado fina y que no podamos percibirlas directamente.

Sin embargo, es más práctico considerar que con el correr del tiempo hay creación de información y decir que la evolución futura del sistema depende del estado actual y del azar.

Es también sabido que en tanto que condiciones geográficas semejantes producirán efectos climáticos semejantes, no es cierto que condiciones atmosféricas semejantes produzcan condiciones meteorológicas semejantes.

Siempre encontraremos que la inestabilidad exponencial inherente a la física atmosférica impide toda previsión cuantitativa a largo plazo, pero no excluye previsiones de orden cualitativo incluso en plazos aún mucho mayores.

Un modelo de simulación clima producción puede ser definido como una representación simplificada de los mecanismos fisiológicos, químicos y físicos de la planta y de sus procesos de crecimiento. Si los procesos básicos de producción y distribución de materia seca en la planta y sus relaciones con el agua son propiamente entendidos y modelados, la respuesta de la planta a condiciones ambientales puede ser simulada, mostrando los factores limitantes de su crecimiento.

La simulación será más útil si el modelo considera los fenómenos más relevantes y no contiene consideraciones inadecuadas, para proveernos de visión real en las relaciones clima-producción, donde es posible evaluar procesos específicos como fotosíntesis, transpiración o respiración.

La simulación debe ser considerada más como una guía de investigación del comportamiento del sistema biológico que como una solución final, explicando porque algunos factores son más importantes en la producción que otros, y proveer de las bases de nuevos experimentos sobre procesos no lo suficientemente entendidos, pero aparentemente importantes. El desarrollo y prueba de estos modelos de simulación requieren de una visión interdisciplinaria.

Los sistemas de predicción pertenecientes al análisis de los modelos clima-producción, son sistemas basados en procesos de causa-efecto más que solamente en relaciones estadísticas.

El diseño de estos sistemas productivos se basa en la hipótesis de que las tasas de crecimiento de la planta, reflejadas en el crecimiento acumulativo logístico durante el proceso formativo de desarrollo de la planta, están correlacionadas con el rendimiento productivo.

Modelos climáticos de simulación y pronósticos de cosechas.

En las últimas décadas la investigación de las relaciones clima-producción ha recibido mucha atención por parte de científicos que trabajan en una gran variedad de disciplinas. El reconocimiento del impacto del estado del tiempo y del clima en la producción de cultivos, y por lo tanto, en el suministro mundial de alimentos, se ha traducido en un renovado interés por una continua vigilancia mundial de las previsiones relacionadas con los cultivos. Esta información es de vital importancia para las organizaciones nacionales o internacionales que se ocupan de la planificación ordenada de la producción y distribución de alimentos, especialmente los cereales.

Apareciendo numerosas publicaciones en aspectos específicos del estado del tiempo y del clima en relación al rendimiento de cultivos, sin embargo, la aplicación práctica de este conocimiento no ha progresado al extremo que pudiera esperarse. Una razón para este lento desarrollo ha sido la aparente falta de interés por parte de los políticos y planificadores de los años 50's, y 60's en los países mayormente exportadores, quienes debido a los excedentes existentes, consideraban que no era necesario monitorear el efecto del clima en la producción agrícola sobre tiempos reales. Sin embargo, los meteorólogos agrícolas continuaron desarrollando sus modelos y demostrando la factibilidad de proveer en tiempo real estimaciones regionales de producción, basados en la información meteorológica (Vitkevich, 1968; Montieth, 1965a; 1975 y 1976).

La complejidad de las interacciones entre factores físicos, biológicos, económicos, sociales y políticos en la producción de alimentos sugiere que, para el desarrollo de la agricultura moderna se requiere de una visión de administración integrada, donde todos estos importantes factores sean analizados sistemáticamente en un contexto de condiciones regionales, ejerciendo un gran cuidado para asegurar que no se presenten daños irreversibles en los agro-ecosistemas, considerando que tanto el clima como los suelos, nutrientes, irrigación, cultivos adecuados, control de plagas y prácticas adecuadas en el manejo administrativo contribuyen a la productividad alimentaria.

Es necesario conocer los efectos del clima del pasado sobre la producción de alimentos para minimizar el daño a la sociedad cuando tales fluctuaciones inevitablemente ocurran, ya que sabemos que importantes variaciones climáticas para la producción de alimentos se han venido observando desde los años 70's.

Al mismo tiempo, es necesario desarrollar la capacidad de predecir tanto las variaciones climáticas como su impacto sobre la sociedad, minimizando el impacto humano de la fluctuación climática a través de la creación de reservas de alimentos y mejores sistemas de distribución, diversidad en los patrones de cultivos, y mantener potenciales productivos a lo largo de sus nuevos cultivos. O de los ya existentes mediante prácticas congruentes con el clima local. La historia muestra que el clima nunca ha estado tranquilo y existe cierta evidencia que sus fluctuaciones pueden estar incrementándose en frecuencia y severidad, lo que nos llevará a suplementos erráticos de los alimentos, particularmente en países en desarrollo con falta de apoyo financiero institucional y uso de tecnologías poco apropiadas.

Considerando que para el año 2014 seremos 8,000 millones de habitantes que deben ser adecuadamente alimentados, esto significa que hay que duplicar la producción tenida en los años 80's. Si consideramos que las tres cuartas partes de la tierra cultivable reciben insuficiente lluvia, en los tiempos adecuados para el crecimiento de los cultivos, y que las fluctuaciones anuales en la producción de granos son características aceptadas en el suministro mundial de granos, donde usualmente estas fluctuaciones tienden a escalas globales o locales a suprimirse unas con otras; pero debido a las condiciones adversas de 1972 simultáneamente sobre las mayores zonas productoras de granos del mundo, se observó que la repetición de esas condiciones en años sucesivos tendría efectos desastrosos tanto para los países desarrollados como en los en vías de desarrollo. Existe evidencia además, de que en décadas pasadas los patrones estacionales del tiempo no mostraron la variabilidad o extremos que pueden ser esperados en períodos largos. La tendencia climática benévola observada resultó en una serie de años con altas cosechas, pero no puede esperarse que dichas cosechas se presenten en los años por venir.

Esta nueva situación general de los granos con su dependencia del tiempo, nos lleva a un renovado interés en la necesidad de dar una consideración más seria al análisis de nuestro clima como un recurso natural, y en la necesidad de monitorear e interpretar la información histórica existente en términos de condiciones agrícolas esperadas y rendimientos, donde los modelos clima-producción pueden ser útiles para la interpretación de fluctuaciones climáticas en términos de su impacto en la producción agrícola.

Los científicos tienen el prospecto del vasto conocimiento disponible y que los procesos fisiológicos individuales de la planta pueden ser integrados par explicar el comportamiento de los campos de cultivo. Como resultado de esto, varios modelos de crecimiento de cultivos han sido desarrollados para cultivos específicos, así como para crecimiento de biomasa en general; los cuales tienen en común que los elementos esenciales que son incorporados son profundamente comprendidos. En general, estos modelos son bastante complejos y su principal objetivo es de servir como una herramienta en la investigación agrícola, para la formulación de hipótesis y el diseño de experimentos. Unas predicciones confiables de modelos de simulación de crecimiento de las plantas están disponibles, para situaciones donde la irradianza y la temperatura determinan el crecimiento del cultivo, o donde la disponibilidad del agua puede ser el factor limitante (Penning de Vries, 1978).

Aparte de lograr una mayor visión general del funcionamiento de los sistemas biológicos, como razón para el desarrollo de modelos de simulación de crecimiento, otra fuerte motivación ha sido la esperanza de que tales modelos puedan transformarse en herramientas predictivas (Dewit & Penning de Vries, 1982). Sin embargo a menudo, cuando los modelos de simulación son usados en situaciones donde pocos datos específicos del lugar son disponibles, las predicciones parecen desviarse considerablemente de los datos observados.

En algunas situaciones, tales desviaciones pueden ser explicadas por el efecto del factor ambiental local que el modelo no considera como la influencia de las temperaturas bajas nocturnas o resistencia mecánica del suelo sobre el crecimiento (Versteg, 1985). Pero aún en el caso de que tales omisiones no jugaran un papel importante, modelos exactos predictivos para situaciones específicas a menudo requieren gran cantidad de información de los cultivos en relación al sitio de interés, tales como el desarrollo del área foliar, la tasa de asimilación de hojas individuales, el valor de saturación de la luz y la temperatura de referencia para el cálculo de respiración de mantenimiento. Versteeg (1985), demostró que las variaciones en cada uno de estos factores pueden afectar considerablemente los resultados de la simulación, por lo que los modelos más sofisticados con propósitos predictivos mediante cálculos horarios detallados son de poca utilidad, si no existen disponibles datos exactos y confiables. Esta observación coincide con Penning de Vries (1982a), quien señala que los métodos simples a menudo tienen un valor predictivo similar al de los modelos más complicados.

Los estudios para prevenir los efectos causados en el clima por las actividades humanas serán de gran prioridad nacional en los próximos decenios, por lo que se concluye la necesidad de una cosecha de datos y conocimientos al respecto. En el campo de los impactos humanos sobre el clima, hemos aprendido bastante para izar las banderas de peligro, pero no lo suficiente para cuantificarlo adecuadamente. Desde el punto de vista socio-económico el problema fundamental es el incremento del anhídrido carbónico cuyos efectos en el clima, ecosistemas y agricultura serían causados por el deshielo de los polos y la desertificación. Si la tendencia actual al consumo de las energías fósiles no renovables continúa, la cantidad de anhídrido carbónico en la atmósfera terrestre se duplicaría en menos de 50 años. Un aumento de tal magnitud puede producir efectos de invernadero y el consiguiente aumento de la temperatura global y tales variaciones de temperatura tendrían la misma importancia del observado en la presencia de las épocas geológicas, perturbando el equilibrio ecológico de ecosistemas y la producción mundial de alimentos.

La cultura y la sociedad se han desarrollado en un período de absoluta estabilidad climática, sin embargo, esto ya no es más cierto, y el problema está ligado desde sus raíces. En un momento histórico en que las ciencias económicas, sociales y tecnológicas muestran límites propios de manera irracional y nos impiden administrar los rápidos cambios del planeta, es necesaria la transición a un modelo de vida basado en los recursos renovables y en la conservación del entorno, y para esto debemos utilizar las mejores herramientas a la mano para el pronóstico del tiempo, reconociendo con honestidad nuestras debilidades y deficiencias cambiando el curso de la investigación en el menor tiempo posible hacia áreas más promisorias y productivas (Ritter et al., 1991,1996,1997).

BIBLIOGRAFÍA

Adem, J. "On the physical basis for the numerical prediction of monthly and seasonal temperature in the troposphere-ocean-continent system". Mon. Wed .Rev.92 pp.91-104, 1964.

Adem, J. "Experiments aiming at monthly and seasonal numerical weather prediction". Mon. Wed. Rev. 93. pp. 495-503, 1965.

Adem, J. "On the predictions of mean monthly ocean temperature". Tellus. 22. pp. 410-430. 1970.

Adem, J. "A critical appraisal of simple climatic models".The physical basis of climate and climate modeling. Report of the international study conference in Stockolm. Garp Publications series no. 16, April 1975. pp.163-170, 1974.

Adem, J. "Review of the development and applications of the Adem Thermodynamic climate model", Climatic dynamics, 5. pp, 145-160. 1991.

Ashby, W. R. Introducción a la cibernética. Buenos Aires. Ediciones Nueva Visión, 1972.

Bartenief, I. Body movement. Copying with the Environment. New York. Gordon & Breach. 1980.

Bohm, D. Wholeness and the implicate Order. London. Routless & Kegan Paul. 1980.

Bohm, D. & Peat. D.F. Science order and Creativity. Bantam Books. New York. 1987.

Capra, F. The Tao of Physics. Berkeley. Shambala. London . Wilood House. 1975.

Cook, E. The Flow of Energy in the Industrial Society. Scientific American. September. 1971.

Cruz, T.M. , Ritter, W. y Moreno, P. M. Procedimiento de Evaluación Cuantitativa de los Recursos Naturales. Universidad Autónoma de Guerrero. México. 122 pp. 1989.

Einstein, A. Autobiographical Notes. Albert Einstein: Philosopher/Scientist. Editado por Paul Arthur Schlipp. Tudor. New York. 1951.

Green, E. & Green, A. Beyond Biofeedback. San Francisco. Delacorte Press. 1977.

Heisenberg, W. Physics and Beyond. Harper & Row. New York. 1971.

Jeans, J. The Misterious Universe. New York. Mac Millan. 1930.

Jung, C.G. & Pauli, W. The Interpretation and Nature of the Psyche. Bollingen Series Lt. Phanteon. New York. 1955.

Koestler, A. The Roots of Coincidence. Random House. New York. 1972.

Lazlo, E. Introductions to Systems Philosophy. New York. Harper Torchbooks. 1972a.

Lorenz, The Predictability of Hidrodynamic Flow. Trans. N.Y. Acad. Sci. Serv. II, 25. pp. 409-432. 1963.

May, R.M. "Mathematical aspects of the Dynamics of Animal Populations". S.A. Levin (Ed) .Studies in Mathematical Biology. Providence. R.I. American Mathematical Society. 1969.

Monteith, J.L. "Radiation and Crops". Exp. Agric. Rev. I. pp. 241-251. 1965a.

Monteith, J.L. Vegetation and Atmosphere. Vols , 1 and 2. Academic Press. London 1975-1976.

Parsegian, V.L. The Cybernetic World. Double Day & Co. Inc. Garden City. New York. 1972.

Patron, S.R. & Jones, J.G. "Soyabean production in the tropics. A simulation case for Mexico". Agricultural Systems. 29. pp. 219-231. 1989.

Peat & Briggs, Chaos and Order. Harper & Row. 1990.

Penning de Vries, F.W.T. "Modelling of Growth and Production". Encyclopedia of Plant Physiology. New Series. Volumen 12 D. Physiological Plant Ecology IV. (Lange O.L., Nober, P.S., Osmond, B.C. & Ziegler, H. (Eds). Springer-Verlag. Berlín. Pp. 117-150. 1983.

Penning de Vries, F.W.T. "Phases of Development of Models", Simulation of Plant Growth and Corp Production. Penning de Vries, F.W.T. & Van Laar, H.H. (Eds).Simulation Monographs. Pudoc. Wageningen. pp.20-25. 1982a.

Peters, R.H. Prediction and Understanding Alternative Goals in Science. Conferencia ofrecida en el Simposium "Reductionism vs Holism" Universidad de Ottawa. 1985.

Prigogine, I. From Being to Becoming. San Francisco. Freeman. 1980.

Psaropulus, Ch.T. and Ritter, W. "Population Dynamics and Statistical Programs. (Internal Report. VI.1) Inter American Tropical Tuna Comission, Sripps Institute of Oceanography. San Diego, Calif. U.S.A. 1976.

Ritter, W, Guzmán, R.S., Buendía, C.E. y Morales, A.T. "Sobre la Evaluación de los Recursos Naturales (procedimientos de Evaluación Matemática)". Anales del Instituto de Geofísica. 25. pp . 125-133. Mëxico. 1979.

Ritter, W.,Klimek, G.R.. y Guzmán, S.R. "Sobre la abundancia, distribución y comportamiento del atún aleta amarilla en el Océano Pacífico Este y su correlación a condiciones físicas ambientales". Ecofísica. No.17. IPGNCOCAJ. 1982.

Ritter, W. y Guzmán, S. R. "Modelo generalizado de producción pesquera con dependencia ambiental. Una aplicación al golfo de Tehuantepec". Revista Geofísica de I.P.G.H. (OEA). Vol 20. 1984.

Ritter, W., Garay, M.E. y Guzmán, S.R. "Balances de radiación y potenciales de productividad primaria en algunos ecosistemas terrestres de la República Mexicana". Geofísica Internacional. 25, 2. pp. 285-314. 1986.

Ritter, W. y Guzmán, R.S. "Efectos estocásticos ambientales en el crecimiento poblacional atunero en el Océano Pacífico del Este". Meteorología (Argentina Vol. XV. No. 1, 1987).

Ritter W, y Guzmán, R. S. "Simulación y pronóstico de lluvias; una aplicación al estado de Tlaxcala", (Geofísica Internacional, Vol. 30, No. 3, pp. 183-192, 1991).

Ritter W, Patiño Mercado. R. y Pérez M. C. "Micro Climatology Forest Plague (Dendroctunus Adjuntus) in Central México" Geo Journal (Germany) 30, No. 4, pp. 479-481, 1993.

Ritter W, Mociño H. P, Buendía C. E. "Rainfall variability and Predictability for Agricultural Purposes in Central México" Mausan (India) (in press), 1996

Ritter W, Buendía C. E. y Patiño M. R. Un modelo Estadístico Lineal para la Determinación de la Homogeneidad Predictiva de la Lluvia. Revista de la Facultad de Ingeniería, pp. 65-70, 1997.

Shannon and Weaber. The Mathematical Theory of Communication Urbana University of Illinois Press 1949.

Schlipp P. A., Albert Einstein; Philosopher and Scientist, New York Tudor, 1951.

Soberon J. M., "Ecotecnología. Predicción y Ciencia". Ciencias, especial 4, pp. 65-74, 1990.

Versteegue M. N., y Keulen H. Van. "Factors influencing the productivity of irrigated crops in Southern Peru, in relation to prediction by simulation models" Phd, thesis para doctorado. Agricultural University, Pudocc. Wageninge. 182pp. 1986.

Vidkevich. Agricultural Meteorology. National Science Foundation Jerusalem 330pp., 1968,

Wienner M., Cybernetics. New York, Wiley 1948.









(Volver a página inicial)