GRANDES CUESTIONES: ¿QUÉ MEDIMOS CUANDO MEDIMOS?
Walter Ritter Ortiz
Sección de Bioclimatología, Centro de Ciencias de la Atmósfera, UNAM. Circuito Exterior s/n, Ciudad Universitaria, Deleg. Coyoacan, México, D. F. Email: walter@atmosfera.unam.mx .
Juan Suárez Sánchez, Silvia Chamizo Checa
Laboratorio del Medio Ambiente. Facultad de Agrobiología, Universidad Autónoma de Tlaxcala. Posgrado en Ciencias Ambientales, Universidad Autónoma de Hidalgo, Km. 10.5 Autopista San Martín-Tlaxcala, Ixtacuixtla, Tlax., C.P. 90120.
Email: juan@cci.uatx.mx, silchami@ hotmail.com
Alfredo Ramos Vázquez
Universidad Virtual del Estado de Guanajuato.
Email: aramosvr@hotmail.com
German Urban Lamadrid
Instituto de Ciencias Naturales de la Universidad Autónoma de Guerrero (UAG)
Email: germurban@yahoo.com.mx
Dr. Roberto Luevano Escobedo
Facultad de Ciencias Forestales, Universidad Autónoma de Durango,
Email: luevano@ujed.mx,
EN ALGÚN PUNTO PERDIDO DEL UNIVERSO, CUYO RESPLANDOR SE EXTIENDE A INNUMERABLES SISTEMAS SOLARES, HUBO UNA VEZ UN ASTRO EN EL QUE UNOS ANIMALES INTELIGENTES INVENTARON EL CONOCIMIENTO. FUE AQUEL EL INSTANTE MÁS MENTIROSO Y ARROGANTE DE LA HISTORIA UNIVERSAL. F. Nietzche.
EN EL FONDO NO SÉ NADA. HE DEJADO ENTRAR EN MÍ CON LA MAYOR LIBERTAD POSIBLE EL DESORDEN, EL ESTRÉPITO Y EL ARCAÍSMO DE ESTE MUNDO DE HOY. P. Guyotat.
EL ESFUERZO POR ENTENDER EL UNIVERSO ES UNA DE LAS MUY ESCASAS COSAS QUE ELEVAN LA VIDA HUMANA UN POCO POR ENCIMA DEL NIVEL DE LA FARSA, CONFIRIÉNDOLE ALGO DE GRANDEZA A LA TRAGEDIA. Steven Weinberg.
UNA DE LAS MAYORES VÍRTUDES DE LOS CIENTÍFICOS DEBE SER DE TENER LA CAPACIDAD DE ESCUCHAR LAS CONVICCIONES DE SUS IGUALES, INCLINARSE ANTE LA LEY DE LA EVIDENCIA Y ADMITIR QUE SIEMPRE ESTÁN TRABAJANDO DESDE UNA POSICIÓN DE IGNORANCIA. Mychael Brooks.
MIS PENSAMIENTOS NUNCA FUERON LIBRES, NI CLAROS, Y ERAN POCO APTOS PARA AGRADAR A UN OÍDO CLÁSICO. Richard Dawkins.
EL ESFUERZO MÁS FIRME DE NUESTRO ACTUAL CONOCIMIENTO ES SABER QUÉ IGNORAMOS. James R. Newman.
NO SABES NADA HASTA QUE COMPARAS Y CONTRASTAS. K. C. Cole.
LA APLICACIÓN MISMA DE PRINCIPIOS CIENTÍFICOS ACEPTADOS, CONDUCE A MENUDO A LA COMUNIDAD CIENTÍFICA EN DIRECCIONES DIFERENTES. Juan Bertin.
LAS IDEAS SON SIMPLES, ¡PERO EL UNIVERSO ES MUY COMPLICADO!... SIN LAS MATEMÁTICAS NO SE ENTIENDE REALMENTE LA FILOSOFÍA, SIN LA FILOSOFÍA NO SE ENTIENDE DE VERDAD LAS MATEMÁTICAS, Y SIN NINGUNA DE LAS DOS, NO SE ENTIENDE NADA DE NADA. Leibniz.
NO ES, LA AUSENCIA DE LIMPIEZA O DE SALUD LO QUE VUELVE ABYECTO, SINO AQUELLO QUE PERTURBA UNA IDENTIDAD, UN SISTEMA, UN ORDEN. AQUÉLLO QUE NO RESPETA LOS LÍMITES, LOS LUGARES, LAS REGLAS. LA COMPLICIDAD, LO AMBIGUO, LO MIXTO. EL TRAIDOR, EL MENTIROSO, EL CRIMINAL CON LA CONCIENCIA LIMPIA, EL VIOLADOR DESVERGONZADO, EL ASESINO QUE PRETENDE SALVAR… TODO CRIMEN, PORQUE SEÑALA LA FRAGILIDAD DE LA LEY, ES ABYECTO, PERO EL CRIMEN PREMEDITADO, LA MUERTE SOLAPADA, LA VENGANZA HIPÓCRITA LO SON AÚN MÁS PORQUE AUMENTAN ESTA EXHIBICIÓN DE LA FRAGILIDAD LEGAL… PUEDE HABER GRANDEZA EN LO AMORAL Y AÚN EN UN CRIMEN QUE HACE OSTENTACIÓN DE SU FALTA DE RESPETO DE LA LEY, REBELDE, LIBERADOR Y SUICIDA. LA ABYECCIÓN ES INMORAL, TENEBROSA, AMIGA DE RODEOS, TURBIA: UN TERROR QUE DISIMULA, UN ODIO QUE SONRIE, UNA PASIÓN POR UN CUERPO CUANDO LO COMERCIA EN LUGAR DE ABRAZARLO, UN DEUDOR QUE ESTAFA, UN AMIGO QUE NOS CLAVA UN PUÑAL EN LA ESPALDA. Julia Kristeva.
CONOCÍ EL BIEN Y EL MAL, PECADO Y VIRTUD, JUSTICIA E INFAMIA;
JUZGUÉ Y FUI JUZGADO, PASÉ POR EL NACIMIENTO Y POR LA MUERTE,
POR LA ALEGRÍA Y EL DOLOR, EL CIELO Y EL INFIERNO; Y AL FIN RECONOCÍ QUE YO ESTOY EN TODO Y TODO ESTÁ EN MÍ. Hazrat Inayat Khan
UN MATEMÁTICO QUE NO TENGA ALGO DE POETA, JAMÁS SERÁ UN BUEN MATEMÁTICO… LAS MATEMÁTICAS EXPERIMENTAN UNA EVOLUCIÓN Y UN CAMBIO CONSTANTE, DONDE LOS PROBLEMAS BÁSICOS ESENCIALES NUNCA DESAPARECEN… PARA CREAR UNA TEORÍA MATEMÁTICA NUEVA O PARA DESCUBRIR NUEVAS MATEMÁTICAS HAY QUE SENTIRSE CÓMODO CON LAS IDEAS VAGAS, INMADURAS, EMBRIONARIAS, POR MUCHO QUE UNO ASPIRE A DEFINIRLAS… LA CIENCIA ES UN RECORIDO ABIERTO: CADA INTERROGANTE QUE SURGE DA LUGAR A DIEZ PREGUNTAS NUEVAS. Gregory Chaitin.
EN GENERAL LA NATURALEZA OFRECE PRUEBAS ACORDES CON LAS PREGUNTAS QUE HACEMOS. Sinclair Lewis,
TRES COSAS DOMINAN EL MUNDO; LA ESTUPIDEZ, EL MIEDO Y LA AVARICIA… UNA MENTIRA REPETIDA UN MILLÓN DE VECES, SE PUEDE LLEGAR A CONSIDERAR UNA GRAN VERDAD…. NADA HA CAMBIADO, SÓLO YO HE CAMBIADO Y CON ESTO TODO HA CAMBIADO. Anónimo.
TOMAR CONCIENCIA ES EL OBJETIVO DE NUESTRA EXISTENCIA Y SÓLO A ESTE OBJETIVO SIRVE TODO EL UNIVERSO… EL SER HUMANO GUSTA DE IMAGINAR QUE ÉL CREA ALGO NUEVO, Y HABLA CON ORGULLO DE SUS INVENTOS. PERO NO SE DA CUENTA DE QUE MÁS QUE INVENTAR, LO QUE HACE ES ENCONTRAR UNA POSIBILIDAD YA EXISTENTE. Thorwald Dethlefsen y Rüdiger Dahlke.
RESUMEN
El deseo de “descubrirle su chiste a la naturaleza” se puede manifestar en diversas formas. A algunos les lleva a realizar experimentos o a coleccionar hechos pero a otros les da por formar teorías y a concentrarse en la explicación donde en base al rigor, le lleva a hacer una selección crítica, pero no falta también quien se inspire en fantasías. Para algunos el mero ajetreo intelectual rebasa el colmo de su afán, pero a otros sólo los resultados comprobados y seguros les puede llegar a proporcionar satisfacción. Los científicos toman todo aquéllo que puede ser analizado mediante la observación y la experimentación, y así se descubre lo que se denomina ciencia. Pero muchas veces, quedan fuera algunas cosas, cosas para las que el método no funciona. Pero esto no significa que no sean importantes, son de hecho, en muchas ocasiones, las más importantes en muchos aspectos y nos engañamos al pensar saber más de lo que realmente sabemos, al dejarlas fuera. Pero ¿Por qué perdemos el tiempo con lo irrelevante e intrascendente, cuando en realidad lo único que importa son los grandes acontecimientos? ¿No debería ser lo primero que debemos cuestionar?, de si ¿vale la pena hacerlo?, cuestión o pregunta que debería llegar hasta la raíz del problema por querer resolver.
El “Análisis de Sistemas” nos provee de un marco teórico de pensamiento capaz de manejar interacciones complejas en la naturaleza, diseñada para ayudarnos en la toma de decisiones y de escoger un curso de acción deseable: de reconocer cuando no tratar de resolver un problema, ya que éste sólo nos llevará a más pérdidas o desperdicios de tiempo y recursos; pronosticar los resultados de un curso tomado de acción. El método es ampliamente utilizado en áreas de biología y ecología y en general para todo lo que tiene que ver con sistemas complejos. Se analizan los varios tipos de modelos matemáticos en aumento de complejidad que pueden utilizarse en el análisis de sistemas.
Mencionando ventajas y desventajas del proceso de modelado y cuándo es conveniente utilizarlos. La aplicación de estas teorías a niveles y distintos campos de investigación y predicción de su estado, demuestra su gran utilidad práctica, así como sus enormes posibilidades de utilización en terrenos aún desconocidos. Desmitifica el poder de los números y concede a las matemáticas su verdadero valor, llevándonos a replantear la validez de axiomas conocidos; preguntándonos hasta qué punto las matemáticas son una ciencia exacta y en qué medida pueden ayudarnos a comprender nuestra propia vida. El ser humano inventó las matemáticas, pero está limitado para su comprensión. No obstante, es imprescindible aprender cómo funcionan los números para entender mejor cuanto nos rodea, autorizándonos a traducir la complejidad del mundo en pautas manejables, que es lo que pretendemos comunicar y utilizar en este trabajo.
INTRODUCCIÓN
Para conseguir conocer algo, es necesario partir de la información de datos obtenidos a través de las medidas; información obtenida tras una serie de cuidadosas mediciones. Si se desea llegar a la verdad de algo, lo primero que hay que hacer es ponderarlo, donde la medida es la piedra angular del conocimiento, ya que nos permite establecer comparaciones y cuantificar relaciones.
En definitiva, todo se reduce a la cantidad y asignamos medidas numéricas a todo. Pero semejante contabilidad numérica desdeña una amplia gama de fenómenos que sólo emergen en la escala macroscópica. Es decir, todo lo que usted es capaz de definir puede ser medido simplemente porque el acto de su definición precisa así mismo de las cualidades que lo constituyen. Toda buena propiedad depende de una buena definición y de una buena manera de medir.
Experimentos aparentemente insignificantes conducen a menudo a profundos descubrimientos. Preguntas sencillas han conducido a los descubrimientos más profundos de la historia de la humanidad. Han sido pensadas para responder a las preguntas fundamentales y a menudo poco explicadas de la ciencia y la filosofía. Dando respuestas de manera concisa y rigurosa, a dichas grandes preguntas que han dejado perplejos a los hombres. Donde un creador encargado de responder dichas preguntas, no tiene porqué ser considerado un ser divino.
Las medidas sólo poseen significado en el grado que respetemos sus diversos límites y ninguna medición es simple, todas implican desentrañar aspectos que no podemos separar o cuantificar otros, que no es posible contar o definir y algunos que simplemente no se pueden precisar. El acto de medición, por lo general influye sobre estos aspectos, llegando incluso en muchas ocasiones a destruirlos.
La operación de medir es un sorteo efectuado a través de reglas precisas, la cuál determinará el valor que registrará el instrumento. Lo cierto es que resulta imposible prever el resultado en una sola medición, a lo sumo se permite calcular a priori todos los resultados posibles y la probabilidad de cada uno de ellos. Esto no quiere decir que no se tenga precisión o que no se permitan hacer ciertas previsiones, sólo que estas previsiones serán de naturaleza estadística, lo cual no excluye el poder de una gran precisión.
Ningún estudio basado en medidas carece de fallas y una sola investigación sobre el caso no puede resolver todos los posibles problemas por presentarse. Debemos ser francos al admitir fallas de cada estudio y sus medidas, en especial cuando los resultados parecen concordar con nuestros prejuicios. Los mejores científicos son los críticos más severos de su propio trabajo.
Vivimos en un universo donde el más simple y mínimo acto puede afectar algo, que a su vez cambiará otra cosa y se generará una reacción en cadena que hiciera que el hilo de eventos históricos del que depende que se diera o no se diera nuestra existencia, no se produjera; se dice que es por esto que nuestra existencia es tenue hasta el sobresalto.
Es muy difícil explicar lo que representa el mundo que nos rodea. Donde las ideas preconcebidas distorsionan la visión de la realidad. Las nuevas teorías físicas ofrecen muchas alternativas, cientos de teorías sobre nuestro entorno y nuestra existencia. El Universo rebosa de cuestiones que jamás podrán ser comprendidas a través del entendimiento de sus partes más pequeñas y fundamentales. Para llegar a la verdad acerca de algo, tenemos que hacer mucho más que reducirlo a sus partes más simples. La ley sólo será válida si es más simple que los datos, con suerte, mucho más simple. ¿Comprender es comprimir? ¿Los teoremas se comprimen en axiomas?
Los biólogos siguen enfrentándose sin herramientas conceptuales adecuadas a las características más importantes del mundo de lo vivo. La investigación experimental se ha ido limitando cada vez más al número, es decir, al pesar, medir y contar. Donde se supone que las conclusiones obtenidas no deberían salirse de lo concreto y lo visible, donde han ido creciendo las teorías y las hipótesis que no pueden ser probadas físicamente, basadas en una lógica y unas hipótesis parciales que no pueden responder a las preguntas esenciales.
Sin ninguna base experimental se ha llegado al consenso de que la vida resultó de una casualidad de una muy compleja combinación de átomos, derivada completamente del azar. El cambio evolutivo existe, pero la misma evolución no tiene sentido, es un azar. Y cada vez que ha aumentado el poder resolutivo de la instrumentación, la materia parece mostrar nuevas y desconocidas estructuras internas. ¿Todo conocimiento es convencional? Sin embargo, cada nicho ecológico es un oasis de regularidad en el que las diversas especies se vinculan con rigorosa lógica.
Todas las pautas en la naturaleza son las propiedades emergentes de interacciones simples; a lo largo del tiempo, representan más que la suma de sus partes, donde pequeños cambios cuantitativos, conducen a grandes diferencias cualitativas y donde las personas son inseparables de su entorno.
Todos los sentidos nos presentan el mundo de una manera “tergiversada”. Esto se da ya que para abarcar una gama tan grande de respuestas en nuestro entorno, sólo pudiera hacerse utilizando una escala “logarítmica” donde se pudiera detectarlas y manifestarlas. De la misma manera los cambios demasiado sutiles o graduales, somos incapaces de detectarlos o percibirlos. No podemos ver crecer las plantas y mucho menos las montañas; el “tiempo” es el factor crucial que no nos permite detectarlos. Que cómo sabemos el tiempo, es tan sólo la posibilidad de contemplar procesos. Tendríamos que poder distinguir “diferencias extremadamente sutiles” para poder saber cuándo pudiesen presentarse cambios extremos y catastróficos en el clima local. Resulta difícil tener una perspectiva de algo y evitar las catástrofes antes de que nos afecten, sobre todo cuando todo parece hallarse bajo control.
La naturaleza sabe lo que está haciendo y lo lleva a cabo sin importarle que no seamos capaces de poder entenderlo. La posible verdad se basa en argumentos estadísticos escogiendo cuál entre las varias posibilidades presenta una probabilidad de mayor certeza y qué nivel de duda resulta aceptable. En ocasiones la “causa” es azar, pero nos molesta de que los acontecimientos sean fortuitos, sin embargo causa y azar no se excluyen, tan sólo mantienen una relación más compleja de lo que se creía.
Sólo podemos conocer la naturaleza si descartamos “el ruido” introducido por los efectos distorsionadores de los instrumentos de medición. Eliminar todas las fuentes posibles de error y confusión que podrían desfigurar lo que se trata de ver y empezar a encontrar verdades, con el arte matemático de la percepción de pautas. Recordando que la verdad absoluta tiene que ver con la religión, no con la ciencia.
Las observaciones que son ruido para una persona resultan ser señales informativas para otra persona. Se tiene que saber todo lo que hay, con el fin de conocer los tipos de ruido que probablemente estorbarán sus experimentos. Esto significa que han de convertirse en expertos en lo irrelevante y conocedores de los más mínimos distractores. Sabiendo que en la concentración de una cosa, se pierde parte del contexto. Es como concentrarse tanto en algo que desaparece el resto del mundo.
Es bastante obvio que, trabajar con “muestras” nos da mediciones erradas. El objetivo de estas mediciones no es conocer las cosas con exactitud, si no la de obtener aproximaciones que puedan dar información valiosa para la toma de decisiones. Implica aceptar una aproximación a lo que ocurriría si pudiésemos trabajar con toda la población.
Es mejor que desde el comienzo reconozcamos nuestras limitaciones. Debemos medir lo que es mensurable, teniendo presente que cuando haya cualidades que valoramos pero que no podemos medir fácilmente, nuestro cálculo será limitado.
Ya sea en la teoría o el experimento, hay limitaciones estrictas a lo que podemos descubrir. La ciencia nunca resuelve un problema sin crear otros diez; sin embargo, los nuevos descubrimientos hacen que el mundo sea más interesante. Donde cada parte influye y es influida, sostiene y es sostenida, regula y es regulada por el resto de los elementos que lo constituyen. Y donde cada vez que hemos pensado que hemos explicado la realidad, la naturaleza nos sorprende de nuevo, revelando lo poco que realmente sabemos. Las teorías extraordinarias requieren pruebas extraordinarias.
Ciertas conclusiones que extraemos de las estadísticas son falaces por completo. Resulta evidente que no bastan los números para que tenga un sentido la estimación. Es posible también que las comparaciones puramente numéricas sean también inaceptables desde varios puntos de vista. La auto protección psicológica nos induce a extraer conclusiones consecuentemente erróneas. Las observaciones que para una persona aportan datos, para otra constituyen sólo ruido superfluo. La diferencia entre señales y ruido a menudo depende enteramente del contexto.
Algo siempre se pierde en cada medición que se gana. En un determinado momento “la medición” implica llegar a un número que describa algo, tanto si el objeto de nuestro análisis resulta descriptible con cifras como si no es ese el caso. La complejidad cambia con la “Escala”, donde la respuesta queda determinada no sólo por el tipo de interrogante, sino también por el simple hecho de que exista una pregunta.
Creemos que cualidad y cantidad son dos tipos de propiedades diferentes e independientes; al contrario, no sólo la cantidad determina con frecuencia la cualidad, sino que la cantidad o la escala puede afectar a la noción misma de lo que es verdad, de lo que es posible y desde luego de lo que existe.
Formular preguntas sobre la naturaleza resulta siempre un tanto traicionero porque las respuestas que se obtengan dependerán de las preguntas que se planteen. Las contestaciones dependen también del lugar en que se encuentre el observador, un sistema de referencia diferente puede proporcionar respuestas muy diferentes o dispares. Se puede hablar del aquí y el ahora o del allí y el entonces, pero carece de sentido referirse al allí y el ahora.
En mecánica cuántica, la misma decisión de medir algo afecta a la medición e incluso la determina. ¿Cómo podemos llegar a la verdad si formulamos preguntas ondulatorias para decidir si se trata de una onda y preguntas corpusculares para determinar si es una partícula?
El obstáculo más frecuente para una medición precisa, es el hecho de que normalmente pasa desapercibido el hecho de que sólo cabe medir aquéllo que se está buscando, algo que se sabe, o sospecha, que se encuentra allí. La realización de una medida es conocer exactamente en dónde comienza y dónde acaba el objeto que se pretende evaluar. Nuestro deseo de fijar límites a todo y tratar de medirla exactamente, nos lleva muchas veces a problemas. Son escasos los objetos físicos marcados con límites tajantes; así por ejemplo, a los meteorólogos les resulta difícil captar los objetos de su estudio. Muchas interrogantes no admiten contestación, excepto quizá la de declarar que son infinitas las respuestas.
No hay manera posible de ordenar correctamente desde un punto de vista matemático más de dos variables al mismo tiempo. Así también es frecuente que a partir de alguna información sea imposible llegar a conclusión alguna, acerca de un caso concreto. La acumulación de cosas en grupos puede hacer engañosas las mediciones, ya que los promedios no representan necesariamente a los individuos en particular que forman el grupo. Y el objetivo de acceder a los “promedios podados”, es protegerse de los efectos nocivos de los extremos.
Está en la esencia de la ciencia el deber de saber qué es lo que no sabemos. La confianza con la que a veces los científicos afirman lo mucho que conocemos y lo útil que puede ser, puede desbordarse en arrogancia. Arrogante o no, al menos aparentamos estar de acuerdo con la idea de que la ciencia avanza mediante “la refutación” de sus hipótesis. Admitir el desconocimiento es una virtud, pero complacerse en la ignorancia es intolerable.
La ciencia avanza mediante la corrección de sus errores, y no esconde lo que aún no comprende. Pero lo que mucha gente percibe desgraciadamente, es lo contrario. Donde se dice que la ciencia está constreñida por el método experimental y penosos escalones del empirismo y que los científicos simplemente, no pueden enfrentarse a la noción de un universo variable.
¿Cómo medimos las propiedades de las cosas? ¿De qué manera se relacionan en cualidades las cantidades que medimos con escalas?
El mismo fenómeno de inversión térmica que retiene la contaminación y ahoga el Distrito Federal, permite disfrutar de una claridad excepcional en la cima o faldas del Popocatepetl.
Los organismos vivos son un misterio desde el punto de vista de la física. Es un complejo sistema de procesado de información, donde la vida fue desencadenada de algún modo por la organización de dicha información. Sabemos que algo está pasando en el universo que nos contiene, pero desconocemos lo que es. Donde la evolución nos ha dado un nuevo elemento que conocemos como “conciencia”, ensambladas además con la mecánica cuántica, ¿Qué tiene que ver la conciencia con la mecánica cuántica? En mecánica cuántica lo infinitamente pequeño repercute en lo infinitamente grande y por lo mismo en el ser humano y el Todo se convierte en algo posible.
Estamos inmersos en el mundo cuántico: todo son partículas y todas tienen sus interacciones, algo que relaciona inevitablemente lo infinitamente pequeño con lo inconmensurablemente grande e indudablemente con el ser humano. Aunque todavía no se entienden por completo las reglas del juego. La ciencia se esfuerza por definir los conceptos que juzga como relevantes para comprender el mundo.
Enrico Fermi y John Von Neumann en la construcción de la bomba atómica, llegaron a la conclusión de que sólo podría dársele un tratamiento por métodos estadísticos al problema. Donde cada trayectoria individual de las partículas funcionaba en base a reglas complejas pero con probabilidades conocidas.
La regla consiste en echar a suertes las decisiones según probabilidades y en estudiar estadísticamente los resultados obtenidos. Método conocido como de Monte Carlo, considerado un método simple y versátil. Sin embargo, el concepto de azar se descompone en una multitud de propiedades tan diversas que a veces parecen contradictorias.
El funcionamiento de la vida depende de redes que intercambian materia, energía e información y que son capaces de resistir perturbaciones, daños e incluso pérdidas irreversibles de elementos sin mayores consecuencias. Pese a ello, algunos elementos clave son un verdadero talón de Aquiles; su perdida puede conducir al colapso, nos dice Ricard Solé.
Los científicos menos reduccionistas siempre recurren a la evidencia experimental, saben que sin un acercamiento de todos los ángulos del conocimiento es imposible entender totalmente algo. Las preguntas verdaderamente trascendentales no pueden resolverse, mucho menos plantearse, en un abrir y cerrar de ojos.
Existe un grupo de pensadores, nos dice Carlos Chimal, que sin abandonar el escepticismo como norma para juzgar la realidad, confían en lo que ven; pretenden trascender los acertijos y resolver los verdaderos enigmas y ofrecer claridad entre sombras de las ideas deformadas. Gente con luz interna que navega creyendo que su labor puede importarle a los demás.
Una actitud científica tiene que ser abierta y ser comprobada a diario entre el público y por el público. Abierta a la crítica y dispuesta a la reconstrucción y verificación de hechos los cuales necesariamente deben ser repetibles, ya que de no serlo, serán considerados un fraude. La verdad sujeta a la experimentación nos predispone al dialogo con argumentos. Sin embargo y desafortunadamente, esto pocas veces se da y nunca faltan algunos enloquecidos que quisieran salir corriendo porque acaban de descubrir que la realidad newtoniana no es la última realidad del universo.
Los modelos no son perfectos, ya que pueden darse muchos fenómenos que desconocemos, reacciones y sinergismo que no podemos imaginar ni predecir. Nuestro mundo, no deja de ser un mundo apasionante que nos puede revelar todos los enigmas de nuestra existencia y nuestra conciencia. La conciencia se dice que es una forma que tiene el universo de estudiarse a sí mismo.
Las ecuaciones físicas formulan leyes específicas, tan generales como es posible; pero el análisis filosófico se interesa por hacer afirmaciones acerca de las ecuaciones, más que por el contenido de las ecuaciones mismas. La verdad política en cambio, intenta instalarse monolítica, como una falsa religión, y apela a su alcurnia para mantener protegidos sus intereses.
El uso de la tecnología siempre implica costos y beneficios y en general no tomamos las debidas precauciones respecto a los costos porque únicamente nos concentramos en los beneficios.
Las rutinas no funcionales son las que no tienen razones, o que sólo las sostienen razones arbitrarias. Los pensamientos en general nunca son libres, ni claros, y son muchas veces poco aptos para agradar a un oído clásico, nos dice Richard Dawkins.
No hay que limitarse a acumular datos e informes de segunda mano sobre el tema investigado, donde es posible que éstos sólo estén vendiendo un punto de vista informado pero parcial. Es necesario que el material por obtener sea no tan sólo accesible a todo mundo sino también que sea intelectualmente consistente. Evitando generalizaciones condescendientes con el fin de mostrar cómo debe ser en el campo experimental un proyecto de investigación y lo que puede y no puede explicar. Donde no será extraño que se den puntos de vista antagónicos utilizando los mismos datos. Pensar en los resultados reales y no en cuentos chinos que suelen aparecer en los resúmenes de informes de proyectos de investigación, digeridos una y otra vez.
La prueba estadística no consiste en asegurarse de que algo es verdad, sino en exponer “las relaciones lógicas que subyacen en las formulaciones”. La prueba no consiste en demostrar que se está convencido, sino de explicar porqué. El hecho de que las pautas se repitan nos permite formular leyes de la naturaleza, codificadas en ecuaciones que describen relaciones y se reproducen una y otra vez. La ecuación será la expresión abreviada de una relación permanente, nos dice K. C. Cole.
Cuando una causa leve determina un efecto considerable, generalmente solemos pensar y decimos que ese efecto fue obra del azar. Pero la probabilidad en cambio es rica en interés filosófico y de importancia científica a la vez que desconcertante. Sólo pensando profundamente en algo puede descubrirse su significado. En la manipulación de las ideas científicas, podemos determinar lo que es o no es factible en este mundo. Donde en un ambiente extraño la imaginación es infinita y la crítica se da sin cuartel, y donde se nos invita no a buscar respuestas sino a plantearse preguntas y, sobre todo, a aprender a formularlas.
Lo que la ciencia pretende es averiguar el “cómo” y el “porqué” no el dónde ni el cuándo. Cuanto más adecuada sea la teoría utilizada, más exactamente te señalará dónde y cómo debe observarse para confirmar sus hipótesis. Donde la predicción será más bien una percepción de pautas.
Los filósofos sopesan las grandes preguntas de lo que en verdad es real, de cómo deberíamos comportarnos, y si de verdad sabemos algo. Se inclinan a reexaminar lo que los grandes intelectuales del pasado dijeron sobre las grandes preguntas, pero no exactamente de la misma manera. Aristóteles creía que se puede entender la función de algo a partir de aquéllo que hace mejor. Vista desde esta perspectiva, la humanidad no parece servir para mucho. Nuestra función es pensar, y una vida de pensar bien habitualmente es la mejor vida para un ser humano. Donde la diferencia entre sabios e ignorantes es tan grande como la que hay entre vivos y muertos.
Aristóteles consideraba que el estudio de la naturaleza humana de la cultura y la política era tan importante como el estudio del mundo natural.
Sin un examen estadístico de los datos no se puede descubrir el patrón de manifestación y su significado. La “correlación” de datos, utilizada en estadística son para observar y estimar los nexos que existen entre lo que hemos medido, donde a mayor número de datos mayor confianza debemos tener en los resultados. Sin olvidar que “ésta” se aplica y refiere al “grupo” que estamos evaluando sin cometer el error de interpretar y utilizar en su forma individual. El análisis de regresión es una herramienta ampliamente usada y abusada para medir efectos causales sin necesidad de acceder o utilizar experimentos. Que dos cosas se muevan o presenten juntas, es imposible verificar o refutar que una sea causa de la otra, nos dice poco y nada acerca de que una cause a la otra.
Una correlación es la descripción de una tendencia grupal y no individual. Las correlaciones son resúmenes que nos indican la asociación entre dos cosas y como ya hemos señalado, no nos dan información sobre los individuos y no necesariamente nos indican que encontraremos la misma asociación en otras muestras que podamos analizar. Con cualquier relación hallaremos excepciones a la asociación que encontremos y cuanto menor sea la correlación, más excepciones encontraremos. La correlación débil significa que se nos presentarán muchas excepciones.
Los hechos de las mediciones espaciales no son libres del arbitrio subjetivo, en el sentido que creen a menudo los defensores de la concepción objetiva del espacio y tiempo. Donde deben adelantarse definiciones en algunos puntos de la medición espacio-temporales antes de que se pueda proceder a medir; y donde la elección de las definiciones depende entonces de qué geometría resultará de la medición.
El campo de la estadística espacial es ampliamente utilizado en geología, geografía, sociología, economía y varias ramas de las ciencias que estudian cómo ciertos fenómenos obedecen a patrones espaciales.
Todo conocimiento físico comienza con la percepción donde los órganos de los sentidos son las llaves del mundo exterior; pero rápidamente nos daremos cuenta, de que jamás se tratará de una percepción “pura”. Por este hecho tan elemental de percepción, como los que sirven de base a la lectura de los instrumentos de medida y que no contienen teoría física alguna, por lo que se considera que no son, “hechos puros”.
Una característica esencial de la percepción es que no está sometida a nuestra voluntad, ya que no somos más que observadores y tomamos “todo” como dado y como se nos ofrece, por lo que constituye un hecho fundamental que va vinculada a nuestra fe en la existencia de cosas independientes de nosotros mismos.
Los ejemplos que podamos dar, no pueden considerarse más que una descripción de las sensaciones, y no como una manifestación acerca de la causa objetiva de las mismas. La mera “representación” puede realizarse sin importar las implicaciones, mientras que la “percepción” se realiza bajo una determinada selección de estas sensaciones.
¿Qué podemos hacer, ante situaciones donde a la medición no se le da la debida importancia? No sé qué hacer con eso. No basta con decir que, es algo inútil y una pérdida de tiempo para obtener algo sin ningún valor. No sé qué regla de razonamiento utilizar para demostrar que es una completa tontería. Pienso que esto se da, simplemente debido a una carencia general de conocimiento de lo complicado que es el mundo y lo rebuscado y lo poco probable que sería que una cosa así funcionase. Quizá una forma sería, en preguntarles siempre, como es que saben ellos que sus medidas y deducciones son verdaderas y recordarles quizá que están equivocados.
También se dan en el mundo, cierto número de fenómenos mal interpretados y que tal parece que no hay forma ni reglas en que se les pueda combatir, y que son simplemente muchas veces el resultado de una estupidez general. Sabemos que todos hacemos cosas estúpidas, y todos conocemos a algunas personas que hacen más estupideces que otras, pero no sirve de nada tratar de comprobar quién hace más. ¿Hay o debe haber algún intento de prevenir esto mediante una ley, norma o regulación gubernamental, para prevenir contra esta estupidez?
Recordando a Theodore Bergstrom, diremos que asistir a las clases de un docente-investigador honesto es más o menos “como aceptar la invitación a cenar en la casa de un caníbal: Uno no sabe cuánto va a cenar ni cuánto se lo van a cenar a uno”.
¿Qué observamos realmente?
La teoría de “la relatividad” nos dice que sólo observamos “relaciones” y “la mecánica cuántica” que sólo observamos “probabilidades”.
En síntesis, lo que observamos son “relaciones matemáticas”, coincidiendo con lo señalado por Heisenberg. Para Gödel simplemente no es posible llegar a algunas verdades por la vía de la pura lógica.
Hay una conclusión que nos lleva de los hechos de grado cero a los de primer orden, que puede ser falsa; donde las llamadas ilusiones de los sentidos descansan en estas circunstancias. Los hechos de grado cero, por lo mismo que no afirman más que sobre sensaciones, decimos que son totalmente seguros y por lo mismo que tenemos muy poco que hacer con estos hechos y, habrá que destacarlos en el salto deductivo, aceptando de que los hechos derivados de primer grado como plenamente ciertos y que por esta misma razón, las ilusiones de los sentidos nos podrán llegar a ofrecer un carácter de evidencia.
Es una prueba de que el conocimiento de la naturaleza con ayuda de la percepción es un acontecimiento que no puede producirse únicamente por la presencia de dicha percepción. La percepción no es más que la llave para el conocimiento de la naturaleza; y éste es un camino muy ramificado que comienza después de abierta la puerta y al cual nos conduce el “pensar teórico”.
Habrá que señalar a la ciencia como una elaboración metódica de contenidos perceptivos en teorías, avanzando en esta elaboración hacia hechos cada vez de grado mayor. La ciencia sólo describe lo que existe, no lo que imaginamos que existe.
Los filósofos han procurado constantemente de lanzar su mirada más allá de la ciencia, tratando de construir un marco objetivo que nos sirva de ayuda al espíritu humano en la reflexión acerca de la propia ciencia y por consiguiente, de sí mismo. A medida que se van multiplicando los descubrimientos de los científicos, de los pensadores y de los filósofos, se amplía el conjunto del conocimiento humano de tal forma que cada vez resulta más difícil para el profano no dejarse sobrepasar.
Se obtienen fundamentalmente no sólo el conocimiento superior de la naturaleza sino el de que todo conocimiento de la naturaleza descansa en la cooperación de percepción y pensamiento. Con lo que tendremos la separación entre un “mundo interior” y un “mundo exterior” que nos autoriza a inferir la existencia de cosas fuera de nosotros.
Todo objeto induce una partición del mundo; él mismo y el resto del mundo. No existen organismos vivos sin una partición interna relevante, es decir, sin “una estructura”. La estructura es una propiedad interesante de todos los objetos, algo que además puede medirse.
Todo conocimiento físico se obtiene mediante una construcción mental apoyada en percepciones, y su prueba experimental establece una seriación de percepciones, que constituyen el criterio de existencia pero no su definición.
¿No se deberían formular las preguntas que realmente interesan a la gente?
La parte racional de nuestro cerebro descansa sobre la parte emocional; uno tiene que estar emocionalmente comprometido con el pensamiento racional antes de poder pensar racionalmente.
Todos los textos son irónicos; ya que tienen múltiples significados, ninguno de los cuales es definitivo. Argumentos sobre significados nunca se resuelven, ya que “El único significado verdadero de un texto es el texto mismo”. Uno se queda con un infinito de interpretaciones, ninguna de las cuales representa la palabra final. Pero todos se mantienen todavía argumentando. ¿Con qué propósito? Todo empieza simplemente a no tener significado. ¿Las verdades deben ser bellas, con cualidades autoevidentes que les dé el poder de la revelación? Pero tal vez el cómo y el porqué el Universo fue creado, nunca lo podamos saber.
Las teorías de los científicos se prueban experimentalmente y son comparadas con la realidad, encontrándose que son aceptables o rechazadas. Los científicos, desean sobre todo, descubrir las verdades sobre la naturaleza. Ellos desean saber y esperan y confían, que la verdad es posible de obtener, que no es tan sólo un ideal o asíntota a la que nos aproximamos eternamente.
La matemática no parece tolerar errores; pero la estadística se dice que vive de ellos. Para George Box: “Todos los modelos están mal, pero algunos son útiles”. Confiar en la estimación de una medida, implica aceptar cierta imprecisión en sus deducciones, que es el precio a pagar por disponer de un conocimiento que de otra forma resultaría inalcanzable, según este personaje. Siempre y cuando estés consciente de esta situación, ¿esto es válido?
El mundo cambia y avanza gracias a los esfuerzos individuales de las personas y conforme avanza la ciencia se va imponiendo a sí misma limites; Prohíbe el transporte de materia e información a velocidades mayores a la velocidad de la luz; De que nuestro conocimiento del micromundo de los átomos, es siempre “incierto”. Y de que aún sin la indeterminación cuántica, muchos fenómenos son “Imposibles de predecir”. La teoría cuántica describe un mundo en el que una partícula puede estar en varios lugares al mismo tiempo, y se mueve de un sitio a otro explorando de manera simultánea el universo entero.
Entender el comportamiento de los componentes más pequeños del universo es la base sobre la que se erige nuestra comprensión de todo lo demás. Y aunque las reglas básicas del juego son sencillas no siempre es fácil calcular sus consecuencias.
Las matemáticas están en todas partes, si se sabe dónde mirar. Nos señalan lo útiles que pueden ser los números y lo asombrosamente efectivos que resultan para describir el mundo. Trabajar con las relaciones entre los números nos ofrece las primeras herramientas para describir cómo una cosa afecta a otra, a través de los principios de causa efecto; “Son los tipos de relaciones las que hacen el mundo diverso, rico y complejo”. Las formas o geometrías nos permiten cambiar de “números y símbolos” a “Formas y espacios”, elevando las matemáticas a nuevos niveles de rigor a través de la “Lógica y la demostración”.
El mundo está repleto de datos y las matemáticas, reflejan muchos aspectos de la humanidad algo esperado ya que éstas fueron “creadas o descubiertas” por seres humanos. El reconocimiento de la existencia de un problema o de una serie de problemas interconectados y que son “lo suficientemente importantes” como para exponerlos a un análisis y a una investigación detallada, no es necesariamente un paso trivial. Es fácil y frecuente menospreciar aspectos prácticos que debieran ser investigados o el de que asumamos creencias que por ser comunes y ampliamente utilizadas y aceptadas, se den en automático como verdaderas.
El reconocer que la investigación es necesaria, es tan importante como el de saber escoger el método correcto a utilizar en la investigación. Es relativamente fácil encontrar supuestos problemas por resolver que no requieren ni esfuerzos ni recursos, mucho menos de utilizar el poder de solución del análisis de sistemas para conocer su solución. Este reconocimiento puede ser crítico en el éxito o fracaso de la investigación.
En la actualidad los matemáticos se basan en todo tipo de conceptos extraños que en el pasado se habrían considerado por completo ajenos al sentido común: Diversas clases de infinitos; números imaginarios y geometrías hiperdimensionales. Sin embargo, la experiencia y la intuición humana siguen teniendo un papel fundamental y crucial en nuestra percepción de las ideas matemáticas.
Los fundadores del cálculo basaron sus teorías en nociones sumamente confusas. Nos parece imposible que fueran capaces de obtener resultados correctos con métodos tan confusos y poco convincentes, donde todos los conceptos necesarios para una exposición rigurosa de la matemática eran definibles a partir de muy pocos conceptos básicos y donde los teoremas que antes se aceptaban sobre la base de la intuición exclusivamente o de forma incompleta o incorrecta, derivables a partir de un pequeño número de axiomas con propiedades fundamentales de los conceptos básicos. Donde muchos de estos axiomas son definidos por la lógica y no tanto concerniente a aspectos de las matemáticas.
Buena parte de la física fundamental requiere el uso de un número mayor de dimensiones, que permita descubrir detalles que de otra manera pasarían inadvertidas. Nos permiten percibir pautas y conexiones que de otro modo resultarían invisibles. Revelan tendencias ocultas, nuevos tipos de materia y otros más, cuando se superan las nociones de sentido común que nos confunden pero nos permiten llegar a lo esencial; logrando una expansión de la conciencia al dejarnos ver más, extrapolando al futuro, con todo y sus riesgos.
No podemos demostrar las cosas, en el sentido del realismo, mediante experimentos, puesto que el experimento nos ofrece como dato último tan solo percepciones y, el problema interpretativo subsiste para estas percepciones en el mismo sentido que para todo lo demás. Tampoco se puede apelar a la experiencia como una prueba del realismo buscado.
¿Podemos acceder a la realidad mediante el conocimiento que nos proporciona el análisis científico del mundo? ¿Qué posibilidades existen de fundarse en los conocimientos que nos proporciona la investigación científica, para poder hacer algún tipo de reflexión filosófica? Lo que se conoce como “realismo” es cuando se parte de la fe básica de la existencia de un mundo independiente de nosotros y de toda experiencia humana, y desde donde podemos acceder a la realidad mediante el conocimiento adquirido por el análisis científico del mundo.
No es necesario ser matemático para averiguar lo que es cierto; puede darse que algo que se expresa con una gran claridad, en realidad esté manifestando
condiciones cruciales que invalidan el trabajo matemático utilizado. La matemática no es un arte simple a modo de calcular y ordenar la realidad ya que primero articulan, manipulan y finalmente revelan la realidad. La formulación de un problema es, a menudo para muchos, más importante que su solución. Para Hume, las cosas que no pueden imaginarse con claridad no son posibles, pero también, nada de lo que podamos imaginar es absolutamente imposible. La finalidad de la ciencia, y su valor, son los mismos que los de cualquier otra rama del conocimiento humano. Ninguna de ellas por sí sola tiene finalidad y valores, sólo lo tienen todas a la vez. Pero además ¿cómo concebir la probabilidad predicha de los sucesos y la realidad de dichos sucesos? ¿Será posible que de alguna manera se filtren las probabilidades de la física cuántica desde el reino imaginario del allí dentro, a los sucesos reales del allí fuera?
Preocupa que todos los métodos nos ofrecen las ventajas de no tener que tomar en cuenta los detalles extraños y las complicaciones, y de que se puede ir configurando conforme se va avanzando, sin que por ello se pueda dejar de ser relevante o exacto. Los experimentos mentales por otra parte, pueden ser tan buenos como los ejemplos reales, especialmente cuando se les enriquece con detalles, incluso si sufren de una cierta indeterminación que no se encuentra en la realidad. La matemática nos hace pensar en la física, la física en la biología, la biología en la filosofía y la filosofía en el arte. La física es la ciencia que une todas las demás con la meta de explicar la naturaleza del Universo. Examina a fondo la naturaleza y entonces comprenderás mejor todo.
Sabemos que no nos gusta sentirnos vulnerables y preferimos pensar en que contamos con cierta ventaja mágica sobre los demás, ya que la vulnerabilidad al riesgo implica un fallo personal. La autoprotección psicológica nos induce a extraer conclusiones erróneas. Sobreestimamos los riesgos y desgracias que suceden a los demás y subestimamos la posibilidad de sufrirla nosotros. Se trata indudablemente de un mecanismo de defensa psicológica necesaria.
Siempre existe el peligro de que la estimación del riesgo sea errónea. Ya que el cálculo del riesgo sólo nos permite ver con mayor claridad lo que pasa.
Quizá nuestros cerebros no están lo bastante preparados para los minuciosos cálculos que exigen las situaciones de la vida moderna. Nuestros cerebros no se hallan concebidos para manejar números extremadamente grandes o pequeños. Después de un rato, todos los números grandes empiezan a ser semejantes. Nadie sabe en qué momento un defecto insignificante pondrá en marcha una reacción en cadena de acontecimientos que culminará en un desastre. El riesgo potencial en los sistemas complejos se halla sometido a los tipos de ampliación exponencial ya conocidos en meteorología y economía.
Sólo vislumbramos el mundo real a través de las pautas o señales que percibimos en nuestra mente. Esas pautas o señales que percibimos son creadas, al menos en parte, fuera de nosotros mismos. Comprender algo exige llegar a captar parte de ese material que hay allí afuera y de los modos en que el conocimiento llega a nuestras pantallas internas de percepción.
¿Con la matemática y los datos correctos podemos obtener resultados significativos de la realidad en la naturaleza? Sin embargo, si así fuera, siempre quedará en nosotros la pregunta; ¿De dónde vienen exactamente los números? ¿Son extrañamente evocadores de átomos y estrellas, sujetas a leyes que trascienden nuestro control, cosas que existen fuera de nuestras cabezas? Los números tienen peculiaridades estructurales que les dotan de personalidad. Necesitamos ir más allá de los números individuales y observar qué les sucede cuando interactúan. En poco tiempo podemos darnos cuenta de que podemos darnos cuenta de que podemos seguir contando para siempre y de que la suma es un atajo para contar cualquier cantidad y de que la abstracción correcta nos lleva a nuevas visiones y a un nuevo poder. Pero a pesar de este panorama infinito, siempre hay límites a nuestra creatividad.
¿Nos persigue la ignorancia? La lógica no nos da lugar a elección.
Las matemáticas siempre implican invención y descubrimiento; Inventamos los conceptos pero descubrimos sus consecuencias… Nuestra libertad, dentro de las matemáticas, radica en las preguntas que hacemos, pero no en las respuestas que nos deparan. El aspecto “Dual” de los números es tal vez su rasgo más paradójico y el rasgo que los hace tan útiles.
Lo queramos o no, según Khun, las nuevas teorías cambian nuestra visión del mundo. Al precisar la descripción de los fenómenos ya conocidos, “Una teoría” nos permite delimitar el ámbito de aplicaciones de las “leyes empíricas” y su carácter aproximado nos permite ampliar conocimientos, prediciendo nuevas propiedades y fenómenos que no se conocían antes de que la nueva teoría fuera formulada.
Para el “realismo matemático” la física puede aspirar a describir la realidad, tal y como es, sin ninguna limitación, y no faltaría más que esperar que el desarrollo científico nos revele “estructuras” cada vez más próximas a la realidad y de que esta visión resultante, debe de servir para la elaboración de una nueva filosofía.
La filosofía es la madre de las ciencias; cada una de éstas creció a su tiempo con suficiente independencia para poder ser considerada un campo separado. La psicología por ejemplo, se volvió por etapas hacia cada una de las ciencias para intentar describir el funcionamiento de la mente.
Existen algunos ejemplos que muestran que dos teorías, que están formuladas en términos totalmente diferentes, pueden ser lógicamente equivalentes, de modo que podemos decir que ambos son formulaciones diferentes de una misma teoría.
La aplicación del “método experimental” y su incorporación en un marco teórico riguroso y matemático es capaz de describir adecuadamente la estructura última de la realidad, según sus seguidores. Pensadores diametralmente opuestos niegan la existencia de dichas entidades teóricas. Para los “instrumentalistas o fenómenalistas” es imposible trascender la experiencia humana, y que la actividad científica es sólo “dar cuenta de nuestras observaciones, sin atribuir ninguna realidad a los conceptos utilizados”, para alcanzar tal fin. En la física moderna, este punto de vista y sus consecuencias filosóficas han tenido una amplia aceptación.
El poder de las matemáticas obedece a que atribuimos más peso a los números que a las palabras. Sin embargo no es extraño saber que “las cifras con frecuencia nos engañan” y es muy frecuente que “se les emplee para perpetuar equívocos y mentiras”.
Lo malo de los números, nos dice Keith Devlin, se debe a nuestra tendencia a tratarlos como si fueran más confiables que las palabras y esto no es cierto, es algo completamente erróneo. No son la clave para poder salir de la confusión y sólo sirven para manejar esas confusiones y ambigüedades, no nos rescataran del desasosiego de la ambigüedad, y no lograrán que de éstas surja la verdad esperada; sólo servirán para articular dichas ambigüedades.
Para Descartes, el conocimiento físico-matemático da cuenta sólo de nuestras formas de interactuar con los objetos físicos. Por lo que son nuestras acciones las que resultan matematizables, ya que en la medida en que los conceptos físicos involucran procesos de ordenación, coordinación o enumeración, son sujetos de análisis matemático. Su objetividad de conocimientos reside en su independencia del observador que realice la observación. Los enunciados necesariamente deben ser verdaderos para todo observador.
El objetivo debe ser proporcionar “una síntesis” de la experiencia, rigurosamente comunicable y donde a cada símbolo matemático le corresponde un elemento de realidad; expresadas en ecuaciones que describen la evolución de sus magnitudes con una visión dinámica del mundo, siendo a la vez objetiva ya que cualquier otro observador siguiendo la misma dinámica deberá de obtener los mismos resultados.
A diferencia de la exactitud matemática, los muestreos trabajan con errores e imprecisiones, es decir, que estamos ante “medidas” de una verdad-mentira. La tarea relevante de la estadística por todo esto, será la de definir las cosas antes de medirlas y así veremos que las ventajas y desventajas del método estadístico en el estudio de los fenómenos causales son comunes para todas las disciplinas en que podamos aplicarlas.
Cada medida estadística aparece con lo que se conoce como “límites de confianza”, un modo de advertir con qué tipo de error probable se está trabajando. En ocasiones dichos límites, supera a la propia medida, lo cual implica que ésta no debe ser tomada muy en serio. Es frecuente observar en trabajos científicos que se utilizan grandes valores de límites de confianza y que al final ni siquiera son considerados, prescindiendo de éstos en sus conclusiones y de sus posibles implicaciones.
Mientras que en una línea es posible ordenar dos puntos, diciendo quién está antes y quién después, en un cuadrado esto no es posible y mucho menos en un volumen.
En nuestras circunstancias diarias observamos que la altura aumenta en una dimensión, el área en dos y el volumen en tres. Esto hace que si aumentáramos nuestro tamaño por diez, el grosor de los músculos de soporte aumentarían en cien, lo cual sería insuficiente, porqué su volumen o peso aumentaría en mil, lo cual resultaría en la fractura de nuestros huesos.
Cuando el “diámetro” de una gota en una nube aumenta cien veces, su “área” se incrementa en diez mil y su “volumen” en un millón. Dicho volumen incrementado proporciona la atracción gravitatoria suficiente para caer en forma de lluvia, liberándose de las fuerzas eléctricas de atracción que las mantiene unidas e integradas a las nubes. Al final, como podemos observar, la gravedad siempre gana y acaba por imponerse.
Con el cambio de tamaño, las leyes de la naturaleza son distintas. Un mundo diferente en escala será también de distinto tipo, donde los cambios cuantitativos pueden implicar también grandes diferencias cualitativas. Encogerse hasta el tamaño del átomo altera la realidad más allá de cualquier reconocimiento factible y abre puertas a nuevas perspectivas completamente inesperadas. Con el cambio de tamaño, las leyes de la naturaleza son distintas; el tiempo transcurre de forma distinta y a diferentes velocidades; las partículas están conectadas de una manera que trasciende a nuestras ideas sobre la realidad y surgen y desaparecen escenarios desacostumbrados y mundos diferentes.
Los animales grandes son más eficientes en la retención del calor que los pequeños. Su relación de disipación en referencia al tamaño superficie/volumen es más pequeña, lo que los hace más adaptable al clima frío. Las mismas especies suelen ser de mayor tamaño en las zonas frías, debido a esta adaptación. Muchos objetos sin estar relacionados entre sí, exhiben la misma forma y cuanto mayor sea la esencia compartida, más próximos serán entre sí. Donde la clasificación para relacionar el objeto con su entorno, serán la frecuencia de su presencia y su diversidad.
Una ley es como mínimo una restricción que nos imponen. Si el mundo que nos rodea se nos antoja diverso, creativo y cambiante es porque “no todo se vale” para acceder a la realidad y porque no todo vale para permanecer en ella.
Existe una realidad oculta donde se da que los avances trascendentales responden a algunas preguntas, pero luego dan lugar a muchas otras que previamente ni siquiera podían imaginarse. La materia es lo que existe en el espacio y perdura en el tiempo. Pero esto no nos dice lo que es el espacio. Einstein nos presenta un mundo donde las medidas pueden contraerse, el tiempo acelerarse y la materia desaparecer. Que la materia, el espacio y el tiempo no son entidades separadas sino que están ligadas y producen la fuerza de gravedad. Que todo el sistema solar sirve de laboratorio a la “relatividad general” y que sin embargo su historia sigue estando incompleta y de que la forma geométrica del espacio-tiempo está determinada por la materia que exista a su alrededor.
Lo que distingue a lo vivo de lo no vivo, no es aquello de que están hechos los organismos sino el modo en que están compuestos y funcionan como totalidades. Es la “información” dentro de los organismos vivos lo que es vital para su actuación. El ADN del que estamos hechos, se considera un algoritmo donde intervienen miles de millones de átomos, que sirve para construir un ser humano. El ADN se dedica a hacer más ADN, sin embargo nadie sabe cómo pudo haberse formado la primer molécula.
Newton nos dice que las fuerzas cambian el movimiento de manera predecible; en cambio Eddington nos dice que es imposible conseguir que la física moderna llegue a predecir algo con un determinismo perfecto porque desde un principio, opera con probabilidades. Aunque los científicos pueden prever los eclipses con siglos de antelación son incapaces de realizar una predicción meteorológica para los instantes o días siguientes.
Toda buena predicción deberá darnos información que nos ayude a dar credibilidad a aseveraciones que no son posibles de verificar por que se dan en el futuro y por lo mismo no tenemos acceso a ellas, pero que nos pueden ayudar a pensar y modificar posibles acciones y conductas.
Predecir es “estimar”, un evento de compleja deducción basados en el conocimiento que tengamos disponible y que amerita un análisis similar a todo tipo ordinario de estimaciones. Donde los eventos dignos de predicción serán aquellos eventos complejos que admiten varios posibles resultados.
La predicción basada en la percepción de una pauta en el pasado, no es necesario que esté basada en un entendimiento profundo de la naturaleza, depende sólo del supuesto de que las pautas observadas se repetirán. La cuestión no estriba, por ejemplo, en que el calentamiento global sea falso, sino en que puede resultar engañoso predecir el futuro basándose en tendencias del pasado.
Los eventos climáticos extremos son muy difíciles de predecir; por lo que es natural que se note cuando alguien hace un pronóstico acertado, diferente a lo que sucede cuando se falla. Esto lleva a que los errores sean tolerados y olvidados y los aciertos exhibidos como algo extraordinario, pero será el análisis sistemático de todos los intentos de predicción y no sólo los aciertos lo que puede decirnos la verdad de la situación.
La credibilidad debe brotar del propio conocimiento y de que éste sea el indicado para analizar dicho fenómeno. La confiabilidad surge de entender los procedimientos y determinar si los métodos son coherentes y conclusivos, al mismo tiempo que conocemos alcances y limitaciones inherentes. Siendo exhaustivamente detallistas en su proceso de evaluación. Aunque la validación de una metodología no necesariamente significa de que se le entienda, pero sin lugar a dudas es necesario e irremplazable conocer cómo funciona.
De todo lo anterior podemos preguntarnos: ¿El futuro está dado de antemano y no lo podemos cambiar o está en perpetua construcción? ¿Es el “tiempo”, el elemento fundamental de nuestra existencia? El determinismo no autoriza distinción alguna entre pasado y futuro, y de que en el nivel fundamental de la naturaleza, el tiempo no presenta dirección alguna. Lo cual se ha convertido en motivo de fe y como la expresión de un conocimiento ideal, objetivo y completo.
El determinismo sólo es concebible para un observador situado fuera del mundo, cuando lo que nosotros describimos es el mundo desde dentro. La verdad es que el único sistema que puede reproducir el comportamiento del universo con todo detalle es el propio universo.
En la búsqueda del significado de la realidad, “tiempo y existencia humana” y en consecuencia de la realidad, son conceptos indisociables y la reversibilidad del tiempo es una “ilusión”, una impresión subjetiva, producto de condiciones iniciales excepcionales, que expresa de un modo excepcionalmente notable el poder simbólico de la mente. Y según Giordano Bruno, el universo es, uno, infinito e inmóvil. No tiene movimiento local, porque nada hay fuera de él que pueda ser trasladado, entendiéndose que es y significa el Todo. Sin embargo sabemos que el mundo ha experimentado globalmente una notable evolución, donde las transiciones del caos al orden, implican la autoorganización de la materia; ¿cómo puede hablarse, entonces, de leyes inmutables y eternas? ¿Nos hallamos tan sólo al principio de la profundización de nuestros conocimientos sobre la naturaleza que nos rodea?
¿Podemos hacer y dar una descripción evolucionista a los fenómenos físicos? Después de constatar la contradicción existente entre la física newtoniana (basada en la equivalencia entre pasado y futuro) y una formulación evolucionista que hace una distinción esencial entre futuro y pasado. Donde “Todo” hace suponer que los electrones están conectados con “Todo”. Donde electrones idénticos en idénticos experimentos pueden hacer cosas diferentes. Si esto es así: “Implica algo profundo respecto a la naturaleza en general”; “De que no es posible medir u observar la realidad sin cambiarla”.
El “Principio de incertidumbre” refleja “La incapacidad de predecir el futuro, apoyándose en el pasado o en el presente”. Dicho principio es considerado “La piedra angular” de la “Física cuántica”, que nos dice que “El mundo está constituido por acontecimientos que no pueden relacionarse en términos de “Causa-Efecto””. Por lo qué “Percibimos el mundo, como una Ilusión o como un producto de la mente o La Conciencia”. Las partículas atómicas no son igual que los objetos grandes a los que estamos acostumbrados, obedeciendo las leyes de Newton y donde las trayectorias pueden fácilmente observarse, medirse y ser identificadas.
El determinismo científico exige la capacidad de predecir todo suceso con cualquiera que sea el grado deseado de precisión, siempre que se nos den unas “condiciones iniciales” suficientemente precisas. Suponemos que siempre hay causas, condiciones iniciales y leyes universales que nos permiten deducir el suceso el “suceso en cuestión”. Lo que es, como podemos observar, una “suposición considerada como fuerte”.
La idea de “sentido común” de un suceso que a de explicarse causalmente es principalmente cualitativa. La exigencia del “determinismo científico” de que debemos ser capaces de predecir el acontecimiento “con cualquiera que sea el grado de precisión deseado” va, ciertamente más allá de la idea del sentido común de la causalidad universal. La comprensión de que las causas no se nos dan nunca con precisión absoluta; de que por tanto, tenemos que conformarnos con condiciones iniciales que son hasta cierto punto imprecisas. Todo esto va más allá de la idea del sentido común e intuitivo de causalidad.
La exigencia de ser capaces de obtener predicciones con un grado estipulado de precisión, siempre que se nos den condiciones iniciales “suficientemente precisas”; sería claramente, algo demasiado vago. Todo suceso es “causado” y esto parece significar que debe estar determinado de antemano, por los sucesos que constituyen su causa.
Podemos exigir que las respuestas a nuestras preguntas de porqué, consistan efectivamente en condiciones iniciales a partir de las cuales los hechos a explicar puedan ser deducidos lógicamente, si se conocen “las leyes universales pertinentes”. Tenemos que estar prevenidos contra “el error común” de algunos filósofos, que creen válido argumentar en favor del determinismo, señalando que cada suceso tiene una causa.
Es concebible que la idea popular intuitiva, o del sentido común de causalidad sea válida, hasta donde alcanza, mientras que, al mismo tiempo, la doctrina del determinismo científico no sea válida. Tenemos que poder determinar de antemano, a partir de la tarea de predicción, que debe enunciar entre otras cosas, el grado de precisión que se exige de la predicción.
Una tarea de predicción puede no ser capaz de dar razón porque no podemos determinar a partir de ella y de la teoría, el grado requerido de precisión de las mediciones posibles sobre las que vayamos a basar nuestras predicciones. Y es concebible que la misma tarea de predicción sea capaz de dar razón en el sentido más débil de permitirnos calcular el grado de precisión con el cual tendrían que ser dadas las condiciones iniciales para resolverla.
A escala atómica antes de realizar una observación y medición, un objeto existe en todas las condiciones posibles incluso de lo más absurdas que nos podamos imaginar. Donde si observamos o no observamos un choque de partículas obtendremos diferentes resultados. Como onda, la materia está desplegada a través del espacio y como partícula está solamente en un punto. Las partículas pasan una rejilla en forma de “onda” si nadie las observa y en forma de partícula si alguien las está observando. Niels Bohr acepta y sugiere que es nuestra observación la que presenta capacidades de modificar el comportamiento de la materia.
Por incompleta que fuese la teoría de Bohr, supuso un paso crucial, y un ejemplo de cómo los científicos suelen hacer avances. No se gana nada con quedarse atascado frente a una evidencia chocante y con frecuencia desconcertante. Hay que guiarse por conjeturas razonables y en seguida, proceder a calcular las consecuencias de esa hipótesis; si funciona en el sentido de que la teoría que se deriva de dicha hipótesis concuerda con el experimento, y se vuelve a intentar de entender la hipótesis con más confianza y en su forma más amplia.
Werner Heisenberg señaló que las matemáticas en las que se basa la teoría cuántica no tienen porqué corresponder a nada a lo que estamos acostumbrados. Acabando con la arrogancia tras la idea de que el funcionamiento interno de la naturaleza debería necesariamente ajustarse al sentido común. Abandonando además nuestro prejuicio donde considerábamos que las cosas pequeñas son versiones a escala reducida de las más grandes.
La información puede comunicarse a velocidades mayores a la velocidad de la luz, y el hecho de que vivimos en un “Universo no-local”; Estamos suponiendo que estamos unidos a todo lo demás que se encuentre fuera de nuestra localidad. ¿Acaso las partículas están conectadas de una manera que van más allá de lo que entendemos como nuestra realidad? ¿Debemos considerar a la mecánica cuántica como la formulación definitiva de la física?
Quizá lo más perturbador sea ver cuando observamos que “negativo multiplicado por negativo sea positivo”; sin embargo en la vida real “dos errores no hacen un acierto”. Y en el nivel más profundo, la naturaleza desobedece “la propiedad conmutativa”, y eso es algo bueno, puesto que el fracaso de la conmutatividad es lo que hace que el mundo sea como es. Es la razón de que la materia sea sólida y de que los átomos no implosionen. Sin esa ruptura de la propiedad conmutativa no habría “principio de incertidumbre” de Heisenberg, los átomos colapsarían y nada existiría. Pero, ¿Por qué la conservación del momento (masa por velocidad) tiene sentido en la mecánica cuántica, pero no la noción de fuerza? Los matemáticos así también creían que las raíces cuadradas de números negativos simplemente no existían.
El período de rotación de los pulsares es de apenas una fracción de segundo; sin embargo el haz de energía que nos trae esta información, puede tardar millones de años en llegar a nosotros. Al cumplir 15 años en la Tierra significa que tendríamos 62 en Mercurio, 24 en Venus, y apenas 8 años en Marte, y un año y tres meses en Jupiter y sólo 20 días en Plutón.
Cosas que parecen irremediablemente aleatorias e impredecibles cuando se observan de manera aislada, suelen mostrarse regladas y previsibles cuando se consideran en conjunto. En conjunto el patrón es totalmente predecible y siempre tiende a una distribución en forma de campana, aunque es imposible predecir dónde va a ir a parar un individuo en particular. ¿Cómo se convierte la aleatoriedad individual en regularidad colectiva? Vemos también que “El promedio” es la medida más utilizada en la vida diaria de las personas, sin embargo ésta medida es muy sensible y deja de tener sentido frente a los valores extremos atípicos e irregulares.
Al igual que la ubicación sobre la curva de Gauss viene determinada por la suma de muchas casualidades, muchos fenómenos del mundo real son resultado de pequeños accidentes caracterizados por el dominio de formas acampanadas.
Las respuestas pueden ser inesperadas e incluso observar que existen algunas con una mayor probabilidad ya que suele darse, de no encontrarse respuestas, si antes no precisamos lo que puede ser, si sólo realizamos una búsqueda de su significado. En el antecedente de que no podemos dar respuesta a toda pregunta correcta, pero sí es posible dar respuestas a problemas que no están correctamente planteados, dándoles una forma que las haga significativas.
Correctamente empleadas las matemáticas pueden revelarnos las fallas perceptivas que podamos tener y nos proporcionaran posibles medios para protegernos de nuestra propia ignorancia. Es por esto que Richard Feyman nos dice que “La ciencia constituye el arte de aprender a no engañarnos”.
Las matemáticas sólo respaldan nuestras ideas al contribuir a que no sean tan frecuentes nuestras equivocaciones y de que éstas no sean tan drásticas. Representando a la vez un conocimiento esencial y no anecdótico. Tienen la capacidad de determinar en una variedad de situaciones lo que es la verdad.
Las tasas de mortalidad constituyen una medida mucho más precisa que el “Producto Interno Bruto (PIB))”, porque reflejan más exactamente el bienestar nacional. Basándose en otros parámetros, el pretendido auge del gobierno de Reagan representó un desastre. A la vez que los Estados Unidos fue el país de mayor riqueza en el mundo, tenía también una de las poblaciones menos instruidas y una asistencia sanitaria por debajo de la media mundial.
No valoramos una alta capacidad explicativa si no va acompañada por una potencia explicativa razonable y por lo mismo, recelamos de las explicaciones efectuadas con anterioridad al acontecimiento. Ocurre frecuentemente que una teoría puede tener éxitos o fracasos, sin que ello se pueda pensar que es debido a sus propios méritos o defectos; Las técnicas experimentales han podido ser defectuosas y las observaciones efectuadas sin el debido cuidado, o las conclusiones extraídas a partir de ellas pueden no haber sido válidas.
Raramente se somete a prueba a la observación, la medida y la experimentación, pero en ellas se utilizan hipótesis que pueden resultar falsas, si se hace intervenir multitud de variables a veces no controladas adecuadamente, y se pueden interpretar mal sus resultados. Solamente contamos con los rudimentos de teorías relativas a la consistencia externa, contrastabilidad, poder predictivo y capacidad explicativa de las teorías. En cualquier caso muy raramente se las acepta sobre la fe en alguna autoridad.
Toda teoría científica no es más que una síntesis inductiva de datos empíricos que podrían ser abordados en cualquier situación que se presente. En la base de que el error reside en la base de esta idea, es que se confunde a las teorías científicas con la interpolación de datos y descuida el hecho de que los datos científicos “deben de recogerse” a la luz de las teorías y como respuesta a los problemas planteados en el seno de esas teorías.
Todo el cuerpo de conocimientos de la ciencia moderna se apoya en la metáfora del mundo entendido como máquina. No es posible ocuparse de la ciencia sin utilizar un lenguaje rico en metáforas para que tales explicaciones estén basadas en la comprensión del mundo que hemos logrado con nuestra experiencia cotidiana, debemos recurrir al empleo de un lenguaje metafórico.
Aunque al pensar en la naturaleza no podemos prescindir del empleo de las metáforas a veces corremos el riesgo de confundir la metáfora con el mundo real. Dejamos de ver el mundo “como sí” fuese una máquina y comenzamos a pensar que es una máquina.
No estamos obligados a producir una teoría que guarde relación alguna con la manera en que percibimos el mundo en general. Para Tomas Huxley “La ciencia es sentido común organizado”, donde muchas hermosas teorías han muerto a manos de un hecho desagradable.
Cualquier teoría que no sea susceptible de falsación, según Popper, no es una teoría científica; Incluso se podría afirmar que no contiene ninguna información confiable. Es lo que hace la diferencia entre la teoría científica de las opiniones personales.
Los científicos se esfuerzan por desarrollar teorías que abarquen tantos fenómenos como sea posible y los físicos se emocionan con la posibilidad de poder describir todo lo que puede suceder en la naturaleza en función de un reducido conjunto de reglas.
Las leyes de Newton se basan principalmente en la intuición; donde se ha demostrado que esta representación intuitiva es incorrecta. Con lo que se dice que las leyes de Newton acabarán en la papelera porque se ha demostrado que sólo son aproximaciones correctas.
Es la resistencia a las nuevas ideas la que lleva a confusión no la dificultad intrínseca de las propias ideas.
Desconfiemos de las consideradas grandes teorías que son más próximas a los grandes mitos que a un saber científico serio y que hacen prácticamente imposible cualquier trabajo científico posterior.
La aparición de las probabilidades se da porque refleja las carencias de nuestro conocimiento del sistema en estudio, y no algo intrínseco al sistema en sí. Sin embargo, las probabilidades en mecánica cuántica son algo fundamental y el hecho de que sólo podamos predecir la probabilidad de que una partícula esté en un lugar u otro, no es porque seamos ignorantes. De lo que sí somos capaces de predecir, con precisión absoluta, es la probabilidad de que encontremos una partícula en determinado lugar si la buscamos, y predecir con precisión absoluta cómo varía esa probabilidad con el tiempo.
El movimiento de las partículas sigue leyes de la probabilidad, pero la probabilidad en sí se propaga según la ley de causalidad. En ese sentido es análoga a las leyes de Newton.
Aunque no existieran reglas que nos ayudaran a conseguir la originalidad y la profundidad de una teoría; existen determinadas normas básicas que hay que seguir y que toda teoría debe respetar si desea ser considerada como una teoría científica más que como un producto de la fantasía.
¿Es una falacia investigar las intenciones para poder construir una interpretación? La intención no debería ser el único factor y tal vez tampoco “el Central” y aún así sostenemos que tampoco habría que descartar las intenciones como irrelevantes. Es una prueba entre tantas y no debería considerarse ni sumamente importante ni totalmente inútil.
Richard Dawkins nos dice: “Creo que un Universo ordenado, indiferente a las preocupaciones humanas, en el que todo tiene una explicación es un lugar más hermoso y maravilloso que un Universo embaucado por una magia caprichosa y ad hoc.
¡Hay algo más en el cielo y en la tierra, Horacio, de lo que ha soñado tu filosofía! Nos dice Hamlet.
En cambio Peter Atkins nos dice que: “Somos hijos del caos, y la estructura profunda del cambio es la degradación. En el fondo, sólo existe la corrupción y la imparable marea del caos. No hay finalidad, hay tan sólo dirección. Ésta es la cruda realidad que tenemos que aceptar si escrudiñamos con profundidad y de forma desapasionada el corazón del Universo.
A pesar de todo esto podemos decir que: “Soy lo más complejo que ha creado el universo; Mi cuerpo está lleno de todo cuanto ha engendrado el Universo. Soy el producto de una larguísima historia evolutiva, soy la historia de la energía que antecedió a la historia de la materia que engendró la historia de la vida, la del hombre y la de mis antepasados”.
Los avances teóricos y experimentales indican que la naturaleza realmente utiliza números aleatorios, y que la pérdida de certeza a la hora de predecir, es una propiedad intrínseca del mundo físico y que las probabilidades son lo máximo a lo que podemos aspirar. Es decir, todo lo que puede suceder, sucederá.
La eternidad se hace larga, sobre todo al final, nos dice Woody Allen.
MODELOS DE SIMULACIÓN DE ESCENARIOS MULTIDISCIPLINARIOS
El análisis de sistemas ocupa un lugar importante en el pensamiento científico, tratándose de un esfuerzo de aprehensión totalizadora del conjunto de los fenómenos de la naturaleza y de aquéllos en los que se interesa el hombre y la sociedad, con el fin de sistematizar y organizar el conocimiento y donde todas sus variantes tengan una meta común que deberá ser la integración de los diferentes campos científicos por medio de una metodología unificada de conceptualización.
La integración otorga a los sistemas propiedades que no tienen sus elementos y donde el todo no es solamente la suma de las partes sino que con las interacciones de sus elementos da lugar a las propiedades excedentes llamadas emergencias. Dándose así que el todo llegue a ser mayor que la suma de sus partes.
Todas las teorías y modelos científicos son aproximaciones a la verdadera naturaleza de las cosas, donde el error implicado en la aproximación es a veces lo bastante pequeño como para hacer que ese acercamiento sea significativo.
No existen estructuras estáticas en la naturaleza, existe una estabilidad y esta estabilidad es el resultado de un equilibrio dinámico.
Las estructuras de los ecosistemas tienen la interesante propiedad de ser autoorganizativas, actuando el sistema como una totalidad, surgiendo por todas partes este tipo de autoorganizaciones y estableciendo una enigmática comunicación entre los miembros aislados de esos conjuntos.
El análisis de sistemas se basa en un planteamiento holístico para la solución de estos problemas y usa los modelos matemáticos para identificar, simular y predecir las características importantes de la dinámica de estos sistemas considerados como complejos.
El análisis de sistemas y su simulación son los apropiados en la solución de estos problemas caracterizados por una “complejidad organizada” en la cual la estructura del mismo sistema, no tan solo controla sino que también está controlada por la dinámica de este mismo sistema; claro que para esto debemos entender que el método más sencillo para resolver un problema determinado en un momento dado, depende del nivel de detalle con el cual pretendamos enfrentar el problema.
Necesitamos partir de un marco teórico para el desarrollo, evaluación y uso de los modelos de simulación en impacto ambiental, ecología y manejo de los recursos naturales. Donde en el desarrollo del modelo conceptual podamos abstraer del sistema real aquellos factores y procesos que deben ser incluidos dentro del modelo por ser relevantes en nuestros objetivos específicos y, de tal manera que en la evaluación del modelo se compare el enfoque de sistemas con otros métodos utilizados para resolver problemas en estas y otras áreas.
Generar escenarios de los sistemas ecológicos en el tiempo histórico (en el pasado, actual y futuro) y el espacio para evaluar el impacto esperado.
Analizar la dinámica de transferencia productiva (flujos de materia, información y energía) de los sistemas ecológicos para determinar su estabilidad o inestabilidad a través del tiempo y el espacio.
Realizar en forma funcional el modelo integral de simulación de los diferentes sistemas ecológicos. Incorporando las potenciales redes de intercomunicación en dichos ecosistemas de tal forma que el modelo sea multidisciplinario, multifactorial, multirelacional y multifuncional, que sirva de herramienta en la simulación de posibles escenarios generados y a su vez sea una herramienta para la toma de decisiones.
En forma sintética, podemos decir que con el desarrollo del modelo conceptual definimos un proceso, por medio del cual abstraemos del sistema real aquellos factores y procesos a incluir en nuestro modelo y por ser relevantes para nuestros objetivos específicos, de tal forma que en la evaluación del modelo podamos determinar la utilidad del modelo desarrollado.
Durante el desarrollo del modelo cualitativo tratamos de traducir nuestro modelo conceptual a una serie de ecuaciones matemáticas que en conjunto, forma el modelo cuantitativo haciendo uso de los diversos tipos de información sobre el sistema real; posteriormente resolvemos todas las ecuaciones del modelo para el periodo completo de simulación. Esta simulación recibe el nombre de simulación de referencia (Figuras 1, 2, 3).
Poincaré al extender la mecánica de Newton a tres o más cuerpos, encontró el potencial para la no linealidad, la inestabilidad y el caos; sugiriendo el concepto de “espacio de fases” para trabajar geométricamente en un plano con muchas dimensiones y con esto, hizo su aparición el concepto de “caos”.
El famoso atractor de Lorenz en climatología, tiene una representación de interacción de tres especies en ecología y un espacio de fases de la lluvia se puede ver como la competencia interna en una especie.
El flujo constante de la energía solar en la biosfera se desenvuelve y manifiesta a través de múltiples bifurcaciones; Donde por bifurcación se entiende como un súbito cambio de dirección en la manera en que los sistemas se desenvuelven; una manera curiosa y fundamental en que los sistemas complejos se comportan en el mundo real.
Los modelos nos permiten realizar deducciones, formular hipótesis y predecir resultados, construyéndose así las teorías y, en un despliegue de sistemas, las leyes se revelarán por sí mismas con este nuevo enfoque, donde las pautas básicas se deben clasificar y los conceptos básicos se deben inferir. Los sistemas complejos que cuentan con una gran riqueza de conexiones cruzadas, muestran conductas complejas y estas conductas pueden ser complejas pautas de búsqueda de metas.
Las matemáticas de la complejidad de la naturaleza pasan de los objetos a las relaciones, de la cantidad a la cualidad y de la sustancia al patrón de la forma, eludiendo todo modelaje mecanicista, donde simples ecuaciones deterministas pueden producir una insospechada riqueza y variedad de comportamientos. A su vez, lo que pareciera un comportamiento aparentemente complejo y caótico, puede dar lugar a estructuras ordenadas con sutiles y hermosos patrones de formas, con frecuentes ocurrencias de procesos de retroalimentación autorreforzadora, donde pequeños cambios pueden ser repetidamente amplificados. La mayor contribución de Poincaré fue la recuperación de las metáforas virtuales, rompiendo el dominio del análisis y las fórmulas, y volviendo a los patrones visuales.
La predicción exacta aún para las ecuaciones estrictamente deterministas, no existe, pero ecuaciones simples pueden producir una increíble complejidad que supera todo intento de predicción. La organización del sistema complejo es independiente de las propiedades de sus componentes y su objetivo es la organización y no la estructura; en la que la función de cada componente es participar activamente en la producción o transformación de otros componentes del sistema. El producto de su operación es su propia organización, donde toda la red se hace a sí misma, continuamente.
Definimos al pronóstico ecológico como el proceso de predecir el estado del ecosistema, de sus servicios por aportar, su capital natural de crecimiento, contingencias y escenarios sobre el clima, uso del suelo, población humana, tecnologías, actividad económica y educativa.
En el modelo tradicional los expertos interpretan los datos, eligiendo algunos de sus aspectos e ignorando otros. Necesitamos una amplia distribución de información, puntos de vista e interpretaciones si queremos entender el significado del mundo en que vivimos. El cual debe entenderse no como un mundo de objetos sino de procesos. La grandiosa meta de toda ciencia es abarcar el mayor número de hechos empíricos por deducción lógica, a partir del menor número de hipótesis o axiomas, como solía decir Einstein y, Mandelbrot nos dice que en un mundo cada vez más complejo, los científicos necesitan tanto las imágenes como los números, es decir, la visión geométrica y la analítica.
Necesitamos partir de un marco teórico para el desarrollo, evaluación y uso de los modelos de simulación y pronóstico en impacto ambiental, climatología, ecología y manejo de los recursos naturales. Donde en el desarrollo del modelo conceptual podamos abstraer del sistema real aquellos factores y procesos que deben ser incluidos dentro del modelo por ser relevantes en nuestros objetivos específicos y, de tal manera, que en la evaluación del modelo se compare el enfoque de sistemas con otros métodos utilizados para resolver problemas en estas y otras áreas.
El modelo puede ser de lo más simple posible, siempre y cuando no excluya a aquellos componentes cruciales para su solución donde las decisiones deben estar basadas en la información de mejor calidad que tengamos acerca del sistema en estudio. En otro caso, podrá ser necesario monitorear varios atributos del sistema en forma simultánea clasificando los componentes del sistema de interés por sus diferentes funciones en el modelo. Dichos componentes los podemos clasificar como variables de estado, variables externas, constantes, variables auxiliares, transferencias de materia, energía e información, fuentes y sumideros.
La idea básica fundamental detrás de todo esto es, que podamos realizar experimentos de simulación de la misma forma en que se pudiera realizar en un laboratorio o en la misma naturaleza.
El análisis de sistemas y su simulación es un conjunto de técnicas cuantitativas desarrolladas con el propósito de enfrentar problemas relacionados con el funcionamiento de los sistemas complejos, como son los diferentes tipos de ecosistemas conocidos.
La utilidad del análisis de sistemas y su simulación, se da tanto por el proceso de identificación y especificación de los problemas, así como del desarrollo, usos y producto final del modelo.
Las matemáticas de la física clásica están concebidas para complejidades no organizadas, pero muchos de los problemas biológicos, económicos y sociales son esencialmente organizados, multivariados y complejos; por lo tanto deben introducirse nuevos modelos conceptuales, incluyendo a la cibernética, teoría de la información, teoría de juegos, teoría de decisiones, análisis factorial, ingeniería de sistemas, investigación de operaciones, etc., considerando a los sistemas como un complejo de componentes interactuantes, con conceptos característicos de totalidades organizadas como son: interacción, suma, mecanización, centralización, competición, finalidad, etc., y también saber aplicarlos a fenómenos concretos.
La naturaleza posee un orden que podemos comprender y la ciencia tan solo es una descripción optimista de cómo pensar una realidad que nunca comprenderemos del todo; sin embargo, con el enfoque sistémico, comenzamos a entrever una forma enteramente nueva de comprender las fluctuaciones el desorden y el cambio, donde conceptos como los de atractor, retrato de fase, diagrama de bifurcación y fractal no existían antes del desarrollo de la dinámica no lineal.
En primer lugar, hay que identificar el problema con claridad y describir los objetivos del estudio con precisión, teniendo en mente que vamos a estudiar la realidad como un sistema. El resultado de esta fase ha de ser una primera percepción de los elementos que tienen relación con el problema planteado. La estadística y los métodos numéricos serán de gran utilidad cuando exista una gran abundancia de datos y podamos suponer que la realidad permanecerá estable.
Debemos conocer los elementos que forman el sistema y las relaciones que existan entre ellos, ya que con frecuencia, para solucionar un problema es más fácil y efectivo trabajar con las relaciones, incluyendo sólo aquellos elementos que tienen una influencia razonable sobre nuestro objetivo, que es la de proponer acciones practicas para solucionar el problema.
En las diferentes fases de construcción del modelo se añadirán y suprimirán elementos con la correspondiente expansión y simplificación del modelo; donde a través de un diagrama causal se incorporan los elementos clave del sistema y sus relaciones. El concepto de rizo (definido como una cadena cerrada de relaciones causales) será muy útil, porque a partir de la estructura del sistema que analizamos, nos permitirá llegar hasta su comportamiento dinámico. Donde podemos ver que los sistemas socioeconómicos, ecológicos y climáticos estarán formados por cientos de rizos positivos y negativos interconectados, identificando las razones estructurales que nos permitan decidir cómo modificar los bucles causales que lo alteran, ya que es la estructura del sistema lo que provoca su comportamiento donde, si el sistema tiene los elementos que causan el problema, también tiene la forma en la que se puede solucionar.
Notándose que, en las estructuras de los sistemas estables hay un número de relaciones impar y el bucle o proceso de retroalimentación es negativa y, donde cualquier acción que intente modificar un elemento se ve contrarrestado por todo el conjunto de bucles negativos super-estabilizando el sistema, neutralizando en conjunto la acción o los cambios del exterior.
En tales sistemas, el factor limitativo es lo verdaderamente importante, el cual es dinámico con capacidad de producir comportamientos inesperados, pero al final será el rizo negativo el que estabilice el sistema.
Debemos definir los objetivos en términos del problema que queremos resolver o de la pregunta que queremos responder; donde las preguntas o problemas pueden surgir a partir de observaciones en el sistema real o pueden ser impuestas por la necesidad práctica de evaluar diversos esquemas de manejo. Dichos objetivos deben definir el marco conceptual para las bases, desarrollo y evaluación, así como interpretación de los resultados del modelo.
Con respecto a nuestros objetivos específicos, definiremos los límites del sistema de interés e identificaremos las relaciones entre los componentes que generan la dinámica del sistema, basados en las siguientes etapas de desarrollo del modelo: Definir los objetivos del modelo; Definir los limites del sistema de interés; Clasificar los componentes del sistema de interés; Identificar los componentes del sistema; Representar formalmente el modelo conceptual; Describir los patrones esperados del comportamiento del modelo.
Con la generación de este modelo, esperamos simular adecuadamente la dinámica general y productiva del sistema, la magnitud del impacto ecológico y económico. Además de pronosticar el destino de los sistemas actuales, ya que podremos generar escenarios que nos permitirán derivar la mejor toma de decisiones. Asimismo, nos permitirá conocer el grado de estabilidad de los sistemas existentes (naturales, implantados e impactados). (Figuras 1, 2, 3).
En general no se conocen bien los caracteres estructurales y funcionales de los ecosistemas, por lo que necesitamos muchas mediciones antes de estar en condiciones de asentar sólidos principios para la predicción.
La mayor parte de las investigaciones bioclimáticas se dirigen al estudio de las variaciones de estado, ciclos y procesos biológicos relativamente cortos, adquiriendo un buen conocimiento de trabajo sobre periodicidades, ritmos y fenologías asociadas y, llegando a comprender su importancia dentro del sistema ecológico en que operan. Es mucho menos lo que sabemos en relación con los ciclos largos, sus mecanismos y posible función de ciertos fenómenos biológicos, poco frecuentes y aparentemente aleatorios.
VENTAJAS Y DESVENTAJAS DE LOS MODELOS MATEMÁTICOS
Uno de los mayores beneficios de los modelos matemáticos, que un experimentado analista puede reconocer, es la posible formación de “familias de modelos” los cuales nos pueden ser de gran utilidad; nos concretaremos a aquéllos que nos puedan ser de gran utilidad y que el usuario y analistas de sistemas utilizan con más frecuencia, como son:
Los modelos dinámicos;
Los modelos de compartimentos;
Los modelos matriciales;
Los modelos multivariados;
Los modelos de optimización y otros, (Figura 2).
Esta lista, está claro que no es exhaustiva y de que está muy lejos de serlo. La clasificación es sin embargo, suficiente parar proveernos con ejemplos de modelos matemáticos aplicados a problemas reales y cotidianos y conocer los requerimientos básicos de los modelos aplicados al análisis de sistemas.
Las ventajas son: que estos son precisos pero a la vez muy abstractos y de que transfieren información de una manera lógica, actuando sin ambigüedades en los procesos de comunicación. Son precisos porque son capaces de realizar predicciones de tal forma que las predicciones pueden verificarse con la realidad a través de experimentos. Y se les considera “abstractos“, porque la lógica simbólica de las matemáticas extrae a estos elementos, pero sólo aquellos elementos que son importantes a la lógica deductiva de los argumentos, eliminando así significados extraños que puedan ser incorporados con el uso de las palabras.
Estos modelos matemáticos transfieren información desde todo “el cuerpo de conocimientos” del comportamiento de las interrelaciones a el problema particular que está siendo investigado, de tal forma que argumentos lógicamente dependientes son posibles de derivar, sin la necesidad de tener que repetir toda investigación hecha en el pasado.
Estos modelos nos proveerán de significados valiosos de comunicación, por el hecho de no utilizar posibles ambigüedades de la lógica simbólica utilizada en sus matemáticas, un medio de comunicación que no es afectado por las normales o inusuales barreras del lenguaje.
Las desventajas pudieran darse en la aparente complejidad de “la lógica simbólica” ya que si el problema a investigar es complejo, es posible pero no necesariamente, que las matemáticas para describir el problema serán también complejas.
En ocasiones, las fallas de interpretación correcta de los resultados de métodos avanzados de análisis pueden estar presentes. Posiblemente porque la interpretación de los resultados del análisis son frecuentemente menos discutidos que las matemáticas utilizadas en el análisis. Se dice que la pseudociencia florece porque poca gente se toma el problema de interpretar del algebra al lenguaje común del diario, donde el absurdo de los argumentos son claramente observados. La mayor desventaja son las distorsiones que pueden introducirse por insistir en un modelo en particular, cuando no se ajusta a los hechos y la aparente dificultad de abandonar el modelo, que ya no es capaz de hacer que la investigación avance.
Es por esta razón que la aplicación del análisis de sistemas insista que la “modelación” es solamente uno más de los pasos utilizados en el amplio campo de la investigación. Debemos ser cuidadosos de no permitir que la modelación se convierta en el propósito principal de la investigación.
La aplicación de los sistemas dinámicos en la modelación considera los siguiente tres aspectos:
Es necesario identificar la dinámica del comportamiento del sistema que sea de interés y formular la hipótesis acerca de las interacciones que crean dicho comportamiento lo que se conoce como “definición del problema” donde nos interesa la interacción de las variables y su comportamiento.
El modelo de simulación debe ser creado de manera que reproduzca los elementos esenciales del comportamiento y sus interacciones identificadas como esenciales al sistema.
Cuando estemos satisfechos del comportamiento del modelo, lo utilizamos para entender las causas de los cambios observados en la realidad y se sugieren experimentos a llevar a cabo, en la evaluación del potencial curso de acción, utilizando “diagramas relacionales” para sintetizar las principales interrelaciones de los sistemas complejos.
Una de las primeras formas de los modelos matriciales, fueron los modelos determinísticos para predecir la futura estructura de edades de una población de hembras con el conocimiento presente de su estructura de edades y las tasas de sobrevivencia y fertilidad.
- El máximo “eigenvalor” y sus correspondientes eigenvectores de la matriz formulada de la información, tiene un significado ecológico útil, ya que nos da
la tasa a la que el tamaño poblacional aumenta.
- Si el eigenvalor dominante toma el valor de uno, significa que la población se encuentra en un estado estable.
- El restante de los eigenvalores y eigenvectores pueden utilizarse para determinarse la estabilidad o tendencias oscilatorias de los modelos.
- Si el logaritmo del tamaño poblacional se grafica contra el tiempo, la pendiente de la línea de ajuste, después de que la estructura de edades ha sido
alcanzada es equivalente a ln k, conocida como “la tasa intrínseca de incremento natural”.
- El eigenvalor dominante k, puede utilizarse para estimar el número de individuos que pueden removerse de la población para obtener el tamaño
poblacional inicial, utilizando la ecuación
- H= 100((k-1)/k), donde H se expresa como un porcentaje de la población total.
Los sistemas de interacción depredador-presa en ocasiones manifiestan marcadas oscilaciones donde es posible también darles un tratamiento de modelos matriciales. Los cambios ambientales estacionales y aleatorios y el efecto de tiempos de retraso pueden también de forma similar ser utilizados aunque los modelos se hacen más complejos en su formulación. Sin embargo, podemos decir que el método matricial simplifica ampliamente los procedimientos para derivar soluciones para sistemas complejos.
Los modelos que incorporan en su sistema las probabilidades se les conoce como “Estocásticos” y son particularmente valiosos en simular la variabilidad y complejidad de sistemas climáticos o ecológicos y otros más. La probabilidad puede ser introducida en todo tipo de modelos en especial en el estudio de la estabilidad de los modelos a variaciones en sus parámetros básicos. Una de las aplicaciones más comunes es en el “mapeo de patrones de distribución espaciales” de los organismos vivos.
El problema aparece de la frecuente necesidad de “entender y predecir” el “número de organismos” que se encuentran en un área definida, donde existe siempre una infinidad de posibles hipótesis y nuestra búsqueda para un modelo adecuado debe ser consistente con la “ecología del problema” en lugar de la conveniencia matemática; lo apropiado de su uso dependerá de la ecología subyacente del lugar. Los patrones resultantes de distribución dependen del “tamaño de los grupos” “su distancia entre grupos”, la “distribución espacial de grupos” y “la distribución espacial de los individuos dentro de los grupos”.
Varios modelos han sido sugeridos para “distribuciones irregulares” y entre la más conocida está la “Binomial Negativa”, con parámetros como la media aritmética U y el exponente K. Conforme 1/K se aproxima a cero y K a infinito, la distribución converge a las “Series de Poisson” y a la presencia aleatoria de los individuos. Sin embargo si 1/K se aproxima a infinito y K a cero, la distribución converge a una “Serie Logarítmica”. La desventaja de la distribución binomial negativa es de que puede ser derivada de una gran variedad de modelos biológicos, así el crecimiento de una población con valores constantes de natalidad y mortalidad y constante tasa de inmigración nos produce una distribución binomial negativa en sus tamaños poblacionales.
Grupos de individuos distribuidos aleatoriamente con los números de individuos en los grupos distribuidos en una “distribución logarítmica” y la población consistente de varios subgrupos, cada uno distribuido aleatoriamente pero con diferentes probabilidades de ocurrencia, también toman una distribución binomial negativa. La distribución log-normal es una posible alternativa en organismos cuya “varianza” es mayor la “media”. La “distribución de Polya” es sugerida cuando se da una colonización “simultanea y aleatoria” en algunos hábitats. Conforme el número de organismos por unidad de muestreo aumenta, la distribución se acerca a una “distribución normal”. Otros métodos alternativos son los conocidos como metodologías del “Vecino más Cercano”.
Los modelos markovianos tienen una gran afinidad con los modelos matriciales. En estos modelos el formato básico es de una matriz de entradas representando las “probabilidades de transición” en un espacio a otro, en intervalos específicos y donde la suma de estas probabilidades en la columna, deben sumar la unidad. Un modelo Markoviano de primer orden “es aquel en que el desarrollo futuro del sistema está determinado por el “estado presente” del sistema y es “independiente” de la forma en que dicho estado ha sido alcanzado y que es conocido como “Cadenas de Markov”.
Las ventajas de los modelos tipo Markov pueden brevemente sintetizarse en lo siguiente:
Estos modelos son fáciles de derivar o inferir de datos sucesivos en el tiempo.
No es necesario tener profundos conocimientos de sus mecanismos dinámicos de cambio interno, pero pueden actuar como guías y estímulos para derivar a otras investigaciones.
La matrix de transición básica sintetiza los parámetros esenciales del cambio dinámico de un sistema, en una manera que muy pocos pueden llegar a conseguir.
Los resultados son fácilmente adaptables a una presentación gráfica y así, más fácilmente entendibles para los administradores de recursos naturales.
Los requerimientos computacionales son modestos y fácilmente manejables.
Las desventajas pudieran ser de que en algunas ocasiones los datos sean insuficientes para estimar probabilidades o tasas de transferencia confiables, especialmente para situaciones de transferencia poco comunes. Su validación depende de la predicción que hagamos del comportamiento del sistema, que puede ser difícil en procesos que cubran períodos largos de tiempo.
Cuando no existan “estados absorbentes”, el proceso Markoviano se le conoce cómo “Cadena Ergódica”.
Existen muchas situaciones en ecología y otras aplicaciones del análisis de sistemas, donde los modelos tienen que detectar y capturar el comportamiento de más de una variable. Estos modelos son conocidos como “Multivariables” y están relacionados con las “técnicas de análisis multivariado”, para denotar el análisis de la información que es multivariado en el sentido de que cada miembro contiene los valores de varias variables. Los cálculos necesarios en el análisis multivariado y en la construcción de dichos modelos requiere de muchos recursos computacionales para realizarlo conforme el número de variables va en aumento y solamente un pequeño número de ellos habría sido posible llevar a cabo. Con el aumento en la capacidad de computo ha cambiado completamente la situación y estos modelos han llegado a ser una importante incorporación a los modelos con los que el “análisis de sistemas” utiliza en su quehacer diario.
Estos modelos pueden dividirse en dos categorías principales: Aquéllos en que algunas variables son usadas para pronosticar otras y, aquéllas que todas las variables son del mismo tipo y no intentan predecir a otro grupo de variables, sino sólo describirlos, señalando características principales. Otras subdivisiones incluyen a las conocidas como “Componentes Principales y el Análisis de Clusters o Agregados” y aquellos modelos en que las entradas a los modelos son cualitativas en lugar de cuantitativas.
Los modelos determinísticos fueron los primeros en desarrollarse y fueron principalmente desarrollados en relación con aplicaciones en física y química bajo condiciones en que la variabilidad de respuesta es relativamente pequeña o al menos relativamente fácil de controlar. Las relaciones ecológicas necesariamente incluyen la inherente variabilidad de organismos y hábitats, así como la variabilidad en la interacción entre estos organismos y sus hábitats, por lo que si hemos de modelar esta variabilidad, debemos considerar además las relaciones estocásticas apropiadas a incluir.
El uso de modelos determinísticos en lugar de los modelos estocásticos solamente podría justificarse por alguna conveniencia matemática. Así, si un modelo determinístico muestra a una población en equilibrio estable, el correspondiente modelo estocástico seguramente va a predecir una sobrevivencia de largo período; mientras que si el modelo determinístico no presenta equilibrio o es inestable, el modelo estocástico usualmente pronosticará la extinción con una alta probabilidad. Es por esto que los métodos del análisis de sistemas pone especial énfasis en la simultánea investigación de varias alternativas como solución a un problema práctico.
Estos métodos son de fundamental importancia en la aplicación del análisis de sistemas.
Figura 1.- Cálculo del índice general de sustentabilidad.
Figura 2.- El proceso de modelación con el enfoque del análisis de sistemas.
Figura 3. MAPA DE PRODUCCIÓN PRIMARIA NETA DE LA ZONA DE ESTUDIO A PARTIR DE LA PRECIPITACIÓN MEDIA ANUAL.
CASOS PARTÍCULARES DE SIMULACIÓN UTILIZANDO EL ENFOQUE SISTÉMICO
I- MEDIO FÍSICO
A.- MODELO TOPOCLIMÁTICO DE LA REGIÓN.
La Tierra y todos sus ecosistemas dependen de la energía del sol. La energía solar dirige los ciclos de materia y provee uno de los puntos críticos de los procesos de la fotosíntesis. Investigadores en Climatología Física aplicada, se interesan en los intercambios radiativos entre la atmósfera y la Tierra y de cómo utilizar modelos para calcular estos intercambios de energía en sistemas naturales y agrícolas. Estos modelos pueden utilizarse para evaluar las diferentes respuestas de las plantas a los cambios diurnos y estacionales en la radiación de una determinada región.
En nuestro modelo Topoclimático, para la región de estudio, calcularemos la radiación directa, la difusa y la radiación total superficial para diferentes inclinaciones para cualquier día del año de medidas de insolación. El paso del tiempo será de una hora y las unidades de densidad de flujo estarán dadas en W/m2. El modelo estará basado en importantes consideraciones que nos permitirán calcular el ángulo de incidencia de la radiación solar para superficies horizontales e inclinadas de relaciones de geometría espacial. Los valores de entrada para el modelo, serán la constante solar, latitud, pendientes observadas, orientaciones dirección de máxima pendiente para el sitio, día Juliano y medidas horarias de insolación. Calculándose la declinación solar, el ángulo entre el cenit y el rayo solar y valores en sus pendientes.
Con este modelo se encontrarán potencialidades y la posición óptima de las plantas para su crecimiento considerando que éstas no se ajustan automáticamente a los cambios de declinación solar.
CÁLCULO DE LOS POTENCIALES BÁSICOS TOPOCLIMÁTICOS EN LA CUENCA PAPAGAYO-OMITLÁN
El siguiente modelo se utiliza para calcular la radiación solar total, directa y difusa para superficies inclinadas respecto a la superficie horizontal de la tierra, para cualquier día del año y son obtenidas de medidas de horas de insolación para superficies horizontales no obstruidas. El paso del tiempo es una hora y las unidades de la densidad del flujo energético se dan en watts/m2 o Joules/m2/seg2.
Las variables de entrada al modelo son: la constante solar, la latitud, la pendiente respecto a la horizontal y la dirección de máxima pendiente del lugar, el día Juliano y las mediciones horarias de insolación observada.
Los valores de insolación son usados para calcular los coeficientes de transmisión de la radiación solar en la superficie horizontal. Para calcular la relación entre el coeficiente de transmisión y difusión, debemos desarrollar y usar una correlación empírica entre la razón de la radiación difusa y la radiación solar total para superficies horizontales.
Los coeficientes de transmisión atmosférica son calculados como la razón de la insolación calculada para una superficie horizontal en el tope de la atmósfera, a la insolación medida en la superficie de la tierra.
Los flujos de densidad de la radiación directa y difusa son calculados para superficies inclinadas y horizontales de la tierra y luego son sumadas para obtener la insolación total.
ECUACIONES DEL MODELO
EN EL SUELO
EN LA ATMÓSFERA
Figura 4. Modelo de simulación de la radiación solar para diferentes orientaciones e inclinaciones (topoclimatología) en la Cuenca Papagayo-Omitlán.
Figura 5. Comportamiento de la radiación total difusa, insolación total y radiación total directa.
Figura 6. Coeficientes de transmisión y tasas de insolación difusa.
Figura 7. Modelo de simulación de la radiación directa y difusa horaria.
Figura 8. Modelo de simulación de radiación con ángulos de inclinación de las pendientes.
Figura 9. Irradiancia (W/m2 ) para diferentes meses del año, y dos sitios, (16º 54’, 100º 00`) y (17º 30`, 98º 23`), con 7 y 1300 metros de altitud respectivamente, con orientación sur, este y norte y pendiente de 10º en la parte superior y 30º en la más baja. También la irradiancia difusa sobre la línea más baja de cada figura.
Figura 10. Irradiancia para diferentes horas del día, con orientaciones y pendientes ya consideradas, en (16º 54`, 100º, 00`), y para el 15 de Enero y Julio, respectivamente.
Figura 11. Irradiancia para diferentes horas del día, 15 de enero con respecto a los valores observados sobre la horizontal (o).
Figura 12. Modelo de simulación climática por cambios de albedo (selva baja) e incorporación de gases de invernadero.
INTEGRACIÓN DEL IMPACTO AMBIENTAL EN LA TRAMA SOCIOECONÓMICA
Los recursos renovables se están utilizando a un ritmo mayor que el de su renovación, con evidentes síntomas de insostenibilidad.
Los problemas ambientales siguen profundamente arraigados en la trama socioeconómica mundial, donde el verdadero sentido del desarrollo sostenible reside en concebirlo en su dimensión global en coevolución con el resto de la biosfera y con una visión integral de la sostenibilidad ecológica, económica y social. (Figuras 1, 13, 14, 15 y 16).
Ignorar los descubrimientos de la biología resulta especialmente grave cuando los humanistas se ven obligados a afrontar problemas políticos como la sobrepoblación mundial, la difusión de enfermedades infecciosas, el agotamiento de los recursos no renovables, los cambios climáticos perjudiciales, el aumento de las necesidades agrícolas en todo el mundo, la destrucción de los hábitats naturales, la proliferación de conductas delictivas o los fallos de nuestro sistema educativo.
La incomunicación entre la ciencia y las humanidades se atribuye a cierta incapacidad para apreciar el elemento humano en el curso de las investigaciones.
La integración ambiente-desarrollo va aportando nuevas vías de análisis para definir, con mayor precisión, la esencia de un nuevo estilo de desarrollo sostenible, como una forma diferente de encarar los problemas del desarrollo humano hacia el futuro.
No es posible mantener la salud ecológica de la biosfera sin poder garantizar el desarrollo integral, donde el mensaje de integración medio ambiente-desarrollo en las políticas y en las decisiones se va aceptando paulatinamente, a pesar de las dificultades que supone esto en la práctica.
Se considera el desarrollo sostenible como un proceso de cambio continuo, donde las estrategias responden a objetivos básicos, tales como la de revitalizar el crecimiento, cambiar la calidad del crecimiento, satisfacer las necesidades esenciales de trabajo, alimentos, energía, agua e higiene, así como la de asegurar un nivel de población sostenible, conservar y acrecentar la base de los recursos, reorientando las tecnologías y controlando los riesgos, con objetivos fundamentales para lograr el equilibrio justo, entre las necesidades económicas, sociales y ambientales de las generaciones presentes y futuras. Y, donde el desarrollo económico, el desarrollo social y la protección del medio ambiente son componentes interdependientes que se refuerzan mutua y recíprocamente, pudiéndose comprender que la amenaza del subdesarrollo supone también graves ineficiencias y, de que es posible considerarlo como una situación de desequilibrio.
No parece pertinente hablar de sostenibilidad de forma aislada, sino de forma integral, (Figura 1), incorporando sus componentes ecológicos, económicos y sociales, donde los objetivos son múltiples, sobrepasando el del simple mantenimiento de un capital natural. La sostenibilidad integral es la premisa básica del desarrollo sostenible, pero no puede convertirse en un fundamento absoluto, sino en un principio específico que permita conseguir lo que realmente se quiere hacer sostenible.
Si la finalidad es conseguir un desarrollo humano sostenible, éste tendrá que ser ecológica y ambientalmente sostenible, manteniendo la diversidad biológica y reforzando la base de los recursos ambientales sobre los que se sustentan sus procesos de desarrollo. Hablar en términos económicos y sociales es aún más complejo, ya que si simultáneamente no se logra especificar qué tipo de sostenibilidad económica y social es necesaria para complementar la ecológica-ambiental, no será posible definir un modelo de desarrollo más justo y racional.
El concepto de Rendimiento Máximo Sostenible, progresivamente se viene incorporando a los campos de la economía, sociología y política hasta adquirir una dimensión múltiple e integral, donde las nociones ecológicas de capacidad de carga, capacidad de recuperación, capital natural y equidad se entrelazan para definir un estilo de desarrollo o forma de vida sostenible con consideraciones éticas.
El concepto de sostenibilidad aplicado a los ecosistemas tiene un carácter dinámico y un sentido de estabilidad, en la medida en que es preciso cubrir las necesidades cambiantes de una población que sigue creciendo hasta su nivel de estabilización y donde la satisfacción de tales necesidades, debe hacerse mejorando la calidad del medio ambiente y de los recursos naturales, condicionada por una compleja interacción de factores biológicos, físicos y socioeconómicos que constituyen la base de todos los sistemas productivos.
La esencia del desarrollo sostenible, gira alrededor del mantenimiento de un determinado equilibrio dinámico, ajustado a la capacidad de existencia y regeneración del capital natural y donde se observa que las comunidades no se adaptan a las condiciones medias de sus hábitat, sino a las condiciones mínimas que les permiten seguir viviendo, por lo que el desarrollo de éstas está determinado sobre todo, por la disponibilidad mínima de cualquiera de sus elementos.
Un sistema social-económico-productivo no puede medir su sostenibilidad real sobre bases de criterios económicos, como es el Producto Nacional Bruto, ya que ésta no incluyen los procesos metabólicos y la eficiencia energética de los organismos vivos y de los ecosistemas. Los indicadores económicos convencionales tampoco incluyen aspectos sociales para señalar cómo se puede garantizar el bienestar social, pero la información sobre los procesos que afectan al bienestar de la sociedad y a la integridad de los ecosistemas, son una variable básica de la ecuación del desarrollo sostenible. Sostenibilidad ambiental para soportar la sostenibilidad económica y social e incluso política e institucional de la comunidad.
Los sistemas ecológicos, económicos, sociales y éticos, aunque están fuertemente entrelazados, responden a lógicas distintas, jerarquías diferentes y están sometidos a velocidades y cambios de evolución particular. Contar con las condiciones mínimas de sostenibilidad y compensar las posibles pérdidas de éstas para mantener la estabilidad dinámica, depende de numerosos factores que no siempre son identificables y controlables en la evolución de los sistemas complejos.
Para que el equilibrio final sea sostenible, los procesos de mantenimiento, reposición y renovación deben ser iguales o mayores que los procesos de depreciación, degradación y pérdida.
Respecto al Desarrollo Humano Sostenible, se desea dejar en claro que por lo general, el tema del Desarrollo Ecológicamente Sostenible se debate en términos económicos y técnico-ambientales. La sostenibilidad debe construirse sobre una base social, es decir, deben adoptarse deliberadamente medidas de índole social y económica. Por esta razón, el logro de la sostenibilidad debe enfocarse como una tarea cuádruple, es decir, que aborde los aspectos sociales, económicos, ecológicos y tecnológicos
El “Índice de Desarrollo Humano”
-IDH- es útil para abordar en forma implificada una realidad compleja. Posee tres componentes: Esperanza de vida al nacer, Tasa de alfabetismo adulto, Ingreso (aunque las personas no necesitan ingresos altísimos para llegar a un nivel de vida decoroso). El P.I.B. per cápita, Empleo e Ingreso considera ciertos factores que pueden ayudar a explicar el nivel de vida. La actividad laboral es la manera como se accede a los recursos para satisfacer las necesidades y a su vez, el trabajo es un medio de realización humana y, dependiendo como se lleve a cabo, se constituye en factor de bienestar. El ingreso expresa la capacidad de acceder a bienes y servicios, pero no es por sí mismo bienestar. La manera como se distribuye determina la capacidad de consumo y de lograr bienestar.
El Objetivo del Modelo es simular sistemáticamente el estado y la evolución de los fenómenos sociales relacionados con la población, los asentamientos humanos y el ambiente y también contar con elementos para evaluar su impacto, que permita contribuir a la gestión del Desarrollo Humano Sostenible de la zona. Concebido como un instrumento para el análisis y la toma de decisiones, la determinación de políticas, estrategias, programas y proyectos relacionados con las condiciones sociales de la Población, los Asentamientos Humanos y el Ambiente.
Para preservar los recursos naturales y hacer sustentable el desarrollo de las comunidades que habitan en la zona, según el Modelo planteado, se puede hacer modificando la tasa de crecimiento de la población (que es lo más probable que ocurra, según las tendencias nacionales, como señala el grupo de estudio social) que incrementa la eficiencia de las unidades de área para que el sistema pueda sostener más carga y disminuyendo la tasa de erosión. Esto se puede lograr implementando programas de control del crecimiento poblacional, incremento de la eficiencia de los sistemas de producción, diversificando el uso de los ecosistemas del área e implementando un programa de conservación de suelo. La construcción de una Presa generaría empleos y otro tipo de recursos (acuáticos) que incrementarían temporalmente la capacidad de carga del sistema, diluyendo su efecto con el transcurso del tiempo. Pero es imperioso comentar que con o sin la construcción de la Presa, es necesario reducir las tendencias sobre crecimiento poblacional, así como reducir también las tasas de pérdida de suelo, las cuales están dirigiendo el sistema hacia su colapso, buscando lograr el desarrollo sustentable de una región a través de sus procesos de revitalización de la sustentabilidad del sistema, con ingresos que lleguen a crear empleos a través de proyectos productivos.
Asimismo, la sostenibilidad implica contar con instituciones formadas por expertos en el tema: honestas y pertinentes, comprometidas con el proyecto, en donde la participación de los múltiples actores sea fundamental y no sólo de un grupo selecto de notables, ya sean éstos, políticos, empresarios, académicos o cualquier tipo de intelectuales, sino que debe involucrar a un grupo mayor que considere al público en general, sobre todo a los afectados, e igualmente a los indígenas, los cuales por lo general hemos excluido de nuestros modelos de desarrollo en muchas ocasiones. Sin olvidar que en la sostenibilidad es fundamental que se den los valores éticos, particularmente aquéllos que involucren aspectos que van más allá de lo social, como la empatía, que no sólo involucra el aspecto con los semejantes o de su misma especie, sino que incluya además a otros organismos y al mismo ambiente.
Figura 13.- Modelo Integral de producción en la región.
Figura 14. Modelo de simulación del ambiente social para la zona.
Figura 15. Simulación de la dinámica de la población y los recursos naturales de la región.
Figura 16. Simulación de la dinámica de la población y los recursos naturales de una región.
RESULTADOS Y CONCLUSIONES
En el cálculo de los potenciales topoclimáticos de insolación para la región de La Cuenca Parpagayo-Omitlán, los cálculos se realizaron para valores que se presentan en días claros y sin nubes, calculándose la insolación en watts/m2 para las principales orientaciones y pendientes entre 0 y 30º en intervalos de 10º donde los valores de mayor interés corresponden a las orientaciones Norte, Sur y Este, considerando de antemano que la orientación Oeste toma los mismos valores de la orientación Este.
Las orientaciones Sur en la región reciben la mayor cantidad de radiación solar a través del año.
Las orientaciones Norte, reciben las más pequeñas sin importar la altitud geográfica.
La orientación Sur con 30º de orientación, tiene o presenta las más pequeñas fluctuaciones durante el año y debían considerarse como zonas climáticamente estables, adecuada para productos agrícolas que necesitan una gran cantidad de radiación solar y una pequeña variación anual climática. Sin embargo, debe esperarse un alto valor de evaporación que implica una baja disponibilidad de humedad en el suelo.
En contraste la orientación Norte con 30º de inclinación, presenta dos estaciones completamente diferentes: la del invierno con valores extremadamente bajos y la del verano con valores altos de radiación solar. Presenta además una alta inestabilidad anual y las mayores fluctuaciones; se debe esperar que produzcan un alto índice de estrés para las plantas de tipo anual así como para los diferentes cultivos. Durante la estación de invierno, debe esperarse una alta disponibilidad de humedad debido a la baja evaporación y la presencia de rocío que puede tomar valores altos para esta zona.
Durante la estación de verano, los valores de radiación solar de las diferentes orientaciones tienden a coincidir haciendo la disponibilidad de energía indiferente de la orientación. Las pendientes de 10º durante esta época, presenta una gran similaridad en sus valores a las pendientes de 30º aunque en invierno existen tendencias a separarse considerando las diferentes orientaciones, observándose que son mínimas para las orientaciones del Este, alcanzando una razón máxima de 3 a 1 cuando se comparan las pendientes de 30º contra las de 10º.
En relación a los valores absolutos, es interesante notar que la orientación Este con 10º de orientación, toma valores mayores durante el año que los que les corresponde a las pendientes de 30º, lo que hacen también que con estas pendientes si la altitud incrementa sus valores de insolación también aumentan.
Los valores mínimos de radiación solar directa ocurren en diciembre con 767 y 958 watts/m2 y los máximos valores corresponde al mes de abril con 1185 y 1073 watts/m2 correspondiendo un máximo secundario al mes de septiembre con magnitudes similares.
Los potenciales de insolación deducidos de la simulación, son impactos naturales de la región y se dan exista o no exista la presa, por lo que sólo se vería afectada la zona de inundación en el cambio de insolación en sus diferentes laderas por una superficie plana acuática, la cual se calcula que correspondería a los valores medios esperados.
SOLUCIÓN DEL PROBLEMA CON EL ENFOQUE SISTÉMICO
Si a nivel personal nos preguntamos:
¿Por qué con cada problema que resolvemos aparecen un mayor número de problemas sin resolver?
¿Por qué cuando en un grupo se tienen propuestas inteligentes, acaba creándose algo inaceptable para todos?
A nivel de sociedad también podemos preguntarnos:
¿Por qué los recursos escasos se usan de forma ineficaz y se desperdician en lugar de ser ahorrados y conservados?
¿Por qué un recurso se aplica a un solo uso, siendo que el uso múltiple podría redituar un beneficio neto mayor?
¿Por qué no se invierte en la protección y fomento de los recursos naturales, aún cuando sabemos que eso podría generar a largo plazo un valor neto positivo, al elevar la productividad y aumentar la sustentabilidad?
Como generalidades también podemos preguntarnos:
¿Por qué tendemos a aceptar lo irracional permitiendo que prevalezca de forma repetitiva y se haga costumbre?
¿Podrían preguntas de gran diversidad de temas tener un origen común, de tal manera que podamos resolverlas con la misma metodología?
Al tratar de responder a estas preguntas y otras similares, se tiene plena conciencia de que los fenómenos tanto de la naturaleza como de la sociedad son constitutivamente complejos y de que su complejidad, tiende a aumentar al integrarse en unas o en otras composiciones y ordenamientos, ya que al interaccionar y relacionarse tales fenómenos unos con otros, se generan nuevos niveles de realidad. Estas percepciones exigen construir conocimientos correlativamente complejos, coordinados por una nueva metodología que participe en ese conjunto de interacciones.
La tecnología y la sociedad moderna se han vuelto tan complejas que los caminos y medios tradicionales de resolver los problemas no son ya suficientes, y se imponen actitudes de naturaleza holista o de sistemas, generalista o interdisciplinaria. Donde el concepto de sistema constituye un nuevo paradigma o una nueva filosofía de la naturaleza.
El pensamiento sistémico nos permite descubrir los patrones que se repiten en los acontecimientos de la naturaleza y sociedad y nos proporciona métodos más eficaces para afrontar los problemas, con mejores estrategias de pensamiento, además de ser la base de un razonamiento claro y una buena comunicación, así como de una forma de profundizar y ampliar nuestro punto de vista.
En investigación, la visión reduccionista del especialista trata una realidad que ha sido dividida y sus partes han sido explicadas por diferentes ciencias. El enfoque de sistemas, en su metodología, toma una posición contraria y pretende integrar las partes hasta alcanzar una totalidad lógica o de una independencia o autonomía relativa con respecto a la totalidad mayor de la cual también forma parte.
Según Boulding: La especialización se está desintegrando en subculturas aisladas con sólo tenues líneas de comunicación entre ellas, donde pareciera que la ciencia se transforma en un conjunto de ermitaños enclaustrados, cada uno hablando para sí mismo con palabras de un lenguaje particular que sólo él puede comprender.
Es fundamentalmente imposible querer estudiar los sistemas complejos de la naturaleza y la sociedad dividiéndolas en sus componentes y luego analizar cada una de sus partes de forma independiente. Un sistema complejo a diferencia de uno simple, es visto como una entidad cuyo comportamiento global es más que la suma de las operaciones de sus partes. El campo es entonces altamente multidisciplinario, juntando expertos en varias ramas o especialistas que van desde economía, ciencias sociales, geografía, biología, física y meteorología.
Muchos científicos sociales e incluso algunos psiquiatras estudian, entienden o aplican la teoría de los sistemas; así también algunos políticos suelen pedir que se aplique el enfoque de sistemas a problemas apremiantes, tales como la contaminación del aire y del agua, la congestión de tráfico, la plaga urbana, la delincuencia juvenil y el crimen organizado, así como la planeación de ciudades.
Son las relaciones entre los componentes, más que los componentes y sus propiedades las que son más significativas, donde al dar un mayor énfasis a la estructura en lugar que a su composición, es lo que hace que muchos de los diferentes tipos de sistemas puedan ser caracterizados como herramientas analíticas similares.
Hasta la fecha, ha sido posible identificar características que parecen ser comunes a todos los sistemas complejos, incluyendo organizaciones espaciales y temporales, emergencia, adaptaciones, niveles críticos de conectividad y autopoyesis en sistemas vivos.
Un impacto significativo de esto es el reconocimiento de que la inclusión de elementos espaciales en un modelo de ecosistemas, puede tener un efecto radical sobre la dinámica pronosticada, a menudo moviendo un sistema de un estado de equilibrio a otro de caos, en algún otro régimen complejo, considerados anteriormente como inválidos o inestables, pero que ahora se cree que son lo más cercano a lo que ocurre en la realidad.
Los supuestos e hipótesis, deberán ser probados formulando modelos, corriéndolos y probando los resultados contra el comportamiento cuantitativo y cualitativo de un mundo real.
La cooperación intergrupal debe ser de forma extensiva e intensiva, ya que ésta suele ser excepcionalmente escasa o presenta insuficiencias para soportar una investigación a largo plazo, como deben ser las investigaciones ecológicas y ambientales.
Todo esto ha hecho que la investigación se restrinja a una o a unas cuantas fases del problema total que presentan el ambiente y los ecosistemas. Se nota claramente que las investigaciones de los sistemas en su forma total e interdisciplinaria no se ha podido desarrollar hasta la fecha; donde para iniciar dichos estudios, debe existir el trabajo cooperativo y saber compartir datos, información, recursos, áreas de investigación y talentos incluyendo estudios cooperativos, lo cual significa un espacio donde se debe acceder a antecedentes como a generalidades en observaciones y conclusiones ya existentes de estudios previos.
Los modelos matemáticos de simulación, nos deben proveer de un cuadro de referencia dentro del cual podemos coordinar los esfuerzos de estos grupos interdisciplinarios y que ayude además, a hacer significativa la contribución individual en el sentido total del sistema; donde cada trabajo será integrado no solamente en los sitios de más intenso trabajo, sino también en los sitios más adecuados y convenientes, donde los datos y la información deberán ser sintetizados no tan solo sobre ambas áreas, si no también sobre los diferentes ecosistemas.
La metodología de la visión sistémica aplicada al proyecto hidroeléctrico de La Cuenca Papagayo-Omitlán, presentó resultados positivos aunque parciales, en lo inicialmente pensado y propuesto; situación completamente justificable en una primera experiencia de este tipo por lo que hacemos las siguientes recomendaciones.
Primero: Debe tenerse un conocimiento básico general en todos los módulos de participación de lo que implica la aplicación del enfoque sistémico en la integración de los estudios multidisciplinarios.
Segundo: La aplicación y utilización del enfoque sistémico a través de los modelos de simulación deben tener un carácter de participación obligada pero convencida para todos los participantes en el proyecto.
Tercero: Debe educarse y cambiarse la mentalidad de los investigadores participantes a fin de aprender la importancia de compartir de forma continua la información recopilada y requerida por otros investigadores y de cómo esto redundará en su propio beneficio.
Cuarto: Debe existir una comunicación de análisis de los objetivos, procesos de desarrollo, problemas por resolver y temas adicionales a incorporar sobre bases de ser posible, de forma diaria continua y permanente.
Quinto: Revisar periódicamente la calendarización de los objetivos obtenidos, revitalizando propósitos con nuevos procesos de creatividad continua, sobre todo considerando que el estudio debe estar integrado por trabajos colectivos y no por trabajos colectados.
BIBLIOGRAFÍA CONSULTADA
-May R.M. (1974) Biological populations with nonoverlapping generations: points, stable cycles and chaos, Science 186, 645-647.
-May R.M. (1976) Simple mathematical models with very complicated dynamics, Nature 261, 459-467.
-May R.M. and G.F. Oster (1976) Bifurcations and dynamic complexity in simple ecological models, The American Naturalist 110, 573-599.
-May R.M. (2001) Stability and Complexity in model Ecosystems, Princeton Landmarks in Biology, Princeton University Press, Princeton, NJ.
-Pool R. (1989) It is chaos, or is it just noise? Science 243, 25-28.
-Ritter O.W., Mosiño P., A., Buendía C., E. (1998)” Dynamic Rain Model for Lineal Stochastic Environments”. Quaterly Journal of Meteorology (INDIA)(Mausam),
Vol. 49, No. 1. Pp. 127-134.
-Ritter O. W., Jauregui O. E., Guzman R. S., Estrada B. A., Muñoz N. H., Suarez S. J. and Corona V. MC. (2004) Ecological and agricultural productivity indices
and their dynamics in a sub-humid/semi-arid region from Central México. Journal of Arid Environments. ENGLAND 59, 753-769.
-Ritter O. W., Suárez S. J., (2005). Predictability and phase space relationships of climatic changes and tuna biomass on the Eastern Pacific Ocean. 6 eme
Europeen de Science des Systemes Res-Systemica volume no. 5, Special Issue. FRANCE.
-Walter Ritter Ortiz, Alfonso Salas Cruz (2008). Economía y patrones de organización en la naturaleza. Ciencia y Mar vol. XII (34) pags. 33-36.
-Ritter O. W., Suarez S. J. (2011) Impact of ENSO and the optimum use of yellowfin tuna in the Easthern Pacific Ocean Region. Ingenieria de Recursos Naturales
y del Ambiente, numero !9, enero-diciembre, 2011, pp. 109-116, Universidad del Valle, Cali COLOMBIA.
-Ritter-Ortiz W., Cruz L. (Enero 2013). “An Integrated and Evolutionary Dynamical Systems View of Climate Complexity”. 2013, 4, 49-57.
http://www.scirp.org/journal/ijg.scientificresearch. ScientificResearch (USA).
(Volver a página inicial)