(Home page)
Junio 2015


EFECTOS DE LA INTERACCIÓN OCÉANO-ATMÓSFERA

EN LA PRODUCCIÓN PESQUERA DEL OCÉANO PACÍFICO DEL ESTE

Walter Ritter Ortiz, Mario Cruz Teran

Sección de Bioclimatología, Centro de Ciencias de la Atmósfera, UNAM. Circuito interior s/n, Ciudad Universitaria, Deleg. Coyoacan, México, D.F.
email:
walter@atmosfera.unam.mx

Juan Suárez Sánchez, Silvia Chamizo Checa

Laboratorio de Medio Ambiente. Facultad de Agrobiología, Posgrado en Ciencias Ambientales, Universidad Autónoma de Tlaxcala, Km. 10.5 Autopista

San Martín-Tlaxcala, Ixtacuixtla, Tlax., C.P. 90120.
Email: juan@cci.uatx.mx

RESUMEN

Se utilizó la información sobre capturas de atunes (atún aleta amarilla (Thunnus albacares), barrilete (Katsuwonus pelamis), patudo (Thunnus obesus), atún aleta azul (Thunnus orientalis), albacora (Thunnus alalunga), bonito (Sarda orientalis) y barrilete negro (Euthynnus lineatus)) y biomasa de atún aleta amarilla para el océano Pacífico oriental, para los periodos 1970-2002 y 1967-1997 respectivamente. Se analizó la información por métodos gráficos (espacio de fases y método de Vandermeer) y estadísticos (análisis de clusters, análisis de componentes principales, modelo de redes neuronales y modelo ARIMA). Se encontró que con la presencia del ENOS, entendido como un fenómeno global del clima, con una presencia mayor de aguas cálidas en el océano, las capturas de los atunes bonito, albacora y aleta azul, se ven incrementadas, mientras que las capturas de los atunes aleta amarilla, barrilete, patudo y barrilete negro se ven disminuidas, así también la biomasa del atún aleta amarilla muestra claros descensos en sus valores.

El ENOS explica el 41.59% de la variabilidad en las capturas de atunes e impacta de manera negativa al 96.85% de éstas. Mediante un modelo de redes neuronales se identificó un atractor en la dinámica de la biomasa del atún aleta amarilla, con una dimensión de capacidad de 0.953 1.199 una dimensión de correlación de 7.398 7.398 y un exponente de Lyapunov de 0.120. La dinámica de la biomasa del atún presenta un comportamiento que va de oscilatorio inestable a caótico con un límite de predictabilidad de 8 años y es el modelo ARIMA (4,0,3)(4,0,3)8 el que mejor simula y pronostica el comportamiento de ésta biomasa, a su vez al utilizar ésta información para el pronóstico de la presencia de los ENOS, se detecta y pronostica acertadamente los que se observaron en los años 1997-1998 y 2002-2003.

A través de estas metodologías el pronóstico del próximo evento de ENOS estaría en el límite de la predictabilidad del sistema esperándose su presencia en el próximo o siguientes dos años. Las razones de uso óptimo del recurso atún aleta amarilla, aconsejan un aprovechamiento menor (<13%) en periodos de presencia de ENOS y uno mayor después de la presencia de este fenómeno (>44%).

INTRODUCCIÓN

La exterminación de poblaciones pesqueras debido a efectos de sobreexplotación suele considerarse como un evento raro, ya que la reducción de la población a densidades mínimas, hace que se pierda el interés desde el punto de vista comercial. Para evitar que sea el aspecto económico el único regulador en la extinción de las especies, han aparecido Instituciones Nacionales e Internacionales que reglamentan el funcionamiento de las pesquerías, cuyas principales tareas son las de recopilar, analizar e interpretar la información pertinente para recomendar cuotas de capturas que permitan mantener las poblaciones en niveles adecuados para obtener las máximas capturas sobre bases pertinentes. Los modelos matemáticos desarrollados con este propósito, suelen clasificarse en dos grandes grupos

Se considera a la población como un todo, sin considerar sus características internas por lo que son descritas por un solo parámetro (captura por unidad de esfuerzo). Los modelos analíticos al considerar los mecanismos internos de estructura de edades, crecimiento individual, sobrevivencia o mortalidad y por pesca, trae como consecuencia que su demanda de información y datos sea mayor, por esta razón y al hecho de que no son modelos mutuamente excluyentes así como a la dificultad en la determinación de las edades de las especies tropicales, la mayoría de los estudios de la dinámica poblacional de los túnidos en la región se han realizado a través de los modelos de producción.

Sin embargo la aparente dificultad existente es que en estos modelos se basan en considerar que a largo plazo el efecto climático se promedia con resultados finales nulos, esto contrasta con el hecho de que en las zonas históricas de mayor producción atunera se observa una fuerte variabilidad en los parámetros climáticos fundamentales, es por esto que en este trabajo analizamos el posible error introducido por este concepto, al comparar los resultados normales de estos modelos con los de otro en que se considera que la intención del efecto climático esta determinado sobre bases y leyes probabilísticas introduciendo además del efecto biológico-determinístico, el efecto estocástico ambiental.

ANTECEDENTES

El fenómeno de ENOS(El Niño, Oscilación del Sur) constituye la principal causa de la variabilidad climática interanual en una escala global. Este fenómeno puede durar desde algunos meses hasta uno o dos años y tiene consecuencias catastróficas para la industria de la pesca. En tierra firme, los patrones de lluvia son modificados en su distribución espacial y temporal, provocando inundaciones en las regiones litorales, sequías en lugares donde tradicionalmente llueve, devastando cultivos, provocando corrimientos de tierra, entre otros impactos. La periodicidad del evento no es fija, es cuasi-cíclica, con periodos calculados entre 3 y 7 años. El ciclo de desarrollo de la anomalía también varía de un evento a otro, esta variabilidad en los periodos de aparición, duración, intensidad y recurrencia del fenómeno, complica seriamente su predicción.

La economía de muchos países, principalmente los tropicales, depende de la presencia de este fenómeno. Lo que hace necesario contar con un pronóstico no solo del periodo de aparición sino de la intensidad y los desastres que le acompañan. Los estudios sobre el pronóstico de ENOS tratan de explicar su periodicidad relacionándolo con la fluctuación de la radiación solar, la velocidad de rotación de la tierra y con los flujos de la atmósfera a gran escala.

Una de las características más evidentes que acompañan al ENOS es la modificación de la temperatura superficial del océano pacífico oriental a la altura del Ecuador. Lugar donde habita el atún aleta amarilla (Thunnus albacares), una de las especies de mayor importancia en la pesca mundial y nacional, esta zona y sus alrededores también habitan los atunes barrilete (Katsuwonus pelamis), patudo (Thunnus obesus), atún aleta azul (Thunnus orientalis), albacora (Thunnus alalunga), bonito (Sarda orientalis) y barrilete negro (Euthynnus lineatus). Estudios recientes han encontrado que la dinámica de algunas de estas poblaciones de atún se encuentra influenciada por el fenómeno del ENOS.

El objetivo de este trabajo es identificar las relaciones en el Océano Pacífico oriental basados en la distribución temporal de las biomasas de atunes y su correlación con ENOS. Utilizando para ello técnicas de pronóstico de los sistemas dinámicos no lineales, evaluando la biomasa del atún y pronosticando con base a la dinámica de las relaciones identificadas, la tasa óptima del uso del recurso atunero, así como la presencia de la interacción global de ENOS.


PREDICTABILIDAD DE LA ATMÓSFERA


Existe un consenso general entre los científicos atmosféricos de que el comportamiento de la atmósfera es caótico; su sensibilidad a las condiciones iniciales es tal que su predictabilidad más allá de cierto rango se pierde. El comportamiento caótico puede ser observado en sistemas conteniendo unas pocas variables relevantes de su dinámica, por lo que recientemente se ha sugerido que unas pocas variables pueden ser suficientes para modelar la dinámica de la atmósfera.


Esta hipótesis está basada en estudios cuyos objetivos son los de estimar la dimensionalidad del sistema climático a través del análisis de la información observacional. El espacio de fases puede ser reconstruido de la información por medio del teorema del envolvimiento y usado para estimar la dimensión de correlación, pero aunque estos autores encuentran dimensiones fractales bajas, sus resultados son aún controversiales y no está claro si la cantidad de datos es suficiente o el tiempo de muestreo es adecuado para sacar conclusiones firmes al respecto. También se han estimado los primeros exponentes de Lyapunov utilizando algoritmos recientemente desarrollados y se encuentra que el tiempo estimado para que los pequeños errores se dupliquen es del orden de 20 días.


Estos resultados contrastan con los de Lorenz (1982) quien encuentra tiempos de duplicación del orden de 2 días, dicha discrepancia puede ser debida a los tiempos de la información utilizada. Experimentos demuestran que la dimensión de Lyapunov depende fuertemente del nivel de truncación que es del orden de la mitad de la dimensión del espacio de fases. La dimensión de correlación en el espacio total de fases con 96 grados de libertad fue al menos de 20. Incrementando el número de puntos para los procesos de cómputo se observa que la convergencia no queda bien establecida. Los anteriores resultados nos dan algunas dudas sobre las estimaciones de baja dimensionalidad deducida de los datos reales en el estudio de la atmósfera.


MODELOS DE BAJA DIMENSIONALIDAD


Si bien se ha proclamado que el clima mundial en los millones de años transcurridos contienen un atractor extraño de baja dimensionalidad. La mayoría de estas especulaciones empiezan con un modelo específico y tratan de verificar predicciones particulares del modelo. Las mejor conocidas y más exitosas aproximaciones generalmente empiezan dando variaciones a la constante solar debida a cambios en la órbita terrestre. Algunos de ellos se preguntan si los datos existentes de cambio climático muestran los signos típicos esperados de un sistema determinístico si estos signos no se encuentran debe uno concluir ya sea que el sistema ha sido aleatoriamente perturbado por algún ruido estocástico y para el cual no es posible una descripción determinística o de que es un sistema determinístico con muchos grados de libertad. Si en contraste se encontraran estos signos uno debe esperar que el sistema puede ser descrito con un modelo muy simple y con muy pocos grados de libertad.


Recientes desarrollos en la teoría de sistemas dinámicos nos dicen que si un sistema se desarrolla determinísticamente su trayectoria típicamente se queda en una baja dimensionalidad del total disponible del espacio de fases. En adición a esto cada día se encuentran más atractores extraños en el que la trayectoria permanece como fractal caracterizado por una dimensión no entera. Tales sistemas son entonces solamente determinísticos en el sentido formal de ser descritos por ecuaciones diferenciales pero ni son periódicos ni son cuasiperiodicos y tampoco son predecibles a largo plazo.


Nicolis & Nicolis(1984), observaron que el clima mundial de hace un millón de años estaba restringido a un atractor de dimensión tres. Si esto es correcto deberíamos de ser capaces de simular la atmósfera con ecuaciones cerradas de solamente cuatro variables independientes.


Una entropía de Kolgomorov pequeña será la indicación más directa de que el clima es predecible para determinadas escalas de tiempo.


Estas ideas incluyen la noción geométrica de la dimensión de correlación utilizadas para analizar matemáticamente los atractores. Resultados del análisis de observaciones meteorológicas diarias soportan la existencia de tales atractores sugiriéndose que los atractores extraños pueden ser caracterizados por medio de series de tiempo finitos de sistemas dinámicos. La dimensión de correlación obtenida, de una secuencia de espacios dimensionales superiores están directamente relacionados a la geometría del atractor además de que ha sido extensamente utilizada para caracterizar las propiedades de los fractales, así aunque un fluido puede potencialmente tener un número muy grande de grados de libertad, los estudios señalan que solo existen unos pocos grados de libertad significativos en tales sistemas complejos. Olvidándonos del hecho de que puede ser difícil identificar estas variables permanece el interés de determinar si un sistema tan complejo como la atmósfera puede ser representado por un atractor de baja dimensión donde este número de dimensión pudiera funcionar como una guía en el desarrollo de nuevas teorías del clima.


IRREGULARIDAD COMO PROPIEDAD FUNDAMENTAL DE LA ATMÓSFERA


El problema de pronosticar el estado del tiempo es un problema de valores iniciales donde con un conocimiento del estado presente de la atmósfera junto con las ecuaciones que expresan las leyes físicas gobernantes debemos de ser capaces de saber cómo el futuro del sistema será dado. El conflicto entre matemáticas y procedimientos metodológicos ha sido parcialmente resuelto y aunque las ecuaciones pueden ser manipuladas por métodos clásicos y considerando que pueden resolverse por métodos digitales donde las diferencias finitas a menudo reemplazan las derivadas y la misma capacidad de proceso de la computadora deben ser considerados como partes esenciales del modelo donde a veces las ecuaciones están basadas en relaciones empíricas o suposiciones inteligentes pero sobre todo donde los modelos meteorológicos utilizan ecuaciones que generalmente son simplificaciones de las leyes físicas básicas.


Las simplificaciones más comunes son de todo tipo, en un modelo la atmósfera puede considerarse como un gas ideal con ninguna fase de agua y donde la superficie terrestre puede estar constituida solamente de continentes sin montañas u otro tipo de características orográficas, donde la energía solar de entrada pueda depender solamente de la latitud y no considerar veranos o inviernos o días y noches la aproximación hidrostática expresa un balance entre los campos de densidad y presión removiendo las ondas de sonido y la aproximación geostrófica y manifestando un balance entre el viento y los campos de presión removiendo así también las oscilaciones inerciales de las ondas gravitatorias.


Algunos de los modelos de pronóstico actuales contiene más de 100 000 variables pero el esfuerzo computacional para manejarlos es simplemente prohibitivo, por lo que muchos investigadores de la atmósfera han cambiado hacia los modelos de bajo orden donde el número de ecuaciones han sido reducidas a menos de 100 o incluso a menos de 10, donde se esperan coincidencias con la realidad. Estos modelos de bajo orden y otros son considerados como sistemas dinámicos. Los sistemas dinámicos son comúnmente descritos en términos geométricos donde las variables dependientes son tratadas como coordenadas en un espacio multidimensional y donde un estado particular se transforma en un punto en el espacio conforme el estado varía de acuerdo con las ecuaciones se traza una trayectoria u órbita donde las soluciones periódicas se convierten en curvas cerradas mientras que las soluciones de estado estacionario se convierten en puntos fijos que son tratados como tipos especiales de órbitas cerradas.


A tales sistemas un subconjunto básico de espacios estará dado por un atractor y dada una órbita particular existen ciertos puntos donde la órbita se aproxima de forma repetitiva en intervalos regulares o irregulares por lo que son conocidos como puntos límites o puntos atractores para dicha órbita.


Cuando el modelo atmosférico es un sistema dinámico los puntos sobre el atractor representan aquellos estados que son compatibles con el clima. Aunque todas las escalas de movimiento atmosférico están interconectadas es una práctica común la de investigar la dinámica de un tipo particular de sistema para descartar la presencia de sistemas de escala mayor o más pequeña con lo que se intenta una aproximación que en muchas ocasiones solo dan explicaciones parciales.


PREDICCIÓN EN SISTEMAS CAÓTICOS NO LINEALES CON EL ANÁLISIS DE SERIES DE TIEMPO EN LA EVOLUCIÓN ATMOSFÉRICA


El análisis de series de tiempo es un conjunto de métodos para revelar estructuras en datos aparentemente sin estructura. Cuando analizamos datos de un sistema caótico su estructura del sistema determinístico presenta una geometría de dimensión fraccional en general, pero regularmente en el dominio del tiempo apropiado se dice que esta estructura es un atractor en el sentido de que un grupo grande de condiciones iniciales para el sistema asintóticamente permanecen en dicha estructura geométrica y por el hecho de tener una dimensión fraccional la estructura es conocida como un atractor extraño, así también cuando miramos una órbita caótica no observamos irregularidad en la evolución del tiempo y cuando observamos su espectro de Fourier encontramos una colección de frecuencias de banda conocida como H, por lo que lo primero que debemos hacer es descubrir en que espacio debemos de estar observando las series de tiempo, lo que es conocido como la reconstrucción de los espacios de fases. Al trabajar sobre las bases de sistemas dinámicos, el espacio de fases es reconstruido y encontraremos varias ideas acerca de los invariantes del movimiento en los atractores extraños.


Estos invariantes juegan el mismo papel para los sistemas no lineales, así como las frecuencias características de un sistema lineal lo emplea en el análisis lineal de las series de tiempo ya que las órbitas individuales de los sistemas no lineales pueden diferir ampliamente aún en el caso de pequeños cambios en las condiciones iniciales y las órbitas no pueden ser sujetos confiables para nuestro estudio, preguntándonos que podemos hacer una vez que el espacio apropiado para ver la dinámica del sistema ha sido clasificado y hemos clasificado dicho sistema en término de sus invariantes. Esta generalización de la teoría de predicción lineal al dominio de sistemas no lineales es de alguna manera la más especulativa y por lo mismo se trata de estudiar cómo hacer modelos parametrizados de la evolución del sistema a través de la reconstrucción del espacio de fases y que información acerca de los invariantes del movimiento puede ser confiable, de tal manera que se utiliza un plan donde se pueda establecer el dominio en el cual visualizar el movimiento y llevar a cabo el análisis de la serie de tiempo caótica, así también la de clasificar el sistema que produce las series de tiempo en términos de las invariantes del movimiento caótico, permitiendo hacer modelos del movimiento en el espacio de visualización, que respete las invariantes y permita realizar pronósticos del comportamiento del sistema.


Todavía no ha sido realizado un estudio detallado de los métodos óptimos y de su estabilidad, pero existe la intención de la aplicación de estas metodologías en asuntos de interés inmediato y de largo plazo y donde dado el presente estado de ignorancia acerca de nuestro clima como atractor extraño podemos decir que estos métodos permitirán progresos en el entendimiento de estos sistemas complejos así como en la predicción de sus comportamientos.


Si nos preguntamos de que si existe alguna indicación de que los sistemas climáticos son caóticos y la respuesta es un sí y sospechamos ciertas variaciones periódicas podemos concluir que el estado de las variables climáticas presentan una dimensionalidad fraccional.


SISTEMAS DINÁMICOS NO LINEALES Y FENÓMENOS NATURALES


Tierra, agua y atmósfera están íntimamente ligadas entre sí, por intermedio de complejos procesos biológicos y geofísicos y un mayor conocimiento de las interacciones entre ecosistemas marinos (pesca-ENSO) puede ser de gran ayuda al tratar de optimizar la contribución de los recursos naturales para un mayor bienestar humano. Se sabe también que la vida extrae sus propiedades de la tendencia de la naturaleza a organizarse y escalar hacia estadios cada vez más ordenados y complejos (Leakey y Lewin, 1995). En la búsqueda de una comprensión de los sistemas dinámicos no-lineales, muchos investigadores están ahora comprometidos con el tema más amplio que es la complejidad, ya que podría afirmarse que el “caos” observado en los sistemas dinámicos es tan solo un subconjunto de la “nueva ciencia de la complejidad”, donde las invenciones de la naturaleza superan con mucho las invenciones del arte; en complejidad, sutileza y curiosidad de sus mecanismos (Ritter et al, 2000). Es ampliamente aceptado también por muchos científicos que los países y las personas que dominen la nueva ciencia de la complejidad se convertirán en superpotencias económicas, culturales y políticas en el transcurso de éste siglo (Lewin, 1992).


De la interacción de los sistemas dinámicos no-lineales, se produce un orden global emergente y de la interacción de sus componentes individuales, emerge una propiedad global que no es posible prever solamente de conocer las partes que lo componen. Esto significa que de la interacción de las especies en una comunidad, podría conferirle cierto grado de estabilidad al ecosistema y esto debe entenderse como una “propiedad emergente”.


Se piensa que las pautas globales observadas en la naturaleza, son un rasgo universal de todos los sistemas evolutivos, así como también de todos los sistemas complejos. Los sistemas complejos adaptativos, son buscadores de pautas interaccionan con el entorno y aprenden de la experiencia y como resultado tienen la capacidad de adaptación.


Es evidente que tenemos que concebir los ecosistemas y la misma climatología como engastadas en sistemas dinámicos complejos y eso proporciona una visión muy diferente del mundo en que vivimos (Glandsdorff y Prigogine, 1971).


Los científicos tienen mucho que aprender acerca de como las leyes fundamentales generan “la riqueza de manifestaciones del mundo que observamos”. Las estructuras complejas parecen exhibir umbrales que, cuando se los cruza, dan lugar a súbitos saltos en la complejidad, exhiben súbitos saltos en sus propiedades cuando crece el número de vínculos entre sus partes constituyentes (Ritter, 1996).


La no-linealidad será siempre la característica de la evolución de los fenómenos naturales como ENOS, donde largos periodos de estabilidad son interpolados con oscilaciones aparentemente aleatorias en épocas de inestabilidad. Las bifurcaciones catastróficas resultan en súbitas apariciones y desapariciones de atractores estáticos, ya sean periódicos o caóticos, y son la clase de transformaciones que mantienen los sistemas en evolución que van desde especies a sistemas ecológicos y climáticos (Ritter et al, 2000).


METODOLOGÍA: EFECTOS SOBRE LA ABUNDANCIA POBLACIONAL ATUNERA DE LOS EVENTOS ALEATORIOS CLIMÁTICOS DEL PACÍFICO ORIENTAL


Se aplica un modelo estocástico sencillo para tratar de encontrar el efecto que un ambiente aleatorio puede tener sobre la población de peces. El modelo de Pella y Tomlinson, es usado como un modelo determinista que considera un ambiente constante y estable. La suposición básica del modelo estocástico que aplica, con respecto a la población, donde la hipótesis se basa en la existencia de un valor de equilibrio, es decir se supone que la población varía con respecto a un nivel de equilibrio sin apartarse mucho de él. Parece ser que muchas especies de peces siguen tal comportamiento y en consecuencia, tenemos que suponer que las especies de los túnidos pelágicos también la siguen.


Se empieza por proponer que el cambio anual de la población puede ser representado por un proceso markoviano de primer orden, es decir un proceso estocástico en el que la posibilidad de la ocurrencia de un resultado en un experimento, depende solamente del resultado de un experimento inmediato anterior. Basado en lo anterior, podemos escribirlo en las siguientes bases; Walles (1975).



Siendo Pn el tamaño de la población en el año n; el tamaño de la población en el año n+1; b es un parámetro relacionado con la estabilidad de la población; E, es el valor de equilibro de la población; Gn es una función que representa la distribución de las variaciones de las condiciones ambiéntales por causas naturales; y Gw es otra función relacionada con la distribución de las variaciones del ambiente debidas a las descargas de desechos contaminantes.

Considerando que las zonas de estudio no sufren contaminación, puede ignorarse la función Gw y en ese caso, podemos considerarnos en la situación:



Para determinar la forma de la función f, se considera que el cambio total anual, está compuesto por un cambio determinístico y un cambio estocástico, es decir:



Bajo la suposición de que la población E de equilibrio existe, se considera lógico que:


resultará


o sea, que en una situación de sobrepoblación habrá menos alimento por individuo y una mayor competencia entre los individuos jóvenes y los de mayor edad, y se estimulará la depredación y el parasitismo se incrementará la probabilidad de aparición de epidemias y se presentará una disminución de recursos poblacionales. En consecuencia la población disminuirá de tamaño, tendiendo a regresar al valor de equilibrio, que se encuentra en un ambiente bastante estable. En forma similar, podemos decir que:


resultará


Apareciendo, otra vez la tendencia a regresar al valor de equilibrio E.

La forma más simple de cumplir con estas situaciones, es suponiendo que el cambio determinístico (ambiente estable) sea directamente proporcional a la diferencia entre el valor actual de la población y el valor de equilibrio. O sea


de manera que, en ambiente estables, el cambio anual de la población estaría determinado por:


Ahora, una vez más, se presenta el problema de la estabilidad del modelo.

Se considera el efecto de estabilidad, restringiendo el valor del parámetro b al intervalo , en la parte determinista y se expresa como




Por lo tanto, es fácil generalizar y escribir



Podemos entonces, decir que en ambientes estables, la población varía de acuerdo con la anterior solución.

Analizando dicha solución, podemos ver lo siguiente:


  1. si el efecto de la estabilidad ambiental b es cero, la solución es para toda n. Es decir la población permanece constante.


  1. si , entonces, y, en consecuencia


Resultando que:


Manteniéndose si : lo que significa que se acerca asintóticamente al equilibrio por debajo de sus valores. En cambio, si , se mantiene , acercándose a por arriba de estos valores.


  1. si b=1, Pn = E; para cualquier valor inicial , es decir, la población da un solo brinco, en un año, del valor al valor E y ahí se mantiene.

  2. si entonces , y se puede escribir como:



En este caso la solución se puede dividir en 2 partes, una para n par y otra para n impar y , respectivamente con entonces tendremos en ambos casos:



En ambos casos puede verse que



En el caso de que , las poblaciones generacionales impares serán mayores que E y las poblaciones pares seran menores que E.

El resultado es que la población oscila arriba y abajo del valor E, acercándose asintóticamente a él.

El caso en que es similar, con las poblaciones generacionales P pares arriba de E y las impares por debajo.


  1. si las formulas para n impar y n par, se convierten en




Es decir, la población oscila entre dos niveles constantes.


  1. si entonces y tanto las poblaciones de generaciones pares como las impares irán tomando valores absolutos cada vez mayores a medida que el tiempo crece, alejándose cada vez más del valor de equilibrio E. En ese caso



En resumen, con respecto a la estabilidad de las soluciones de la parte determinística del modelo de Wallis, resulta que:


  1. Solo en el caso (f), la solución resulta inestable.


  1. En los casos (b) y (d) la solución resulta asintóticamente estable; sin oscilaciones en el caso (b) y con oscilaciones en el caso (d).


  1. En el caso (e) hay estabilidad neutral; la población oscila sin amortiguarse. A este tipo de oscilaciones no amortiguadas y por lo tanto, mantenidas para siempre, Robert M. May (1973) los bautiza como “patológicamente estables”. Que es el mismo caso del modelo depredador-presa de Lotka y Volterra.


  1. Los casos restantes son de población constante.


Wallis, al restringirle valor de b al intervalo entre 0 y 1, impide que la población oscile en un ambiente estable y por consiguiente, cualquier oscilación resultante en una población va a ser causada únicamente por la parte estocástica del modelo. Con respecto a esta parte, se propone, que el cambio estocástico sea dado por:



Donde










MÉTODOS PARA EL ANÁLISIS DE SISTEMAS NO LINEALES


En años recientes, el estudio matemático de los sistemas dinámicos, ha mostrado que la solución de ecuaciones simples lineales puede exhibir comportamientos temporales y espaciales complicados. Existen muchos ejemplos de ecuaciones que manifiestan una gran variedad y rangos de comportamientos, que van de la forma simple periódica al comportamiento caótico. Un concepto que ha emergido de estos estudios es el de “atractor extraño”. Atractores simples tal como un sistema en equilibrio termodinámico (atractor puntual) o aquellos que decaen en estados periódicos (ciclos límite) han sido conocidos desde hace mucho tiempo.


Un atractor extraño tiene la propiedad de que el sistema decae o es atraído a un estado final, pero este estado no es periódico y es extremadamente complejo. De hecho es caótico y seudoaleatorio, apareciendo como la solución de un conjunto de ecuaciones deterministas. Es también altamente sensible a las condiciones iniciales. El objetivo del análisis experimental de la información es encontrar un patrón o estructura que modele los datos. La estructura misma puede no ser simple y obvia pero una vez encontrada, la información original adquiere una nueva dimensión de simplicidad.


En este trabajo analizaremos la información en series de tiempo para una sola variable (biomasa de la población de atún aleta amarilla) con las consideraciones de que la presencia de un atractor extraño, puede llevarnos a series de tiempo complicadas y de que dicho fenómeno puede ser descrito por ecuaciones no-lineales simples. La presencia de un atractor extraño, puede ser muy bien revelado de gráficas de espacio de fase. Si los datos están dados en intervalos cortos de tiempo y no tienen un componente de ruido significativo, entonces los gráficos de espacio de fase pueden ser construidos con componentes de la información y sus derivadas y entonces toda la información puede ser representada como una trayectoria en este espacio de fase.


El procedimiento será el de considerar espacios de fase de dimensión cada vez mayor, hasta que un incremento más de la fase no cambie la topología de la estructura observable. Una vez que el atractor extraño ha sido identificado puede ser cuantificado al calcular varias medidas como la de su dimensión y su exponente de Lyapunov (Ritter, et al., 1998).


El exponente de Lyapunov proporciona una medida de la tasa promedio de divergencia de las trayectorias en el espacio de fases de un atractor. Cualquier sistema que contenga al menos un exponente de Lyapunov positivo se define como caótico, sirviendo este exponente para caracterizar el tipo de atractor. Ordenando los exponentes de mayor a menor. Si todos los exponentes son negativos, el atractor es un punto. Si el mayor exponente es igual a cero y los demás negativos, el atractor es un ciclo límite estable. Si los dos primeros exponentes son igual a cero y los demás negativos, el atractor es un toro bidimensional. Si al menos un exponente es positivo, el atractor es extraño, indicando una divergencia exponencial de las trayectorias en el atractor, lo cual genera una extrema sensibilidad a las condiciones iniciales (Poveda, 1997). El inverso del exponente de Lyapunov es el límite de predictabilidad del comportamiento de largo plazo del sistema (Rodríguez, et al., 1989).


La dimensión es una medida de la complejidad de la trayectoria del espacio de fase. Para tener una medida exacta de la dimensión de un atractor es teóricamente necesario envolverlo en un espacio de dimensión de al menos 2d+1, donde d es la dimensión integral conteniendo al atractor. Hay varias formas de definir la dimensión de un atractor y la más simple es la “dimensión de capacidad”, que describe la geometría de la dimensión del atractor sin considerar que tan frecuente la trayectoria visita las localidades sobre el atractor.


La “dimensión de correlación” es una frontera inferior de la “dimensión de capacidad”, pero en la mayoría de los casos se aproximan ambos valores. El mayor obstáculo en el cálculo de la información fractal y topológica es la insuficiencia de los datos, sin embargo, pueden usarse las ecuaciones del modelo derivadas de la descomposición de valores singulares, para generar los datos necesarios para calcular la dimensión y otras propiedades del atractor, obteniendo una simplificación significativa para cuando las ecuaciones reflejan razonablemente la topología de la información.


Ruelle (1990) propone un tamaño de 10*(dimensión de correlación)/2, mientras que Essex y Neremberg (1991) sugieren otro de 2*(dimensión de correlación)*(dimensión de correlación+1), para calcular los puntos necesarios para la construcción del atractor. Podemos decir que las metodologías de análisis de información de sistemas no-lineales aún están muy lejos de ser una ciencia exacta, por lo que se proponen ciertos procedimientos generales a seguir para encontrar patrones o estructuras que modelen los datos y que nos puedan ayudar a descubrir fenómenos no-lineales en la información que manejemos.


Utilizaremos varios tipos de análisis estadísticos con este propósito, analizando 31 años de información para los años de 1967-1997, de la biomasa de atún aleta amarilla en el océano pacífico oriental, expresada en toneladas métricas, a fin de vislumbrar algunas de las manifestaciones ya señaladas. Se construyen “espacios de fase multidimencional”, “mapas de retorno” y “figuras de Poncairé”, donde la gráfica de los datos nos permiten presentar la información en diferentes formas incluyendo el graficado de cada valor contra su inmediato predecesor y gráficas de las diferentes derivadas de la información contra los valores originales para revelar la topología de la solución.


Debemos esperar que los sistemas “periódicos” exhibirán figuras cerradas, donde para situaciones más complicadas, estas se darán en regiones de dos o tres dimensiones y con estructuras poco definidas. Este mismo tipo de estructuras borrosas se dará también cuando el sistema sea cuasi-periódico para tiempos de largo plazo. Después de esto la información caótica aparecerá en la forma de un atractor con estructura de dimensión fraccional (fractal) menor de dos dimensiones, con repetidos estiramientos y plegamientos de las trayectorias causando que los puntos vecinos se separen, pero cuando los datos estén dominados por el ruido, estos no presentaran estructura alguna (Ritter, et al., 1998).


MODELOS DE SIMULACIÓN Y PRONÓSTICO PARA LAS RELACIONES ENOS-ATUN EN EL OCÉANO PACÍFICO ORIENTAL


Para identificar las relaciones atún-ENSO en el océano pacífico oriental se procedió a realizar el análisis gráfico de las capturas de atún y las biomasas calculadas del atún aleta amarilla, así como el análisis de clusters por años de las capturas de atún. Se practicó el análisis de componentes principales y de clusters a las capturas de atún para identificar el impacto de ENOS en las especies de atún. Se realizaron gráficas de espacio de fase de la biomasa de atún aleta amarilla, para identificar los patrones de comportamiento.


Para el análisis de la estabilidad del sistema, se calcularon por el método gráfico de Vandermeer (1972) los eigenvalores. De estos resultados se estimaron las razones óptimas de uso del recurso pesquero. Se calcularon el exponente de Lyapunov y la dimensión de capacidad y correlación, para identificar la presencia de caos, límite de predictabilidad y número de puntos suficientes para la reconstrucción del atractor (Poveda, 1997).


Para la simulación y pronóstico de la biomasa del atún se evaluaron los modelos de caminata aleatoria, tendencia lineal, promedio móvil simple de tres términos, alisamiento exponencial simple (alfa=0.9999) y ARIMA con todas las combinaciones posibles de cero a cuatro en los promedios móviles y autorregresión para la parte estacional y no estacional.


Utilizando el criterio de información de Akaike. Calculando para cada modelo la raíz cuadrada media del error, prueba de corridas excesivas arriba y debajo, prueba de corridas excesivas arriba y debajo de la mediana, prueba de Pierce para excesiva autocorrelación, prueba para diferencias medias de la primera y segunda mitad, y la prueba de diferencias en varianzas una red neuronal artificial simple, donde cada término en la serie de tiempo se supone que es dado por una superposición de los previos n términos, y el peso es determinado por el mejor ajuste de los datos existentes. La red aprende variando los pesos para minimizar el error.


En este sentido la red emula el camino de trabajo del cerebro. La no linealidad es introducida comprimiendo los datos de entrada usando una función sigmoidal con límites de valores en el rango -1 a 1. La función de compresión que usa es la tanh(x). La red solo tiene dos capas (entrada y salida) sin capas ocultas.

Con el modelo de redes neuronales ajustados se realizaron gráficas de espacio de fase para identificar el comportamiento del sistema a largo plazo.


ANALISIS DE COMPONENTES PRINCIPALES


El ordenamiento es un término usado para describir un conjunto de técnicas que permiten arreglar en relación a uno o más ejes las unidades de muestreo de un sistema tal que su posición relativa a los ejes y a cada otra provea la máxima información acerca de su similaridad. El propósito es, por inferencia, elucidar esos factores ambientales que puedan ser importantes para determinar la estructura del sistema. El objetivo del ordenamiento es simplificar y condensar juegos de datos masivos con la esperanza de que pueden emerger relaciones entre ellos. El ordenamiento realiza una transformación de una matriz de S x N y la reduce a p<S x N, esta reducción es referida como una reducción de dimensionalidad.


Se pueden distinguir dos métodos de ordenamiento el directo y el indirecto. En el directo las unidades de muestreo son posicionadas en un gradiente ambiental que es seleccionado de antemano como base para el estudio. En el ordenamiento indirecto las unidades de muestreo son arregladas dentro de un sistema de coordenadas reducido basado en sus disimilaridades (o similaridades) en composición de especies. Así, las unidades de muestreo son relacionadas vía ejes sintéticos o gradientes (Ludwing and Reynolds, 1988).


El análisis de componentes principales es probablemente el más conocido de los modelos multivariados y es ciertamente uno de los más simples caminos para el estudio de la variación multivariada. Los objetivos del análisis de componentes principales deben incluir uno o más de los siguientes puntos (Hernández, 2000):



No todos estos objetivos serán de igual importancia para un particular estudio, y algunos estarán ausentes. El análisis de componentes principales es descrito en detalle por Kendall, Quenouille y Seal. En esencia consiste en la extracción de los eigenvalores y eigenvectores de la matriz de coeficientes de correlación de las variables originales. Los eigenvalores y eigenvectores resultantes definen los componentes de la variabilidad total descrita por las variables originales como una función lineal de esas variables con coeficientes seleccionados tales que las funciones sean matemáticamente independiente u ortogonales, una de otra.


El Análisis de Componentes Principales tiene varias limitaciones principalmente cuando tratamos con juegos de datos que tienen una fuerte no linealidad. El método de Análisis de Correspondencia es una técnica que algunas veces es más robusta para este tipo de datos con no linealidad. Existen otros métodos

no-lineales, entre ellos están el ordenamiento polinomial y el de escalamiento multidimensional no métrico. Un ordenamiento con análisis de componentes principales o análisis de correspondencia donde las especies se relacionan no linealmente, produce un patrón curveado distintivo llamado arco, usualmente observado cuando las muestras son tomadas de un amplio gradiente ambiental, con una alta diversidad beta.


El problema de la no linealidad es una seria limitación para algunos de los métodos de ordenamiento. Existen algunas soluciones a este problema, entre ellas esta usar un método de ordenamiento que remueva el arco de las unidades de muestreo en casos donde una no linealidad moderada de las especies causa un patrón de arco o herradura (ordenamiento polinomial) o bien usar un método de ordenamiento que ordene las unidades de muestreo en casos donde la fuerte no linealidad de las especies cause patrones en espiral o vueltas (escalamiento multidimensional no métrico).


REDES NEURONALES


En series de tiempo deseamos predecir observaciones futuras en función de las observaciones pasadas. Un punto clave de las redes neuronales (RN) es que la función no necesita ser lineal, así que las RN pueden considerarse como un modelo sintético de autoregresión no lineal. En la Figura 1 se muestra una típica estructura neuronal aplicada al pronóstico de series de tiempo, donde hay una entrada constante, que por conveniencia puede tomarse como la unidad.


Cada punto esta conectado a las dos neuronas y se interconectan a la salida, así también una conexión directa de las constantes de entrada a la función de salida. La “fuerza” de conexión esta medida por una cantidad denominada “peso”. Para cada neurona se calcula un valor numérico como sigue: primero, se encuentra una función lineal de entrada, digamos Swijyi donde wij denota peso de la conexión entre la yi-ava entrada y la j-ava neurona.


El valor de entrada de la figura es y1=1; y2=xt-1 y3=xt-12. La suma lineal de estas (vj), se transforma aplicando una función llamada “función de activación”, que típicamente no es lineal. Una función comúnmente utilizada en la función logística estandarizada, que da valores en el rango de (0,1).


En la Figura 6.2 se dan dos valores z1 y z2 para las dos neuronas. Como zj esta entre (0,1) los datos originales hay que transformarlos para que queden en ese rango.





Figura 1. Estructura de una red neuronal (RN) típica para pronóstico de series de tiempo con una capa oculta y dos neuronas: la salida (el pronóstico) depende de los valores de retraso a los tiempos t-1 y t-12 (Modificado de Faraway and Chatfield, 1998).


Para un modelo de RN con una capa oculta, la ecuación de predicción para calcular el pronóstico de xt de la salida (usando observaciones pasadas, seleccionadas como entrada) puede escribirse de la forma


donde Wch denota el peso para la conexión entre las constantes de entrada y las neuronas ocultas y Wco es el peso de la conexión directa entre la constante de entrada y la de salida. Wih y Who son los pesos para las otras conexiones entre las entradas y las neuronas ocultas y entre las neuronas y la salida respectivamente. y son las funciones de activación usadas en la capa oculta y la de salida respectivamente.


Se usa la notación RN(j1,…,jk;h) para denotar RN con entradas de retraso j1,…,jk y con h neuronas (o unidades) en la capa oculta.


Los pesos usados en el modelo de RN se estiman de los datos, minimizando la suma de cuadrados de los errores del pronóstico dentro de la muestra, , sobre la primera parte de la serie de tiempo, llamado en la jerga de RN como proceso de “aprendizaje”. Esto no es una tarea fácil, ya que el número de pesos puede ser grande y la función objetivo puede tener mínimos locales. Existen varios algoritmos propuestos, pero también se observa que un buen procedimiento, puede tomar varios cientos de iteraciones para converger y todavía puede presentarse que tienda a converger a un mínimo local. La literatura de RN describe el procedimiento iterativo de estimación como un algoritmo de “aprendizaje” que “aprende con prueba y error”.


MODELO ARIMA


El modelo ARIMA representa un proceso estocástico que contiene las estructuras de correlación de una serie de tiempo discreta y estacionaria (Box y Jenkins, 1976). La estacionaridad de la serie de tiempo implica que la media y la varianza del proceso son constantes en el tiempo.


En este trabajo se usa el modelo ARIMA multiplicativo estacional del orden (p,d,q)(P,D,Q)8, donde p es el orden del proceso autorregresivo, d es el grado de diferenciación, q es el orden del proceso de promedios móviles para el componente no estacional; P, D y Q son equivalentes a p, d, y q para el componente estacional. El modelo es expresado con la siguiente ecuación general (Abraham y Ledolter, 1983):


donde es la biomasa transformada por la potencia de para la varianza estacionaria al año t; es la media de la serie de tiempo, B es el operador de retrazo, ; es el parámetro autorregresivo no estacional de orden p; es el parámetro(s) autorregresivo estacional de orden P; es el factor de diferenciación de orden 0 y grado d para lograr la estacionaridad no estacional (tendencia); es el factor(es) de diferenciación de orden 8 (8 años) y de grado D para estacionaridad estacional; es el parámetro(s) de promedio móvil estacional de orden Q: y es el ruido blanco (variable aleatoria) al tiempo t.


El modelo anterior expresa la biomasa anual como una combinación lineal de la biomasa en el pasado (componente autorregresivo), más el valor presente y pasado del término de ruido (componente de promedio móvil) para ambos componentes; estacional y no estacional de la serie de tiempo.


El procedimiento del modelo ARIMA sigue los pasos de identificación, estimación, validación y uso del modelo (Box y Jenkins, 1976; Abraham y Ledolter, 1983; Makridakis y Wheelwright, 1994).


El valor de para la varianza estacionaria es identificado usando el método descrito por Box y Cox (1964). Se examina la función de autocorrelación (FAC) y la función parcial de autocorrelación (FPAC) de la serie de tiempo original para identificar el orden de la diferenciación no estacional (valor d) y el orden de la diferenciación estacional (valor D) para llegar a la estacionaridad estacional y no estacional.



Figura 2. Marco teórico de los métodos de Box-Jenkins (Modificado de Hernández, 2000).


Tanto la FAC como la FPAC de la serie de tiempo estacionaria es examinada para identificar el modelo tentativo de ARIMA a utilizar. En general, el modelo autorregresivo está caracterizado por una tendencia exponencial u oscilatoria manifestada en la FAC y los picos en la FPAC a los diferentes retrasos considerados, mientras que lo opuesto sirve para caracterizar a los modelos de promedios móviles (Abraham y Ledolter, 1983).




Figura 3. Método y fines de los modelos ARIMA (Modificado de Hernández, 2000).


Después de la identificación del modelo tentativo a utilizar, se calculan los parámetros de los modelos para el método de máxima probabilidad. El modelo tentativo es checado para su significancia, invertibilidad y suficiencia. Los parámetros estimados son probados por su significancia estadística, examinando los coeficientes de correlación y eliminando los que no sean significativos.


La invertibilidad es determinada por la raíz cuadrada de cada factor en el modelo. Todas la raíces deben quedar fuera de un círculo unitario. Si uno de los factores no es invertible, entonces el modelo es ajustado. El ajuste apropiado queda manifestado por el tipo de factor que no sea invertible. Como prueba final se considera que los residuales del modelo deberán manifestar valores aleatorios (ruido blanco), lo que hace que el modelo como suficiente. Si existe un patrón expresado en los residuales FAC y/o FPAC, esto quiere decir que se debe incluir un parámetro adicional en el modelo, González (1986).



ANÁLISIS GRÁFICO DEL COMPORTAMIENTO DE LA DINÁMICA DE UN SISTEMA POBLACIONAL


Después de que la distribución estable de edades en una población ha sido obtenida, la representación proporcional de cada grupo de edad (x) permanece constante, y donde el número o biomasa total de la población puede permanecer constante, o estar creciendo o diminuyendo. Esto es:


Donde M es la matriz comunitaria y es la razón finita de incremento. Después de que la distribución estable de edades ha sido alcanzado, toma el lugar de la matriz de proyección.


Cualquier población que ha alcanzado una distribución estable de edades, al tener una matriz comunitaria de proyección con elementos constantes se comportará con un crecimiento exponencial.


La repetida aplicación de (donde es la inversa de la matriz diagonal de sobrevivencia) al vector n eventualmente alcanzará un punto en que la proporción relativa de los elementos en el vector n permanecerán constantes y la distribución de edades es constante. Sin embargo la adición de significa que la población alcanzará una densidad constante K como en la ecuación logística. En este punto la distribución estable de edades alcanzará una “distribución estacionaria de edades”. Los eigenvalores de la matriz M son igual al antilogaritmo de la razón intrínseca de incremento natural .


Cuando , es igual a uno ya que la población está en estado estacionario y la población como un todo crecerá de acuerdo a la ecuación logística. Así la población alcanzará una distribución estable de edades cuando todos los elementos de Q sean iguales al eigenvalor dominante de la matriz M.


En un ambiente con un comportamiento estocástico con fluctuaciones climáticas aleatorias medidas por su varianza ambiental , y para pequeñas fluctuaciones de la población medidas por su matriz comunitaria, donde el tiempo para regresar a los valores de equilibrio es medido por la parte real del máximo eigenvalor negativo , la estabilidad biológica es dada por . Pero si pasa que es menor que , la población sufrirá grandes fluctuaciones con una tendencia a su extinción y por esta razón la estabilidad en un ecosistema estará dada por el balance de la estabilidad biológica dentro del ecosistema y la magnitud de las fluctuaciones ambientales (May, 1973).


Una forma para analizar este comportamiento dinámico consiste en graficar la biomasa de la población en el tiempo t versus t+1, y analizar los puntos de intersección con una línea recta a 45º que son los niveles de equilibrio o puntos locales de máxima capacidad de carga donde la pendiente en ese punto de intersección estará dándonos el eigenvalor , del cual podemos decir que si toma valores menores que –1 el sistema tiene un comportamiento oscilatorio inestable; si es más grande que –1 pero menor que 0, el sistema es oscilatorio pero estable; si el eigenvalor esta entre 0 y +1 el sistema es asintóticamente estable; y si el eigenvalor es más grande que +1, el sistema es asintóticamente inestable y los eigenvalores y la tasa intrínseca de crecimiento (r) están relacionados por la expresión donde el eigenvalor de la matriz comunitaria es igual al antilogaritmo de la razón intrínseca de incremento natural (r) (Vandeermer, 1981).



RESULTADOS Y DISCUSIONES


El atún aleta amarilla es la especie con mayor porcentaje de capturas acumuladas en este periodo analizado (62% de las capturas totales acumuladas); en orden descendente siguen el barrilete (30.3%), patudo (4.5 %), bonito (1.3), atún aleta azul (1.1%), barrilete negro (0.045%) y con la menor captura acumulada el albacora (0.035%).


Tanto el análisis de componentes principales como el análisis de clusters de las capturas de atún, identifican dos grupos de especies el primero formado por el bonito, albacora y atún aleta azul y el segundo formado por el barrilete, patudo, barrilete negro y atún aleta amarilla.


Se observa que la biomasa del atún aleta amarilla presenta valores bajos en los años cuando se presenta ENOS y las capturas del albacora presentan sus valores más altos cuando se presenta ENOS, a excepción de los dos ENOS clasificados como fuertes (1982-83 y 1997-98) donde los mayores valores de captura de esta especie se presentaron un año después.


La clasificación por años utilizando la información sobre las capturas de atún, identifica los años donde se presenta ENOS en los clusters (a, b, y c) y los años 1976, 1982 y 1997 se unen a los grupos a distancias mayores, 0.0039, 0017 y 0.0022 respectivamente. Esto permite suponer que el comportamiento de la pesca, así como de la biomasa de los atunes en el Pacífico, está determinada por la presencia o ausencia de ENOS.


Considerando que la biomasa de los atunes aleta amarilla y albacora, muestran un comportamiento inverso con relación a la presencia de ENOS, que estas especies pertenecen a diferente grupo en el análisis de cluster por especies y que el análisis de cluster por años de las capturas de atunes agrupa la mayoría de los años donde se presentó ENOS; podemos decir que ENOS explica el 41.59% (primer componente) de la variabilidad en el comportamiento de las biomasas de los atunes en el océano pacífico oriental, e impacta la biomasa del bonito, albacora y atún aleta azul de manera positiva y la de atún aleta amarilla, barrilete y patudo de manera negativa. Tomando en cuenta las capturas acumuladas de estas especies, este fenómeno afecta de manera negativa al 96.845% de las capturas de atunes en el océano Pacífico oriental.


El análisis gráfico de t versus t+1 de la biomasa de atún aleta amarilla mostró en un periodo de 31 años (1967-1997) 11 intersecciones con la línea de equilibrio (línea a 45º). Los ángulos de estas líneas de intersección permiten suponer que el sistema tiene un comportamiento predominante que va del oscilatorio inestable al caótico. A excepción del año de 1971 que presentó un comportamiento asintótico inestable, Ritter et al (2004).


Las intersecciones con la línea a 45º se presentan en los años donde la biomasa del atún muestra puntos de inflexión y los puntos de inflexión tipo sima están determinados por el decremento que presenta la población por el calentamiento oceánico, y los puntos de inflexión tipo valle están determinados por el incremento que presenta la población después de un calentamiento oceánico. Como se puede observar, las intersecciones en la línea de 45º se dan antes y después de la presencia de eventos de ENOS.


De las razones óptimas de uso del recurso atún aleta amarilla calculadas, se puede observar que en los años inmediatos que anteceden a los ENOS presentan razones negativas, lo que nos indica que es en estos años cuando el recurso disminuye, por lo que en estos tiempos el recurso no debería de extraerse a razones altas, pero inmediatamente después de la presencia de ENOS las razones de uso del recurso son positivas y considerablemente altas (del 0.13 al 0.93), que permitiría un mayor uso del recurso.


Cabe señalar que es en los años en los que el recurso presenta un comportamiento caótico, en los que también se presentan las razones positivas de su uso y son proporcionales a la cercanía del ángulo de intersección al valor de 90º. En la gráfica de espacio de fase bidimensional de la biomasa del atún aleta amarilla se observa un comportamiento de figuras cerradas, mostrando giros de periodicidad variable en sentido contrario al movimiento de las manecillas del reloj, y en la gráfica de espacio de fase tridimensional, se puede observar además un giro en el tercer eje en el mismo sentido. El valor de la dimensión de capacidad para esta población es de 0.953 +- 1.199 y el de la dimensión de correlación de 7.398 +- 7.398, lo que indica que se requieren de 37 puntos (Ruelle, 1990) a 124 puntos (Neremberg, 1991) para la reconstrucción del atractor. El exponente de Lyapunov calculado para la biomasa del atún aleta amarilla es de 0.120, lo que nos sugiere la existencias de caos (Poveda, 1997) en el comportamiento de esta población, que se corrobora con los resultados obtenidos por el método gráfico de Vandeermer y se estima el límite de predictabilidad para esta variable en 8 años.


El modelo ARIMA (4,0,3)(4,0,3)8 es el que mejor se ajusta a los datos observados de la biomasa del atún aleta amarilla. La biomasa pronosticada para un periodo de 10 años, utilizando dos series de diferente longitud (1967-1994 y 1967-1997), muestra un comportamiento que permite identificar los ENOS que se presentaron en 1997-1998 y 2002-2003, además de pronosticar la presencia de un ENOS para el año de 2005.


Del análisis gráfico del ángulo de las intersecciones en la línea a 45º de la biomasa pronosticada de esta especie, se observa que el comportamiento de esta población será parecido al mostrado por los datos observados, manifestándose como oscilatorio inestable y caótico, a excepción del año de 2003 que será asintótico inestable.


El modelo de redes neuronales ajustado a la serie de datos de la biomasa del atún aleta amarilla, describe un atractor tipo toroide, con una periodicidad de 8 años, y cabe mencionar que es el mismo periodo identificado por el modelo ARIMA. Podemos decir que los modelos ajustados identifican acertadamente la estructura del sistema, y que el modelo ARIMA es el que permite pronosticar con mayor éxito dicha estructura.


La identificación del comportamiento de la dinámica de la biomasa del atún aleta amarilla y el cálculo de la razón de uso de este recurso, permiten proponer las estrategias de manejo de esta especie para el océano Pacífico oriental.