(Home page)
Julio 2016

PROYECTO SYNCO - PRÁCTICA CIBERNÉTICA EN EL GOBIERNO


Stafford Beer

DIRECCIÓN INFORMÁTICA CORFO

BIBLIOTECA CORFO - 20224

1. PRÁCTICA CIBERNÉTICA EN EL GOBIERNO
Presentación
2. LA CIBERNÉTICA Y LA LIBERTAD
3. EL CONTROL EN TIEMPO REAL
4. EL DISEÑO DE SISTEMAS Y LA INGENIERÍA DE VARIEDAD
5. ATRAVESANDO LA BARRERA DEL TIEMPO: CYBERSTRIDE
6. EL PODER DE LA PRONOSTICACIÓN
7. UNA MÁQUINA DE DECISIONES: LA SALA DE OPERACIONES
8. LA INCLUSIÓN
Figuras 1-8
Referencias

Parte 5. ATRAVESANDO LA BARRERA DEL TIEMPO: CYBERSTRIDE


El problema más difícil, que corresponde al concepto estadístico más sofisticado, es el que tiene relación con la posible tendencia que pueda señalar cada una de las nuevas cifras diarias. Si se pretende, ejercer un control de la economía en tiempo real, el gobierno no puede esperar informarse si se ha re­gistrado algún cambio significativo en un determinado índice taxonómico, por más que este sistema sea desde ya muy preferible al sistema tradicional de cuantizar datos estadísticos de rutina, en que la detección de los cambios significativos depende, primero de la perspicacia y, luego, del criterio de quienquiera se encargue de vigilar los resultados. No, es mucho más que eso: Enfrentamos el problema de traspasar la barrera del tiempo. Es que una cifra de ayer, y el breve ejercicio en que tomó parte, pueden indicamos lo que ocurrirá mañana o la próxima semana (si no intervenimos)?. Este es el problema de la pronosticación a corto plazo, que es un terreno en el que se ha progresado mucho en años recientes.

Permítanme volver una vez más a los hechos relacionados con el trabajo en Chile. Antes de terminar el año 1971, ya había diseñado una especificación para el programa de computación para manejar los índices taxonómicos que recibían insumos de actualidad a diario, y había pasado a manos del equipo de consultores en investigación de operaciones que había sido comisionado para escribir los programas en Londres. Estudiábamos entonces el problema de la pronosticación a corto plazo, cuando el equipo de Londres encontró un trabajo novísimo en el Operational Research Quarterly, que acababa de aparecer. Sus autores, Harrison y Stevens evidentemente habían logrado un gran avance en el campo de la pronosticación a corto plazo (*). Hasta entonces nosotros habíamos estado hablando en términos de técnicas Cusum (suma cumulativa), considerándolas las mejores disponibles para nuestro objeto. Las técnicas Cusum estaban asociadas desde ya con el primero de los autores mencionados quien había defendido sus méritos durante muchos años. Es por eso que nos llamó la atención el hecho de que este novedoso desarrollo proviniera de él. La potencia innegable del método (suponiendo que funcionara, naturalmente), y la elegancia de la demostración matemática en que se apoyaba el nuevo enfoque, nos llevaron a arriesgarnos con él. Fue una decisión notable. El equipo de Londres preparó una serie provisoria de programas en que incluyeron el enfoque Harrison-Stevens, y, por increíble que parezca, ya estaban en marcha en Santiago en marzo de 1972, en la fecha fijada para el término de la primera fase de las operaciones que mencioné más atrás. Entre tanto, el equipo procedió a elaborar la versión definitiva entregándola al equipo chileno algún tiempo después, de modo que en noviembre de 1972, la serle se encontraba terminada y puesta en marcha por los científicos chilenos. Durante ese lapso y a medida que crecía el sistema, se estaba adquiriendo experiencia en el uso práctico de estas complicadísimas series de programas, que eran cada vez mas sofisticadas. Pero aunque estos sucesos han sido de vital importancia, su publicación deberá esperar hasta que los hombres que los hicieron posibles los den a conocer en algún trabajo más técnico que éste.

Esta serie de programas de computación, llamado Cyberstride, es el rasgo esencial del sistema de filtración que logra amortiguar la variedad en la medida requerida, y que traspasa la barrera del tiempo que mencioné más atrás. Insume las cifras de actualidad día a día; comprueba su integridad de diversas maneras; computa los índices triples; adopta juicios estadísticos sobre los índices taxonómicos que he descrito. Después de eso, usando las técnicas Harrison-Stevens, realmente hace gala de destreza.

Cuando se computa un nuevo valor para cualquier índice, el Cyberstride lo observa en el contexto de la historia reciente de ese índice (Ilustración N° 7). El punto nuevo podría representar cualquiera de los cuatro resultados, o sea, la ausencia de cambio o una transiente (ni una ni otra interesan al administrador), o un cambio de pendiente o una función -escalón (ambos de los cuales le interesan mucho).

Ilustración N° 7).



Aplicando ­la teoría estadística bayesiana, el programa calcula la probabilidad posterior de cada uno de estos cuatro resultados, con respecto a cada índice y por cada día. El programa es increíblemente sensible a estos cambios, reconociéndolos mucho antes de lo que el cerebro humano tardaría en formular un juicio. En términos cibernéticos ( y tal como sostuvieran Harrison y Stevens), el sistema es auto-adaptivo; su sensibilidad aumenta cada vez que aumenta la duda, cosa que sucede cada vez que aparece un valor-índice aparentemente fuera de lo corriente. Mas aún, en lugar de producir pronósticos consistentes de un solo numero ( y quién puede predecir el futuro con tanta precisión?), produce una distribución paramétrica conjunta que expresa la duda inherente en toda pronosticación.

De modo que es esto a lo que me refería al hablar de las computadoras como máquinas cuasi-inteligentes. El Cyberstride desecha el enorme componente de variedad que no tiene sentido, parque representa una fluctuación al azar. Simultáneamente está alerta a los cambios significativos, enfocándolos analíticamente, y es capaz de calcular lo que ocurrirá posteriormente basándose en ese análisis, El único problema que tuvimos con el Cyberstride, y éste fue muy grave, fue el de calibrarlo en términos de estas probabilidades posteriores. De qué grado de sensibilidad debería dotarse a este mecanismo? Es evidente que quizá podría desechar más de lo conveniente o sobre-excitarse por demasiado poco. La sub-rutina de "sintonización" que fija esos límites de excitación, que son tan semejantes a los llamados límites fisiológicos de variación de cualquier homeostato, fue la gran hazaña de los científicos chilenos que trabajaron en el Cyberstride.

La ingeniería de variedad está completa en lo que respecta al nivel más bajo de recursividad que es la empresa misma. Hubiera sido ridículo presentar al Ministro de Economía todo el surtido de índices fluctuantes; incluso, hubiera sido ridículo informarle de los movimientos más significativos de la molienda de piedra caliza en una planta de cemento en el Norte de Chile. Absurdo? Sí, pero también peligrosamente significativo. Estoy seguro que ustedes recuerdan la discusión sobre la autonomía y el exceso de centralización. Lo que sucede en Chile es lo siguiente: Los resultados de la aplicación diaria del Cyberstride a los nuevos insumos que cuantifican los flujogramas icónicos, se retroalimentan directamente a las administraciones interesadas. Ellas son responsables de tomar medidas al recibir las advertencias que generan las máquinas cuasi-inteligentes. El único ser humano que recibe información respecto de este proceso de computación extraordinariamente complejo es el administrador responsable y, a mi juicio, este hecho reviste una importancia muy considerable.

Ustedes se preguntarán, pero y qué hay de los demás niveles de recursividad? El administrador de la empresa ya está suficientemente bien servido con todo esto --muy bien servido-- puesto que el puede inyectar en la rutina cualquier serie de índices que quiera examinar, y recibirá las advertencias del caso, cuando estén disponibles, pudiendo entre tanto confiar plenamente en que la ausencia de advertencias significa que todas las operaciones o actividades que vigila el Cyberstride, están fluctuando dentro de los limites fisiológicos de la variación al azar. Pero, y qué hay del Comité Sectorial, la rama industrial, y el propio Ministro de Economía? Estos son niveles de recursividad superiores --cómo se les mantendrá informados?

Aquí viene el golpe de gracia del cibernético en su papel de ingeniero de variedad. Todos los sistemas viables están contenidos en sistemas viables. Este es el principio de la recursividad; el modelo es siempre el mismo. Por lo tanto es fácil ver lo que debe hacerse a continuación. Al nivel sectorial hay que “agregar” las representaciones icónicas, llamadas flujogramas cuantificados; hay que agregarlas nuevamente al nivel de la rama industrial, y agregarlas, finalmente, al nivel industrial total. Los cuantificadores (actualidades, capabilidades y potencialidades) también hay que agregarlos, pero no promediándolos como era la practica tradicional, sino que en términos de modelos nuevos de investigación operacional (imperfectos pero eficaces) al nivel de recursividad que sea del caso. Así, la información sin elaborar --pero procesada rigurosamente por los índices atómicos y el Cyberstride, que produce excepciones que conoce exclusivamente el administrador responsable-- no pasa por el nivel de recursividad atómico, y constituye materia prima para un nivel de agregación molecular a un nivel superior. Ahí los datos pierden su identidad, fundiéndose (pero no por promediación, sino que por modelación) en nuevos índices moleculares.

Pero a pesar de que estos nuevos índices pierden una gran cantidad de variedad en el proceso de agregación molecular, ellos han adquirido variedad por la sola amalgamación de tantas empresas. Como procederemos para manejar esta nueva variedad según lo requerido? Pues veamos. Ella está representada por índices triples, todos los cuales operan entre cero y uno. De este modo, aunque cambia el nivel de recursividad, y aunque el índice atómico se convierte en un índice molecular, la serie de programas Cyberstride sigue invariable. Todo el proceso que he descrito comienza de nuevo. En esta ocasión, nuevamente, la información excepcional se retroalimenta a su propio nivel de recursividad, sea sectorial, sea de una rama, o sea el del ministro.

Vuelvan conmigo por última vea a la molesta controversia sobre la autonomía. Yo considero todo este proyecto de trabajo como un saludo de clarines a la libertad --pero a la libertad efectiva-- Se ha sostenido que el grado de autonomía, y su complemento, el grado de centralización, son ambos funciones computables de la viabilidad. Yo adhiero a esta opinión. Se asegura el grado máximo de autonomía compatible con la organización si se separan los niveles de recursividad, y se defiende, dentro de esos niveles, la independencia de cada uno de los homeostatos, que habiendo sido diseñados individualmente, van ensamblados. Pero resta un problema. Qué ocurre cuando, por un motivo cualquiera, el homeostado apropiado al nivel de recursividad que corresponda, NO FUNCIONA?

Seguramente son muchas las libertades que se han perdido porque los que tuvieron el poder, temieron que los sistemas subalternos no cumplieran su misión. Y si no es así, esta posibilidad es una buena excusa para la tiranía. Este es un problema clásico intransigente, pero ahora podemos resolverlo fácilmente si conservamos nuestro buen criterio cibernético. Se supone que una unidad autónoma reacciona a cualquier advertencia de excepción adversa que reciba del Cyberstride. Cuánto tarda en hacerlo y cuánto importa? Las respuestas a ambas preguntas variarán considerablemente. En nuestro trabajo hemos incluido un requisito en la modelación por investigación operacional para evaluar la posible tasa de reacción al cambio, y la relativa importancia de tal cambio para el sistema modelado, considerando cada uno de los indicadores. Cuando la computadora emite un parte de excepción a un administrador cualquiera que sea el nivel de recursividad, ella computa un tiempo de procesamiento aceptable para el mensaje, que es una función del posible tiempo de reacción y de su importancia, y enseguida pone en marcha un cronómetro. Si nuestra máquina cuasi-inteligente comprueba que no se ha subsanado el problema en el plazo fijado, quiebra la autonomía y despacha su advertencia al nivel de recursividad inmediatamente superior (informándole a la vez al administrador responsable de que ha tomado esta medida).

Estas señales especiales son de una clase distinta a las señales administrativas de rutina. Las llamamos "algedónicas". El termino significa dolor-y-placer, y fue el trabajo en neuro-cibernética el que me enseñó esta respuesta. Nosotros confiamos en que los órganos de nuestros cuerpos cumplan sus funciones, pero si llegan a fallar recibimos una señal especial, que se transmite por vías neurales, especialmente adaptadas, hasta entregar la información a nuestra atención consciente. El mecanismo es precautorio. Es evidente que constituye una amenaza a la autonomía, pero, al igual que el ser humano, el ente político no puede correr un riesgo de inacción autonómica. Y recuerden que este procedimiento no es subrepticio. Los factores de atraso se discuten con los administradores responsables, y se les informa si se transmite la señal algedónica hacia otro nivel. Es bien posible que ellos se sientan aliviados al saber que se ha enviado la señal, si el problema parece escapar de su control.

De esta manera, tal como en el caso del cuerpo vivo, una señal irrumpirá automáticamente para anunciar un dolor particular hasta llegar al nivel donde se pueda atenderlo. (Ilustración N* 8). Porque si el grupo administrativo que recibe la señal no entra en acción dentro del tiempo de acción que le es propio, la señal seguirá hasta el nivel inmediatamente superior. Es así como la señal consigue que un problema relacionado con aquella chancadora de piedra caliza en la planta de cemento del Norte de Chile llegue a la atención del Consejo Económico del Presidente. Esperamos que esto nunca suceda, pero sería sorprendente que jamás llegaran hasta allí pedidos de auxilio provenientes del nivel sectorial.

Ilustración N* 8).



(*) P.J. Harrison and C.R. Stevens, "Un enfoque bayesiano a la pronosticación a corto plazo”, Operational Research Quarterly, Vol. 22, Nº 4, Diciembre, 1971.

Continuará parte 6. EL PODER DE LA PRONOSTICACIÓN







(Volver a página inicial)