Artículo de Revista Global 25

Los sistemas no lineales: el objeto de estudio fundamental de la Complejidad

En este artículo se aborda el comportamiento de los sistemas no lineales como el principal objetivo de estudio de la complejidad. Esta disciplina estudia la emergencia, desarrollo y transformación de los sistemas no lineales. El autor se fundamenta en las estructuras disipativas, desarrolladas por Prigogine, en el fenómeno de la autoorganización, las nociones de entropía, irreversibilidad y probabilidad de los procesos termodinámicos. Se establece una posible diferencia entre el caos y complejidad. Finalmente, se analiza el concepto de criticalidad autoorganizada.

Los sistemas no lineales: el objeto de estudio fundamental de la Complejidad

La Física nos dice que en un sistema lineal el todo es, en general, igual a la suma de sus partes; por ende, la suma de un conjunto de causas produce la correspondiente suma de efectos. La aplicación de los métodos lineales en los últimos tres siglos nos ha imposibilitado penetrar en las leyes de la naturaleza con más precisión y universalidad, pues ya es un axioma que los sistemas reales casi siempre se vuelven no lineales en algún momento de su desarrollo, y, como lo ilustran Davies y Gribbin (1995), cuando la no linealidad crece hasta hacerse importante, ya no es viable utilizar el análisis clásico, porque ahora en el “todo” hay propiedades que no están presentes en ningunas de las partes por separado (Morin 1997).

La Complejidad es la ciencia que estudia la emergencia, desarrollo y transformación de los fenómenos de comportamiento no lineal, especialmente el comportamiento aperiódico determinista. En este sentido, describe las relaciones de conectividad (simetría); de diferenciación entre las partes de dicho fenómeno (caos, libertad, entropía, variedad, heterogeneidad), las relaciones entre dichas partes y el fenómeno, y entre este y el entorno. Dichas relaciones no son necesariamente evidentes. Estudia sus principios, reglas y patrones dinámicos. Estos fenómenos complejos emergen, se desarrollan, se mantienen y se transforman a través de una dinámica que retroactúa sobre sí misma, denominada autoorganización. La emergencia de propiedades, estructuras, comportamientos y sistemas completamente diferentes a los elementos que constituyen la matriz que los originaron está fundamentalmente caracterizada por la novedad, la creatividad, lo inesperado: no es posible determinar cuándo y dónde se producirá algún fenómeno emergente.

Una característica de la no linealidad es el fenómeno de la autoorganización, que es la dinámica o tendencia que aparentemente exhiben los sistemas complejos de emerger, de venir a la existencia por ellos mismos o de reorganizarse ellos mismos en nuevas formas o patrones, producir orden. Se dice “aparentemente” porque la palabra “auto” da la impresión inadecuada de que dichos sistemas se crean ellos mismos sin interacción con su entorno o en oposición al mismo. La autoorganización ocurre a través de la interacción con el entorno, del desequilibrio de las partes del sistema.

Estructuras disipativas

La no linealidad se refiere a relaciones no proporcionales entre dos o más variables, es decir, relaciones de carácter exponencial, como el crecimiento de la población, el funcionamiento del transito vial, etc. En este escenario, los esquemas de relación son estocásticos (probabilísticos). La estocasticidad articula tanto el azar como la causalidad (Hernández 1997: 5-8) Los fenómenos no lineales también incluyen las nociones estudiadas por la dinámica de sistema, conocidas como interacción, retroalimentación, discontinuidad e histéresis, respectivamente.

La interacción se mide por el grado en el que un factor varía producto de los cambios ocurridos en otros factores. La interacción amerita del uso de modelos, y de diseños experimentales (análisis de varianza) para ser puestos en evidencia en una primera aproximación.

La retroalimentación (feedback) se refiere a que la causalidad no esta constreñida a un lugar y tiempo específicos, pues se articula a la totalidad como una especie de red multicausal. La dinámica retroactiva manifiesta la relación de algunos de los efectos de un proceso con su origen o con un estado precedente, implicando cierta modificación de dicho proceso, y quizá constituya una de las mayores dificultades para el estudio de los sistemas vivos, ecológicos y medioambientales (también véase Morin 1997).

La discontinuidad es la ruptura o cambio en el comportamiento del sistema producto de un cambio relativamente pequeño en alguna otra variable. La discontinuidad está frecuentemente asociada con tres fenómenos o propiedades complejas: la biomodalidad expresa que el sistema está caracterizado por uno, dos o más estados distintos, a la vez que solo unos pocos elementos se mantienen entre estos estados; la histéresis describe la conducta aparentemente retardada de un sistema ante una perturbación recibida por el mismo; finalmente, la divergencia se refiere a que un mismo sistema afectado por condiciones iniciales similares puede evolucionar hacia estados o comportamientos finales muy diferentes unos de otros.

Un concepto fundamental para el estudio de la Complejidad lo constituye la estructura disipativa. Según Prigogine (1997: 32), la expresión estructura disipativa se refiere a “sensibilidad y por tanto movimientos coherentes de gran alcance; posibilidad de estados múltiples y en consecuencia historiedad de las ‘elecciones’ adoptadas por los sistemas. Son propiedades estudiadas por la física- matemática no lineal en este ‘nuevo estado de la materia’, que caracterizan los sistemas sometidos a condiciones de no equilibrio”. En ese sentido, sostiene lo siguiente:

“En condiciones de equilibrio, cada molécula ve solo lo más próximo que la rodea. Pero cuando nos encontramos ante una estructura de no equilibrio, como las grandes corrientes hidrodinámicas o los relojes químicos, tiene que haber señales que recorran todo el sistema, tiene que suceder que los elementos de la materia empiecen a ver más allá y que la materia se vuelva ‘sensible’ […] La vida no es solamente química, la vida tiene que haber incorporado todas las otras propiedades físicas, es decir, la gravitación, los campos electromagnéticos, la luz, el clima. De alguna manera se requiere una química abierta al mundo externo, y solo la materia alejada de las condiciones de equilibrio tiene esa flexibilidad […] Cuando estamos lejos de las condiciones de equilibrio, las ecuaciones no son lineales: hay muchas propiedades posibles, muchos estados posibles, que son las distintas estructuras disipativas accesibles. En cambio, si nos acercamos al equilibrio, la situación es la contraria: todo resulta lineal y no hay más que una sola solución.” (Prigogine 1998: 32-33).

Un ejemplo de sistema dinámico en equilibrio estable es el famoso péndulo (en reposo), en el cual la energía potencial es mínima. Así, cualquier ligera perturbación finalmente no impedirá que el sistema regrese a su punto de equilibrio (reposo). Por otro lado, un ejemplo de un sistema en equilibrio inestable lo podemos imaginar al colocar un lápiz de cabeza; es decir, sobre su goma de borrar. Así, la menor perturbación (toquecito contra el lápiz) lo hará caer.

Cerca del equilibrio, los cambios (fluctuaciones, bifurcaciones) son inofensivos, por decirlo de algún modo. Pero lejos del equilibrio se convierten en protagonistas de un mundo de sorpresas y novedades irreversibles e impredecibles. El sistema aquí se hace creativo y “escoge” una de las ramas termodinámicas posibles que están disponibles en una condición lejos del equilibrio. En el punto de bifurcación, la rama termodinámica se torna inestable, y emergen las dos soluciones nuevas b1 y b2. Nada en la ecuación ni en las simulaciones computarizadas –que son el producto de ecuaciones y programas– justifica la preferencia por alguna solución determinada. Aquí entra en acción el factor probabilístico. En el gráfico se muestra una bifurcación bastante simple, K=0 corresponde al equilibrio. Además, la rama termodinámica es estable de K=0 a K=Kc. Más allá de Kc se vuelve inestable y emerge un par simétrico de soluciones. Son las fluctuaciones las que deciden qué rama será seleccionada. Si se eliminaran las fluctuaciones, el sistema se mantendría a sí mismo en un estado inestable. Se han hecho intentos experimentales para disminuir las fluctuaciones. Sin embargo, tarde o temprano, las fluctuaciones –ya sean de origen interno o externo– toman el control y llevan a una de las ramas b1 o b2 (Prigogine 1997: 68-69).

Las bifurcaciones son fuentes de disolución de simetría, de hecho, las soluciones de la ecuación más allá de Kc generalmente tienen una simetría más baja que la rama termodinámica. Como lo afirma Prigogine: “Las bifurcaciones son la manifestación de una diferenciación intrínseca entre partes del sistema mismo y el sistema y su ambiente. Una vez que una estructura disipativa se forma, la homogeneidad de tiempo (como en las reacciones química oscilatoria) o espacio (como en las estructuras de no equilibrio de Turín), o de ambos, se rompe.” (Prigogine 1997: 68-69).

Al observarse la figura 3, se puede apreciar que, en términos temporales, la descripción de tales sistemas incluye tanto a los procesos deterministas (una bifurcación sucede a la otra) y procesos probabilísticos (en la elección de la rama termodinámica). Además, se observa un proceso histórico, pues el sistema puede estar en el estado d2, lo que significa que ha pasado por los estados b1 y c1. Esto se corresponde con la idea de irreversibilidad de los procesos termodinámicos y con el concepto de determinismo arrojado por las ecuaciones de Lorenz, en el sentido de que una bifurcación sucede a la otra.

En ese sentido, las estructuras disipativas indican que el sistema ya tiene el potencial para que se produzca el fenómeno de la autoorganización. Huelga decir que, aun en el caso en que conociéramos los valores iniciales y los constreñimientos relacionados con los límites del sistema, habría todavía muchos estados disponibles para el sistema dentro de los cuales el mismo “seleccionaría” algún estado determinado como resultado de las fluctuaciones. Tales conclusiones son de un valor extraordinario, no solo para la física y la química, sino también para otros campos del saber, pues “las bifurcaciones pueden ser consideradas la fuente de diversificación e innovación. Estos conceptos son ahora aplicados a un amplio grupo de problemas en biología, sociología, y economía […] en todo el mundo” (Prigogine 1997: 70). Prigogine establece que la creatividad y la innovación pueden entenderse como la amplificación de las leyes de la naturaleza que ya están presentes y son inherentes a la física y la química. Así lo ilustra citando un informe para la comunidad económica europea hecho por Christof Karl Biebracher, Grégoire Nicolis y Peter Schuster:

“El mantenimiento de la organización en la naturaleza no es –y no puede ser– asunto que realice una gestión centralizada; el orden solo puede mantenerse mediante una autoorganización. Los sistemas autoorganizadores permiten la adaptación a las circunstancias ambientales; por ejemplo, reaccionan ante modificaciones del entorno gracias a una respuesta termodinámica que los torna extraordinariamente flexibles y robustos ante las perturbaciones externas. Queremos destacar la superioridad de los sistemas autoorganizadores con respecto a la tecnología humana habitual, que evita cuidadosamente la complejidad y administra de manera centralizada la mayor parte de los procesos técnicos. Por ejemplo, en química sintética las diferentes etapas reaccionales en general se separan cuidadosamente unas de otras, y las contribuciones vinculadas a la difusión de los reactivos son evitadas por remoción. Habrá que desarrollar una tecnología enteramente nueva para explotar el gran potencial de ideas y de reglas de los sistemas autoorganizadores en materia de procesos tecnológicos. Los sistemas biológicos, en que se forman productos complejos con una precisión, una eficacia y una velocidad sin igual, son un buen ejemplo de la superioridad de los sistemas autoorganizadores.” (Prigogine 1997: 71-72).

Los resultados de la termodinámica del no-equilibrio (fluctuaciones, bifurcaciones y estructuras disipativas) son muy similares a lo ilustrado por Bergson y Whitehead, en el sentido de que la naturaleza está de hecho relacionada con la creación de novedad impredecible, donde “lo posible es más rico que lo real”. En este escenario –según Prigogine– nuestro universo ha seguido el camino trazado por una sucesión de bifurcaciones. Mientras que otros universos pueden haber seguido otros pasos u opciones. Y aparentemente el origen de estas bifurcaciones responsables de la novedad perpetua y de la irreversibilidad termodinámica que exhibe nuestro universo está en que ya “los objetos básicos” de la física no son ni trayectorias ni funciones de onda, sino probabilidades. Este es un mundo de posibilidades y probabilidades, es un mundo de propensiones (Prigogine 1997: 72, 73, 74; Popper 1996).

Las estructuras disipativas pueden entenderse como toda estructura de naturaleza espacio-temporal característica de condiciones alejadas del equilibrio, como las reacciones químicas oscilatorias o las estructuras espaciales en no equilibrio y las ondas químicas (Prigogine 1997: 68-69). Recordemos también que no es posible hablar de estructuras disipativas si no es en relación con el movimiento, es decir, el campo de la mecánica o dinámica. A su vez, los objetos o sistemas en movimiento pueden estar en dos condiciones: en equilibrio estable y en equilibrio inestable. Recordemos que la diferencia fundamental entre sistemas dinámicos estables e inestables consiste en que en los sistemas estables, cuando se producen ligeros cambios en las condiciones iniciales, los efectos correspondientes son también ligeros. Por el contrario, las perturbaciones iniciales ligeras aplicadas a sistemas inestables se amplifican con el correr del tiempo. Es en este tipo de sistemas donde surgen los sistemas caóticos pues sus trayectorias correspondientes a distintas condiciones iniciales, sin importar lo cercano que estén (cambios infinitesimales), difieren exponencialmente a través del tiempo. Esta es la famosa sensibilidad a las condiciones iniciales que nos hace recordar la metáfora de Eduard Lorenz sobre el efecto mariposa.

Irreversibilidad y probabilidad

Para entender el concepto de irreversibilidad es necesario comprender el concepto de entropía, el cual se refiere a la degradación o incapacidad continua para efectuar un trabajo de los sistemas cerrados, no alimentados por energía exterior; mientras que las diferentes formas de energía existentes son capaces de transformarse completamente unas en otras, y por ello pierden una parte de su capacidad para hacer  un trabajo práctico. Jorge (1999: 45-49) establece lo siguiente: “Cada vez que se efectúa un trabajo o transformación, se libera más calor; por tanto, continuamente el proceso productivo en sí se va haciendo cada vez menos efectivo […] esta degradación irreversible no tiene más alternativa y está conminada solo a aumentar hasta un máximo, un estado de homogeneización y de equilibrio térmico, donde ha desaparecido ya la aptitud para efectuar trabajo […] Como ha señalado Campbell en su brillante obra El hombre gramatical, cuando la gasolina de una máquina se agota, la temperatura baja y el sistema alcanza una temperatura uniforme, desaparece la diversidad (heterogeneidad) de los gases calientes, todas las moléculas se mezclan en un desorden aleatorio y se apaga finalmente la máquina. Del mismo modo, si el sol se extinguiera, desaparecería la asimetría, la diversidad de la temperatura que hace posible la vida, luego la homogeneización y la semejanza eliminarían la diversidad (la vida en todas sus manifestaciones) con todo su rico orden. Así, el sistema solar tendrá la misma cantidad de energía, pero desordenada, en máximo estado de alta entropía.”

Todos los fenómenos químicos y biológicos son irreversibles. La irreversibilidad se refiere al desorden, a la disipación y a toda la novedad, creatividad y orden que el desorden produce, así como a su carácter de creador de eventos únicos, singulares, irrepetibles e históricos. Cada estructura, cada proceso emerge producto de un gran pugilato contra el segundo principio de la termodinámica o entropía. Según Prigogine (1998: 48-51), desde el punto de vista cosmológico, “la producción de entropía contiene siempre dos elementos ‘dialécticos’: un elemento creador de desorden, pero también un elemento creador de orden. Y los dos están siempre ligados”. Se necesita una nueva visión paradigmática que no asocie el orden al equilibrio y el desorden al no equilibrio.

La probabilidad es un concepto aplicado al mundo cuántico para su posible única explicación en términos de propensiones o probabilidad. La naturaleza es propensivista, la indeterminación le es inherente (Popper 1996). Lo probable se opone a lo determinista y depende de la ignorancia de las condiciones iniciales, pero esta no es la única causa de indeterminación. Hay sistemas que no permiten prever su desarrollo aun cuando conozcamos los datos iniciales; pues cambios infinitesimales en dichas condiciones ocasionan resultados sorprendentes en tales sistemas. Lo que decide la predicción del comportamiento de los sistemas no lineales no es nuestro limitado conocimiento sobre sus condiciones iniciales, sino su naturaleza dinámica y propensivista. La probabilidad es una característica real de la naturaleza, le es consustancial e inmanente; la naturaleza misma es resbaladiza, mutante y camaleónica. Prigogine (1998: 58, 59, 60) plantea que “los datos de los que un ser finito dispone corresponden obligatoriamente a una información finita. Yo no dispongo más que de una ventana sobre la naturaleza […] La existencia de la velocidad máxima de propagación de la luz implica una ruptura con el determinismo”. De esto se desprende que la visión clásica veía en la naturaleza una estructura regular y determinista, donde la probabilidad es un tecnicismo matemático para aproximarnos a una descripción determinista, debido a nuestra limitada información. Pero en el presente ocurre lo contrario, debido a que la naturaleza de la naturaleza nos obliga a introducir la probabilidad independientemente de la información que poseamos.

Caos y complejidad

Gell-Mann (1998) considera que el concepto “caos” puede pensarse como la ampliación a escala macroscópica del indeterminismo cuántico. De este modo, hay dos tipos de indeterminismos: cuántico y caótico. Las intuiciones nos conducen a plantear que todo el indeterminismo que observamos en el mundo no cuántico (el caos del mundo no cuántico) es un reflejo del indeterminismo cuántico.

La complejidad no se puede confundir con el caos. Según Langton, citado por Lewin (1995: 23): “La complejidad y el caos dan vueltas persiguiéndose e intentando averiguar si son lo mismo o cosas diferentes”. El límite del caos es un lugar preferido por todo y por todos (privilegiado), porque es el sitio (la instancia, el nivel) donde se maximiza el procesamiento universal de información. Porque es en ese nivel de organización donde el sistema (biológico, químico, físico, económico, computacional, etc.) optimiza y eficientiza la eficacia cacia biológica obtenida y trata de mantenerla a cualquier precio o, en caso contrario, a desplazarse hacia nuevos niveles de emergencia. El caos como disciplina se puede considerar como un subconjunto de la complejidad. Se puede afirmar que el procesamiento universal de información de los sistemas dinámicos se produce más o menos entre el caos y el orden. La complejidad se produce en algún lugar intermedio entre lo completamente ordenado y lo completamente aleatorio, pero, según Kauffman (2000), más cerca del orden que del caos.

Criticalidad autoorganizada

En los sistemas no lineales, la comunidad de agentes autónomos explora y toma decisiones para su supervivencia en una dinámica de intercambio de información y energía con su entorno. Los agentes autónomos diagnostican las condiciones de escenarios posibles de su entorno o adyacente posible y están constreñidos por el principio dinámico de la física, denominado criticalidad autoorganizada. Perbak y sus colaboradores acuñaron el término criticalidad autoorganizada. El término surgió de su experimento con un “montón de arena”, consistente en lo siguiente: se deja caer un poco de arena en una mesa y se deja amontonar hasta que los flancos alcancen cierto ángulo de reposo. Luego se observa que se producen avalanchas. Si se continúa agregando arena, se observa lo siguiente: ocurren muchas avalanchas pequeñas y pocas y esporádicas avalanchas grandes. Al graficarse dicha distribución de avalanchas con la técnica logarítmica, se descubrió lo que denominaron ley potencial. Decidieron emplear el término crítico debido a que las avalanchas pueden ocurrir en cualquier escala. El término autoorganizada fue creado para ilustrar el hecho de que el sistema se regula a sí mismo hasta lograr el estado crítico (Kauffman 2000).

Las avalanchas grandes pueden servir de símil para describir las grandes extinciones y las emergencias de nuevas especies en biología, las grandes revoluciones científicas en filosofía y epistemología, las grandes crisis y transformaciones sistémicas en economía y las grandes transformaciones constitucionales en el ámbito de los sistemas legales. Mientras que las avalanchas pequeñas corresponden a cambios menores y no estructurales que frecuentemente ocurren en cada uno de tales sistemas. No todos los días ocurre una depresión económica como la de 1929. Pero diariamente sí desaparecen y emergen pequeñas franquicias y negocios en todo el mundo. Todos los días nacen y mueren seres humanos, animales y plantas. Todos los días se escriben artículos y ensayos como este, pero muy pocos son Cien años de soledad y solo en algunos El coronel no tiene quien le escriba. De forma similar, ocurre diariamente que en algún país del globo se emita un decreto o ley, pero no todos los días se elimina el apartheid ni surge la Organización de Estados Americanos.

El sistema descrito por Perbak está en equilibrio inestable (orden al borde del caos), como parece estarlo el universo: este es un universo no ergódico, lo que significa que es asimétrico, empapado de desequilibrio, novedad perpetua, producto de la irreversibilidad que caracteriza a los sistemas no lineales, enmarcados en una danza continua entre el orden y el desorden.

Finalmente, concluyo esta entrega con la ingeniosa reflexión del físico Joseph Ford, citado por Gleick (1987: 314): “La evolución es caos con retroalimentación. El universo se compone de azar y disipación. Pero el azar con dirección puede producir una complejidad sorprendente. Y, como Lorenz descubrió hace tanto tiempo, la disipación es un agente de orden. ‘Dios juega a los dados con el universo’… ‘Pero con dados cargados’, es la respuesta de Ford a la famosa pregunta de Einstein. ‘Y el principal objetivo de la física ahora es encontrar con qué reglas fueron cargados y cómo podemos usarlas para nuestros propios fines’.”

Lorenzo Jorge Gómez nació en 1958 en Santo Domingo, República Dominicana. Es licenciado en Lenguas Modernas y técnico en Estadística, y especialista en Metodología. Actualmente es profesor de Idiomas de la uasd y evaluador en la Dirección de Currículo de la seescyt. Dictó la primera charla sobre Complejidad que patrocinó el grupo Complejidad rd. Es autor del libro Los laberintos de la complejidad (1999) y del artículo del mismo nombre en la revista Investigación y Desarrollo de la UASD.

Bibliografía

BAKALIS, OLIMPIA L. (2000): “Modeling Fractal Patterns with genetic algorithm solutions to a variant of the inverse problem for Iterated Function Systems (IFS)”; en bar-Yam, Yaneer, editor, Unifying Themes in Complex Systems, Massachussetts: Perseus Books.

DA CUNHA, A.A. BRITO (1980): “El concepto de organismo”, en bunge, Mario, editor, Epistemología: curso de actualización, Barcelona: Seix Barral.

DAVIES, PAUL Y JOHN GRIBBIN (1995): The Matter Myth, España: McGrawHill, s. f.

GELL-MANN, MURRAY (1998): El quark y el jaguar. Aventuras en lo simple y lo complejo, Barcelona: Tusquests, editores, 4ta. ed., (1994).

GLEICK, JAMES (1987): Chao. Making a New Science, New York: Penguin Books.

HERNÁNDEZ, ANA JESÚS (1997): comunicación personal y Manual del Taller sobre Educación e Interdisciplinariedad, realizado en la Universidad Autónoma de Santo Domingo (uasd) en 2002.

JORGE, LORENZO (1999): Los laberintos de la complejidad. El big bang, la vida y el caos, Santo Domingo: Editora Universitaria, uasd.

KAUFFMAN, STUART A. (2000): Investigations, New York: Oxford University Press

KEYSER, DANIEL (2000): “Emergent Properties and Behavior of the Atmosphere”, en bar-Yam, Yaneer, editor, Unifying Themes in Complex Systems, Massachussetts: Perseus Books.

LEWIN, ROGER (1995): Complejidad. El caos como generador de orden, Barcelona: Tusquets Editores, (1992).

MORIN, EDGAR (1997): El Método. La naturaleza de la naturaleza, Madrid: Cátedra (1993).

POPPER, KARL R. (1996): Un Mundo de propensiones, Madrid.

PRIGOGINE, ILYA (1998): El nacimiento del tiempo, Barcelona: Tusquets editores, (1998). — (1997): The End of Certainty, New York: The Free Press.

TORRE, C. A. (S. /F.): Shared Accountability: An Organic Approach.