RESUMEN
Se presenta una visión de los procesos que intervienen en la formación de cuevas y geoformas en el pseudokarst de Jaizkibel. Muchas geoformas traducen procesos de autoorganización y formación de patrones, impulsados por mecanismos de disipación de energía y reactividad química de las soluciones en el interior del acuífero, propios de sistemas complejos. Estos son poco conocidos en estudios del karst. Con la finalidad de hacerlos más comprensibles aportamos una revisión de la trama de conceptos, hipótesis y modelos utilizados en sistemas complejos, y su aplicación a los patrones de geoformas. Se discuten los conceptos utilizados y la trama de resultados.
INTRODUCCION
En las cuevas y geoformas del pseudokarst de Jaizkibel (Gipuzkoa, País Vasco) encontramos patrones de estructuras disipativas y formas inusuales en hidrogeología del karst, propios de sistemas abiertos y sistemas complejos. Estos son poco conocidos en estudios del karst. Hemos recibido la sugerencia de aportar una visión más extensa de la trama de modelos, hipótesis y conceptos, crecientemente utilizada en estudios de tales sistemas, en diversos campos, y con tal finalidad hemos preparado esta nota, que incluye
dos partes. En la primera se presenta una recopilación general de los conceptos y modelos más utilizados en la teoría general de sistemas y en la segunda se aborda su aplicación a los patrones de geoformas del pseudokarst.
La percepción de sistemas abiertos en el mundo real fue introducida tempranamente en biología. Particularmente en ecología, el concepto de flujos de materia y energía a través de los ecosistemas, resultó de la extensión, a nivel más complejo, de cualidades presentes en las vías metabólicas de los organismos. La evolución y el cambio son caracteres fácilmente visualizables en los seres vivos, al igual que los procesos de autoorganización y la tendencia de la materia a organizarse en niveles de creciente complejidad.
Sin embargo, las concepciones cartesianas del mundo como una máquina predominaron ampliamente en física y geología. El pensamiento analítico excluyó en gran parte la cualidad de la ciencia, restringiendo ésta a la descripción y estudio de fenómenos que pudiesen ser medidos y cuantificados. Esta distorsión entre cantidad y cualidad impregnó y aún impregna una buena parte del pensamiento científico. Habrá que esperar al desarrollo de la física cuántica, la cibernética y la tectónica de placas, para que las visiones sistémicas vuelvan a predominar.
La tensión entre mecanicismo y pensamiento sistémico ha sido un tema recurrente a lo largo de la historia de la ciencia y es una consecuencia de la falsa dicotomía entre sustancia (materia, estructura, cantidad) y forma (patrón, orden, cualidad). La evolución, como muchos otros fenómenos reales, no puede ser comprendida cabalmente con un enfoque mecanicista y es necesario recurrir al pensamiento sistémico para lograr una mejor aproximación.
Aunque no tratamos con seres vivos, en este trabajo estudiamos estructuras y fenómenos propios de una fase prebiológica de evolución, en sistemas químicos situados en la frontera entre el mundo morfológico de la simetría orgánica y el de la simetría cristalina inorgánica. Se trata de soluciones que contienen carbonatos, sílice, oxi-hidróxidos de hierro y aluminio, y otros elementos (sulfatos, silicatos, etc.) en pequeñas cantidades, y cuya reactividad química ha generado patrones ordenados.
En el karst en caliza habitualmente sólo tratamos con soluciones de carbonatos. En el karst en cuarcita (arenitas de cemento silíceo) con soluciones silíceas. En la arenisca de Jaizkibel (de cemento carbonático) el sistema es multicomponente en su química y mineralogía. Los procesos de disolución (y precipitación) en el interior del acuífero adquieren por tanto mayor complejidad, la cual, a través de varios procesos, puede generar patrones de celdas poligonales, alveolos, bandas de coloración, y una gran diversidad de geoformas, desconocidas para el karst clásico y para el karst en cuarcita.
Debido a la especialización hoy predominante en las distintas ramas científicas, los investigadores en espeleología física, hidrogeología y karstología, a menudo trabajan con conceptos restringidos, propios de disciplinas separadas. El pensamiento sistémico, por el contrario, necesita e incorpora herramientas y conceptos de campos diversos (termodinámica, teoría de la información, teoría general de sistemas, ecología, matemática no-lineal, teoría del caos, geometría fractal, etc.), ya que los sistemas complejos no pueden
ser comprendidos desde el análisis de sus partes, sino desde el contexto del todo mayor como sistema. Esto nos conduce a exponer la trama de conceptos utilizada para interpretar las peculiares formas y caracteres hallados en el pseudokarst de Jaizkibel.
La naturaleza es inexorablemente no-lineal. Los fenómenos no-lineales dominan mucho más el mundo inanimado de lo que creíamos y constituyen a la vez un aspecto esencial de los patrones en los sistemas vivos. En el mundo no-lineal, el cual incluye la mayor parte del mundo real, simples ecuaciones deterministas pueden producir una insospechada riqueza y variedad de comportamientos. Por otro lado, un comportamiento aparentemente desordenado y caótico puede dar lugar a estructuras ordenadas y hermosos patrones. La comprensión de la no-linealidad ha comportado un importante cambio de énfasis, del análisis cuantitativo al cualitativo. Otra propiedad importante de las ecuaciones no-lineales, que incomoda a los científicos mecanicistas, es que la predicción exacta es a menudo imposible, aunque las ecuaciones en sí puedan ser deterministas.
MATERIAL Y METODOS
Sucintamente se exponen los principales conceptos implicados en teoría de sistemas complejos, como paso previo para el análisis de los procesos que intervienen en la formación de cuevas y geoformas en el pseudokarst en arenisca de la Formación Jaizkibel.
Especial énfasis es puesto en elucidar cómo ocurre la formación de patrones de disipación de energía en el acuífero intergranular, cómo actúan los procesos de disolución y precipitación, y cómo ocurre en último término la generación de cavidades y geoformas. Se utiliza un enfoque sistémico, que difiere de las concepciones analíticas usuales en estudios del karst, debido a que las geoformas presentan grandes diferencias con las halladas en el karst clásico. Este aspecto, precisamente, ha motivado la realización del presente trabajo.
RESULTADOS
PRIMERA PARTE
La perspectiva sistémica en la ciencia actual comporta un modo de pensar general, común a diversas disciplinas, que ha recibido el ombre de pensamiento sistémico. Las principales características del pensamiento sistémico emergieron simultáneamente en diversas sciplinas en el transcurso del siglo 20. Ello ha supuesto un cambio de paradigma desde visiones mecanicistas a otras que han sido enominadas ecológicas o sistémicas. La tensión básica se da entre las partes y el todo. El énfasis sobre las partes se ha denominado ecanicista, reduccionista o atomista, mientras que el énfasis sobre el todo recibe los nombres de holístico, organicista o ecológico, indistintamente. Sus principales características partieron de la biología, a través de la visión de los organismos vivos como totalidades integradas. Luego se enriqueció con aportes de la ecología (= biología de los ecosistemas), de la física cuántica, matemática no-lineal, eurobiología y muchos otros campos. Pero dado que su idea central se refiere a la naturaleza de la vida, conviene centrarse en primer lugar en su aplicación en biología.
La tensión entre mecanicismo y pensamiento sistémico en biología procede de la falsa dicotomía entre materia (estructura, cantidad) y forma (patrón, cualidad). En los organismos vivos la forma es algo más que una configuración estática de componentes en n todo. Hay un flujo continuo de materia a través del organismo mientras que su forma se mantiene. Hay también desarrollo y volución. Por lo que la forma biológica está inextricablemente ligada a la comprensión de procesos metabólicos y de desarrollo.
En el alba de la filosofía de la ciencia occidental, los pitagóricos distinguían sustancia o materia y patrón, viendo a este último como go que limitaba la materia y le daba forma. El tema tomaba la forma de preguntas ¿De qué está hecho?, o de preguntas ¿Cuál es su atrón? Los pitagóricos preferían inquirir sobre el patrón a hacerlo sobre la sustancia (Bateson, 1979).
Aristóteles, el primer biólogo de la tradición occidental, distinguía también entre materia y forma, pero al mismo tiempo las vinculaba ediante el proceso de desarrollo. En contraste con Platón, Aristóteles creía que la forma no tenía una existencia separada, sino que a inmanente en la materia y que ésta tampoco podía existir aisladamente de la forma. La materia contenía la naturaleza esencial de das las cosas como potencialidad, y por medio de la forma (proceso de desarrollo) esta esencia se convertía en real. Materia y forma serían dos caras del proceso, separables sólo mediante la abstracción. El sistema formal de lógica que creó Aristóteles incluía un conjunto de conceptos unificadores, que dominaron el pensamiento científico durante un largo período.
Durante los siglos 16 y 17, la noción de un universo orgánico y viviente fue reemplazada por la del mundo como máquina, y ésta se convirtió en la metáfora dominante del capitalismo en la era moderna. El mecanicismo impulsó muy bien el desarrollo industrial, con escubrimientos científicos asociados principalmente a los nombres de Galileo, Descartes y Newton, entre otros, convirtiéndose esta concepción en la ideología dominante en los nuevos campos científicos.
Galileo excluyó la cualidad de la ciencia, restringiendo ésta al estudio de fenómenos que pudiesen ser medidos y cuantificados. Si en ha sido una estrategia muy exitosa, introdujo importantes deformaciones. Como Capra (1988) señala, el programa de Galileo nos rece un mundo muerto: desaparecen las cualidades, la sensibilidad ética y estética, la conciencia, el alma y el espíritu. La experiencia como tal resulta excluida del discurso científico. Descartes creó a su vez el método de pensamiento analítico, consistente en esmenuzar los fenómenos complejos en partes para comprender desde las propiedades de éstas el funcionamiento del todo. Su visión dividió la naturaleza en campos separados, el de la mente y el de la materia. El universo material, incluyendo los organismos vivos, era
para Descartes una máquina que podía ser enteramente comprendida analizándola en términos de sus partes más pequeñas. El marco conceptual creado por Galileo y Descartes -el mundo como una máquina, gobernada por leyes matemáticas exactas- fue triunfalmente
completado por Newton, cuya gran síntesis -la mecánica newtoniana- constituyó el logro culminante de la ciencia del siglo 17.
Los intentos de aplicar el modelo mecanicista para explicar funciones biológicas, como la digestión y el metabolismo, terminaron no obstante en fracaso. La situación cambió algo en el siglo 18, cuando Lavoisier, el padre de la química moderna, demostró que la respiración era una forma específica de oxidación, confirmando así la importancia de los procesos químicos en biología.
A la luz de la nueva química, los simplistas modelos mecanicistas fueron abandonados, pero la esencia de la idea cartesiana sobrevivió. A los animales se les seguía viendo como máquinas, si bien más complicadas que simples mecanismos de relojería, e incluyendo complejos procesos químicos. Consecuentemente, el mecanicismo cartesiano quedó expresado como dogma en la idea de que, en última instancia, las leyes de la biología podían ser reducidas a las de la física y la química.
A finales del siglo 18 y durante el siglo 19, el paradigma mecanicista encontró una fuerte oposición, que provino de un amplio movimiento en el arte, la literatura y la filosofía, principalmente alemana pero también británica. Figuras centrales de este movimiento fueron poetas y filósofos como Blake, Goethe o Kant. Goethe utilizó el término morfología para el estudio de la forma biológica desde una perspectiva dinámica y del desarrollo. Admiraba el “orden en movimiento” de la naturaleza y concebía la forma como un patrón de relaciones en el seno de un todo organizado. Esta comprensión cualitativa de los patrones o pautas, propia del pensamiento sistémico, le hacía enfatizar la explicación de propiedades de la materia y organismos en términos de formas visuales.
La comprensión de la forma orgánica también jugó un importante papel en la filosofía de Kant. En su discusión sobre la naturaleza de los organismos argumentaba que éstos, en contraste con las máquinas, son autorreproductores y autoorganizadores.
La visión de la naturaleza como un todo armonioso, condujo a algunos científicos de la época a extender su búsqueda de patrones a la totalidad del planeta y a percibir a la Tierra como un todo integrado, prácticamente como un ser vivo, visión ésta análoga a la formulada en lenguaje científico moderno por la llamada hipótesis Gaia (Lovelock, 1979). Así por ejemplo, el geólogo Hutton sostuvo que los procesos geológicos y biológicos están conjugados. El reconocido naturalista Alexander von Humboldt llevó esta idea aún más lejos (Sachs, 1995): su costumbre de ver el planeta como un todo le llevó a identificar el clima con una fuerza global unificadora y a admitir la coevolución de organismos vivos, clima y corteza terrestre.
EMERGENCIA DE LAS CONCEPCIONES SISTÉMICAS
A lo largo del siglo 20, desde distintas disciplinas, emergió con rigor científico el pensamiento sistémico. Entre los principales autores se podría destacar a Oparín (origen de la vida), Prigonine (sistemas disipativos), Wiener & Shannon (cibernética y teoría de la
información), Bateson (mente y naturaleza), Odum y Margalef (ecología), Maturana & Varela (autopoeisis y neurobiología), Gleick (teoría del caos), Mandelbrot (geometría fractal), Lovelock (hipótesis Gaia), Capra (el tao de la física y teoría de la complejidad). De
modo especial este último autor ha presentado una síntesis comprensiva del conjunto del pensamiento sistémico (Capra, 1998, 2009) y parte de sus ideas son seguidas y resumidas en esta exposición.
A lo largo del siglo, no obstante, los avances sistémicos conviven con nuevas formulaciones mecanicistas. Cuando parecía que la física cuántica había logrado establecer que los sistemas son totalidades integradas que no pueden ser comprendidas en términos analíticos, el descubrimiento del código genético y la estructura del ADN, derivaron en la creencia de que todas las funciones biológicas podían ser explicadas por los genes. Esta grave distorsión se ha convertido en un excluyente modo de pensar, el cual domina en buena parte de las instituciones académicas y sumerge a una parte considerable de la investigación biológica en callejones sin salida, propios de los modelos mecanicistas.
Los problemas que se resisten al enfoque reduccionista de la genética molecular se han puesto de manifiesto de distintos modos. Mientras que los biólogos pueden conocer ahora la estructura de unos pocos genes, saben muy poco de los modos en que dichos genes se comunican y cooperan en el desarrollo de un organismo. En otras palabras, conocen el código de un alfabeto para la formación y ensamble de proteinas, pero no tienen ni idea de su sintaxis, y mucho menos de qué modo operan las propias proteinas (es decir, de su funcionamiento), las cuales contienen una complejidad mayor que la hallada en los genomas.
Cabe recordar que las proteínas son los componentes básicos de todos los organismos vivos; en cada célula puede haber, en cada momento, hasta 100 millones de ellas trabajando. Es muchísima actividad para intentar desentrañarla. Además, la conducta y las
funciones de las proteinas no se basan simplemente en su composición química, como sucede con los genes, sino que depende también de las formas espaciales que adoptan. Una proteina debe tener para funcionar, no solo los componentes químicos necesarios adecuadamente ensamblados, sino que debe estar “plegada” de una forma específica. En realidad las proteinas se pliegan y enroscan adoptando formas que son extravagantes y complejas al mismo tiempo. Las proteínas, al estar compuestas de hasta 20 aminoácidos esenciales, proporcionan en su combinación un número de estructuras químicas distintas casi infinito. P.ej., para la insulina, que es una de las proteinas más simples, el número de estructuras químicas distintas es del orden de 10 65
. Este es un número increíblemente grande si se considera que el número total de átomos de nuestra galaxia es de 10 68 (Bohinski, 1991).
Esta extraordinaria complejidad se puede tratar de entender a diferentes niveles, no al simple nivel genético, y de hecho hoy se acepta que la mayoría de los procesos biológicos implicados en desarrollo y evolución son epigenéticos (Galán, 2010). Pero hay también una simplicidad subyacente, debida a una unidad subyacente igual de elemental en la vida. Todos los procesos químicos que animan las células (los esfuerzos cooperativos de los nucleótidos, la transcripción del ADN en ARN, etc.) evolucionaron sólo una vez y se han mantenido bastante bien fijados desde entonces en toda la naturaleza. Todo ser vivo es una ampliación de un único proceso evolutivo. La vida surge del desarrollo de la materia y se diversifica. Los seres humanos somos simples incrementos en una rama o línea evolutiva: un archivo de adaptaciones, modificaciones y retoques que se remonta hasta 3.800 millones de años atrás.
Estamos además muy íntimamente emparentados con los demás seres vivos. por ejemplo, la mitad, más o menos, de las funciones químicas que se presentan en un plátano son fundamentalmente las mismas que las que se producen en los seres humanos. Conviene reiterarlo: la vida es toda una. Esa es, y sospecho que será siempre, la más profunda y veraz de las afirmaciones.
Desde Newton, los físicos habían pensado que todos los fenómenos físicos podían ser reducidos a las propiedades de las partículas elementales. La teoría cuántica estableció sin embargo que los objetos materiales se disuelven a nivel subatómico en pautas de probabilidades en forma de ondas. Estas pautas o patrones no representan además probabilidades de cosas, sino más bien interconexiones (en el interior de sistemas). Las partículas subatómicas no son “cosas” sino interconexiones entre cosas, y éstas a su vez interconexiones entre otras cosas. La física cuántica puso en evidencia que no podemos descomponer el mundo en unidades elementales independientes. Al descender de objetos macroscópicos a átomos y partículas subatómicas, la naturaleza no muestra componentes aislados, sino una compleja trama de relaciones entre las diversas partes de un todo unificado.
En palabras de Heisenberg: el mundo aparece como una compleja trama interconectada, donde conexiones de distinta índole se superponen o se combinan, determinando así la textura del conjunto. En la teoría cuántica las relaciones se expresan en términos de probabilidades que son determinadas por la dinámica de todo el sistema. Mientras que en el paradigma cartesiano y en la mecánica newtoniana, las propiedades y el comportamiento de las partes determinan las del conjunto, en la mecánica cuántica la situación se invierte: es el todo el que determina el funcionamiento de las partes (Heisenberg, 1971).
En ecología se llegó también a la visión de que los sistemas vivos están constituidos por organismos, partes de organismos, y comunidades de organismos; todos ellos totalidades integradas cuyas propiedades esenciales emergen de las interacciones e interdependencia de sus partes, conseguida a lo largo de miles de millones de años de evolución. Los organismos están vinculados por redes, y los flujos de materia y energía a través de los ecosistemas interactúan también en forma de redes con otros sistemas. En otras palabras, la trama del mundo viviente (= biosfera) está constituida por redes dentro de redes.
TEORIA GENERAL DE SISTEMAS
En el pensamiento sistémico, el énfasis se traslada de las partes al todo. Las propiedades esenciales o sistémicas son propiedades del conjunto, que ninguna de las partes tiene por sí sola. Emergen de la configuración de relaciones que caracteriza al sistema. Las propiedades sistémicas quedan destruidas cuando se disecciona el sistema en elementos aislados. A través del mundo viviente nos encontramos con sistemas dentro de sistemas. A distintos niveles sistémicos corresponden distintos niveles de complejidad. En cada nivel, los fenómenos observados poseen propiedades que no se dan a niveles inferiores. En última instancia, lo que denominamos partes, es meramente un patrón dentro de una inseparable red de relaciones. Al percibir la realidad como una red de relaciones, la
metáfora del conocimiento como construcción queda reemplazada por la de la red.
Una implicación importante de la visión de la realidad como red, afecta al concepto tradicional de objetividad científica. En el paradigma científico cartesiano, las descripciones son consideradas objetivas, es decir, independientes del observador humano que las hace y del proceso de conocimiento. El nuevo paradigma implica que la epistemología (= la comprensión del proceso de conocimiento) debe ser incluida explícitamente en la descripción de los fenómenos naturales. Se puede comprender que aislar un patrón, dentro de una red compleja, dibujando una frontera aleatoria, y denominarlo un “objeto” es un tanto arbitrario. Y esto sucede a menudo cuando nos referimos a objetos de nuestro entorno. P.ej., cuando vemos una red de relaciones entre hojas, ramitas, ramas y tronco, la
llamamos “árbol”. Pero en su delimitación seguramente la mayoría se olvidará de las raíces, que pueden ser más extensas que las partes del árbol que vemos. En un bosque, además, las raíces de todos sus árboles están entremezcladas, formando una densa red subterránea en la que no existen fronteras precisas entre árboles individuales.
En resumen, lo que denominamos árbol depende de nuestras percepciones. En ciencia se acostumbra a decir que depende de nuestro método, de nuestras observaciones y de nuestras mediciones. En palabras de Heisenberg y Einstein, lo que observamos no es la naturaleza en sí misma, sino la naturaleza expuesta a nuestro método de observación. El pensamiento sistémico comporta así un cambio de ciencia objetiva a ciencia epistémica. El
pensamiento sistémico lleva a ver que no existe conocimiento absoluto, sino sólo aproximado; el conocimiento científico avanza por sucesivas aproximaciones; la ciencia nunca puede facilitar una comprensión completa y definitiva.
TERMODINAMICA
Aunque el término “sistema” había sido utilizado en distintos momentos, debemos a Bertalanffy (1950) la teoría de los sistemas abiertos en física y biología. Con el apoyo de la cibernética, el pensamiento sistémico quedó establecido como movimiento científico mayor, y su base de sostén estuvo en la termodinámica.
Figura 1. En la arenisca de Jaizkibel la disolución y precipitación en el interior del acuífero genera patrones de celdas poligonales (= boxworks), bandas de coloración, y una gran diversidad de geoformas, desconocidas para el karst clásico. Su evolución es impulsada por la reactividad química de las soluciones y mecanismos de disipación de energía, propios de sistemas complejos.
Figura 2. Geoformas en cuevas del pseudokarst de Jaizkibel. Procesos de difusión y convección multicomponente originan patrones diversos de disolución y precipitación, celdas poligonales, anillos de Liesegang y bandeados rítmicos de distintos colores. El dilema que más había desafiado a los científicos hasta 1940 se puede definir como la oposición entre la mecánica newtoniana, ciencia de fuerzas y trayectorias, y el pensamiento evolucionista, ciencia de cambio, crecimiento y desarrollo. La segunda ley de la termodinámica fue formulada por Carnot en términos de tecnología para motores térmicos, estableciendo que en los fenómenos físicos hay una tendencia a pasar desde el orden hacia el desorden.
Todo sistema físico aislado o “cerrado” procederá espontáneamente en la dirección de un creciente desorden. Para expresar en términos matemáticos esta tendencia, los físicos introdujeron una nueva medida que llamaron “entropía”. Según la segunda ley, la entropía de un sistema físico cerrado irá incrementándose, y esta evolución irá acompañada de un creciente estado de desorden. Así, con el concepto de entropía y la segunda ley, la termodinámica introducía la idea de procesos irreversibles, de un “vector de tiempo” en la ciencia. Según la segunda ley, parte de la energía mecánica queda siempre disipada en forma de calor y no puede ser recuperada. Así, el mundo-máquina estaría inmerso en un proceso de agotamiento que le llevaría irremisiblemente a un punto final.
Esta negra imagen mecanicista de la evolución cósmica contrastaba con el pensamiento evolucionista, que observaba que el universo viviente evolucionaba del desorden al orden, hacia estados de creciente complejidad. Eran dos visiones opuestas: la de un mundo vivo desplegándose hacia un creciente orden y complejidad, y la de un motor en agotamiento, un mundo en creciente desorden.
Bertalanffy dio un paso crucial para resolver el dilema al afirmar que el organismo no es un sistema estático cerrado al exterior, conteniendo siempre los mismos elementos; es un sistema abierto en un estado cuasi estable en el que la materia continuamente entra desde, y sale hacia, el medio exterior (Bertalanffy, 1968). A diferencia de los sistemas cerrados, que se instalan en un estado de equilibrio térmico, los sistemas abiertos se mantienen lejos del equilibrio en un estado “estable” caracterizado por un continuo flujo y cambio de materia y energía. La termodinámica clásica, que trata de sistemas cerrados en o cerca del equilibrio, resulta así inadecuada para describir sistemas abiertos en estados estables lejos del equilibrio. La formulación en lenguaje matemático de la termodinámica de sistemas abiertos fue lograda por Prigogine (1967) y Prigogine & Glansdorff (1980) a través de la formulación de la teoría de las estructuras disipativas en los sistemas químicos.
En este marco, además de reevaluarse la segunda ley, cambiaron radicalmente los conceptos de orden y desorden, y se postuló la autorregulación como otra propiedad clave de los sistemas abiertos. La teoría general de sistemas ofrecía así la posibilidad de aplicar
similares principios en distintos campos de estudio, precisamente porque éstos están relacionados con sistemas y porque muchas leyes y principios son de aplicación a los sistemas con independencia de su naturaleza. Al mismo tiempo, al formular criterios exactos, la teoría general de sistemas es una defensa conveniente contra analogías superficiales sin utilidad para la ciencia (Bertalanffy, 1968).
CIBERNETICA
Los intentos de desarrollar máquinas autorreguladas llevaron en los años 1950 a un grupo de matemáticos, neurocientíficos e ingenieros -entre ellos Wiener, von Neumann, Shannon- a formar un campo de investigación nuevo, la cibernética. Sus investigaciones les condujeron a los conceptos de retroalimentación, autorregulación, y autoorganización. Wiener, en especial, reconocía que los patrones de organización implícitos en la biología organicista se referían a pautas de organización, es decir, entidades inmateriales. El desarrollo de la cibernética llevó a desarrollar las teorías de la información, de la comunicación, y los ordenadores digitales, además de arrojar luz para avanzar en la comprensión del funcionamiento del cerebro.
Uno de sus aportes cruciales fue entender la importancia de la retroalimentación o feedback. La presencia en los sistemas vivos de bucles de retroalimentación (= feedback loops) se traduce en la capacidad de autorregulación de todo el sistema, y este es el mecanismo esencial de la homeostasis, la cual permite a los organismos mantenerse en un estado de equilibrio dinámico. Los loops de retroalimentación son patrones abstractos, de relaciones, en estructuras físicas o en actividades de organismos vivos. Los cibernéticos
distinguieron claramente, por primera vez, entre la estructura física de un sistema y su patrón de organización, distinción crucial para la teoría contemporánea de los sistemas vivos (Maturana & Varela, 1972, 1990).
PATRONES
Desde el punto de vista sistémico, la comprensión de la vida comienza con la comprensión del patrón. En el estudio de la estructura medimos y pesamos cosas. Los patrones, en cambio, no pueden ser medidos ni pesados; deben ser cartografiados. Para entender un patrón debemos cartografiar una configuración de relaciones. En otras palabras, estructura implica cantidades, mientras que patrón implica cualidades. Las propiedades sistémicas emergen de una configuración de relaciones ordenadas, es decir, son propiedades de un patrón. Cuando un sistema vivo es diseccionado, lo que se destruye es su patrón; sus componentes siguen ahí, pero el patrón ha sido destruido y en consecuencia el organismo muere.
La mayoría de los científicos reduccionistas no pueden comprender la crítica al reduccionismo porque no llegan a entender la importancia del patrón. Creen que todos los organismos están hechos de átomos y moléculas, y que por tanto las leyes de la biología pueden ser reducidas a las de la física y la química. Si bien es cierto que los organismos están hechos de átomos y moléculas, son algo más que eso, algo inmaterial e irreductible: el patrón de organización.
En todos los seres vivos existe un patrón de organización común, y sus componentes están dispuestos en forma de redes. La primera y más obvia propiedad de cualquier red es su no-linealidad, va en todas direcciones. Por lo tanto, las relaciones en un patrón en red son relaciones no-lineales. En particular esto permite que un estímulo o mensaje pueda viajar en un camino cíclico, que puede de ese modo convertirse en un loop de retroalimentación.
AUTOORGANIZACION
El concepto de autoorganización se originó en los primeros años de la cibernética, cuando los científicos comenzaron a construir modelos matemáticos para representar la lógica inherente a las redes neuronales presentes en la actividad nerviosa. Trabajando con simples redes binarias -elementos que pueden ser conectados en on o en off (en marcha o paro), donde los nodos on-off están acoplados de modo tal que la actividad de cada nodo esté comandada por la actividad previa de otros, según reglas determinadas de conexión-, fueron capaces de demostrar que las redes binarias, aunque constituyen modelos simplificados, son buenas aproximaciones a las redes del sistema nervioso.
Construyendo modelos binarios, con bombillas que se encendían y apagaban en los nodos, descubrieron con gran asombro que, tras algún tiempo de parpadeos aleatorios, emergían algunos patrones ordenados en la mayoría de las redes. Podían observar ondas
de parpadeos fluyendo a través de la red, o bien ciclos repetidos. Aun cuando el estado inicial de la red fuera escogido al azar, al cabo de un tiempo emergían espontáneamente patrones ordenados. A esta emergencia espontánea de orden se la llamó “autoorganización” (McCulloch & Pitts, 1943; Ashby, 1947, 1956; Capra, 1998). Para definir el incremento de orden implicado por la organización se creó el concepto de redundancia, el cual mide el orden relativo del sistema en relación con el máximo desorden posible en el mismo. En los sistemas vivos, un sistema autoorganizador no importa simplemente orden desde su entorno, sino que absorbe materia rica en energía y la integra en su propia estructura, aumentando así su orden interno.
La principal diferencia entre los sistemas cibernéticos y los modelos posteriores elaborados para seres vivos, estriba en que éstos incluyen la creación de nuevas estructuras y nuevos modos de comportamiento, lo que resulta esencial en los procesos de desarrollo y evolución. Una segunda característica, es que se trata de sistemas abiertos, operando lejos del equilibrio; es necesario un flujo constante de materia y energía a través del sistema para que tenga lugar la autoorganización. Y en tercer lugar, una característica común a todos los modelos de autoorganización, es la interconectividad no-lineal de los componentes del sistema. Esta pauta de nolinealidad se traduce físicamente en loops de retroalimentación.
ESTRUCTURAS DISIPATIVAS
La teoría de las estructuras disipativas, del Nóbel ruso Ilyia Prigonine (1967), fue la primera formulación detallada de los sistemas autoorganizadores, la cual tendría ulteriores desarrollos (Prigonine & Glandsdorff, 1971; Prigonine & Stengers, 1984). La observación de
que los organismos vivos son capaces de mantener sus procesos vitales bajo condiciones de no-equilibrio, lo condujo a investigar las condiciones precisas que se requieren para que las condiciones de no-equilibrio sean estables. Se dio cuenta entonces de que los sistemas lejos del equilibrio deben ser descritos por ecuaciones no-lineales. El reconocimiento de la relación entre condiciones lejos del equilibrio y no-linealidad abrió a Prigonine una vía de investigación que una década después culminaría en su teoría.
En orden a resolver el puzzle de la estabilidad lejos del equilibrio, Prigonine no estudió los sistemas vivos, sino que se concentró en el fenómeno más sencillo de la convección de Bénard (1900), considerada ahora un caso clásico de autoorganización (Koschmieder, 1993). A continuación, en el siguiente apartado, expondremos con mayor detalle las características de la convección de Bénard, ya que procesos similares están involucrados en la formación de los patrones que encontramos en las geoformas de Jaizkibel. Pero antes es pertinente señalar que el análisis de Prigonine demostró que, mientras las estructuras disipativas reciben su energía del exterior, las inestabilidades y saltos a nuevas formas de organización son el resultado de fluctuaciones internas, amplificadas por loops de retroalimentación positiva. Así, la disipación de energía, contemplada tradicionalmente como generadora de desorden en los sistemas cerrados, aparece como fuente de un nuevo orden y complejidad en los sistemas abiertos.
CONVECCION DE BÉNARD Y FORMACION DE PATRONES
El físico francés Bénard descubrió que el calentamiento de una fina capa de líquido puede originar estructuras extrañamente ordenadas. Cuando el líquido es calentado desde abajo, se establece un flujo constante de calor, que se mueve desde el fondo hacia la parte superior. El líquido en sí mismo permanece en reposo y el calor se transmite únicamente por conducción. No obstante, si la diferencia de temperatura entre la parte superior y el fondo alcanza un determinado valor crítico, el flujo de calor es reemplazado por una convección térmica, en la que el calor es transmitido por el movimiento coherente de grandes cantidades de moléculas.
En este punto, se forma un sorprendente patrón ordenado de celdas hexagonales (en forma de colmena), en el cual el líquido caliente asciende por el centro de las celdas, mientras que el líquido más frío desciende por las paredes de las celdas. El estudio de Prigonine de este patrón de convección demostró que, a medida que el sistema se aleja del equilibrio (es decir, de un estado de temperatura uniforme a través del líquido), alcanza un punto crítico de inestabilidad, en el que aparece el patrón hexagonal ordenado.
La inestabilidad de Bénard es un espectacular ejemplo de autoorganización. El desequilibrio mantenido por el flujo de calor a través del sistema, genera un patrón espacial en el que millones de moléculas se mueven coherentemente para formar las celdas hexagonales de convección. Las celdas de Bénard no se limitan a los experimentos de laboratorio, sino que se dan en la naturaleza en una gran variedad de circunstancias. P.ej., el flujo de aire caliente desde la superficie de la tierra hacia el espacio puede generar vórtices hexagonales de circulación que dejan sus correspondientes huellas en las dunas de desiertos y en los campos de nieve árticos.
Otro curioso ejemplo estudiado por Prigonine son los llamados relojes químicos. Estos son reacciones lejos del equilibrio químico, que producen oscilaciones periódicas sorprendentes. P.ej., si hay dos clases de moléculas en la reacción, unas “rojas” y otras “azules”, el sistema será enteramente azul en un determinado momento, para cambiar luego súbitamente su color al rojo, después de nuevo al azul y así sucesivamente a intervalos regulares; para cambiar todo su color súbitamente, el sistema químico debe actuar como un todo, produciendo un alto nivel de orden a través de la actividad coherente de millones de moléculas. Como en el caso de Bénard, este comportamiento coherente emerge espontáneamente en puntos críticos de inestabilidad lejos del equilibrio (Prigonine & Stengers, 1984). Condiciones experimentales distintas podrán producir también ondas de actividad química. Así p.ej., en la llamada reacción de Belousov se forman rizos helicoidales, de cuya interferencia emerge un patrón en bandas de color paralelas, las cuales se propagan concéntricamente (Prigonine, 1980). La disipación de energía en los sistemas abiertos es así una fuente de orden.
Subsecuentes trabajos de muchos otros investigadores han mostrado que patrones análogos a los citados pueden formarse en la naturaleza por reactividad química, difusión y convección (Semwogerere & Schaltz, 2001). Una recopilación de casos fue presentada en
Galán & Nieto (2010). Su formación no obedece sólo a gradientes térmicos, sino que también puede estar gobernada por gradientes de concentración, que alteran la densidad de las soluciones, generando actividad convectiva que origina patrones, tanto de tipo hexagonal y poligonal, como en ondas concéntricas (Nagy & Pojman, 1993), sobre todo cuando la convección involucra a soluciones químicas con varios componentes (= convección multicomponente). Así, los sistemas químicos constituidos por soluciones reactivas de varias sustancias pueden formar patrones complejos, entre ellos, patrones hexagonales, patrones concéntricos, digitaciones salinas, rizos y plumas termales (Simoyi, 1999). En la cinética de las reacciones que tienen lugar en el acuífero intergranular en la arenisca de Jaizkibel, las sustancias que reaccionan en primer lugar pueden generar ondas que inducen (según su tasa de difusión, concentración de las sustancias, y forma y tamaño de campo) la precipitación rítmica y cementación en patrones diversos (Galán & Nieto, 2010).
TEORÍA LÁSER
La retroalimentación o feedback puede ser positiva o negativa. Si produce un cambio en el que el estado resultante es de dirección opuesta al estímulo inicial, se dice que el feedback es negativo, y ello genera autorregulación. Si por el contrario el cambio ocurre en la misma dirección, se dice que el feedback es positivo, y ello conduce a una amplificación o refuerzo. Las inestabilidades y saltos a nuevas formas de organización son el resultado de fluctuaciones internas, amplificadas por loops de retroalimentación positiva.
Cuando el fenómeno láser fue descubierto, se interpretó como un proceso de amplificación, que Einstein ya había predicho en su teoría cuántica. Los átomos emiten luz al ser excitados, es decir, cuando sus electrones han sido ascendidos a órbitas superiores. Al cabo de un tiempo, los electrones descienden espontáneamente a órbitas inferiores y en el proceso emiten energía en forma de pequeñas ondas luminosas. Un rayo de luz normal consiste en una mezcla incoherente (desordenada) de estas ondas emitidas por átomos individuales.
Bajo determinadas circunstancias, no obstante, una onda luminosa puede estimular -o como Einstein decía, inducir- a un átomo excitado a emitir su energía de tal modo que la onda de luz se amplifique. Esta onda amplificada puede, a su vez, estimular a otro átomo a amplificarla aún más, hasta que finalmente se produce una avalancha de amplificaciones. El fenómeno resultante es llamado Láser (de sus siglas: Light Amplification through Stimulated Emission of Radiation).
Pero ¿qué hace que las diferentes avalanchas de luz se combinen para producir un flujo único y coherente? Haken (1983) halló la respuesta al observar que un láser es un sistema multicomponente lejos del equilibrio térmico. Necesita ser bombeado desde el exterior para la excitación de los átomos, que entonces irradian energía. Hay pues un flujo constante de energía a través de un sistema abierto.
Haken (1987) mostraba así en su completa teoría no-lineal láser, que el láser es un sistema autoorganizador alejado del equilibrio y que la acción láser se produce cuando la intensidad del bombeo exterior alcanza un cierto valor crítico. Debido a la especial disposición de espejos en ambos extremos de la cavidad del tubo láser, sólo la luz emitida muy cerca de la dirección del eje principal de éste puede permanecer en la cavidad por tiempo suficiente para producir el proceso de amplificación, mientras que todas las restantes series de ondas son eliminadas. La teoría de Haken deja claro que, si bien el láser precisa de un enérgico bombeo externo para permanecer en un estado lejos del equilibrio, la coordinación de las emisiones es producida por la propia luz láser; se trata pues de un proceso de autoorganización. Se llegaba así a una descripción independiente de un fenómeno de autoorganización del tipo que Prigonine llamaría una estructura disipativa.
El láser puede situarse en la encrucijada entre física cuántica y clásica, entre los fenómenos en equilibrio y en no-equilibrio , entre las transiciones de fase y la autoorganización, y entre la dinámica ordinaria y la del caos. Al mismo tiempo, es un sistema que podemos comprender a la vez en los niveles microscópico-cuántico y clásico-macroscópico (Graham, 1987).
Figura 3. El mundo real es predominantemente no-lineal. La teoría del caos sostiene que no hay líneas simples en la naturaleza:
cualquier línea, vista a una escala diferente, resulta ser una sucesión de formas, de irregularidades, curvas, etc. El caos también sugiere que nada tiene justo una, dos o tres dimensiones, sino que está "a medias" entre ellas y que estas dimensiones son fractales y no lineales. Representaciones artísticas con fractales o falsificaciones fractales.
Figura 4. Atractores extraños, fractales, series de Julia, y diseños artísticos con figuras fractales. (1) atractor de Lorenz. (2) y (3) otros atractores extraños. (4) un fractal análogo a biomorfos. (5) y (6) diseños artísticos fractales. (7) y (8) diseños en base a series de Julia. Nótese la frecuencia de formas helicoidales y las que recuerdan a colas de hipocampo. (9) diseño fractal similar a los de efectos de tipo Bénard-Marangoni, debidos a difusión y convección.
HIPERCICLOS
Mientras que Prigonine y Haken llegaron al concepto de autoorganización a través del estudio de sistemas físicos y químicos, el bioquímico Eigen (1971), Nóbel de química, utilizó el mismo concepto para arrojar luz sobre el rompecabezas del origen de la vida. Oparin (1922) ya había establecido tempranamente que el origen de la vida sobre la Tierra era el resultado de un proceso de organización progresiva de la materia, con el paso de la materia inorgánica a la orgánica y después a la materia viva, en una concepción sistémica basada en la autoorganización de la materia y formación de crecientes niveles de complejidad.
Eigen apreció que la autoorganización ocurría en sistemas químicos alejados del equilibrio, involucrando “hiperciclos”, con loops de feedback múltiples. Así postuló una fase prebiológica de evolución en la que la autoorganización ocurría en el ámbito molecular. Los
sistemas estudiados por Eigen son conocidos como ciclos catalíticos. Un catalizador es una sustancia que incrementa el nivel de una reacción química, sin cambiar en sí misma durante el proceso. Las reacciones catalíticas son cruciales en bioquímica (Bohinski, 1991). Los catalizadores más comunes y eficientes son las enzimas, componentes celulares esenciales que promueven los procesos metabólicos vitales. En los estudios de Eigen y sus colegas sobre reacciones catalíticas, incluyendo enzimas, observaron que en los sistemas alejados del equilibrio (p.ej., expuestos a flujos de energía), se combinan diferentes reacciones catalíticas para formar redes, que suelen contener loops cerrados. Estos ciclos catalíticos son el centro de los sistemas químicos autoorganizadores y son notablemente estables. Con tiempo suficiente y un flujo de energía, los ciclos tienden a entrelazarse para formar loops cerrados en los que las enzimas producidas en un ciclo actúan como catalizadores del ciclo subsiguiente. Acuñó el término “hiperciclo” para tales loops, en los que cada vínculo es un ciclo catalítico.
Los hiperciclos no sólo son estables, sino capaces de autorreproducirse y de corregir errores de reproducción, lo que significa que pueden conservar y transmitir información compleja. La teoría de Eigen demuestra que la autorréplica -característica de los seres vivos- puede haber ocurrido en sistemas químicos antes de que apareciera la vida, con anterioridad a la formación de la estructura genética. Estos hiperciclos químicos deben ser vistos como precursores de los sistemas vivos. Y una de las propiedades más notables de los hiperciclos es que son capaces de evolucionar pasando por inestabilidades y creando niveles sucesivos de mayor complejidad, con una diversidad creciente.
LA HIPOTESIS GAIA
Las ideas clave subyacentes en las teorías y modelos arriba descritos, cristalizaron en la hipótesis Gaia, de Lovelock (1979), y en la teoría de la autopoiesis (=organización de la materia viva, sistema nervioso y mente) de Maturana & Varela (1990), que no abordaremos
aquí por su extensión, pero que recomendamos consultar a los interesados en comprender la complejidad de vida y mente.
Lovelock tenía una intuición que le condujo a formular un modelo que es quizás la más hermosa expresión de autoorganización: la idea de que el planeta Tierra, como un todo, es un sistema autoorganizador vivo. Los orígenes de la hipótesis Gaia se basan en la observación de que la característica más general de la vida es que los organismos toman materia y energía y expulsan desechos.
Los desechos, procesados por microorganismos, reincorporan de nuevo al ciclo de la vida elementos químicos en forma de nutrientes. La vida, al menos tal como la conocemos, necesita atmósfera y océanos, como medio fluido para los intercambios de materias primas y desechos. La atmósfera terrestre contiene gases, como el oxígeno y el metano, capaces de reaccionar entre sí, pero también de coexistir en altas proporciones, originando una mezcla lejos del equilibrio químico.
Lovelock se dio cuenta de que este estado (sistema abierto lejos del equilibrio) debía ser consecuencia de la presencia de vida en la Tierra, la cual actuaría regulando su composición en un nivel favorable para los organismos. Sabía por los astrofísicos que el calor del sol se ha incrementado un 25% desde el inicio de la vida sobre la Tierra y que, a pesar de dicho aumento, la temperatura en la superficie se ha mantenido casi constante durante 4 mil millones de años. Esto sugería que la presencia de vida podía actuar autorregulando la temperatura y, tal vez, otras condiciones planetarias (composición de la atmósfera, salinidad de los océanos, etc.).
Por su parte, Margulis (1989) estaba estudiando la producción y eliminación de gases por diversos organismos, especialmente las bacterias del suelo, las que aportaban también muchos otros gases atmosféricos. La colaboración entre ambos investigadores permitió develar una compleja red de loops de retroalimentación, que era la responsable de la autorregulación del planeta, y que vinculaba sistemas vivos (plantas, microorganismos y animales) con sistemas no vivos (rocas, océanos y atmósfera) (Margulis, 1989).
Otros investigadores ya habían constatado partes del proceso. P. ej., Margalef (1974) no sólo identificaba ciclos actuales de materia y energía a través de ecosistemas, océano y atmósfera, sino que efectuaba una de las exposiciones más claras de cómo la fotosíntesis
era la responsable del cambio de las primitivas condiciones reductoras de la atmósfera terrestre a las actuales condiciones oxidantes. El notable incremento de la concentración de oxígeno en el aire, que las visiones mecanicistas sólo perciben como una característi ca inorgánica del planeta, es por el contrario el resultado de la evolución orgánica. De igual modo, gran parte del CO (importante gas de efecto invernadero) es retirado de la atmósfera por los organismos y fijado en la madera de la vegetación y exoesqueletos de diversos organismos.
Por tanto la biosfera contribuye en una medida nada despreciable a perfilar y regular muchas de las características que hoy posee el planeta. El tan mencionado “calentamiento global”, que en realidad es una subida acentuada de la concentración de CO atmósfera más que de la temperatura, no es sólo debido a la actividad industrial y quema de combustibles fósiles, sino a la vez, a la eliminación de grandes extensiones de vegetación arbórea, cuya madera permitía su almacenamiento.
La hipótesis Gaia postula que existe una íntima relación entre las partes vivas y no vivas del planeta. Los principales ciclos aún llamados “geoquímicos” permiten comprobar esto. P.ej., si consideramos el ciclo del CO , vemos que los volcanes lo han producido y enviado a la atmósfera en grandes cantidades durante millones de años. Para que la superficie del planeta no alcance una temperatura inhóspita para la vida, la biosfera necesita retirarlo de la atmósfera. Los animales y las plantas reciclan cantidades masivas de oxígeno en sus procesos de fotosíntesis, respiración y descomposición. Estos cambios se mantienen en equilibrio y casi no afectan al nivel de CO 2 en la atmósfera. El exceso de CO 2
atmosférico es absorbido y reciclado a través de un extenso loop de retroalimentación, que
incluye la erosión de las rocas como elemento clave. para formar diversos compuestos
químicos, principalmente carbonatos. El CO En el proceso de erosión de las rocas, éstas se combinan con el agua de lluvia y con el CO 2 es retirado de la atmósfera y disuelto en soluciones líquidas. Hasta aquí el proceso es puramente químico. Pero Lovelock y otros descubrieron que la presencia de bacterias en el suelo incrementa considerablemente la
erosión.
En cierto sentido, las bacterias del suelo actúan como catalizadores del proceso de erosión de las rocas, de modo que todo el ciclo del CO puede contemplarse como el equivalente biológico de un ciclo catalítico. Los carbonatos son luego transportados a los
océanos, donde algas microscópicas (y corales) los absorben para construir sus caparazones de carbonato cálcico. Así, buena parte del CO2 que estaba en la atmósfera acaba convertido en exoesqueletos de algas y animales. Cuando estos organismos mueren, sus caparazones forman sedimentos masivos carbonáticos (calizas y margas) o aportan carbonatos a la diagénesis de otras rocas, las cuales -en zonas de subducción- se pueden hundir gradualmente en el manto terrestre, fundiéndose. Parte del CO contenido en las rocas fundidas será reenviado a la atmósfera por los volcanes, para iniciar otra vuelta en el ciclo.
El ciclo entero -que vincula volcanes, erosión de las rocas, bacterias del suelo, algas oceánicas, sedimentos de caliza y de nuevo volcanes- actúa como un gigantesco ciclo de retroalimentación que contribuye a la regulación de la temperatura de la Tierra. Ciclos similares -que comprenden plantas y rocas, animales y gases atmosféricos, microorganismos y océanos- regulan el clima de la Tierra, la salinidad de sus océanos y otras importantes constantes planetarias.
NO-LINEALIDAD
Al principio, la hipótesis Gaia se encontró con una fuerte resistencia de la comunidad científica a adoptar esta nueva visión de la vida y del planeta. Revistas académicas prestigiosas, tales como Science y Nature, rechazaron incluso publicarla. Lovelock y Margulis desafiaban los conceptos establecidos de que la geología, la biología y la química atmosférica eran ciencias separadas, y de que las fuerzas de la geología eran las únicas que marcaban las condiciones para la vida sobre la Tierra. Pero los animales y plantas no son meros pasajeros que hallaron por casualidad las condiciones adecuadas para su evolución, sino que ha sido la evolución inorgánica y luego la vida misma la que ha creado las condiciones aptas para su propia existencia.
El principal argumento implícito en el rechazo de la teoría Gaia era que la hipótesis no podía ser científica porque era teleológica, es decir, que implicaba la idea determinista de procesos naturales conformados con un propósito. Pero ninguno de sus autores sostuvo nunca que la autorregulación planetaria estuviera dotada de un propósito, como tampoco lo sostiene la teoría de la evolución. Pero el pensamiento mecanicista aún se debate
con la vieja metáfora de Dios como relojero. Afortunadamente, la visión sistémica se ha ido extendiendo, y hoy se contempla la autoorganización de la naturaleza como un hecho real. Diversos equipos de investigación en distintos campos siguen avanzando en formulaciones más detalladas de la misma (ver p.ej.: Bateson, 1979; Capra, 1998), aunque es discutible qué partes de la corteza o del globo intervienen en la autorregulación de la biosfera y del planeta.
Las teorías y modelos descritos tratan con sistemas complejos, que comprenden miles de reacciones químicas interdependientes. En las últimas décadas ha aparecido un nuevo conjunto de conceptos y técnicas para tratar con esta enorme complejidad, conjunto que
ha empezado a formar un marco matemático coherente. Y que se conoce como teoría de los sistemas complejos o dinámica no-lineal.
Esta es una teoría esencialmente matemática, cuyos conceptos y técnicas se aplican a un amplio espectro de fenómenos. Lo mismo puede decirse de la teoría del caos y de teoría fractal, que son importantes ramas de la dinámica no-lineal. Todas ellas son herramientas que permiten dotar de mayor rigor científico a las formulaciones sistémicas, ya que los nuevos patrones cualitativos de los sistemas complejos son básicamente no-lineales.
Cuando la relación entre dos variables de una ecuación simple de tipo y = x + 1 es representada en un gráfico de coordenadas cartesianas, corresponde a una línea recta, y las ecuaciones de este tipo son llamadas ecuaciones lineales. De modo similar, una ecuación de tipo y = x2 es representada en un gráfico de coordenadas cartesianas por una parábola, y las ecuaciones de este tipo, correspondientes a curvas, se denominan ecuaciones no-lineales. Tienen la característica de que una o varias de sus variables están
elevadas a potencias.
En la física clásica, cuando se trataba con fenómenos naturales complejos -como flujos turbulentos de agua y aire- se planteaban ecuaciones no-lineales, pero dado que éstas eran demasiado complejas para resolverlas, los científicos evitaban generalmente su estudio. Frecuentemente, cuando aparecían ecuaciones no-lineales eran inmediatamente “linealizadas”, es decir, reemplazadas por aproximaciones lineales. De este modo, en lugar de describir los fenómenos en toda su complejidad, se suavizaban o redondeaban.
Este hábito arraigó tanto que muchas ecuaciones eran linealizadas mientras se planteaban, de modo que los textos científicos ni tan siquiera incluían su versión no-lineal íntegra. Consecuentemente, la mayoría de científicos e ingenieros llegaron a creer que todos los
fenómenos naturales podían -virtualmente- ser descritos por ecuaciones lineales. Adicionalmente, una cosa es plantear las ecuaciones, y otra muy distinta resolverlas. No obstante, la reciente exploración de los sistemas no-lineales ha obligado a reconsiderar nociones
muy básicas sobre las relaciones entre un modelo matemático y el fenómeno que describe. Una de ellas concierne a lo que entendemos por simplicidad y complejidad. En el mundo de las ecuaciones lineales, se creía que los sistemas descritos por ecuaciones simples se comportaban simplemente, mientras que los descritos por complicadas ecuaciones lo hacían de modo complejo. En el mundo no-lineal -que, como empezamos a descubrir, incluye la mayor parte del mundo real- simples ecuaciones pueden producir una gran riqueza y variedad de comportamiento.
Por otro lado, un comportamiento aparentemente complejo y caótico puede dar lugar a estructuras ordenadas y sutiles patrones. En los sistemas no-lineales frecuentemente ocurren procesos de retroalimentación amplificadora. Mientras en los sistemas lineales los pequeños cambios producen pequeños efectos, en los sistemas no-lineales los pequeños cambios pueden tener efectos espectaculares, ya que pueden ser repetidamente amplificados por retroalimentación positiva.
Matemáticamente un loop de retroalimentación corresponde a una determinada clase de proceso no-lineal conocido como iteración, en el que una función opera reiteradamente sobre sí misma. Cada uno de los pasos iterativos recibe el nombre de una “cartografía”.
Una iteración frecuentemente encontrada en sistemas no-lineales y que, aun siendo muy simple, produce gran complejidad, es:
x kx (1-x) en la que la variable x queda reducida a valores entre 0 y 1. Esta cartografía, denominada cartografía logística, tiene muchas aplicaciones importantes. Se usa en biología para describir el crecimiento de una población bajo tendencias opuestas.
Una iteración de esta cartografía representada sobre un segmento originará operaciones repetidas de estirado y replegado. A medida que avanza el proceso de iteración los puntos vecinos irán siendo desplazados más y más uno del otro, hasta que resulta imposible predecir en qué posición se encontrará un punto determinado tras múltiples iteraciones. Incluso los ordenadores más potentes redondean sus cálculos al llegar a cierto número de decimales, y después de un número suficiente de iteraciones, incluso el más pequeño error de redondeo habrá añadido suficiente incertidumbre para convertir toda predicción en imposible. La cartografía logística es un prototipo de los procesos no-lineales, altamente complejos e impredecibles, conocidos técnicamente como caos.
SIGUE CAP 2
TEORIA DEL CAOS
Patterns and dissipative structures in caves and geoforms of the Jaizkibel pseudokarst
Laboratorio de Bioespeleología - Sociedad de Ciencias Aranzadi. Alto de Zorroaga. E-20014 San Sebastián - Spain.
E-mail: cegalham@yahoo.es
Abril 2010.
No hay comentarios:
Publicar un comentario
Es importante tu comentario o sugerencia, gracias por participar.