Este documento presenta una introducción a la teoría de los sistemas auto-organizados, incluyendo conceptos como el pensamiento sistémico, la teoría del caos, los atractores, la auto-organización, la cibernética, la retroalimentación y la emergencia. Explica brevemente cada uno de estos temas y proporciona ejemplos para ilustrarlos.
Dupey & Pinzón (coords.) - De olfato. Aproximaciones a los olores en la histo...
Documentos Teoría de los Sistemas auto-organizados 16-10-2017
1. Documentación para el Seminario:
Teoría de los Sistemas Auto-Organizados
Sesión: 16-10-2017
1.- Pensamiento Sistémico (reflexiones)
2.- Teoría del Caos
3.- Los Atractores de los sistemas dinámicos
4.- Auto-Organización
5.- Cibernética y Retroalimentación
6.- La Emergencia
2. 1.- Pensamiento sistémico (reflexiones)
El pensamiento sistémico es un marco conceptual, un nuevo enfoque
que se ha desarrollado en los últimos setenta años y que facilita una mejor
visión de la relación local/global.
La pregunta sería: ¿en qué medida lo global (variables globales) afectan
lo local ?, ¿puede un "Todo" tener influencias sobre sus partes?
En filosofía, el pensamiento sistémico encuentra un equivalente en la
teoría holística. El holismo (del griego ὅλος [hólos]: "todo", "por entero",
"totalidad") es una posición metodológica y epistemológica que postula que los
sistemas (ya sean físicos, biológicos, sociales, económicos, mentales,
lingüísticos, etc.) y sus propiedades, deben ser analizados en su conjunto y
no solo a través de las partes que los componen.
Psicología sistémica
La psicología sistémica se construyó sobre constructos teóricos como la
teoría general de sistemas, la cibernética y la pragmática de la comunicación.
Ha construido mecanismos de acción que le han permitido posicionarse no sólo
en la psicología familiar sino en los d iferentes ámbitos profesionales de la
psicología (educativa, organizacional, social, comunitarias, etc.). El movimiento
sistémico en psicología se conoce mejor con el nombre de “terapia familiar
sistémica”.
Pensamiento complejo
Para Edgar Morin, sociólogo y filósofo francés, la complejidad responde
al principio de unidad en la diversidad. Propone llevar el pensamiento sistémico
a un pensamiento complejo por diversas vías. Por ejemplo:
El principio sistémico o organizacional. El todo es "más que la suma
de sus partes", y ciertas veces "menos que la suma de sus partes":
ciertas cualidades de los componentes son inhibidas por la oganización
del conjunto.
El principio "hologramático". El todo se refleja en las partes: ejemplo,
la totalidad del patrimonio genético está presente en cada célula.
El principio de bucle retroactivo. "El efecto actúa sobre la causa": por
ejemplo, el termostato de la calefacción o la homeostasis del organismo.
El principio de bucle recursivo. Los individuos producen la sociedad y
ella produce la "humanidad " de los seres humanos a través del lenguaje
y de la cultura.
El principio de reintroducción del "conocedor" en el conocimiento.
Todo conocimiento es una "reconstrucción-traducción" por parte del
investigador en relación con una epoca y una cultura determinadas.
Ciencias cognitivas.
Nacidas en los años 1950, las ciencias cognitivas se encuentran en la
intersección entre varias ciencias: la linguística, la antropología, la psicología,
3. las neurociencias, la filosofía y las ciencias de la inteligencia artificial. El
cognitivismo promueve la idea de que la mente es un sistema de tratamiento
simbólico de la información y no una actividad neutra de percepción.
Otro enfoque cercano es la teoría constructivista: la elaboración de la
representación de la "realidad" es el resultado de una actividad del sujeto que
percibe y piensa.
Humberto Maturana Romesín (Santiago, 14 de septiembre de 1928) es
un biólogo chileno y Premio Nacional de Ciencias. (Es co-creador del concepto
de autopoiesis junto a Francisco Varela). Su trabajo se inscribe en la corriente
"constructivista". Dió pruebas experimentales de que la "realidad" es una
construcción consensual común a todos que nos aparece después como
"objetiva".
2.- Teoría del Caos
El comienzo de la reciente historia del caos se sitúa en la década de 1950
cuando se inventaron los ordenadores y se desarrollaron algunas intuiciones
sobre el comportamiento de los sistemas no lineales. Esto es, cuando se vieron
las primeras gráficas sobre el comportamiento de estos sistemas mediante
métodos numéricos. En 1963, Edward Lorenz trabajaba en unas ecuaciones,
las mundialmente conocidas como ecuaciones de Lorenz, que esperaba
predijeran el tiempo en la atmósfera, y trató mediante los ordenadores de ver
gráficamente el comportamiento de sus ecuaciones.
La teoría del caos es la denominación popular de la rama de las
matemáticas, la física y otras ciencias (biología, meteorología, economía, entre
otras) que trata ciertos tipos de sistemas complejos y sistemas dinámicos muy
sensibles a las variaciones en las condiciones iniciales. Estos sistemas
son en rigor deterministas, es decir; su comportamiento puede ser
completamente determinado conociendo sus condiciones iniciales.
De una manera general, los sistemas dinámicos se pueden clasificar en:
Estables, cuando dos soluciones con condiciones iniciales suficientemente
cercanas siguen siendo cercanas a lo largo del tiempo. Así, un sistema
estable tiende a lo largo del tiempo a un punto, u órbita, según su dimensión
(atractor o sumidero).
Inestables, cuando dos soluciones con condiciones iniciales diferentes acaban
divergiendo por pequeñas que sean las condiciones iniciales. Así un sistema
inestable "escapa" de los atractores.
Caóticos, cuando el sistema no es inestable y si bien dos soluciones se
mantienen a una distancia "finita" cercana a un atractor del sistema dinámico,
las soluciones se mueven en torno al atractor de manera irregular y pasado el
tiempo ambas soluciones no son cercanas, si bien suelen ser
cualitativamente similares. De esa manera, el sistema permanece confinado
en una zona de su espacio de estados, pero sin tender a un atractor fijo.
4. Ecuaciones de Lorenz
El primer sistema de ecuaciones bien caracterizado que exhibía
comportamiento caótico fue el sistema de ecuaciones propuesto por
Lorenz (convección atmosférica):
x ˙ = σ ( y − x ) y ˙ = r x − y − x z z ˙ = x y − b z
donde σ es el número de Prandtl (viscosidad/conductividad térmica
del aire), r es el número de Rayleigh (John Strutt) (diferencia de
temperatura entre base y tope) y b es la razón entre la longitud y
altura del sistema.
3.- Los Atractores de los sistemas dinámicos
En el campo matemático de los sistemas dinámicos, un atractor es un
conjunto de valores numéricos hacia la cual un sistema tiende a
evolucionar, en una amplia variedad de condiciones iniciales del sistema.
Un atractor es un objeto matemático abstracto: no puede ser
observado en la naturaleza.
Geométricamente, un atractor puede ser un punto, una curva, o incluso
un conjunto complicado de estructura fractal conocido como atractor extraño.
La descripción de atractores de sistemas dinámicos caóticos ha sido uno de los
grandes logros de la teoría del caos.
La trayectoria del sistema dinámico en el atractor no tiene que satisfacer
ninguna propiedad especial excepto la de permanecer en el atractor; puede ser
periódica, caótica o de cualquier otro tipo.
Los atractores son partes del espacio de fases del sistema dinámico.
Espacio fásico (o de fases)
En mecánica clásica, el espacio fásico es una construcción matemática
que permite representar el conjunto de posiciones y momentos (masa por
velocidad) de un sistema de partículas. Es decir, cada punto del espacio
fásico representa un estado del sistema físico.
Atractor extraño
En los atractores clásicos, todas las trayectorias convergen en un único
punto o un ciclo límite, es decir, todas las trayectorias terminan en un estado
estacionario puntual o cíclico.
Ejemplos: el estado final de una piedra que cae, un péndulo que se
inmoviliza o un vaso con agua que se estabiliza.
(Un ciclo límite es una órbita periódica del sistema que corresponde a un
mínimo o un máximo).
5. A diferencia de los atractores clásicos, los atractores extraños tienen
estructura a todas las escalas. Un atractor es extraño si tiene una dimensión
no entera (o "fractal": dimensión de Hausdorff) o si la dinámica en el atractor es
caótica.
Matemáticamente, se habla de caos o comportamiento caótico para
referirse a un comportamiento determinista aperiódico muy sensible a las
condiciones iniciales: una pequeña variación inicial se puede transformar en
una variación muy grande final (popularizado por el "efecto mariposa").
4.- Auto-Organización
La auto-organización es un proceso en el que alguna forma global de
orden o coordinación surge de las interacciones locales entre los
componentes de un sistema.
El término "auto-organización" fue introducido por vez primera por
Immanuel Kant en la Crítica del juicio y recuperada en 1947 por parte del
psiquiatra e ingeniero W. Ross Ashby.
El concepto de "auto-organización" fue adoptado por todos aquellos
asociados a la Teoría de Sistemas en la década de 1960, pero no se convirtió
en un concepto científico común hasta su adopción por parte de los físicos y,
en general, de los investigadores de los sistemas complejos en las décadas de
los setenta y ochenta.
Hipótesis nº 1 : lo aleatorio.
El proceso es espontáneo: no está dirigido ni controlado por ningún
agente o subsistema dentro o fuera del sistema. El proceso es generalmente
desencadenado por fluctuaciones aleatorias que son amplificadas por
realimentación positiva. La organización « emerge ».
Consecuencia :
La organización resultante está completamente descentralizada o
distribuida sobre todos los componentes del sistema; esta organización resulta
típicamente muy robusta, capaz de sobrevivir y auto-reparar daños o
perturbaciones sustanciales. Ejemplos comunes son: la cristalización, la
emergencia de patrones de convección en un fluido, los osciladores químicos,
6. los enjambres de grupos de animales y el modo en que las redes neuronales
artificiales aprenden a reconocer patrones complejos.
Los antiguos atomistas creyeron ya que, dadas unas condiciones
espaciales y temporales suficientes, la auto-organización de la materia había
aparecido como un producto natural necesario.
Hipótesis nº 2 : la complejidad irreductible
El « diseño inteligente » (DI) es la postura que defiende que ciertas
características del universo y de los seres vivos se explican mejor por un
proceso « inteligente », no por un proceso no-dirigido, aleatorio, como la
selección natural. Habría que definir « inteligente », por supuesto.
Por desgracia, el « diseño inteligente » ha servido muchas veces de
argumento a favor de las teorías creacionistas. Su interés, sin embargo, es el
de permitir abrir una tercera vía, independiente del « todo-selectivo » de los
neodarwinistas y de la intervención divina de los creacionistas.
El término "complejidad irreducible" fue introducido por el bioquímico
Michael Behe en su libro Darwin's Black Box (La caja negra de Darwin, 1996).
Behe lo define así : "un sistema que se compone de varias partes
complementarias que interaccionan para contribuir a la función básica, y donde
la eliminación de cualquiera de las partes hace que el sistema deje de
funcionar eficazmente".
Behe usa la analogía de una ratonera para ilustrar este concepto. Una
ratonera se compone de varias piezas que interaccionan -la base, la barra, el
resorte y el percutor-, todo lo cual debe estar en su lugar para que la ratonera
funcione. La eliminación de cualquier pieza destruye la función de la ratonera.
Consecuencia :
El argumento de la complejidad irreducible asume que las partes
necesarias de un sistema siempre han sido necesarias y, por tanto, no podrían
haber sido añadidas secuencialmente ni aleatoriamente.
5.- Cibernética y Retro-Alimentación
(Partes de artículos de Wikipedia)
Cibernética
La cibernética es el estudio interdisciplinario de la estructura de los
sistemas reguladores. La cibernética está estrechamente vinculada a la teoría
de control y a la teoría de sistemas. Tanto en sus orígenes como en su
evolución, en la segunda mitad del siglo XX, la cibernética es igualmente
aplicable a los sistemas físicos y sociales.
Los sistemas complejos afectan su ambiente externo y luego se adaptan
7. a él. En términos técnicos, la cibernética se centra en funciones de control y
comunicación: ambos fenómenos externos e internos al sistema. Esta
capacidad es natural en los organismos vivos y se ha imitado en máquinas y
organizaciones. Especial atención se presta a la retroalimentación y sus
conceptos derivados.
Retroalimentación
La retroalimentación es un mecanismo por el cual una cierta proporción
de la salida de un sistema se redirige a la entrada, con objeto de controlar su
comportamiento.
Esquematizacion de retroalimentación
La retroalimentación es un mecanismo, un proceso donde una señal se
propaga dentro de un sistema, desde su salida hacia su entrada, formando un
bucle. Este bucle se llama "bucle de retroalimentación".
La retroalimentación y la autorregulación están íntimamente
relacionadas.
La retroalimentación negativa, que es la más común, ayuda a mantener
la estabilidad en un sistema a pesar de los cambios externos. Se relaciona con
la homeostasis.
La retroalimentación positiva amplifica las posibilidades creativas
(evolución, cambio de metas); es la condición necesaria para incrementar los
cambios, la evolución, o el crecimiento. Da al sistema la capacidad de tener
acceso a nuevos puntos del equilibrio. Por ejemplo, en un organismo vivo, la
más potente realimentación positiva, es la proporcionada por la autoexcitación
rápida de elementos del sistema endocrino y nervioso (particularmente, como
respuesta a condiciones de estrés) y desempeña un papel dominante en la
regulación de la morfogénesis, del crecimiento, y del desarrollo de los órganos.
Todos estos procesos son con el fin de salir rápidamente del estado inicial. La
homeostasis es especialmente visible en los sistemas nerviosos y endocrinos
cuando se considera esto a un nivel orgánico.
8. 6.- Concepto de Emergencia (Wikipedia)
La emergencia, o el surgimiento, hace referencia a aquellas propiedades
o procesos de un sistema no reducibles a las propiedades o procesos de
sus partes constituyentes. Por ejemplo, el sabor de la sal no tiene que ver
con el cloro ni con el sodio por separado.
El concepto de emergencia ha adquirido renovada fuerza a raíz del auge
de las ciencias de la complejidad y juega un papel fundamental en la filosofía
de la mente y la filosofía de la biología.
Stuart Mill, en su obra A system of Logic (1843), estableció, por primera
vez, la distinción entre leyes homopáticas y heteropáticas:
- Las leyes homopáticas siguen el principio de composición de causas
que dicta que el efecto conjunto de varias causas es igual a la suma de
sus efectos por separado. Este principio se cumple en la mecánica
clásica, por ejemplo, en el efecto conjunto de diversas fuerzas actuando
sobre el mismo cuerpo.
- Las leyes heteropáticas no cumplen el principio de la composición de
causas. El ejemplo paradigmático al que alude Mill es el de las reacciones
químicas. En este campo las propiedades del compuesto resultante no
pueden formularse como la suma de las propiedades de los compuestos
reactivos; por ejemplo: el agua tiene propiedades que no pueden
reducirse a la suma de las propiedades del oxígeno y el hidrógeno.
A pesar del auge de los emergentistas británicos durante los años 20 el
concepto fue perdiendo fuerza en la década de los 30 debido, según
McLaughlin (1992), al desarrollo de la mecánica cuántica (que permitía dar
razón de las reacciones químicas en términos subatómicos) y, posteriormente,
de la biología molecular (que prometía dar cuenta de los fenómenos vivos en
términos de sus componentes moleculares).
Sin embargo, durante los años 70 y 80, el emergentismo volvió a renacer
de la mano de posturas filosóficamente más sofisticadas en relación al
problema mente-cuerpo y la fundamentación de la psicología (en concreto el
funcionalismo) que desbancaron al fisicalismo reduccionista que defendían
algunos positivistas lógicos.
También el auge de las ciencias de la complejidad (vida artificial,
biología de sistemas, teoría del caos, etc.) y las simulaciones por ordenador de
propiedades sistémicas han dado lugar a un nuevo interés por el término.
La mente, por ejemplo, es considerada por muchos como un fenómeno
emergente ya que surge de la interacción distribuida entre diversos procesos
neuronales (incluyendo también algunos corporales y del entorno) sin que
pueda reducirse a ninguno de los componentes que participan en el proceso
(ninguna de las neuronas por separado es consciente).
9. Emergencia débil
Se habla de emergencia débil cuando existen propiedades que son
identificadas como emergentes por un observador externo pero que
pueden explicarse a partir de las propiedades de los constituyentes
primarios del sistema. Es el caso de la cristalización de las moléculas de
agua: las cualidades del cristal no pertenecen ni al hidrógeno ni al
oxígeno, pero pueden explicarse y predecirse a partir de ellos.
Emergencia fuerte
La emergencia de la vida a partir de lo inanimado o la emergencia de la
mente a partir del sistema nervioso son los ejemplos clásicos de
emergencia fuerte. Así, por ejemplo, se habla de causalidad
descendente (downward causation, término acuñado por Donald
Campbell en 1974) cuando las propiedades del nivel emergente tienen
efectos causales sobre las propiedades o procesos de nivel inferior.