3 – La naturaleza de lo natural


 

clip_image002


Lo natural

Siempre que se hace referencia a “lo natural” queremos significar un orden primitivo, rector, indiscutible… que presupone sustentabilidad, historia y de alguna forma jerarquía. Siempre es mejor lo natural a lo sintético, los alimentos “naturales” son más caros y apreciados que los otros, una “vida natural” es la que supuestamente nos aportará una mejor calidad de vida, a la vez más extensa y saludable. “Lo natural” tiene una autoridad que va más allá, y se nos es difícil desoírla, vulnerarla. Un poco por miedo, porque la naturaleza encierra todo lo oculto que la ciencia todavía no ha podido develar, y otro poco por una consecuencia de lógica sistémica, un “sentido común” que nos aconseja hacer las cosas de una determinada manera, en general en coherencia con “lo natural”.

¿Pero, qué es “lo natural”? Muchas órdenes religiosos se atribuyen esa coherencia, muchos gobernantes se consideran los “gobernantes naturales”, muchas conductas sexuales son consideradas “naturales”, y así podríamos seguir enumerando ciertos patrones que se han ido apropiando de la naturaleza y que se utilizan con un sentido determinado, siempre en función de una manipulación o de una utilización de la idea de “lo natural” en beneficio de lo propio.

También existe un vector referencial desde “lo natural” hacia lo común”, ya que si vivimos todos en un mismo planeta que tenemos que compartir entre hombre y mujeres y además, con toda otra forma de vida que debería también poder encontrar su posibilidad de existencia sobre la tierra; ese espacio “natural” se convierte en espacio “común” y sobre lo común ya hemos hablado en el capítulo 1.

Pero entonces, ¿existe realmente “lo natural”? ¿Lo natural es sólo una media estadística de procesos históricos exitosos? ¿Si existiera “lo natural”, qué pasa entonces con lo que no es natural? ¿Quién podría juzgar a ciencia cierta (¿la ciencia?) sobre lo que es natural y lo que no?

Sobre el primer cuestionamiento de mas arriba podemos interpretar a “lo normal” como una aproximación hacia lo natural, considerando lo normal como la media estadística de una registración histórica de los sucesos. Esto implica una simetría alrededor de esa media y una campana de Gauss que descarta toda posibilidad de eventos no contemplados ni siquiera como raros. Un tsunami es un fenómeno raro pero además es un fenómeno fortuito que trae impredecibles consecuencias. Un tsunami es un fenómeno natural pese a no ser “normal” porque escapa a la campana de Gauss que es la que define las simetrías y la normalidad de los sucesos.

Para contrarrestar toda esta polémica se acuñó otro concepto que se utiliza en este sentido cada vez con más frecuencia y es “lo ecológico”. Pues bien, por ahora “lo ecológico” todavía se mantiene bastante al margen de lo ideológico y de lo religioso, no se ha “sistematizado”, por lo tanto el término guarda mucho de su esencia que representa “una lógica sostenible de la naturaleza”.

La irrupción del homo sapiens sapiens dentro de escenarios hasta ese momento eminentemente “natural” y virgen, va provocando fisuras en ese paisaje. A partir de su racionalidad, el hombre le va introduciendo modificaciones y perturbaciones, tantas que hoy se habla de “degradación del planeta”, de “riesgo climático”, del “calentamiento global”, se cuestiona si una madre debería quedarse en su casa con sus hijos o por el contrario, si debería salir a trabajar. También se emplean términos como sostenibilidad, resiliencia y muchos otros que nos hablan de que a los sistemas políticos y religiosos tradicionales se les está haciendo cada vez más dificultoso sostener las jerarquías obtenidas a partir de su propia calificación de “naturales” y o “normales”.

El límite para las interacciones directas

Vamos a retomar ahora a un tema remanido pero de vital importancia para las redes sociales. ¿Hasta qué punto puede crecer una comunidad interaccional (una red distribuida) sin que se corra el riesgo de colapsar, y por qué no decirlo de desnaturalizarse, si consideramos que la naturaleza de una red de este tipo es su identidad interaccional? ¿Hasta dónde se puede crecer sin que se pierda la identidad colectiva? Se podrían enunciar innumerables interpretaciones también de sentido ideológico o religioso. Nosotros nos centraremos únicamente en las posibilidades de crecimiento que tiene cualquier tipo de red social distribuida sin que por ello pierda la identidad por la que se creó y subsiste, en otras palabras sin que pierda su esencia y colapse como tal, aunque más no sea convirtiéndose en otra cosa. Si bien entendemos que en las redes sociales las cosas no son tan categóricas y que existen transformaciones, abruptas o no, en general conservan patrones resilientes que podríamos calificar de memoria o cultura de red.

Esto pone sobre el tapete otra categoría autocrática sobre lo que “no es” natural, lo que “no debe ser”, en una lógica bipolar que excluye cualquier tercera posibilidad, zona nebulosa, espacio de transición o adaptación que pudiere existir. En la física o en la ingeniería a estos espacios donde los sistemas no están todavía totalmente definidos o estabilizados se los denomina zona de transición o no-estacionaria.

El tamaño máximo de una red distribuida es un tema recurrente al que se vuelve y se vuelve, ya que ese límite marcaría una frontera a partir de la cual un incremento en el número de integrantes de una red social podría poner en riesgo de fractura “lo social”; incluso la podría inducir al colapso total. Y a la hora de poner límites este tema adquiere características polémicas de las que nadie se quiere hacer cargo o por el contrario, se las define autocráticamente.

Para contrarrestar los efectos nocivos que pudiere acarrear el crecimiento abusivo de una red interaccional y tratando de despojarnos de todo preconcepto ideológico y/o religioso, la naturaleza ha instrumentado mecanismos creativos como la división de los grupo en subgrupos, como las que realizan algunas especies de simios. Sin embargo el número máximo cierto de agentes para una red distribuida sigue siendo una incógnita y por demás polémico para nosotros los humanos.

 

En un intento por descifrar este enigma muchos analistas de redes sociales echan mano del número descripto por el antropólogo Robin Dunbar, ya que es el único que arriesga una cifra: 147,8 -conocido también como número de Dunbar. Redondeada en 150, ésta sería la cantidad máxima de relaciones directas que un miembro de una comunidad de humanos podría sostener. Se entiende relaciones directas de todos con todos, los ciento cincuenta.

¿De donde sale ese número? Dunbar establece una regla que se cumple para 36 tipos diferentes de primates. Esta regla establece una relación entre la tasa del volumen del neocortex del cerebro de cada tipo de primate por el volumen del cerebro (descontado el volumen del neocortex) y el tamaño de la comunidad de interacción directa entre primates, cualquiera sea la especie de la que se trate.

El método que utiliza es este: para cada clase diferente utiliza la siguiente fórmula

Log(N) = 0.093 + 3.389 Log(CR) 

En donde N es el número de la población de la especie en cuestión y CR es la razón entre el volumen del neocortex sobre el volumen total del cerebro, una vez descontado el volumen del neocortex.[i]

Si el conjunto de las 36 clases definen los puntos de una recta, para determinar el N para la clase humanos sólo haría falta establecer el CR para el cerebro humano y así se obtendría el resultado.[ii]

¿Qué quiere decir el número 147,8? Según la interpretación de Dunbar es el número máximo de relaciones interpersonales directas que un miembro de una clase puede sostener, o mejor dicho atender, dentro del grupo. Aparentemente un miembro del grupo, de acuerdo a su capacidad de procesamiento cerebral de información podría atender únicamente un máximo de 150 relaciones interaccionales como media. Esto para cada miembro del grupo, si las relaciones son de a pares ese número será el que limitará al grupo.

Esto recuerda las famosas redes P2P de computadoras en donde todas las máquinas estaban relacionadas con todas las otras y en donde una base de datos P2P colapsaba al superar un número máximo que rondaba las 100 computadoras. Es por eso que se crearon otros tipos de protocolos para la interconexión de un número de máquinas mayor, como el famoso TCP-IP que en vez de “relaciones de a pares” (P2P) utiliza una tabla de direccionamiento. El mismo Dunbar aclara que este número está sujeto a variaciones y a contextos en los humanos, que entre primates no se dan, como por ejemplo las interacciones del habla que le son propias nuestra especie. Su intento por llegar a un número es importante.

De Dunbar a las Powers Laws

Pero volvamos a la ecuación de Dunbar, esta también se podría escribir de la siguiente manera:

Log(N) = Log(1.2388)+ 3.389 Log(CR)

vemos que es una ecuación que responde a la siguiente forma:

Log(fx) = Log a + k Log x = Log a xk – [Equación 1 ] 

Que es lo mismo que decir:

f(x) = a xk – [Ecuación 2] 

La ecuación 2 es una relación matemática del tipo Ley potencial o más conocida por su nombre en inglés Power Law en donde a (la constante de proporcionalidad) y k (el exponente de la potencia) son constantes. Esta es su gráfica:

clip_image003

 

 

 

En su forma doble logarítmica (ecuación 1), la Ley potencial adquiere forma de recta[iii].

Muchas distribuciones toman esta forma, algunos ejemplos son la Distribución Pareto, la Ley de Zipf, la ley de Kimberley, la distribución de los enlaces en Internet (Barabasi) y muchas otras que también responden a este esquema.

Si en el eje de las absisas (eje de las x) representamos los posibles casos que se nos podrían presentar en la muestra, la casuística, y en el de las ordenadas (eje y) graficamos el conjunto frecuencia f con que cada x se repite, veremos que las frecuencias mas altas se concentrará entre unos pocos casos, mientras que la otra gran cantidad de casos se mantienen muy poco frecuentes.

Este tipo de distribución es muy estable en el tiempo,  aplicable a diferentes ámbitos y se la conoce como “distribución de Pareto”, porque debe su nombre a Wilfredo Pareto quién estableció que por encima de un cierto tamaño de muestra, la distribución de los ingresos acumulados de una familia forman casi una recta cuando se trazan sobre una escala doble logarítmica (Log-Log), lo que permite la interpolación y la consecuente estimación de valores para otras clases diferentes no muestreadas.

El famoso economista y sociólogo suizo Wilfredo Pareto descubrió la distribución que lleva su nombre al estudiar la distribución de los ingresos entre las familias suizas. Hay un número mayor de familias con bajos ingresos que familias con altos ingresos, eso es evidente, lo que no se conocía hasta entonces es que estas distribuciones seguían un patrón característico para cualquier ingreso, para cualquier nación o para cualquier época en que se hagan los muestreos. La teoría se ha ido perfeccionando desde entonces, pero el método sigue siendo válido para una amplísima gama de muestras distintas de edades y área geográficas, lo que la convierte en un instrumento muy poderoso de análisis y pronosticación.

Los análisis de distribuciones estadísticas han demostrado que las distribuciones de Pareto son, de hecho, muy comunes en diversos ámbitos:

·       Distribución de empresas en relación con el número de empleados.

·       Distribución de empresas en relación con los ingresos anuales.

·       Establecimientos en relación al número de empleados.

·       Distribución de computadoras por precio.

·       Distribución de computadoras por capacidad de la memoria.

·       Servidores instalados en relación con las terminales que atiende.

 

Tal vez la distribución de Pareto o regla del 80:20 sea una de las más conocidas de una serie power laws, pero existe una cantidad significativa de distribuciones que responden a esta regla general. En el esclarecedor libro del físico nuclear y especialista en sistemas Peter Winiwarter, NEURAL NETWORK NATURE -Fractal Hierarchies of ‘Perceptrons’ from Clusters of galaxies to the World Wide Web 1”, 2, y 3, se hace una pormenorizada descripción de los diversos sistemas que adquieren este tipo de distribución.

“Las power laws son las características generales emergentes que presentan los sistemas complejos. A pesar de la complejidad y de la idiosincrasia de los organismos y ecosistemas en que se producen, hay aspectos en la estructura y en las funciones de estos sistemas que se mantienen auto-similares, o casi, dentro de una amplia gama de escalas espaciales y temporales. Leyes potenciales empíricas describen matemáticamente una jerarquía de tipo fractal en la organización de estos sistemas. Presumiblemente estas leyes reflejan el resultado del poder de simples normas o mecanismos. Por una parte, mecanismos sencillos que determinan la estructura y la función de los componentes fundamentales en escalas de menor rango limitan las funciones de estas piezas pequeñas cuando se agregan progresivamente a subconjuntos o jerarquías más grandes.

“Por otra parte, mecanismos sencillos que limitan la estructura y la dinámica a mayor escala, también establecen grandes limitaciones sobre cómo los componentes interactúan y se vinculan a gran escala, los sistemas complejos. Juntos, estos mecanismos de abajo para arriba y de arriba para abajo dan lugar a Power Laws y otras características emergentes”. [iv]

Power Laws por todos lados

Winiwarter se introduce en una cronología de enunciaciones de nuevas distribuciones con regularidades PZM y la primera que cita es a la ya mencionada:

1897-Wilfredo Pareto, Distribución del ingreso n = a S Y – donde n es la cantidad de personas que tienen un ingreso S mayor, y a, e y son constantes. 

clip_image005 

1913-Auerbach, distribución los tamaños de las ciudades de los países S(j) = a j β con S(j) como el tamaño de la ciudad ubicado en j, y a y β son constantes. Como en el ejemplo citado en la definición de los sistemas jerárquicos de tres niveles.

1912-Willis-Yule, distribución de las especies, género y familias en sistemas biológicos. Dicen los autores: “Este tipo de curva no sólo se sostiene para todos los géneros del planeta, sino que también para todas las familias individuales tanto de plantas como de animales, para géneros endémicos y no endémicos, para floras y faunas locales … también se obtiene, para todos los fósiles examinados del Terciario”.

1930-Max Kleiber observó que para la mayoría de los animales la tasa de metabolismo es 3/4 la potencia de la masa del animal q0 ~ M3/4, en donde q0 es igual a la tasa de metabolismo animal y M su masa corporal.

clip_image007 

1948-George Kingsley Zipf distribución de las frecuencias en la lingüística. Una de las más conocidas. Zipf describe regularidades de este tipo en campos de una variada gama, pero su mayor interés está volcado al lenguaje humano para el que analizó la distribución de las frecuencias de las palabras.

El Ulyses de James Joyce es el texto más rico conocido, con casi 30 000 palabras y una ocurrencia de palabra que va desde 1 hasta 2 653.

clip_image009 

1955-Herbert Simon, distribución de los tamaños de las empresas.

1956-Gutenberg-Richter la distribución de terremotos.

1983-Winiwarter, la distribución de los elementos químicos en el sistema cósmico.

1991-Cempel, la distribución de amplitudes de las vibraciones en el sistema mecánico de una máquina.

¿Vivimos en un mundo PZM?

La revisión de esta sintética cronología muestra el descubrimiento de regularidades similares tanto para ingresos, ciudades, especies biológicas, palabras, terremotos, elementos químicos, como para vibraciones de máquinas. “¿Como puede ser posible que esto tenga sentido sin un postulado común como soporte de los procesos y estructuras que se observan en los sistemas?”- se pregunta Winiwarter.

Hay una gran cantidad de nombres propios que abordan desde distintos ángulos el mismo tipo de distribución empírica observada en los sistemas autoorganizados, todos son sinónimos de la misma distribución estadística power law llamada PZM (Pareto-Zipf-Mandelbrot): Long tail , Principio de Pareto , Ley de Zipf, Ley de Zipf-Mandelbrot, Distribución log-normal, Distribución Yule-Simon, Distribución Frechet Weibull , Regla del rango/tamaño, Distribución fractal parabólica, 80/20 rule, Ley de Gutenberg-Richter, Ley de Lotka, Ley de Bradford, Ley de Benford, Criticalidad autoorganizada, power laws , leyes de escala, Red libre de escala, Ley de Kleiber.[v]

La ley constructal

Mi paso por la facultad de ingeniería estuvo marcado por la lógica de la dictadura militar.

En esos tiempos de sangre y plomo existían exámenes de ingreso y había cupos en las universidades del estado Argentino. También había limitaciones de circulación, agremiación y, claro, de expresión. En el caso de la Universidad Tecnológica Nacional, el formato por el que habían optado los militares para los planes de estudio de las carreras de ingeniería, no escapaba a esta lógica de restricciones y esquematizaciones y lo resolverían de la siguiente manera: dos años de ciencias básicas, dos años de ciencias básicas de la ingeniería y dos años de especialización.

Por eso de los cupos para el ingreso comencé a cursar ingeniería en la especialidad “química”, que trata esencialmente sobre la termodinámica de los diferentes procesos en donde se intercambia energía en forma de calor. Lo de “química” viene porque en las reacciones que dan lugar a estos procesos, se producen cambios químicos en la materia. Un buen ingeniero químico, en consecuencia, se debía y se debe centrar en el estudio de los procesos termodinámicos de los sistemas. Es también desde esa lógica que no puede haber un buen ingeniero químico que no sepa termodinámica, ésta era y lo sigue siendo aún hoy, el core de la ingeniería química. Para nosotros los estudiantes las leyes de la termodinámica se trasformaron con el tiempo en una religión, fe que en mundo real sólo podían profesar los ingenieros, ya que todos los otros se ocupaban de otras cosas.

En la búsqueda de un soporte que explique lo común entre la gran diversidad de distribuciones que responden a las diferentes Power Laws PZM, tan frecuentes en la naturaleza, y como bien solicitara Winiwarter, es que llegamos a una novel teoría sobre procesos mecánicos en donde intervienen flujos, la llamada: Teoría Constructal, desarrollada por el ingeniero rumano-americano Adrián Bejan.

Hasta Bejan la termodinámica clásica había obviado preocuparse por las formas o por las estructuras en donde se llevaban a cabo esas transformaciones. Que se cumplieran las leyes era suficiente para el estudio bárbaro de la ingeniería termodinámica -era de esta forma que también se cumplía con las cuestiones de fe-. A partir de la posmodernidad, parecería que esa ingeniería tosca se hubiere convertido en una ingeniería “fashion”, en donde el diseño ahora parece tener importancia. Este punto desde siempre trajo mutuas bromas entre arquitectos e ingenieros. Los primeros se quejaban de los segundos de no respetar ni siquiera las mínimas normas del arte y del diseño, los segundo caricaturizaban a los primeros con el clásico chiste de que si tuviesen que diseñar una represa hídrica, la harían… pero dejando ventanas en sus paredes para que quede más bonita. De hecho la carrera de diseño industrial estuvo prohibida durante la dictadura y hoy es una carrera con una gran matrícula, incluso mucho mayor que la de muchas ramas de la ingeniería.

Cuando la discusión entre arquitectos e ingenieros sobre el diseño aplicado a los productos y procesos típicos de la ingeniería parecía insalvable, aparece Adrián Bejan con su teoría constructal tratando de mediar en el conflicto.

Por las dudas Bejan toma sus recaudos para no herir susceptibilidades cuando dice:

“Es importante reconocer que la ley constructal es diferente a (es decir, complementaria a) las demás leyes de la termodinámica. La ley constructal fue propuesta como adicional a las leyes de la termodinámica.[…]La primera ley establece que la energía del sistema permanece constante. La segunda ley da cuenta que: para las observaciones que se describen como una tendencia en el tiempo, cuando los cambios que se producen en el interior de los sistemas, todos los flujos actúan de una misma y única manera, de mayor a menor. Analíticamente, esta tendencia denota que la entropía del sistema aumenta durante cada cambio.

“La primera y segunda ley hablan de una caja negra, sin geometría. No dicen nada acerca de las configuraciones (los dibujos, los mapas, las rutas) de las cosas que fluyen. […]La generación de la configuración del flujo es un fenómeno totalmente diferente de la física, que no está representado ni por la primera ni por la segunda ley. La secuencia temporal de los dibujos que el sistema de flujo exhibe a medida que evoluciona, es el fenómeno cubierto por la ley constructal”.

Esta es su definición:

El fenómeno nuevo es de cómo cada cosa adquiere arquitectura en la dirección del tiempo: las configuraciones existentes sobreviven cuando su cambio en el tiempo se hace hacia configuraciones de flujo más fácil (la ley constructal).

“La ley constructal también establece que si el sistema cambia su morfología libremente, entonces va a evolucionar, (por ejemplo, como una secuencia constante de estados), tal que su configuración se desarrolle y que sus corrientes fluyan más y más fácilmente. ¿Qué cambia en las propiedades y en los flujos del sistema de una configuración a otra? Depende de lo que está fijo, por ejemplo: lo que impulsa los flujos a través del sistema. En cualquier caso, fluir más y más fácil quiere decir que a nivel global la configuración del sistema posee cada vez menos y menos resistencia, y que la tasa de generación de entropía tiende en una sola dirección: hacia abajo o arriba, dependiendo de qué tipo de forzamiento se fija.

“Todos los ejemplos, desde la alometría de los animales a leyes de escala geofísicas, obedecen a lo conocidos y aceptados principios de la física. El hecho de que todos ellos exhiban “desdideño” es el “algo más”, que no está cubierto por los conocidos y aceptados principios”.

El tamaño de las ciudades y todas las distribuciones PZM se originan en la evolución de un diseño multiescala de los sistemas de flujo que conectan un punto con un área o un punto con un volumen; por lo que si tenemos una distribución de Zipf del uso de palabras en una lengua debe tener que ver con el modo en que la información fluye entre un punto y un área o un punto y un volumen y en esto tiene que ver la otra distribución de este tipo, la de Dunbar, donde los flujos de información provenientes del neocortex del cerebro se dirigen hacia la comunidad. La información, ya sea por impulsos electroquímicos como por el habla, es el flujo en cuestión que deberá evolucionar hacia formas más permeable para que ese flujo de información se haga más fluido y que las formas de la comunicación de la información adquieran cada vez menos y menos resistencia a su paso.

Vale la pena detenerse en esto por un momento. Bejan establece básicamente dos entidades: un punto y un volumen o superficie, uno fijo o moviéndose relativamente al otro, el fluido debe viajar en un sentido y si el volumen o la superficie que debe atravesar es lo suficientemente versátil como para que permita su deformación en el tiempo, la evolución de la forma de este volumen (superficie) se establecerá en el sentido que facilite desplazarse con mayor facilidad al fluido. Hay que aclarar que esta ley se cumple no sólo para los procesos termodinámicos, sino para todos los procesos en donde intervenga un cuerpo (superficie) y un flujo que lo atraviese.

Las redes, en este sentido, pueden representar los volúmenes o las superficies en cuestión y pueden actuar de dos maneras: como punto hacia el exterior, cuando intercambia materia y energía con el medio; y hacia adentro de la red cuando un nodo emite un mensaje y lo quiere propalar a toda la red. En este último caso la circulación del flujo es interna a la red.

La hipótesis ergódica

Hace ya un tiempo recurrimos a nuestra amiga, la Dra. en matemáticas María Alejandra Rodríguez Hertz, para que nos hable sobre los procesos ergódicos. Jana es una especialista en el tema y ha puesto a disposición del público lego una esclarecedora página Web en donde describe este proceso para el consumo del público.[vi]

La ergodicidad trata sobre la capacidad que tienen los fluidos de ocupar todo un volumen. Generalizado: si se proyecta un fluido al seno de un líquido (un volumen, una superficie), este se dispersará en todas las direcciones hasta llegar a ocupar el volumen (superficie) en toda su dimensión, si esto ocurre decimos que el proceso es ergódico. En una red un proceso ergódico sería aquel que permita que la información llegue a todos sus componentes con la misma probabilidad.

Video youtube =http://www.youtube.com/watch?v=tVg0XBAII_Q

En su trabajo, Jana da un primer ejemplo en donde utiliza la preparación de un “Negroni ergódico sin hielo” para ilustrar el proceso de difusión del Campari en el seno del Gin y del Martini y de cómo actúa para que: “al cabo de un período suficientemente largo de tiempo, la mayoría de las partículas se pueden encontrar en cualquier parte del espacio de fases con igual probabilidad”. De esta forma Boltzmann formula su famosa Hipótesis Ergódica (HE)

En una red, un sistema ergódico es aquel que permite que la información circule por o a través todos los nodos de la red; aquel donde el rastro que va dejando la información, a medida que circula, mancha a todos y cada unos de los nodos con igual probabilidad.

Sin embargo Jana no nos habla de la forma que adquiere el Campari a medida que se va diluyendo en el seno del trago, de hecho en el video que presenta, la inyección del líquido oscuro, que se va introduciendo dentro del vaso de a pequeños golpecitos de jeringa, adquiere formas de hermosos fractales. Pero claro a ni a ella ni a Boltzmann, parece importarles eso, ellos están preocupados por que el líquido ciertamente llegue a todo el volumen con la misma probabilidad y en la forma que toma para hacerlo. Para Adrián Bejan esto no da cuenta de lo mismo.

 

El modelos de los árboles fractales de West et al

Entre los ejemplos de distribuciones PZM que dábamos más arriba, citábamos a ley de Kleiber que establece la relación que hay entre el ritmo metabólico q0 y la masa corporal M elevada a la potencia 3/4 para cualquier animal, incluidos los pequeños organismos. De esta ley se desprende la alometría que establece las posibilidades de crecer que tienen los cuerpos vivos sin que el crecimiento afecte su metabolismo. A este fenómeno hacíamos referencia nosotros en el capítulo 2, cuando veíamos las estrategias evolutivas de las diferentes especies y de cómo los conglomerados, que teniendo que actuar en conjunto, evolucionaban hacia alternativas creativas para poder sobrellevar este problema.

La alometría es el estudio de la relación entre forma y tamaño.

Tanto en el trabajo citado más arriba como en este otro, James H. Brown, Geoffrey B.West, Brian Enquist, y otros científicos entre los que se encuentran matemáticos, físicos y por supuesto biólogos, establecen una ley de escala, o de escalamiento entre los seres vivos basados en Kleiber. Es en este paper: A General Model for the Origin of Allometric Scaling Laws in Biology, los científicos generalizan la idea del escalamiento alométrico de los seres vivos (incluidos los mamíferos) de acuerdo a la siguiente premisa: Los seres vivo se sostienen mediante el transporte de materiales a través de una red lineal que se ramifica para distribuirlos a todas las partes del organismo.

Los investigadores construyeron su modelo en base a tres premisas:

  • que se necesita un patrón de tipo fractal ramificado, capaz de llenar el espacio para suministrar los fluidos que sustentan la vida a todas las partes del organismo,
  • que la rama final de la red – las nervaduras de los árboles o los capilares del sistema circulatorio – son del mismo tamaño, no importa el tamaño de la “masa corporal” de la especie de la que se trate,
  • y que la energía usada para trasportar los recursos a través del la red tiende a ser minimizada.

Es muy interesante esta enunciación ya que se asemeja mucho a la Ley constructal que establecía “las configuraciones existentes sobreviven cuando su cambio en el tiempo producen configuraciones de flujo más fácil (la ley constructal)”. O la definición que aparece en Wikipedia que es más fácil de entender:

“Para que un sistema de tamaño finito persista en el tiempo (sobreviva), debe desarrollarse de tal manera que facilite el acceso a las corrientes que lo atraviesan.”

La facilidad que representa la definición de Bejan es que es mucho más general y que no hace la distinción de cómo tienen que ser las punteras del sistema (la operación de clausura del sistema). De todas formas el concepto del fractal conductor que distribuye en todo el espacio (volumen-superficie) es magnífico, ya que explica el porqué del sistema circulatorio, del sistema respiratorio y muchos procesos naturales se configuran de este modo.

¿Podríamos conceptuar una red social distribuida de esta manera? De forma tal que un miembro de la red pueda hacer circular un mensaje que llegue a TODA la red cumpliendo la hipótesis ergódica expuesta más arriba. Para verlo mejor vamos a construir un fractal de este tipo en base al modelo que propone Peter Raedschelders[vii]

El árbol fractal se definirá por tres parámetros:

  • un largo t ( el largo del tronco).
  • un ángulo theta θ (el ángulo que forman las ramas con el tronco).
  • una razón r (por la que se establece el largo de la rama en base a una proporción con el tronco).

Todos estos parámetros una vez fijos deben permanecer constantes para toda la evolución del fractal.

Se empieza por un segmento (el tronco) de largo t (t>0) que se lo considera como vertical. (Usualmente, consideramos un árbol canónico con un tronco de largo 1). En la base del tronco está la raíz; en la parte superior fijamos dos ramas, ambas de largo tr (de largo t o menor que t y mayor que 0).

Cada una de las ramas “forma un ángulo theta θ con la prolongación del tronco”. En el extremo libre de cada una de estas ramas fijamos dos nuevas ramas de largo tr2, nuevamente, formando un ángulo theta θ con la extensión lineal de la rama previa. Continuamos de este modo, adicionando a la nava posición, 2n ramas de largo trn.

clip_image011

Un árbol de grado 3 construido

con un ángulo theta = 40º y razón r = 0,6

Cuando hacemos la clausura del crecimiento adicionamos puntos límites a los que llamamos punteras. Y al conjunto se los denomina “conjunto de punteras”.

Algunas notaciones.

En un árbol binario, el único trayecto desde la raíz a cualquier nodo (final de una rama) se puede enunciar especificando una secuencia de derecha (R) o izquierda (L) en cada caso. Por lo tanto una secuencia tal como RLR no sólo localiza el nodo en el árbol, también describe el único trayecto desde la raíz al nodo. Las punteras se señalan mediante el signo infinito ∞, como infinitas secuencias de “R” o de “L” y se denotan así “R” o de “L”.

 

clip_image013

Winiwarter muestra unos ejemplos maravillosos de volúmenes y superficies ocupadas por este tipo de árboles fractales: 

clip_image015

Cuenca del Amazonas

clip_image017

Red de agua: delta de río, distribución PZM del tamaño del río 

clip_image019

Sistema de irrigación cerebral

 

clip_image021

Árbol traqueal

 

 

Una forma eficiente para comunicarse

Ahora hagamos un último ejercicio: consideremos a una red constituida por un árbol fractal binario cuya construcción estuvimos viendo más arriba. Consideremos que la red es un conglomerado como los del capítulo 2 y que uno de los agentes recibe o percibe algo que debe comunicar hacia el interior de la red a la totalidad del conglomerado. Digamos que debe avisar de un peligro y que hay que salir disparando.

Hagamos que la red cumpla con lo que postulaba Strogartz:

1-     Todos los individuos están pendientes de lo que hacen sus vecinos más cercanos.

2-     Todos los individuos tienen una tendencia a alinearse.

3-     Todos se acercan a los otros pero manteniendo un distancia mínima entre pares.

4-     En caso de peligro, salir huyendo.

Lo que le solicitamos a nuestra red de N agentes es que ponga en funcionamiento el punto 4. Para eso el agente que percibe el peligro primero (consideramos que hay un único agente que percibe el estímulo primero) lo debe comunicar con la mayor velocidad y eficiencia a la totalidad del la red. La condición ergódica es elemental, ya que cualquiera de los que no sea avisado puede ser arrasado por el riesgo en cuestión.

Para ello se establece como regla de morada una muy simple: tomando en cuenta la dirección de avance del conglomerado el agente Yo, el agente Ego, situado el tope del tronco emite dos mensajes, uno para el agente que está más cerca suyo a la derecha y otro para el que tiene más cerca a su izquierda. De esta forma comienza la construcción de un árbol fractal con origen en él mismo. Los agentes R y L reciben el mensaje y tomando como perspectiva de quién viene, realizan la misma operación repitiendo el procedimiento utilizado por Ego, al repetírselo a RR, RL, LR y a LL, y así sucesivamente hasta llegar a los nodos punteras. Fin de los mensajes. Todos los nodos procesan la información y actúan en consecuencia.

clip_image023 

Analicemos el caso del dibujo y trabajemos un poco con los números:

Cantidad de nodos [viii]

N= 63, generalizando N= Σ 2p con n que va desde 0 a p, siendo p el número de saltos o grados de separación, que hay que dar para llegar a las punteras, lo que es lo mismo que decir N= Σ2p+1 – 1 con n que va desde 1 a p

Cantidad de enlaces[ix]

C = 62 generalizando C= Σ 2p con n que va desde 1 a p, lo que es lo mismo que decir

C= Σ2p+1 – 2

Relación entre ambos

N = C +1

Grado

2n

Cant de nodos

Cant de enlaces reales

Cant de enlaces máx.

Cant de enlaces mín.

Observaciones

0

1

1

0

0

0

 

1

2

3

2

3

2

 

2

4

7

6

21

6

 

3

8

15

14

105

14

 

4

16

31

30

465

30

 

4,69

25,81

51

50

1.256

50

Erdos number Red de matemáticos

5

32,00

63

62

1.953

62

Karinthy – 1929

5,5

45,25

90

89

3.961

89

Milgram -1967

6

64

127

126

8.001

126

 

6,21725

 

74,40

 

148

 

147

 

10.849

 

147

 

Número de Dunbar –

N = 147,8

 

6,5

90,51

180

179

16.113

179

Milgran promedio

6,6

97,01

193

192

18.530

192

Microsoft – 2007

6,7

103,97

207

206

21.308

206

Watts -Strogartz 2003

7

128

255

254

32.385

254

 

8

256

511

510

130.305

510

 

9

512

1.023

1.022

522.753

1.022

 

Lo más sorprendente de nuestro descubrimiento es que cuando en la progresión que hicimos en la planilla de cálculo, al poner el Número de Dunbar como cantidad de nodos en nuestro árbol binario, nos encontramos que nos da SEIS GRADOS DE SEPARACIÓN.

Hay que considerar que una pequeña variación en el grado de separación produce una gran fluctuación en el número de componentes del conglomerado.

¿Es posible esto? ¿Podría explicar el rebuscado Número 147,8 del antropólogo Dunbar los seis grados de separación? Parecería que sí.

En nuestro modelo de conglomerado consideramos relaciones directas de todos con todos, por lo que Ego puede sostener sólo 147,8 otros nodos desde un árbol binario, que por otro lado es la manera más eficiente de llegar desde Ego al conjunto de punteras del árbol. En esa progresión, la velocidad de transmisión aumenta a la potencia de 2, a medida que se van abriendo las ramas. Lo que justificaría el número, ya comprobado por Milgram, Watts–Strogartz, y Microsoft en poblaciones del orden de los miles de millones de agentes participantes. Habría una relación entre el Número de Dunbar y los seis grados de separación de una red personal. También al ser una red que responde a una ley de escala es explicable que el número seis pueda repetirse en escalas mayores ya que este tipo redes son independientes de la escala. Quedaría por comprobar la Tesis por la cual aún en diferentes redes sociales humanas de distinto tamaño, el grado típico de separación sigue siendo seis. Por lo pronto para los casos citados sí se está cumpliendo, no se cumple para Internet, o para las redes como la de los matemáticos (red de Erdos), pero estas son redes muy especiales.

clip_image025

Foto http://hep.ucsb.edu/courses/ph6b_99/0111299sci-scaling.html

Estas son algunas de las propiedades que emergen de este tipo de redes independientes de la escala las Scale Free Networks

  1. Las redes de Libres de Escala tienen distribuciones del tipo Power Law.
  2. Las redes de Libres de Escala se pueden generar a partir de cierto proceso aleatorio, de los cuales se destaca la agregación por preferencia (opción).
  3. Las redes de Libres de Escala están fuertemente conectadas a concentradores (hubs) que las mantienen unidas y les dan robustez aunque fragilidad ante la tolerancia a fallos.
  4. Las redes de Libres de Escala son genéricas en el sentido que se preservan ante un posible rearmado aleatorio.
  5. Las redes de Libres de Escala presentan autosimilitudes.
  6. Las redes de Libres de Escala son universales en el sentido de que no dependen de un dominio específico ni del tiempo.[x]

El pequeño mundo

clip_image027
Foto desde aquí 

 

El lector se estará preguntando por estos momentos: ¿por qué algo tan rebuscado? Sin ninguna duda nadie se desempeña dentro de las comunidades en las que participa de la manera que aquí se describe. Nadie utiliza árboles binarios para avisarles a sus familiares que la prima Adelaida se casa… pero es preciso analizar el tema un poco más en profundidad.

 

Si se aprecia con cuidado la tabla, se verá que la columna “Cantidad de enlaces mínimos Cmin”, esto es la cantidad mínima de enlaces que una red con N nodos interconectados debe tener para que ningún nodo quede desvinculado, es exactamente igual a la titulada “Cantidad de enlaces reales C”; por lo que una red con forma de árbol binario tiene los mínimos enlaces que puede tener, uno menos y la red colapsaría.

 

Esto habla de dos cosas: que este esquema es muy vulnerable a fallos, cualquier nodo que colapse y no pase la información, dejará a todas sus sub-ramas sin el mensaje. Como contrapartida no hay camino más corto y más eficiente que el árbol binario para difundirlos[xi].

 

Si la información fuera CRÍTICA es porque su contenido es crucial y no da margen para la duda, para el debate, para el arrepentimiento o para el descompromiso. Si esto ocurriere, el grupo tendría que adquirir una actitud mecánica para reaccionar lo que le daría la sinergia necesaria para que todo ese mecanismo (la red total) funcione como uno solo.

 

Al conjunto de tareas que cada uno de los nodos deberá realizar para hacerle de puente a la información crítica que se debe propalar lo llamamos CAMINO CRITICO, porque es el camino a usar en momentos de crisis, que existe siempre y puede complicarse… pero no puede ser interrumpido.

 

Una primera consideración a tener en cuenta es que al ser el árbol fractal un camino crítico, es lógico que se use sólo en momentos críticos, en donde la información debe llegar en tiempo y forma a la totalidad de la red en un proceso ergódico.

 

También éste resulta ser el camino más simple y más cómodo que podamos imaginar, cada agente únicamente debe informar a los dos agentes que se encuentren más próximos a él. Para “cumplir” con la comunidad, los agentes tienen que recorrer apenas un enlace para entregarle la información al próximo y allí termina su tarea, como en una carrera de postas.

 

En consecuencia un camino crítico es un camino muy eficiente, de hecho es una de las hipótesis que nos habíamos trazado, hacer que los flujos circulen cada vez más y más fácil, que la red le oponga cada vez menos y menos resistencia (Ley constructal). Y al ser el más eficiente de los caminos es a la vez el más económico en términos de recursos y de tiempo.

 

Entonces como una primera aproximación podríamos decir que: una red configurada así presenta características que posibilitan estrategias de comunicación muy rentables, ya que al ser un sistema de tamaño finito desarrollado de manera que facilita el acceso a las informaciones que lo atraviesan, tendrá más posibilidades de que persista en el tiempo, de que sobreviva, ya que cumple con la Ley constructal.

 

No obstante en esta primera mirada, no parecería lógico utilizar esta estrategia para toda la comunicación que circule en la red, simplemente porque no toda la información es crítica.

 

Esto parece contradictorio: ¿qué significaría entonces rechazar esta forma de comunicación constructal, en función de un relajamiento ineficiente?

 

Duncan J. Watts[xii], en su best seller “Six degrees, The sience of a connected age” reta a que nos imaginemos a nosotros mismos sometidos al experimento de Asch[xiii] en donde estudiantes de una universidad eran sometidos a una prueba que consistía en expresar en público su opinión individual luego de que una mayoría previa lo había hecho en oposición a lo que parecía ser obvio y evidente. Watts nos propone que nos autoevaluemos hasta qué punto podríamos resistir una experiencia semejante. El número de personas que apoyan o que están en contra de nuestra propia opinión hace una diferencia importante; es por eso que el estudio de cómo varía nuestra opinión en base a la distribución de opiniones del resto de la red configura una verdadera lógica de conformidad… una lógica populista.

Para Watts el esparcimiento de un rumor o el contagio de una enfermedad responden a una cantidad de “individuos infectados”. Reconoce que hay una distinción entre los tipos de contagio que se pueden dar en una enfermedad aleatoria e involuntaria y el contagio social en donde la opinión de una sola persona puede ser “altamente contagiosa”, en ese proceso: una sola opinión puede constituir “masa crítica” y cambiar la opinión de la mayoría. Existen umbrales a partir de los cuales todo el grupo cambia de opinión. A estos puntos se lo conoce también como “tippin points” o puntos de inflexión en la teoría de redes. Consisten en momentos o hitos a partir de los cuales todo un grupo de personas cambia de opinión o de postura en bloque.

Muchos autores como Asch, desde la psicología social, Noelle-Neumann desde la sociología y ahora otros como Duncan Watts, Steven H. Strogatz, Peyton Young, Juan Urrutia Elejalde y varios más desde la teoría de redes, nos hablan de un mismo fenómeno social visto desde distintas ópticas. Existe una permanente observación de la distribución de opiniones (órgano quasi estadístico de Noelle Neumann) que hace que nos hagamos una idea autorreferencial del lugar que ocupa nuestra posición respecto de la opinión dominante. “Todos los individuos están pendientes de lo que hacen sus vecinos más cercanos” dice Strogartz. Da lo mismo si ese umbral esta determinado por alguna distribución estadística particular de esas micro-apreciaciones que realizamos para poder apreciar nuestra propia posición relativa, (la simetría de las distribuciones de opiniones que aparecen a nuestro alrededor que configuran una campana de Gauss a la que calificamos como “normal”), o si la autorrefenencia nos viene predigerida por una influencia mediática o por una opinión valorada (aquellas que marcan tendencia); el efecto resultante será el mismo: siempre estaremos muy condicionados por la autorreferencia, aunque insistamos en negar esto. El valor del umbral podrá estar más segado hacia la derecha o hacia la izquierda pero la forma de la curva (ver figura) nunca varía significativamente y la respuesta (su valor, su contenido) tarde o temprano, en mayor o menor grado, terminará acompañando la opinión dominante.

clip_image029

La que está arriba es Función Logística; esta curva da cuenta del un porcentaje del total de agentes que aceptan una opinión en función del tiempo. La principal característica de esta curva es que en el estadio inicial el crecimiento de la población P es lento (fase lenta), luego la curva toma una forma exponencial de crecimiento (fase explosiva), al cabo de un tiempo aparece un cuello de botella y la tasa de crecimiento disminuye; finalmente, en la madurez, el crecimiento se detiene (fase de extinción).

Volveremos sobre esta curva más adelante, ya que presenta mucha resistencia a ser aceptada por quienes no creen en esta forma de interacción social a la que nosotros vamos a llamar “populismo”. Se puede estar de acuerdo o no con el populismo, lo que no se puede hacer es negarlo. Por eso, para quienes no estamos de acuerdo con este tipo de interacción social, para los que valoramos la opinión de la diversidad, vamos a presentar esta otra curva, la Curva de Histéresis que tiene esta forma:

clip_image031 

Parecidas ¿no? Una más gruesa que la otra, es como si en la fase explosiva la primera curva se abriera en dos ramas que encierran un área difusa en donde no se puede establecer a ciencia cierta el valor de la función para un tiempo determinado, ya que para un mismo momento le corresponde varios valores de la función. En una primera interpretación se podría decir que en una zona de la curva (el lazo de histéresis), no existe una lógica binaria -aceptación por sí o no-, por el contrario se distingue un espacio para la deliberación en donde para un mismo tiempo la función se hace inestable ya que en ese momento podrá haber un porcentaje de adoptantes y para el siguiente ese porcentaje bien podría haber crecido o decrecido, presentando resultados no lineales e impredecibles.

La otra interpretación es la lectura que haría un analista histórico, el que llega luego de ocurridos los hechos y trata de reconstruir lo que pasó haciendo su propia interpretación. Dirá, tomando una media del crecimiento de la zona de histéresis, que la red reaccionó por un camino crítico que se podría describir por la línea media de la zona de histéresis, cosa que no es real pero sí constituye una simplificación que representa la transición. En el camino han quedado muchas idas y venidas, marchas adelantes y marchas atrás hasta que por fin se encuentra la salida del bucle. Este ancho, es el ancho de la duda, es el ágora donde nace la política. Lo cierto es que en el proceso de crecimiento de la curva, hay casos en donde se produce un desorden y las opiniones van y vienen hasta que en un momento dado logran coordinarse para luego confluir en una postura final. Esta posibilidad de la deliberación o de desorden, sólo se permite ante determinadas situaciones NO críticas que siempre son pasibles de redución a caminos críticos que son el camino medio de la dispersión ocurrida durante la histéresis. En momentos realmente críticos sólo hay un camino posible, el camino crítico, ya que la desviación de éste se opone a la circulación de los flujos y nos deja frente a una exposición a la fatalidad.

Así como toda histéresis es reductible a un camino crítico, toda crisis también permite un cierto ancho de histéresis. De esto depende el desempeño y la estrategia de supervivencia de la red social, esto por sí solo daría muchísimo para hablar, por ahora diremos que una vez ingresado el flujo en la red éste podrá circular de dos manera: una por un camino crítico, que es el más eficiente para que realice la travesía, el otro es el que posibilita la entropía, los remansos en donde los fluidos pueden remolinear y entremezclarse.

Una pausa para que nos organicemos

Para explicar mejor este fenómeno vamos a recurrir nuevamente al Dr. Vega Redondo[xiv] quién hace jugar al entorno como disparador de los cambios significativos en la red. De como impacten estos cambios devendrá la capacidad de reacción que presente ésta en respuesta.

Hay una tendencia por parte de los analistas a mirar las redes desde su topología y no considerar al conjunto sistema-entorno, donde el uno influye en el otro y recíprocamente. Como diría Francisco Varela hay un permanente encuentro, una permanente colisión entre ambos.

Vega destaca tres características que aparecen en diversos tipos de redes sociales en relación con su interacción con el entorno:

  • Transición abrupta: que aparece en la emergencia y que responde al punto en donde la red llega a masa crítica, para explotar en el cambio.
  • Resiliencia: una vez que se ha establecido la transición, hay una importante cantidad de características que sobreviven aún en condiciones desfavorables o de procesos de regresión evolutiva. Una especie de memoria o de historia innata que prevalece.
  • Equilibrio de coexistencia: ante condiciones de entorno similares una red puede estar o altamente conectada o muy poco conectada.

Según Vega habría una coordinación natural en las redes peer to peer (entre iguales) en donde se hace necesario un tiempo para que esa coordinación se lleve a cabo. Podría llamarse consenso, deliberación, conversación, acuerdo, etc.

Ese tiempo varía en función del entorno, como señala Vega en sus papers. Un entorno más inestable provocará descoordinación en la red y por lo tanto fragmentación.

Vega Redondo señala que en ambientes “volátiles”, que se entienden como entornos cambiantes, las redes actúan de una forma y en ambientes estables actúan de otra. Esto explicaría las dos curvas, la curva con histéresis y la del camino crítico.

Ante la agresividad del entorno la red se repliega sobre sí misma y se hace más eficiente, adquiere más coordinación, menos tiempo muerto, menos histéresis, más cambio abrupto. Por el contrario, en momentos más laxos la apertura del lazo de histéresis podrá hacerse más y más grande, siempre teniendo en cuenta que ante la emergencia deberá mutar hacia la transición abrupta achicando la panza de la curva. Incluso la red podrá achicarse para actuar mejor ante la eventualidad, podrá dividirse, estrechar filas, en definitiva usar la mejor estrategia para salir de la crisis.

En todos los casos el límite de funcionamiento de una red distribuida es el camino crítico del árbol binario, que es cuando la red no tiene posibilidades de maniobra. Y es el entorno, el proveedor de los flujos, el que determinará qué posibilidades tiene una red de apartarse de ese camino crítico. La regla de oro es esta: toda red deberá organizarse internamente de tal manera que en todo momento optimice la circulación de los flujos, ya que no tiene posibilidades de acción sobre le entorno para condicionar sus disponibilidades, los flujos provienen del entorno, vuelven al entorno, son del entorno, a la red sólo la atraviesan. En todo caso lo que la red podrá hacer internamente, es adoptar un diseño tal que facilite la mejor circulación de los flujos en su seno, optimizando su funcionamiento para que en los momentos en donde el entorno no está en una fase crítica, pueda apartarse del camino crítico, permitiéndose la histéresis, generar diversidad y así poder crecer.

A partir del análisis de la separación entre los agentes en el espacio, (la topología de la red social) y de los tiempos que usan para llegar a la coordinación, Vega Redondo concluye que la similitud entre agentes provee unión, y que dicha similitud provee resistencia a la inestabilidad del entorno. Como una primera aproximación a esto podemos decir que es evidente que la paridad (similitud) entre agentes, de pensamiento, de ideología, de gustos, de conocimientos, de género, facilita el entendimiento y la coordinación entre pares, esto no quiere decir que sea condición suficiente, pero hace su aporte para que la red evolucione desde un tipo de diseño a otro sin mayores inconvenientes.

Los saltos de largo alcance

Duncan Watts y S. Strogartz son los que más han estudiado el fenómeno del Pequeño Mundo (Small World) pero es a partir de Jon Kleinberg que cambian su punto de vista, originalmente Watts-Strogartz se basaron en redes aleatorias para realizar sus estudios sobre el Small World, pero es a partir de Barabasi y de Kleinberg que se avocan al estudio de las redes libres de escala.

Los trabajos de Kleinberg les permiten distinguir entre los enlaces locales que un agente podía tener y los que pudiere establecer con agentes mediatos, que son los posibilitan que los mensajes viajen más allá del dominio de lo local. Watts explica que cuando Stanley Milgram realiza su experimentoseis grados de separación” para corroborar si efectivamente toda persona estaba separada de cualquier otra en el mundo mediante sólo seis “apretones de mano”, no manda millones de cartas para que algunas tengan éxito de llegar a destino, sólo se mandan algunas pocas y de éstas, algunas cumplen con su objetivo.

La diferencia es que en un escenario local, mediante interacciones locales, sí se estaría en condiciones de hacer una propalación (broadcasting) del mensaje en todas direcciones para que éste llegue a su destinatario, pero esto se volvería impracticable fuera de una distancia local (entendida fuera de una distancia de interacción directa del agente). Es por eso que tratan de encontrar los mecanismos mediante los cuales esos mensajes de larga distancia se hacen de su camino a destino.

No viene al caso explicar cómo sucede esto matemáticamente, pero daremos dos razonamientos que aportan para dilucidar este problema. El primero es que al ser una red libre de escala, algunos nodos están mucho más conectados que otros… si para los nodos que se ubicaran a larga distancia se hiciera uso de ellos, sería mucho más probable dar en el blanco, dada su conexidad en este caso remota. ¿Pero cómo desde lo local se podría contactar a alguien “famoso” en Japón o en Mongolia (famoso en el sentido de alguien muy conectado) para que nos acorte los caminos a destino ?

clip_image033

Por otro lado, si esto no llegara a suceder podría suceder que nuestro mensaje quede dando vueltas rebotando entre nodo y nodo sin que nunca arribe a destino.

clip_image035

Es en ese punto que hacen el verdadero descubrimiento sobre el fenómeno del pequeño mundo que nos interesaba destacar. La única forma de alcanzar la meta funciona de la siguiente manera: supongamos que estamos en Venado Tuerto, Argentina y le queremos enviar un mensaje a alguien en Nepal. Lo primero que se nos ocurriría hacer es consultar a todos los que conozcamos que puedan saber algo sobre Nepal o conozca alguien de allí (referencia local de un dato global). Lo más probable es que nos referencien al Dalai Lama, alguien relacionado con su filosofía podría estar relacionado con Nepal. Entonces la búsqueda local se hace en favor de encontrar algún seguidor del Dalai. Si logramos encontrarlo, es probable que conozca alguien o sepa de qué forma contactar alguien cercano o que tenga que ver con el budismo tibetano en Nepal… y para allí se encaminará nuestro recado.

A partir de ese momento el mensaje estará librado a su suerte, pero siguiendo la misma lógica, quien lo reciba tendría que continuar este mismo procedimiento para seguir la cadena y lograr el objetivo. Es por esto que el uso que hacemos de los lazos mediatos, es el mismo procedimiento que seguimos cuando utilizamos lazos inmediatos. En realidad lo que hacemos es tratar como locales a los lazos globales. Precisamente por que global significa justamente eso, se lo puede usar desde cualquier locación como puente.

De esta forma el fenómeno mundo pequeño se reduce a dos casos que en realidad son uno sólo: usar los lazos locales y tratar a los lazos no locales como locales reduciéndolos a la inmediatez. Estos son en definitiva los que van a dar los grandes saltos cuantitativos, de Argentina a Nepal de un sólo salto.

 

Pero en una red de interacción distribuida únicamente tenemos enlaces directo y locales, por lo que sería oportuno volverse a preguntar cómo nos relacionamos en definitiva. ¿Gritamos a viva voz el mensaje a los cuatro vientos para que todos nos escuchen, o por el contrario administramos nuestros mensajes de una manera eficiente y prudente?

En el ámbito local, a diferencia de en uno global, la búsqueda descentralizada se efectúa a sabiendas o intuyendo dónde se encuentra el destinatario. Por eso podemos decir “si vas para tu casa llevale este paquete a Fulano, que te queda de paso”. Incluso podríamos hacer una propalación bastante o muy direccionada a los destinatarios finales sin temor a equivocar el destino, aunque no necesariamente hacemos esto.

En una comunidad de 150 miembros no es fácil comunicarnos todos con todos, por lo que es preciso direccionar y distribuir la búsqueda a fin de optimizar los caminos y de ahorrarnos trabajo, es por eso que utilizamos grados de separación y no nos contactamos directamente todos con todos, uno por uno; tal vez hagamos esto en ámbitos locales donde no tengamos “el conocimiento y la confianza necesaria” para delegar esta tarea. Sobre esto volveremos.

Si no hacemos broadcasting y en cambio utilizamos los nodos que nos separan de los más distantes como puentes para llegar a ellos, cuál es el grado de separación máxima, en términos de saltos, que podrá soportar una red de interacción directa sin que en el camino se pierdan los mensajes.

Esa distancia máxima, en términos de grados de separación, la determinará también la capacidad de respuesta que presente la red ante una situación crítica. El camino crítico de un árbol fractal binario en su grado seis de separación oscila entre 107 (º5,7) y 221 (º6,8), teniendo en cuenta que estos son grados medios, correspondiéndole 126 nodos al grado seis. Por lo que una pequeña dispersión decimal del grado da como resultado una variación importante en el número de miembros.

La hipótesis de camino crítico

Pero volvamos a nuestro Número de Dunbar 147,8 que se corresponde con 6,217 en una tabla que responde a una distribución de cambio de escala. Si la distribución de Dunbar  cumple con todos los requisitos para que sea una red de Escala libre ¿por qué no podría ser el número de Dunbar el responsable de que en el pequeño mundo de una red no local, una red global, se siga cumpliendo con los seis grados, ya que este tipo de distribución no depende ni de la escala, ni del lugar, ni del tiempo de aplicación?

Se podrá discutir para qué sirven los árboles binarios en una red interaccional, si el estado natural de una red es que use su camino crítico ante la emergencia, o si ese camino crítico es una simplificación de muchos caminos probados y descartados con el tiempo… lo cierto es que hay una relación necesaria entre el tipo de respuesta que una red puede dar ante un entorno hostil y el trayecto por donde circula la información. ¿Ese trayecto cumplirá con la ley constructal? Si lo cumple entonces, a través de los años, los sistemas habrán de haber seleccionado el camino más eficiente en términos de posibilidades de circulación de flujos. Y el camino más fácil es el camino crítico.

Vamos a definir entonces nuestra Hipótesis del camino crítico de los flujos a través de una red interaccional humana:

Si existe una comunidad interaccional de humanos, tal que su número de miembros se aproxime al Número Dunbar, la máxima distancia en términos de grados de separación que podrá haber entre sus agentes será seis y cumplirá con el fenómeno llamado Mundo

pequeño.

 

 

Corolario de la Hipótesis del camino crítico:

 

El tamaño de una red interaccional está en relación con la capacidad de reacción que ésta tenga frente a un entorno volátil. En el caso más crítico, el número máximo de miembros que podrá alojar en su seno será el Número de Dumbar.


[i] Los resultados obtenidos encajan con una dispersión menor al 5% en una recta doble logarítmica con una pendiente determinada.

[ii]

Vol. Neo. =1006.5 cc – Volumen del neocortex humano.

 

Vol. Total = 1251.8 cc – Volumen total del cerebro humano (Stephan et al 1981).

 

CR = Vol. Neo / (Vol. total – Vol. Neo)

 

Cálculo del divisor de la razón: Vol. total – Vol. Neo = 245,3 cc

 

CR = 1006,5 / 245,30 = 4,1.

 

Aplicando la fórmula: Log(N) = 2,16972.

 

Antilog 2,16972 = 147,8.

[iii] del tipo y = ax + b donde a es la pendiente de la recta y b es la ordenada al origen

[iv] Citado por el autor: The fractal nature of nature: power laws, ecological complexity and biodiversity- James H. Brown, Vijay K. Gupta, Bai-Lian Li, Bruce T. Milne, Carla Restrepo and Geoffrey B.West http://www.fractal.org/Bewustzijns-Besturings-Model/Fractal-Nature.pdf

 

[v] Winiwarter hace referencia a un trabajo muy interesante sobre Power Laws: “Power-law distributions in empirical data” por Aaron Clauset, Cosma Rohilla Shalizi y M. E. J. Newman

 

 

[vii]  An Escheresque fractal

por Peter Raedschelders http://classes.yale.edu/fractals/

 

[viii] N= 1+ 2 + 4 + 8 + 16 + 32 = 20 + 21 + 22 + 23 + 24 + 25 = 63

[ix] C = 2 + 4 + 8 + 16 + 32 = 21 + 22 + 23 + 24 + 25 = 62

[x]

Fuente: Towards a Theory of Scale-Free Graphs: Definition, Properties, and Implications. –

 

Lun Li, David Alderson, John C. Doyle, and Walter Willinger

 

http://www.internetmathematics.org/volumes/2/4/willinger.pdf

 

[xi] La demostración de esta última sentencia no se incluye en este trabajo

[xii] Duncan J. Watts es profesor asociado en sociología en la universidad de Columbia, Estados Unidos y consultor externo en el Santa Fe Institute, (en este último es donde se han realizado las investigaciones más importantes sobre teoría del caos y sobre teoría de redes).

[xiii] Solomon Asch, psicólogo norteamericano conocido por sus experimentos de la conformidad en el campo de la psicología social.

[xiv] Emergence and resilience of social networks: a general theoretical framework George Ehrhardt, Matteo Marsili y Fernando Vega-Redondo (2008) y el work in progress Network organizations Fernando Vega-Redondo (2008)

 

 

 

Anuncios
  1. Aún no hay comentarios.
  1. No trackbacks yet.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s

A %d blogueros les gusta esto: