Antes de comentar mis resultados, comento que es la complejidad. Desde el punto de vista de su medición, no lo que es un sistema complejo que lo haré en otro post.
La complejidad se define como la cantidad de información necesaria para describir un sistema. Así, cuanto más complejo es un sistema más información hay contenida en él. A su vez, un sistema complejo que contenga mucha información será altamente no-entrópico u ordenado. Cuanto más orden, más información para establecer dicho orden. El orden no son más que enlaces, interrelaciones entre las diferentes partes del sistema siguiendo algún tipo de jerarquía y estructura definidas. O, dicho de otra forma, información no es sólo cómo hacer las células de nuestro cuerpo, sino también las relaciones e interacciones que mantendrán entre ellas (o cualquier otra unidad que se considere, p.ej. proteínas o genes). Y eso es mucho más de lo que podemos ver a simple vista. Pero hace falta un buen criterio que se pueda usar para comparar y juzgar cuan complejo es un sistema respecto al otro. Para la complejidad de los sistemas no vivos, moléculas, macro moléculas y estructuras macro moleculares, basta con hacer uso de los criterios para medir la entropía en la química.
Pero para sistemas complejos no basta con esta definición y se debe apelar al uso de una extensión de la definición de la entropía conocida como entropía de Shannon o de entropía de la información. El concepto básico de entropía en Teoría de la Información tiene mucho que ver con la incertidumbre que existe en cualquier experimento o señal aleatoria. Es también la cantidad de "Ruido" o "desorden" que contiene o libera un sistema. De esta forma, podremos hablar de la cantidad de información que lleva una señal.
Pero para medir la complejidad no basta con esta extensión. En 1995, Lopez-Ruiz, Mancini y Calbet, proponen una definición de la complejidad basada en la medida de la información pero introduciendo el concepto de desequilibrio. (ver: http://prola.aps.org/abstract/PRE/v63/i6/e066116 Tendency towards maximum complexity in a nonequilibrium isolated system) Ellos proponen que la complejidad de un sistema ordenado es la misma que la de un sistema desordenado, en cambio un sistema caótico con comportamiento emergente debe tener una complejidad mayor que los anteriores.
Para medir la complejidad de una variable aleatoria con distribución de Poisson, uso como medida de desequilibrio la distancia de Wootter (ver: http://prola.aps.org/abstract/PRD/v23/i2/p357_1 Statistical distance and Hilbert space). Como se puede apreciar la variable de control es el número medio de eventos positivos. Esta crece hasta una meseta, a partir de la cual se incrementa linealmente en el gráfico log-log. Este cambio de comportamiento es debido a que la distribución de Poisson se comporta como una Gausiana para valores medios de eventos positivos grandes. Teoría formal sobres este comportamiento no existe por ahora, pero muestra que la complejidad de los procesos de Poisson es menor a la de los procesos Gausianos.
La complejidad se define como la cantidad de información necesaria para describir un sistema. Así, cuanto más complejo es un sistema más información hay contenida en él. A su vez, un sistema complejo que contenga mucha información será altamente no-entrópico u ordenado. Cuanto más orden, más información para establecer dicho orden. El orden no son más que enlaces, interrelaciones entre las diferentes partes del sistema siguiendo algún tipo de jerarquía y estructura definidas. O, dicho de otra forma, información no es sólo cómo hacer las células de nuestro cuerpo, sino también las relaciones e interacciones que mantendrán entre ellas (o cualquier otra unidad que se considere, p.ej. proteínas o genes). Y eso es mucho más de lo que podemos ver a simple vista. Pero hace falta un buen criterio que se pueda usar para comparar y juzgar cuan complejo es un sistema respecto al otro. Para la complejidad de los sistemas no vivos, moléculas, macro moléculas y estructuras macro moleculares, basta con hacer uso de los criterios para medir la entropía en la química.
Pero para sistemas complejos no basta con esta definición y se debe apelar al uso de una extensión de la definición de la entropía conocida como entropía de Shannon o de entropía de la información. El concepto básico de entropía en Teoría de la Información tiene mucho que ver con la incertidumbre que existe en cualquier experimento o señal aleatoria. Es también la cantidad de "Ruido" o "desorden" que contiene o libera un sistema. De esta forma, podremos hablar de la cantidad de información que lleva una señal.
Pero para medir la complejidad no basta con esta extensión. En 1995, Lopez-Ruiz, Mancini y Calbet, proponen una definición de la complejidad basada en la medida de la información pero introduciendo el concepto de desequilibrio. (ver: http://prola.aps.org/abstract/PRE/v63/i6/e066116 Tendency towards maximum complexity in a nonequilibrium isolated system) Ellos proponen que la complejidad de un sistema ordenado es la misma que la de un sistema desordenado, en cambio un sistema caótico con comportamiento emergente debe tener una complejidad mayor que los anteriores.
Para medir la complejidad de una variable aleatoria con distribución de Poisson, uso como medida de desequilibrio la distancia de Wootter (ver: http://prola.aps.org/abstract/PRD/v23/i2/p357_1 Statistical distance and Hilbert space). Como se puede apreciar la variable de control es el número medio de eventos positivos. Esta crece hasta una meseta, a partir de la cual se incrementa linealmente en el gráfico log-log. Este cambio de comportamiento es debido a que la distribución de Poisson se comporta como una Gausiana para valores medios de eventos positivos grandes. Teoría formal sobres este comportamiento no existe por ahora, pero muestra que la complejidad de los procesos de Poisson es menor a la de los procesos Gausianos.
1 comentario:
me parece super todo lo que denota¡¡
pero quisiera saber que tan basado esta en otros autores
Publicar un comentario