Complexidade: Que raios é isso?
Anos atrás, quando eu era um jovem e esperançoso graduando em ciências biológicas, comecei a me interessar pela teoria do caos e por dinâmica não-linear.
O chamado caos determinístico, exemplificado pelo efeito borboleta, havia emergido duas ou três décadas antes a partir dos trabalhos de Edward Lorenz (com as simulações sistemas meteorológicos, altamente simplificados) e do estudo de sistemas dinâmicos em física, química e matemática, estimulado pela disponibilização de computadores cada vez mais potentes. Estes sistemas descritos por equações determinísticas possuíam uma diferença muito interessante em relação a outros sistemas descritos por equações integralizáveis, isto é, cujas equações poderiam ser resolvidas de forma analítica. As equações não-lineares típicas que descreviam sistemas caóticos precisavam ser iteradas utilizando-se de métodos numéricos, o que demandava muito processamento computacional. Estes sistemas quando observados de “longe” geravam resultados que pareciam completamente aleatórios mesmo que as equações de base, que os descreviam, fossem completamente determinísticas.
Estes sistemas exibiam um fenômeno conhecido como a hipersensibilidade às condições iniciais. Diferentemente dos sistemas deterministas tradicionais, cujas diferenças inicialmente introduzidas nos parâmetros se mantinham pequenas e próximas, ou de fenômenos que se distribuíam de forma aleatória em torno de uma média, os sistemas caóticos tendiam a amplificar diferenças ínfimas de forma exponencial. Portanto, o simples fato de rodar o mesmo programa iterando uma equação não-linear descrevendo um sistema caótico, mesmo de baixa dimensionalidade, com valores que divergiam apenas nas últimas casas decimais seria suficiente para arremessar estes sistemas em trajetórias divergentes. Estas trajetórias, também chamadas de atratores dinâmicos nos espaços de fase - uma espécie de representação multidimensional dos valores assumidos pelo sistema dinâmico – produziam belos gráficos de incrível intrincamento com padrões auto-semelhantes em diversas escalas de aproximação, possuindo uma dimensionalidade fracionária, ou seja fractal.
Nos anos setenta este tipo de dinâmica (já intuída há muito tempo nas obras do matemático Henry Poincaré) passou a ser investigada em diversos fenômenos naturais: turbulência, dinâmica de populações (principalmente as equações logísticas de Lotka-Voltera), gotejar de torneiras, batimentos cardíacos, atividade elétrica do cérebro, etc. Muitos fenômenos biológicos foram investigados a fundo e a teoria do caos parecia uma boa fonte de insights de fenômenos biológicos. Porém, ao mesmo tempo, o estudo de sistemas dinâmicos revelou também que estes mesmos sistemas não-lineares poderiam exibir dinâmicas periódicas, como comportamentos oscilatórios, que poderiam, através de processos de bifurcação, passar à regimes caóticos. Atratores menos estranhos, como os de ciclo-limite começaram a interessar muitos pesquisadores não só na biologia, mas também em áreas como a química (como no estudo de reações oscilantes, como as de Belousov–Zhabotinsky) e, principalmente, nas ciências da computação.
Os trabalhos do, na época, jovem biofísico e médico, Stewart Kauffman, no final dos anos 60, com as chamadas redes booleanas, ajudaram a dar origem a um campo das ciências da complexidade do qual a teoria do caos seria apenas uma classe de sistemas não lineares que exibiriam a dependência exagerada das condições iniciais e cuja trajetória evoluiria na forma de um atrator estranho, divergindo exponencialmente de sistemas que iniciam-se com valores de parâmetros apenas ligeiramente diferentes.
O primeiro livro que li sobre o assunto foi “Complexidade: A vida no limite do Caos”, escrito por Roger Lewin, um excelente jornalista científico e especialista em paleoantropologia. O livro consiste nas suas impressões sobre este novo campo e em entrevistas com alguns dos principais nomes da área que havia emergido a partir dos anos 60. Eu ainda me lembro da empolgação com este tipo de abordagem e como idéias, como emergência e auto-organização, passaram a ser incorporadas no vocabulário não técnico, até hoje sendo muito úteis para descrever algumas das propriedades que sistemas biológicos partilham com outros sistemas físicos e químicos e até com sistemas econômicos e sociais.
As promessas de revolução, ou uma nova compreensão da biologia, foram bastante exageradas e nenhuma abordagem unificada surgiu para esta questão. Mesmo assim, a incorporação dos vários métodos de análise e investigação de fenômenos não-lineares, principalmente a simulação e o uso intensivo de computadores, é uma realidade inescapável. Além disso, a compreensão de que certas mudanças qualitativas podem surgir de mudanças quantitativas e que regimes estáveis e multi-estáveis podem ser alcançados através dos tipos de interações não-lineares (envolvendo vários mecanismos como retroalimentação positiva ou negativa, limiares de ação, gradientes e outras formas de interação mais complicadas) tornaram-se partes integrantes do arsenal teórico e conceitual das ciências, e a biologia não é diferente do restos das ciências neste sentido.
Porém, um problema permanece:
O que é complexidade? Ao contrário do caos determinístico, sobre o qual tempos boas definições e métodos eficazes de diagnosticá-lo e defini-lo, a complexidade ainda é um conceito problemático. Um dos problemas é que muitos dos fenômenos, estudados pelas ciências da complexidade, são na realidade bastante simples. Sendo, de fato, seu comportamento (ou, melhor dizendo, o resultado de sua dinâmica) a coisa mais complicada sobre eles.
Muitos fenômenos de auto-organização, como os exemplificados pelas redes booleanas de Kauffman e as simulações de autômatos celulares são compostos de unidades muito simples que interagem através de regras também bastante simples. Então, ainda que este tipo de complexidade tenha uma forte relação com a complexidade, digamos, de uma célula eucarionte ou de um ecossistema, existem diferenças grandes entre estes dois exemplos e, por exemplo, o jogo da vida de Conway.
Nosso uso corriqueiro do termo 'complexidade' enfatiza a possibilidade de estabelecermos um hierarquia e uma gradação entre os diversos sistemas ou fenômenos que julgamos complexos. conceito de complexidade parece estar intimamente associado ao de emergência, que é o que daria sentido a idéia de "níveis integrados de organização".
Pode ser difícil imaginar que o seu corpo é feito de prótons girando, nêutrons e elétrons, mas este é de fato o caso. É um pouco mais fácil, no entanto, imaginar formas de matéria em níveis que aumentam em complexidade. Por exemplo, as partículas subatômicas podem ser organizadas em átomos, que são os componentes das moléculas, e moléculas podem ser organizados em macromoléculas, como DNA e proteínas, que podem ser construídas em células. As células podem ser organizadas em tecidos, que formam órgãos e os órgãos podem ser agrupados em sistemas orgânicos, que são construídos em todo os organismos, incluindo seres humanos como você. Organismos são unidades que podem formar populações e, em seguida biosfera, que passam a fazer-se maiores níveis de complexidade. (Lobo, 2008)
Podemos encarar este conceito "níveis integrados de organização", como o fato de a matéria está distribuída em camadas ordenadas de complexidade crescente e em que, a cada nível, existem propriedades emergentes, de forma que o nível superior não pode ser completamente reduzido ao nível
inferior. Assim, como defendia Novikoff (1945, citado por Lobo, 2008) quando as unidades de material biológico são colocadas juntas, aspropriedades do 'material' ou sistema biológico nem sempre são aditivas, ou seja, iguais à soma das propriedades dos componentes. Em vez disso, em cada nível, novas propriedades e regras que emergem não podem ser previstas pela mera observação das propriedades das partes nos níveis mais baixos da organização. Essas propriedades são chamadas de propriedades emergentes.
Esta concepção dá certo suporte a idéia intuitiva de que haja um certo aumento de complexidade nos diferentes níveis da organização biológica. Por exemplo, muitas pessoas concordariam que uma células eucarionte é mais complexa que uma célula procarionte e esta, por sua vez, é mais complexa que um vírus. De forma muito similar, poderíamos
dizer que um coanoflagelado é menos complexo que uma esponja, que é um
organismo multicelular. No entanto, comparações como estas, mesmo que intuitivamente aceitáveis, não são completamente
capturadas pelo seu conceitos e definições técnicas e rigorosas de complexidade, como as ligadas a dinâmica não-linear e aos chamados sistemas complexos. Servindo de alerta para o fato
do termo complexidade (como usado corriqueiramente na linguagem popular
ou mesmo em comparações dentro da biologia) não possuir uma métrica rigorosa.
O próprio uso deste termo, 'complexidade', quando comparamos animais e bactérias, ou seres humanos com outros animais, parece extremamente suspeito. Quando falamos de 'complexidade', podemos adotar muitos critérios de comparação diferentes e muitos deles são contaminados por conceitos tremendamente subjetivos e enganosos, como o de superioridade e de progressão linear em direção a um objetivo pré-determinado. Talvez seja este o ponto mais nevrálgico da questão. Nossa noção intuitiva de complexidade não parece ser suficiente rigorosa (e imune a nossos próprios preconceitos) para ser levada a sério. Ainda assim, é muito forte a sensação de que algumas coisas são mais complexas do que outras e alguns critérios de comparação, mesmo que não absolutamente válidos, podem ser mais apropriados do que outros.
Toda esta situação é ainda piorada por que os anti-evolucionistas sentem-se muito à vontade com o termo “complexidade”, fazendo deste um dos seus principais cavalos de batalha, conjuntamente com o abuso do termo 'informação' que, quase sempre, vem trazendo à reboque o, irritante e repetido ad nauseum, argumento da segunda lei da termodinâmica.
A estratégia anti-evolucionista envolve equiparar estes diversos termos, advogando que processos naturais não podem criar ou aumentar a complexidade ou a informação de um sistema, geralmente associando esta “constatação” como um corolário da segunda lei da termodinâmica. Para eles, apenas uma super-inteligência poderia ter feito tal façanha. Como esperado, as bases para tal julgamento não estão escoradas em definições rigorosas e nem apoiadas na matemática e estatística, ou mesmo nas ciências físicas, apesar de alusões em contrário e tentativas patéticas de estruturar argumentos de improbabilidade e de ignorância, usando pseudo-matemática.
A teoria da informação de Shannon, desenvolvida nos anos 40, é frequentemente trazida à tona nestas discussões, mesmo que ela não tenha nenhuma (ou apenas muito pouca) relação com os conceitos intuitivos de informação, que os anti-evolucionistas tem em mente.
Nossos conceitos intuitivos de informação são dependentes de considerações semânticas e pragmáticas, muito distantes da formulação rigorosa e completamente alheia ao conteúdo das mensagens enviadas entre um transmissor e um receptor através de um canal, que estão na base da teoria de Shannon (Veja Teoria da Informação de Shannon e a Biologia).
A teoria da informação é um ramo da matemática iniciado nos trabalhos de Claude Shannon na década de 1940. A teoria aborda alguns aspectos muito importantes da comunicação: "Como podemos definir e medir a informação?", "É possível se comunicar de forma confiável a partir de um ponto a outro, se só temos um canal de comunicação ruidosos?", "Como pode o conteúdo de informação de uma variável aleatória ser medido?" e "Qual é o máximo de informações que podem ser enviados através de um canal de comunicação?" (Capacidade do canal). (Mackay, 1995 & Schneider, 2010). Nesta teoria a informação é medida como a diminuição da incerteza de um receptor ou uma máquina molecular ao ir do estado “antes” para o estado “depois” (Schneider, 2010).
O mesmo acontece com o conceito de complexidade usado pelos criacionistas tradicionais (e adeptos do Design Inteligente) ao tentarem, às vezes, relacioná-lo com o conceito de complexidade algorítmica desenvolvido por Kolmogorov e Chaitin, mas que não tem nenhuma relação, clara, com ele. A complexidade algorítmica, como definida por Kolmogorov e Chaitin, envolve a capacidade de compressão da informação usando-se uma linguagem padronizada e bem definida.
Contra-intuitivamente, e certamente na direção contrária das intenções criacionistas, esta medida de complexidade atribui o maior valor à seqüências realmente aleatórias, cuja compressibilidade é mínima, em que, no limite de complexidade, o programa que tem que ser escrito, para codificar esta seqüencia, é tão grande quanto a própria seqüência. Mesmo que este limite teórico só valha para seqüências infinitamente longas (já que em seqüências aleatórias finitas, a posteriori, é muito provável que alguma redundância ou
repetição possa ser explorada na criação de um programa mais curto), ainda assim, as seqüências aleatórias seriam muito mais complexas do que seqüências cheias de padrões e ordenação do mesmo tamanho. É por isso que os poucos criacionistas que entendem um pouco mais de matemática e computação, ao usar este argumento, procuram ser o mais vagos possíveis em relação a sua definição, fazendo apenas alusões tangenciais e indiretas aos conceitos de complexidade realmente desenvolvidos por cientistas, já que estes não dão nenhum respaldo a visão simplista e prosaica dos criacionistas.
As tentativas dos criacionistas de usar o conceito de complexidade envolvem apenas criar limites arbitrários para a improbabilidade do surgimento de determinados sistemas. Estas tentativas baseiam-se na pressuposição que a formação destes sistemas tenha se dado a partir da agregação de seus componentes, assumindo-se uma distribuição uniforme, ou seja, equiprobabilidade dos eventos e interações. Esta pressuposição deixa de lado a história e o contexto particular de evolução, como as limitações físicas e químicas, a dinâmica ecológica e populacional específica do sistema e, principalmente, assumem sempre um desfecho único e pré-determinado, atrelado ao sistema uma função específica, desde o começo de sua origem e evolução. Algo impensado, em simulações sérias do processo evolutivo. Portanto, o que os criacionistas fazem é argumentar contra um espantalho pré-Darwiniano e travesti-lo com cálculos probabilísticos sem sentido.
Parece existir um certo consenso, entretanto, que nenhuma das medidas de complexidade tradicionais capturam nossas intuições sobre a complexidade. Esta seria a primeira pista de que, talvez, nossas visões sobre complexidade, sobretudo quando atreladas a idéia de progresso, sejam, de fato, apenas preconceitos ou, na melhor das hipóteses, apenas medidas parciais e tremendamente contexto-dependentes, com aplicações científicas em biologia computacional e evolução bem específicas.
“Apesar da importância e ubiqüidade do conceito de complexidade na ciência moderna e na sociedade, nenhum meio geral, e amplamente aceito, de medir a complexidade de um objeto físico, um sistema, ou processo existe atualmente. A falta de qualquer medida de caráter geral pode refletir o estágio inicial de nossa compreensão dos sistemas complexos, que ainda carece de um quadro geral unificado que atravesse todas as ciências naturais e sociais. Enquanto uma medida geral manteve-se elusiva, até agora, há um amplo espectro de medidas de complexidade que se aplicam a tipos específicos de sistemas ou domínios de problemas. A justificativa para cada uma destas medidas, muitas vezes recai sobre sua capacidade de produzir valores intuitivamente corretos nos extremos do espectro de complexidade. Apesar das abordagens heterogêneas tomadas para definir e medir a complexidade, a crença que persiste há propriedades comuns a todos os sistemas complexos e novas propostas estão sendo continuamente produzidas e testadas por uma comunidade interdisciplinar de físicos, biólogos, matemáticos, cientistas da computação, economistas e teóricos sociais.” (Olaf Sp
orns (2007), Complexity Scholarpedia, 2(10):1623. )
Esta idéia parece ser apoiada em outro consenso entre os teóricos da informação e estudiosos do sistemas complexos. Caso exista um sentido real em que os sistemas biológicos apresentam uma hierarquia de complexidade, qualquer medida desta quantidade deverá seguir um “modelo de uma corcova”. Isto é, a partir de um contínuo de organização, indo da máxima aleatoriedade, em um extremo, até a ordem total em outro, a complexidade máxima de sistemas dinâmicos (inclusive sistemas biológicos) estaria entre os dois extremos. Em artigo da Scholarpedia, Complexidade é definida como:
“A complexidade de um sistema físico, ou de um processo dinâmico, expressa o grau em que os componentes estão envolvidos em interações
organizadas estruturadas. Alta complexidade é alcançada em sistemas que apresentam uma mistura de ordem e desordem (aleatoriedade e regularidade) e que tem uma alta capacidade de gerar fenômenos emergentes.” (Olaf Sporns (2007), Complexity Scholarpedia, 2(10):1623. )
Este é outro golpe nos criacionistas que buscam estabelecer limites para evolução da complexidade a partir da mera suposição da improbabilidade de determinados eventos ou configurações.
Esta constatação, entretanto, torna a busca por uma métrica para a complexidade, aplicável aos sistemas biológicos (especialmente, à evolução biológica), muito mais complicada e dependente das circunstâncias de cada sistema. Muitos teóricos, como o paleontologista Dan McShea, sugerem que não existe uma única forma de complexidade, mas, sim, várias. Em alguns casos o aumento de uma destas formas de complexidade envolveria a diminuição de outra e estas medidas poderiam se referir a níveis hierárquicos diferentes, indicando um possível papel heurístico para este conceito, de ordem epistemológica, sugerindo que talvez a complexidade não seja uma categoria ontológica intrínseca à natureza.
Como tal, fica fácil de perceber por que que existe um contínuo debate sobre, se existe ou não, uma tendência em relação ao aumento de complexidade durante a evolução. Este debate é em parte motivado
pela percepção comum de que, ao comprarmos os estratos fossilíferos mais antigos com os mais novos, encontramos a princípio apenas seres unicelulares e, gradativamente, ao subirmos a coluna geológica, vamos observando a diversificação destes seres e aparecimento de eucariontes unicelulares e procariontes coloniais, passando por 'esboços' de pluricelularidade até multicelularidade verdadeira, representada por plantas e metazoários. Porém, por falta de uma definição precisa e independente do contexto, de complexidade biológica que não simplesmente exteriorize nossos preconceitos zoocentristas, torna-se difícil de avaliar. Mesmo por que durante este processo vemos a continuidade dos unicelulares procariontes e eucariontes, bem como nos multicelulares episódios de simplificação morfológica e perda de estruturas associadas a especialização ecológica, especialmente simbiose e parasitismo. O que torna a análise de tendências muito mais complicadas, pois além de uma medida precisa, precisamos saber se este aumento está nas médias, na variância, nos mínimo, ou nos máximos destas medidas.
Deixando estas considerações um pouco de lado, uma forma simples de quantificar a complexidade da estrutura de sistemas seria contar o número de componentes e/ou interações dentro deste sistema.
Medidas de complexidade deste tipo são aplicáveis a estruturas biológicas, além seus padrões de diversificação ou redução ao longo da evolução. Neste sentido a complexidade estaria relacionada a uma mereologia, ou seja, ao estudo das relações entre parte e o todo composto por elas. Este tipo de medida é particularmente indicado para características morfológicas. O exame detalhado do número de partes estruturais (McShea, 1996) e os comportamentos funcionais dos organismos durante a evolução mostram que um aumento destas medidas ao longo do tempo. Porém, ainda não está claro quais são os mecanismos estariam por trás deste processo. McShea é um dos que propõe investigar a complexidade relacionando-a ao aumento do número e diferenciação das partes, desacoplando-a da função (o máximo possível) já que a adequação funcional de um sistema biológico ao seu meio e contexto ecológico já é muito bem explicada pela seleção natural.
Além de tudo, isso é preciso diferenciarmos dois grandes conjuntos de tendências em relação ao aumento da complexidade, as tendências passivas e as ativas. As primeiras estando associadas a processos análogos ao passeio aleatório restringido por uma limite mínimo, ou uma parede de complexidade mínima, como a unicelularidade, por exemplo. O segundo grupo de tendências pode ser ativamente causado por processos internos e externos, como a seleção natural ou algum processo dinâmico interno. Mcshea, porém, ao analisar certas medidas de complexidade ao longo da escala geológica, comparando os fósseis de descendentes a ascendentes, em determinadas linhagens, em pontos distantes das origens dos grupos em questão, evitando assim a barreira de complexidade mínima, encontra evidências que pressupões outros mecanismos.
Outros fatores evolutivos como a seleção natural, em determinados contextos co-evolutivos, como os associados a “corridas armamentistas” (o chamado efeito da rainha vermelha), poderiam ser as “forças” por trás destes processos. Mcshea, então, propõe analisar as supostas tendências em termos de aumento da complexidade estrutural, como medida pela variação estrutural das partes. Seu principal candidato para ser responsável por uma tendência ativa que ele chama princípio de variância interna. Mais recentemente o próprio Dan McShea e o filósofo Robert Brandon propuseram que são os processos estocásticos, como a deriva genética aleatória da genética evolutiva de populações, os principais responsáveis pelo aumento de complexidade, sendo a seleção natural uma força conservadora.
Porém:
“No entanto, a mera “numerosidade” sozinha pode ser um mero indicativo da “complicação” de um sistema, mas não necessariamente de sua “complexidade”.(Olaf Sporns (2007), Complexity Scholarpedia, 2(10):1623. )”
Este tipo de medida, apóia-se na visão, já comentada, de que sistemas complexos são mais heterogêneos, portanto, menos regulares, do que os não complexos. Nesta visão, a complexidade seria uma característica estrutural, em princípio dissociada, da organização, está última associada ao arranjo dos componentes em relação a função desempenhada pelo sistema. Esta forma de encarar a complexidade tem como vantagem permitir produzir avaliações e medidas que não levem em conta, necessariamente, as funções de um dado sistema. No caso de sistemas biológicos é possível que a complexidade esteja associada a organização funcional, já que sistemas estruturalmente mais complexos precisariam de maior organização funcional já que seria composto de mais partes diferentes e arranjadas de forma menos regular.
Estas hipóteses mostram como as noções de complexidade e as medidas associadas a elas, quando levadas a cabo de forma mais sistemática (com suas conseqüências levadas a suas conclusões mais lógicas), escapam, e muito, de noções como 'progresso' e 'melhoria'. Nossos preconceitos pessoais e sociais turvam nossa visão e dificultam nossas tentativas de investigar a natureza dos sistemas vivos, do processo evolutivo e de seus padrões fixados no tempo geológico.
Somos, então, deixados com outra questão: Quais as relações destas medidas (se é que elas estão relacionadas) com outras formas de medição de complexidade mais rigorosas?
Nesta altura, não escaparemos de analisar, mesmo que de uma distância segura e pouco técnica, as teorias de complexidade computacional e de transmissão de informação, usadas nas ciências exatas e,cada vez mais, na biologia.
O conteúdo algorítmico de informação (AIC, Algorithm Information Content), como definido por Kolmorgorov e Chaitin (referências), é a quantidade de informação contida em um seqüência de símbolos. Esta medida é dada pelo comprimento do menor programa de computador que gera a seqüencia (“string”). Assim, seqüencias muito regulares, periódicas ou monotônicas podem ser geradas por programas curtos e, portanto, contêm poucas informações, enquanto seqüências aleatórias precisam de um programa que seja tão grande como a seqüência em si, o que resulta em conteúdo de informação alto (máxima). Portanto, o conteúdo algorítmico da informação captura a quantidade de aleatoriedade em cadeias de símbolos. Como podemos perceber facilmente esta medida parece pouco adequada para aplicações em sistemas biológicos, além disso, tem a propriedade inconveniente de sere não-computável (Spons, 2007).
Entretanto, existem várias medidas derivadas desta noção (nenhuma delas propostas por teóricos do DI) que usam a AIC como base e tentam adequá-la aos propósitos da análise de sistemas biológicos e sua evolução. Uma delas é “complexidade efetiva”, proposta pelo físico Gell-Mann (1995), e mede o comprimento mínimo de uma descrição das regularidades de um sistema, buscando, no entanto, distinguir as características regulares das aleatórias ou acidentais dos sistemas, portanto, aproximam-se das das medidas de complexidade que visam capturar o quanto estruturado é um sistema. Infelizmente, a separação das características regulares das aleatórias pode ser uma tarefa bem difícil sistema real, dependendo de critérios fornecidos por um observador externo.
Complexidade Estatística proposta por Jim Crutchfield e Young (1989) faz parte de um quadro mais amplo de uma teoria que os autores chamam de “mecânica computacional”. Esta medida é calculada diretamente a partir de dados empíricos, através do mapeamento de cada ponto da série temporal para um símbolo correspondente de acordo com algum esquema de particionamento, de modo que os dados tornem-se um fluxo de símbolos consecutivos.
“As seqüências de símbolos são então agrupadas em estados causais de acordo com a seguinte regra: duas seqüencias de símbolos (ou seja, histórias da dinâmica) estão contidos no estado mesmo causal se a probabilidade condicional de qualquer símbolo futuro é idêntica para as duas histórias. Em outras palavras, duas seqüências de símbolos são
consideradas como as mesmas se, em média, eles prevêem a mesma distribuição da dinâmica futura. Uma vez que estes estados causais foram
identificados, as probabilidades de transição entre os estados de causalidade pode ser extraído a partir dos dados, e a distribuição de probabilidade a longo prazo de todos os estados causais pode ser calculada. A complexidade estatística é definida como a entropia de Shannon dessa distribuição sobre estados causais. A complexidade estatística pode ser calculada analiticamente para sistemas abstratos, como o mapa logístico, autômatos celulares e muitos processos básicos Markovianos, e métodos computacionais para a construção adequada de estados causais em sistemas reais, enquanto a tributação, existem e têm sido aplicados em uma variedade de contextos. ” (Olaf Sporns (2007), Complexity Scholarpedia, 2(10):1623. )
A “complexidade física”, proposta pelo também físico Christoph Adami é outra medida relacionada com a complexidade efetiva, destinando-se a estimar a complexidade de qualquer seqüência de símbolos que seja sobre qualquer aspecto particular do mundo físico ou ambiente. Tornando-se, assim, uma medida particularmente útil para ser aplicada a sistemas biológicos.
Esta medida é definida como a complexidade de Kolmogorov (AIC) compartilhada entre uma seqüência de símbolos (como um genoma) e uma descrição do ambiente em que essa seqüência tem um significado (como um nicho ecológico). Como a complexidade de Kolmogorov não é computável, também não o é a complexidade física. Contudo, estas estimativas, ao invés de analisarem a probabilidade de um símbolo em uma seqüencia referente ao próximo símbolo na seqüencia, envolve a investigação de relações horizontais entre seqüencias de símbolos equivalentes em uma população, como um mesmo gene ou segmento genômico em diversos indivíduos da mesma população em um dado ambiente. Assim, a complexidade física média de um conjunto de seqüências (por exemplo, o conjunto de genomas de uma população inteira de organismos) pode ser aproximada pela informação mútua entre os conjuntos de seqüências (genomas) e seu meio ambiente (ecologia). Experimentos conduzidos em “ecologia digital” (Adami, 2002) demonstraram que a informação mútua entre os genomas auto-replicantes e seu meio ambiente aumentou ao longo do tempo evolutivo. Complexidade física também tem sido utilizado para estimar a complexidade de biomoléculas. A complexidade estrutural e funcional de um conjunto de moléculas de RNA mostraram positivamente correlacionada com a complexidade física (Carothers et al., 2004), indicando uma possível relação entre a capacidade funcional de estruturas moleculares e evoluiu a quantidade de informação que
eles codificam.
“Sistemas grandes e altamente acoplados e podem não ser mais complexos do que aqueles que são menores e menos acoplado. Por exemplo, um sistema muito grande que está totalmente ligado pode ser descrito de forma compacta e tendem a gerar um comportamento uniforme, enquanto a descrição de um sistema menor, mas mais heterogêneo pode ser menos compressível e seu comportamento pode ser mais diferenciada. ” (Olaf Sporns (2007), Complexity Scholarpedia, 2(10):1623. )
Complexidade física (Adami e Cerf, 2000) está relacionada com a 'complexidade eficaz', de Gell-Mann, e destina-se a estimar a complexidade de qualquer seqüência de símbolos que seja sobre um mundo físico ou ambiente. Como tal, a medida é particularmente útil quando aplicada a sistemas biológicos. Esta medida é definida como a complexidade de Kolmogorov (AIC), que é compartilhada entre uma seqüência de símbolos (como um genoma) e uma descrição do ambiente em que essa seqüência tem um significado (como um nicho ecológico). Como a complexidade de Kolmogorov não é computável, não é a complexidade física. Contudo, a complexidade média física de um conjunto de seqüências (por exemplo, o conjunto de genomas de uma população inteira de organismos) podem ser aproximadas pela informação mútua entre os conjuntos de seqüências (genomas) e seu meio ambiente (ecologia). Experimentos conduzidos em uma ecologia digital (Adami, 2002) demonstraram que a informação mútua entre os genomas de auto-replicação e seu meio ambiente aumentou ao longo do tempo evolutivo. Complexidade física também tem sido utilizado para estimar a complexidade de biomoléculas. A complexidade estrutural e funcional de um conjunto de moléculas de RNA mostrou-se positivamente correlacionada com a complexidade física (Carothers et al., 2004), indicando uma possível relação entre a capacidade funcional de estruturas moleculares e evoluiu a quantidade de informação que eles codificam.