Friday May 27, 2011
<a href="https://bioevolutiva.tumblr.com/" style="text-decoration:underline;">bioevolutiva</a>: http://www.formspring.me/MatsPT/q/192918624040684860 - poderia dar a sua opinião sobre essa resposta? [postada no formspring evolucionismo]
“Quais as maiores falhas da teoria da evolução?”
[Parte I] No link essa pergunta era respondida como segue:
“A falta de um mecanismo capaz de gerar informação codificada (como o ADN) e o falta de validação fóssil para as imaginações dos evolucionistas.”
________________________________________
Ambas afirmações são facilmente desmentidas ao analisarmos a literatura científica especializada e, portanto, são fruto de profundo equívoco ou desconhecimento da biologia evolutiva, biologia teórica, genética molecular, teoria da informação, sistemática, biologia comparativa e paleontologia.
Parte I:
A primeira afirmação equivocada vem do uso não consistente do conceito de informação e do desconhecimento de meio século de pesquisa biológica, computacional e matemática. Do ponto de vista mais básico, o que se convenciona chamar de informação “codificada (como o ADN)” pode ser gerada a partir de mecanismos mutacionais muito bem conhecidos em associação com a seleção natural. Novos genes com novas funções, novos sistemas de regulação gênica etc podem ser produzidos, inicialmente, por duplicação de um gene pré-existente, divergência por mutações adicionais e seleção para uma nova eventual função em consequência de vantagens para o organismo e, por outros, processos e mecanismos evolutivos. [Sobre mutações veja este artigo do evolucionismo.org e este outro, sobre variação e evolução este do biociencia.org]
As duplicações ocorrem por causa de processos como o crossing over desigual e o deslise da enzima DNA polimerase que são bem conhecidos pelos pesquisadores de biologia molecular. Duplicações envolvendo cromossomos inteiros e mesmo genomas também são conhecidas. Esse processo básico produz a matéria prima para a geração desta nova informação genética. A divergência posterior produzida pelo acumulo de mutações, como mencionado, pode fazer com que as cópias resultantes da duplicação apresentem funções diferentes. A vantagem da duplicação é que torna a característica associada ao gene (por exemplo a proteína por ele codificada) menos sensível a mutações já que mesmo que uma cópia seja atingida por várias mutações a outra mantem a função original. Na maioria das vezes uma das cópias acaba sendo erodida pelas mutações dando origem a pseudogenes que podem nos ajudar a trilhar parte de nossa história genética, pelo menos, até que sejam completamente erodidos por mutações ou (como sabemos de alguns casos) recrutados, contingentemente, para novas funções. Existem dois processos básicos pelos quais novas funções podem emergir. A neo-funcionalização ou sub-funcionalização que está na origem também de novos sistemas de regulação. Isso pode ocorrer através quando as duas cópias acumulam mutações e passam a dividir a tarefa originalmente realizada por apenas um gene não-duplicado. A sub-funcionalização também pode ser seguida de neo-funcionalização.
Mas nem só de duplicação → mutação →divergência →seleção de genes inteiros que ‘vive o aumento de informação genética’. O mesmo processo básico pode ocorrer com as regiões regulatórias dos genes, como promotores, reforçadores e repressores e, muitos pesquisadores suspeitam que este é o processo principal para a evolução desenvolvimental e morfológica dos animais e plantas. As sequências cis-regulatórias, caso duplicadas, podem divergir ao acumular mutações em uma (ou nas duas cópias), da mesma forma que genes inteiros, ao mesmo tempo mantendo a função original. Eventualmente essa região divergente pode recrutar um novo fator de transcrição (uma proteína que se liga ao DNA e modula a ação do complexo de transcrição) e, passar, a induzir a expressão do gene por mais tempo ou em outro tecido criando uma nova funcionalidade e, assim, aumentando a informação codificada no DNA.
Mas não é só isso que pode aumentar o conteúdo informacional de sistemas biológicos. Outros processos também estão envolvidos na origem e evolução de nova informação genética. Genes de eucariontes são em geral subdivididos em regiões codificantes (exons) e sequências intervenientes não codificantes (os introns) que, durante a transcrição, são processadas (o popular splicing) na transformação do RNA pré-mensageiro em um RNA mensageiro que, então, é traduzido em uma sequência polipeptídica ao associar-se aos ribossomos. Estes exons que são juntados , após a excisão das sequências intrônicas durante o processo de splicing, codificam, refletem-se, aproximadamente, nas sequências polipeptídicas daquilo que os pesquisadores da área chamam de domínios. Esses são nada mais que porções da proteína, muitas vezes com funções específicas, em geral relativamente autônomas em relação ao enovelamento. É bom lembrar que, além da sequência codificante inteira e dos elementos cis-regulatórios, exons específicos podem também ser duplicados.
O chamado exon shuffling (“embaralhamento exônico”), ou seja, a troca de ordem dessas sequências exônicas dentro de um mesmo gene ou entre genes diferentes é uma fonte adicional de nova informação e envolve subunidades relativamente estáveis e independentes precisando apenas ser ajustadas por mutações adicionais e seleção dos indivíduos que as portem. Assim um domínio catalítico de uma enzima pode ser unido a um domínio de ligação a outra proteína. A recombinação incorreta ou a reinserção de sequências processadas por retroposons (elementos genéticos móveis capazes de criar intermediários de RNA) e retrovírus podem produzir esse efeito.
A fusão de genes é um outro processo semelhante que também pode criar nova informação genética, assim como a origem de novo a partir de sequências não codificantes que abundam no genoma, principalmente em eucariontes. A domesticação de transposons é outra possibilidade e a inserção de novos nucleotídeos ou a translocação de sequências de uma região cromossômica ou cromossomo para outro[a] são exemplos adicionais pode produzir nova informação. Esses processos são bem documentados através da análise de genômica comparativa e estudo dos mecanismos de mutação e reparo de DNA. A origem do complexo de genes Jingwei (o sistema de regulação através de um RNA regulatório, complementar ao gene) a partir do gene Yellow Emperor é um ótimo exemplo desse processo e mostra como um sistema regulatório pode evoluir.
Para fazer um sumário, do que foi dito até aqui. Caso encaremos a informação de forma menos rigorosa, mas mais perto do seu sentido “semântico” e contextual - calcado nas relações entre estrutura e função, portanto, mais próximo de nosso senso comum - certos tipos específicos específicos de mutação se destacam como os geradores da matéria prima para a evolução do aumento da informação e complexidade biológica. Duplicações gênicas, de seqüencias regulatórias ou exons; inserções de nucleotídeos, fusão e fissão gênica, inserção de transposons e retrotransposições e embaralhamento de exons estão entre os tipos de mutações mais importantes.
Todos esses processos acrescentam novas seqüencias aos genomas que mais tarde, ao mutar, podem divergir e produzirem novas funções. Elas servem como matéria prima para a evolução de informação biológica. Essa 'informação’ é a que está por trás da origem de novas estruturas biológicas, vias metabólicas e de sinalização intra-celular, sendo responsáveis pela mudança morfológica, fisiológica e comportamental, mas também pela mudança do controle das funções e do desenvolvimento de estruturas, órgãos e sistemas já existentes, que ocorre ao longo das eras nas populações de seres vivos. [Para maiores detalhes veja estes artigos do evolucionismo.org, aqui, aqui, aqui e aqui]
Mas o termo informação também é empregado de forma mais técnica e mais rigorosamente definido. Contudo, caso se tenha em mente estes tipos de definições, mais técnicas, de informação, precisamos aplicá-las de forma coerente.
A teoria da informação, desenvolvida por Claude Shannon, desenvolvida ainda nos anos 40, é mais conhecida dessas versões mais rigorosas e quantitativas. Mas para aplicarmos tal teoria, primeiro precisamos deixar de lado a equiparação dela com o conteúdo semântico e outros conceitos ambíguos, geralmente, associados ao contexto e ao significado da informação. Em contraste a conceituação 'semântica’ de informação aproxima-se mais do que usamos no nosso dia a dia ao falarmos da informação contida em um livro, por exemplo. Infelizmente, este uso do termo “informação” não tem o rigor e nem o formalismos matemático que os criacionistas tradicional gostariam e que os adeptos do criacionismo de Design Inteligente atribuem a ela. Algo muito parecido é feito por eles com a segunda lei da termodinâmica.
A teoria da informação de Shannon (TIdS), simplificando bastante, lida com as correlações entre dois sistemas que variam um em função do outro através de um 'canal de comunicação’ ruidoso que torna essa correlação incerta, ou seja, a transferência da mensagem é imperfeita.
Outra teoria da informação também muito importante nas ciências exatas, especialmente na computação e matemática aplicada é teoria algorítmica da informação (TAI) de Kolmogorov e Chaitin. Segundo Chaitin, a TAI é “o resultado de colcar a teoria da informação de Shannon e a teoria da computabilidade de Turing em uma coqueteleira e agitar vigorosamente” (citado aqui).
A TAI, bem como as medidas de complexidade derivadas desse quadro teórico-matemático, dedica-se, principalmente, ao estudo de medidas de complexidade de sequências de símbolos, que em ciências da computação recebem o nome de “strings” e ou outras estruturas de dados. Essa teoria tem vasta aplicabilidade em matemática e computação por que muitos objetos matemáticos podem ser analisados em termos de “strings”. Uma importante, ressalva também precisa ser feita em relação ao uso do termo “informação” pela TAI que é completamente dependente do conceito de compressibilidade.
Simplificando bastante, levando-se em conta a TAI, “o conteúdo de informação de uma seqüência ("string”) é equivalente ao comprimento da descrição mais curta possível representação auto-contida da mesma sequência" . Essa representação “auto-contida” é, em outras palavras, basicamente “um programa de computador - escrito em alguma linguagem fixa de programação que, quando executado, produz a sequência original. Desta forma, o conteúdo informacional ou a complexidade algorítmica de um objeto é medido pelo tamanho de sua menor descrição” (veja verbete da wiki em Inglês). Esta definição traz algumas conseqüências contra-intuitivas e que merecem ser explicitadas:
“Deste ponto de vista, uma enciclopédia com 3.000 páginas, na verdade, contém menos informação do que 3000 páginas de letras completamente aleatórias, apesar do fato de que a enciclopédia é muito mais útil. Isso porque, para reconstruir toda a seqüência de letras aleatórias, é preciso saber, mais ou menos, qual cada letra é. Por outro lado, se cada vogal for retiradas da enciclopédia, alguém com conhecimento razoável do idioma Inglês poderia reconstruí-la, assim como alguém provavelmente poderia reconstruir a frase "Ths sntnc hs cntnt nfrmtn lw” a partir do contexto e das consoantes presentes. Por esta razão, as seqüências strings de alta informação são às vezes chamados de “randômicas”; as pessoas, algumas vezes, também tentam fazer distinção entre “informação” e “informação útil” e tentam fornecer definições rigorosas para o último tipo, com a idéia de que as cartas aleatórias podem tem mais informação do que a enciclopédia, mas a enciclopédia tem mais informação “útil”. [Veja o parágrafo original no verbete da wiki em inglês sobre a TAI] ”
De início, isso já frusta as intenções de muitos criacionistas de usar esta abordagem, simplesmente, por que a “informação genética”, além de não refletir o uso mais comum do termo, sistemas biológicos apresentariam apenas uma nível de complexidade intermediária - como fica claro ao pensarmos na redundância das sequências, na própria degenerescência do código genético e na variação populacional -, portanto, não sendo isso que os criacionistas têm em mente quando falam da extraordinária complexidade ou do incrível aumento conteúdo informacional dos genomas ou das células. Na verdade, o que eles querem dizer com isso, é apenas que as células são muito complicadas. A partir dessa observação trivial tentam usar essa “complicação” como argumento para refutar a origem natural dos bio-sistemas, usando conceitos dúbios e vagos, travestindo-os com jargão pseudo-matemático, como faz Dembski ao chamar de informação o logaritmo da probabilidade de algum bio-sistema, porém sem especificar que tipo de probabilidade seria essa e qual a classe de contraste a ser usada na comparação.
Muitos matemáticos e cientistas têm apontado que quando os Dembski, e outros adeptos do CDI, propõem cálculos usam como base uma distribuição de probabilidade uniforme, semelhante a jogadas de moeda consecutivas. Basicamente cometem a falácia de Hoyle ao pressupor que os sistemas biológicos se originam por agregação aleatória, em que cada passo é equiprovável. Desconsideram, desta maneira, tudo que se sabe sobre evolução e toda sofisticada teoria matemático-estatística por trás da moderna biologia evolutiva. [Sobre a inanidade de Dembski veja este artigo e este de Olofsson e os três que seguem de Häggström: a, b, c, além dos artigos de Mark Perakh, d e e, por exemplo.]
Diferente dos criacionistas, muitos cientistas estão aplicando a TI (e os conceitos relacionados, como informação mútua e entropia informacional) a sistemas biomoleculares. Pesquisadores como Tom Schneider, biólogo computacional que trabalha no National Cancer Institute, ligado ao NIH, dos EUA; o físico teórico Chris Adami e Charles Ofria, cientista da computação, entre muitos outros, vêm valendo-se das teorias de Shannon e Kolmorov/Chaintin e as aplicando em problemas de biologia molecular e evolução.
Schneider já vem fazendo isso há anos, através do que ele nomeou de teoria da informação molecular e da “teoria das máquinas moleculares”, a partir dos insights de Claude Shannon. Em artigo de 2000 na Nucleic Acid Research, Schneider, através do programa EV, mostrou como um simples sistema de mutação, seleção e replicação pode gerar o aumento da informação a partir da redução da incerteza associada ao reconhecimento entre uma região regulatória (que originalmente não existia) e uma elemento regulador. Ele mostra como isso ocorre através da aproximação dos valores entre duas medidas a Rfrequência e a Rsequência. No site de Schneider, além de vários primers sobre teoria da informação, com apêndices bem informativos sobre o uso de logaritmos e sobre o conceito de bits, estão disponíveis também apresentações e artigos técnicos, além das refutações aos argumentos de Dembski e outros defensores do CDI.
Adami e Ofria, junto com o filósofo Robert Penock, são os responsáveis pela plataforma Avida e também desenvolveram uma métrica para calcular a informação (ou complexidade) de sequências de DNA e de outras biomoléculas e de como evolui codificação de informação a partir do ambiente. Os trabalhos com este e outras plataformas (como a Polyword e Tierra) nos ajudam a compreender de uma forma mais controlada como a informação e a complexidade aumentam ou diminuem ao longo da evolução.
Em ambos os casos, são comparadas as seqüenciais variantes de biomoléculas em uma dada população e são medidas as correlações dessa como outras moléculas que desempenham uma função particular enquanto elas evoluem ao longo do tempo em regime de mutação, deriva e seleção. Fica, claro que ao utilizarmos definições mais rigorosas de informação (as aplicando de forma coerente e apropriada aos sistema biomoleculares em estudo), pode-se mostrar que a informação realmente pode aumentar por processos evolutivos completamente naturais. Inclusive nos deparando com fatos bem mais interessantes do que os criacionistas poderiam sustentar.
Joseph Felsenstein, conhecido geneticista de populações teórico e especialista em métodos matemáticos e computacionais para a análise de filogenias, sempre insiste que como informação está associada a diminuição da incerteza, o aparecimento de um novo alelo a partir de uma mutação aumenta a incerteza associada aquela sequências em particular. Neste caso a seleção natural, ao fixar ou eliminar este novo alelo, diminui a incerteza associada àquela sequência (Veja os posts e comentários dele no blog Panda’s Thumb: 1, 2,e 3 e 4). O mesmo pode ocorrer através da deriva genética aleatória, como o nome diz, um processo aleatório. Flutuações não provocadas pela “adaptabilidade” dos indivíduos (a adequação estrutural-funcional do mesmo aos seu meio), e que não sejam herdáveis, podem produzir erros de amostragem a cada geração e eliminar ou fixar alelos. Neste caso, também aumentando a informação já que diminuem a incerteza gerada pelas mutações.
Jack Szostak e Robert Hazen propuseram uma medida de “informação funcional” exatamente nesses moldes e que satisfaz muitas demandas dos criacionistas do DI - mas que eles mesmos preferem não se aprofundar demais, como é evidente na ambigüidade intencional e as idas e vindas de Dembski ou nas comparações vazias de Stephen Meyer [Veja Shallit sobre isso].
Esta medida, proposta de Szostak e Hazen, deixa claro que a “informação funcional” de um sistema biológico qualquer está associada a proporção das sequências (de qualquer biomolécula) que são capazes de realizar uma dada função dentre todas as sequências existentes e daí retiram a distribuição de probabilidade relevante. Como nem todas as sequências realizam a função com a mesma eficiência ou são tão simples de serem produzidas, haverá um enviesamento: Aquelas que contribuírem positivamente para a replicação dos bio-sistemas a qual estão integradas é que tenderão aumentar em frequência. Isso é exatamente o processo de seleção natural cumulativa em ação aumentando a aptidão média da população em um dado contexto. Simulações usando a plataforma Avida mostram exatamente isso.
O que sobra então para os criacionistas? Apenas distorções e confusões conceituais. O mais comum é que eles simplesmente tentem empurrar a falácia de Hoyle, ou seja, calcular a probabilidade de uma dada biomolécula em retrospectiva, mas usando dois pressupostos equivocados:
Tratam a biomolécula como se fosse um alvo específico único e não uma função alcançável por diversas sequências diferentes, de tamanhos diferentes e até biomoléculas diferentes;
imaginam (ou tentam empurrar a ideia que a evolução ocorre por) tentativas únicas e seqüenciais, esquecendo-se de que a evolução ocorre em populações (muitas delas sexuadas) e em múltiplas linhagens que se ramificam, formando mais linhagens que herdam as características (especialmente a configuração biomolecular) das espécies parentais e acrescentando suas próprias características através de novas mutações;
ignoram (intencionalmente ou não) completamente o papel da seleção natural positiva e da diminuição do poder da seleção negativa (purificadora) associada a diminuição das populações efetivas que permitem o acumulo de mutações.
Ao adotarem esses três pressupostos produzem um jogo de cartaz marcadas, criando um espantalho estatístico completamente irrelevante, incapaz de refutar a evolução, mas superficialmente rebuscado [Veja este artigo e o comentário de PZ Myers]. Não é do interesse do defensores do CDI e dos demais criacionistas encarar os mecanismos e processos evolutivos de forma honesta, como são estudados pelos cientistas. Assim como não é de interesse deles utilizarem conceitos e abordagens da teoria da informação ou medidas de complexidade de forma precisa, aceitando suas consequências, pois caso o façam seus pressupostos absurdos tornam-se evidentes, passando a ser fácil de perceber que soluções para os pseudo-problemas, por eles levantados, abundam. Veja os links estes links do site TalkOrigin Archives e da RationalWiki, sobre teoria da informação, probabilidades e origem da vida, a falácia de Hoyle [1,2] e o abuso das ideias de Emile Borel aqui e aqui
Como já foi dito, mesmo um processo estocástico como a deriva genética pode aumentar a informação. De fato, nas últimas décadas tem sido propostos modelo de evolução da complexidade genômica e proteômica que dependem deste tipo de mecanismo, em que a seleção natural tem um papel, importante, mas mais periférico, ao “esculpir” novas funções e estruturas a partir do que é acumulado graças a deriva.
Michael Lynch da Indiana University trabalhando com dados genômicos, filogenéticos, desenvolvimentais, ecológico-demográficos e de histórico de vida de várias espécies tem mostrado que, em espécies com pequenas populações (como nos eucariontes multicelulares como vertebrados, por exemplo), a diminuição da eficiência da seleção negativa em purgar fenótipos que carregam mutações com pequenos efeitos negativos, permite a acumulação de mutações fundamentais para complexificação de sistemas regulatórios e expansão genômica, além de outros 'embelezamento’, como ele prefere chamar [Veja este artigo do evolucionismo.org].
Mas como isso se dá? Em populações menores e com tempos de geração maiores, a seleção negativa perde sua eficácia. Isso ocorre por que em populações pequenas mais flutuações reprodutivas podem ocorrer e, por mero acaso, indivíduos não tão bem adaptados podem acabar deixando mais descendentes, enquanto os mais bem adaptados perecem por motivos completamente alheios a suas (e dos menos adaptados) habilidades. É preciso lembrar que, a menos que os indivíduos possuam severas e incapacitantes mutações, eles só precisariam ser um pouco melhores que seus co-específicos para deixarem mais descendentes em um dado contexto populacional caso a população fosse suficientemente grande e estável. Em populações pequenas por causa desse maior “erro de amostragem” as diferenças entre indivíduos são menos relevantes o que permite a fixação de mutações até ligeiramente deletérias. Dentre essas mutações podem estar várias ligadas a complexificação do genoma. A aquisição de UTRs (regiões não traduzidas), introns, sítios de splincing etc é compatível com os modelos de genética de populações, com o modelos matemáticos e simulações computacionais de evolução molecular. Mais recentemente, Lynch e Fernández, expandiram esta análise para o interatoma, a rede de interações proteína-proteína, mostrando que uma relação inversa entre o tamanho da população e, uma medida de instabilidade protéica (v), associada a tendência das proteínas mais instáveis de formar interações proteína-proteína como forma de compensar a exposição de porções da proteína mais suscetíveis a hidratação causada pelo mal enovelamento do biopolímero. Esta instabilidade seria causada pelo acúmulo de mutações deletérias que interferem com a estabilidade estrutural e o enovelamento protéico. A seleção natural, aqui, entra de novo ao privilegiar os organismos que mantem mais interações compensatórias e, eventualmente, quando esta maior complexidade melhora algum processo e torna o individuo portador mais longevo ou fecundo.
A deriva, portanto, permite a acumulação de mutações e complexificação estrutural que, por sua vez, é ajustada pelo processo de seleção natural que ocorre quando as populações se expandem ou quando eventuais vantagens funcionais mostram-se suficientemente grandes. Essas novas proto-funcionalidades podem ser especialmente úteis na conquista de um novo habitat ou na ocupação/especificação de um novo nicho e aí, após o surgimento de variações “melhores” e “piores” desta complexidade surgem, a seleção natural pode agir reduzindo a variedade de sequências biomoleculares e ajustando a população ao novo contexto ecológico-funcional na medida que ela se expande. Porém, a longo prazo em populações que permanecem pequenas, consequências drásticas podem surgir.
Esta não é a única alternativa, alguns outros pesquisadores defendem que a seleção natural teve e tem um papel mais pronunciado na evolução da complexidade biológica, mas os trabalhos de Lynch e outros cientistas mostram que, pelo menos potencialmente, mesmo o acaso (com a lapidação da seleção natural) pode produzir bio-complexidade.
A mensagem principal a ser tirada disso tudo é que, mesmo que ainda não saibamos de muita coisa e precisemos continuar investigando a questão, não existe nenhum mistério insolúvel (ou dúvida recalcitrante por parte da comunidade científica) em relação a geração de informação em sistemas biológicos. Os criacionistas tradicionais ou do Design Inteligente escondem-se através da ambigüidade de seu discurso e da equivocação do conceito mais coloquial de informação (associada ao significado e ao contexto) com o mais técnico (matemático-estatístico, TidS e TAI), transitando entre um e outro, mas sem propor definições específicas, operacionalmente acessíveis e que sejam coerentes com os bio-sistemas em que elas devem ser investigadas.
______________________________________________
Adami C. Information Theory in Molecular Biology Physics of Life Reviews 1 3-22 (2004).
Ball, Philip [publicado on line em 18 de maio de 2011] The Achilles’ heel of biological complexity Nature News doi: 10.1038/news.2011.294.
Fabris F. Shannon Information Theory and Molecular Biology, Journal of Interdisciplinary Mathematics, vol.12, n.1, february 2009, pp. 41-87.
Fernández A, & Lynch M (2011). Non-adaptive origins of interactome complexity. Nature PMID: 21593762
Godfrey-Smith, P Information in Biology, in D. Hull and M. Ruse (eds.), The Cambridge Companion to the Philosophy of Biology. Cambridge University Press, 2007, pp. 103-119.
Griffiths, P.E (2001) Genetic Information: A metaphor in search of a theory. Philosophy of Science68(3): 394-412.
Hazen RM, Griffin PL, Carothers JM, Szostak JW. Functional information and the emergence of biocomplexity. Proc Natl Acad Sci U S A. 2007 May 15;104 Suppl 1:8574-81. Epub 2007 May 9. PubMed PMID: 17494745; PubMed Central PMCID:PMC1876432
Hutter, Marcus (2007) Algorithmic information theory Scholarpedia, 2(3):2519.
Koonin EV. A non-adaptationist perspective on evolution of genomic complexity or the continued dethroning of man. Cell Cycle. 2004 Mar;3(3):280-5. Epub 2004 Mar 1. PubMed PMID: 14726650.
Lynch, Michael The Origins of Genome Architecture, 2007, Sinauer Associates, ISBN 9780878934843.
Lynch M. The frailty of adaptive hypotheses for the origins of organismal complexity. Proc Natl Acad Sci U S A. 2007 May 15;104 Suppl 1:8597-604. Epub 2007 May 9. PubMed PMID: 17494740; PubMed Central PMCID: PMC1876435.
Musgrave, Ian [Last Update: December 21, 1998] Lies, Damned Lies, Statistics, and Probability of Abiogenesis Calculations The TalkOrigin Archive, acessado em 24/12/2010.
Musgrave, Ian, Baldwin, Rich and others [Posted: July 14, 2005] Information Theory and Creationism The TalkOrigin Archive, acessado em 24/12/2010.
Schneider TD, Stephens RM. Sequence logos: a new way to display consensus sequences. Nucleic Acids Res. 1990 Oct 25;18(20):6097-100. PubMed PMID: 2172928; PubMed Central PMCID: PMC332411.
Schneider TD, Stormo GD. Excess information at bacteriophage T7 genomic promoters detected by a random cloning technique. Nucleic Acids Res. 1989 Jan 25;17(2):659-74. PubMed PMID: 2915926; PubMed Central PMCID: PMC331610.
Schneider TD. Claude Shannon: biologist. The founder of information theory used biology to formulate the channel capacity. IEEE Eng Med Biol Mag. 2006 Jan-Feb;25(1):30-3. PubMed PMID: 16485389; PubMed Central PMCID: PMC1538977.
Schneider TD. Evolution of biological information. Nucleic Acids Res. 2000 Jul 15;28(14):2794-9. PubMed PMID: 10908337; PubMed Central PMCID: PMC102656.
Schneider TD. Evolution of biological information. Nucleic Acids Res. 2000 Jul 15;28(14):2794-9. PubMed PMID: 10908337; PubMed Central PMCID: PMC102656.
Schneider TD. Theory of molecular machines. I. Channel capacity of molecular machines. J Theor Biol. 1991 Jan 7;148(1):83-123. PubMed PMID: 2016886.
Schneider TD. Theory of molecular machines. II. Energy dissipation from molecular machines. J Theor Biol. 1991 Jan 7;148(1):125-37. PubMed PMID: 2016881.
Schneider, T. D. New approaches in mathematical biology: Information theory and molecular machines. In Julian Chela-Flores and Francois Raulin, editors, Chemical Evolution: Physics of the Origin and Evolution of Life, pages 313-321, Dordrecht,The Netherlands, 1996. Kluwer Academic Publishers.
Schneider, T. D. Sequence logos, machine/channel capacity, Maxwell’s demon, and molecular computers: a review of the theory of molecular machines. Nanotechnology, 5:1{18, 1994.
Schneider, T.D. Shannon’s Channel Capacity Theorem: is it about Biology? Apresentação em PDF.
Schneider, Thomas D. Information Theory Primer With an Appendix on Logarithms (version = 2.64 of primer.tex 2010 Jan 08), acessado em 20 de outubro de 2010.
Segal J. The use of information theory in biology: a historical perspective. Hist Philos Life Sci. 2003;25(2):275-81. PubMed PMID: 15295870.
Shallit, Jeffrey (2010) Stephen Meyer’s Bogus Information Theory Talkreason, acessado em 20 de outubro de 2010.
Stockwell, John [Last update: March 13, 2002] Borel’s Law and the Origin of Many Creationist Probability Assertions The TalkOrigin Archive, acessado em 24/12/2010.
Szostak JW. Functional information: Molecular messages. Nature. 2003 Jun 12;423(6941):689. PubMed PMID: 12802312.
Wilf, Herbert S. and Ewens, Warren J. (Submitted on 25 Oct 2010) There’s plenty of time for evolution arXiv.org Cornell University Library [comentário de PZ Myers no blog Pharyngula]
Yi SV. Non-adaptive evolution of genome complexity. Bioessays. 2006 Oct;28(10):979-82. Review. PubMed PMID: 16998825.
Touretzky, David S. Basics of Information Theory (Tutorial Version of 24 November 2004), acessado em 20 de outubro de 2010.
A palestra de Lynch e a transcrição da mesma disponível aqui também ajudam a compreender o processo de evolução genômica:
Palestra Michael Lynch from Pesquisa FAPESP Online on Vimeo.
Em sequência posto a parte II para a segunda afirmação sobre os fósseis de transição.
Abraços,
Rodrigo