Depois de mim o dilúvio? Natureza – Cultura: Arte

O que vem depois da natureza?

“Untitled Sound Objects”, performance, transmediale 09 (Berlim) “Deep North”; Foto: Jonathan GrögerSua informatização? A nossa imagem da natureza surge hoje no computador.

O debate sobre a mudança climática domina a consciência pública. Muitos acreditam já estar sentindo a mudança climática: não é que os verãos estão mais quentes do que antigamente, as tempestades mais fortes, e não houve recentemente uma notícia a respeito de um tornado em Colônia, junto ao Reno? Na realidade, tais acontecimentos isolados e suas avaliações e impressões subjetivamente diferentes são irrelevantes de um ponto de vista científico. A mudança climática que se delineia da América do Sul, passando pela Europa e chegando até a Ásia, esconde-se atrás de gigantescas quantidades de dados de medição, que são processados em computadores e transformados em modelos climáticos. A mudança climática só se torna visível de um modo confiável na digitalização e virtualização dos nossos computadores.


Digitalização e virtualização da natureza

Digitalização é a decomposição de dados e sinais em bits e bytes, que correspondem a situações alternativas de tensão em unidades de conexão dentro de um computador, e são designadas como 0 ou 1. Assim, cada símbolo do teclado de um computador corresponde a uma sequência diferente dos dígitos 0 e 1. Portanto, um computador não é outra coisa que uma caixa com incrivelmente muitos comutadores, nos quais, obedecendo a determinados programas, os bits 0 e 1 são modificados a uma velocidade alucinante. Eles codificam os documentos, as imagens, os filmes ou as melodias que nos são oferecidos hoje em dia até pelos menores equipamentos portáteis. A realidade virtual é uma realidade artificial produzida pela digitalização dentro do computador. Quem de nós ainda é capaz de diferenciar num filme de longa-metragem quais trechos reproduzem processos naturais verdadeiros e quais mostram, com enganosa penetrância, românticos crepúsculos ou terríveis catástrofes naturais que foram produzidos apenas virtualmente?

O que é válido para o cotidiano e para o entretenimento é ainda mais válido para a ciência: a nossa imagem da natureza surge hoje no computador! Especialistas em cosmologia recebem imagens dos estágios primordiais do universo na medida em que fracos sinais de luz captados por sensíveis sondas espaciais são registrados e processados por computadores, até se tornarem imagens coloridas formadas por miríades de pixels. E, no microcosmo, os físicos especializados em partículas elementares decodificam os menores módulos da natureza, graças a supercomputadores interconectados mediante redes. A WWW (World Wide Web) foi inventada pelo CERN, a Organização Europeia para a Investigação Nuclear, em Genebra (Suíça), com a finalidade de aumentar as capacidades computacionais através da interconexão de diferentes computadores.

A nossa imagem da natureza sempre dependeu dos métodos de observação que estavam à nossa disposição nas diferentes épocas. A natureza, de início, equipou-nos apenas com os órgãos dos nossos cinco sentidos. Mas também os órgãos dos sentidos já são instrumentos de observação que fornecem a nós, seres humanos, outras perspectivas da natureza do que aquelas obtidas pelos sapos ou pelos cavalos. Até bem avançada a Idade Média, a observação da natureza só se baseava nos órgãos dos nossos sentidos. Durante a Idade Moderna, a ciência passou a contar com lunetas, telescópios e microscópios. Hoje, a exatidão e a nitidez de suas imagens dependem da capacidade de cálculo dos computadores.


De Alexander von Humboldt a Craig Venter?

Diferentemente da astronomia, da física e da química, a biologia continuou sendo até adentrado o século XX uma ciência descritiva, fundamentada no olho e, na melhor das hipóteses, no microscópio. Alexander von Humboldt é um brilhante exemplo do tipo clássico de pesquisador da natureza, no começo do século XIX. Quem consegue resistir ao encanto de suas imagens e textos? A unidade da natureza torna-se visível de imediato. No fim do século XIX, Therese da Baviera (ver Humboldt 96), na sua viagem pelo Brasil, quis, perseguindo a meta de ciência universal de Humboldt, colecionar “a maior quantidade possível de objetos botânicos, zoológicos, antropológicos e etnográficos para os museus do Estado da Baviera”. As ciências naturais, no sentido de Humboldt, são universais, versadas e belas.

Quão grande é a diferença entre esta visão e a pesquisa biológica de hoje em dia, em que os interesses de um museu são apenas marginais e programas bilionários de pesquisa são financiados pelo Estado e pela indústria! Através da biologia molecular e da biotecnologia, a imagem da natureza muda maciçamente. Durante as últimas três décadas, as ciências biológicas fizeram grandes avanços na identificação e na análise de componentes individuais dos sistemas biológicos. A partir dos órgãos, dos tecidos, das células e de suas partículas, chegando até as moléculas, foi colhida uma enorme quantidade de informação, que atingiu seu ápice provisório na decodificação do genoma humano e na publicação dos seus resultados em 15 de fevereiro de 2001, por Craig Venter. Quão crassa é a diferença entre as diferentes perspectivas da natureza é algo que é demonstrado por personalidades tão diferentes como a de Therese da Baviera, cultivada no espírito humboldtiano, e a do cientista e empresário Craig Venter, orientado pelo sucesso, que obteve esse resultado montando uma empresa própria e graças a uma nova forma de gerenciamento de pesquisas. Um consórcio internacional criado para trabalhar com o sequenciamento humano foi um exemplo desta nova forma de pesquisa em grande escala. Grupos de pesquisa de muitos países contribuíram para o sucesso deste gigantesco projeto na área da biologia.

A condição prévia para a decodificação das peças que constituem a vida foi a disponibilidade de equipamentos automáticos de sequenciamento do DNA. Os primeiros aparelhos destinados a este fim foram apresentados há 15 anos. Entrementes, equipamentos de altíssima performance sequenciam perto de 500 mil pares de bases por dia. Os centros internacionais de pesquisa do genoma que fazem parte do consórcio de sequenciamento do genoma, munidos destes aparelhos, atingem assim uma capacidade de sequenciamento de 172 milhões de bases por dia, ou de duas mil bases por segundo.


Do reducionismo ao holismo nas pesquisas naturais

Todos estes projetos têm em comum uma pesquisa reducionista da natureza: o sistema biológico como um todo é decomposto em sistemas menores mais finos, cujas peças constituintes são depois descritas com a maior acuidade possível. Com isso surge um imenso fluxo de dados a respeito de componentes isolados, como, por exemplo, as funções de uma célula ou de um organismo inteiro. A complexidade desta pletora de dados constitui-se num grande desafio para a pesquisa sistêmica, que se ocupa do relacionamento do todo de uma célula ou de um organismo. Gigantescos mapas de genes, bancos de dados sobre proteínas ou redes para os processos metabólicos tornam-se necessários. Por isso, está se delineando uma mudança de paradigma na pesquisa, do reducionismo para uma visão holística dos sistemas. Para a compreensão de características sistêmicas complexas, como regulação, controle, direcionamento, adaptação, robustez e evolução, o conhecimento exato dos módulos moleculares não basta. Faz-se mister desentranhar a interatividade entre componentes individuais do sistema e a sua dinâmica, assim como entre diferentes níveis de complexidade das moléculas, proteínas, células e órgãos. Isso significa que a abordagem reducionista predominante até há pouco deve ser substituída por uma pesquisa holística e integrativa da natureza.

Essa mudança de paradigma só será bem-sucedida se disciplinas como a biologia, a matemática, a informática e a ciência dos sistemas cooperarem de forma interdisciplinar. Para tanto, delineia-se uma estreita interatividade entre a captação experimental de dados e a modelagem e a simulação baseada em computadores. Para entender os complexos processos metabólicos numa única célula e reproduzi-los num modelo matemático, são eventualmente necessárias várias centenas de equações. A bioinformática integra os diferentes dados biológicos, os salva em bancos de dados e os põe à disposição dos modelos. Uma outra tarefa central é o desenvolvimento de software de fácil uso para o usuário, que possa ser operado e compreendido tanto por biólogos quanto por cientistas de sistemas. Finalmente, as complexas correlações e os resultados das simulações têm que poder ser visualizados de forma compreensível. No fim disso tudo estão as metas distantes da virtualização da natureza, com células, órgãos e organismos “transparentes”.

Contudo, comparados com o sequenciamento do DNA, os métodos de levantamento funcional sistêmico de hoje em dia ainda não atingiram o mesmo grau de desenvolvimento. Enquanto a tecnologia do DNA já chegou a um estágio industrial de produção, o próximo passo na análise de proteínas ainda vai requerer ingentes esforços para o seu desenvolvimento. As redes eletrônicas parecem bem simples quando comparadas com a rede metabólica de uma única célula hepática. O órgão do fígado é uma fábrica bioquímica extremamente complicada, que monta, remonta e desmonta diariamente mais de dez mil substâncias, e fornece ao corpo matérias imprescindíveis para a sua sobrevivência, como proteínas, hidratos de carbono e gorduras. O fígado pode muito bem servir de modelo sistêmico para pesquisas holísticas de sistemas biológicos, pois este tipo de célula cumpre com múltiplas tarefas, oferecendo assim numerosas possibilidades de aplicação nas áreas das ciências médicas, farmacológicas e da nutrição.

Paulatinamente estamos começando a intuir por que a simulação computadorizada de sistemas vivos integrais é tão promissora e importante. A modelação de comportamentos complexos em rede permite identificar pontos de ataque para intervenções terapêuticas e desenvolver substâncias ativas apropriadas. Mas os modelos virtuais não apenas dão uma contribuição essencial para a compreensão dos sistemas vivos e para a terapia das enfermidades. Também de um ponto de vista econômico a modelação e a simulação de processos biológicos têm grande interesse. Experiências feitas com células virtuais numa primeira instância in silico (ou seja, “no silício” dos chips de computador, isto é, num software) prometem redução de tempo e de custos no desenvolvimento de medicamentos. Além do mais, não se deve esquecer que, com isso, reduz-se em muito a quantidade de testes feitos com animais.


Natureza “in silico”, “in vitro” e “in vivo”

De um ponto de vista metodológico, distinguimos perspectivas da natureza in silico, in vitro e in vivo. Os dados observados e medidos são obtidos in vivo, a partir de organismos biológicos vivos. A partir desses dados sobre sistemas biológicos, assim como a partir dos conhecimentos sobre funções e correlações de seus componentes, desenvolve-se um modelo matemático. A partir desse modelo podem ser deduzidas e formuladas hipóteses a respeito de características e comportamentos sistêmicos. A seguir, essas hipóteses podem ser examinadas in silico e in vitro. O modelo matemático é submetido a uma simulação in silico, ou seja, no computador, a qual fornece novos dados, permitindo assim um exame da hipótese. Experimentos correspondentes são feitos no laboratório in vitro, ou seja, nos tubos de ensaio, dos quais se deduzem novos dados biológicos que servem para um reexame das hipóteses.

As perspectivas da natureza in silico, in vitro e in vivo complementam-se, portanto, no campo das ciências naturais. Para, por exemplo, entender os grandes sistemas ecológicos da América do Sul, em cujo encalço estavam Alexander von Humboldt e Therese da Baviera, hoje em dia nós precisaríamos contar com o apoio de complexos modelos de computação. A susceptibilidade do mundo das plantas e dos animais, que estão tão ameaçados por pandemias quanto o está o ser humano, tem que ser estudada através de uma abordagem integrada dos níveis molecular e genético, passando pelo nível celular até os níveis orgânico e ecológico. Quem vê uma contradição entre o (presumido) romantismo da natureza do século XIX e a (presumida) “fria” previsibilidade da era dos computadores, deixa de lado a realidade e as suas exigências. À visão holística de Humboldt corresponde hoje uma visão holística e integrada da natureza, a partir de uma base biológica sistêmica. Todavia, hoje a biologia sistêmica é parte da pesquisa da natureza apoiada na matemática e na informática, numa extensão que anteriormente só era atingida pela física.

Resta o aspecto estético da pesquisa humboldtiana da natureza. Será que a natureza perde seus atrativos por causa de sua digitalização e virtualização? Será que, enquanto natureza “transparente”, ela é desencantada? As nossas imagens de alto brilho da natureza são hoje produtos típicos da era da mídia e do computador. Já houve alguma vez tais imagens do cosmo, da floresta amazônica, de panteras e antropoides, mas também de bactérias, proteínas, moléculas e átomos? Diferentemente das decentes gravuras com temas naturais e das primeiras fotografias do século XIX, o refinamento das nossas imagens da natureza geradas pelo computador tem hoje, por vezes, um efeito exacerbante e abrumador. Até mesmo os jornalistas das redações científicas falam em imagens “excitantes” da astronomia ou da biologia, para despertar a atenção de um público embotado pela enxurrada de estímulos da mídia. Conferências, palestras, filmes e programas televisivos sobre ciência e cultura são produzidos hoje em dia com um dispêndio didático nunca dantes visto – devido à disponibilidade de meios computadorizados.

A nossa imagem da natureza surge, contudo, em nossa cabeça, e é um produto de nosso cérebro – tanto do nosso como do de Humboldt. A forma de vivenciarmos a natureza depende de nossos conhecimentos prévios, da nossa sensibilização, aculturação e socialização. O que ocorre, com isso, no nosso cérebro? Será que ele não é também apenas um computador, com base neuroquímica? Há tempos que no campo da neuroinformática estamos fazendo simulações das redes dos nossos cérebros. Será que no final dessa pesquisa iremos nos defrontar com o homem “transparente”? De fato, a capacidade computacional do cérebro pode ser calculada da seguinte forma: partindo de uma quantidade de aproximadamente 1011 neurônios (células nervosas) por cérebro, com em média 103 contatos sinápticos por neurônio, chegamos a um total de 1014 contatos sinápticos no cérebro. Infelizmente, com um ritmo de apenas 200 comutações por segundo, o cérebro é relativamente lento. Em todo caso, após executarmos cômputos elementares, chegamos então a perto de 2x1016 comutações representando a capacidade computacional do cérebro como um todo. Mas agora entra em jogo a lei de Moore, segundo a qual a capacidade dos nossos computadores se duplica a cada 12 ou 18 meses. Segundo o modo como se aplique esta lei de crescimento, a capacidade computacional do cérebro humano poderia ser ultrapassada na década de 20 deste século pela de um laptop normal. Embora não seja o caso de esquecer que não tudo o que existe no cérebro humano é capacidade computacional. Nosso universo de sentimentos e de representação torna-se possível devido à atividade do nosso cérebro. Transferir isso para um computador representaria mais uma vez um salto quântico.


Vivência da natureza “in silico”?

Emoções in silico? Natureza “transparente” e cérebro “transparente”? Há pouco fui com alguns membros do Instituto de Estudos Avançados da Universidade Técnica de Munique, depois de um simpósio, para um restaurante junto ao Lago de Starnberg. Estava conosco um prêmio Nobel de Física que subitamente apontou fascinado para fora, em direção ao horizonte: “Olhem só este céu!”, exclamou. O sol estava se pondo por cima do lago. As nuvens tinham se aberto dramaticamente e a natureza e o lago brilhavam de um jeito que é típico para essa paisagem nessa estação do ano. Frente ao colega físico estava sentado um Nobel de Medicina, estudioso do cérebro, que confirmou essas impressões com vivacidade. Para o físico teria sido muito fácil explicar todos os fenômenos do sol, da luz e da atmosfera, até adentrar no nível das partículas elementares. O professor de medicina e pesquisador do cérebro poderia ter explicado em termos neuroquímicos o que estava acontecendo na cabeça do seu colega físico durante as suas impressões e emoções. Não obstante, o que prevaleceu foi a fascinação e a vivência da natureza. O espírito de Humboldt continua, portanto, a agir. Therese da Baviera, acolhida há pouco no Walhalla da imortalidade, teria concordado plenamente com os meus convivas junto ao Lago de Starnberg.
Klaus Mainzer
é catedrático de Filosofia e Teoria da Ciência e diretor da Academia Carl von Linde da Universidade Técnica de Munique (TUM). É membro do Advisory Board do Institute for Advanced Study da TUM e da Academia Europaea de Londres. Entre seus livros mais recentes, encontram-se Computerphilosophie (2005), Thinking in Complexity (2007, 5ª), Der kreative Zufall (2007) e Komplexität (2008).

Tradução: George Bernard Sperber
Copyright: Goethe-Institut e. V., Humboldt Redaktion
Novembro 2009
Links relacionados