View
7
Download
0
Category
Preview:
Citation preview
i
UNIVERSIDADE ESTADUAL DE CAMPINAS
Instituto de Filosofia e Ciências Humanas
Marcelo Leite
Biologia total:
Hegemonia e informação no genoma humano
Tese de Doutorado em Ciências Sociais apresentada ao Departamento de Ciências Sociais do Instituto de Filosofia e Ciências Humanas da Universidade Estadual de Campinas, sob orientação do Prof. Dr. Laymert Garcia dos Santos
Este exemplar corresponde à versão final da Tese defendida e aprovada em 09/08/2005, perante a Banca Examinadora
Banca Examinadora:
Prof. Dr. Laymert Garcia dos Santos
Profa. Dra. Leila da Costa Ferreira
Prof. Dr. Hugh Lacey
Prof. Dr. Renato Ortiz
Prof. Dr. Fernando de Castro Reinach
Suplentes:
Prof. Dr. Josué Pereira da Silva
Prof. Dr. Sandro José de Souza
ii
FICHA CATALOGRÁFICA ELABORADA PELA
BIBLIOTECA DO IFCH - UNICAMP
Palavras – chave em inglês (Keywords): Human Genome Project. Sociology. Science – Social aspects. Science Political aspects. Science – Moral and ethical aspects Biology – Philosophy. Genomes. Genetics. Biology. Biotechnology. Molecular biology. Information theory.
Área de concentração : Ciências Sociais. Titulação : Doutor em Ciências Sociais. Banca examinadora : Laymert Garcia dos Santos, Leila da Costa Ferreira, Hugh Lacey, Renato Ortiz, Fernando de Castro Reinach. Data da defesa : 09/08/2005.
Leite, Marcelo Nogueira L536b Biologia total: hegemonia e informação no genoma humano /
Marcelo Nogueira Leite. - - Campinas, SP : [s. n.], 2005. Orientador: Laymert Garcia dos Santos. Tese (doutorado ) - Universidade Estadual de Campinas, Instituto de Filosofia e Ciências Humanas.
1. Projeto Genoma Humano. 2. Sociologia. 3. Ciência – Aspectos sociais. 4. Ciência – Aspectos políticos. 5. Ciência – Aspectos morais e éticos. 6. Biologia - Filosofia. 7. Genomas. 8. Genética. 9. Biologia. 10. Biotecnologia. 12. Biologia molecular. 13. Teoria da informação. I. Santos, Laymert Garcia dos. II. Universidade Estadual de Campinas. Instituto de Filosofia e Ciências Humanas. III.Título.
iii
RESUMO
A tese central deste trabalho é que a aceitação pública despertada pelo Projeto Genoma
Humano só se explica pelo uso político e retórico de um determinismo genético
crescentemente irreconciliável com os resultados empíricos da pesquisa genômica atual. A
complexidade verificada no genoma humano e em suas interações com o meio desautoriza
a manutenção de uma noção simples e unidirecional de causalidade, contrariamente ao
pressuposto na idéia de gene como único portador de informação, esteio da doutrina do
determinismo genético. Um complexo de metáforas informacionais e/ou lingüísticas
continuo vivo nos textos publicados por biólogos moleculares na literatura científica,
notadamente nos artigos veiculados nos periódicos de alto impacto Nature e Science de 15
e 16 fevereiro de 2001, respectivamente. Tais metáforas inspiram um tipo de discurso
ambíguo que modula nuances variadas de retórica determinista, conforme se dirija aos
próprios pares ou ao público leigo. O campo da genômica ainda está longe de rejeitar a
conjunção problemática das noções de gene pré-formacionista e de gene como recurso
desenvolvimental na base da metáfora do gene como informação. Essa fusão inspirada pela
terminologia cibernética propicia uma versão asséptica de gene, distanciada da natureza,
puramente sintática, móvel e virtual o bastante para circular desimpedida nos circuitos de
produção de valor como recurso genético passível de garimpagem e de patenteamento.
Críticos da tecnociência devem desafiar o campo da genômica a reformular drasticamente
as metáforas que dão suporte a seu programa hegemônico de pesquisa.
iv
ABSTRACT
The central thesis of this work is that the public support generated for the Human Genome
Project and the hype surrounding it can be explained only by the political and rhetorical
uses of genetic determinism, a notion which increasingly cannot be reconciled with the
empirical results of on-going genomic research. The complexity that has been uncovered in
the human genome and in its interactions with the environment implies that a simple and
unidirectional notion of causality cannot be maintained, contrary to a presupposition of the
idea of the gene as the sole carrier of information, an idea that contributes to sustain the
doctrine of genetic determinism. A complex of informational and/or linguistic metaphors
lives on in the texts published by molecular biologists in the scientific press, most notably
in the issues published February 15th and 16th of 2001 of the high impact journals Nature
and Science, respectively. These metaphors generate an ambiguous type of discourse that
modulates various nuances of deterministic rhetoric, depending on whether it addresses
peers or the lay public. The field of genomics is still a long way from rejecting the
questionable conflation of the notions of gene as preformation and gene as developmental
resource which underpins the metaphor of gene as information. This conflation inspired by
cybernetics terminology enables an aseptic version of the gene, separated from nature,
portable and virtual enough to flow unimpeded through the channels of value production as
genetic resource suitable for mining and patenting. Critics of technoscience should
challenge the field of genomics to drastically reshape the metaphors which have supported
its hegemonic research agenda.
v
SUMÁRIO
INTRODUÇÃO GERAL p. 1
CAPÍTULO 1 p. 11
Modernidade e tecnologia: armadilhas do determinismo
CAPÍTULO 2 p. 49
Biotecnologia como arauto da Nova Era
CAPÍTULO 3 p. 81
Ecos do determinismo no Genoma Humano
CAPÍTULO 4
Outras biologias: sistemas de desenvolvimento p. 131
CAPÍTULO 5
Metáfora e destino da informação p. 177
CONCLUSÃO p. 207
REFERÊNCIAS BIBLIOGRÁFICAS p. 213
vi
ÍNDICE DE TABELAS E FIGURAS
Tabela 1: Quadro comparativo das edições sobre o genoma das revistas Nature e Science em 15 e 16 de fevereiro de 2001 p. 85 Figura 1: Capa da revista Nature em 15 de fevereiro de 2001 (v. 409, n. 6822) p. 87 Figura 2: Capa da revista Science em 16 de fevereiro de 2001 (v. 291, n. 5507) p. 88 Tabela 2: Hipérboles sobre o genoma nas revistas Nature e Science de 15 e 16 de fevereiro de 2001 p. 89 Tabela 3: Quadro comparativo de 16 empresas de genômica p. 120
1
INTRODUÇÃO GERAL
Este trabalho nasceu da necessidade de refletir sistematicamente sobre algumas
noções e obsessões sedimentadas ao longo de duas décadas de prática do jornalismo
científico: dar conta da insatisfação com a dicotomia entre natureza (biologia) e cultura
(sociedade); fazer a crítica do cientificismo contemporâneo e ao mesmo tempo manter-se
fiel à promessa de imparcialidade embutida na ciências naturais, como forma de resistir às
marés algo arbitrárias que varrem as ciências humanas; questionar o determinismo que
tende a reduzir os processos de mudança social a meros reflexos da invenção de novas
técnicas; entender o potencial perturbador da pesquisa biológica sobre representações,
valores e teorias sociais; combater todas as formas de determinismo biológico e genético,
antes de mais nada por sua incompatibilidade com uma visão mais grandiosa da vida; e,
acima de tudo, se possível, concluir se existe alternativa realista à dicotomia tradicional
entre uma visão otimista (prometéica) da técnica e da ciência e uma visão pessimista
(fáustica) que desespera daquela promessa de imparcialidade. Em poucas palavras, tratava-
se de dar densidade e coerência à convicção de que não se pode pensar o mundo
contemporâneo sem nele incluir as ciências naturais – no mundo vivido e, portanto, no
pensamento sobre ele.
Um dos temas que enfeixaram essa gama de preocupações, ao longo dos anos 1990,
foi o da biotecnologia. Nessa década, a tecnologia do DNA recombinante – ou seja, a
capacidade de manipular e rearranjar trechos de DNA, no que se convencionou chamar de
engenharia genética – deixou de ser pouco mais que uma curiosidade de laboratório para se
tornar o cerne de um sistema tecnológico em formação, ao qual chegou a ser atribuído o
potencial transformador do silício, do átomo, do petróleo, da eletricidade e do vapor. A
penetração da biotecnologia na medicina, na reprodução humana e na agricultura teve como
pano de fundo a conversão da pesquisa biológica a um modelo predominantemente
molecular, com a proliferação dos programas de inventário genético tão bem representados
no Projeto Genoma Humano (PGH). Nunca um empreendimento tecnocientífico dedicado à
vida havia comandado tanta atenção e energia na esfera pública, prerrogativa até então das
outras engenharias – as que produziam bombas e usinas atômicas, ou foguetes para alcançar
a Lua. A simples idéia de uma tecnologia da vida, de uma bio-tecnologia, aliada à sua
2
materialização em escala industrial, tocou um nervo de imaginação e ansiedade, que diz
mais sobre os vasos capilares propagados pelo conhecimento biológico no tecido da cultura
contemporânea do que sobre os resultados propriamente ditos da pesquisa biomolecular e
genômica.
Era e continua sendo necessário entender como e por que as tecnologias da vida
desencadearam tanta comoção. A tese central é que tal comoção só se explica pela
mobilização retórica e política, nas interfaces com a esfera pública leiga, de um
determinismo genético crescentemente irreconciliável com os resultados empíricos obtidos
no curso da própria pesquisa genômica; subsidiariamente, que as práticas discursivas dos
biólogos moleculares, cumpridos o objetivo retórico de construir sua hegemonia, já se
encontram numa fase de modulação para acomodar formulações menos deterministas –
consubstanciadas no que se chama de biologia de sistemas – e em grande medida
consistentes com perspectivas teóricas críticas dentro da própria biologia, antes descartadas
como noções ideológicas ou politicamente motivadas.
Para um jornalista em busca de uma perspectiva sociológica e filosófica para
considerar menos superficialmente sua própria atividade propagadora de noções e
representações sobre a tecnobiologia, o PGH como que se impunha como objeto de
pesquisa: nenhum outro assunto obteve tanta projeção nos meios de comunicação, sejam
eles leigos ou especializados, nos últimos anos. É esse projeto de pesquisa biológica que se
encontra no centro de gravidade deste trabalho, seus capítulos 3 e 4. Nos dois casos, a
opção metodológica foi analisar os textos produzidos pelos biólogos moleculares e seus
críticos, tanto aqueles voltados para o público mais especializado e publicados em
periódicos que têm no entanto ligação clara com a esfera pública leiga (como as revistas
Nature e Science) quanto artigos, entrevistas, ensaios e livros dirigidos por eles diretamente
ao público, no que se convencionou chamar de divulgação científica. O período coberto por
essa literatura se concentra entre os anos 2000 –quando o primeiro rascunho da seqüência
do genoma humano foi anunciado– e 2003, que marcou tanto a finalização do
seqüenciamento quanto o cinqüentenário da descoberta da estrutura do DNA por Watson e
Crick, erigido em momento inaugural de um processo que teria no PGH o seu clímax. Com
freqüência, porém, foi preciso recorrer a escritos de décadas anteriores, para buscar
algumas das raízes da hoje hegemônica biologia molecular. O objetivo dessa análise de
3
textos foi justamente acompanhar as variações nos graus e nas formulações de
determinismo genético entre autores e gêneros de publicação, assim como ao longo do
tempo, para extrair conclusões, relevantes para o pensamento social e para a sociologia da
ciência, das transformações em seus usos retóricos. Por fim, o estilo da pesquisa, por assim
dizer, será próximo da sociologia cognitiva preconizada por Ulrich Beck, uma forma de
crítica da ciência que se caracteriza por uma simbiose entre filosofia e vida cotidiana que se
ocupa de contrapor a estreiteza mental vigente nos laboratórios à estreiteza mental da
consciência individual e dos meios de comunicação (BECK, 1996a, p. 124). É no terreno
baldio entre esses dois pólos deficitários de reflexão que medram as metáforas com as quais
a tecnociência monta sua auto-imagem de pesquisa empírica neutra, uma projeção em geral
convincente que impede a maioria de enxergar nela uma atividade humana em que os
valores também desempenham um papel, embora ela o negue com veemência. O papel do
crítico da ciência natural, então, é o de engalfinhar-se com tais metáforas munido de duas
armas: a verificação de sua concordância com os modelos explicativos continuamente
revisados à luz dos resultados empíricos, para determinar se tais metáforas não ganham
vida própria e derivam para longe de seus objetos; e a remontagem das transformações
sucessivas de certas famílias de figuras recorrentes, para entender se houve momentos
nessa história em que as analogias desempenharam função mais heurística ou mais
ideológica. No caso deste trabalho, o complexo de metáforas no fulcro de análise é a do
gene como informação, esteio do determinismo biológico e do genocentrismo que dão e
deram sustentação ao Projeto Genoma Humano.
Considerar tal objeto (o PGH) de uma perspectiva adequada exigia primeiramente
estimar a dimensão correta da influência dos sistemas tecnológicos sobre o processo de
mudança social, razão pela qual o primeiro capítulo se debruça sobre o tema do
determinismo tecnológico, numa tentativa de livrar o terreno de análise da tentação de
travestir o objeto de pesquisa em fator definidor de toda uma era, algo como o Século da
Biotecnologia. Antes que se passe de fato a acreditar que o seqüenciamento do genoma
revela as engrenagens da natureza humana e faz um downsizing do livre arbítrio, era
preciso vacinar-se contra a atribuição de causas simples a processos complexos
característica de explicações como “o automóvel criou o subúrbio” ou “a pílula deflagrou a
revolução sexual”. Os temas principais do capítulo são o da autonomização da técnica
4
diante do ser humano e um seu correlato, o da oposição entre as perspectivas prometéica
(otimista) e fáustica (pessimista) na interpretação do papel da tecnologia na história. Essas
figuras em oposição são rastreadas nas primeiras obras do século XX preocupadas com a
centralidade da tecnologia e também na tradição oriunda de Marx, em particular na Escola
de Frankfurt, até se tornarem temas centrais de investigação social na oposição renovada
entre sociologia do risco e modernização reflexiva, de um lado, e teoria da modernização
ecológica, de outro. Desse rastreamento emerge que tal dicotomia só se resolve pelo
reconhecimento de que a tecnociência ocupa papel central, sim, na dinâmica
socioeconômica contemporânea, mas não irreparavelmente descolada da ação humana
(como pressupõe o determinismo tecnológico estrito), podendo e devendo esse
estreitamento da razão e do escopo do projeto científico tornar-se alvo de um ceticismo
sistemático na esfera pública, como instrumento de autonomia e emancipação. A adoção
dessa perspectiva, ademais, implica rejeitar ao menos a noção forte de determinismo
tecnológico, reservando um mínimo de espontaneidade aos sujeitos sociais diante de
sistemas tecnológicos que, embora dotados de considerável momento inercial, não se
encontram por definição fora de controle humano.
O segundo capítulo aplica o questionamento genérico do determinismo tecnológico
ao setor da biotecnologia, perguntando se faz sentido emprestar-lhe centralidade tal, na
sociedade contemporânea, a ponto de caracterizá-la como uma Era da Biotecnologia.
Primeiramente, discute seu papel no mundo da produção, concluindo que ela de fato não
faz sombra hoje à importância e alcance sistêmicos característicos da informática,
contemporaneamente, ou do petróleo, da eletricidade e da máquina a vapor, no passado,
que modificaram profundamente o próprio modo de organização da produção e o mundo do
trabalho. Ainda assim, fica evidente que, primeiro, nada impede que as biotecnologias,
principalmente numa eventual confluência com a informática e a nanotecnologia, venham a
se tornar determinantes para o dinamismo da economia; depois, que já no presente a
biotecnologia paradigmática da genômica está adquirindo o peso de um fator estruturante
da sociedade, senão pela ponta de sua base econômica, ao menos pelo aspecto da
sociabilidade, posto que tem potencial – real ou imaginado – para afetar a constituição dos
sujeitos, não só como produtores de cultura, mas em sua própria existência material, como
organismos. Em resumo, como sistema tecnológico a biotecnologia pode encontrar-se ainda
7
transliterada em aminoácidos, determina uma proteína e/ou uma função. Essa crise do
conceito se explicitou com força incomum na revelação de que o número de genes
estimados no genoma humano ficou entre um terço e um quarto do número anteriormente
calculado, com base na quantidade de proteínas no repertório da espécie humana. Uma
enumeração de constatações recentes sobre a complexidade da organização genômica
mostra que a insatisfação com a visão determinista um gene/uma proteína/uma função não
viceja somente entre biólogos que são críticos habituais do PGH, mas nos próprios
laboratórios de biologia molecular. Com isso, começa a se disseminar no campo genômico
uma concepção mais sistêmica da biologia, que acolhe entre seus princípios alguns dos
argumentos e propostas apresentados há anos por pesquisadores insatisfeitos com a
estreiteza da perspectiva determinista, por sua vez enfeixados numa perspectiva teórica
ainda em processo de formalização e batizada de teoria de sistemas desenvolvimentais
(DST, que é herdeira de uma tradição de resistência contra a eugenia e a sociobiologia).
Essa visão não-determinista privilegia interações e fatores não-genômicos no
desenvolvimento de organismos, como a epigenética, o cuidado parental e a delimitação do
ambiente pelo próprio organismo (niche-picking). Diante desse tipo de constelação
interacionista, torna-se difícil manter o vocabulário determinista de programas, instruções,
informação e controle, que pressupõe o isolamento de causas discretas e separadas. Genes
não determinam sozinhos as características herdadas, não são os únicos recursos
desenvolvimentais transmitidos e não constituem a única partícula sobre a qual age a
seleção natural. Mas tal recusa do determinismo não precisa comprometer o reducionismo
físicalista (elucidação molecular de processos biológicos), que permanece como estratégia
de investigação empírica legítima, de um ponto de vista cognitivo. Nada contra a pesquisa
genômica, em si mesma; o que merece consideração crítica é a tendência valorativa a
equacionar seus resultados com a explicação cabal de processos biológicos e sociais.
O quinto capítulo oferece uma visão crítica da noção pré-formacionista de gene
como informação. Nascida como código em 1943, antes portanto da descoberta da estrutura
do DNA em dupla hélice, a noção ainda teórica do físico Erwin Schrödinger já vinha
dotada do ingrediente problemático – porém essencial à doutrina da ação gênica –, a
capacidade de executar o que prefigura: encontra-se nos genes a informação que dá origem
e forma à matéria viva. Essa visão que enfeixa no gene os atributos da cognição se articula
8
numa série de metáforas ainda hoje encontráveis na apresentação da genômica, como se
verá no terceiro capítulo: plano-mestre ou planta arquitetônica (blueprint); imagem ou
símbolo; regra, instrução ou programa; e assim por diante. Com o advento da engenharia
genética (tecnologia do DNA recombinante) na década de 1970, esse conceito cognitivista
de gene serviria de âncora para fixar a noção de informação genética como unidade de
controle tecnológico (manipulação) e, por extensão, de apropriação (patenteamento).
Esse quinto capítulo, seguindo as indicações de Lenny Moss, mostra ainda como
essa construção se faz pela fusão imperceptível de dois conceitos diversos de gene, o gene
pré-formacionista dos primórdios da genética e o gene como um recurso entre outros para o
desenvolvimento do organismo. Essa fusão dá origem a uma noção híbrida e por assim
dizer bastarda, articulada de maneira espúria pela figura da informação genética, cunhada
com inspiração das teorias cibernéticas em voga nas décadas de 1950 e 1960, quando as
descobertas pioneiras sobre o chamado código genético estavam em curso. Por meio dessa
operação o gene passa a ser concebido como uma espécie de ícone da função biológica, ao
mesmo tempo em que, na condição de portador da asséptica informação genética, se livra
da carga incômoda da especificidade biológica, tornando-se móvel, virtual e manipulável o
bastante para circular desimpedidamente pelos bancos de dados e de propriedade
intelectual. O capítulo conclui pela necessidade de uma reformulação radical das metáforas
sobre o gene.
Para finalizar esta introdução, é preciso deixar registradas duas influências decisivas
para este trabalho. A primeira devo a Laymert Garcia dos Santos, meu orientador, e se trata
de sua percepção pioneira de que a chave interpretativa de tantas questões relativas à
tecnociência contemporânea se encontra na noção polissêmica de informação. A segunda é
mais sutil, por comparecer neste trabalho mais como arcabouço do que como tema, mas
nem por isso menos crucial, e se encontra nas obras de Hugh Lacey sobre a presença e o
papel dos valores na pesquisa científica, sobretudo no campo das ciências naturais; em
particular, devo a ele a percepção um tanto tardia, para mim, de que a pesquisa empírica
sistemática não se confunde necessariamente com a de pesquisa experimental, uma vez que
o controle por ela visado constitui na verdade um valor que pode, mas não precisa, orientar
a ciência.
9
De ambos procurei assimilar, acima de tudo, a inventividade e o rigor da reflexão –
dois atributos do trabalho intelectual que, com lamentável freqüência, estão ausentes da
minha profissão de origem, o jornalismo.
11
CAPÍTULO 1
Modernidade e tecnologia: armadilhas do determinismo
1.1 A questão do determinismo tecnológico
A pergunta sobre a penetração e os limites da tecnologia se tornou um tema
recorrente na ciência social no século XX e, já por sua formulação, parece identificar na
aceleração tecnológica a raiz da perplexidade que aflige as sociedades contemporâneas.
Para todos os efeitos, foi e permanece válido o diagnóstico apresentado em 1964 por Robert
K. Merton, na sua introdução à edição norte-americana de La technique ou l’enjeu du
siècle, de Jacques Ellul: “Não entendendo o que o domínio da técnica está fazendo dele e
de seu mundo, o homem moderno é tomado pela ansiedade e por um sentimento de
insegurança. Ele tenta adaptar-se a mudanças que não pode compreender” (ELLUL, 1964,
p. vii) 1 Quatro décadas depois, pode-se afirmar que a proliferação e a sucessão frenética de
figuras tecnológicas, sobretudo aquelas que têm por objeto o mundo da vida,
potencializaram os fatores etiológicos da ansiedade, mas é difícil sustentar que os homens
desta virada de século padeçam de um mal inédito em sua civilização.
Se o século XIX foi marcado por um entusiasmo com a técnica e com sua promessa
de progresso para a humanidade (SMITH, 1994, p. 7), otimismo que parece ter contagiado
até o pensamento marxista, o século XX caracterizou-se por descobri-la também como um
vetor de destruição e de regressão social. Havia já no XIX, decerto, uma cultura muito
norte-americana de crítica à idéia tecnocrática de progresso, mas de caráter sobretudo
moral, como nos escritos de Ralph Waldo Emerson, Henry Thoreau, Herman Melville e
Nathaniel Hawthorne (SMITH, 1994, p. 26); caberia ao século seguinte, contudo, denunciar
politicamente o potencial do desenvolvimento tecnológico para disseminar males –não só
morais– pelo mundo todo. Ao século XXI, fica reservado o desafio de construir saídas
igualmente políticas –se as houver– para esse dilema entre as perspectivas prometéica e
fáustica2 abertas pela tecnologia.
1 “Not understanding what the rule of technique is doing to him and to his world, modern man is beset by anxiety and a feeling of insecurity. He tries to adapt to changes he cannot comprehend.” 2 Tal como foram designadas por Hermínio MARTINS (1996a, p. 200-201): “A tradição Prometeica liga o domínio técnico da natureza a fins humanos e sobretudo ao bem humano, à emancipação da espécie inteira e,
12
Antes de passar ao mapeamento de algumas dessas críticas da tecnologia no século
passado, porém, cabe reter a atenção por algum tempo sobre a própria idéia da técnica
como protagonista da história, como um fator central na transformação paulatina ou
intempestiva da sociedade, a ponto de levar à cunhagem de neologismos, como
“tecnologia” ou “tecnociência”, na tentativa de captar melhor essa nova e proeminente
configuração de algo tão antigo quanto a espécie humana –seus modos de conceber e
modificar objetos naturais. Por ser um elemento quase indissociável da própria noção de
modernidade, a tendência é tomar essa centralidade da técnica como algo dado, natural;
uma análise mais detida, porém, revela que tal ascensão conceitual não se faz sem
dificuldades e considerável polêmica, consagrada como o tema do determinismo
tecnológico, por sua vez definido como “a crença de que forças técnicas determinam a
mudança social e cultural” (HUGHES, 1994, p. 102).3
Por essa visão, a técnica instala-se no âmago do processo social como o impulso
dinâmico imanente que move suas engrenagens fundamentais, produção e diferenciação,
penetrando até mesmo a esfera da cultura, antes reservada ao domínio do pensamento puro.
O esquema tradicional de causação passa a comportar uma inversão, e não é mais somente
o pensamento que detém a capacidade de emprestar forma à organização material da vida,
mas a própria vida material, corporificada nos utensílios e depois nas máquinas, que se
torna capaz de ao menos condicionar as formas de pensamento, ou até mesmo de
determiná-las. Não faltaram no século XX aqueles que, acossados por uma multidão
crescente de máquinas e invenções, puseram a técnica não só no centro como no comando
do processo social e, para além dele, da própria história –como nos casos extremos de
Marshall McLuhan e Jack Goody, para quem invenções técnicas como a escrita fonética e a
tipografia tiveram o poder de desencadear movimentos de proporções tectônicas na história
humana, como o próprio advento da democracia e a gênese do individualismo:4
em particular, das ‘classes mais numerosas e pobres’ (na formulação Saint-Simoniana). A tradição Fáustica esforça-se por desmascarar os argumentos Prometeicos, quer subscrevendo, quer procurando ultrapassar (sem solução clara e inequívoca) o nihilismo tecnológico, condição pela qual a técnica não serve qualquer objetivo humano para além de sua própria expressão.” 3 “Technological determinism I define simply as the belief that technical forces determine social and cultural change.” 4 No que apenas repetem um tema iluminista introduzido por Turgot e Condorcet (WILLIAMS, 1994, p. 223-225).
13
Nenhum outro tipo de escrita, a não ser a fonética, jamais transportou o homem para fora do mundo possessivo de interdependência e inter-relação totais existente na rede auditiva. Do mágico mundo ressonante de relações simultâneas que é o espaço oral e acústico há apenas uma rota para a liberdade e a independência do homem destribalizado. Tal rota passa pelo alfabeto fonético (...).5 (McLUHAN, 1962, p. 22)
Em lugar da desimpedida adaptação da tradição passada a necessidades presentes, uma grande quantidade de indivíduos encontrou nos registros escritos, nos quais muito de seu repertório tradicional havia alcançado uma forma permanente, tantas inconsistências entre as crenças e as categorias de entendimento transmitidas a eles que foram impelidos a uma atitude muito mais consciente, comparativa e crítica diante da imagem de mundo recebida, notadamente diante das noções de Deus, universo e passado.6 (GOODY e WATT, 1968, p. 48)
Com efeito, como fazem notar SMITH e MARX (1994, p. xi) na introdução da
coletânea Does technology drive history?, tornou-se um lugar comum empregar frases de
efeito baseadas nesse raciocínio determinista, como “o automóvel criou o subúrbio” ou “a
pílula detonou a revolução sexual”, que possuem o atrativo poderoso de remeter processos
complexos e abstratos a causas materiais simples. Esses autores propõem uma tipologia
dessa espécie de vício intelectual, classificando suas ocorrências nas variedades hard (dura)
e soft (suave). No primeiro caso,
... a agência (o poder de efetuar mudança) é imputada à própria tecnologia, ou a algum de seus atributos intrínsecos; assim, o avanço da tecnologia conduz a uma situação de inescapável necessidade. (...) Para os otimistas, [tal] futuro é o resultado de muitas escolhas livres e a realização do sonho do progresso.7 (SMITH e MARX, 1994, p. xii)
No segundo,
... os deterministas “suaves” começam por nos recordar que a história da tecnologia é a história de ações humanas. (...) Em lugar de tratar a “tecnologia” per se como o locus da agência histórica, os deterministas suaves a localizam em uma matriz social, econômica, política e cultural muito mais variada e complexa. (...) Assim, a agência, tal como
5 “No other kind of writing save the phonetic has ever translated man out of the possessive world of total interdependence and interrelation that is the auditory network. From the magical resonating world of simultaneous relations that is the oral and acoustic space there is only one route to the freedom and independence of detribalized man. That route is via the phonetic alphabet (...).” 6 “Instead of the unobstrusive adaptation of past tradition to present needs, a great many individuals found in the written records, where much of their traditional repertoire had been given permanent form, so many inconsistencies in the beliefs and categories of understanding handed down to them that they were impelled to a much more conscious, comparative and critical attitude to the accepted world picture, and notably to the notions of God, the universe and the past.” 7 “... agency (the power to effect change) is imputed to technology itself, or to some of its intrinsic attributes, thus the advance of technology leads to a situation of inescapable necessity. (...) To optimists, [such a] future is the outcome of many free choices and the realization of the dream of progress.”
14
concebida pelos deterministas tecnológicos “suaves”, está profundamente incrustada na estrutura social e cultura mais amplas –tão profundamente, deveras, a ponto de despir a tecnologia de seu suposto poder como agente independente iniciador da mudança.8 (SMITH e MARX, 1994, p. xiii-xiv)
Essa tipologia serve menos o propósito, aqui, de classificar o grau de determinismo
de um McLuhan (hard) ou de um Goody (soft), e mais o de ilustrar como essa atitude
floresceu sob formas variadas, conforme se atribuíam pesos maiores ou menores aos termos
polarizados da equação, agência humana versus agência tecnológica. Do volume editado
por Smith e Marx sobressai, além disso, um aspecto ainda mais importante do
determinismo tecnológico: seu caráter eminentemente histórico. Esse conceito, ou talvez
fosse o caso de designá-lo como estilo interpretativo da história, seria assim fruto ele
próprio de uma época histórica, “... aquela do alto capitalismo e do baixo socialismo –na
qual as forças da mudança técnica foram desencadeadas, mas na qual as agências para o
controle ou condução da tecnologia ainda são rudimentares” (HEILBRONER, 1994, p.
65; ênfase do original). 9
Esse aspecto historicizado do determinismo tecnológico é corroborado por Leo
MARX (1994, p. 247-248), que ressalta o fato de o vocábulo “tecnologia”, apesar de
guardar registros na língua inglesa já em 1615, ter adquirido seu sentido atual somente
depois de 1829, sobretudo com o amadurecimento das pretensões meritocráticas das novas
áreas profissionais da engenharia e da administração e com sua progressiva entronização na
estrutura das universidades –processo que ganharia impulso com a fundação do Instituto de
Tecnologia de Massachusetts (MIT) em 1861. Ele correspondeu a uma substituição
progressiva da idéia iluminista de uma sociedade mais justa e republicana pela noção mais
tecnocrática de incremento contínuo da tecnologia, que era assim alçada à condição de
principal agente de mudança. Ora, precisamente essa equiparação de história com progresso
técnico foi denunciada por Rosalind Williams como a base da circularidade da noção de
8 “... the ‘soft’ determinists begin by reminding us that the history of technology is a history of human actions. (...) Instead of treating ‘technology’ per se as the locus of historical agency, the soft determinists locate it in a far more various and complex social, economic, political, and cultural matrix. (...) Thus agency, as conceived by ‘soft’ technological determinists, is deeply embedded in the larger social structure and culture –so deeply, indeed, as to divest technology of its presumed power as an independent agent initiating change.” 9 “Technological determinism is thus peculiarly a problem of a certain historical epoch –specifically that of high capitalism and low socialism– in which the forces of technical change have been unleashed, but when the agencies for the control or guidance of technology are still rudimentary.” O texto de Heilbroner, “Do machines make history?”, havia sido publicado originalmente em 1967.
15
determinismo tecnológico, ou seja, que o desenvolvimento sistemático da técnica move a
história porque esta é concebida, na doutrina iluminista, como progresso técnico; mais que
isso, tal circularidade encerraria um componente oculto de intencionalidade: “Sistemas
tecnológicos podem ser projetados para ser altamente sensíveis a controle humano – ou
não. A impotência humana pode fazer parte do projeto [design]. O destino pode ser
projetado [engineered]” (WILLIAMS, 1994, p. 225). 10
Como já se pode vislumbrar, negar a autonomia a seres humanos para emprestá-la à
técnica ou a seus artefatos pode ter conseqüências funestas, e passar da visão prometéica da
tecnologia à fáustica custa apenas um pequeno passo.
1.2 A percepção da técnica como veículo de regressão
As primeiras obras a chamarem a atenção para a centralidade do fenômeno técnico
para a sociedade e a economia contemporâneas sob o prisma de seus aspectos globalmente
ameaçadores surgiram na esteira da Primeira Guerra Mundial. Na Alemanha, por exemplo,
Ernst JÜNGER (1990, p. 98) diria em 1930 que “a melhor maneira de fazer aparecer o
caráter específico dessa grande catástrofe consiste sem dúvida em mostrar que ela foi, para
o gênio da guerra e para o espírito do progresso, a ocasião de concluir uma aliança
estreita”.11 A técnica, de sua perspectiva, aparece como o processo canalizador de toda a
energia potencial, como a força que não enfrenta limites exteriores e por isso impulsiona a
Mobilização Total (título do seu ensaio de 1930), que encontra uma realização maior no
empreendimento militar e transforma os países em gigantescas fábricas de exércitos, num
esforço contrário a finalidades propriamente humanas:
A mobilização total, enquanto medida decretada pelo espírito de organização, não é senão um índice dessa mobilização superior realizada pela época por nosso intermédio. Esta outra
10 “Technological systems can be designed to be highly responsive to human control –or not be. Human powerlessness can be part of the design. Fate can be engineered.” 11 “La meilleure manière de faire apparaître le caractère spécifique de cette grande catastrophe consiste sans doute à montrer qu’elle a été pour la génie de la guerre et l’esprit de progrès l’occasion de conclure une alliance étroite.”
16
mobilização possui sua lógica própria; e, se a lógica humana visa preservar alguma eficácia, ela terá de seguir um curso paralelo.12 (JÜNGER, 1990, p. 127-8)
Nessa via de estranhamento, cai por toda parte a máscara de humanismo envergada
pela noção de progresso e se explicitam uma espécie de fetichismo da máquina e um culto
ingênuo da técnica (JÜNGER, 1990, p. 137). “Há uma embriaguez do conhecimento cuja
origem ultrapassa a simples lógica, e há um orgulho das conquistas da técnica e da tomada
de posse ilimitada do espaço que pressionam obscuramente a vontade de potência mais
secreta”, escreverá JÜNGER (1993, p. 77), em 1932, em Der Arbeiter [O Trabalhador].13 A
identificação de um elo entre a técnica e o reverso escuro da idéia de progresso não redunda
porém numa anatemização da técnica enquanto tal (esta figura de resistência e de apego ao
aspecto emancipador do conhecimento aplicado no mundo se repetirá em vários momentos
durante o século). Mesmo ressaltando que um grau mais elevado de organização não
corresponde a um estágio superior de valor (1993, p. 222), JÜNGER rejeita um falso
retorno à natureza e um certo desprezo pela ciência e pela razão: “Não se trata de
menosprezar o intelecto, mas de remetê-lo ao seu lugar” (p. 249). 14
O principal a reter da visão por vezes hipostasiante de Jünger é a própria noção de
mobilização, de disposição, de convocação de homens e de coisas –ou seria o caso de dizer:
de homens como de coisas– para a consecução de fins postos abstratamente pela própria
organização em funcionamento. Se o objetivo maior – seja ele a produção de riquezas, a
vitória militar, a superioridade da raça ou a competitividade nacional – se impõe como algo
de evidente e até mesmo natural para todos na sociedade, sem distinção (a ponto de até a
morte tornar-se fenômeno democrático, como nos campos de batalha da Primeira Guerra),
então se segue que nada e ninguém pode permanecer alheio a sua realização. Esse
imperativo de disponibilidade, para Jünger, se encontra também no cerne da própria
técnica. Pode-se assim dizer que, desse ponto de vista, a própria natureza, mais que algo
dado, representa um efetivo que o progresso pode e deve mobilizar, e é por isso que a
mobilização é total. “A vertente técnica da mobilização total não constitui seu aspecto
12 “La mobilisation totale, en tant que mesure décrétée par l’esprit d’organisation, n’est qu’un indice de cette mobilisation supérieure accomplie par l’époque à travers nous. Cette mobilisation-là possède sa logique propre; et si la logique humaine veut garder quelque efficacité, il lui faudra suivre un cours parallèle.” 13 “Il y a une ivresse de la connaissance dont l’origine dépasse la simple logique et il y a un orgueil des conquêtes de la technique et de l’entrée en possession illimitée de l’espace qui pressent obscurément la volonté de puissance la plus secrète.”
17
decisivo. Seu princípio, como o pressuposto de toda técnica, está, ao contrário, mais
profundamente enraizado: nós o definimos aqui como disponibilidade para ser
mobilizado.” (JÜNGER, 1990, p. 115) 15
No mesmo ano em que foi publicada Die totale Mobilmachung, do outro lado do
Atlântico Norte e na pátria do otimismo maquinal começava a ser escrito um clássico da
literatura sobre a crescente importância da técnica, Technics and civilization, de Lewis
Mumford, lançado em 1934. Não foi decerto a primeira vez em que a técnica apareceu para
o pensamento social como uma chave para a compreensão do homem, tese que já havia
sido avançada por Ernst Kapp nos anos 1860, como ensina Hermínio MARTINS (1996a).
Constituiu, porém, um dos esforços pioneiros para reconstruir toda a trajetória
civilizacional tomando por fio condutor um aspecto da vida social que só adquiriria
proeminência com o capitalismo industrial, como se apenas a forma plenamente
desenvolvida contivesse determinações ou energia suficientes para iluminar toda a história
pregressa. A máquina, do ponto de vista de Mumford, revela-se como desenvolvimento
máximo e também como explicação cabal de todas as ferramentas já inventadas pelo
homem.
O centro de gravidade dessa forma de pensar a técnica é a sua imanência, entendida
não como algo que se desenvolve separada e automaticamente e nessa evolução determina
de modo exterior o caráter das instituições humanas – tal seria a concepção de Marx,
segundo MUMFORD (1963, p. xi) –, mas sobretudo como moldura delimitadora das
possibilidades futuras de desenvolvimento da própria técnica, no que esta já não poderá
mais distinguir-se tão marcadamente da cultura. Assim é que o relógio, mais que um
dispositivo surgido de certas necessidades e relações sociais circunscritas à Europa
medieval e renascentista, torna-se um materializador da noção crucial de regularidade, na
medida em que dissociava o tempo dos eventos humanos e ajudava a preparar o mundo da
ciência e de suas seqüências matematicamente mensuráveis (MUMFORD, 1963, p. 15). Os
efeitos sociais e culturais da técnica se manifestam oportunamente também como causas,
ou ao menos condicionantes, de seu próprio desenvolvimento: “Por trás de todas as grandes
14 “Il ne s’agit pas de mépriser l’intellect mais de la remettre à sa place.” 15 “Le versant technique de la mobilisation totale n’en constitue pas l’aspect décisif. Son principe, comme le préssupposé de toute technique, est au contraire enfoui plus profond: nous le définissons ici comme disponibilité à être mobilisé.”
18
invenções materiais do último século e meio não havia apenas um longo desenvolvimento
interno da técnica: havia também uma mudança de mentalidade. Antes que os novos
processos industriais pudessem firmar-se em grande escala, foi necessária uma reorientação
de desejos, hábitos, idéias e objetivos” (MUMFORD, 1963, p. 3).16 Para Mumford, no
entanto, nem a mecanização nem seus tentáculos na esfera da cultura são novos na história
humana:
O que é novo é o fato de essas funções terem sido projetadas e incorporadas em formas organizadas que dominam cada aspecto de nossa existência. Outras civilizações alcançaram um alto grau de proficiência técnica sem aparentemente ser influenciadas de maneira profunda pelos métodos e objetivos da técnica. (...) Elas tinham máquinas; não desenvolveram, contudo, “a máquina”. Coube aos povos da Europa Ocidental conduzir as ciências físicas e as artes exatas a um ponto que nenhuma outra cultura alcançou e adaptar todo o modo de vida à cadência e às capacidades da máquina.17 (MUMFORD, 1963, p. 4)
Essa rendição da civilização ocidental à máquina é a forma de Mumford exprimir a
autonomização da técnica em relação ao propriamente humano. Como Jünger, no entanto,
ele recusa a idéia de que a técnica seja de todo estranha ao homem: “Mesmo quando [a
técnica e a civilização] são incontroláveis, não são externas. (...) Por mais completamente
que a técnica se baseie nos procedimentos objetivos das ciências, não forma um sistema
independente, como o universo: ela existe como elemento na cultura humana”
(MUMFORD, 1963, p. 6).18 É na sua simbiose com o capitalismo que a máquina,
essencialmente um elemento neutro, se aliena dos interesses humanos (MUMFORD, 1963,
p. 27). Mesmo assim, transformada em dispositivo de dominação, preserva como que uma
semente de emancipação, na forma de propriedades pedagógicas, de uma espécie de
objetivação da própria perfectibilidade humana coletiva:
16 “Behind all the great material inventions of the last century and a half was not merely a long internal development of technics: there was also a change of mind. Before the new industrial processes could take hold on a great scale, a reorientation of wishes, habits, ideas, goals was necessary.” 17 “What is new is the fact that these functions have been projected and embodied in organized forms which dominate every aspect of our existence. Other civilizations reached a high degree of technical proficiency without, apparently, being profoundly influenced by the methods and aims of technics. (...) They had machines; but they did not develop ‘the machine’. It remained for the peoples of Western Europe to carry the physical sciences and the exact arts to a point no other culture had reached, and to adapt the whole mode of life to the pace and the capacities of the machine.”
19
Desde o início, com efeito, as conquistas mais duradouras da máquina residiam (...) nos modos de vida tornados possíveis por meio da máquina e na máquina: o inconfiável escravo mecânico era também um pedagogo. (...) Desafiava pensamento e esforço como nenhum sistema prévio da técnica havia feito. (...) O que permanece como a contribuição permanente da máquina, repassada de uma geração a outra, é a técnica do pensamento e da ação cooperativos que ela incentivou, a excelência estética das formas da máquina, a lógica delicada de materiais e forças (...). Ao projetar um aspecto da personalidade humana nas formas concretas da máquina, criamos um ambiente independente que reagiu sobre todos
os outros aspectos da personalidade.19 (MUMFORD, 1963, p. 323-324; ênfase do original)
1.3 Forças produtivas e relações de produção, uma dialética difícil
Quem se ocupa da questão da tecnologia e do determinismo tecnológico no século
XX, por outro lado, não pode deixar de considerar a contribuição da corrente de
pensamento iniciada por Karl Marx, que vai desembocar naquela que é talvez a maior e
mais destacada linha de investigação filosófica e sociológica sobre o tema no século
passado, a perspectiva crítica preconizada pela Escola de Frankfurt. Pode-se dizer que a
tradição marxista sempre se caracterizou por uma certa dubiedade com respeito à
tecnologia e encontrou na questão da mudança social, em sua relação com esse fator
primordial de dinamismo, um problema teórico fundamental e recorrente. Em aparência, é a
que encontra solução mais fácil, bastando para isso invocar o poder terminante do esquema
segundo o qual tudo se resume à contradição entre o desenvolvimento das forças produtivas
e as relações de produção. Da emergência de uma consciência de classe à própria
revolução, tudo que se refira a transformação social parece derivar desse motor
fundamental (MARTINS, 1996a, p. 219; HEILBRONER, 1994, p. 63).
18 “Even when they are uncontrollable they are not external. (...) No matter how completely technics relies upon the objective procedures of the sciences, it does not form an independent system, like the universe: it exists as an element in human culture”. 19 “From the beginning, indeed, the most durable conquests of the machine lay (...) in the modes of life made possible via the machine and in the machine: the cranky mechanical slave was also a pedagogue. (...) It challenged thought and effort as no previous system of technics had done. (...) What remains as the permanent contribution of the machine, carried over from one generation to another, is the technique of cooperative thought and action it has fostered, the esthetic excellence of the machine forms, the delicate logic of materials and forces (...). In projecting one side of the human personality into the concrete forms of the machine, we have created an independent environment that has reacted upon every other side of the personality.”
20
Poucos conceitos marxianos foram, no entanto, tão discutidos e questionados. A
formulação mais sucinta –e provavelmente também a mais famosa– se encontra no
“Prefácio” de Para a crítica da economia política:
Em uma certa etapa de seu desenvolvimento, as forças produtivas materiais da sociedade entram em contradição com as relações de produção existentes ou, o que nada mais é do que a sua expressão jurídica, com as relações de propriedade dentro das quais aquelas até então se tinham movido. De formas de desenvolvimento das forças produtivas estas relações se transformam em seus grilhões. Sobrevém então uma época de revolução social. Com a transformação da base econômica, toda a enorme superestrutura se transtorna com maior ou menor rapidez. (MARX, 1978, p. 130)
As objeções a essa formulação, ou pelo menos à interpretação mais simplificadora
que dela se fixou, são conhecidas. É difícil aceitar a pretensão de universalidade histórica
do mecanismo, que tende a ser visto como motor da mudança social mesmo em modos de
produção anteriores ao capitalismo no qual se explicitou. Tampouco são facilmente
assimiláveis o automatismo e a prefiguração associados com a mudança deflagrada por essa
contradição entre forças produtivas e relações de produção. Dito de outro modo, não cabe
contaminar a teoria sociológica com o pressuposto filosófico de que a história tem um
sentido necessário e predeterminado. A dificuldade maior para a tradição de pensamento
social originada por Marx parece estar em encontrar uma resposta para a seguinte questão,
tanto mais pertinente para um século que viu o sistema capitalista expandir-se sem
sucumbir a uma contradição emancipadora e, em paralelo, naufragarem em burocracias
autoritárias as revoluções realizadas em seu nome: como explicar que, na presença perene
dessa contradição, em alguns casos se produza mudança social e, em outros, não?
É verdade que, no próprio Marx, segundo interpretação muito comum, a ciência e a
técnica aparecem imbuídas de um aspecto positivo, uma fé no progresso,20 de acordo com o
credo racionalista do século XIX na sua capacidade de dar ao homem o domínio da
natureza e, por que não, do próprio destino. No próprio transbordamento das forças
produtivas, diante das comportas das relações de produção, fica evidente que o papel da
ciência e da técnica (ainda não se falava em “tecnologia”) era central: é de condições
20 ELLUL (1964, p. 144) diz que a tecnologia (“technique”, na sua terminologia) é a verdadeira religião do marxismo: “Technique is the god which brings salvation. Capitalism is an abomination because on occasion it opposes technique. (...) Karl Marx may have been able to explain rationally how technique would free the
21
materiais que se trata, de seu desenvolvimento, vale dizer, do aumento da fecundidade do
trabalho por meio da introdução de novas máquinas, materiais e métodos de organização,
os resultados de um ímpeto racionalizante generalizado, no capitalismo, sob a forma de
uma ciência cada vez mais próxima da técnica, da aplicação. Sem essas inovações, e sem a
sua capacidade de explicitar os limites impostos pelas relações de produção vigentes, não
haveria mudança social. Nas palavras de MARX e ENGELS na Ideologia alemã, “não se
pode superar a escravidão sem a máquina a vapor” (1977, p. 65). Ou nas do Marx de
Miséria da filosofia: “O moinho manual nos dá a sociedade com o senhor feudal; o moinho
a vapor, a sociedade com o capitalista industrial” (citado por HEILBRONER, 1994, p.
54).21 Nascia o estilo interpretativo que resultaria nas frases de efeito no diapasão de “o
automóvel criou o subúrbio” ou “a pílula anticoncepcional detonou a revolução sexual”.
Pode-se discutir longamente se a qualificação de determinista tecnológico se aplica
a Marx ou não. BIMBER (1994, p. 98) acredita que não, se a esse qualificativo se
emprestar uma condição “nomológica” (segundo a qual a tecnologia determinaria a história
de modo ontológico, independentemente, por exemplo, da intermediação cultural); para ele,
antes de ser um determinista, Marx foi um economista. Na opinião de Williams, a resposta
é negativa, igualmente, mas tampouco enfática:
Se Marx foi de fato um determinista tecnológico, era um determinista excessivamente sutil e ambivalente. (...) Mas como suas [do capitalismo] contradições fatais emergem de seu modo de produção (e, como quer que se pretenda interpretar essa frase, ela está claramente fundamentada na tecnologia), o colapso não pode ser evitado. A revolução é inevitável precisamente porque a tecnologia está em grande medida fora do controle humano.22 (WILLIAMS, 1994, p. 222-223)
Um argumento forte em favor dessa negativa é que Marx não estabeleceu um
vínculo explícito e orgânico, determinado, entre a evolução das formas tecnológicas e a
seqüência dos modos de produção, como assinala MARTINS (1996a, p. 219).
proletariat, but the proletariat itself is scarcely equal to a full understanding of this ‘how’. It remains mysterious for them. They retain merely the formula of faith.” 21 “The hand-mill gives you society with the feudal lord; the steam-mill, society with the industrial capitalist.” 22 “If Marx was a technological determinist at all, he was an exceedingly subtle and ambivalent one. (...) But since its fatal contradictions arise from its mode of production (and however one wants to interpret that phrase, it is clearly grounded in technology), collapse cannot be averted. Revolution is inevitable precisely because technology is largely out of human control.”
22
Responder definitivamente a essa questão, no entanto, pode não ser tão
fundamental; mais importante, aqui, mostra-se estabelecer quanto é central no pensamento
marxiano a dinâmica imposta à mudança social e à história pela dialética entre forças
produtivas e relações de produção. Mais ainda, cabe destacar que ela já contém também
algo como uma aporia em germe, pois sua definição como primeiro motor da mudança
social revela-se indissociável de uma filosofia da história que se dissolveu no ar conturbado
do século XX.
1.4 A dialética negativa da Escola de Frankfurt
De forma simplificada, pode-se dizer que a interrogação sobre as razões da ausência
de mudança social de sentido emancipador, no capitalismo do século XX, animou o cerne
do projeto de pesquisa da Escola de Frankfurt, colhida entre a deterioração da Revolução
Russa e a gestação do Terceiro Reich. Merece atenção especial, nesse sentido, o sexto e
último tema do programa de pesquisa interdisciplinar formulado por Horkheimer, segundo
a sistematização apresentada por HABERMAS (1982, p. 555),23 a saber, a crítica da ciência
e do positivismo. Pode-se dizer que esses pensadores alemães introduziram formal e
teoricamente na problemática do determinismo tecnológico (ou seja, se a tecnologia é ou
não capaz de determinar mudança social) uma segunda disjuntiva, de ordem valorativa, já
tematizada de modo mais ensaístico do que teórico em obras como as de Jünger e
Mumford: a possibilidade de a capacidade de efetuar mudança social, transferida dos
homens para a técnica, ser ou regressiva ou emancipadora.
A Escola de Frankfurt virou decididamente pelo avesso qualquer otimismo quanto
ao potencial da ciência e da técnica para a transformação emancipadora da sociedade.
Caudatários da visão crítica do pensamento tecnocientífico por Edmund Husserl e Martin
Heidegger, seus teóricos apontam o triunfo da ciência iluminista como condutora do
processo de racionalização e desencantamento do mundo. Não um simples esforço de
objetividade para destruição dos mitos e da superstição, mas a instituição de uma maneira
23 Os outros cinco temas são: “(a) as formas de integração das sociedades pós-liberais, (b) socialização familiar e desenvolvimento do eu, (c) cultura e meios de massa, (d) psicologia social do protesto silenciado, (e) teoria da arte”.
23
de ver o mundo que já engendra em si mesma as bases para melhor dispor, não só da
natureza, mas dos próprios homens. Como escreveram em 1944 ADORNO e
HORKHEIMER (1985, p. 20) , na Dialética do esclarecimento: “A técnica é a essência
desse saber, que não visa conceitos e imagens, nem o prazer do discernimento, mas o
método, a utilização do trabalho dos outros, o capital. (...) O que os homens querem
aprender da natureza é como empregá-la para dominar completamente a ela e aos homens.”
Em 1937, Horkheimer já havia defendido na obra Teoria tradicional e teoria crítica a idéia
de que a razão instrumental integra o próprio âmago teórico da investigação científica, não
se tratando portanto de algo apensado a ela:
... o que os cientistas consideram, nos diferentes campos, como a essência da teoria, corresponde àquilo que tem constituído de fato sua tarefa imediata. O manejo da natureza física, como também daqueles mecanismos econômicos e sociais determinados, requer a enformação do material do saber, tal como é dado em uma estruturação hierárquica das hipóteses. Os progressos técnicos da idade burguesa são inseparáveis deste tipo de funcionamento da ciência. (HORKHEIMER, 1980, p. 121)
A unificação e homogeneização da natureza para a apropriação por essa razão
essencialmente instrumental é correlata de uma identidade abstrata do sujeito social, em
que este se encontra atomizado e isolado, submetido por uma coerção que lhe aparece como
emanada da coletividade, e não de um processo determinado de dominação. O pensamento
de corte frankfurtiano, na obra de Adorno e Horkheimer, enterra o otimismo racionalista do
século XIX numa catacumba, bem longe da mudança social emancipadora:
A forma dedutiva da ciência reflete ainda a hierarquia e a coerção. Assim como as primeiras categorias representavam a tribo organizada e seu poder sobre os indivíduos, assim também a ordem lógica em seu conjunto –a dependência, o encadeamento, a extensão e união dos conceitos– baseia-se nas relações correspondentes da realidade social, da divisão do trabalho. Só que, é verdade, esse caráter social das formas de pensamento não é, como ensina Durkheim, expressão da solidariedade social, mas testemunho da unidade impenetrável da sociedade e da dominação. (...) O todo enquanto todo, a ativação da razão a ele imanente, converte-se necessariamente na execução do particular. A dominação defronta o indivíduo como o universal, como a razão na realidade efetiva. (...) É essa unidade de coletividade e dominação e não a universalidade social imediata, a solidariedade, que se sedimenta nas formas de pensamento. (ADORNO e HORKHEIMER, 1985, pp. 34-35)
Uma proposta teórica que tentava escapar dessa aporia, ou seja, do fechamento das
oportunidades de emancipação justamente pelo que antes figurava na tradição marxista
24
como moinho triturador de relações de produção limitadoras do desenvolvimento humano,
foi tentativamente formulada em 1941 por Herbert Marcuse. Leitor de Lewis Mumford,
Marcuse parece ter como alvo, no ensaio “Algumas implicações sociais da tecnologia
moderna”, o determinismo tecnológico em sua vertente progressista, vale dizer, a noção de
que o mero desenvolvimento da técnica engendre –por assim dizer, automaticamente–
progresso social, que ele rejeita realizando uma distinção entre os conceitos de técnica e de
tecnologia,24 sendo o primeiro um simples fator do segundo, este sim um aparato em
conexão com o dinamismo da sociedade capitalista industrial (e, como será visto, com a
dominação).
A primeira implicação dessa separação é que a técnica, de modo isolado, pode ser
considerada socialmente neutra: “A técnica por si só pode promover tanto o autoritarismo
quanto a liberdade, tanto a escassez quanto a abundância, tanto o aumento quanto a
abolição do trabalho árduo” (MARCUSE, 1999, p. 74). Já a tecnologia não faria sentido
senão no contexto da “era da máquina”, pois constitui o núcleo do modo de produção que a
caracteriza e deve ser entendida como a totalidade dos instrumentos, dispositivos e
invenções que caracterizam a era da máquina: “A tecnologia (...) é assim, ao mesmo tempo,
uma forma de organizar e perpetuar (ou modificar) as relações sociais, uma manifestação
do pensamento e dos padrões de comportamento dominantes, um instrumento de controle e
dominação” (MARCUSE, 1999, p. 73).
Um dos efeitos sociais da crescente mecanização e racionalização da produção,
além da concentração do poder econômico, é a corrosão dos padrões de individualidade de
corte burguês, baseados na noção de autonomia. Na era da máquina, o imperativo passa a
ser cada vez mais o da utilização eficiente do aparato industrial, ao que tudo o mais deve
subordinar-se. A racionalidade deixa de ser individualista para tornar-se tecnológica e
“fomenta atitudes que predispõem os homens a aceitar e introjetar os ditames do aparato”
(MARCUSE, 1999, p. 77). Surge a “personalidade objetiva” de que falava Mumford, com a
transferência de toda a espontaneidade à máquina e a subordinação da vida à
“factualidade”. A tecnologia, portanto, é acima de tudo um veículo de dominação, de
homogeneização do pensamento e do comportamento, mas, muito importante, nem por isso
Marcuse abre mão do aspecto ou momento emancipador da tecnologia, pois nela sobrevive
24 É curioso notar que Jacques Ellul (1964), anos mais tarde, fará distinção semelhante, escolhendo porém o
25
como promessa o fator da técnica, que liberta progressivamente os homens das agruras da
sobrevivência, do reino da necessidade, e lhes franqueia, ao menos em princípio, o da
liberdade e da individuação. Torna-se assim contraditório, e mesmo contra-revolucionário,
combater as locomotivas e outras máquinas:
A técnica impede o desenvolvimento individual apenas quando está presa a um aparato social que perpetua a escassez, e este mesmo aparato liberou forças que podem aniquilar a forma histórica particular em que a técnica é utilizada. Por este motivo, todos os programas de caráter antitecnológico, toda propaganda a favor de uma revolução antiindustrial servem apenas àqueles que vêm as necessidades humanas como um subproduto da utilização da técnica. (...) A filosofia da vida simples, a luta contra as grandes cidades e sua cultura freqüentemente servem para ensinar os homens a desacreditar nos instrumentos potenciais que poderiam libertá-los. 25 (MARCUSE, 1999, p. 101)
O próprio Marcuse, contudo, abandonaria em grande medida essa admissão de ao
menos um aspecto emancipador na técnica e avançaria no processo de indiciamento da
ciência e da técnica como inimigas da transformação social em One-dimensional man, obra
publicada 20 anos depois de Dialética do esclarecimento e 23 anos depois do ensaio em
que o próprio Marcuse introduzira a distinção entre técnica e tecnologia. Ele passa a fazer
desta última, mais que um meio entre outros (como os de comunicação de massa) para a
dominação, sua própria essência: “Hoje, a dominação se perpetua e propaga não só por
meio da tecnologia, mas como tecnologia, e esta fornece a grande legitimação do poder
político em expansão, que absorve todas as esferas da cultura” (MARCUSE, 1991, p.
158).26 Mais adiante: “Com respeito às formas institucionalizadas de vida, a ciência (pura
como aplicada) teria assim uma função estabilizadora, estática, conservadora”
(MARCUSE, 1991, p. 165).27
Na base desse processo de legitimação da ordem social pela tecnologia estaria uma
suposta capacidade inaudita de gerar ganhos continuados de produtividade do trabalho e do
padrão de vida, uma generalização do bem-estar (ao menos nas sociedades industrializadas)
par trocado de conceitos: tecnologia neutra e técnica como sistema, aparato. 25 Entende-se um pouco melhor, agora, por que Marcuse podia falar, como foi citado mais atrás, em tecnologia “como uma forma de organizar e perpetuar (ou modificar) as relações sociais”, com esses perturbadores parênteses (uma vez que é flagrante a contradição entre “perpetuar” e “modificar”). 26 “Today, domination perpetuates and extends itself not only through technology but as technology, and the latter provides the great legitimation of the expanding political power, which absorbs all spheres of culture.” 27 “With respect to the institutionalized forms of life, science (pure as well as applied) would thus have a stabilizing, static, conservative function.”
26
que não prescinde da desigualdade e da exploração, mas oferece como que um colchão de
ar entre a vida na superestrutura e as asperezas de sua base material, permitindo ao modo de
produção capitalista deslizar, em sua expansão, sem grandes solavancos. Está-se, assim,
tendo em vista o potencial da ciência tanto como força de integração, diante de um
candidato no mínimo plausível para explicar por que a contradição entre o desenvolvimento
das forças produtivas e as relações de produção tardou tanto em desembocar na mudança
social, ao longo do século XX (e ainda tarda, no XXI).
Como essa capacidade integradora e normalizadora da vida social estaria inscrita na
própria estrutura conceitual do pensamento científico, do ponto de vista marcuseano
qualquer perspectiva de mudança social deverá enfrentar também – e de pronto – a
transformação da própria ciência: “A mudança na direção do progresso, que poderia
seccionar esse vínculo fatal [entre hierarquia racional e hierarquia social], também
afetaria a própria estrutura da ciência – o projeto científico” (MARCUSE, 1991, p. 166).28
Um ano depois de One-dimensional man, em 1965, no ensaio “Industrialisierung und
Kapitalismus im Werk Max Webers” [Industrialização e capitalismo na obra de Max
Weber],29 a condenação se estende à própria técnica e parece extrapolar os limites do
sistema capitalista, adquirindo um alcance quase antropológico:
O conceito de razão técnica é talvez também em si mesmo ideologia. Não só a sua aplicação, mas já a própria técnica é dominação metódica, científica, calculada e calculante (sobre a natureza e o homem). Determinados fins e interesses da dominação não são outorgados à técnica apenas “posteriormente” e a partir de fora – inserem-se já na própria construção do aparelho técnico; a técnica é, em cada caso, um projecto histórico-social; nele se projecta o que uma sociedade e os interesses nela dominantes pensam fazer com os homens e com as coisas. Um tal fim de dominação é “material” e, neste sentido, pertence à própria forma da razão técnica. (citado em HABERMAS, 1993, p. 46-47)
Parafraseando Marx, não se poderia doravante superar o capitalismo sem um nova
física e uma nova biologia (além da locomotiva e do moinho a vapor). A ciência e a técnica
voltam a ocupar, assim, o próprio cerne da mudança social com sentido emancipador,
agora porém como entrave, tornando-se por isso o alvo por excelência da teoria crítica (que
manifesta com isso uma espécie de determinismo tecnológico às avessas).
28 “The change in the direction of progress, which might sever this fatal link, would also affect the very structure of science –the scientific project.” 29 Kultur und Gesellschaft, II, Frankfurt, 1965.
27
Cabe aqui lembrar que primeira metade dos anos 60, quando foi publicada essa que
é uma das obras mais conhecidas e influentes de Marcuse (One-dimensional man), havia
sido um período de acentuado pessimismo com a ciência e a tecnologia, sobretudo nos
Estados Unidos. É significativa a relação de autores críticos que tiveram obras
transformadas em best-sellers, como fez notar MENDELSOHN (1994): Rachel Carson,
com Silent Spring (1962); Barry Commoner, com Science & survival (1963); Thomas S.
Kuhn, com Structure of scientific revolutions (1962); Derek J. de Solla Price, com Big
science, little science (1963). Essa voga não demorou por despertar uma reação dos que
tinham uma concepção mais militantemente realista – e progressista em sentido estrito – da
ciência e da tecnologia, sobretudo de inconformismo com a condenação da própria
atividade investigativa (a razão instrumental de Adorno e Horkheimer) como raiz de todos
os males. Diante disso, segundo a narrativa de MENDELSOHN (1994, p. 161), já em 1967
Marcuse havia recuado de sua posição radical, num ensaio intitulado “The responsibility of
science”.30 Dois anos mais e já teria revertido plenamente, em An essay on liberation,31
para a posição em que voltava a admitir um papel emancipador para a ciência e a técnica:
É ainda necessário afirmar que não são a tecnologia, nem a técnica, nem a máquina os motores da repressão, mas a presença neles dos mestres que determinam seu número, a duração de sua vida, seu poder, seu lugar na vida e sua necessidade? É ainda necessário repetir que a ciência e a tecnologia são os grandes veículos da libertação, e que apenas seu uso e sua restrição na sociedade repressiva os transformam em veículos de dominação?32 (citado em MENDELSOHN, 1994, p. 162)
Nessa altura já havia sido publicado na Alemanha outro ensaio, por um autor da
nova geração da Escola de Frankfurt, Jürgen Habermas, em que este tentava avançar na
reflexão a partir de One-dimensional man, mas em sentido menos auto-revisionista, por
assim dizer. Trata-se de Técnica e ciência como “ideologia” (HABERMAS, 1993) – um
texto de homenagem a Marcuse publicado apenas quatro anos depois de Homem
30 In: KRIEGER, L. e STERN, F. (Eds.) The responsibility of power. Nova York: Doubleday, 1967. 31 Boston: Beacon Press, 1969. 32 “Is it still necessary to state that not technology, not technique, not the machine are the engines of repression, but the presence in them of the masters who determine their number, their lifespan, their power, their place in life, and the need for them? Is it still necessary to repeat that science and technology are the great vehicles of liberation, and that it is only their use and restriction in the repressive society which makes them into vehicles of domination?”
28
Unidimensional –, em que o autor destaca33 aquela que teria sido a grande percepção de
Marcuse, a de que ciência e técnica deixam de figurar como o impulsionador crítico da
antiga dialética entre forças produtivas e relações de produção para se converter no seu
oposto. Como diz HABERMAS (1993, p. 48), “...as forças produtivas parecem entrar numa
nova constelação com as relações de produção: já não funcionam em prol de um
esclarecimento político como fundamento da crítica das legitimações vigentes, mas elas
próprias se convertem em base da legitimação. Isto é o que Marcuse considera novo na
história mundial”. Assim, e em continuidade com a interpretação de Adorno, Horkheimer e
do Marcuse de One-dimensional man, ele vê nas ciências empíricas modernas “um marco
metodológico de referência que reflecte o ponto de vista transcendental da possível
disposição técnica” (HABERMAS, 1993, p. 66-67), mas vai além, assinalando “uma
crescente interdependência de investigação e técnica, que transformou as ciências na
primeira força produtiva” (p. 68; ênfase minha).
Para Habermas, as conseqüências dessa reunião de ciência, técnica e produção de
valor num mesmo circuito de pesquisa industrial em grande escala (do qual a biotecnologia
atual oferece um exemplo ilustrativo, assim como o chamado complexo industrial-militar
nas décadas de 1960 e 1970) são o esfumaçamento dos interesses que se prendem à
manutenção do modo de produção e a transformação da contradição entre classes numa
simples “latência”. Ele propõe a substituição da oposição entre forças produtivas e relações
de produção por outra, que entende ser mais geral, entre trabalho e interação (antecipando
assim o que desenvolveria, uma década depois, como sua teoria da ação comunicativa).
Posicionar a ciência moderna bem no centro da questão da (ausência de) mudança social,
como fizera Marcuse, é a maneira de Habermas recusar a necessidade e a direcionalidade –
em suma, a filosofia da história – tradicionalmente aderidas à idéia de contradição entre
forças produtivas e relações de produção:
As relações de produção designam um nível em que o marco institucional esteve ancorado, mas só durante a fase do desenvolvimento do capitalismo liberal (...). Por outro lado, as forças produtivas, em que se acumulam os processos de aprendizagem organizados nos subsistemas da acção instrumental, foram certamente desde o princípio o motor da evolução social, mas parece que, em sentido contrário ao da suposição de Marx, não representam em todas as circunstâncias, um potencial de liberação nem provocam movimentos emancipadores –de qualquer modo, deixam de os provocar desde que o incremento
33 Aparentemente, ignorando o recuo marcuseano nos textos citados de 1967 e 1969.
29
incessante das forças produtivas se tornou dependente de um progresso tecno-científico, o qual assume também funções legitimadoras da dominação. (HABERMAS, 1993, p. 83)
A crítica implícita de Habermas a Marcuse seria a de que este acabou por erigir o
que é uma ocorrência histórica – a função legitimadora alcançada pela ciência e pela
tecnologia no capitalismo – em algo de transcendental, inerente ao modo de conhecimento
voltado para a transformação de objetos naturais. Por isso ele recusa o programa
marcuseano de revolução da técnica como precondição da emancipação, pois só existe uma
técnica (não se concebe uma técnica alternativa) e ela está estruturalmente ligada à ação
racional com respeito a fins (HABERMAS, 1993, p. 51-52). A dificuldade não está nela
mesma, mas no fato de ter-se transformado na primeira força produtiva e legitimadora,
numa espécie de colonização, pela razão instrumental, da esfera que deveria permanecer
reservada para a ação comunicativa, para a interação entre os homens, no que se poderia
chamar de desvio instrumental da razão. Não resta dúvida de que ciência e técnica foram
mobilizadas num sistema de legitimação de alta eficácia, mas ainda assim cabe manter as
aspas em “ideologia”, como faz Habermas no título de seu ensaio, para não ter de abrir mão
de algo que afeta o interesse emancipador como tal do próprio gênero humano: “... a
dialética da ilustração foi por Marcuse transformada na tese extrema de que a técnica e a
ciência se tornam elas próprias ideológicas”. (HABERMAS, 1993, p. 84)
Em Discurso filosófico da modernidade, de 1985, Habermas viria a dirigir o mesmo
tipo de objeção à dialética do esclarecimento de Adorno e Horkheimer. Para ele, a tese de
que o esclarecimento é prisioneiro desde sempre da autoconservação que mutila a razão34
depende de uma demonstração de que esta “permanece submetida ao ditame da
racionalidade com respeito a fins até em seus mais recentes produtos” (HABERMAS,
2000, p. 159), a saber, a ciência moderna, o direito universalista e a arte autônoma. O erro
de Adorno e Horkheimer estaria em “nivelar de modo espantoso” a imagem da
modernidade, em sua convicção de que a ciência moderna teria encontrado a realização
suprema no positivismo lógico e renunciado às pretensões de validade (emancipadoras),
34 Assim HABERMAS apresenta a ótica de Adorno e Horkheimer: “O mundo moderno, o mundo completamente racionalizado é desencantado apenas na aparência; sobre ele paira a maldição da coisificação demoníaca e do isolamento mortal. (...) A pressão para dominar racionalmente as forças naturais que ameaçam do exterior pôs os sujeitos na via de um processo de formação que intensifica até a desmesura as forças produtivas por mor da pura autoconservação, mas deixa definhar as forças da reconciliação que
30
como que tomada apenas por pretensões de poder (HABERMAS, 2000, p. 161-162). O
esgotamento da crítica das ideologias diagnosticado pela Escola de Frankfurt, assim, teria
desembocado numa paralisia: “... se as forças produtivas entram em uma funesta simbiose
com as relações de produção, que deveriam um dia rebentar, também não há mais dinâmica
alguma na qual a crítica pudesse depositar suas esperanças” (HABERMAS, 2000, p. 169).
Tanta heterodoxia de Habermas, mesmo aquela revelada apenas em Técnica e
ciência como “ideologia”, não parece ter sido bem assimilada pela velha guarda
frankfurtiana. Adorno, por exemplo, reabilita a atualidade e a centralidade da luta de classes
(“a sociedade permanece como luta de classes, hoje como no período em que esse conceito
foi originado”) e rejeita o novo papel atribuído por Marcuse e Habermas à tecnociência:
“Que ainda assim a sociedade vá em frente de modo tão bem-sucedido quanto vai deve ser
atribuído a seu controle sobre o relacionamento de forças sociais básicas, que há muito foi
estendido a todos os países do globo” (ADORNO, 1989, p. 273).35 A industrialização como
tal (sob o impulso do desenvolvimento técnico), no seu entender, é “apenas a imagem da
própria produtividade humana, cibernética e computadores sendo meramente uma extensão
dos sentidos humanos: o avanço técnico é portanto apenas um momento na dialética entre
as forças de produção e as relações de produção, e não uma terceira coisa, demoniacamente
auto-suficiente” (ADORNO, 1989, p. 273).36
Não cabe aqui julgar se resultam satisfatórias as razões adiantadas por Adorno para
explicar a ausência de desenlace (mudança social emancipadora) para a contradição entre
forças produtivas e relações de produção, mas assinalar que a concomitante recusa de um
papel fundamental para a tecnociência parece ser correlata de uma recaída – ou insistência,
talvez fosse o caso de dizer – na filosofia da história, que Habermas gostaria de ver
expurgada do materialismo histórico. Admitindo que esse aggiornamento da teoria
marxista ao século XX não pudesse ter sido feito sem a análise da função legitimadora da
transcendem a mera autoconservação. A dominação sobre uma natureza exterior objetivada e uma natureza interior reprimida é o signo permanente do esclarecimento.” (2000, p. 158) 35 “That even so society goes on as successfully as it does is to be attributed to its control over the relationship of basic social forces, which has long since been extended to all the countries of the globe.” 36 “... only the image of human productivity itself, cybernetics and computers merely being an extension of the human senses: technical advancement is therefore only a moment in the dialectic between the forces of production and the relationships of production, and not some third thing, demonically self-sufficient.” É curioso notar como Adorno se serve aqui de uma noção típica do determinismo tecnológico à McLuhan (meios técnicos como extensões dos sentidos humanos), embora seu objetivo seja oposto: retirar da tecnologia a condição de principal fator de dinamismo social.
31
ciência proposta por Marcuse e Habermas, com a qual ao menos se abrem perspectivas para
a reconstrução da teoria sociológica e para a investigação social empírica de fundo
marxista, torna-se compreensível que a recusa de Adorno desemboque numa forma de
pessimismo, nessa mescla de confiança teórica ortodoxa no mecanismo da história e de
paradoxal desesperança política na sua capacidade de engendrar a transformação esperada,
tão bem retratada pelo próprio Adorno no mesmo texto: “Os homens têm de agir para
mudar as suas presentes condições petrificadas de existência, mas estas deixaram suas
marcas tão profundamente nas pessoas, privando-as de tal modo de sua vida e individuação,
que eles dificilmente parecem capazes da espontaneidade necessária para fazê-lo”
(ADORNO, 1989, p. 275).37
1.5 O papel central do risco tecnológico na teoria da modernização reflexiva
Desde então, a penetração da tecnociência no mundo da vida só fez avançar. O
pessimismo com a ciência e a tecnologia dos anos 60 recebeu respostas vigorosas do campo
da razão instrumental cientificista, com o florescimento e a sofisticação de saberes
tecnocráticos, como a análise estatística de riscos. A cibernética e a teoria da informação
que tanto intrigavam os pensadores de todos os matizes naquela mesma época
condensaram-se na informática, peça central na flexibilização do mundo do trabalho, por
sua vez apontada como cerne do novo regime de produção pós-fordista. O próprio domínio
da constituição da pessoa, depois de ver-se submetido a inúmeras formas tentativas de
controle e adaptação do comportamento oriundas do campo das ciências ditas humanas,
cada vez mais reassume a condição de presa legítima das ciências naturais, na exata medida
em que o pêndulo nature vs. nurture (natureza vs. ambiente) volta com força ao primeiro
pólo da oscilação, que já freqüentara no princípio do século XX, quando o paroxismo da
explicação naturalista fora alcançado pela eugenia. Dos computadores que racionalizam a
produção, mas agravam o desemprego, à engenharia genética que ameaça produzir
monstros reais ou imaginários apesar das curas prometidas, da energia nuclear pós-
37 “Men must act in order to change the present petrified conditions of existence, but the latter have left their mark so deeply on people, have deprived them of so much of their life and individuation, that they scarcely seem capable of the spontaneity necessary to do so.”
32
Chernobyl ao efeito colateral da mobilidade universal alimentada a petróleo (aquecimento
global), a esfera da tecnociência não consegue libertar-se de sua ambivalência congênita: à
primeira vista libertadora de forças materiais a serviço dos homens, mas que no entanto se
revela impositora de barreiras para o desenvolvimento das sociedades humanas.
Com a crescente complexidade da vida cotidiana provocada pela disseminação da
tecnociência nos interstícios do tecido social, não é de admirar que ela permaneça em
posição de destaque nas novas formulações do pensamento que buscam compreender e
explicar as formas sociais no novo regime de produção. A produção e a substituição de
tecnologias não apenas se acelera como passa por um processo de “aceleração da
aceleração”, como lembra Laymert Garcia dos SANTOS (2001a, p. 30), recuperando uma
expressão de Buckminster Fuller. Com essa aceleração exponencializada, o esquema
tradicional e determinista da contradição entre forças produtivas e relações de produção já
não parece dar conta da perda generalizada de referenciais e de formas de integração ou
legitimação social. O entrave que o segundo termo dessa contradição representava para a
expansão continuada do primeiro como que foi dissolvido, liquefeito, pela turbinagem das
forças produtivas no estágio capitalista que Jean-François LYOTARD (2000) chamou de
pós-modernidade, e outros, de modernidade reflexiva. É o caso de Ulrich BECK (1997, p.
13), segundo o qual “o dinamismo industrial, extremamente veloz, está se transformando
em uma nova sociedade sem a explosão primeva de uma revolução, sobrepondo-se a
discussões políticas de parlamentos e governos”.
O movimento teórico-filosófico de afastamento em relação às filosofias da história,
empreendido tanto por Habermas quanto por Lyotard e Beck (para citar três nomes
representativos de tendências mais recentes do pensamento social pós-Escola de Frankfurt),
parece ser correlato de um descolamento objetivo da tecnociência em relação a qualquer
locus privilegiado de ação ou mudança social que se encontre fora dela. Para LYOTARD
(2000), seu afastamento das grandes narrativas, especulativa (Hegel) ou emancipadora
(Marx), faz com que ela entre no século XX em processo de deslegitimização e
fracionamento. Habermas tenderá a encará-la como um caso especial e em certo sentido
paradigmático de um conceito de razão comunicativa, “derivada das estruturas da
intersubjetividade produzida lingüisticamente e concretizada nos processos de
racionalização do mundo da vida” (HABERMAS, 2000, p. 482), incompatível com a idéia
33
de uma práxis em si e por si mesma racional. Beck diagnostica um impulso de
autonomização que tende a libertá-la até mesmo do vínculo visceral com a indústria:
A mudança, impossível de ser detida e controlada (...), torna-se a lei da modernidade a que cada um deve se submeter, sob o risco de morte política. (...) Pelo menos algo adicional pode ser lançado na arena das possibilidades como uma hipótese que torna o impensável pensável: a tecnologia que deseja escapar do destino de sua “mediocridade”, de sua submissão ao jugo do utilitarismo econômico e militar, para se transformar ou ser nada além de pura tecnologia. (BECK, 1997, p. 39)
Esta última passagem, ao aventar – seria o caso de dizer: reivindicar – uma
reabertura da “arena de possibilidades”, toca na ferida aberta do pensamento pós-
frankfurtiano, que também parece comum a essas três correntes, a saber, uma clara
insatisfação com o imobilismo e pessimismo nada heurísticos e tampouco favorecedores da
ação política que, de sua ótica, caracterizam a crítica radical da razão de que trata
Habermas:
As diferenças e oposições estão agora tão minadas, e mesmo desmoronadas, que a crítica, na paisagem plana e descorada de um mundo totalmente administrado, calculado e atravessado por relações de poder, não pode mais divisar contrastes, matizes e tonalidades ambivalentes. (...) Todas [as críticas radicais] mostram-se insensíveis ao conteúdo altamente ambivalente da modernidade cultural e social. (HABERMAS, 2000, p. 470)
Se esses autores resgatam o tema da ambigüidade do processo de racionalização
capitaneado pela tecnociência, em que pesem as profundas divergências entre eles, tudo
indica que seja para revalidá-lo como fator de abertura para o novo, como espaço
reconquistado de ação política – seja na forma de uma nova pragmática de múltiplos jogos
de linguagem orientada para a justiça (Lyotard), de fronteiras consensualmente repactuadas
na esfera pública entre mundo da vida e sistema social (Habermas), ou, ainda, de uma
subpolítica que busque na prática a separação possível entre desenvolvimento e aplicação
das tecnologias (Beck). Parecem também ser comuns a essas novas formas de pensar a
realidade social dois outros movimentos: o reconhecimento de uma mudança de estatuto da
ciência, que sofre um estreitamento conceitual – ainda que paralelo a uma percolação por
todos os poros da vida social – e passa a merecer a designação de tecnociência (como vem
sendo referida neste texto), e também da natureza, que vê suas fronteiras com o mundo
social serem remarcadas (ou, mais propriamente, borradas).
34
Um domínio do qual não se podem mais traçar fronteiras claras é também um
domínio de incerteza, que franqueia o terreno para uma espécie de ontologia movediça, por
assim dizer. Partindo mais dos efeitos da crise ecológica do que dos debates mais recentes
sobre a engenharia genética, Anthony Giddens, Ulrich Beck e Scott Lash registraram logo
na introdução de seu Modernização reflexiva, obra originalmente publicada em 1994, o
processo de incorporação da natureza pela cultura: “As questões ecológicas só vieram à
tona porque o ‘ambiente’ na verdade não se encontra mais alheio à vida social humana, mas
é completamente penetrado e reordenado por ela. Se houve um dia em que os seres
humanos souberam o que era a ‘natureza’, agora não o sabem mais” (GIDDENS, BECK e
LASH 1997, p. 8). Tanto mais seria o caso, hoje, do que antes se chamava de “natureza
humana”. Mas esse alcance ontológico da tecnociência não se reveste apenas de um aspecto
negativo (a temática do risco e da insegurança), mas também – e talvez mais importante –
de um caráter positivo, no sentido de engendrador de possibilidades. Este ponto é
desenvolvido por exemplo por Beck, que fala da natureza como “um projeto social, uma
utopia que deve ser reconstruída, ajustada e transformada”:
A “natureza” (no significado não-simbólico e materializado da palavra) fabricada, a “natureza determinada”, torna na verdade possível a produção de matérias e corpos. Neste caso, uma política de criação produz um mundo de criaturas vivas que pode ocultar o caráter fabricado do que ele cria e representa. (BECK, 1997, pp. 41-42)
É o caso, no entanto, de deter-se um pouco sobre esse aspecto negativo da
tecnociência, sobretudo naquela que parece ser a perspectiva teórica mais elaborada sobre
ele, a sociedade de risco tal como definida por Ulrich BECK: “Este conceito designa uma
fase no desenvolvimento da sociedade moderna, em que os riscos sociais, políticos,
econômicos e individuais tendem cada vez mais a escapar das instituições para o controle e
a produção da sociedade industrial. (...) as instituições da sociedade industrial tornam-se os
produtores e legitimadores das ameaças que não conseguem controlar” (1997, p. 15-16). A
novidade aqui, para além de uma provisória colocação entre parênteses – no momento da
análise e do diagnóstico – da segunda disjuntiva referida mais atrás sobre a influência da
técnica na história (se ela se faz em sentido emancipador ou regressivo), é uma espécie de
subversão do conceito habitual de determinismo tecnológico: em lugar de um
desenvolvimento lógico da própria técnica exercer um papel enformador sobre a
35
organização material da vida humana e social, são os resultados materiais da progressão
tecnológica – na forma irrecorrível de efeitos colaterais – que impõem para o pensamento
uma consideração reflexiva desse processo de desenvolvimento. É o ponto de mutação
entre o que Beck define (em Die Erfindung des Politischen [A invenção do político], de
1993) como modernização simples (objeto tradicional da sociologia) e modernização
reflexiva:
Se a modernização simples significa o desencaixe [disembedding] de formas sociais tradicionais e o subseqüente reencaixe [re-embedding] de formas industriais, a modernização reflexiva significa o desencaixe de formas sociais industriais e o subseqüente reencaixe de outras modernidades. (...) O motor da transformação social não é mais considerado como sendo a racionalidade instrumental, mas sim o efeito colateral: riscos, perigos, individualização, globalização.38 (BECK, 1996a, p. 22-23)
Naquela que é talvez sua obra mais conhecida, Risikogesellschaft [Sociedade de
risco], de 1986, Beck já havia explicitado as determinações que teriam alçado a noção de
risco à condição de categoria-chave para a interpretação da sociedade contemporânea: não
se trata de meros riscos de caráter pessoal, mas de perigos globais (como os representados
por rejeitos radiativos e pela mudança climática global); riscos que escapam à percepção
individual e se localizam na esfera rarefeita das fórmulas físicas e químicas; riscos que
resultam da superprodução e não da suboferta de meios higiênicos; por fim, riscos que
ameaçam formas de vida não só no mundo todo como também nas gerações futuras, não
sendo portanto passíveis de seguro (BECK, 1996, p. 21-22). Em que pese sua
materialidade, riscos são cognitivamente apreendidos:
Eles induzem dano sistemático e com freqüência irreversível, em geral permanecem invisíveis, são baseados em interpretações causais e inicialmente só existem, portanto, em termos do conhecimento (científico ou anticientífico) sobre eles. Podem, assim, ser alterados, magnificados, dramatizados ou minimizados no interior do conhecimento e, nessa medida, são particularmente abertos à definição e à construção sociais.39 (BECK, 1996b, p. 22-23)
38 “If simple modernization means the disembedding of traditional social forms and then the re-embedding of industrial ones, reflexive modernization means the disembedding of industrial social forms and then the re-embedding of other modernities. (...) The motor of social transformation is no longer considered to be instrumental rationality, but rather the side-effect: risks, dangers, individualization, globalization." 39 “They induce systematic and often irreversible harm, generally remain invisible, are based on causal interpretation, and thus initially only exist in terms of the (scientific and anti-scientific) knowledge about them. They can thus be changed, magnified, dramatized or minimized within knowledge, and to that extent they are particularly open to social definition and construction.”
36
Essa característica intrinsecamente cognitivo-construtivista do risco40 está longe, no
entanto, de conferir meios de atuação ou controle individual sobre ele. Ao contrário, essa
configuração implica antes uma “vitimização” do indivíduo, pois contra a nova distribuição
global de ameaças as decisões individuais pouco ou nada podem, uma vez que a produção
de toxinas e poluentes está indissoluvelmente ligada à base natural do mundo industrial: “A
experiência dessa vitimização por riscos que está interditada para decisões torna
compreensível muito do choque, da raiva impotente e dos sentimentos ‘de falta de futuro’
com os quais muitas pessoas reagem, de modo ambivalente e com críticas necessariamente
oportunistas [exploitative], às últimas realizações da civilização técnica” (BECK, 1996b, p.
41).41 Como explica o autor em seu capítulo de Modernização reflexiva, toda a produção de
sentido sobre um mundo em contínua e acelerada transformação recai agora sobre o
indivíduo, que não conta mais com as formas tradicionalmente coletivas (grandes
narrativas) de obtê-lo, como a consciência de classe ou a crença no progresso, exauridas e
desintegradas que foram na cultura da sociedade industrial (BECK, 1997, p. 18).
Obviamente, essa exigência sobre o indivíduo está fadada a fracassar, abandonando as
pessoas no pior dos mundos “modernos”: cada vez mais acossadas por riscos e cada vez
menos em condições de racionalizá-los na sua própria escala de vida. Foi, de resto, a
notável convergência das formulações de Beck com as temáticas da insegurança ontológica
e da (crise de) confiança em Anthony GIDDENS (1991, p. 116),42 assim como o papel
central da deterioração do ambiente, que terminou por reuni-los na colaboração com Scott
Lash resultante no volume Modernização reflexiva.
40 Que será mobilizada contra a própria noção de sociedade de risco e sua dimensão mais crítica, como será visto na seção seguinte. 41 “The experience of this victimization by risks which is closed to decisions make understandable much of the shock, the helpless rage and the ‘no future’ feelings with which many people react ambivalently and with necessarily exploitative criticism to the latest achievements of technical civilization.” 42 Eis como ROSA (2000, p. 76) resume a problemática da incerteza que espreita a segurança ontológica, em Giddens: “Certo grau de regularidade ou de ordenação é central para a viabilidade de uma auto-identidade reflexiva e para a fixação do tecido social. (...) Embora a incerteza não possa ser evitada, ela precisa ser administrada para ´revenir a sobrecarga psíquica e para regular o perigo. (...) Risco é a conceituação da incerteza que demarca quais situações ou ações têm resultados que afetam interesses humanos, e quais não. Conseqüências com potencial catastrófico são especialmente perturbadoras para a segurança ontológica.” [A degree of regularity or orderliness is pivotal to the viability of a reflexive self-identity and to an anchoring of the social fabric. (...) While uncertainty cannot be avoided, it must be managed to prevent psychic overload and to regulate danger. (...) Risk is a conceptualization of uncertainty that demarcates between situations or
37
Ora, essa autonomia de que se despojam os indivíduos é precisamente o cerne da
promessa da modernidade: sua libertação das amarras da tradição e da superstição,
concomitantemente ao incremento contínuo tanto do conhecimento objetivo quanto do
progresso técnico e da esfera individual de ação (ou espaço para a tomada de decisões sobre
a vida e o futuro). É por essa razão que Beck define a sociedade industrial moderna como
fruto de uma modernização simples, ou seja, incompleta, pois carece do atributo de reflexão
(ou ceticismo) que mobilizara contra mito, tradição e religião quando da inauguração do
projeto iluminista burguês, no século XVIII. Nas palavras de BECK (1996b, p. 14), a
modernização reflexiva significa mais, e não menos, modernidade: “Na sociedade de risco
os princípios da modernidade são redimidos de suas separações e limitações na sociedade
industrial” (1996b, p. 15).43
A modernização simples mantém, contudo, raízes fundas mesmo na sociedade de
risco (que deve portanto ser entendida mais como uma transição, ou como época de
convivência de momentos até contraditórios da modernidade), em particular nas operações
da tecnociência – aqui assumindo o papel de agente da modernidade simples – em face dos
riscos que ela mesma contribuiu para produzir. Sendo essas ameaças algo que se constitui
na ordem do conhecimento e não tanto dos fatos, elas implicam necessariamente um
componente normativo, que a ciência domesticada pela tecnocracia tentará monopolizar,
diante da lógica incansavelmente vitoriosa da reprodução material da riqueza (BECK,
1996b, p. 45). A abundância de perigos impõe-se como manifestamente indesejável: “Estes
[riscos] precisam ser ou eliminados ou negados e reinterpretados. A lógica positiva da
aquisição contrasta com a lógica negativa da disposição, da prevenção [avoidance], da
negação [denial] e da reinterpretação” (1996b, p. 26).44 Lida-se aqui, necessariamente, com
uma forma de consciência que é sempre teórica e, portanto, cientificada, assinala BECK
(1996b, p. 28)
Sob a tutela da tecnociência, os riscos oferecem oportunidade não só para uma
manipulação simbólico-construtiva (reinterpretação, negação) como igualmente para a
actions with outcomes involving human stakes and those that do not (...). Consequences with catastrophic potential are specially disquieting to ontological security.] 43 “In the risk society the principles of modernity are redeemed from the separations and limitations in industrial society.” 44 “These must be either eliminated or denied and reinterpreted. The positive logic of acquisition contrast with a negative logic of disposition, avoidance, denial, and reinterpretation.”
38
reprodução, tanto no sentido de multiplicação material das próprias ameaças quanto no da
proliferação de negócios e instituições para administrá-las (das consultorias especializadas
na análise estatística de riscos à indústria da remediação ambiental). Mas os riscos
oferecem ainda muito mais do que isso, exatamente por serem social e cognitivamente
construídos – a possibilidade de se tornarem objeto de crítica:
... mesmo onde se aproximam de nós silenciosamente, envoltos em números e fórmulas, riscos permanecem fundamentalmente localizados, condensações matemáticas de imagens dilaceradas de uma vida que vale a pena viver. Essas idéias precisam em contrapartida ser aceitas, isto é, não podem ser experimentadas enquanto tais. Neste sentido, riscos são imagens negativas objetivadas de utopias, nas quais o humano, ou o que dele restou, é preservado e revivido no processo de modernização.45 (BECK, 1996b, p. 28)
Enquanto para Horkheimer, Adorno e mesmo Marcuse a crítica da ciência como
razão instrumental redunda em pessimismo, por permanecer agrilhoada a uma filosofia da
história que não se cumpre, com Beck a crítica da ciência aparece como momento por
excelência da reintrodução da reflexão na modernidade, propiciada pelo paroxismo dos
riscos engendrados pelo capitalismo industrial. Assume, portanto, posição central na esfera
das subpolíticas que Beck acredita investidas da capacidade de fazer avançar a
transformação social, tanto no sentido temporal da diferenciação quanto no sentido ético da
emancipação. Trata-se de reverter, ainda que parcialmente, o espúrio processo de
desdiferenciação que apagou as fronteiras entre ciência básica e pesquisa tecnológica e
degenerou no que se chama de tecnociência, voltando contra esse liga resistente o
instrumento cortante da primeira – o ceticismo. Romper com seu monopólio, seus dogmas
frágeis (porque corroídos pelo fluido interno da dúvida), sua incongruente infalibilidade, é
tarefa reservada não tanto para uma sociologia da ciência de corte tradicional, mas para o
que Beck define como sociologia cognitiva: “... a sociologia de todas as misturas, todos os
amálgamas e todos os agentes de conhecimento em sua combinação e oposição, suas
fundações, suas reivindicações, seus erros, suas irracionalidades, sua verdade, assim como
em sua impossibilidade de conhecer o conhecimento que reivindicam” (BECK, 1996b, p.
45 “... even where they approach us silently, clad in numbers and formulas, risks remain fundamentally localized, mathematical condensations of wounded images of a life worth living. These ideas must in turn be believed, that is, they cannot be experienced as such. In this sense, risks are objectified negative images of utopias, in which the human, or what is left of it, is preserved and revived in the modernization process.”
39
55).46 Em Erfindung des Politischen, essa crítica da ciência será qualificada como uma
nova simbiose da filosofia com a vida cotidiana: “O objetivo deve ser o de contrapor a
estreiteza mental da ciência de laboratório à estreiteza mental da consciência cotidiana e
dos meios de comunicação de massa, e vice-versa” (BECK, 1996a, p. 124).47
É essa dimensão ética, ou o que HABERMAS (2000, p. 453) qualifica como
conteúdo normativo da modernidade e como que uma obrigação transcendental (p. 451) de
realizá-lo, ou ao menos persegui-lo, que parece ter escapado aos pioneiros da Escola de
Frankfurt na sua crítica redutora da razão à razão instrumental. Decerto que o projeto
moderno foi desde o início assombrado por uma ambivalência fundamental no que
concerne à noção de progresso; tampouco se pode negar que a ciência esteja hoje
diretamente engajada na geração de ondas tecnológicas que são ao mesmo tempo ondas de
legitimação, ou que o progresso técnico implique certa regressão da moralidade (SANTOS,
2003), ou ainda que um tipo de “gnosticismo tecnológico” – a promessa de superar a
finitude e a contingência do que é humano – sirva sobretudo à legitimação das operações da
própria tecnociência contemporânea (MARTINS, 1996a, p. 172). O importante é que essa
constatação não impede (antes estimula e exige) a busca de entendimento e de soluções
para as ambivalências da modernização (BECK, 1997, p. 21; HABERMAS, 2000, p. 469-
470; GIDDENS, 1991, p. 19), pois isso é o que garante a permanência de ao menos um
vetor de emancipação. Desse ponto de vista, é preciso mais, e não menos, modernidade;
aprofundar e expandir a razão para além da razão instrumental, e não abandoná-la.
1.6 Modernização ecológica e construcionismo: contramodernidades?
Em sua contribuição para Modernização reflexiva, a certa altura Ulrich Beck
responde a um argumento corrosivo de sua noção de sociedade de risco: a afirmação de que
as questões de risco não passariam de questões de ordem, vale dizer, de premissas
valorativas que condicionam a própria análise, em lugar de compor seu resultado. O
46 “... the sociology of all the admixtures, amalgams and agents of knowledge in their combination and opposition, their foundations, their claims, their mistakes, their irrationalities, their truth and in the impossibility of their knowing the knowledge they lay claim to.” 47 “The goal ought to be to play the narrow-mindedness of laboratory science off against the narrow-mindedness of everyday consciousness and the mass media and vice-versa”.
40
sociólogo alemão, como de hábito, responde de forma paradoxal – dizendo que isso
exatamente é o que elas são, mas também justamente o que não são:
Ao contrário, são a forma pela qual a lógica instrumentalmente racional do controle e da ordem é conduzida em virtude de seu próprio dinamismo ad absurdum (...). Isto implica que aqui começa uma ruptura, um conflito no interior da modernidade sobre as bases da racionalidade e o autoconceito da sociedade industrial, e isto está ocorrendo bem no centro da própria modernização industrial. (BECK, 1997, p. 21)
Precisamente essa questão – a saber, se a base material da vida social pode ou não
determinar sua estrutura e o rumo de sua mudança, ainda que na forma de efeitos não-
pretendidos – tem alimentado um acalorado debate no campo da sociologia ambiental,
aquele que opõe o que se poderia resumir como noções realista e construcionista da questão
ecológica. É uma discussão relevante para o argumento deste capítulo, porque guarda uma
relação estreita com a do determinismo tecnológico (ainda que pelo flanco da negatividade,
as questões de risco encarnam efeitos determinantes da tecnologia sobre a história).
Esse debate foi formalizado e tematizado por Riley Dunlap no final dos anos 1970 e
parece guardar relação tanto com o pessimismo com a tecnologia da década anterior quanto
com a reação a ele, sobretudo na sociologia norte-americana. Na literatura, ficou conhecido
como a oposição entre o paradigma excepcionalista do humano (HEP, a partir da
abreviação em inglês) e o novo paradigma ecológico (NEP). O HEP, segundo a
reconstrução feita pelo próprio DUNLAP (1997, p. 21), teve uma origem teórica que se
poderia considerar virtuosa, na perspectiva crítica aqui adotada: a aversão aos
determinismos biológico e geográfico dominantes na primeira metade do século XX. Mas a
origem histórica desse paradigma também ajuda a entendê-lo, tendo nascido numa época de
prosperidade – o segundo pós-guerra – em que os recursos naturais ainda eram abundantes,
o que teria levado a sociologia a supor que a vida humana era crescentemente independente
do mundo físico (DUNLAP, 1997, p. 21). Alteradas profundamente as condições objetivas
da vida na década de 70, o que resultou na crescente preocupação da sociedade com
problemas ambientais, a visão do HEP seria seguida, ou deveria ser, pela do NEP, não
substituindo as perspectivas marxista, weberiana, ou outras, mas estimulando o
desenvolvimento de versões mais ecologicamente sensíveis delas (DUNLAP, 1997, p. 34).
41
Assumindo a premissa de que existe e deve existir uma cesura epistemológica total
entre sociedade e ambiente, a sociologia ambiental excepcionalista advogará o estudo de
questões ambientais primordialmente como construções sociais, não necessariamente
aderidas à materialidade (e portanto à irrefutabilidade) de processos físicos reais na base da
atividade econômica. Ora, como já se viu mais atrás, uma dimensão assim construcionista
não é necessariamente incompatível com um paradigma ecológico mesmo em sua
radicalização à maneira de Beck; o próprio DUNLAP (1997, p. 35) chega a admiti-la como
elemento enriquecedor do programa de pesquisa da sociologia ambiental, desde que isso
não implique cortar o vínculo mais profundo da sociedade com a natureza: “É somente
quando uma orientação construcionista forte leva a rejeitar a possibilidade de estudar a
interação humana com o ambiente que os sociólogos permanecem confinados na premissa
excepcionalista de que o ambiente físico é irrelevante para os seres humanos modernos”
(1997, p. 35).48
DUNLAP (1997, p. 22) afirma que Frederick Buttel tentou ressuscitar o HEP, em
meados dos anos 80 do século XX, quando ocorreu um refluxo no entusiasmo dos anos 70
com a sociologia ambiental. Com efeito, uma década depois BUTTEL (1997, p. 41-42)
ainda continuaria a criticar adeptos do NEP por exigirem muito mais – primazia ou
equiparação de variáveis biofísicas sobre variáveis sociais – do que o devido
reconhecimento da existência e da importância das questões ambientais, para ele de todo
consistentes com a sociologia clássica e com o paradigma durkheimiano dos fatos sociais.
Na análise da sociologia ambiental da vertente NEP por Buttel, às críticas a essa pretensão
se seguem aquelas voltadas contra a escala mundializada dos efeitos colaterais sobre a
mudança social, sobretudo no caso da mudança climática global (sem sombra de dúvida um
contribuinte expressivo para a noção distributiva de risco em Beck). Autores como Arthur
Mol e Gert Spaargaren enxergariam aí muito mais os contornos de uma construção social,
de uma ideologia do movimento ambientalista que se mundializa, do que de um “fato
científico” (BUTTEL, 1997, p. 42).
Outro flanco da tradição NEP/sociedade de risco explorada por seus críticos é o
privilégio conferido nessa perspectiva para os aspectos negativos da questão ambiental, que
48 “It is only when a strong constructionist orientation leads to dismissal of the possibility of studying human interaction with the environment that sociologists remain within the confines of the exemptionalist premise that the physical environment is irrelevant to modern humans.”
42
tende aí a ser formulada sempre em termos de degradação (BUTTEL, 1997, p. 44). Tal
viés impediria aquela corrente da sociologia ambiental de reconhecer que a mudança
ambiental também possa ocorrer em sentido positivo (não-degradador), idéia que é
enfatizada pelos mesmos Mol e Spaargaren e se tornou a peça de resistência de uma visão
alternativa, batizada como modernização ecológica: “A modernização ecológica não enfoca
tanto a contínua sobrecarga da base de sustentação, mas se concentra, ao contrário, na
reestruturação ambientalmente induzida dos processos de produção e consumo” (MOL,
1997, p. 139).49 Essa teoria de reforma ambiental se apóia em quatro pilares, dos quais
importa aqui sobretudo o primeiro: o papel central da ciência e da tecnologia (MOL, 1997,
p. 140-141).50 Do ponto de vista da modernização ecológica, conclui-se, é hora não de
aprofundar, mas de arrefecer a crítica da ciência:
... a teoria da modernização ecológica identifica a ciência e a tecnologia modernas como instituições centrais para a reforma ecológica (e não, em primeiro lugar, como bodes expiatórios da ruptura ecológica e social). Ciência e tecnologia são instituições de relevo para ecologizar a economia. Na era da modernidade reflexiva e no enfrentamento com a crise ecológica, as trajetórias científicas e tecnológicas estão mudando. Os regimes tecnológicos simples, end-of-pipe, que foram tão fortemente criticados nos anos 70 (...), estão sendo cada vez mais substituídos por tecnologias ambientais mais avançadas, que não só redirecionam produtos e processos de produção para versões mais ambientalmente saudáveis, mas também começam a ser engajados no descomissionamento [contraction] seletivo de grandes sistemas tecnológicos que não mais satisfazem exigências ecológicas estritas. Neste sentido, medidas tecnológicas no contexto da modernização ecológica não estão limitadas a [ser] “só um artefato a mais”.51 (MOL, 1997, p. 140)
As diferenças e mesmo incompatibilidades entre a sociedade de risco e a
modernização ecológica ficam consideravelmente turvadas pelo fato de os defensores desta
última reivindicarem-na como continuação ou resultado da perspectiva aberta por Giddens
49 “Ecological modernization does not focus so much on the continuing burdening of the sustenance base but rather concentrates on the environment-induced restructuring of processes of production and consumption.” 50 Os outros três são: crescente importância da dinâmica de mercado e de empreendedores inovadores; função preventiva do Estado (e não reativa ou curativa); e organizações não-governamentais engajadas como participantes críticos e independentes, não como críticos externos. 51 “... ecological modernization theory identifies modern science and technology as central institutions for ecological reform (and not in the first place as culprits of ecological and social disruption). Science and technology are principal institutions in ecologizing economy. In the era of reflexive modernity and in confrontation with the ecological crisis, scientific and technological trajectories are changing. The simple end-of-pipe technological regimes, that were criticized so strongly in the 1970s (...), are increasingly being replaced by more advanced environmental technologies that not only redirect production processes and products into more environmentally sound ones, but are also starting to be engaged in the selective
43
e Beck com a teoria da modernização reflexiva (MOL, 1997, p. 147) e por rejeitarem as
críticas pós-modernistas, reconhecendo que elas se tornam por demais relativistas e recaem
nos exageros excepcionalistas do pós-guerra (SPAARGAREN, MOL e BUTTEL, 2000, p.
7-8). Para eles, ainda persistiria uma diferença entre constatar que há algo de construído
(resultado do jogo de interesses e discursos de vários atores e instituições) na “grande
narrativa” da mudança climática global, por exemplo, e concluir que tudo nela é construído
socialmente e que, portanto, essa questão não teria existência “real” (SPAARGAREN,
MOL e BUTTEL, 2000, p. 10-11).52 Comparem-se, a título de ilustração dessa aparente
proximidade entre a sociedade de risco e a modernização ecológica, os argumentos de Beck
ou Habermas sobre a necessidade de uma crítica da ciência com a seguinte passagem de
SPAARGAREN: “Tecnologia e ciência como instituições semimodernas – guardando
incertezas para si mesmas e exibindo autoridade no relacionamento com o mundo externo –
são ‘destronadas’ pelo processo em curso de modernização. Nas palavras de Giddens:
chegou-se ao fim da razão providencial e todo mundo sabe disso” (2000, p. 63).53
E, no entanto, a incongruência da modernização ecológica com a sociedade de risco
parece manifesta. Fica difícil compatibilizar a mobilização da ciência pela modernização
ecológica, tal como proposta acima por MOL (1997, p. 140), com sua desmistificação, tal
como advogadas por BECK (1996b, p. 14), por meio da extensão impiedosa do ceticismo
que lhe é inerente às suas próprias fundações e riscos. A modernização ecológica se
mantém no marco daquela fé no progresso – ainda que mitigada – que caracteriza a
contramodernidade: “As forças produtivas, ao lado daqueles que as desenvolvem e as
administram, ciência e negócios, tomaram o lugar de Deus e da Igreja” (BECK, 1996b, p.
214).54 Aplica-se à sociologia da modernização ecológica, com toda propriedade, o duplo
otimismo que o sociólogo do risco enxerga combinados na modernização simples: “... a
perspectiva linear da cientização com a fé na controlabilidade rapidamente progressiva dos
contraction of large technological systems that can no longer fulfil stringent ecological requirements. In that way technological measures within ecological modernization are not limited to ‘just another artefact’ ”. 52 A propósito, FREUDENBURG (2000, p. 106) se queixa de que há uma longa literatura sobre a construção social do tema do aquecimento global, mas quase nada sobre como se construiu socialmente a defesa da inocuidade do problema. 53 “Technology and science as half-modern institutions –keeping uncertainties for themselves and displaying authority in the relationship with the outside world– are ‘dethroned’ by the ongoing process of modernization. In Giddens’ words: there has come an end to providential reason and everybody knows it.” 54 “The productive forces, along with those who develop and administer them, science and business, have taken the place of God and the Church.”
44
efeitos colaterais, possam estes ser ‘externalizados’ ou processados por influxos ‘mais
inteligentes’ de racionalização do segundo tipo e transformados em novas recuperações
econômicas” (BECK, 1996a, p. 32).55 A proposta de reforma dos modernizadores
ecológicos parece confinada às aporias do que Hermínio Martins qualifica como “quase-
soluções”, retomando um termo do norte-americano Eugene Schwartz:
Cada quase-solução engendra um resíduo de novos problemas tecno-sociais devido à incompletude decorrente das inter-relações e limitações dos sistemas fechados e aos efeitos secundários. (...) [Schwartz] argumentou que os novos problemas tecnológicos ou tecno-sociais proliferam mais rapidamente que as soluções, que cada conjunto de problemas residuais se torna mais difícil que o anterior devido a fatores como a dinâmica da tecnologia, a complexidade crescente, os custos crescentes e os recursos decrescentes, as exigências de maior controle e a inércia das instituições sociais. (MARTINS, 1998, p. 103)
Talvez a maneira mais eficiente de resumir essas diferenças seja dizer que, enquanto
o aparato conceitual da sociedade de risco visa estabelecer ou ao menos vislumbrar uma
política, o da modernização ecológica parece almejar apenas uma reforma, ou a
domesticação de um sistema cuja destrutividade é realçada pelo outro ponto de vista, que só
encontra saída numa acentuação da negatividade: “Talvez o declínio das estrelas-guia do
Esclarecimento primário – indivíduo, identidade, verdade, realidade, ciência, tecnologia e
assim por diante – seja o pré-requisito para o início de um Esclarecimento alternativo, um
que não tema a dúvida, mas que faça dela, ao contrário, o elemento de sua vida e de sua
sobrevivência” (BECK, 1996a, p. 161).56 Ceticismo – numa palavra, crítica – é o programa
político da modernidade radicalizada, concluirá exclamativamente BECK (1996a, p. 168)
no fecho de Erfindung des Politischen.
Para finalizar, cabe assinalar que esse ceticismo tornado instrumento político deve
ser exercido, obviamente, na esfera pública. Há uma notável coincidência de vários autores
nesse prognóstico, a começar por Habermas. Desde o ensaio de 1968 sobre ciência e
tecnologia ele já alertava para a necessidade de preservar a razão mediada lingüisticamente
como única maneira de decidir o escopo e a intensidade da ação racional com respeito a
55 “Simple modernization sociology combines two optimisms: the linear perspective on scientization with the faith in the rapidly progressing controllability of the side-effects, whether the latter are ‘externalized’ or can be processed by ‘more intelligent’ surges of rationalization of the second type and transformed into new economic recoveries.”
45
fins, vale dizer, de orientar as forças produtivas, para que a auto-objetivação do homem se
faça também com consciência, e não apenas com vontade:
... a questão não é se esgotamos um potencial disponível ou ainda a desenvolver, mas se escolhemos aquele que podemos querer em vista da paz e da satisfação da existência. Mas importa logo acrescentar que unicamente podemos pôr esta questão e não dar-lhe uma resposta antecipadora; ela exige antes uma comunicação sem restrições sobre os fins da práxis vital, contra cuja tematização o capitalismo tardio, remetido estruturalmente para uma opinião pública despolitizada, desenvolve no entanto um comportamento de resistência. (HABERMAS, 1993, p. 89)
Duas décadas depois, o pensador alemão concluirá seu Discurso filosófico da
modernidade chamando a atenção para a rede de esferas públicas autônomas, locais e
especializadas (literárias, científicas etc.), que no entanto prenunciam como que um centro
virtual de auto-entendimento: “Os limites são permeáveis; cada esfera pública está aberta
também às demais. Devem suas estruturas discursivas a uma tendência universalista
dificilmente dissimulada. Todas as esferas públicas parciais remetem a uma esfera pública
abrangente em que a sociedade em seu todo desenvolve um saber de si mesma”
(HABERMAS, 2000, p. 500).
Além desse, são comuns outros alertas para a necessidade de combater, na esfera
pública, o estreitamento da razão, particularmente no que respeita à esterilização da
vocação cética do pensamento científico numa tecnociência subjugada pelos imperativos da
reprodução capitalista. Da generalização da crítica e do ceticismo defendida por BECK sob
a proteção de meios de comunicação e de tribunais independentes e fortes (1996b, p. 234) à
inevitabilidade da discussão pública de questões de valor deixadas sem resposta pelo
conhecimento perito freqüentemente fragmentário e inconsistente, tal como formuladas por
GIDDENS (1991, p. 148 e 153), e mesmo à defesa da necessidade política de desafiar as
práticas material-semióticas da tecnociência no que HARAWAY (1997, p. 11) chama de
“conhecimentos situados”, não são poucos os que parecem convergir para a idéia de que o
combate à noção incapacitante de uma tecnologia fora de controle tem como palco
principal a opinião pública.
56 “Perhaps the decline of the lodestars of primary Enlightenment, the individual, identity, truth, reality, science, technology, and so on, is the prerequisite for the start of an alternative Enlightenment, one which
46
1.7 A questão do momento
Nesta altura, é preciso retomar a problemática do determinismo tecnológico,
definido mais no início deste capítulo como “a crença de que forças técnicas determinam a
mudança social e cultural” (HUGHES, 1994, p. 102), ou seja, de que a técnica, a tecnologia
ou a tecnociência possuam tanto ou mais autonomia do que os homens em sociedade,
tornando-se um fator estranho a eles e mesmo capaz de determinar à sua revelia os rumos
da mudança social e da história, determinação esta que em geral se concebe como negativa
(contrária ao interesse emancipador). Embora referindo-se especificamente ao pessimismo
tecnológico do pós-modernismo, Leo Marx estabelece uma relação entre essa concepção
negativa e a impotência diante da tecnologia descontrolada que parece válida para todas as
noções fáusticas do problema, para retomar o termo de Hermínio Martins: “Foi um
pessimismo cujo tom peculiar derivava da incapacidade da cultura opositora, em que pese
todo o seu surpreendente sucesso em mobilizar os movimentos de protesto dos anos 60,
para definir e sustentar um programa antitecnocrático eficaz de ação política” (MARX,
1994, p. 255).57 Dito de outro modo: o determinismo tecnológico é uma precondição do
pessimismo tecnológico; é preciso estar convencido de que a tecnologia tem o poder de
conduzir a sociedade humana para convencer-se de que ela a conduz necessariamente para
o abismo.
Restam, é evidente, as opções prometéicas. Filosófica e sociologicamente, contudo,
não há mais como sustentá-las no mundo de hoje, seja pelo vigor inegável do pensamento
crítico da tecnociência, sobretudo no segundo pós-guerra, seja pela proliferação e acúmulo
de riscos e danos tão convincentemente tematizados por Ulrich Beck. Cabe notar, no
entanto, que tanto Beck quanto Habermas e Martins conduzem suas análises no sentido de
não sucumbir nem ao pessimismo (frankfurtiano ou pós-moderno), nem a um
construcionismo que estigmatiza e desengana no nascedouro toda e qualquer iniciativa
crítica; nos três casos, e apesar de muitas e profundas diferenças, busca-se manter aberta
does not fear doubt, but instead make it the element of its life and survival.” 57 “It was a pessimism whose distinctive tenor derived from the adversary culture’s inability, for all its astonishing success in mobilizing the protest movement of the 1960s, to define and sustain an effective anti-technocratic program of political action.”
47
uma fresta prometéica para a tecnologia, mesmo em meio à mais devastadora análise da
tecnociência. Sem ela, parecem dizer, só resta renunciar em definitivo e na totalidade ao
projeto moderno – numa palavra, à emancipação –, o que não parecem dispostos a fazer.
Manter tal convicção na necessidade de relançar o programa da modernidade,
enfim, parece exigir que se abra mão do próprio determinismo tecnológico, ou pelo menos
que se reivindique a filiação à sua versão “suave”. Sem reservar uma paridade mínima de
autonomia para os homens, diante dos sistemas tecnológicos, tornar-se-ia inviável qualquer
perspectiva de ação visando seu controle ou sua orientação. Por outro lado, é inegável que a
tecnociência tornou-se onipresente na vida social da virada do século XX para o XXI,
penetrando e acarretando alguma dose de risco para todas as esferas da vida social e
individual, como um fator estranho a elas e, para quase todos os efeitos, fora de controle.
Uma saída para essa aporia do determinismo tecnológico, no entanto, pode estar na rejeição
da própria dicotomia autonomia humana versus autonomia da máquina:
Sistemas tecnológicos evoluem tanto em trajetórias de curto prazo quanto em arcos de longo prazo de modos que se assemelham à evolução ou a instituições humanas, produtos do desígnio humano que no entanto não são inteiramente pretendidos, planejados ou compreendidos de forma abrangente por ninguém (...). Talvez seja mais adequado dizer que nós co-evoluímos com a tecnologia, em lugar de simplesmente criá-la ou instrumentalizá-la.58 (MARTINS, 1996b, p. 237)
Movimento conceitual similar é realizado por HUGHES (1994, p. 113), para quem
os sistemas tecnológicos são comparáveis às grandes burocracias que mereceram a atenção
de Weber, com o agravante de adquirirem grandes infra-estruturas físicas e técnicas, o que
as torna ainda mais rígidas. Na sua visão, esses sistemas não adquirem autonomia (em
relação aos homens), mas sim momento: “Eles têm uma massa de componentes técnicos e
organizacionais, possuem direção, ou objetivos, e exibem uma taxa de crescimento que
sugere velocidade. Um alto nível de momento leva observadores com freqüência a presumir
que um sistema tecnológico se tenha tornado autônomo. Sistemas maduros têm uma
58 “Technological systems evolve both in short-term trajectories and over long-time spans in ways that resemble the evolution or human institutions, products of human design yet not fully intended, planned or comprehensively understood by anyone (...). It may be more fitting to say that we co-evolve with technology rather than simply create or instrumentalize it.”
48
qualidade que é análoga, portanto, à inércia do movimento”.59 (HUGHES, 1999, p. 76)
Algo de crucial a assinalar, aqui, é que o autor considera como parte importante da
superioridade do conceito de momento sobre o de autonomia que o primeiro implique ao
menos a possibilidade de perda (ou quebra) de momento, dando como exemplo a reação
social à energia nuclear na segunda metade do século XX (1999, p. 80), que acabaria por
desviá-la de uma trajetória que a certa altura pode ter parecido irresistível.
Sistemas tecnológicos, em resumo, por gigantescos e maciços que sejam e pareçam,
não são inamovíveis, nem tampouco se encontram inteiramente fora do controle humano e
social. Sua reorientação exige que se repensem as bases da política, como defende Beck,
mas a concepção de risco no centro de gravidade da teoria da modernização reflexiva
revela-se um tanto datada, por força de uma ligação estreita demais com a questão
ambiental, o que torna difícil a mobilização desse conceito – sem os necessários ajustes e
acréscimos – para entender novas modalidades de influências que a tecnociência lança
sobre a vida, em particular após o advento da engenharia genética e da genômica. Este é o
tema do próximo capítulo.
59 “They have a mass of technical and organizational components; they possess direction, or goals; and they display a rate of growth suggesting velocity. A high level of momentum often causes observers to assume that a technological system has become autonomous. Mature systems have a quality that is analogous, therefore, to inertia of motion.”
49
CAPÍTULO 2
Biotecnologia como arauto da Nova Era
Um domínio do qual não se podem mais traçar fronteiras claras é também um
domínio de incerteza, que franqueia o terreno para uma espécie de ontologia movediça, por
assim dizer. Partindo mais dos efeitos da crise ecológica do que dos debates mais recentes
sobre a engenharia genética, Anthony Giddens, Ulrich Beck e Scott Lash registraram logo
na introdução de seu Modernização reflexiva o processo de incorporação da natureza pela
cultura: “As questões ecológicas só vieram à tona porque o ‘ambiente’ na verdade não se
encontra mais alheio à vida social humana, mas é completamente penetrado e reordenado
por ela. Se houve um dia em que os seres humanos souberam o que era a ‘natureza’, agora
não o sabem mais” (GIDDENS, BECK e LASH, 1997, p. 8). Esse alcance ontológico da
tecnociência não se reveste, porém, apenas de um aspecto negativo, dissolvedor (a temática
do risco e da insegurança), mas também – e talvez mais importante – de um caráter
positivo, no sentido de engendrador. Este ponto é desenvolvido por exemplo por Beck, que
destaca o papel cada vez mais central da engenharia genética (e mais recentemente, caberia
acrescentar, da genômica) na transformação da sociedade:
A qualidade do político que está emergindo aqui é capaz de mudar a sociedade em um sentido existencial. Se os desenvolvimentos da biologia e da genética continuam sendo implementados apenas como demanda do mercado, da constituição, da liberdade de pesquisa e da crença no progresso médico, então o efeito cumulativo será, e não por decisão parlamentar ou governamental, uma profunda mudança “genética” da sociedade, no sentido mais verdadeiro da palavra. (BECK, 1997, p. 62)
Não é pacífica, no entanto, a atribuição de centralidade para a engenharia genética
na transformação social em curso na era da pós-modernidade, da modernidade reflexiva ou
do regime flexível de produção capitalista (não importando aqui fixar-se numa ou noutra
dessas caracterizações). Na realidade, dois complexos técnicos concorrem hoje pela
primazia de explicar o que mais uma vez se percebe como uma revolução tecnológico-
social: a internet e a biotecnologia. A seção seguinte se ocupará principalmente da segunda,
a mais problemática, entre outras razões porque, embora sendo objeto de copiosa literatura
de ocasião, em geral não se qualifica como um fator de transformação sistêmica, capaz de
50
alterar profundamente os regimes de produção e trabalho, como se especula da teia mundial
de computadores; quando muito, a biotecnologia costuma aparecer revestida de potencial
para refundar a medicina e a agricultura, que de artes milenares enfim se converteriam em
ciências exatas – o que já não seria revolução medíocre (ainda que setorial), seja pelos
efeitos práticos, seja pelos simbólicos.
2.1 Informática e economia
Quando se trata da rede informática internacional, a percepção parece ser muito
mais abrangente – e benigna. É certo que sua disseminação mundial e o componente de
comunicação instantânea que agrega a associam diretamente com o fluxo eletrônico de
capitais e, por essa via, com o que se enxerga de negativo na chamada “globalização”, a
capacidade da finança internacional de dirigir seletiva e instantaneamente seus capitais
especulativos para aqueles países aquiescentes a seus imperativos (e também de abandoná-
los pela mesma via célere da telemática). A internet, apesar desse parentesco suspeito,
encarna a figura clássica do meio tecnológico neutro, cuja perniciosidade ou benevolência
dependerá do uso que dele se fizer. Pode tanto servir de suporte para um comércio
eletrônico mundializado que contribua para eliminar empregos, destruir o ambiente ou
reduzir a competitividade de setores e países já enredados na armadilha da dependência
quanto para a mobilização rápida de organizações não-governamentais (ONGs) e
manifestantes de qualquer ponto do planeta em protestos e campanhas contra esses mesmos
efeitos.60
Essa aparente neutralidade parece estar na origem de uma imagem pública em que a
utilidade percebida se sobrepõe a riscos eventuais e que, portanto, resulta mais favorável
que a das biotecnologias.61 De resto, proliferam – a ponto de constituir quase que um senso
60 Depois de cientistas, militantes de ONGs estiveram entre os primeiros a aderir à World Wide Web e ao correio eletrônico; foi o caso do Brasil, onde a rede Alternex –fruto da iniciativa da ONG Ibase (Instituto Brasileiro de Análises Sociais e Econômicas)– tornou-se em julho de 1989 um dos pioneiros provedores de acesso. 61 Como exemplo, pode-se citar pesquisa de opinião sobre tecnologia nos EUA apresentada por Susanna H. Priest em Nature Biotechnology (v. 18, set.2000, pp. 939-942): 72,1% dos norte-americanos entrevistados responderam que a internet iria melhorar seu modo de vida nos 20 anos subseqüentes, contra 52,8% no caso
51
comum sociológico – as obras interpretativas que põem as redes informáticas como
princípio explicador da sociedade contemporânea, como seu foco de dinamismo ou, pelo
menos, como metáfora das novas formas de organização social engendradas por uma
economia mais e mais mundializada (reduzindo-se tudo a um fator abstrato, como
“conectividade”, ou “o virtual”). Mesmo quando pretende fazê-lo de uma perspectiva
crítica, o ponto de vista eleito por esse gênero de interpretação conduz a uma atitude no
mínimo reificadora ou circular, que usa um fator atual da mudança para explicar a gênese
do próprio processo de mudança. Um exemplo é o de Pierre Lévy, para quem o processo
que chama de virtualização não apenas marca a época atual como está na base da “aventura
de autocriação que sustenta nossa espécie”, nada menos que a forma de hominização do
homem, em três planos:
Através da linguagem, a emoção virtualizada pela narrativa voa de boca em boca. Graças à técnica, a ação virtualizada pela ferramenta passa de mão em mão. Do mesmo modo, na esfera das relações sociais, pode-se organizar o movimento ou a desterritorialização de relacionamentos virtualizados. (LÉVY, 1999, p. 77)
A biotecnologia não é em geral alçada a altitudes tão rarefeitas, em que uma
imagem proveniente do mundo da informática (a chamada realidade virtual) se desfaz da
materialidade técnica e histórica em que surgiu para inverter a clássica explicação pela
origem, inaugurando algo como uma iluminação retrospectiva pela conseqüência. Houve,
por certo, tentativas de des-historicizá-la, analogamente, como no argumento
freqüentemente avançado por defensores da biotecnologia na agricultura segundo o qual a
confecção de plantas geneticamente modificadas nada mais seria do que a evolução normal
– apenas com a incorporação de métodos mais precisos (a engenharia genética) – do
melhamento milenar de plantas e animais, baseado em cruzamentos de variedades. Ou seja,
que a biotecnologia sempre teria existido e se confundiria com a prática da agricultura e,
por que não, com a própria humanidade. Mais comuns e mais articulados, porém, são os
esforços para colocar a biotecnologia no centro da dinâmica social atual, imprimindo-lhe
um aspecto revolucionário, como na “nova matriz” de que fala Jeremy Rifkin em The
biotech century:
da biotecnologia (enquanto 30,1% opinaram que esta “tornaria as coisas piores”, muito perto dos 32,4% que prevêem efeitos adversos da energia nuclear, a mais temida das tecnologias abordadas na pesquisa).
52
O Século da Biotecnologia traz consigo uma nova base de recursos, um novo conjunto de tecnologias transformadoras, novas formas de proteção comercial para estimular o comércio, um mercado de trocas global para re-semear a Terra com um segundo Gênese artificial, uma ciência eugênica emergente, uma nova sociologia de suporte, uma nova ferramenta de comunicação para organizar e administrar a atividade econômica no nível genético e uma nova narrativa cosmológica para acompanhar a jornada.62 (RIFKIN, 1998, p. 9-10)
2.2 Biotecnologia periférica
Surge para esse tipo de esforço, entretanto, uma limitação de horizonte: não há
propriamente como representar a biotecnologia no centro da atividade econômica, de modo
a fazer dela a base de uma indústria com tanto potencial indutor quanto teleinformática,
petróleo, energia elétrica ou metalurgia, ou mesmo um ramo de serviços com a penetração
do setor financeiro ou da indústria cultural. É unicamente numa confluência com a
informática que ela pode integrar o veio fundamental da economia, como se verá mais
adiante e como parece ter-se dado conta o próprio Rifkin, que em obra subseqüente (The
age of access, 2001) faz da interação entre provedor e internauta o modelo da relação
econômica em via de predominar, investindo o acesso como a forma histórica que
sucederia nada menos que a propriedade (ecoando assim os temas da virtualização e
desmaterialização, tão freqüentes na literatura sobre redes e sociedades em rede). Na Era do
Acesso, os genes que há pouco reinavam no Século da Biotecnologia se tornam pouco mais
que uma nota de rodapé, um tipo entre outros de ativos que se volatilizam. 63
No final dos anos 80, a questão sobre a centralidade da biotecnologia havia
alimentado uma polêmica esclarecedora (FRANSMAN, JUNNE e ROOBEEK, 1995)
iniciada por Frederick H. Buttel, que, contra a corrente entusiasmada com as
62 “The Biotech Century brings with it a new resource base, a new set of transforming technologies, new forms of commercial protection to spur commerce, a global trading market to reseed the Earth with an artificial second Genesis, an emerging eugenics science, a new supporting sociology, a new communication tool to organize and manage economic activity at the genetic level, and a new cosmological narrative to accompany the journey.” 63 Movimento similar é realizado por Scott LASH no livro Critique of information (2002), que fala em informacionalização e substitui a centralidade da produção na economia pela centralidade da informação, a partir da qual o mecanismo de exclusão (e não mais exploração) definiria uma nova divisão de classes sociais mundializadas. Aqui, em contraste com o segundo Rifkin, os bancos de dados genéticos aparecem em posição proeminente.
53
potencialidades desse campo técnico, negou-lhe a condição de fator comparável à
informática na conformação da nova economia em nascimento –um vínculo que, na sua
descrição, se apoiava apenas numa forma “casual” de pensamento. A biotecnologia não só
teria seu escopo econômico limitado a processos e produtos baseados em fatores
biológicos, ou por eles substituíveis, como ainda carregaria uma pecado original para
contendores dessa arena schumpeteriana: vincular-se a setores em declínio da economia
global, como a agricultura e a indústria química/farmacêutica. Não seria assim
“revolucionária” nem capaz de “fazer época”:
O motor elétrico, por exemplo, permitiu a manufatura com linhas de montagem e de massa, que contribuiu para a formação da classe operária industrial, e levou a categorias inteiras de novos produtos (...). A microeletrônica e as novas tecnologias da informação podem augurar mudanças comparáveis, mas a biotecnologia, que é principalmente uma tecnologia de substituição, provavelmente não o fará. (BUTTEL, 1995, p. 34)64 Em primeiro lugar, a importância futura da biotecnologia estará na racionalização de um grupo de setores manufatureiros primários e tradicionais, em paralelo com a transição para uma economia mundial baseada em parte considerável na nova microeletrônica e nas tecnologias da informação. Em segundo lugar, a biotecnologia será uma tecnologia subordinada, subsidiária ou derivativa das relações sociais das tecnologias da informação predominantes. (BUTTEL, 1995, p. 40)65
Uma resposta vigorosa a Buttel partiu de Annemieke J.M. Roobeek, para quem a
biotecnologia é integrante pleno da associação de tecnologias fundamentais (core
technologies), “que não só alteram dramaticamente a base tecno-industrial corrente como
também fazem pressão sobre a estrutura sócio-institucional existente para se ajustar a uma
nova ordem de manufatura, ação, consumo e comunicação” (ROOBEEK, 1995, p. 63).66
Sua visão é a de que a aparente subordinação da biotecnologia decorre de ser ela ainda
“embrionária”, como a tecnologia de novos materiais (a terceira perna do tripé), situação
64 “The electric motor, for example, permitted mass, assembly-line manufacturing, which contributed to the formation of the industrial working class, and led to whole categories of new products (...). Microelectronics and the new information technologies may portend comparable changes, but biotechnology, which is principally a substitution technology, probably will not.” 65 “First, the future importance of biotechnology will lie in rationalization of a number of primary and traditional manufacturing sectors in tandem with the transition to a new world economy based in considerable part on new microelectronics and information technologies. Second, biotechnology will be a subordinate technology, subsidiary to or derivative from the social relations of the predominant technologies.” 66 “… which not only dramatically change the current techno-industrial base but also put pressure on the existing socio-institutional structure to adjust to a new order of manufacturing, acting, consuming and communicating”.
54
que deverá alterar-se com a futura dependência do campo informático em relação a
inovações biotecnológicas (biochips, redes neurais) e o contínuo esfumaçamento –
provocado pela complementaridade e pela convergência dessas três tecnologias – das
fronteiras setoriais estipuladas para descrever um regime anterior de produção, o fordismo.
Mais, ainda: o que define essa tríade como unidade histórica e técnica, como o motor da
transição para uma nova economia, é a sua capacidade de oferecer soluções para o que
Roobeek chama de “problemas de controle” do fordismo (o que hoje talvez se designasse
como uma questão de sustentabilidade, ou um eco da temática do risco em Ulrich Beck),
aportando miniaturização, flexibilidade, desmaterialização, minimização de rejeitos e
design customizado: “Nossa tese é que a ascensão dessas três novas tecnologias
fundamentais, entre as quais está a biotecnologia, não é um acidente, mas sim que a
dinâmica por trás dessa ascensão deve ser buscada nas limitações dos conceitos tecno-
econômicos dominantes precedentes” (ROOBEEK, 1995, p. 73).67 Eis como a
biotecnologia contribui ou deverá contribuir para a estabilidade do tripé:
O poder derivado da capacidade de controlar e manipular a natureza, assim como o benefício da baixa intensidade energética e da possibilidade de usar materiais substituíveis como material de base da indústria, deixa fora de dúvida que muitos setores ou usarão ou serão influenciados pelas novas técnicas biotecnológicas. Já 40% dos bens produzidos em países industrializados têm base biológica. As novas aplicações certamente elevarão ainda mais essa cifra. 68 (ROOBEK, 1995, p. 73)
Em verdade não chega a instaurar-se uma contradição entre as visões representadas
por Buttel e Roobeek. Ambos concordam em que a relevância econômica atual da
biotecnologia é incomparável com a da informática, e o próprio Buttel admite que eventuais
inovações futuras, aí sim “revolucionárias”, podem alterar a situação que o compele a
subordinar aquela a esta. Outra uniformidade aparente entre os dois lados, esta mais
surpreendente, está no fato de que ambos parecem ter em mente o paradigma da agricultura,
quando abordam a biotecnologia, em particular as variedades vegetais geneticamente
67 “Our thesis is that the rise of the three new core technologies, of which biotechnology is one, is not an accident, but the dynamics behind the rise are to be found in the limitations of the preceding ruling techno-economic concepts.” 68 “The power derived from the ability to control and manipulate nature as well as the benefit of low energy intensity and the possibility of using replaceable materials as an industrial base material, put it beyond doubt that many sectors will either use or be influenced by the new biotechnological techniques. Already 40 per cent
55
modificadas que então debutavam com alarde no mercado norte-americano do agronegócio.
Hoje, uma imagem-feixe mais representativa da biotecnologia talvez fosse encontrada na
genômica, que, com a promessa sempre reiterada de revolucionar diagnósticos e
tratamentos de saúde, pode vir a derrubar as objeções de Buttel quanto ao
“substitucionismo” da biotecnologia e à sua alegada incapacidade de penetrar no dinâmico
setor de serviços. O autor chega a conceder que a biotecnologia possa levar a grandes
mudanças na indústria de fármacos e que esse seria o único setor realmente dinâmico
passível de ser afetado por ela (BUTTEL, 1995, p. 36-37), mas prevê que este também
entrará em declínio, com a derrocada do welfare state e a conseqüente desmobilização dos
serviços nacionais de saúde pública – no que é contraditado por Gerardo Otero, que
assinala o fato de custos de assistência médica abocanharem fatias cada vez maiores do
produto interno bruto dos Estados Unidos, por exemplo, acima de 10% (OTERO, 1995, p.
48). De todo modo, a conclusão de Buttel é que a biotecnologia não terá como surtir efeito
econômico de peso nas próximas duas ou três décadas, o que não se mostra de todo
incompatível com a visão de Roobeek, para quem isso fatalmente ocorrerá, a partir de
horizonte de tempo similar. Um enfatiza o aspecto negativo, que a biotecnologia terá
dificuldade para tornar-se economicamente hegemônica nesse prazo; a outra, positiva,
prevê que isso acontecerá ao cabo do período.
Há também muita concordância entre ambos no diagnóstico de que as grandes
transformações a serem induzidas pela biotecnologia terão caráter sobretudo social, por
assim dizer extratécnico. De acordo com Buttel, “a defesa da natureza não-revolucionária
da biotecnologia não deve ser vista como o equivalente de argumentar que a biotecnologia
(...) desempenhará papel sem importância na mudança social, ou que a biotecnologia
deixará de ter grandes efeitos sociais” (BUTTEL, 1995, p. 29).69 Já para Roobeek, o viés
meramente econômico e schumpeteriano não tem a capacidade de esgotar a compreensão
das relações entre transformação técnica e mudança social, o que diminui de modo
dramático a relevância do questionamento da biotecnologia sob esse ponto de vista
of the goods produced in the industrial countries are biologically based. The new applications are sure to raise this figure even further.” 69 “a claim of the nonrevolutionary nature of biotechnology should not be seen as equivalent to arguing that biotechnology (...) will play an unimportant role in social change, or that biotechnology will fail to have major social effects”.
56
reducionista. Do ângulo do futuro, ela tem mais influência a exercer do que permite a esfera
acanhada da produção:
Mas, embora as novas tecnologias fundamentais [core technologies] possam fornecer uma resposta a muitas das limitações técnicas do fordismo, a própria tecnologia nunca poderá ser uma cura para um conceito de controle em declínio, uma vez que os problemas do fordismo não são puramente técnicos, mas estão relacionados com mudanças no quadro político-econômico, assim como as normas e valores cambiantes no contexto social mais amplo e o ambiente. 70 (ROOBEEK, 1995, p. 81)
“Para além do substitucionismo, a engenharia genética está levando cientistas e
industrialistas a reconceituar o que é vida”, escreve OTERO (1995, p. 55).71 Com ele
concorda Freeman, outro participante da polêmica:
Embora os efeitos econômicos dessa nova atividade possam ser limitados e seja provável que se desenvolva primeiramente como um “serviço” oferecido por firmas especializadas a governos e outras indústrias, ela suscita questões muito fundamentais de comportamento pessoal e social, assim como legais.72 (FREEMAN, 1995, p. 22)
2.3 Genômica e sociedade
A biotecnologia só se torna protagonista inconteste, assim, quando se encontram em
tela seus efeitos sociais e culturais, mais marcadamente as promessas e os temores que
suscita. Foram esses os ingredientes que atraíram tanta atenção pública para a divulgação
dos resultados preliminares do Projeto Genoma Humano (de ora em diante referido como
PGH) e da iniciativa concorrente da empresa privada norte-americana Celera que fizeram
de 2000 o aclamado Ano do Genoma. Entre o anúncio da finalização de um “rascunho” da
seqüência de “letras” químicas que compõem o repertório de especificações para o
70 “But although new core technologies can provide an answer to many of the technical limitations of Fordism, technology itself can never be a cure for a concept of control in decline, for the problems of Fordism are not purely technical, but are related to changes in the political-economical framework, as well as the changing norms and values in the broader social context and the environment.” 71 “Besides substitutionism, genetic engineering is leading scientists and industrialists to reconceptualize what life is.”
57
desenvolvimento de um ser humano, numa cerimônia para a imprensa em 26 de junho de
2000 de que participaram o presidente norte-americano Bill Clinton e o premiê britânico
Tony Blair (este por meio de um link de satélite), e a publicação dos artigos científicos com
os dados propriamente ditos, em meados de fevereiro de 2001,73 a genética ocupou o
proscênio da ciência como empreendimento épico, atividade do espírito que descortina o
enredo oculto da natureza – nos casos de retórica mais inflamada, da própria natureza
humana. De posse do que se supõe ser o código-fonte da espécie, a humanidade estaria em
posição de começar a subjugar uma pletora de doenças, a principiar pelo câncer, atacando-
as com suas próprias armas, as da bioquímica, e conquistando por sua força um território de
grande importância simbólica no reino da necessidade a que (ainda) estão confinados os
homens.
A aparência pública do genoma humano, assim, é hoje fundamentalmente positiva e
beneficiária da promessa de vastos benefícios, mas não imune à ansiedade que ronda as
tecnologias e suas aplicações, pois a genômica nasce no epicentro das biotecnologias e de
suas ramificações no domínio pantanoso da engenharia genética. Assim como a internet,
constituída a partir de uma rede criada com fins estratégico-militares,74 o PGH também traz
do berço essa marca de ambivalência social e de fruto do intervencionismo estratégico na
esfera da tecnociência. Como programa de pesquisa, teria surgido de um insight de cunho
prometéico do Nobel de Medicina italiano Renato Dulbecco, que presidia o prestigiado
Salk Institute. Segundo seu próprio relato:
O Projeto Genoma é ainda muito jovem. Teve início em 1986, a partir de um artigo de minha autoria, publicado na Science (...). Tratava-se de uma reflexão: os longos anos empregados no estudo do câncer haviam me convencido de que, para vencê-lo, seria necessário um conhecimento profundo dos genes que, quando alterados, induzem as células a se tornarem malignas. (DULBECCO, 1997, p. 90)
72 “Although the economic effects of this new activity may be limited and it is likely to develop first as a ‘service’ provided by specialized firms to government and other industries, it raises very fundamental issues of personal and social behaviour as well as legal issues.” 73 Em edições especiais dos periódicos científicos Nature (v. 409, 15.fev.01, pp. 745-964), com os resultados do PGH, e Science (v. 291, 16.fev.01, pp. 1145-1434), com os dados da Celera. 74 A Arpanet, montada no final dos anos 60 por um órgão do Departamento de Defesa norte-americano, a Advanced Research Projects Agency (ARPA). Esta, por sua vez, havia sido criada para suscitar a reação tecnológica dos Estados Unidos ao feito soviético do lançamento do satélite Sputnik, em 1957, segundo relato de Michael Hauben, da Universidade Columbia, em Behind the Net (www.dei.isep.ipp.pt/docs/arpa).
58
Institucionalmente, porém, o PGH começara a surgir em outubro de 1985, num
escritório do Departamento de Energia (DOE, o mesmo que conduzira o Projeto
Manhattan) chefiado pelo físico Charles DeLisi, 75 que teria tido uma iluminação correlata à
de Dulbecco: criar um instrumento para comparar, letra por letra, o patrimônio genético dos
pais com o de uma criança portadora de doença genética, para tentar detectar aquelas
alterações envolvidas no surgimento da doença. O PGH, sugere sua gênese, é fruto de um
arrefecimento da Guerra Fria e da necessidade de formular um projeto de pesquisa
biológica big science à altura do Projeto Manhattan e capaz de concorrer com os imensos
aceleradores de partículas que estavam então em voga:
O departamento apoiou DeLisi quando, em 1986, ele apresentou um plano para um ambicioso programa de genoma humano de cinco anos no DOE (...). Em setembro de 1987, o secretário de Energia determinou o estabelecimento de centros de pesquisa sobre o genoma humano em três dos laboratórios nacionais do departamento: Los Alamos, Livermore e Lawrence Berkeley. A investida do departamento no trabalho sobre o genoma encontrou apoio entusiasmado do senador Pete Domenici, do Novo México, um defensor tenaz dos laboratórios armamentistas nacionais de seu Estado que se preocupava com o destino dessas instituições no advento da paz. Domenici pôs o Projeto Genoma Humano na agenda do Congresso ao conduzir audiências públicas sobre a questão no mesmo mês da determinação do DOE e ao propor um projeto de lei com vistas a promovê-la em conexão com uma revitalização geral dos laboratórios nacionais.76 (KEVLES, 1993, p. 23)
As prioridades nacionais dos EUA parecem ter se deslocado nos anos 1980 e 1990. A Guerra nas Estrelas (o pretendido plano de construir um sistema estratégico de defesa por mísseis baseado no espaço) e o Supercolisor Supercondutor (uma enorme instalação para esmagar átomos que havia sido parcialmente construída no Texas) foram abandonados, e um plano para mapear e seqüenciar o genoma humano ganhava apoio. Objetivos de defesa nacional e física nuclear saíam de moda; entravam necessidades humanas de saúde e biologia molecular. 77 (ZWEIGER, 2001, p. 54)
75 Office of Health and Environment, cuja divisão de biociências no Los Alamos National Laboratory havia estabelecido em 1983 o GenBank (KEVLES, 1993, p. 18), até hoje o principal banco de dados para seqüências de DNA. 76 “The department backed DeLisi when, in 1986, he advanced a plan for an ambitious five-year DOE human genome program (...). In September 1987, the secretary of energy ordered the establishment of human genome research centers at three of the department’s national laboratories: Los Alamos, Livermore, and the Lawrence Berkeley Laboratory. The department’s move into genome work found enthusiastic support from Senator Pete Domenici, of New Mexico, a staunch supporter of the national weapons laboratories in his state who was himself worried about the fate of these institutions should peace break out. Domenici put the human genome project on the congressional agenda by holding hearings on the issue in the same month as the DOE’s order and introducing a bill designed to advance it in connection with a general revitalization of the national laboratories.” 77 “U.S. national priorities appear to have shifted in the 1980s and the 1990s. Star Wars (the purported plan to build a space-based strategic missile defense system) and the superconducting supercollider (an enormous atom-smashing facility that had been partially constructed in Texas) were abandoned, and a plan to map and
59
DeLisi e seu colega David Smith viram o seqüenciamento do genoma humano como um meio de cumprir a missão do DOE de entender os efeitos biológicos da radiação (um resquício da era pós-explosões atômicas de Hiroshima e Nagasaki) e de utilizar mais extensivamente os laboratórios do DOE. 78 (ZWEIGER, 2001, p. 57)
Além dessa espécie de pecado original, que a afasta claramente do paraíso ético da
ciência pura e desinteressada, a genômica e seu séquito de biotecnologias ocupam hoje
posto central e nevrálgico na representação social da tecnociência, o estágio atual da
pesquisa organizada que, à diferença do século XIX, engata a investigação científica no
motor do avanço técnico-produtivo, enquadrando-se decididamente na estratégia
materialista de pesquisa apoiada na valorização moderna do controle de que fala LACEY
(1998, 1999). Isso põe por terra o sistema de dicotomias que dava solidez à sua
representação tradicional: ciência vs. técnica, natureza vs. sociedade, vida vs. tecnologia.
Uma ciência que não se limita a explicar coisas, mas já o faz em condições de mobilizá-las,
apropriá-las e modificá-las no processo de produção. Qual outro ramo se prestaria melhor
ao papel de protótipo dessa tecnociência impetuosa, senão aquele que invade com um
projeto utilitarista o âmago mesmo dos seres vivos?
Como a maior parte da ciência moderna, [o PGH] está profundamente imbricado com avanços tecnológicos no sentido mais literal (...). O segundo sentido de tecnológico é o mais importante e interessante: o objeto a ser conhecido – o genoma humano – será conhecido de modo a poder ser alterado. Essa dimensão é cabalmente moderna; pode-se até dizer que ela exemplifica a definição de racionalidade moderna. Representação e intervenção, conhecimento e poder, entendimento e reforma estão embutidos desde o início como objetivos e meios simultâneos.79 (RABINOW, 1992, p. 236)
O potencial dissolvedor de valores e representações contido na engenharia genética
parece inesgotável. Os anos 1980 e 1990 estiveram repletos de controvérsias públicas e
sequence the human genome gained support. National defense and nuclear physics objectives were out of favor; human health needs and molecular biology were in.” 78 “DeLisi and colleague David Smith saw human genome sequencing as a means to fulfill the DOE’s mission of understanding the biological effects of radiation (a carry-over from the post-Hiroshima and Nagasaki bomb blast era) and of more fully utilizing the DOE-administered labs.” 79 “Like most modern science, it is deeply imbricated with technological advances in the most literal way (...). The second sense of technological is the more important and interesting one: the object to be known –the human genome– will be known in such a way that it can be changed. This dimension is thoroughly modern; one could even say that it instantiates the definition of modern rationality. Representing and intervening, knowledge and power, understanding and reform, are built in, from the start, as simultaneous goals and means.”
60
jurídicas desencadeadas por movimentos bruscos e imprevisíveis – diante da marcha lenta
da esfera pública – oriundos dos laboratórios de pesquisa das universidades e das life
sciences companies às quais aqueles se associam em escala crescente. Do patenteamento de
seres vivos, inaugurado nos Estados Unidos em 1980 com a decisão da Suprema Corte em
favor de Ananda Chakrabarty e da General Electric, protegendo uma bactéria modificada
para degradar petróleo derramado (RIFKIN, 1998, p. 41-43), à disputa jurídico-regulatória
sobre alimentos transgênicos no Brasil, a genética se revelou em duas décadas uma central
perturbadora de convenções e convicções em vários domínios da vida social: economia,
direito, saúde, ambiente, reprodução, alimentação.
Para incrementar a mística que cerca o genoma não faltou nem mesmo o tempero
ideológico da dicotomia estatismo vs. privatização, adicionado à polêmica em maio de 1998
com a criação da Celera, empresa resultante da associação entre a Perkin Elmer (fabricante
de equipamentos para laboratórios de biologia) e Craig Venter, cientista que se notabilizou
no início dos anos 1990 tanto pela invenção de técnicas para o seqüenciamento automático
de DNA quanto por apresentar milhares de pedidos de patentes sobre fragmentos de genes
humanos, em 1992 (ZWEIGER, 2001, p. 62-63). Venter pôs em crise o PGH oficial e
acadêmico quando anunciou que a joint-venture Celera completaria a soletração do genoma
humano até 2001, quatro anos antes do previsto por seus concorrentes nas universidades e
institutos públicos – promessa cumprida à risca, ainda que o PGH tenha sido capaz de
alcançá-lo. Em jogo nessa disputa estavam bilhões de dólares do que então se imaginava
ser o futuro mercado para informações e licenças cruciais para a indústria farmacêutica
desenvolver uma nova geração de medicamentos sob medida para pacientes, a partir da
análise de suas peculiaridades genéticas – um ramo econômico-tecnocientífico novo, já
batizado como farmacogenômica. Embora raros produtos lucrativos tenham de fato saído
dessas companhias de alta biotecnologia (NIGHTINGALE e MARTIN, 2004. p. 566), sete
líderes do setor nos EUA somavam no final de 2000 um valor de mercado total de US$ 71
bilhões (ZWEIGER, 2001, p. 168), boa medida do potencial projetado por investidores para
a nova indústria.
2.4 Biossocialidade
61
O que para um entusiasta da genômica como Gary Zweiger aparece como signo de
pujança, ou seja, da capacidade de subjugar males que afligem o homem, para outros
autores, simetricamente, pode ser portador de maus presságios. Para toda uma corrente
crítica das biotecnologias, a informação genética que jorra dos seqüenciadores automáticos
do PGH e flui pela internet para o GenBank é menos um conteúdo de conhecimento do que
precondição para a abertura do domínio da vida à lógica proprietária da reprodução
capitalista, por intermédio da propriedade intelectual, processo que já foi comparado com
um cercamento (enclosure) do acervo biológico comum (biological commons). Embora não
se restrinja ao genoma humano, pois está em curso uma corrida internacional pelo
seqüenciamento e patenteamento do DNA de inúmeros organismos, do camundongo e da
mosca drosófila às bactérias como a Xylella fastidiosa (esta no Brasil, em projetos genoma
fomentados pela Fundação de Amparo à Pesquisa do Estado de São Paulo-Fapesp), é sobre
a pessoa humana que se fariam sentir os efeitos mais desarticuladores dessa espécie de
colonização. Desmaterializado e reduzido à informação entesourada no diminuto recôndito
dos núcleos de suas células, o indivíduo estaria em processo de dissolução:
Não é só o cidadão que, reduzido à condição de consumidor cativo, fica superexposto e tem a sua privacidade violada. Na verdade, na nova economia, a própria existência do indivíduo é posta em questão. Aqueles que processam a sua vida descendo a níveis microscópicos não o concebem mais como sujeito, mas sim como gerador de padrões informacionais que é preciso manipular; aos olhos de quem opera com o valor do tempo de vida [lifetime value], o indivíduo dissolve-se em fluxos de dados. Entretanto, não é só no plano da informação digital que o indivíduo desaparece, –também no plano da genética assistimos à sua desintegração. (SANTOS, 2000, p. 37)
Vê-se assim, dessa perspectiva, que por intermédio da noção de informação (digital
e genética) a genômica se reencontra com a informática, agora concebidas não mais como
princípios concorrentes na capacidade de explicar a desconcertante transformação social
contemporânea, mas como o par de trilhos gêmeos que determinaria o curso do bólido
informacional (ver capítulo 5). Se redes de computadores ubíquas passam a condicionar e
potencializar de forma inaudita as trocas desmaterializadas entre os homens, segundo essa
visão, a bioinformática aliada à engenharia genética permitiria interferir nas próprias bases
(até então incondicionadas, fruto da interação ao acaso de forças da natureza) da
62
constituição da pessoa, num mercado de serviços eugênicos ou ortogênicos (um passo além
da farmacogenômica, que leva da correção a posteriori do “mau funcionamento” de certos
genes, por meio de drogas, à prevenção de sua transmissão intergerações). Dentro dessa
concepção, a genômica adquiriria o peso de um fator estruturante da sociedade e de sua
transformação, menos pela ponta da base econômica do que pelo flanco da formação dos
sujeitos e, por seu intermédio, da sociabilidade (sobretudo com a crescente e vigorosa
crença nas promessas deterministas de identificar e até manipular genes associados com
comportamentos). Teria efeitos não apenas simbólicos sobre a cultura, como no caso dos
valores, mas efeitos que poderiam ser materialmente inscritos nos seus produtores.
A abordagem mais produtiva para avançar no entendimento dos efeitos sociais da
genômica não é fazer dela, da biotecnologia ou de sua convergência com a informática
fatores determinantes e centrais da estrutura e da mudança social, nem decidir de antemão
que sua influência será necessariamente restritiva das potencialidades e aspirações
humanas, mas adotar a atitude que Paul RABINOW (1992, p. 237) qualifica como
“etnográfica”, ou seja, descrever como se transformam as práticas sociais e éticas à medida
que o PGH avança. Sua resposta é que o binômio genômica/engenharia genética se afigura
muito mais poderoso para entranhar-se no tecido social do que as práticas médicas
tradicionais e as muitas analogias biologizantes (como no caso do darwinismo e da
eugenia) empregadas para explicar a mudança social:
A nova genética deixará de ser uma metáfora biológica para a sociedade moderna e se tornará, em lugar disso, uma rede circulatória de termos de identidade e sítios de restrição, em torno dos quais e por meio dos quais um tipo verdadeiramente novo de autoprodução emergirá, que eu chamo de “biossocialidade’’. Se sociobiologia é a cultura construída sobre a base da metáfora da natureza, então na biossocialidade a natureza será modelada a partir da cultura entendida como prática.80 (RABINOW, 1992, p. 241)
Parafraseando um velho lugar comum do pensamento social, seria o caso de
concluir aqui que Edward O. Wilson, criador do termo “sociobiologia” e autor de On
human nature (WILSON, 1978), se limitou a interpretar a biologia do homem (tomando-o
portanto como um absoluto, como o incondicionado), quando se trata agora de modificá-la.
80 “The new genetics will cease to be a biological metaphor for modern society and will become instead a circulation network of identity terms and restriction loci, around which and through which a truly new type of
63
O que Rabinow tem em foco é a emergência de novas formas de circunscrever e promover
conceitos de normalidade, em que as noções de handicap ou doença genética ganham
importância crescente, dentro do que Robert Castel (citado por RABINOW, 1992, p. 243)
chama de “administração tecnocrática de diferenças”, em que “administração” talvez se
deva entender também no sentido prescritivo, médico, do termo:
Prevenção, então, será a vigilância não do indivíduo mas de prováveis ocorrências de doenças, anomalias, comportamento desviante a ser minimizado e comportamento saudável a ser maximizado. Estamos parcialmente nos afastando da velha vigilância face-a-face de indivíduos e grupos sabidamente perigosos ou doentes (para propósitos disciplinares ou terapêuticos), em direção à projeção de fatores de risco que desconstruam e reconstruam o sujeito individual ou grupal.81 (RABINOW, 1992, p. 242)
Mais que uma possibilidade aberta pela genética, a ser realizada num futuro
mercado de serviços ortogenéticos (pelas vias da terapia gênica ou da biópsia genética de
embriões para sua seleção, e não mais no quadro de programas centralizados e mandatórios
de eugenia), tal administração representa para alguns até mesmo um imperativo de ordem
ética. Assim como propagandistas dos alimentos geneticamente modificados argumentam
que se contrapor a eles equivale a abortar a solução tecnológica para o problema da fome
mundial (um exagero evidente, que omite ser esse um problema mais distributivo do que
tecnológico), deixar de pesquisar e pôr em prática as geneterapias seria um crime de lesa-
humanidade. Dulbecco acredita até mesmo que exista algo como uma injustiça genética: “A
responsabilidade pelos indivíduos deficientes deve ser assumida pela sociedade, não porque
ela tenha alguma culpa pela injustiça genética, mas porque o pool que lhes forneceu os
genes anômalos pertencem à coletividade humana” (DULBECCO, 1997, p. 210).
2.5 Nova Era Genômica?
autoproduction will emerge, which I call ‘biosociality’. If sociobiology is culture constructed on the basis of a metaphor of nature, then in biosociality, nature will be modeled on culture understood as practice.” 81 “Prevention, then, is surveillance not of the individual but of likely occurrences of diseases, anomalies, deviant behavior to be minimized and healthy behavior to be maximized. We are partially moving away from the older face-to-face surveillance of individuals and groups known to be dangerous or ill (for disciplinary or therapeutic purposes), toward projecting risk factors that deconstruct and reconstruct the individual or group subject.”
64
Não é decerto a primeira vez que se busca num complexo ou fator tecnológico – dos
tipos móveis à bomba atômica – o princípio organizador de sociedades e toda uma época
(ou, pelo menos, como sua metáfora capaz de iluminá-las). É rica a literatura no gênero,
mas um de seus primeiros expoentes, Lewis Mumford, mesmo tendo sucumbido à tentação
intelectual de enfeixar a longa argumentação de Technics and civilization sob a
denominação histórica Era da Máquina (que soa inapelavelmente datada, diante de
tecnologias tão pouco mecânicas quanto a informática e a genômica), já alertava numa
introdução de 1962 para os riscos de entronizar essa metáforas sob o manto de conceitos ou
princípios explicadores:
Ao apresentar o desenvolvimento técnico no cenário de uma ecologia social mais geral, evitei o viés corrente de fazer dele o fator dominante e mais importante, como fazem as pessoas ainda hoje quando caracterizam ingenuamente nosso período como Era do Jato, Era Nuclear, Era do Foguete ou Era Espacial.82 (MUMFORD, 1963, p. xiii)
Cabe agora, diante desse alerta, retomar a questão de fundo que norteia os dois
primeiros capítulos deste trabalho: pode uma tecnologia como a genômica definir ou
condicionar significativamente uma forma de organização social, ou no mínimo a direção
de sua mudança? Pode-se dizer que sim, mas somente se tal conclusão se ativer ao aspecto
socialmente ontológico da genômica humana e não extrapolar com isso os limites de sua
condição de um componente entre outros da mudança social, como se procurou demonstrar
acima. Erigir essa tecnologia em pilar refundador da sociedade implicaria desconhecer a
sua relativa desimportância para a esfera da economia, ao menos no horizonte das próximas
décadas (e diante da performance ainda acanhada do setor farmacogenômico). Renunciar
antecipadamente à tentação de cunhar uma Era do Genoma não isenta o pensamento social,
contudo, de captar o potencial dessa tecnociência em fase de constituição para influenciar e
mesmo constituir novas formas de sociabilidade. Seu papel, no caso, passa a ser o de
inventariar as implicações e antecipar-lhes os contornos, subsidiando com isso um debate
esclarecido sobre as conseqüências da tecnologia, antes que elas se tornem fatos
consumados e possam vir a ser percebidas como um destino – ou uma desgraça – que se
abate sobre os homens, e não mais como parte de uma obra coletiva para enfrentar o
65
império da necessidade. Como se verá a seguir, essa missão tem sido abraçada de forma
decidida, ainda que não conclusiva, por pensadores dos mais variados quadrantes, movidos
sobretudo pela interrogação sobre os efeitos das biotecnologias sobre a tradicional fronteira
entre natureza e cultura.
2.6 A dicotomia Natureza vs. Cultura
Poucas coisas na filosofia e nas humanidades têm uma história tão estabelecida – e
ao mesmo tempo tão problematizada – quanto a distinção entre vida natural e vida em
sociedade, ou, em menos palavras, entre Natureza e Cultura. Pode-se mesmo dizer que essa
dicotomia repousa na base do conjunto de disciplinas nascentes que, a partir do final do
século XIX, viria a ficar conhecido como ciências sociais (sociologia, antropologia, ciência
política). Considere-se, a título de exemplo, a célebre conceituação de fato social oferecida
em 1895 por Émile DURKHEIM:
Aqui está, portanto, um tipo de fatos que apresentam características muito especiais: consistem em maneiras de agir, pensar e sentir exteriores ao indivíduo, e dotadas de um poder coercivo em virtude do qual se lhe impõem. Por conseguinte, não poderiam ser confundidos com os fenômenos orgânicos, visto consistirem em representações e ações; nem com os fenômenos psíquicos, por estes só existirem na consciência dos indivíduos, e devido a ela. Constituem, pois, uma espécie nova de fatos, aos quais deve atribuir-se e reservar-se a qualificação de sociais. Tal qualificação convém-lhes, pois, não tendo o indivíduo por substrato, não dispõem de outro para além da sociedade (...). (1978, p. 88)
Infere-se daí que a vida em sociedade pressupõe, decerto, a existência puramente
orgânica, por assim dizer animal, mas dela prescindiria como categoria explicativa na
medida em que o fato social se realiza num plano superior, tecido pelas determinações de
uma substância diversa, supra-individual, mas ainda assim constituída de maneiras de agir,
pensar e sentir: representações e ações. Numa palavra, cultura.
Décadas depois, já no contexto da antropologia, a distinção será retomada em
chave ligeiramente dissonante por Claude LÉVI-STRAUSS (1982), numa reflexão sobre a
82 “In presenting technical development within the setting of a more general social ecology, I avoided the current bias of making it the dominant and all-important factor, as people still do today when they naively characterize our period as the Jet Age, the Nuclear Age, the Rocket Age, or the Space Age.”
66
constatação desconcertante do tabu do incesto, constatação esta que desloca a esfera natural
do plano orgânico-individual para o da espécie, no que ela tem de universal. Para o autor,
“a proibição do incesto apresenta, sem o menor equívoco e indissoluvelmente reunidos, os
dois caracteres nos quais reconhecemos os atributos contraditórios de duas ordens
exclusivas, isto é, constituem uma regra, mas uma regra que, única entre todas as regras
sociais, possui ao mesmo tempo caráter de universalidade” (LÉVI-STRAUSS, 1982, p. 47).
A proibição do incesto é a única regra “natural” entre as regras sociais. Trata-se de um
fenômeno que apresenta, lado a lado, caracteres de duas ordens excludentes, a natureza e a
cultura. Embora professe essa unidade fundamental entre espontaneidade e norma, tendo o
incesto como ponto de articulação, o que afasta a noção de uma cisão ontológica entre
Natureza e Cultura na condição humana, parece claro que Lévi-Strauss admite-a como
dicotomia ao menos num plano metodológico, para a etnografia: seu objeto de estudo são
as formas culturais, a diferença, e esta se explica apenas e tão-somente na esfera da própria
cultura, sem necessidade ou possibilidade de recurso à biologia humana. A questão de uma
eventual predeterminação biológica do leque de possibilidades culturais não se coloca; o
que está em causa é o particular, não tanto o universal impregnado na natureza.83
Reconhece, como não pode deixar de ser, a continuidade ontológica entre natureza e cultura
humanas, ao mesmo tempo em que advoga a autonomia do fato cultural.
Bater-se pela independência do objeto das ciências sociais tem como contrapartida
reservar o domínio do natural para um ramo diverso de investigação, apropriadamente
designado como ciências naturais – no que diz respeito aos seres humanos, o campo da
biologia e da psicologia experimental (hoje talvez se prefira a designação de neurociência).
Objetos diversos, objetivos e métodos idem, como resume Renato Janine RIBEIRO (2003,
p. 18): “... as ciências naturais terão, como conceito-chave, o de natureza (physis) – algo
que se pretende descobrir, controlar, manipular. E as ciências humanas se concentrarão no
conceito de cultura ou de educação, entendendo-se que o ser humano é formado,
construído, em vez de estar pronto ou dado”.
É certo que essa repartição de competências capitaneada pelas ciências sociais não
foi aceita sem combate por aqueles que vêem as ciências experimentais como as únicas
dignas desse nome, uma vez que equacionam natureza física e mensurável com
83 Se bem que Lévi-Strauss não perde de vista um outro universal, o da forma (Estrutura), mas esse aspecto
67
objetividade, criando com isso a exigência de que as ciências humanas ou se revisem
teórica e metodologicamente para ascender à objetividade, ou se deixem reduzir
(fundamentar) ao que de objetivo for possível descobrir e verificar sobre a natureza humana
em seus vários aspectos. Foi esse o projeto que animou a polêmica sociobiologia em
meados dos anos 1970: desvendar os tipos e invariantes comportamentais selecionados pela
evolução e transmitidos pelos genes, supostamente a única maneira de conferir uma base
empírica confiável às humanidades (WILSON, 2000). Com polêmica consideravelmente
menor, após um laborioso aggiornamento ao longo de duas décadas, o projeto
sociobiológico renasce nos anos 1990 sob a denominação de psicologia evolucionista, com
ataques virulentos contra o que TOOBY e COSMIDES (1992) e PINKER (2002)
pejorativamente qualificam e descartam como SSSM (standard social science model, ou
modelo padrão da ciência social). Trata-se aí de negar toda e qualquer separação de origem
durkheimiana entre os planos natural (entendido por eles como o do indivíduo e seu cérebro
moldado pela evolução) e social (agregado de indivíduos), esterilizando-a com a pá de cal
reducionista: “A história e a cultura (...) podem ser fundadas na psicologia, que pode ser
fundada na computação, na neurociência, na genética e na evolução” (PINKER, 2002, p.
69).84
2.7 As biotecnologias e a culturalização da natureza
A psicologia evolucionista granjeia hoje considerável audiência no cenário
acadêmico anglo-saxão, mas decerto não é de seu vigor revisionista e naturalizante que tem
fluído o principal da caudalosa torrente de interrogações sobre a estabilidade da fronteira
entre Natureza e Cultura. Suscitada sobretudo pela explosão das biotecnologias e da
genômica na década de 1990, proliferou em todas as partes uma literatura entre perplexa e
alarmada com o estatuto e o futuro da vida, em geral, e da natureza humana, em particular,
diante da insidiosa ação corrosiva de enzimas de restrição, seqüenciadores automáticos de
DNA e outras ferramentas da tecnociência biológica que as ciências sociais acreditavam
não será discutido aqui. 84 “History and culture (...) can be grounded in psychology, which can be grounded in computation, neuroscience, genetics, and evolution.”
68
seguramente desterradas do lado de lá da cerca epistemológica que haviam erguido em
torno de si mesmas. Surpreendendo até mesmo aqueles que não haviam perdido
inteiramente de vista a marcha batida das engenharias genética e celular, de uma hora para
a outra o mundo se viu povoado de genomas, clones, transgênicos e outras quimeras. Não
parece de fato haver muita coisa em comum entre os vários focos de emergência dessa
preocupação – além da fonte de provocação na hybris dos laboratórios e do parentesco com
a reflexão sobre o alcance sistêmico da questão ambiental.85
Quando tudo que até então contara como natural e base da vida social – a própria
biologia humana – se torna objeto das tecnologias reprodutiva, celular ou genômica,
abrindo-se assim para a esfera da manipulação, criam-se as condições para a construção
lingüística e prática de oxímoros como engenharia genética e inteligência artificial. Ocorre
como que uma culturalização da natureza, sua invasão por artefatos, num processo de
tecnologização que por assim dizer a desnaturaliza (um pouco como a racionalização
weberiana leva ao desencantamento do mundo), retirando-lhe com isso a condição de
fundamento e referência externa do social. Diante de um ser vivo, já não subsiste mais a
certeza de que se depara com um ser formado; cada vez mais, insinua-se a possibilidade
concreta de que se trate de algo ao menos parcialmente construído: “A natureza se torna um
departamento da empresa humana, e nós descobrimos que ela jamais fora autônoma. A
distinção entre o natural e o cultural é revelada como a construção cultural que sempre
havia sido”,86 constata Marilyn STRATHERN (1992, p. 55). Para Ulrich BECK (1997, p.
8), é o “ambiente” (doravante com aspas) que “... na verdade não se encontra mais alheio à
vida social humana, mas é completamente penetrado e reordenado por ela. Se houve um dia
em que os seres humanos souberam o que era a ‘natureza’, agora não o sabem mais.”
Já da perspectiva de Bruno Latour, a emergência dessas quimeras representa uma
proliferação inaudita, sim, mas não de figuras inéditas do que ele chama de híbridos, os
não-humanos que participam como atores das redes ativas que os humanos estabelecem
85 Como se depreende de uma rápida enumeração de alguns autores que lhe dedicaram atenção: no Brasil, SANTOS (1998) e RIBEIRO (2003); fora dele, LATOUR (1994), RABINOW (1992), HARAWAY (1997), STRATHERN (1992), FRANKLIN (2000), BECK (1997), MARTINS (1996), HABERMAS (2001), FUKUYAMA (2002) e ZIZEK (2003) –entre outros. 86 “Nature becomes a department of human enterprise, and we discover that it was never autonomous. The distinction between the natural and the cultural is revealed for the cultural construction it always was.” De certo modo, é o espanto diante dessa descoberta (ou premonição) que alimentou a literatura de ficção de um Phillip K. Dick e o ensaísmo pós-feminista e ciborguiano de Donna HARAWAY (1997).
69
com a “natureza”, com a “realidade objetiva”, sobretudo a partir do laboratório.87 As
biotecnologias, para ele, são somente mais uma entre as muitas zonas ativas, ou
“barafundas” (LATOUR, 2001, p. 33), em que se explicita a conexão social com o que a
epistemologia tradicional teima em segregar como “natureza”: neuropsicologia,
primatologia, genômica etc. Esses hibridismos desconcertantes são o objeto por excelência
da sua vertente dos estudos científicos, dedicada a evidenciar a continuidade entre o que
epistemólogos e sociólogos prefeririam manter segregado: “Multiplicam-se os artigos
híbridos que delineiam tramas de ciência, política, economia, direito, religião, técnica,
ficção. Se a leitura do jornal diário é a reza do homem moderno, quão estranho é o homem
que hoje reza lendo estes assuntos confusos. Toda a cultura e toda a natureza são
diariamente reviradas aí”. (LATOUR, 1994, p. 8)
2.8 Culturalização vs. naturalização
Paradoxalmente, no momento mesmo em que vivem seu auge – com a finalização
do seqüenciamento do genoma humano e o desenvolvimento protótipo de clones de
mamíferos – as biotecnologias vêem instaurar-se uma crise no seio da atitude investigativa
que sempre esteve na base de seu bem-sucedido projeto de hegemonia entre as ciências
experimentais, atitude essa que se poderia resumir como naturalização. Por um lado, nunca
parece ter obtido tanta penetração na esfera pública, ao menos de países ocidentais, a noção
de que a ciência natural se encontra cada vez mais perto de explicar comportamentos
individuais e coletivos por intermédio de regularidades biológicas. Por outro, torna-se mais
e mais patente, ao menos para os poucos que se dão ao trabalho de refletir sobre a noção,
que a elucidação de tais mecanismos88 ao mesmo tempo solapa a fundamentação da cultura
a partir da natureza, na medida em que a marcha da tecnociência torna o contexto da
descoberta e da explicação inextricável do contexto da intervenção e da manipulação. Eis o
que se pode chamar de paradoxo do determinismo: como tomar por fundamento dos
87 “... esta cozinha repugnante onde os conceitos são refogados com ninharias” (LATOUR, 1994, p. 27). 88 Que fique de lado, por ora, a dúvida muito pertinente sobre sua real capacidade de explicar cabalmente quaisquer comportamentos.
70
comportamentos que compõem a cultura justamente aquilo (a natureza) que uma parte da
própria cultura (a tecnologia) já franqueou para suas maquinações?
O paradoxo assinalado não impede, porém, que a naturalização (ou determinismo
biológico) preserve e até aprofunde suas raízes, sobretudo depois de cooptada para integrar
os circuitos de reprodução do capitalismo. Quem talvez tenha formulado melhor essa perda
de condição de referência (vida natural) concomitante com o ganho de disponibilidade
técnica (vida reprogramável) foi Sarah Franklin, com seu conceito de Vida Própria (Life
Itself): 89
... a natureza se torna biologia, que se torna genética, por meio da qual a própria vida se torna informação reprogramável. [...] A transformação da própria vida no século XX teve a conseqüência de que a função basilar ou fundacional da natureza como um limite ou força em si mesma se tornou problemática e perdeu seu valor axiomático, a priori, como um referente ou uma autoridade, tornando-se um horizonte fugidio. A natureza, podemos dizer, foi des-tradicionalizada. [...] Isso não significa que seja menos útil, como já argumentamos, mas a natureza entrou em parafuso. No lugar antes ocupado por “fatos naturais” há um novo quadro de referência, um rebento da era genômica, que é a própria vida – agora órfã da história natural, mas cheia de promessa deslumbrante.90 (FRANKLIN, 2000, p. 190-191)
Convém reforçar aqui a idéia avançada por Strathern, entre outros: o que se esboroa
após a genômica e a avalanche de biotecnologias não é a “natureza exterior” ela mesma,
mas toda uma tradição epistemológica “purificadora” (LATOUR, 1994) que dependia de
mantê-la à distância, segregada de tudo que seja social e cultural. Sua construção central era
a noção de natureza humana, que poderia ser inferida, segundo os deterministas, da leitura
de comportamentos em princípio individuais (mas cujo agregado resultaria em
comportamento social) e explicada com base apenas nos invariantes fixados nos genes e
nos circuitos cerebrais pela seleção natural.
Diante da eficácia heurística e simbólica desse procedimento, pode-se talvez
diagnosticar que um certo mal-estar das ciências sociais, uma espécie de percepção de
89 Um aspecto interessante a explorar, noutro momento, seriam os pontos de contato entre essa concepção histórico-tecnológica de Franklin e a análise mais ético-política do conceito de vida nua por Giorgio Agamben em Homo sacer. 90 “... nature becomes biology becomes genetics, through which life itself becomes reprogrammable information. [...] The twentieth-century transformation of life itself has had the consequence that the grounding or foundational function of nature as a limit or force in itself has become problematic and lost its axiomatic, a priori value as a referent or authority, becoming instead a receding horizon. Nature, we might say, has been de-traditionalised. [...] That does not mean it is less useful, as we have already argued, but
71
inferioridade epistemológica diante das ciências naturais, decorreria de sua dificuldade em
fixar, demonstrar e expor teoricamente um mínimo de autonomia para as ações humanas no
plano social, sem o qual esse saber perderia a própria razão de ser. Segundo VIVEIROS DE
CASTRO (2002, p. 303), três grandes paradigmas (Spencer, Durkheim e Boas) concorrem
na tentativa de solucionar o dilema teórico das ciências humanas; seria o caso de
acrescentar à sua análise que a simples competição entre paradigmas talvez seja sintoma da
dificuldade de resolver suas antinomias centrais, Natureza vs. Cultura e Indivíduo vs.
Sociedade:
Ambas conotam o mesmo dilema teórico, o de decidir se as relações entre os termos opostos são de continuidade (solução reducionista) ou de descontinuidade (solução autonomista ou emergente). A cultura é um prolongamento da natureza humana, exaustivamente analisável em termos de biologia da espécie, ou ela é uma ordem suprabiológica que ultrapassa dialeticamente seu substrato orgânico? A sociedade é a soma das interações e representações dos indivíduos que a compõem, ou ela é sua condição supraindividual, e como tal um “nível” específico da realidade? (VIVEIROS DE CASTRO, 2002, p. 302)
Compreende-se, com base nessa dificuldade imanente às ciências sociais, o sucesso
relativo obtido pelas críticas dos psicólogos evolucionistas ao SSSM (standard social
science model). As ciências sociais são por assim dizer vítimas da própria dicotomia que
corroboram, Natureza vs. Cultura; necessitam dela para delimitar e instituir o próprio
campo, mas esse fosso as impede ao mesmo tempo de ancorá-lo no substrato em que se
ancora tradicionalmente a “realidade objetiva”, tornando-a vulnerável às investidas
cientificistas. Com efeito, como postulou Bruno Latour, dicotomias como Natureza vs.
Cultura são conceitos eminentemente polêmicos, armas de “ressentimento e vingança”
(LATOUR, 2001, p. 337) na imposição de um domínio (natureza) e de uma atividade
(ciência) como fundamentos esclarecedores da política, configurando um método de
classificação para separar o moderno do tradicional (LATOUR, 1994, p.70-71), para
distinguir o que pertenceria ao passado (crença, ou a confusão entre coisas e homens) do
que aponta para o futuro (conhecimento, ou a capacidade de discriminar objetos e sujeitos).
Assim, as ciências sociais vêem voltar-se contra elas – pelas mãos da psicologia
evolucionista – a pecha que muitas vezes dirigiram contra seus “objetos”, outras culturas e
nature is in a spin. In the place formerly occupied by ‘natural facts’ is a new frame of reference, an offspring
72
sociedades: uma incapacidade autóctone de elevar-se acima do domínio das crenças, até o
plano do conhecimento objetivo.91
2.9 Racionalismo, autonomismo e ansiedade ética
Não é de estranhar, assim, que a conjunção de crises em torno da fronteira entre
natureza e cultura conduza a uma espécie de ansiedade ética. Todo e qualquer pensador de
inspiração racionalista começa a inquietar-se com a perspectiva de não mais poder contar
com tipo algum de fundamentação para um conjunto mínimo de princípios e regras de
cunho universalista. Ninguém mais do que Jürgen Habermas personifica cabalmente essa
descoberta repentina e dolorosa da porosidade da natureza como contraparte da vida social,
sobretudo da fragilidade da natureza humana diante das investidas da tecnologia – ainda
que ele entenda essa natureza não como um repositório de inclinações pré-formadas, mas
(pós-kantianamente) como um tipo de condição de possibilidade da igualdade inter-
subjetiva. Engajando-se inicialmente numa polêmica pública, pelos jornais, acerca da
permissibilidade da clonagem e da manipulação genética antes do nascimento,92 as quais
ameaçariam a indeterminação igualitária com que todos os seres humanos adentram a
esfera social, o filósofo social alemão herdeiro da tradição frankfurtiana dedica ao tema um
livro sintomaticamente intitulado Die Zukunft der menschlichen Natur ([O futuro da
natureza humana] HABERMAS, 2001).
Habermas está preocupado com o efeito das biotecnologias no homem sob o ponto
de vista ético, ou seja, da auto-representação da espécie como composta por sujeitos morais
e, assim, das condições de possibilidade das relações sociais (relações entre pessoas, e não
entre coisas). Ele parte da constatação de que a aceleração da mudança social diminuiu
of the genomic era, which is life itself –now orphaned from natural history but full of dazzling promise.” 91 LATOUR (2001) denuncia como intolerante a atitude iconoclasta da crítica moderna: “... os modernos e os pós-modernistas [...] acreditam na crença. Acreditam que as pessoas acreditam ingenuamente” (p. 315); “... os que não se entusiasmam pela modernidade são acusados de possuir unicamente uma cultura e crenças, mas não conhecimentos a respeito do mundo”. O tema é retomado por VIVEIROS DE CASTRO (2002), apoiando-se precisamente em Latour: “Sempre que ouço um pronunciamento sobre as causas –sob este ou outro nome, e sejam elas de que natureza forem– do comportamento de alguém, em especial de um ‘nativo’, sinto como se estivessem a lhe tentar bater epistemologicamente a carteira” (p. 17). 92 Seus artigos de intervenção no debate sobre a clonagem reprodutiva humana podem ser encontrados no volume La constelación posnacional (Barcelona: Paidós, 2000), p. 207-217.
73
progressivamente o prazo de validade dos sistemas éticos, ou seja, da capacidade da
filosofia de dar respostas generalizantes às perguntas pelo que caracteriza a vida “boa”, a
vida digna de ser vivida. Com isso, essas respostas cada vez mais se restringem à esfera da
identidade pessoal, sem validade intersubjetiva.
Tal estado de coisas se junta às possibilidades (ou promessas) de modificação do
genoma humano, resultando num abalo profundo desse autoconceito moral da espécie. Um
de seus pressupostos é a distinção categorial entre o que é formado (pela natureza) e o que é
fabricado (pelo homem), e é ela que se desfaz quando se impõe a perspectiva de modificar
o genoma. Na medida em que a disposição genética de todas as pessoas que já viveram foi
fruto do acaso, essa indeterminação se integra na própria entrada de todos os homens na
vida em sociedade como uma condição inerente à sua igualdade e à sua liberdade. É a partir
desse substrato absolutamente peculiar, único e ao mesmo tempo tão aleatório quanto o de
qualquer outro homem, que cada sujeito se constituirá como autor de sua própria biografia.
Há um parentesco dessa noção com a de “natalidade” tal como formulada por Hannah
Arendt, afirma Habermas:
Os homens se sentem livres para iniciar algo de novo em suas ações porque o próprio nascimento, como divisor de águas entre Natureza e Cultura, marca um novo começo. Entendo essa indicação no sentido de que o nascimento põe em marcha uma diferenciação entre o destino socializante de uma pessoa e o destino natural de um organismo. Apenas a referência a essa diferença entre Natureza e Cultura, entre inícios intocáveis e a plasticidade de práticas históricas, permite àquele que age o autoposicionamento performativo sem o qual ele mesmo deixa de poder conceber-se como o iniciador das próprias ações e anseios.93 (HABERMAS, 2001, p. 102-103)
No entanto, quando passa a ser determinado total ou parcialmente por outrem,
rompe-se essa condição de igualdade e surge uma assimetria inédita, anterior ao próprio
nascimento e, com isso, impossível de ser problematizada na esfera da comunicação.
Esfuma-se a fronteira entre coisa e pessoa e, com ela, o fundamento da possibilidade de
93 “Die Menschen fühlen sich im Handeln frei, etwas Neues zu beginnen, weil schon die Geburt, als Wasserscheide zwischen Natur und Kultur, einen Neubeginn markiert. Ich verstehe diese Andeutung so, dass mit der Geburt eine Differenzierung einsetzt zwischen dem Sozialisationsschicksal einer Person und dem Naturschicksal ihres Organismus. Allein die Bezugnahme auf diese Differenz zwischen Natur und Kultur, zwischen unverfügbaren Anfängen und der Plastizität geschichtlicher Praktiken erlaubt dem Handelnden die performativen Selbstzuschreibungen, ohne die er sich selbst nicht als Initiator seiner Handlungen und Ansprüche verstehen könnte.”
74
reconhecimento: “Até agora encontravam-se em interações sociais somente pessoas
nascidas, e não fabricadas” (HABERMAS, 2001, p. 112).94
Dito de outro modo, a experiência do próprio corpo como algo de incondicionado é
a condição da liberdade, como continuação autônoma do orgânico, a partir de algo
naturalmente indisponível para a técnica. A intervenção biotecnológica, por outro lado, não
se confunde com a clínica, pois o médico tem de manter-se nos limites discursivos da
justificação do tratamento ministrado – mas é precisamente essa distinção que se perde na
crescente assimilação da clínica à técnica, assim como na determinação das características
genéticas de um ser humano segundo as preferências pessoais de outro ser humano. Pouco
importa, aqui, se esse poder é real e amplo, como supõe o determinismo genético, ou mera
fantasia de mercado – em ambos os casos, já foi transposta a fronteira entre o que deve
estar e o que não deve estar disponível, no humano, para a manipulação técnica.
Por fim, Habermas argumenta que essa recusa da manipulação genética é um ato de
vontade e de resistência, e não uma defesa da ressacralização ou do reencantamento do
mundo – essa seria a perspectiva igualmente alarmada assumida por um teórico
conservador como Francis FUKUYAMA (2002) –, mas de um passo na direção de a
modernidade tornar-se reflexiva, de esclarecer-se sobre as suas próprias fronteiras. Trata-se
de uma questão normativa (o que deve permanecer indisponível) e não ontológica (o que
deve ser preservado como dignidade inerente, ou natureza humana).
A posição de Habermas comporta algumas dificuldades, e não apenas por esse
parentesco incômodo com o pensamento conservador em pânico com a erosão de valores
pela manipulação da natureza humana. Slavoj Zizek, por exemplo, não hesita em condená-
lo e a Fukuyama como encarnações de filósofos de Estado, que se auto-atribuem a
clarividência necessária para prescrever limites que não devem ser transpostos pelo
pensamento:
O ponto-chave aqui é que não há retorno para a imediatidade ingênua anterior: a partir do momento em que sabemos que nossas disposições naturais dependem da contingência genética cega, toda adesão teimosa a essas disposições é tão falsa quanto a adesão aos velhos costumes “orgânicos” num universo moderno. Desse modo, basicamente o que Habermas está dizendo é: embora saibamos que nossas disposições dependem da contingência genética desprovida de sentido, vamos fingir e agir como se não fosse esse o caso, de modo que possamos manter nosso senso de dignidade e autonomia. O paradoxo
94 “Bisher begegneten sich in sozialen Interaktionen nur geborene, nicht gemachte Personen.”
75
aqui é que a autonomia só pode ser mantida pela proibição do acesso à contingência natural cega que nos determina, isto é, no final, pela limitação de nossa autonomia e de nossa liberdade de intervenção científica.95 (ZIZEK, 2003. p. 126)
[A] lógica de Habermas é esta: como os resultados da ciência representam uma ameaça à nossa (noção predominante de) autonomia e liberdade, deve-se restringir a ciência. O preço que pagamos por essa solução é a cisão fetichista entre ciência e ética [...]. Isso nos impede de enfrentar a verdadeira questão: como essas novas condições nos compelem a transformar e reinventar as próprias noções de liberdade, de autonomia e de responsabilidade ética?96 (ZIZEK, 2003, p. 126)
2.10 Atitude etnográfica como alternativa ao racionalismo
De certa maneira, a busca da resposta à pergunta lançada por Zizek já vem sendo
posta em prática de uma perspectiva que Paul RABINOW (1992), no célebre ensaio já
mencionado, recomendou que fosse a de uma atitude etnográfica diante das biotecnologias
e da genômica. Ao mesmo tempo mais modesta e mais ambiciosa que o racionalismo
desesperançado de Habermas, ela deveria renunciar a buscar fundamentos transcendentais
para a gênese (Bildung) das identidades morais, em favor de um inventário e da descrição
das práticas reformuladas ou induzidas pela tecnociência biológica, aquilo que Rabinow
designou como biossocialidade. Não é por acaso, assim, que vários dos autores referidos
mais atrás como atentos para as questões suscitadas pelas biotecnologias têm sua origem ou
suas simpatias teóricas no campo da antropologia; ao contrário, essa convergência denota
que, no momento mesmo em que referenciais e métodos tradicionais de fundamentação se
abalam ou dissolvem, e em que a cultura em processo de globalização experimenta o
máximo estranhamento de si mesma, nada aparece como mais útil do que uma tradição
investigativa versada no desafio de compreender outras culturas.
95 “The key point here is that there is no return to the preceding naive immediacy: once we know that our natural dispositions depend on blind genetic contingency, every stubborn sticking to these dispositions is as fake as sticking to old ‘organic’ mores in a modern universe. So, basically, what Habermas is saying is: although we now know that our dispositions depend on meaningless genetic contingency, let us pretend and act as if this is not the case, so that we can maintain our sense of dignity and autonomy. The paradox is here that autonomy can only be maintained by prohibiting access to the blind natural contingency that determines us, that is, ultimately, by limiting our autonomy and freedom of scientific intervention.” 96 “Habermas's logic is here: since the results of science pose a threat to our (predominant notion of) autonomy and freedom, one should curtail science. The price we pay for this solution is the fetishist split between science and ethics [...]. This prevents us from confronting the true question: how do these new
76
RABINOW (1992) e FRANKLIN (2000), por exemplo, preconizam reconstituir as
novas redes de circulação de termos de identidade, uma vez que o processo de
desnaturalização põe em questão laços sociais fundamentais baseados em categorias de
identidade profundamente enraizadas no biológico (FRANKLIN, 2000, p. 215), agora que
se estabeleceu um tipo de isomorfismo entre natureza e cultura, ou seja, em que as posições
tradicionais se invertem e a segunda passa a servir de modelo para a primeira (p. 195).
STRATHERN dá um passo a mais e se interroga sobre o significado cultural da resistência
ao determinismo genético e da insistência correlata na escolha, um traço
caracteristicamente ocidental e moderno que indivíduos de outras culturas considerariam
intrigante: “... na medida em que a escolha, nessa matéria, também é considerada desejável,
não é sempre que alguém pode querer suas origens predeterminadas. Ao contrário, quando
o pressuposto é em favor da variabilidade e de manter aberta uma gama de possibilidades, a
antecipação pode ser mutilante” (STRATHERN, 1992, p. 171).97 Para ZIZEK (2003), esse
apego à escolha e à autonomia é pura e simplesmente fruto do narcisismo, que prejudica a
percepção dos limites do racionalismo.
Para tentar libertar o conhecimento do solipsismo racionalista do sujeito em seu
isolamento do objeto, a investigação social – na perspectiva desse grupo informal de
autores de inspiração etnográfica – precisaria deslocar seu centro de gravidade para o
terreno das relações. Segundo VIVEIROS DE CASTRO, a antropologia contemporânea
ensina a recusar as concepções essencialistas ou teleológicas da sociedade: “À sociedade
como ordem (instintiva ou institucional) dotada de uma objetividade de coisa, preferem-se
noções como socialidade, que exprimiriam melhor o processo intersubjetivamente
constituído da vida social” (2002, p. 313).
No que respeita ao entendimento da difusão corrosiva da tecnociência biológica
pelo tecido social, essa perspectiva oferece a considerável vantagem de não estigmatizar a
prática científica enquanto tal, que afinal nunca deixou de ser uma atividade humana. É
possível e mesmo obrigatório explicitar o quanto dessa prática é mobilizada para e pela
reprodução do capital, algo que está ausente por exemplo do alarmismo ético conservador
conditions compel us to transform and reinvent the very notions of freedom, autonomy, and ethical
responsibility?” 97 “... insofar as choice in the matter is also desirable, one does not always want one’s origins predetermined. On the contrary, where the presumption is in favour of variability and keeping a range of possibilities open, anticipation could be disabling.”
77
de um Francis Fukuyama e do reducionismo neo-sociobiológico dos psicólogos
evolucionistas à Steven Pinker. Ao insistir na apreciação das relações concretas que se
estabelecem entre os homens, inclusive e sobretudo na esfera pública (como no caso da
polêmica sobre clonagem, talvez a primeira de caráter realmente global), a atitude
etnográfica preconizada por Rabinow e Latour permite apreender tanto a ressurreição do
determinismo biológico quanto a reação a ele como as duas faces de um mesmo complexo,
que equilibra precariamente naturalismo e racionalismo sobre a velha dicotomia entre
Natureza e Cultura. O primeiro não encontra respostas para o enigma da autonomia, que ou
fica soterrada sob o peso do mecanismo e da causa eficiente, ou é pranteada como vítima da
expansão irrefletida das biotecnologias; o segundo a hipostasia como um absoluto e perde
de vista as limitações do autonomismo e o caráter fantasmagórico do sujeito racional
explicitado com a contingência genética (ZIZEK, 2003); ambos são cegos para o novo, para
a capacidade preservada da pesquisa científica de ampliar o repertório das ações
(LATOUR, 1994, p. 297), de responder a um “clamor cultural” para vencer barreiras e
transpor limites históricos, entrando em ressonância com necessidades e desejos humanos
(RIBEIRO, 2003), estejam eles em contradição ou não com os movimentos do capital.
Em resumo, essa perspectiva etnográfica98 oferece a oportunidade de dissecar a
pesquisa e ao mesmo tempo vacinar-se tanto contra o anticientismo herdado da teoria
crítica quanto contra o determinismo tecnológico que enxerga a manufatura da história
transferida das mãos dos homens para as engrenagens dos sistemas tecnológicos.
2.11 Não-modernismo e modernização reflexiva
Ora, o aprofundamento e a continuação do projeto iluminista constituem também o
fundamental do programa teórico de HABERMAS (2000) e, num retorno à perspectiva
crítica revitalizada pela questão ambiental-natural, da modernização reflexiva de BECK
98 Ou multiversal, “um ponto de vista capaz de gerar e desenvolver a diferença”, como propõe VIVEIROS DE CASTRO (2002, p. 316). É o ensinamento que as ciências sociais podem e devem extrair das cosmologias ameríndias: o reconhecimento de visões de mundo diversas e mesmo incompatíveis entre si e com a ocidental, todas, como formas de conhecimento que antes de mais nada convidam a refletir sobre os próprios pressupostos e valores, e não, pejorativamente, como crenças ou ideologias que cabe aniquilar com a mão forte da Razão ou da Verdade Histórica.
78
(1997). No final das contas, em que pesem as diferenças entre o ponto de vista aqui descrito
como etnográfico sobre a marcha das biotecnologias e o da reação racionalista à mesma,
ambos parecem confluir na recusa de uma atitude inconseqüente como a que identificam no
pós-modernismo, cujo diagnóstico – correto – sobre a crise das grandes narrativas é
equivocadamente transformado num prognóstico sobre a inutilidade da ação, tendo em vista
a impossibilidade de ancorá-la em referenciais universais. Para usar uma expressão que dá
título a uma obra de BECK (1996a), todos se opõem aos pós-modernos na proposta de uma
reinvenção da política, na imaginação de subpolíticas ou biopolíticas que se contentem
com éticas provisórias (ZIZEK, 2003) e fins histórico-contingenciais – como a luta para
desvencilhar a tecnobiologia e a pesquisa científica em geral de um aprisionamento no
circuito do controle e da acumulação capitalista, cuja lógica pode e vai entrar em
dissonância com necessidades e desejos propriamente humanos.
Desse modo, as divergências entre as duas perspectivas não parecem ser assim tão
amplas, e seriam explicáveis em alguma medida por uma divergência de estilos e
vocabulário. O que BECK (1996b) enxerga como proliferação de riscos e um conflito
distributivo de males (por oposição a bens), ou seja, a multiplicação de efeitos não-
pretendidos de tecnologização do mundo e da vida, não está muito distante da proliferação
desenfreada de quase-objetos e híbridos diagnosticada por LATOUR (1994, p. 16-17). É
fato que este identifica no que chama de constituição moderna a raiz e a precondição dessa
proliferação, enquanto aquele as localiza na realização imperfeita dessa modernidade, mas
o remédio prescrito por ambos é similar – comedimento: “É nesta desaceleração, nesta
moderação, nesta regulamentação que buscamos nossa moralidade. A quarta garantia,
talvez a mais importante, é a de substituir a louca proliferação dos híbridos por uma
produção regulamentada e consensual dos mesmos”, recomenda LATOUR (1994, p. 140).
Como Beck, ele quer refundar a política, o que implica problematizar tanto a dicotomia
Natureza vs. Cultura quanto seus corolários excludentes na explicação da ação humana,
naturalização e transcendentalismo: “Metade de nossa política é feita nas ciências e nas
técnicas. A outra metade da natureza se faz nas sociedades. Se reunirmos as duas, a política
renasce.” (LATOUR, 1994, p. 142)
Uma das características fundamentais dessa nova disposição política é a crítica da
tecnociência, ou, como diz SANTOS (2003), a urgência de “politizar as novas tecnologias”.
79
É preciso examinar suas práticas com minúcia etnográfica, mesmo, tanto no interior do
campo quanto naquelas ações que extravasam para o meio social, alcançando a esfera
pública. Dada a centralidade do projeto genômico no processo de hegemonização das
biotecnologias, e diante do fato de que a prática social científica por excelência é a
publicação, os capítulos seguintes rastrearão em periódicos científicos e na literatura
associada as figuras principais em torno das quais se articula essa hegemonia, de modo a
revelar que seus pilares são as noções de determinismo, genocentrismo e informação.
81
CAPÍTULO 3
Ecos do determinismo no Genoma Humano
3.1 Genoma Humano, anticlímax da biotecnologia
Se a promessa de revolução econômica, médica e social da biotecnologia tivesse de
ser simbolizada por um único evento tecnocientífico, esse seria sem dúvida o
seqüenciamento (soletração) do genoma humano, ou seja, a compilação dos mais de 3
bilhões de permutações bioquímicas entre bases nitrogenadas de quatro tipos (adenina, A;
timina, T; citosina, C; e guanina, G) enfileiradas nos 23 pares de cromossomos da espécie
Homo sapiens. Na realidade, essa façanha mais tecnológica do que científica se desdobrou,
sintomaticamente, em três eventos de enorme repercussão mundial: uma cerimônia na Casa
Branca (Washington, D.C.) em 26 de junho de 2000; a publicação de edições especiais dos
periódicos científicos Nature e Science em 15 e 16 de fevereiro de 2001 contendo,
respectivamente, os artigos acadêmicos sobre as chamadas seqüências-rascunho do genoma
humano produzidas pela iniciativa pública Projeto Genoma Humano (PGH) e pela empresa
privada Celera Genomics; e 14 de abril de 2003, quando a seqüência do PGH deixou de ser
rascunho para alcançar a acuidade de 99,9% anteposta como meta e quando os chefes de
governo dos seis países envolvidos no Projeto – Estados Unidos, Reino Unido, França,
Alemanha, China e Japão – divulgaram um comunicado conjunto em que afirmavam que se
tratava de “uma plataforma fundamental para o entendimento de nós mesmos”.99
O mês desse último evento não fora escolhido por acaso. Apenas 11 dias depois do
comunicado multinacional se comemorariam os 50 anos da publicação no mesmo periódico
Nature do hoje célebre artigo100 de pouco mais de uma página que registrou a descoberta da
estrutura em dupla hélice da molécula de DNA, ácido desoxirribonucléico, pelo norte-
americano James Watson e pelo britânico Francis Crick. Os próceres do PGH
estabeleceram conscientemente um nexo genealógico com aquele que é tido como o
momento inaugural da biologia molecular, cujo ápice seria o seqüenciamento do genoma
humano. Mas a obtenção dos 99,9% de acuidade na soletração das longuíssimas cadeias de
99 Folha de S.Paulo, 15.abr.2003, p. A12. 100
WATSON, James D.; CRICK, Francis H.C. 1953. A structure for deoxyribose nucleic acid.
82
DNA contidas nos cromossomos acabaria ocasionando repercussão discreta na imprensa
mundial, e não só porque a verdadeira finalização do genoma havia sido precedida por dois
outros eventos mais midiáticos, em 2000 e 2001, mas também porque as limitações dessa
forma de pesquisa biológica por atacado já começavam a se tornar aparentes, como se verá
mais adiante.
A cerimônia de junho de 2000, por outro lado, em que pese a participação do
presidente norte-americano Bill Clinton e do primeiro-ministro britânico Tony Blair, havia
sido um tanto prematura, pois nem mesmo o qualificativo de “rascunho” era merecido pelas
seqüências genômicas do PGH e da Celera naquela altura; na realidade, celebrava-se mais a
obtenção de um acordo político precário entre os dois grupos concorrentes, PGH e Celera,
representados na ocasião por seus respectivos líderes, Francis Collins e Craig Venter. Em
jogo estavam não apenas primazia e prestígio científicos, mas direitos de acesso e talvez de
propriedade sobre o que Bill Clinton chamou hiperbolicamente de “linguagem em que Deus
criou a vida” (WATSON e BERRY, 2003, p. xiii). Em particular da parte da iniciativa
pública, havia o temor de que uma publicação precoce da seqüência pela Celera desse à
empresa privada direitos mais amplos, que tornariam inúteis os 12 anos e os mais de US$ 2
bilhões de verbas majoritariamente públicas que o PGH já havia investido na empreitada,
àquela altura.
O evento verdadeiramente científico que apresentou aos públicos acadêmico e leigo
a seqüência do genoma humano foi, assim, representado pela publicação dos trabalhos em
fevereiro de 2001 – como de resto tem sido a praxe na pesquisa em ciência natural, na qual
não basta produzir dados e interpretações, pois é do ritual de legitimação que sejam
submetidos à revisão por pares promovida por periódicos como Nature e Science. Nessas
edições especiais das duas mais lidas publicações científicas do mundo estavam os
portentosos artigos com as descrições dos principais achados e surpresas do genoma
humano, assim como dezenas de outros trabalhos e reportagens discutindo aspectos
técnicos, culturais e até políticos do genoma. Elas representam uma oportunidade única
para tirar o pulso da nascente disciplina genômica, no momento mesmo em que ela dá por
consolidada a própria hegemonia, e por essa razão ocupam o centro de gravidade deste
capítulo. Seu objetivo principal é verificar quão fortemente ainda ecoa, nos trabalhos que
Nature. v. 171, n. 4356, p. 737-738, 25.abr.1953.
83
reúne, o determinismo genético101 que ajudou o PGH a nascer e a obter dos governos e de
instituições sem fins lucrativos daqueles seis países os 3 bilhões necessários para engajar
milhares de cientistas e técnicos no maior programa de pesquisa biológica coordenada de
todos os tempos. Afinal, tratava-se de descobrir, com a soletração do genoma, “o que é ser
humano” (ROBERTS, 2001, p. 1185) e de alcançar o “Santo Graal da biologia” (JUDSON,
1996, p. 604), nas palavras de James Watson e Walter Gilbert, respectivamente, na década
de 1980, quando o PGH ainda era uma idéia em busca de patrocinadores.
Seqüenciar um genoma como o da espécie humana, que abriga em cada célula de
cada indivíduo dois conjuntos da série de mais de 3 bilhões de permutações em que se
ocultam os genes, não é uma tarefa trivial. A identificação da base nitrogenada (A, T, C ou
G) em cada uma das posições depende de inúmeras reações químicas cujos resultados
precisam ser monitorados e recenseados com alto grau de confiabilidade. Quando a idéia de
submeter o genoma humano inteiro a esse processo foi aventada pela primeira vez, por
Robert Sinsheimer (KEVLES e HOOD, 1993, p. 18; WATSON e BERRY, 2003, p. 167) e
por Renato Dulbecco (DULBECCO, 1997, p. 90; WATSON, 2000, p. 171), os meios
técnicos disponíveis permitiam identificar no máximo mil bases por dia; na época da
conclusão do seqüenciamento, o PGH já tinha capacidade instalada para processar essa
quantidade em um segundo, embora o princípio de discriminação das bases nitrogenadas
fosse o mesmo.102 Tamanha aceleração foi fruto de investimentos maciços em tecnologia,
que culminaram com o lançamento de seqüenciadores automáticos em que as bases
etiquetadas com marcadores fluorescentes (uma cor para cada um dos quatro tipos de base)
são sucessivamente identificadas por laser enquanto percorrem dezenas de tubos capilares
paralelos.
Antes de proceder ao seqüenciamento em massa do genoma, a metodologia adotada
pelo PGH previa que cada um dos cromossomos fosse mapeado por meio de técnicas mais
tradicionais de análise genética, pontilhando-os de seqüências-marcadoras facilmente
identificáveis, que serviriam posteriormente para orientar a remontagem do genoma como
101 Por ora servirá a definição de determinismo oferecida por ninguém menos que Craig Venter e colaboradores no trabalho sobre a seqüência do genoma humano: “a idéia de que todas as características da pessoa são ‘impressas’ [hard-wired] pelo genoma” (VENTER et al., 2001, p. 1348). 102 Etiquetação das bases finais de seqüências curtas, mas de extensão variável, com marcadores radiativos ou fluorescentes; e a subseqüente separação dessas cadeias de DNA etiquetado por tamanho, conforme sua velocidade de percurso num meio gelatinoso submetido a corrente elétrica.
84
um todo.103 A iniciativa pública seguia metódica e lentamente seu plano de concluir o
trabalho apenas em 2005 quando, em 1998, o pesquisador e inventor Craig Venter anunciou
que tentaria seqüenciar o genoma humano no prazo de três anos, empregando um método
que saltava a etapa do mapeamento e só havia sido testado, até então, com genomas de
microrganismos, várias ordens de grandeza menores e mais simples que os de mamíferos.
A técnica, chamada de “whole-genome shotgun”, consiste em estilhaçar todos os 23
cromossomos de uma só vez, seqüenciar os milhões e milhões de pedaços e depois
remontar por computador (in silico, como se diz) a seqüência toda, cromossomo por
cromossomo, com base unicamente no alinhamento e superposição das cadeias soletradas.
Venter obteve apoio e capital da empresa de suprimentos e equipamentos Perkin
Elmer, com quem formou a joint-venture Celera Genomics, que se lançou em 8 de
setembro de 1999 na tarefa de seqüenciamento do genoma estilhaçado, concluído em 17 de
junho de 2000, restando por fazer a parte mais difícil, que era recompor a seqüência dos
cromossomos propriamente ditos. O PGH, que havia iniciado no princípio dos anos 1990 o
seqüenciamento de pequena escala, em paralelo com o mapeamento do genoma, acelerara
os trabalhos de soletração a partir de março de 1999, seis meses antes da Celera, em
particular nos cinco centros de alta performance que ficariam conhecidos como G-5:
Whitehead Institute (Massachusetts, EUA); Sanger Centre (Reino Unido); Genome
Sequencing Center, da Universidade de Washington (Missouri, EUA); Baylor College of
Medicine (Texas, EUA); e Joint Genome Institute (Califórnia, EUA). Ambos os esforços
seriam coroados com as edições de Nature e Science que entraram para a história da ciência
como dois dos maiores esforços editoriais para sobressair precisamente aí, na história da
ciência. Tudo, nesses dois números das revistas, era grandioso, a começar pelos números,
como se pode depreender do seguinte quadro-resumo (tabela 1):
103 O processo de seqüenciamento exige que ele seja quebrado em incontáveis cadeias de algumas centenas de milhares de bases nitrogenadas, método conhecido como “shotgun”, por analogia com as espingardas cujos cartuchos espalham inúmeros fragmentos quando percutidos.
85
Nature, vol. 409, nº 6822 Science, vol. 291, nº 5507 Total de páginas 446 290 Páginas editoriais (percentual) 169 (38%) 141 (49%) Páginas de anúncios (percentual)
277 (62%) 149 (51%)
Nº artigos sobre o genoma 39 32 Nº páginas do artigo principal 61 47 Autores do artigo principal 249 284 Centros de pesquisa de origem dos autores do artigo principal
20 14
Notas de rodapé (nº páginas) do artigo principal
452 (6) 181 (4)
Países envolvidos no seqüenciamento
6 (EUA, Reino Unido, Japão, França, Alemanha, China)
4 (EUA, Austrália, Israel,
Espanha) Nº total estimado de genes no genoma
30.000-40.000 26.000-38.000
Tabela 1: Quadro comparativo das edições sobre o genoma das revistas Nature e Science em 15 e 16 de fevereiro de 2001
Muitas negociações haviam transcorrido entre junho de 2000, após a cerimônia na Casa
Branca, e fevereiro de 2001, quando os artigos entraram no prelo, para que os grupos
concorrentes chegassem a um acordo de publicação conjunta, mas elas fracassaram
sobretudo pelas diferenças de opinião quanto ao modo de acesso aos dados gerados por
ambas as iniciativas – o PGH defendendo que as seqüências fossem postas em domínio
público, em bancos de dados de acesso livre como o GenBank, até 24 horas depois de
validadas, enquanto a Celera pretendia comercializar essa informação. Na falta de
concordância, a Celera negociou com a Science um sistema de liberação dos dados – como
é de praxe em publicações científicas – por via eletrônica apenas para aqueles
pesquisadores que assumissem compromisso formal de não utilizá-los com finalidades
comerciais; todos os outros usuários teriam de pagar para ter acesso às seqüências de DNA
humano transcritas pela Celera.
Os dois periódicos de fevereiro de 2001 também apresentavam contrastes na
apresentação do tema. Apesar da coincidência dos títulos de capa, The human genome,
evidenciavam-se nessas vitrines editoriais, já, algumas diferenças sutis que seriam
amplificadas no interior dos volumes. A Nature, além de incluir três “chamadas” (duas
delas para assuntos não-relacionados como o genoma, fissão nuclear e glaciologia), tem
86
uma aparência graficamente mais moderna, recorrendo a uma tipografia sem serifas e a
letras minúsculas no título principal, enquanto a Science faz uso de maiúsculas serifadas,
um tratamento normalmente identificado como mais clássico, ou sóbrio. Há coincidência
também na alusão ao ícone maior da biologia molecular, a dupla hélice de Watson e Crick,
apenas sugerida na revista norte-americana, em meio a semitons de sépia, e escancarada
com todas as cores na sua congênere britânica.
O uso de figuras humanas também aproxima e ao mesmo tempo diferencia as duas
capas: na Nature (ver Figura 1 abaixo), são cerca de 1.200 fotografias que compõem um
mosaico no qual se destaca a dupla hélice, um efeito produzido com auxílio do programa de
computador PhotoMosaic, da Runaway Technology Inc.; na Science (ver Figura 2 abaixo),
são apenas ilustrações realistas de seis pessoas, escolhidos com a visível intenção de
representar todo o espectro da espécie e da vida humana (três homens, duas mulheres e um
bebê sem sexo definido; um negro, uma oriental, uma talvez latina e três brancos; três
jovens, um de meia-idade, um idoso). Em ambos os casos, fica evidente a identificação
entre DNA e seres humanos (dupla hélice = espécie/espécime), como se a molécula do
ácido nucléico fosse a sua definidora, a sua essência; na capa da Nature, porém, essa
diluição do humano no molecular surge mais radicalizada, visualmente, na medida em que
indivíduos ali comparecem no horizonte de desaparição característico do suporte mosaico –
se bem que as pessoas exibidas na Science tampouco apareçam como tais, como indivíduos
reais, pois se dissolvem na função generalizante de símbolo representativo. Seres humanos
não são mais do que instâncias do genoma, parecem dizer ambas as capas, de um ou de
outro modo – o que não deixa de ser uma maneira alternativa, até mesmo criativa, de
reafirmar, por sugestão, o determinismo genético.
89
Não se deve subestimar o alcance desse tipo de articulação – gráfica, como no que se
acabou de ver, ou da linguagem, como se verá a seguir – para a formatação dos conteúdos
da pesquisa científica e sua posterior assimilação pelo púbico leigo. Publicações como a
Nature e a Science se encontram numa posição privilegiada para influenciar a forma final
que as realizações dos cientistas assumem no imaginário social: têm periodicidade semanal,
não são ultra-especializadas como maioria dos journals, os trabalhos técnicos que veiculam
são precedidos por artigos, comentários e notícias que contextualizam e discutem os dados
e interpretações dos primeiros, e desenvolveram nas duas últimas décadas um sistema de
prestação de serviços104 para jornalistas especializados em ciência que as transformou em
duas de suas fontes preferidas de informação e em mananciais de pautas para reportagem
(ambas as publicações são também importantes formadoras de opinião na comunidade
científica internacional). Não é de estranhar, assim, que as duas edições aqui analisadas
tenham abusado das hipérboles para sublinhar o caráter histórico da publicação das
seqüências-rascunho do genoma humano; era imperioso, antes de mais nada, que os
jornalistas assim a percebessem e assim a apresentassem para o grande público. Eis (tabela
2) uma relação não-exaustiva de qualificativos e figuras empregados ao longo dos mais de
70 textos das edições (nos parênteses, as páginas em que ocorrem):105
Nature, vol. 409, nº 6822 Science, vol. 291, nº 5507 Revolução (758; 816; 832) Revolução (1224; 1249) Nova era (758; 814; 816; 823; 914) Nova era (1182; 1224; 1249; 1257) Avanço no autoconhecimento humano (813; 818)
Avanço no autoconhecimento humano (1153; 1182; 1185; 1219)
Revelação (814) Tabela periódica da vida (1224) Livro da Vida (816) Livro/Biblioteca da Vida (1153; 1178; 1251) Plano-mestre (blueprint) da espécie (822) Plano-mestre (blueprint) da espécie (1181) Tesouro de dados (828; 829; 860; 879) Vôo de Gagarin (1178); pouso na Lua (1219) Admirável Mundo Novo (758) Jóia da Coroa/ápice da biologia (1182) Façanha épica (829) Momento histórico, épico (1153) Tabela 2: Hipérboles sobre o genoma nas revistas Nature e Science de 15 e 16 de fevereiro de 2001
104 Press Nature (press.nature.com) e Eurekalert/Science (www.eurekalert.org/jrnls/sci) 105 Numa resenha para a Science, Sydney BRENNER (2001, p. 1265) apresenta a sua relação de metáforas já empregadas para o genoma: Pedra de Rosetta, Livro do Homem, Código dos Códigos, Tabela periódica, plano-mestre (blueprint), livro de receitas, arquivo digital do Plioceno africano (Richard Dawkins), Graal da genética humana (Walter Gilbert), lista de peças ou componentes, cofre de códigos secretos (Kevin Davies), e linguagem em que Deus criou o homem (Bill Clinton).
90
Não foi contudo apenas pela profusão de páginas editoriais e publicitárias que a
edição da Nature se evidenciou como fruto de um investimento ainda mais profundo nas
promessas do genoma humano. Uma simples comparação dos resumos que encimam os
artigos principais (LANDER et al., 2001; VENTER et al., 2001) revela, pelo tom de
grandiosidade e elevação moral, que o PGH tinha muito mais de seu futuro em jogo – um
futuro lastreado, para o bem e para o mal, em gastos passados de mais de US$ 2 bilhões –
do que a Celera. Eis o que afirmam os 249 autores do consórcio público nas três linhas que
abrem o texto e ocupam o lugar tradicional do abstract, neste caso convertido numa espécie
de “olho” com função mais jornalística do que acadêmica:
O genoma humano contém uma arca extraordinária de informação sobre desenvolvimento, fisiologia, medicina e evolução humanos. Relatamos aqui os resultados de uma colaboração internacional para produzir e tornar livremente acessível uma seqüência-rascunho do genoma humano. Também apresentamos uma análise inicial dos dados, descrevendo algumas das iluminações que podem ser recolhidas da seqüência. (LANDER et al., 2001, p. 860)106
Compare-se esse uso de um adjetivo – “extraordinário” – tão impreciso quanto
incomum na prosa científica, o auto-elogio implícito de generosidade (“livremente
acessível”) e o escopo totalizante (“desenvolvimento, fisiologia, medicina e evolução
humanos”) com a relativa sobriedade técnica, quantitativa e informativa das 36 linhas do
resumo – este sim um acabado abstract – no artigo escrito pelos 284 autores concorrentes
da Celera e institutos associados na Science:
Uma seqüência-consenso de 2,91 bilhões de pares de bases (bp [base pairs]) da porção eucromática do genoma humano foi gerada pelo método de seqüenciamento whole-genome shotgun. A seqüência de DNA de 14,8 bilhões de bp foi gerada ao longo de 9 meses a partir de 27.271.853 leituras de alta qualidade de seqüências (cobertura de 5,11 vezes do genoma) partindo de ambas as pontas de clones plasmídios obtidos do DNA de cinco indivíduos. Duas estratégias de montagem – uma montagem de genoma completo e uma montagem regional de cromossomos – foram usadas, cada uma combinando dados de seqüências da Celera e do esforço genômico financiado publicamente. Os dados públicos foram picados em segmentos de 550 bp para criar uma cobertura de 2,9 vezes daquelas regiões do genoma
106 “The human genome holds an extraordinary trove of information about human development, physiology, medicine and evolution. Here we report the results of an international collaboration to produce and make freely available a draft sequence of the human genome. We also present an initial analysis of the data, describing some of the insights that can be gleaned from the sequence.”
91
que haviam sido seqüenciadas, sem incluir vieses inerentes ao procedimento de clonagem e montagem usado pelo grupo financiado publicamente. Isso elevou a cobertura efetiva das montagens a oito vezes, ao reduzir o número e o tamanho das lacunas na montagem final, em relação ao que seria obtido com uma cobertura de 5,11 vezes. As duas estratégias de montagem renderam resultados muito similares que concordam grandemente com dados de mapeamento independentes. As montagens cobrem efetivamente as regiões eucromáticas dos cromossomos humanos. Mais de 90% do genoma se encontra em montagens com estruturas [scaffolds] de 100.000 bp ou mais, e 25% do genoma em estruturas de 10 milhões de bp, ou maiores que isso. A análise da seqüência do genoma revelou 26.588 transcritos codificadores de proteínas, para os quais houve fortes evidências em corroboração, e um adicional de ~12.000 genes derivados computacionalmente, por meio de coincidências com o [genoma do] camundongo ou de outras fracas evidências em apoio. Embora aglomerados densos em genes sejam óbvios, quase a metade dos genes estão dispersos por seqüências de baixo [conteúdo] G+C, separadas por longos trechos de seqüências aparentemente não-codificadoras. Apenas 1,1% do genoma é compreendido por éxons, ao passo que 24% são de íntrons, com 75% do genoma composto de DNA intergênico. Duplicações de blocos segmentais, cujo tamanho pode abarcar a extensão de um cromossomo, são abundantes por todo o genoma e revelam uma história evolutiva complexa. A análise genômica comparativa indica a expansão vertebrada de genes associados com funções neuronais, com regulação de desenvolvimento específico de tecidos e com os sistemas hemostático e imune. A comparação das seqüências de DNA entre a seqüência-consenso e os dados do genoma financiado publicamente fornecem localizações de 2,1 milhões de polimorfismos de nucleotídeo único (SNPs). Um par aleatório de genomas humanos haplóides diferiu a uma razão de 1 bp por 1.250, em média, mas houve heterogeneidade marcante no nível de polimorfismos ao longo do genoma. Menos de 1% de todos os SNPs resultaram na variação de proteínas, mas a tarefa de determinar quais SNPs têm conseqüências funcionais permanece um desafio em aberto. (VENTER et al., 2001, p. 1305)107
107 “A 2.91-billion base pair (bp) consensus sequence of the euchromatic portion of the human genome was generated by the whole-genome shotgun sequencing method. The 14.8-billion bp DNA sequence was
generated over 9 months from 27,271,853 high-quality sequence reads (5.11-fold coverage of the genome) from both ends of plasmid clones made from the DNA of five individuals. Two assembly strategies--a whole-genome assembly and a regional chromosome assembly--were used, each combining sequence data from Celera and the publicly funded genome effort. The public data were shredded into 550-bp segments to create a 2.9-fold coverage of those genome regions that had been sequenced, without including biases inherent in the cloning and assembly procedure used by the publicly funded group. This brought the effective coverage in the assemblies to eightfold, reducing the number and size of gaps in the final assembly over what would be obtained with 5.11-fold coverage. The two assembly strategies yielded very similar results that largely agree with independent mapping data. The assemblies effectively cover the euchromatic regions of the human chromosomes. More than 90% of the genome is in scaffold assemblies of 100,000 bp or more, and 25% of the genome is in scaffolds of 10 million bp or larger. Analysis of the genome sequence revealed 26,588 protein-encoding transcripts for which there was strong corroborating evidence and an additional ~12,000 computationally derived genes with mouse matches or other weak supporting evidence. Although gene-dense
clusters are obvious, almost half the genes are dispersed in low G+C sequence separated by large tracts of apparently noncoding sequence. Only 1.1% of the genome is spanned by exons, whereas 24% is in introns, with 75% of the genome being intergenic DNA. Duplications of segmental blocks, ranging in size up to chromosomal lengths, are abundant throughout the genome and reveal a complex evolutionary history. Comparative genomic analysis indicates vertebrate expansions of genes associated with neuronal function, with tissue-specific developmental regulation, and with the hemostasis and immune systems. DNA sequence comparisons between the consensus sequence and publicly funded genome data provided locations of 2.1 million single-nucleotide polymorphisms (SNPs). A random pair of human haploid genomes differed at a rate of 1 bp per 1250 on average, but there was marked heterogeneity in the level of polymorphism across the
92
Há mais, porém. O texto do PGH na Nature se abre, logo após o pseudo-resumo,
com o artifício de estabelecer uma genealogia secular de nobreza, um pedigree científico
que principia com a redescoberta das leis de Mendel na virada do século XIX para o XX,
passa pela descoberta e pela caracterização dos cromossomos, pela definição da “base
molecular da hereditariedade” (a dupla hélice de Watson e Crick) e pela decifração de sua
“base informacional” (o chamado código genético), para culminar, obviamente, no próprio
PGH: “O último quarto de século tem sido marcado por um impulso incansável de decifrar
primeiramente genes e então genomas inteiros, semeando o campo da genômica”
(LANDER et al., p. 860).108 É manifesto, em expressões como “impulso incansável”, o
empenho de justificação que perpassa esse texto híbrido, misto de artigo científico, relatório
de pesquisa e petição pela continuidade do fluxo de financiamento, embora supostamente a
tarefa estivesse concluída. Essa, de resto, parece ser a ambigüidade central do texto:
apresenta-se como a expressão editorial de um clímax na pesquisa biológica, como a
culminação de em esforço épico, em tamanho e implicação, mas ao mesmo tempo precisa
reconhecer, ou explicitar, que os dados obtidos após 12 anos e mais de US$ 2 bilhões
investidos na pesquisa não têm quase utilidade ou aplicação imediata. Em 2000/2001, pelo
menos, esse não se configurava como um problema tão agudo para o grupo capitaneado
pela Celera, que investira cerca de um décimo do tempo e do dinheiro na empreitada e
acreditava, naquela altura, estar perto de obter rendimentos régios com a venda de
informações genômicas; daí, talvez, proceda a relativa sobriedade do texto de VENTER et
al., que não precisam convencer o público internacional da importância transcendente de
sua dispendiosa aventura científica.
O PGH sempre esteve às voltas com esse tipo de discurso, hiperbólico e
propagandístico, desde o princípio. Foi por exemplo perante o Congresso norte-americano
que James Watson havia qualificado o seqüenciamento do genoma como a façanha que
permitiria descobrir “o que significa ser humano”. Watson tornou-se em 1988 o primeiro
diretor do Instituto Nacional de Pesquisa do Genoma Humano (NHGRI), criado dentro dos
genome. Less than 1% of all SNPs resulted in variation in proteins, but the task of determining which SNPs have functional consequences remains an open challenge.” 108 “The last quarter of a century has been marked by a relentless drive to dechipering first genes and then entire genomes, spawning the field of genomics.”
93
Institutos Nacionais de Saúde (NIH, órgão do governo federal norte-americano que é o
maior financiador isolado de pesquisas biomédicas nos Estados Unidos) para capitanear o
seqüenciamento do genoma humano em parceria com o Departamento de Energia (DOE,
que abraçou a idéia de soletrar todo o DNA da espécie humana como parte de um mandato
que incluía a pesquisa dos efeitos da radiação nuclear na saúde humana).109 Atuando mais
como um “diretor de marketing e primeiro vendedor”110 do PGH (LINDEE, 2003, p. 434),
o co-descobridor da dupla hélice do DNA deixou o cargo em meio a um enfrentamento
com a cúpula dos NIH por causa de pedidos de patentes para 2.758 fragmentos de genes
sem função conhecida que um pesquisador então obscuro (Craig Venter) da instituição
passou a apresentar a partir de junho de 1991 (WATSON, 2003, p. 180), dos quais Watson
discordava (uma disputa que parece estar na raiz da rivalidade que, seis anos depois, levaria
Venter e a Celera a desafiarem o PGH para a corrida genômica). Foi no entanto o sucessor
de Watson no NHGRI, Francis Collins, quem centrou a retórica pró-seqüenciamento nos
projetados benefícios da empreitada para a biomedicina: “Enquanto Watson e seus
conselheiros haviam falado de criar uma ferramenta, Collins falava de salvar vidas de
crianças. ‘A razão pela qual o público paga e fica entusiasmado – bem, genes de doenças
estão no alto da lista’, explicava. Foi a época de ouro para os caçadores de genes. (...)
Perdido no oba-oba, porém, ficou o fato de que achar um gene era algo muito diferente de
ter um tratamento, muito menos uma cura” (ROBERTS, 2001, p. 1186).111
Com efeito, a identificação de genes associados com raras síndromes genéticas
(defeitos congênitos de metabolismo) havia observado uma aceleração dramática nos anos
1990, antes mesmo do término da soletração do genoma, com base no mapeamento que
estava em curso (e a expectativa é que, com a seqüência completada em 2003, esse trabalho
se acelere ainda mais, reduzindo para meses uma pesquisa que costumava consumir anos ou
décadas). O próprio Collins, então na Universidade de Michigan, participara diretamente da
localização e transcrição do gene cujo defeito pode levar à fibrose cística, uma doença em
109 O DOE financiou cerca de 11% do PGH (WATSON e BERRY, 2003, p. 168). 110 Um dos lances visionários de Watson foi antever o debate sobre as implicações da genômica para a sociedade, em particular os ecos da eugenia, o que o levou a criar um programa preventivo de incentivo a estudos sobre aspectos éticos, legais e sociais (“ethical, legal, and social issues”, ou ELSI), destinando-lhe inicialmente 3% e depois 5% dos fundos do PGH, de início US$ 6 milhões anuais (WATSON, 2000, p. 202). 111 “Whereas Watson and his advisers had spoken of creating a tool, Collins talked about saving children’s lives. ‘The reason the public pays and is excited –well, disease genes are at the top of the list,’ he explained. It
94
que um excesso de produção de muco conduz a pessoa à morte; apesar da descoberta em
1989, até hoje o conhecimento da localização do gene no genoma e de sua seqüência não
engendrou tratamento nem cura.
Tampouco nas edições “históricas” da Nature e da Science com os artigos do
genoma ocorre a divulgação de grandes avanços biomédicos, como aliás seria de esperar,
ao menos para quem acompanha o campo das biotecnologias com assiduidade. Daí resulta
que muitos dos textos nelas apresentados recorram a uma mistura de otimismo e realismo
em relação ao genoma recém-seqüenciado, um reconhecimento de que a soletração por si
só pouco ou nada acrescenta em matéria de aplicações para a saúde, e à reafirmação de que
uma avalanche de benefícios e avanços é iminente – daí as seguidas referências a uma
revolução ou nova era na medicina, que será feita de medicamentos do tipo “bala de prata”,
com precisão molecular, e seu ajuste sob medida para o perfil genético do paciente (a droga
certeira para a doença e para o paciente, do qual um dia será possível prever, com base em
seus genes, até as reações adversas ou ineficiência de resposta). É como se a genômica
permanecesse sempre como a ciência do futuro, um futuro indeterminado, que nunca chega
– não chegou em 2000, não chegou em 2001 e não chegou em 2003, vale dizer, em nenhum
dos três grandes eventos construídos como seu ápice —, mas que certamente vai chegar,
asseguram os crentes.
Há várias passagens, nas dezenas de artigos das edições de fevereiro de 2001, em
que vem à tona essa tensão entre resultados prometidos e resultados obtidos pelo
seqüenciamento do genoma. Um dos mais eloqüentes aparece quase como um desabafo
num artigo de Maynard Olson, pesquisador que na década de 1980 chegara a duvidar da
necessidade de seqüenciar o genoma humano. É sintomático que sua exasperação se dirija
simultaneamente, ainda que não de modo explícito, às duas faces complementares da
fabricação do “momento histórico”, os próceres do projeto e a imprensa: “... cada nova
rodada de entrevistas coletivas anunciando que o genoma humano foi seqüenciado solapa o
moral daqueles que precisam ir trabalhar todos os dias para de fato fazer aquilo que eles
lêem nos jornais como algo que já foi realizado” (OLSON, 2001, p. 818).112 Na segunda-
was a heyday for gene hunters. (...) Lost in the hoopla, however, was the fact that finding a gene was a far cry from having a treatment, much less a cure.” 112 “...each new round of press conferences announcing that the human genome has been sequenced saps the morale of those who must come to work each day actually to do what they read in the newspapers has already been done.”
95
feira anterior à circulação das edições da Nature e da Science, nada menos do que seis
entrevistas coletivas simultâneas haviam sido organizadas pelo mundo, uma em cada país
participante do esforço PGH, a mais importante delas de novo em Washington, com a
participação “cordial” de Collins (PGH) e Venter (Celera), prontos para disputar as
atenções da imprensa: “... no aquecimento para esses encontros, os líderes integrantes de
ambas as equipes vinham trabalhando duro na tentativa de assegurar que a história – ou
pelo menos a mídia — julgasse que eles haviam feito a contribuição mais importante”
(BUTLER, 2001, p. 747).113
Essa tensão encontrou sua salvação retórica num artigo de fé, uma fé já um tanto
esmaecida entre cientistas às voltas com realidades insuspeitadas no âmago do genoma,
mas que eles nem por isso se esforçaram por abalar no público que paga e se entusiasma: a
fé no determinismo genético.
3.2 Determinismo envergonhado e mitigado
“Não devemos recuar nessa exploração. E o fim de toda nossa exploração será
chegar ao ponto de onde partimos, e conhecer o lugar pela primeira vez.”114 A citação de
T.S. Eliot que fecha o artigo do PGH na Nature (LANDER et al., 2001, p. 914) exprime
bem, provavelmente à revelia dos autores, a curiosa circularidade implícita na empreitada
do genoma. Eles decerto tinham em vista a coloração épica do verso, para fechar com
chave de ouro as 61 páginas do texto, mas ao mesmo tempo indicaram com ela que nada de
imprevisto havia ocorrido: soletrado o genoma da espécie, tinham em mãos – por definição
— o texto do que significa ser humano. A frase final de Eliot (“e conhecer o lugar pela
primeira vez”) sugere, porém, que a jornada transforma tanto o viajante quanto seu destino,
e é mesmo isso que parece ter acontecido com os seqüenciadores do genoma: ao
alcançarem seu objetivo, já não podiam mais sustentar com a mesma desenvoltura a
113 “... in the run-up to these meetings, leading members of both teams had been working hard in an attempt to ensure that history –or at least the media— would judge them to have made the more important contribution.” 114 “We shall not cease from exploration. And the end of all our exploring will be to arrive where we started, and know the place for the first time.”
96
doutrina da centralidade dos genes que havia servido tão bem como motivação e
racionalidade do programa bilionário para recenseá-los.
Processos paralelos de crítica às simplificações do determinismo genético (tudo que
ocorre num organismo é comandado pelos genes) e de detalhamento da complexidade
inerente ao genoma, ao longo dos 12 anos do PGH, já não permitiam, no seu clímax
editorial e midiático, usar a mesma linguagem e as mesmas metáforas, pelo menos não sem
alguma dose de pudor, qualificativos, atenuações. O resultado é que as duas edições
(Nature e Science) oferecem um espécie de pot-pourri com todos os matizes de
determinismo, do mais empedernido genocentrismo a críticas pesadas da genomania _ por
vezes no interior de um mesmo texto. É como se os geneticistas escrevessem ao mesmo
tempo para dois públicos, um leigo e um especializado; ou, então, trata-se de um efeito de
transição entre maneiras de encarar o objeto genoma que os faz oscilar entre uma retórica
determinista e descrições menos deterministas, em vários graus. Embora um James Watson
se permita reeditar num volume lançado em 2000 ensaios da década de 90 em que
equaciona a natureza humana com os genes da espécie (WATSON, 2000, p. 172), numa
publicação científica isso já se tornara quase impossível, sem adicionar algumas ressalvas,
como a tão generalizada quanto protocolar referência ao papel complementar do ambiente
(ou nurture).
Embora ressurja aqui e ali, muitas vezes em minúsculas, a metáfora quase religiosa
do Livro da Vida já se tornara problemática demais, assim como o hábito de se referir a
genes como causas de doenças e características. O editorial que abre a Nature, por
exemplo, opta por refugiar-se na noção menos comprometedora de influência, ao mesmo
tempo em que recorre a intensificadores para sublinhar seu caráter abrangente e definidor
tanto da história do indivíduo quando da história da espécie:
A seqüência do genoma humano contém o código genético que reside no núcleo de cada célula dos 10 trilhões de células em cada ser humano. Ele influencia profundamente nossos corpos, nosso comportamento e nossas mentes, vai ajudar no estudo das influências não-genéticas sobre o desenvolvimento humano; vai desencadear novas iluminações sobre nossas origens e nossa história como espécie; e aponta novos caminhos para combater doenças.115 (NATURE, 2001, p. 745; ênfases minhas)
115 “The human genome sequence contains the genetic code that sits at the core of every one of the ten trillion cells in each human being. It profoundly influences our bodies, our behaviour and our minds; it will help the
97
Essa formulação cuidadosa contrasta em alguma medida com outra de sabor mais
determinista, oferecida por três editores da revista britânica no texto introdutório da longa
seção sobre o genoma, ainda que igualmente mitigada pela referência implícita a outros
fatores, como o ambiente: “Seres humanos são muito mais do que simplesmente o produto
de um genoma, mas em um certo sentido nós somos, tanto coletiva quanto individualmente,
definidos no quadro do genoma” (DENNIS et al., 2001, p. 745; ênfases minhas).116
Para além desses textos de responsabilidade da equipe de edição da Nature, dos
quais sempre se poderia dizer que mistura conceitos sem critério porque isso é da praxe do
jornalismo, o próprio artigo científico central da equipe do PGH não escapa dessa mesma
oscilação. Após enumerar exaustivamente os muitos elementos genômicos117 que não se
encaixam na visão simplista gene � proteína � característica – sobretudo o chamado
processamento alternativo, segundo o qual os mesmos “genes” podem resultar em proteínas
diversas, e os vários indícios de um sistema regulador da expressão (ativação) dos genes tão
intricado quanto malcompreendido –, LANDER et al. (2001, p. 892) recaem na tentação da
hipérbole determinista ao qualificar a tarefa de compilação da “lista completa dos genes
humanos e das proteínas por eles codificadas” como a produção “da ‘tabela periódica’ da
pesquisa biomédica”. Ainda que um degrau abaixo do Livro da Vida, e apesar das
minúsculas e das aspas, não fica tão longe assim da metáfora preferida dos geneticistas
quando falam para o público, pois a tabela periódica representa, para a química, uma
espécie de quadro sinóptico da matéria, em que cada componente fundamental – os
elementos — encontra uma posição definida e matematicamente descrita numa totalidade
de ordem transparente. Alguns degraus mais abaixo se encontra outra metáfora escritural, a
do “caderno de notas de laboratório da evolução” (LANDER et al., 2001, p. 914), que
emergiria da comparação dos genomas de diversas espécies; embora bem menos imponente
que uma Bíblia, o caderno ainda assim é uma metáfora menos inocente do que aparenta em
sua pseudomodéstia, pois implica tomar a própria natureza como circunscrita aos limites
study of non-genetic influences on human development; it will unlock new insights into our origins and history as a species; and it points to new ways of combating disease.” 116 “Humans are much more than simply the product of a genome, but in a sense we are, both collectively and individually, defined within the genome.” 117 As complexidades recentemente descobertas no genoma serão consideradas com mais detalhe no próximo capítulo.
98
antropomorfizados de um processo de invenção (o que implica intencionalidade) e de
experimentação (o que implica controle) centrado nos genes (o que implica determinismo).
Formulações ainda mais atenuadas podem ser encontradas nos artigos de
comentário e contextualização encomendados pela Nature. O Nobel David Baltimore, por
exemplo, que havia sido nos anos 1980 um dos críticos da idéia de seqüenciar por completo
o genoma humano, afirma que “as seqüências-rascunho do genoma humano (...) fornecem
um esboço da informação necessária para criar um ser humano” (BALTIMORE, 2001, p.
814; ênfases minhas),118 uma escolha cuidadosa de palavras, pois ao menos deixa implícito
que o autor não as considera necessariamente suficientes para a criação de um exemplar da
espécie, como reza a doutrina genocêntrica da “ação gênica”. Esse modo de pensar que
marcaria a genética e a biologia molecular havia sido forjado ainda antes da descoberta da
estrutura do DNA em dupla hélice (no ano de 1953) e até mesmo antes da comprovação de
que era o DNA, e não uma ou mais proteínas, a substância portadora da hereditariedade
genética (1944); sua matriz se encontra num célebre e influente livro escrito não por um
biólogo, mas por um físico, e logo um prócer da mecânica quântica, ninguém menos que
Erwin Schrödinger, autor de What is Life?, no qual lança a noção de que o “sólido
aperiódico” capaz de conter de maneira cifrada as informações hereditárias teria de reunir
numa mesma entidade duas funções que, na metáfora, necessariamente vêm separadas: os
planos do arquiteto e a mão-de-obra do construtor (SCHRÖDINGER, 1997, pp. 41-42).
Chega a ser surpreendente que, seis décadas depois, uma analogia tão problemática
ainda esteja em circulação, mas é o que se observa na mescla de variados graus de
determinismo genético que as edições de fevereiro de 2001 apresentam. Não só a imagem
do plano-mestre (blueprint) se repete à exaustão como ainda chega a ser empregada quase
no mesmo sentido de Schrödinger, num box jornalístico da Science: “O genoma humano se
passa por plano-mestre para construir um organismo, mas cabe aos biólogos do
desenvolvimento decifrar como tal ‘plano-mestre’ dirige a construção” (VOGEL, 2001, p.
1181; ênfase minha).119
118 “The draft sequences of the human genome (...) provide an outline of the information needed to create a human being.” 119 “The human genome is touted as the master plan for building an organism. But it is up to developmental biologists to decipher how that ‘master plan’ directs construction.”
99
Muitos pesquisadores que escrevem nos dois periódicos preferiram no entanto
resguardar-se numa formulação mais cuidadosa, ainda que reminiscente da metáfora
arquitetônica, recorrendo à imagem do suporte ou arcabouço – scaffold, em inglês. Ela
ocorre, por exemplo, na seguinte descrição do processo de expressão gênica:120 “...
transcrição, pré-processamento de RNA e formação de terminações 3’ (...) envolvem o
reconhecimento de um ácido nucléico (DNA ou RNA) que serve como suporte para o
complexo multiproteína no qual a reação relevante (transcrição, processamento ou
formação de terminação 3’) acontece” (TUPLER et al., 2001, p. 832).121 Em sentido já mais
figurado, a metáfora reaparece, na edição da Science, num artigo de Svante Pääbo em que a
alternância entre hipérboles e prudência é particularmente digna de nota. Após comparar a
soletração com o pouso do homem na Lua e com a explosão da primeira bomba atômica,
pois, como nesses eventos marcantes, ela obrigaria o homem a refletir sobre si mesmo, ele
afirma que “a seqüência do genoma humano nos dá uma visão do arcabouço genético
interno em torno do qual cada vida humana é moldada” (PÄÄBO, 2001, p. 1219).122
Estamos muito distantes do plano-arquiteto-construtor de Schrödinger, não resta
dúvida, mas nem por isso de posse de uma analogia pouco problemática. Afinal, trata-se de
um arcabouço de tipo muito especial, dado a apresentar – na visão de Pääbo — articulações
tão nevrálgicas que podem ser consideradas essenciais; se, por um lado, a imagem acentua
o aspecto passivo e meramente mediador do DNA nas vias metabólicas da célula, em
consonância com o argumento antideterminista, por outro ela veicula implicitamente a
noção de que certas peças desse andaime são imprescindíveis para que o prédio final ganhe
uma cumeeira e permaneça de pé. Pääbo é colaborador do grupo de Anthony Monaco que
publicaria na concorrente Nature123 a descoberta do gene FOXP2, que chegou a ser
celebrado como o “gene da linguagem”, mas que na realidade é só uma seqüência de DNA
comprovadamente envolvida, em seres humanos, num aspecto de desenvolvimento
120 Transcrição de um trecho de DNA, no interior do núcleo celular, em uma molécula mensageira de RNA com seqüência correspondente, por sua vez traduzida, já fora do núcleo, na seqüência de aminoácidos que comporá a proteína. 121 “... transcription, pre-mRNA splicing and 3’ end formation. All three involve the recognition of a nucleic acid (DNA or RNA) that serves as a scaffold for a multiprotein complex in which the relevant reaction (transcription, splicing or 3’ end formation) occurs”. 122 “... and now the human genome sequence gives us a view of the internal genetic scaffold around which every human life is molded”. 123 V. 413, pp. 519 – 523, 04.out.2001; doi:10.1038/35097076.
100
embrionário que parece ser crucialmente necessário para a capacidade de articular palavras
(o que obviamente não significa que seja suficiente para desenvolvê-la); meses depois, a
comparação com o DNA de chimpanzés revelaria que a versão símia do gene tinha
seqüência diversa, o que reforçou a idéia de que se trata de um peculiaridade humana. É
esse o tipo de gene – exclusivo da espécie humana e associado com uma sua característica
de importância antropológica, como a linguagem — que Pääbo parece ter em mente
quando, ao utilizar a imagem menos determinista de arcabouço, acaba por sobredeterminá-
la com a noção, ela sim bem determinista, de que umas poucas permutações moleculares
estejam na origem da própria condição humana, com a emergência da fala.
Outra analogia inaugurada por Schrödinger é a da linguagem cifrada, cuja fonte está
sem dúvida na importância que a criptografia adquiriu durante a Segunda Guerra Mundial.
Nas décadas seguintes ela seria acrescida de novas camadas semânticas com o surgimento
dos primeiros computadores programáveis, quando o “código genético” passa a ser
subentendido como código de computador, programa, software, e aquilo que o DNA
encerra, como informação.124 Seu emprego se generalizou durante a década de 1960,
quando os mais destacados biólogos moleculares se dedicaram à tarefa de “decifrar” o
“código genético”, ou seja, descobrir os mecanismos pelos quais seqüências determinadas
de bases nitrogenadas no DNA especificam seqüências determinadas de aminoácidos para a
síntese de uma proteína particular – o que conduziu à descoberta de que isso ocorre por
meio de “sílabas” de três bases conseqüentemente batizadas como códons.
A partir de então, e até hoje, sempre que um biólogo molecular fala em código
genético ou trecho codificante na seqüência de DNA (éxon), é a imagem de um programa
de computador que ele tem em vista – e é dessa maneira que devem ser entendidas as
dezenas de menções que aparecem em ambas as edições de fevereiro de 2001 dos
periódicos científicos com a apresentação do genoma humano, tanto mais porque hoje a
análise computadorizada das seqüências se tornou uma ferramenta imprescindível da
genômica. Também elas, no entanto, aparecem ali com alguns grãos de sal, pois é longa a
tradição de crítica a essa noção, iniciada, entre outros, por LEWONTIN, ROSE e KAMIN
(1985). Além de muitos registros dando conta de que o tal código ou programa é muito
mais complexo do que o esquema instrução/execução faz supor – pela presença no genoma
101
de uma série de elementos e forças que escapam inteiramente a essa conceituação,125 como
as formas “parasíticas” de DNA conhecidas como transposons e retrotransposons —, em
pelo menos um caso a metáfora chega muito perto de ser abandonada, ou pelo menos posta
de pernas para o ar. É o que faz POLLARD (2001, p. 842), que associa a figura do
suporte/arcabouço para descrever o genoma não com o software, mas sim com o substrato
físico dos computadores: “A seqüência-rascunho do genoma humano é um passo
importante para catalogar o hardware molecular que dá suporte ao processo da vida”
(ênfases minhas).126
3.3 Cientistas culpam a imprensa
Em certos pontos do panorama oferecido pelas duas revistas sobre o genoma
humano, alguns pesquisadores conseguem lançar alguma luz sobre esse contínuo de visões
mais, ou menos, deterministas sobre o papel do genes. É o que se pode observar, por
exemplo, no artigo de PELTONEN e McKUSICK (2001), em que, apesar de reeditarem a
hipérbole de igualar o genoma com uma Tabela Periódica da Vida (p. 1224), os autores
tentam sistematizar essa coabitação de noções e estilos explicativos na forma de uma série
de “mudanças de paradigmas” que estariam ocorrendo na biologia molecular, compilando o
seguinte quadro de deslizamentos conceituais e prioridades de pesquisa (p. 1226; ênfases
minhas):
Genômica estrutural � Genômica funcional Genômica � Proteômica Descoberta de genes baseada em mapas � Descoberta baseada em seqüências Disfunções monogênicas � Disfunções multifatoriais Diagnósticos por DNA específico � Monitoramento de suscetibilidade Análise de um gene � Análise de múltiplos genes Ação gênica � Regulação gênica
124 Uma investigação minuciosa da história da construção de tal metáfora se encontra em KAY (2000). A discussão mais detida das implicações dessa noção será apresentada nos capítulos 4 e 5. 125 Sobre o potencial perturbador da metáfora do programa nesses elementos parasíticos do genoma, eis o que afirma numa reportagem da Science Phil Green, da Universidade de Washington: “Parece até que não estamos no controle de nosso próprio genoma” [It almost looks like we are not in control of our own genome.]. (PENNISI, 2001, p. 1179; grifo meu) 126 “The draft human genome sequence is an important step in cataloguing the molecular hardware that supports the process of life”.
102
Etiologia (mutação específica) � Patogênese (mecanismo)
Uma espécie � Várias espécies
Os dois itens assinalados em negrito indicam bem como parece ser importante e
profunda a transição em curso, ainda que poucos cientistas se dêem conta dela e, menos
ainda, tirem as conseqüências cabíveis ao menos naquela parte de seu discurso que se dirige
ao público e não aos próprios pares: regulação é em princípio algo a que os genes estão
submetidos, não algo que os genes fazem, comandam, determinam etc.; também parece
ocorrer um deslizamento da ênfase na noção informacional de mutação (como um tipo de
comutador liga/desliga, diferença que faz a diferença) pela de mecanismo, um composto de
elementos articulados em que a função se distribui por todos eles, que podem também se
rearranjar, modular, adaptar etc. “Nenhum gene opera num vácuo; ao contrário, cada gene
interage ativamente, seja diretamente, seja por meio de seu produto de proteína, com muitos
outros genes e produtos de genes. Isso resulta em variações marcantes nos sintomas de
pacientes com a mesma doença”, escrevem PELTONEN e McKUSICK (2001, p. 1226).127
Para além das referências protocolares ao papel do ambiente, que aparecem por toda a parte
entre os artigos do genoma, alguns autores avançam até o ponto de denunciar a falácia do
genocentrismo, da doutrina da ação gênica e do determinismo nela implícito: “Para alguns,
há um perigo de genomania, com todas as diferenças (ou similaridades, além do mais)
sendo depositadas no altar da genética. Mas eu espero que isso não aconteça. Genes e
genomas não agem num vácuo, e o ambiente é igualmente importante na biologia humana”,
escreve CHAKRAVARTI (2001, p. 823).128
Talvez a mais direta e surpreendente denúncia do determinismo genético, entre os
artigos de cientistas na Nature e na Science, tenha sido a que partiu do próprio Craig
Venter. Mais surpreendente, ainda, que ela conste do último parágrafo do texto (em franco
contraste com o fecho poético-laudatório da citação de T.S. Eliot do artigo do PGH na
Nature), e mesmo que contrabandeando mais uma metáfora arquitetônica à Schrödinger:
127 “No gene operates in a vacuum; rather, each gene busily interacts either directly or through its protein product with many other genes and gene products. This results in marked variations in the symptoms of patients with the same disease.” 128 “To some, there is a danger of genomania, with all differences (or similarities, for that matter) being laid at the altar of genetics. But I hope this does not happen. Genes and genomes do not act in a vacuum, and the environment is equally important in human biology.”
103
Há duas falácias a evitar: determinismo, a idéia de que todas as características da pessoa são “impressas” pelo genoma; e reducionismo, a visão de que, com o conhecimento completo da seqüência do genoma humano, seja apenas uma questão de tempo para que nossa compreensão das funções e interações dos genes venham a oferecer uma descrição causal completa da variabilidade humana. O verdadeiro desafio da biologia humana, para além da tarefa de descobrir como os genes orquestram a construção e a manutenção do miraculoso mecanismo de nossos corpos, estará à frente, na medida em que buscarmos explicar como nossas mentes puderam organizar pensamentos bem o bastante para investigar nossa própria existência.129 (VENTER et al., 2001, p. 1348; ênfases minhas)
Como explicar, então, a persistência das noções deterministas acerca do papel
primordial dos genes, dentro e fora da literatura científica? Vários autores representados
nas edições em pauta da Nature e da Science têm uma resposta pronta: é a imprensa leiga
que mantém viva a chama do genocentrismo. Assim se pronuncia, por exemplo, o artigo de
McGUFFIN, RILEY e PLOMIN (2001, p. 1232) acerca da genética comportamental, que
os autores apontam como um dos campos preferidos do tratamento sensacionalista (o que é
manifestamente verdadeiro): “Isso se deve provavelmente ao fato de que a maioria dos
jornalistas – em comum com a maioria das pessoas leigas cultas (e alguns biólogos) —
tendem a ter uma visão da genética simplificada, de gene único”.130 Essa é também a
opinião de PÄÄBO (2001, p. 1220):
... talvez o maior perigo que eu vejo se origine da enorme ênfase que a mídia pôs sobre o genoma humano. Os sucessos da genética médica e da genômica durante a última década resultaram numa forte guinada em direção a uma visão quase completamente genética de nós mesmos. Considero surpreendente que, dez anos atrás, uma geneticista tinha de defender a idéia de que não só o ambiente, mas também os genes, moldavam o desenvolvimento humano. Hoje, sentimo-nos compelidos a acentuar que há um grande componente ambiental para as doenças comuns, o comportamento e os traços de personalidade! Há uma tendência insidiosa a olhar para os nossos genes em busca da maioria dos aspectos de nossa ‘humanidade’ e a esquecer que o genoma não é senão um arcabouço interno para nossa existência.131
129 “There are two fallacies to be avoided: determinism, the idea that all characteristics of the person are ‘hard-wired’ by the genome; and reductionism, the view that with complete knowledge of the human genome sequence, it is only a matter of time before our understanding of gene functions and interactions will provide a complete causal description of human variability. The real challenge of human biology, beyond the task of finding out how genes orchestrate the construction and maintenance of the miraculous mechanism of our bodies, will lie ahead as we seek to explain how our minds have come to organize thoughts sufficiently well to investigate our own existence.” 130 “The genetics of behavior offers more opportunity for media sensationalism than any other brand of current science. (...) This is probably because most journalists –in common with most educated lay people (and some biologists)— tend to have a straightforward, single-gene view of genetics.” 131 “... perhaps the greatest danger I see stems from the enormous emphasis placed on the human genome by the media. The successes of medical genetics and genomics during the last decade have resulted in a sharp shift toward an almost completely genetic view of ourselves. I find it striking that 10 years ago, a geneticist
104
Não se trata, é claro, de minimizar o papel e a responsabilidade de jornalistas na
disseminação das formas deterministas de entender o genoma, mas a circulação desses
conceitos pelos vários segmentos da opinião pública – em particular o trânsito entre as
subesferas tecnocientífica (pesquisadores especializados), semileiga (pesquisadores de
outras áreas e jornalistas ou divulgadores de ciência) e leiga (leitores em geral) — não
parece encaixar-se muito facilmente na figura da distorção de cunho sensacionalista. Em
primeiro lugar, porque as metáforas que veiculam tais conteúdos não foram cunhadas pela
imprensa, mas assimiladas por ela; depois, porque os cientistas, ainda que se afastem da
literalidade dessas analogias em suas categorias operacionais de uso no contexto
experimental, prosseguem na sua utilização, em maior ou menor grau, nos textos que
destinam para formar a opinião de seus próprios pares e dos jornalistas especializados,
leitores de publicações como Nature e Science, intermediários na transmissão e na
interpretação desses feitos da tecnociência genômica para o público leigo. Podem-se cogitar
muitas razões para que o façam, mas certamente uma delas – possivelmente uma das
centrais — é que tais metáforas permanecem como sítios articuladores de sentido em seu
próprio pensamento, vale dizer, da interpretação cultural que organizam para seu próprio
consumo, e da sociedade, acerca de sua atividade e das realidades “naturais” que
investigam. Paga-se um preço, além de colher dividendos, por cunhar e pôr em circulação
metáforas como a do Livro da Vida ou do programa de computador no DNA, como ensina
na própria Science um crítico precoce do genoma, LEWONTIN (2001b, p. 1263):
Parece impossível fazer ciência sem metáforas. Desde o século XVII a biologia vem sendo uma elaboração da metáfora original de Descartes para o organismo como uma máquina. Mas o uso de metáforas carrega consigo a conseqüência de que construímos nossa visão do mundo e formulamos nossos métodos para sua análise como se a metáfora fosse a própria coisa. Há muito que o organismo deixou de ser visto como uma máquina e passou a ser enunciado como sendo uma máquina.132
had to defend the idea that not only the environment but also genes shape human development. Today, one feels compelled to stress that there is a large environmental component to common diseases, behavior, and personality traits! There is an insidious tendency to look to our genes for most aspects of our ‘humanness,’ and to forget that the genome is but an internal scaffold for our existence.” 132 “It seems impossible to do science without metaphors. Biology since the 17th century has been a working out of Descartes' original metaphor of the organism as machine. But the use of metaphor carries with it the
105
Dito de outra maneira: os geneticistas e biólogos moleculares de fato pensam no
organismo ou na célula como uma espécie de computador que tem no genoma seu software,
o qual contém não só programas aplicativos como também os próprios dados a serem
computados – como fica evidente nos vários exemplos oferecidos acima. Ocorre que as
realidades medidas e descritas pela contínua pesquisa genômica são mais e mais
incompatíveis com esse vocabulário, sem que no entanto ele seja abandonado por essa
razão. O resultado dessa promiscuidade conceitual e figurativa é a abertura de uma margem
larga de maleabilidade retórica para o discurso de cientistas, que podem modulá-lo
intuitivamente de acordo com a ocasião e o público, aumentando ou diminuindo a
literalidade das metáforas de fundo determinista que sempre estiveram na raiz das razões da
genômica. Nem todos se mostram satisfeitos com as ambigüidades dessa miscelânea,
porém, e já se batem por alguma forma de depuração da linguagem de consumo público
sobre a genômica – seja por demanda de rigor intelectual, seja pela antevisão que as
metáforas exageradas poderão ser cobradas ao pé-da-letra, mais à frente.
Uma das vozes que se levantam com autoridade nessa direção, e na própria Nature,
é a de Horace Freeland Judson, do Centro para História da Ciência Recente da George
Washington University; jornalista por formação profissional, Judson angariou prestígio
acadêmico com uma das duas principais obras historiográficas sobre as primeiras décadas
da biologia molecular.133 Assim como Lewontin, ele se inclina para a recusa da idéia de que
o determinismo genético e o linguajar metafórico a ele associado sejam obra apenas da
imprensa:
A linguagem que usamos sobre a genética e o projeto genoma por vezes limita e distorce nossa própria compreensão e a do público. (...) Essa linguagem descuidada não é mero jargão, cientistas falando entre si. Cientistas falam para os meios de comunicação, e os meios de comunicação falam para o público – e aí os cientistas reclamam que os meios de comunicação entenderam tudo errado e que os políticos e o público estão desinformados. O que os meios de comunicação fazem é mediar. A desinformação pública é em grande medida e na origem culpa dos próprios cientistas.134 (JUDSON, 2001, p. 769)
consequence that we construct our view of the world, and formulate our methods for its analysis, as if the metaphor were the thing itself.” 133 The eighth day of creation (JUDSON, 1996); a outra, The path to the double helix, é de autoria de Robert OLBY (1994). 134 “The language we use about genetics and the genome project at times limits and distorts our own understanding. (...) This sloppy language is not merely shorthand, scientists talking among themselves. Scientists talk to the media, then the media talks to the public –and then scientists complain that the media get
106
Judson denuncia em seu artigo como problema central o uso da expressão gene de,
ou gene para (gene for, em inglês), como na locução “gene da linguagem”, e defende a
ressurreição do termo alelo: em lugar da construção paradoxalmente finalista “gene do
câncer de mama”, o correto seria falar do alelo (gene com defeito ou modificação) que
aumenta a chance de desenvolver um tumor mamário. Afinal, na maioria das vezes, o que
os geneticistas obtêm não vem a ser mais do que uma correlação estatística entre a presença
de um determinado marcador em certa região cromossômica e a probabilidade de
desenvolver dada moléstia. Para ele, o que está sendo perdido com a generalização desse
vocabulário é a capacidade de falar com propriedade da complexidade inerente ao tema:
Pliotropia. Poligenia. Talvez esses termos não se tornem facilmente de emprego geral, mas o ponto crítico que nunca deve ser omitido é que os genes agem em concerto uns com os outros – coletivamente, com o ambiente. De novo, tudo isso já foi compreendido há tempos por biólogos, quando se desvencilham de palavras habitualmente descuidadas. Não abandonaremos o programa mendeliano reducionista por um holismo oportunista: não podemos abandonar o termo gene e seus aliados. Ao contrário, por nós mesmos e pelo público em geral, o que necessitamos é nos lançar mais inteira e precisamente na linguagem apropriada da genética.135 (JUDSON, 2001, p. 769)
Um bom começo, quem sabe, tendo em vista a impossibilidade de engatar marcha à
ré na hoje popularíssima noção de gene, seria aderir à definição mais operacional – e menos
comprometida semanticamente — oferecida por VENTER: “Um gene é um locus de éxons
cotranscritos” (2001, p. 1317). Simples, na aplicação, mas sem as dobras nas quais possam
refugiar-se as implicações de fundo determinista – como na formulação tradicional que
define o gene de modo finalista e pré-formacionista pelo produto eventual de sua
transcrição, a proteína de cujo “código” ele é o suposto portador e arauto. Contra esse
alargamento do horizonte genômico, no entanto, trabalha um dos mais proeminentes
biólogos moleculares, ninguém menos do que um co-descobridor da estrutura do DNA.
it wrong and that politicians and the public are misinformed. What the media do is mediate. Public misinformation is largely and in origin the fault of scientists themselves.” 135 “Pleiotropy. Poligeny. Perhaps these terms will not easily become common parlance; but the critical point never to omit is that genes act in concert with one another –collectively with the environment. Again, all this has long been understood by biologists, when they break free of habitual careless words. We will not abandon the reductionist mendelian programme for a handwringing holism: we cannot abandon the term gene and its allies. On the contrary, for ourselves, for the general public, what we require is to get more fully and precisely into to the proper language of genetics.”
107
3.4 O maniqueísmo de consumo de James Watson
Os anos de 2000 a 2003 não foram tomados somente por entrevistas coletivas,
edições especiais de periódicos científicos e reportagens em profusão sobre o genoma e
suas maravilhas. O mercado editorial de livros também viu proliferarem obras de
divulgação sobre o genoma, entre elas duas de autoria de James Watson: A passion for
DNA – Genes, genomes, and society saiu em 2000, ano em que a quase completa
seqüência-rascunho motivou a cerimônia na Casa Branca; e DNA – The Secret of Life, de
2003, ano em que se comemoraram os 50 anos de seu artigo da dupla hélice, em parceria
com Francis Crick, e a finalização da seqüência do genoma humano, que deixou assim de
ser um rascunho. São livros destinados ao grande público, sobretudo o segundo, e têm o
propósito claro de fixar o DNA e o genoma como os esteios da biologia moderna. Observa-
se neles, assim como nas edições da Nature e da Science de fevereiro de 2001, uma mescla
paradoxal de hipérboles promocionais e de resultados parcos de aplicações, as quais
contrastam com muitas indicações sobre a complexidade genômica, que por sua vez
caminha na contramão da idéia de que da soletração do DNA da espécie humana
resultariam rapidamente ganhos para a saúde humana. A diferença mais notável é que
Watson, escrevendo fora do contexto da literatura científica, parece mais à vontade para
pintar a biologia molecular em tons ainda mais róseos do que os resultados mensuráveis da
pesquisa nesse campo permitiriam esperar.
O otimismo tecnocientífico desbragado é a marca de ambos os volumes, mas o de
2000 faz com que ele transpareça melhor; sendo uma coletânea de ensaios publicados
anteriormente ao longo de três décadas, revela como durante esse tempo todo Watson
esteve obcecado com a idéia de melhoramento humano por meio da biologia molecular,
coisa que aliás ele explicita logo nas primeiras páginas do prefácio do livro: “O modo pelo
qual tomei decisões no início da vida influenciaram fortemente o modo como tentei mover
o futuro da biologia em direção ao melhoramento humano” (WATSON, 2000, p. ix).136 O
tom é esse do começo ao fim, o de uma celebridade autoconsciente da biologia que não
108
hesita em pôr a própria notoriedade e uma lendária agressividade verbal a serviço da
promoção do que percebe como a causa maior, fazer a biologia molecular avançar. Co-
organizador do livro, Walter Gratzer contribui para a hagiologia watsoniana chamando-o de
“estadista” logo nas primeiras páginas de sua introdução (GRATZER, 2000, p. xviii), o
homem que declarou a Guerra ao Câncer, iniciador de uma revolução intelectual que já
teria dado respostas que vinham sendo buscadas “desde o alvorecer da razão” (p. xvii), e
segue nesse diapasão. O próprio Watson investia nessa automitologia já em 1973,
declarando-se parte “da mais alta forma de realização humana” (WATSON, 2000, p. 92),
hábito que mantinha em 1997 (e depois), quando dava curso ao juízo de Max Delbrück
segundo o qual ele, Watson, seria o Einstein da biologia (p. 215).
Essas seriam apenas informações anedóticas, não fosse o fato de que contribuem
para compor um contexto geral de exageração em que mensagem e arauto reforçam
mutuamente a própria grandeza – e a mensagem, como não poderia deixar de ser, é a do
determinismo genético, a melhor ferramenta de promoção do PGH. Nessa empreitada, cabe
até mesmo ressuscitar a metáfora – velha de séculos — do homúnculo no espermatozóide
e/ou no óvulo, que GRATZER (2000, p. xiv), insatisfeito com a imagem do plano-mestre
(blueprint), convoca para descrever o DNA. O próprio Watson qualifica os genes como
essência da vida, tanto da espécie quanto do indivíduo: “Uma vez que nossos genes são tão
cruciais para nosso potencial para uma vida plena, a capacidade de examinar suas formas
precisas, individuais, fornecerá ferramentas cada vez mais importantes para predizer o
curso futuro de dadas vidas humanas” (WATSON, 2000, p. 169)137 – e isso em 1994,
quando a crítica ao determinismo genético já corria há pelo menos uma década. Para o
Einstein da biologia, no entanto, tais objeções são pouco mais do que manifestações de
fraqueza diante da perspectiva de poder imensurável aberta pela biologia molecular e pelo
PGH:
... o genoma humano é o nosso plano-mestre por excelência, que fornece as instruções para o desenvolvimento normal e o funcionamento do corpo humano. Que sejamos seres humanos e não chimpanzés não se deve, em sentido algum, à nossa educação [nurturing],
136 “How I made decisions early in my life strongly influenced how I have tried to move the future of biology toward human betterment.” 137 “Because our genes are so crucial to our potential for meaningful lives, the ability to look at their precise, individual forms will provide ever more important tools for predicting the future course of given human lives.”
109
mas sim à nossa natureza, isto é, nossos genes. (...) À medida que o Projeto Genoma Humano prossegue para sua conclusão, ganharemos o poder de compreender as características genéticas essenciais que nos tornam humanos.138 (WATSON, 2000, p. 172)
O que esperar, de resto, de alguém que se orgulha de ter feito campanha contra a
pesquisa em embriologia, nos seus sete anos na Universidade Harvard (1959-1966), diante
da impossibilidade de uma ainda maldesenvolvida biologia molecular reduzi-la aos genes?
(WATSON, 2000, p. 52) Apenas que encare com certo desprezo aqueles que não
concordam com tamanha latitude para a influência das seqüências de DNA e que
supostamente não têm a coragem de encarar a “verdadeira” condição do homem: “O
conceito de determinismo genético é inerentemente perturbador para a psique humana, que
gosta de acreditar que tem algum controle sobre seu destino” (WATSON, 2000, p. 196-
197).139 Sua explicação para o antideterminismo de Lewontin, seu colega de Harvard, é a
de uma motivação ideológica (como se a sua própria fosse isenta disso), “nurturista” e
politicamente correta, forjada na aversão ao movimento eugênico nos Estados Unidos e na
Alemanha nazista que há muito seriam já páginas viradas da genética, argumenta
(WATSON, 2000, p. 205).
A esses argumentos de fundo ético-político ele opõe outro, que se poderia qualificar
como libertário-utilitarista: existem genes bons e existem genes ruins (WATSON, 2000, p.
223), e imoral é nada fazer para impedir que futuros seres humanos recebam um quinhão
injusto de genes menos que perfeitos (WATSON, 2000, p. 197), um raciocínio que também
já foi usado por DULBECCO (1997, p. 210). Apesar de ter sido o responsável pela
destinação de 3% das verbas do PGH para questões éticas, WATSON (2000, p. 201)
defende que o horror e o sofrimento presentes das doenças devem prevalecer sobre
preocupações vagas e prematuras acerca de dilemas éticos. O pressuposto disso, porém, é
que a genômica engendraria necessária e rapidamente, em menos de uma década,
benefícios revolucionários para a saúde – algo que o “diretor de marketing” do PGH conta
na mesma página ter atestado diante o interlocutor que realmente importava: “... o
Congresso, sendo informado de que grandes avanços médicos fluiriam de modo
138 “... the human genome is our ultimate blueprint providing the instructions for the normal development and functioning of the human body. That we are human beings and not chimpanzees is not due in any sense to our nurturing but to our natures, that is, our genes. (...) As the Human Genome Project moves to completion, we will have the power to understand the essential genetic features that make us human.”
110
virtualmente automático do conhecimento do genoma, não viu razão alguma para não
prosseguir em velocidade” (WATSON, 2000, p. 201).140 As primeiras verbas começaram a
sair em 1987.
Ainda que reeditados em 2000, esses eram textos de intervenção das décadas de
1980 e 1990, com clara intenção de angariar apoio para o PGH. Em 2003, quando saiu
DNA – The secret of life, escrito em parceria com o jornalista Andrew Berry, o genoma já
se encontra pronto e acabado. Mais de uma década se dissipara, desde os primórdios do
projeto, e, mesmo diante da inegável aceleração na descoberta de genes associados com
doenças (na maioria, síndromes genéticas raras), contavam-se nos dedos de uma só mão os
reais avanços em matéria terapêutica derivados de pesquisa genômica. Isso empresta a esse
segundo volume de Watson – em conjunto com um DVD de mesmo título e pretensões
didáticas, o que evidencia o propósito de atingir público amplo e professores de biologia
em particular, e o sítio na internet DNA Interactive141— uma mescla ainda mais
desconcertante de resultados sóbrios, quando não desapontadores, com uma profissão de fé
renovada no potencial inesgotável da genômica.
O tom do texto é desabridamente determinista, na caracterização que oferece do
DNA e do genoma humano pela pena leve do jornalista, como se pode depreender da
seleção abaixo (WATSON e BERRY, 2003; ênfases minhas):
• DNA (...) guarda a verdadeira chave para a natureza das coisas vivas. Ele armazena a informação hereditária que é passada adiante de uma geração à próxima e orquestra o mundo incrivelmente complexo da célula.142 (p. xi)
• A vida é simplesmente uma questão de química.143 (p. xiii) • É o nosso DNA que nos distingue de outras espécies e que nos faz as criaturas criativas,
conscientes, dominantes e destrutivas que somos. E aqui estava, em sua inteireza, aquele conjunto de DNA – o manual de instruções da espécie humana.144 (p. xiii-xiv)
139 “The concept of genetic determinism is inherently unsettling to the human psyche, which likes to believe that it has some control over its fate.” 140 “... Congress, being told that big medical advances would virtually automatically flow out of genome knowledge, saw no reason not to move fast.” 141 www.dnai.org, no qual se pode ler: “Escrito no DNA humano está um registro da individualidade de cada pessoa, a história partilhada da evolução da espécie e o código que pode fornecer uma perspectiva sobre a saúde futura da pessoa.” [Written in human DNA is a record of each person's individuality, a shared history of the evolution of our species, and the code that can provide insight into a person's future health.] 142 “DNA (...) holds the very key to the nature of living things. It stores the hereditary information that is passed on from one generation to the next, and it orchestrates the incredibly complex world of the cell.” 143 “Life is simply a matter of chemistry.”
111
• ... a noção de que a vida pudesse ser perpetuada por meio de um livro de instruções inscrito num código secreto me atraía.145 (p. 36)
• A descoberta da dupla hélice fez soar o dobre da morte para o vitalismo. (...) A vida era só uma questão de física e química, ainda que física e química exoticamente organizadas.146 (p. 61)
• ... o modo pelo qual o DNA exerce sua mágica controladora sobre células, sobre o desenvolvimento, sobre a vida como um todo, é por meio de proteínas.147 (p. 67)
• Acima de tudo, o genoma humano contém a chave para a nossa humanidade. O genoma humano é o grande conjunto de instruções de montagem que governa o desenvolvimento de cada um de nós. A própria natureza humana está inscrita nesse livro.148 (p. 166)
• Projeto Genoma Humano (...) é um corpo de conhecimento tão precioso quanto a humanidade jamais adquirirá, com potencial para tocar em nossas questões filosóficas mais básicas sobre natureza humana, tanto para propósitos do bem quanto do mal.149 (p. 172)
• ... uma maravilhosa nova arma em nossa luta contra a doença e, mais ainda, toda uma nova era em nossa compreensão de como os organismos são montados e como operam, e do que é que nos afasta biologicamente das outras espécies – do que, em outras palavras, nos torna humanos.150 (p. 193)
• ... permanece o fato de que a maior parte do que será cada organismo individual está programado inelutavelmente em cada uma de suas células, no genoma.151 (p. 202)
• ... à medida que aprendemos mais sobre a base genética de moléstias adultas relativamente comuns, do diabetes à doença cardíaca, a bola de cristal biológica se tornará ainda mais poderosa, adivinhando os destinos genéticos relevantes para todos nós.152 (p. 345)
O extenso da compilação se justifica para que se forme uma idéia mais concreta do
teor da noção de gene e de genoma que se repete ad nauseam para o público amplo – não
por meio de periódicos especializados, que nem o leigo nem o professor lêem, nem
tampouco, no caso, por jornais e revistas de interesse geral, cujo linguajar e apresentação
144 “It is our DNA that distinguishes us from all other species, and that makes us the creative, conscious, dominant, destructive creatures that we are. And here, in its entirety, was that set of DNA –the human instruction book.” 145 “... the notion that life might be perpetuated by means of an instruction book inscribed in a secret code appealed to me”. 146 “The discovery of the double helix sounded the death knell for vitalism. (...) Life was just a matter of physics and chemistry, albeit exquisitely organized physics and chemistry.” 147 “... the way DNA exerts its controlling magic over cells, over development, over life as a whole, is through proteins.” 148 “Above all, the human genome contains the key to our humanity. (...) The human genome is the great set of assembly instructions that governs the development of every one of us. Human nature itself is inscribed in that book.” 149 “The Human Genome Project is much more than a vast roll call of As, Ts, Gs, and Cs: it is as precious a body of knowledge as humankind will ever acquire, with a potential to speak to our most basic philosophical questions about human nature, for purposes of good and mischief alike.” 150 “... a marvelous new weapon in our fight against disease and, even more, a whole new era in our understanding of how organisms are put together and how they operate, and of what it is that sets us apart biologically of other species –what, in other words, makes us human.” 151 “... the fact remains that the greatest part of what each individual organism will be is programmed ineluctably into its every cell, in the genome.”
112
poderiam estar sendo distorcidos por imperativos estranhos à ciência, como na tradicional
acusação de sensacionalismo. Não, trata-se de uma obra de divulgação científica dirigida
pelo “Einstein da biologia” ao grande público, diretamente (ainda que coadjuvado por um
jornalista). Ele faz uma série de concessões à complexidade do genoma e à importância da
interação dos genes com o ambiente, é verdade, mas é preciso procurar muito para
encontrar, nas mais de 400 páginas do livro, passagens como esta: “Nós não somos meras
marionetes em cujos fios apenas nossos genes dão puxões” (WATSON e BERRY, 2003,
p.381).153
Isso evidentemente não isenta o jornalismo científico de responsabilidade na
propagação da visão determinista do gene, mas cumpre a função de mostrar que o circuito
de construção de imagens sociais da pesquisa tecnocientífica abrange inúmeros canais e que
pelo menos de alguns deles os cientistas participam diretamente, sem intermediários, e que
modulam sua retórica de acordo com as finalidades que pretendem alcançar com cada
público particular. Escrevendo um artigo técnico num periódico científico, não se podem
permitir certas figuras de linguagem; num comentário ou revisão para uma publicação de
espectro ligeiramente mais amplo, como Nature ou Science, a latitude de vocabulário e
imaginário é um pouco maior; mais, ainda, em livros, artigos ou entrevistas que caibam na
rubrica de divulgação científica. Em todos os casos, porém, estão sempre sujeitos ao
escrutínio da crítica, parta ela de seus próprios pares ou de leigos informados, e necessitam
portanto preservar um mínimo de acuidade científica sob a retórica de intervenção – razão
mais do que suficiente para que o jornalismo científico incorpore entre seus padrões e
procedimentos uma disposição que se aproxime da crítica, tal como é exercida em relação
aos produtos culturais e às campanhas eleitorais.
Em DNA – The secret of life, por exemplo, Watson faz alguns ajustes na descrição
das maravilhas do DNA. Já não subscreve integralmente o modelo inspirado nas síndromes
genéticas raras – em que uma simples mutação acarreta a doença — como matriz para
conceber e explicar todas as moléstias. No caso do câncer, já não fala tanto de genes (antes
haviam sido vírus) causadores de tumores, mas de intervir em seus produtos
152 “... as we learn more about the genetic basis of relatively common adult afflictions, from diabetes to heart disease, the biological crystal ball will become ever more powerful, telling the genetic fortunes relevant to us all.” 153 “We are not mere puppets upon whose strings our genes alone tug.”
113
intermediários: “Com as metodologias de DNA em desenvolvimento, os pesquisadores
estão finalmente fechando o cerco em medicamentos que possam ter em mira apenas
aquelas proteínas-chave (...) que promovem crescimento e divisão de células cancerosas”
(WATSON e BERRY, 2003, p. 128).154 Como bom “estadista”, ele declara sua fé na futura
proliferação de histórias de sucesso, ainda que o presente nada tenha de brilhante (p. 128) e
que o preço disso seja firmar uma espécie de armistício na Guerra Contra o Câncer, ou pelo
menos aceitar a perspectiva de um conflito prolongado, sem vitória à vista:
Ao longo da próxima década, uma armada virtual de pequenas moléculas e inibidores de proteínas estará provavelmente pronta para singrar os sistemas dos pacientes de câncer, sufocando a formação de vasos sangüíneos antes que os tumores tenham uma chance de se tornarem letais. E, se o crescimento de tumores puder de fato ser interrompido dessa maneira, poderemos vir a enxergar o câncer como fazemos com o diabetes, uma doença que pode ser controlada, mais do que completamente curada de uma vez por todas.155 (WATSON e BERRY, 2003, p. 130)
O mesmo tipo de oscilação entre resultados parcos da genômica no presente e uma
fé desproporcional em suas realizações futuras caracteriza a descrição para outro campo da
saúde muito caro a Watson, a doença mental (WATSON e BERRY, 2003, p. 390), assim
como no caso das raízes genéticas da homossexualidade (p. 391). Em certo sentido, o livro
todo é uma sucessão de relatos razoavelmente factuais e honestos de como é modesto o
retrospecto da genômica em matéria de tecnologias de promoção da saúde,
contrabalançados pela convicção do co-descobridor da dupla hélice de que os melhores
frutos ainda virão. Em nenhum momento ele entretém a menor suspeita de que talvez o
problema não esteja na limitação do esforço de pesquisa, como parece acreditar, mas na
própria estratégia de pesquisa, ou pelo menos na expectativa desmesurada que ele
contribuiu para criar e disseminar. Na realidade, é de uma espécie de fé no controle de
moléculas que se trata, aqui, como fica evidente na importância desmesurada que Watson
atribui à invenção das técnicas de manipulação genética (DNA recombinante), em 1973,
por Stanley Cohen e Herbert Boyer:
154 “With developing DNA methodologies researchers are finally closing in on drugs that can target only those key proteins –many of them growth factors and then receptors on the cell surface— that promote cancer cell growth and division.” 155 “Over the next decade, a virtual armada of small-molecule and protein inhibitors will probably be ready to sail through the systems of cancer sufferers, thwarting blood vessel formation before tumors have a chance to
114
Novos e extraordinários panoramas se abriram: nós finalmente conseguiríamos entender as doenças genéticas, da fibrose cística ao câncer; revolucionaríamos a justiça criminal com os métodos de identificação genética; revisaríamos profundamente as idéias sobre as origens do homem – sobre quem somos e de onde viemos — pelo uso de abordagens baseadas em DNA; e aperfeiçoaríamos espécies agronomicamente importantes com uma eficácia com que antes só poderíamos ter sonhado.156 (WATSON e BERRY, 2003, p. xiii)
Apesar de todas as perorações sobre o papel crucial do ambiente, apesar de todas as
referências à complexidade do genoma e à necessidade de muitos anos ou décadas de
pesquisa, apesar do distanciamento da genética realmente existente em relação ao
paradigma das síndromes monogênicas, a mensagem que interessa deixar para o leigo é
essa: o câncer é uma doença genética, como a fibrose cística, e o mundo precisa financiar a
pesquisa genômica para que um dia possa dar cabo delas (pouco importando, para efeitos
retóricos, que o câncer não possa ser comparado com a fibrose cística, uma condição
monogênica e por isso mesmo determinística, e que 15 anos após a identificação do gene
correspondente ainda não haja uma cura para ela).
3.5 Sintomas de crise na genômica
À primeira vista, a seqüência do genoma não é mais do que uma fileira – que parece
interminável, para a escala humana — de letras químicas (bases nitrogenadas) abreviadas
como As, Ts, Gs e Cs, como um livro numa língua estrangeira que não se compreende, na
imagem de Fred Sanger (PENNISI, 2001, p. 1180), inventor do principal método de
seqüenciamento de DNA. Com base no conhecimento acumulado sobre certas
peculiaridades das seqüências que contêm genes, no entanto, a bioinformática tem
instrumentos para identificar muitos candidatos a genes e, até, arriscar alguns palpites sobre
a função provável de parte deles (a partir da comparação com características de outros
become lethal. And if tumor growth can indeed be curtailed in this way, we may come to regard cancer as we do diabetes, as a disease that can be controlled rather than completely cured outright.” 156 “Extraordinary new scientific vistas opened up: we would at last come to grips with genetic diseases from cystic fibrosis to cancer; we would revolutionize criminal justice through genetic fingerprinting methods; we would profoundly revise ideas about human origins –about who we are and where we came from– by using DNA-based approaches to prehistory; and we would improve agriculturally important species with an effectiveness we had previously only dreamed of.”
115
genes – e das proteínas que especificam — quando notoriamente envolvidos num
determinado grupo de funções). Esse trabalho de análise computadorizada, ou in silico (por
oposição tanto a in vivo quanto a in vitro) do genoma em busca de genes de interesse é
muitas vezes referida como garimpo (mining). Uma das principais esperanças dos
bioinformatas e biólogos moleculares sempre foi, tendo a seqüência completa do DNA da
espécie, tornarem-se capazes de fazer grandes descobertas dessa maneira, rodando
programas de computador especializados em garimpar genes, sem precisar gastar meses ou
anos em laboriosos experimentos bioquímicos.
Vários artigos publicados nas edições da segunda semana de fevereiro de 2001 dos
periódicos Nature e Science se dedicavam a apresentar resultados preliminares dessa
garimpagem com as seqüências-rascunho recém-obtidas, e eles foram em certa medida
decepcionantes. No caso da Nature, os nove artigos com esse propósito são sumarizados
num décimo (BIRNEY et al., 2001), que os qualifica como frustrantes e compensadores, ao
mesmo tempo: o grupo que se dedicou a garimpar genes associados com moléculas
envolvidas no trânsito de substâncias pelas membranas celulares encontrou alguns; já o que
procurou uma classe importante de sinais celulares, as quinases dependentes de ciclinas,
saiu de mãos abanando, sem encontrar nem um gene sequer que especificasse uma quinase
que já não fosse descrita na literatura; por fim, e mais importante, não foram tampouco
encontrados genes novos relacionados com cânceres. Apesar disso, ao final do artigo
reafirmam seu otimismo: “... há muitos tesouros não descobertos no presente conjunto de
dados, esperando para serem encontrados por intuição, trabalho duro e verificação
experimental. Boa sorte, e feliz caçada!” (BIRNEY et al., 2001, p. 828)157
Uma das razões para essa frustração está sem dúvida no equacionamento
historicamente feito por geneticistas entre função biológica e especificação de proteína(s),
raiz da própria noção de código genético. Até hoje é comum encontrar definições
abreviadas de gene como um trecho de DNA que codifica uma proteína, o que há muito já
deixou de fazer sentido pleno, pois há décadas se sabe que o DNA genômico pode também
especificar, por exemplo, seqüências de RNA que nunca serão transportadas até ribossomos
e traduzidas na língua das proteínas. Ora, uma das coisas que o seqüenciamento do genoma
evidencia é que muito da complexidade dos vertebrados parece decorrer mais da
116
sofisticação de um aparelho de regulação do genoma;158 a mera comparação das
seqüências-rascunho com as de outras espécies revela por exemplo que eles se diferenciam
de genomas mais “primitivos”, por exemplo, pela presença de íntrons159 muito mais longos,
o que faz supor que eles tenham alguma função, sim, só que ainda não compreendida,
possivelmente relacionada com a regulação da expressão gênica. Mesmo assim, os
geneticistas permanecem fixados na definição histórica, gene = função = proteína, a ponto
de reciclar a metáfora infeliz do DNA-lixo (junk DNA) com a superimposição de outra
metáfora, só um pouco menos depreciativa, oriunda da cibernética:
Quase todo o crescimento no tamanho dos genes em seres humanos, comparados com a mosca [drosófila] ou com o verme [C. elegans, um nematódeo], se deve ao fato de íntrons se tornarem muito mais longos (cerca de 50 kb [mil bases] contra 5 kb). Os éxons codificadores de proteínas, por outro lado, são aproximadamente do mesmo tamanho. Esse decréscimo na razão entre sinal (éxon) e ruído (íntron) no genoma humano conduz a falhas na previsão por estratégias computacionais de busca de genes.160 (BIRNEY et al., 2001, p. 827; grifos meus)
Esse processo de localização, delimitação e associação funcional de genes é
conhecimento como anotação do genoma. O que fica evidente da publicação das
seqüências rascunho em 2001, e mesmo da seqüência final em 2003, é que ainda não
chegou a era da biologia teórica, virtual, em que a pesquisa das variações funcionais – na
saúde e na doença — se daria unicamente in silico. A anotação continua a depender do
trabalho de laboratório para a validação de genes, que pode ter sido abreviada, mas nem por
isso se tornou obsoleta; por outro lado, agora são dezenas de milhares de genes aguardando
esse escrutínio. Computadores ainda não são capazes de separar confiavelmente ganga e
pirita de ouro verdadeiro. De volta à bancada, portanto:
157 “... there are many undiscovered treasures in the current data set waiting to be found by intuition, hard work and experimental verification. Good luck, and happy hunting!” 158 Para simplificar, a contextualização que define quando e como quais genes serão transcritos e traduzidos, e como serão processados de maneiras alternativas. 159 Seqüências de DNA que não especificam aminoácidos para compor proteínas e que se intrometem entre os trechos especificadores, ditos éxons. 160 “Nearly all of the increase in gene size in human compared with fly or worm is due to the introns becoming much longer (about 50 kb versus 5 kb). The protein-encoding exons, on the other hand, are roughly the same size. This decrease in signal (exon) to noise (intron) ration in the human genome leads to a misprediction by computational gene-finding strategies.”
117
Embora essas buscas ressaltem o poder da nova informação genética, elas também revelam limitações importantes. Em particular, que a existência de uma seqüência gênica relacionada não significa que haja uma proteína correspondente: a seqüência pode ser um pseudogene não expressado. (...) Estudos de expressão [gênica] serão necessários para complementar a informação genômica. Um alerta final é que muitos dos fatores são componentes de complexos com múltiplas subunidades. Às vezes o mesmo fator está presente em complexos múltiplos, cujas atividades diferem substancialmente. Portanto, o valor total da informação genômica só poderá ser realizado quando for acoplado com os estudos bioquímicos apropriados.161 (TUPLER, PERINI e GREEN, 2001, p. 833)
Tais limitações são reconhecidas, de passagem, no próprio artigo do PGH na Nature
(LANDER et al., 2001, p. 907 e p. 913). Outros autores também se sentem compelidos a
ressaltar a impossibilidade de analisar o genoma unicamente com meios computacionais
(BORK e COPLEY, 2001, p. 819; GALAS, 2001, p. 1257 e p. 1259). Alguns chegam
mesmo a esboçar alguma exasperação com o predomínio da díade seqüenciamento e
bioinformática, como Tom Pollard, em citação numa das reportagens da Nature, temendo
que esse predomínio possa procrastinar o necessário trabalho “úmido” (de laboratório) sem
o qual a biologia será incapaz de completar sua compreensão da fisiologia (BUTLER,
2001, p. 760), raciocínio que Pollard repete em seu próprio artigo na mesma Nature
(POLLARD, 2001, p. 843), no qual busca ir além da versão Big Science da biologia: “[A
anotação] é um caso em que a ciência miúda renderá um produto melhor do que a
abordagem industrial requerida para seqüenciamento”.162
Não é possível para esses pesquisadores, que têm suas carreiras inteiramente
amarradas à genômica, ir muito além da constatação das limitações e de tentar compensá-
las com profissões de fé no potencial ainda por explorar. Essa atitude ambígua se manifesta
de modo agudo com a constrangedora baixa quantidade de genes163 encontrada no genoma
(o qual, como já diz o nome, enseja uma empreitada para recensear... genes). Todos
parecem surpresos com o fato de que as diferenças entre espécies não podem ser atribuídas
somente aos genes, motivo e objetivo do PGH, assim como a doença e a variação
161 “Although these searches highlight the power of the new genomic information, they also reveal important limitations. In particular, the existence of a related gene sequence does not mean that there is a corresponding protein: the sequence could be a non-expressed pseudogene. (...) Expression studies will be required to complement genomic information. A final caveat is that many of the factors are components of multi-subunit complexes. Sometimes the same factor is present in multiple complexes whose activities differ substantially. Thus, the full value of the genomic information can be realized only when it is coupled with appropriate biochemical studies.” 162 “This is one case where small science will yield a better product than the industrial approach required for sequencing.”
118
individual tampouco podem ser sempre correlacionadas com mutações em regiões
“codificantes” (RUBIN, 2001, P. 820; PELTONEN e McKUSICK, 2001, p. 1225). A
própria identificação e mapeamento de SNPs (polimorfismos de nucleotídeo único), grande
esperança de aceleração na descoberta de variações de genes associadas com moléstias,
representa na realidade uma sofisticação nas técnicas tradicionais de mapeamento e
clonagem de genes, pouco acrescentando em matéria de explicação – são mais marcadores
precisos do que sítios de identidade em sentido estrito, pois menos de 1% dos encontrados
impacta a função de proteínas (VENTER et al., 2001, p. 1330). A única reação vigorosa ao
aspecto “provocativo” do baixo número de genes, que chama de “aparente paradoxo do
valor N”, é CLAVERIE (2001), para quem o problema está não em N (número de genes),
mas em k (a complexidade biológica da espécie humana, a seu ver superestimada). Ele nega
que apenas uma abordagem sistêmica seja capaz de revelar os segredos do genoma e renova
uma profissão de fé nas graças do reducionismo, argumentando que o DNA da espécie não
é mais complexo do que um jato moderno, com suas 200.000 peças em interação (cujo
comportamento nem por isso é descrito como não-determinístico): “Dessa maneira, eu
acredito que o uso de simples modelos regulatórios hierárquicos (...) será mais uma vez
suficiente para gerar rapidamente a maioria dos resultados significativos em genômica
funcional” (CLAVERIE, 2001, p. 1256; ênfase minha).164
Jean-Michel Claverie é uma voz isolada, porém. A maioria dos que escrevem nas
duas edições “históricas” da Nature e da Science pressentem que há problemas à frente para
essa estratégia de pesquisa, ainda que fiquem muito longe de desqualificá-la. BALTIMORE
(2001, p. 815), com a autoridade de quem foi um crítico precoce do PGH e na sua
finalização se apresenta como um adepto sóbrio, resume bem essa duplicidade afirmando
que a análise pós-seqüenciamento permite responder muitas questões globais, mas que os
detalhes – enfim, o que importa, em qualquer pesquisa e sobretudo no PGH — continuam
em aberto:
163 Que será discutida em maior detalhe no próximo capítulo. 164 “Accordingly, I believe that the use of simple hierarchical regulatory models in conjunction with the spectacular development of high-throughput analyses (microarray, two-hybrid system, proteomics, chemical screening, etc.) will again be sufficient to rather quickly generate most of the significant results in functional genomics.”
119
... fica claro que não obtivemos nossa indubitável complexidade sobre vermes e plantas pelo uso de muito mais genes. Compreender o que de fato nos dá nossa complexidade – nosso enorme repertório comportamental, nossa capacidade de produzir ação consciente, nossa notável coordenação física (partilhada com outros vertebrados), nossas modificações finamente sintonizadas em resposta a variações externas do ambiente, nosso aprendizado, memória... preciso continuar? — permanece como um desafio para o futuro.165 (BALTIMORE, 2001, p. 816)
Ocorre que a genômica não representa somente uma estratégia de pesquisa
biológica, mas também um sistema técnico em formação, que começa a enfrentar
dificuldades e resistências para além das instituições de pesquisa que lançaram suas
sementes. Apesar de todo o entusiasmo dos investidores de risco com o binômio
biotecnologia/bioinformática no auge da bolha da alta tecnologia, simultâneo à divulgação
das duas seqüências-rascunho do genoma humano, pelo menos dois artigos nas edições
consideradas lançam alertas sobre dois pontos nevrálgicos: o problema da performance das
startups de genômica (abordado na norte-americana Science) e o das patentes (na britânica
Nature).
O alerta sobre o desempenho econômico parte de MALAKOFF e SERVICE (2001)
na seção noticiosa da Science. Eles abrem sua reportagem citando o anúncio das empresas
Millennium e Bayer, em janeiro de 2001, com muita fanfarra, de um novo antitumoral que
iniciaria testes clínicos de fase I (para verificar a segurança de um medicamento em poucas
dezenas de voluntários, antes de estudos de eficácia e dosagem) apenas oito meses após a
descoberta de um gene-alvo, uma economia de cerca de dois anos no processo habitual. As
companhias apresentaram a nova droga como um “marco” da indústria. Eles ressalvam que
o anúncio da Millennium e da Bayer poderia mesmo ser um sinal de que a genômica
começava enfim a cumprir suas promessas, mas recomendam cautela: “Essas alegações
expansivas não são incomuns na indústria da biotecnologia, que por mais de uma década
tem exagerado o potencial gerador de lucros do seqüenciamento do genoma humano,
apenas para ver muitas dessas alegações naufragarem num mar de tinta vermelha”
165 “...it is clear that we do not gain our undoubted complexity over worms and plants by using many more genes. Understanding what does give us our complexity — our enormous behavioural repertoire, ability to produce conscious action, remarkable physical coordination (shared with other vertebrates), precisely tuned alterations in response to external variations of the environment, learning, memory. . . need I go on? — remains a challenge for the future.”
120
(MALAKOFF e SERVICE, 2001, p. 1193).166 Os autores discriminam três ramos
principais de atividade: empresas produtoras de ferramentas (chips de DNA,
seqüenciadores); descobridoras de genes (genômica) e distribuidoras de informação; e
desenvolvedoras de medicamentos. Na sua avaliação, as oportunidades de negócios, nessa
fase de implantação do setor, se concentram no primeiro tipo de empresa, como fica
evidente pelo desempenho da Applied Biosystems na tabela abaixo, a única a apresentar
lucro entre 16 selecionadas:
DESEMPENHO DE ALGUMAS EMPRESAS DE GENÔMICA
Preço das ações* US$
(Máximo/mínimo no ano)
Faturamento em 2000 US$ milhões
(% de variação)
Lucro/ prejuízo
US$ milhões Tipo de empresa
Applied Biosystems 73 (43-160) 1,388 (14%) 186,3 Ferramenta Affymetrix 68 1/16 (42 5/16-163 1/2) 201 (84%) -13,1 Ferramenta
Incyte Genomics 22 13/16 (19-144 1/2) 194 (24%) -47 a -57 Informação/ ferramenta
Millennium Pharmaceuticals
43 9/16 (42 3/8-44 9/64) 213 (16%) -75 Ferramenta/ medicamento
Informax 11 1/2 (6 5/8-31 3/4) 17,1 (71%) -21 Ferramenta
Myriad Genetics 71 1/2 (19-138) 34 (34%) 8,7 Proteômica/ medicamento
Lexicon Genetics 13 (8-49 1/2) 11,5 (342%) -18,5 Informação/ ferramenta
Human Genome Sciences
54 9/16 (25-116 3/8) 21,4 (-9%) -225 Informação/ medicamento
Curagen 37 1/8 (18 3/8-128 ¼) 20,8 (38%) -27 Medicamento
Gene Logic 21 13/16 (13 15/16-152 1/2) 16,8 (25%) -18 Informação/ ferramenta
Celera Genomics 46.2 (27.8-276) 42,7 (247%) -92,7 Informação
Hyseq 15 (9 5/8-139 ½) 15,6 (143%) -22,3 Ferramenta/ medicamento
Biacore 42 (12 3/4-46 ¼) 28 (38%) 3,4 Proteômica Large Scale Biology 9,1 (5.5-33.5) 23,3 (45%) -8,2 Proteômica Oxford Glycosciences 19,25 (17.25-23.1) 6,5 (2%) -10,3 Proteômica Ciphergen Biosystems 8,4 (6.75-39.4) 6 (96%) 3,4 Proteômica Tabela 3: Quadro comparativo de 16 empresas de genômica (*) em 06.fev.2001 Fonte: MALAKOFF e SERVICE, 2001, p. 1201
Quanto aos outros dois tipos de empresa, muitas delas formadas por pesquisadores
no calor do entusiasmo pioneiro, o texto lança mão de uma apreciação cautelosa que se
revelaria profética:
166 “Such expansive claims are not unusual in the biotechnology industry, which for more than a decade has hyped the profitmaking potential of sequencing human genes, only to see many of those claims founder in a sea of red ink.”
121
... as companhias ainda precisam mostrar que podem seguir adiante assim tão rapidamente, de maneira rotineira e sustentada. Mesmo assim, alguns observadores estão céticos quanto a agilidade precoce traduzir-se em ciclos substancialmente mais curtos de desenvolvimento de medicamentos, pois grandes atrasos com freqüência ocorrem durante testes clínicos e no processo regulatório.167 (MALAKOFF e SERVICE, 2001, p. 1203)
No início de 2002, Craig Venter deixou a presidência da Celera Genomics, que
buscava reorientar-se para a área de desenvolvimento de medicamentos, diante da baixa
rentabilidade do modelo informacional. No ano seguinte seria a vez de outro pesquisador-
empresário, William Haseltine, da Human Genome Sciences, perder seu posto de direção.
De acordo com NIGHTINGALE e MARTIN (2004), a propalada revolução biotecnológica
anunciada pela genômica não passa de um mito, pois os dados sobre inovações
efetivamente obtidas por ela sugere muito mais que esteja seguindo o conhecido ritmo
incremental de substituição de tecnologias, que em geral nada tem de revolucionário:
O impacto limitado de biofármacos no sistema de saúde foi recentemente assinalado por Arundel e Mintzes, usando dados do sistema Prescrire, o qual (diferentemente dos dados da FDA) avalia o desempenho de novos medicamentos em relação a terapias preexistentes. Tais dados sugerem que, apesar dos gigantescos investimentos, apenas 16 biofármacos avaliados entre janeiro de 1986 e abril de 2004 foram considerados melhores do que ‘aperfeiçoamentos mínimos’ diante de terapias preexistentes. Tomadas em seu conjunto, essas evidências empíricas não oferecem apoio algum para a noção de que tenha ocorrido uma revolução biotecnológica. (2004, p. 566)168
A questão das patentes, por sua vez, é tocada de passagem num box de reportagem
na Science, em que se chama a atenção para o fato de que uma das conseqüências do baixo
número de genes “codificantes” no genoma humano será um acirramento das expectativas
patentárias, pois a mesma legião de pesquisadores candidatos a capitalistas estará
competindo pelos direitos de propriedade intelectual sobre um número menor de “bens”
genômicos potencialmente correlacionáveis com funções biológicas – um pouco como os
167 “...the companies still have to show that they can move that speedily on a routine, sustained basis. Even then, some observers are skeptical that early agility will translate into substantially shorter drug development cycles, as major delays often occur during clinical trials and in the regulatory process.” 168 “The limited impact of bio-pharmaceuticals on healthcare has recently been highlighted by Arundel and Mintzes using data from Prescrire, which (unlike FDA data) evaluates the performance of new drugs relative to pre-existing treatments. This data suggests that despite huge investments only 16 biopharmaceuticals evaluated between January 1986 and April 2004 were better than ‘minimal improvements’ over pre-existing
122
títulos de direitos de mineração se empilham sobre as mesmas áreas na Amazônia
brasileira, analogia tanto mais justificada por estarem todos esses cientistas metidos, como
garimpeiros de genes, numa verdadeira corrida pelo ouro genômico. Essa, aliás, é a
primeira constatação do artigo de BOBROW e THOMAS (2001, p. 763) na Nature: a
percepção pública de que a proteção patentária sobre seqüências de DNA está cada vez
mais remunerando a pura sorte – ou a velocidade169 — e não tanto a inventividade. Eles
também apontam a problemática da superposição de direitos sobre um mesmo trecho de
DNA, que só é boa para a proliferação de processos e de escritórios de advocacia
especializados, não para remunerar e assim incentivar o dispendioso desenvolvimento
eficaz de medicamentos, argumento-padrão em favor da patentabilidade dos genes. Eles
alertam para a possibilidade de que o conflito latente entre o interesse geral da sociedade e
o de pesquisadores-empresários acabe por macular a reputação do campo de pesquisa como
um todo, o que tem potencial para ameaçar o apoio político e financeiro de que a genômica
necessita para seguir adiante:
Na ausência de ação legislativa séria, as políticas têm evoluído em certa medida por meio de um diálogo no seio de um círculo limitado de participantes. Interesses comerciais, que são bem representados nos escritórios de patentes, não têm sido contrabalançados por aqueles que representam os interesses mais amplos do público. O resultado tem sido uma tendência inata do sistema patentário para “deslizar” na direção de estender a patentabilidade a invenções biotecnológicas para as quais os limiares de novidade, inventividade e utilidade foram rebaixados.170 (BOBROW e THOMAS, 2001, p. 763)
Tal ameaça aos interesses continuístas do sistema tecnogenômico não entraram
somente no radar de profissionais do questionamento como Sandy Thomas, diretora do
Nuffield Council on Bioethics, do Reino Unido. Na Science, o tema é abordado, entre
outros, por dois senadores norte-americanos, um republicano e outro democrata – como
para demonstrar que o genoma humano (ou melhor, a genômica) está acima de
preocupações terrenas, como a política partidária: “... o público precisa entender as novas
treatments. Taken together this empirical evidence provides no support for the notion that there has been a biotechnology revolution.” 169 “Speed matters” (velocidade é importante) era a divisa da empresa Celera. 170 “In the absence of serious legislative action, policy has more or less evolved through dialogue within a limited circle of participants. Commercial interests, which are well represented to the patent offices, have not been counter-balanced by those who represent the broader public interest. The result has been an innate tendency for the patent system to 'creep' in the direction of extending patentability to biotechnology inventions for which the thresholds for novelty, inventiveness and utility have been lowered.”
123
tecnologias, de modo a que temores infundados não se desenvolvam e retardem o
progresso” (JEFFORDS e DASCHLE, 2001, p. 1251; ênfases minhas).171 As centenas de
autores do artigo do PGH na Nature também sentiram a necessidade de incluir nele um
reconhecimento de que se faz necessária uma readequação do seu campo de pesquisa no
imaginário social: “Precisamos estimular expectativas realistas de que os benefícios mais
importantes não serão colhidos da noite para o dia” (LANDER et al., 2001, p. 914).172
Essa mesma preocupação reapareceria três anos depois na edição comemorativa dos
50 anos da dupla hélice do periódico Nature, em longo artigo sobre o futuro da genômica.
A percepção de que a distância entre promessas e realizações pode se virar contra a boa
imagem da genômica aparece de forma oblíqua sob a rubrica da educação do público:
Adentramos uma singular ‘era educável’ em relação à genômica; profissionais de saúde e o público estão crescentemente interessados em aprender sobre genômica, mas a sua aplicação generalizada à saúde ainda está vários anos à frente. Para que o cuidado à saúde baseado em genômica tenha o máximo de eficácia, quando for amplamente factível, e para que os membros da sociedade tomem as melhores decisões sobre os usos da genômica, precisamos tirar proveito agora dessa oportunidade única de aumentar o entendimento.173 (COLLINS et al., 2003a, p. 841)
3.6 Reposicionamento estratégico: genomas para tudo
O texto de COLLINS et al. (2003a) publicado na época (abril de 2003) da
verdadeira finalização do genoma, quando este deixa de ser um mero rascunho, é uma peça
muito clara em seu objetivo de intervenção na esfera pública tecnocientífica com o
propósito de justificar a biologia como Big Science e de manter e ampliar a hegemonia
genômica em pesquisa biológica (aí incluídos derivados como proteômica, transcriptômica,
regulômica, metabolômica e outros termos que possam surgir nessa algo cômica
proliferação de neologismos). Propósitos similares inspiram texto correlato publicado na
171 “... the public must understand the new technologies so that unfounded fears will not develop and slow progress.” 172 “We must set realistic expectations that the most important benefits will not be reaped overnight.” 173 “We have entered a unique ‘educable era’ regarding genomics; health professionals and the public are increasingly interested in learning about genomics, but its widespread application to health is still several years away. For genomic-based health care to be maximally effective once it is widely feasible, and for members of society to make the best decisions about the uses of genomics, we must take advantage now of this unique opportunity to increase understanding.”
124
mesma época na concorrente Science, de autoria dos líderes das três principais entidades
promotoras do PGH (Institutos Nacionais de Saúde e Departamento de Energia, nos
Estados Unidos, e o Wellcome Trust, no Reino Unido), respectivamente Francis Collins,
Aristides Patrinos e Michael Morgan. Apesar do determinismo genético um tanto mitigado
– fala-se somente em seqüências genômicas que “guiam” e “influenciam” desenvolvimento
e função biológicos (COLLINS et al. 2003a, p. 835 e p. 844), não em causas de doenças
genéticas –, o vocabulário de ambos os textos permanece hiperbólico como nos idos de
2001: revolução, nova era, aventura, visionários, escala monumental, benefícios eternos,
desafio científico entusiasmante etc. Com todas as referências de praxe ao papel da
interação com o ambiente e à complexidade inerente ao genoma, o que interessa é assegurar
o fluxo de verbas, para que a promessa possa ser cumprida:
Os milhões de pessoas em todo o mundo que apoiaram nossa aventura para seqüenciar o genoma humano o fizeram na expectativa de que ele beneficiaria a humanidade. Agora, na alvorada da era genômica, torna-se crítico carrear a mesma intensidade para a derivação de benefícios do genoma que tem caracterizado o esforço histórico para obter a seqüência. Se o apoio à pesquisa prosseguir em níveis vigorosos, nós imaginamos que a ciência genômica logo começará a revelar os mistérios dos fatores hereditários da doença cardíaca, do câncer, do diabetes, da esquizofrenia e de uma série de outras condições.174 (COLLINS et al., 2003b, p. 290; ênfases minhas)
Em 2003, no entanto, a conjuntura mundial é inteiramente outra, após a eleição de
George W. Bush, o 11 de Setembro, a Guerra do Afeganistão e o início da Guerra do
Iraque. Desaparecem, por exemplo, as muitas referências ao PGH como esforço
internacional. O Reino Unido, de sua parte, busca capitalizar ao máximo, nas
comemorações oficiais do cinqüentenário da dupla hélice, o fato de a descoberta ter
acontecido no laboratório Cavendish da Universidade de Cambridge. O único resquício
daquele internacionalismo anti-Celera é o artigo conjunto dos próceres do PGH na Science,
mas uma leitura mais atenta indica que os textos mais relevantes para o futuro da genômica,
nas duas edições de abril de 2003, são o de COLLINS e seus colegas do Instituto Nacional
174 “The millions of people around the world who supported our quest to sequence the human genome did so with the expectation that it would benefit humankind. Now, at the dawning of the genome era, it is critical that we encourage the same intensity toward deriving medical benefits from the genome that has characterized the historic effort to obtain the sequence. If research support continues at vigorous levels, we imagine that genome science will soon begin revealing the mysteries of hereditary factors in heart disease, cancer, diabetes, schizophrenia, and a host of other conditions.”
125
de Pesquisa do Genoma Humano (NHGRI) dos Estados Unidos, na Nature, e o de cinco
autores do Departamento de Energia (DOE) na Science (FRAZIER et al., 2003). O
panorama que sobressai é o de uma espécie de tratado de Tordesilhas genômico, uma
redivisão dos territórios de pesquisa e seqüenciamento entre NHGRI (grosso modo, saúde
humana e genômica comparada de espécies animais) e DOE (genômica voltada para
ambiente e energia, com microrganismos e plantas).
Com uma capacidade instalada de seqüenciamento para empreender solitariamente a
soletração de 15 a 20 genomas do porte do humano em cinco anos (COLLINS et al., 2003a,
p. 844), o NHGRI adquiriu momento tecnológico suficiente para passar a concorrer com
seus antigos parceiros estrangeiros, em particular com os britânicos (Sanger
Centre/Wellcome Trust). Seus luminares traçam um plano continuísta para o futuro em que
a metáfora do Livro da Vida é substituída, implicitamente, pela de um Edifício da Vida, em
que o PGH é rebaixado à condição de mero alicerce para erguer três andares sucessivos:
Genômica para a Biologia, Genômica para a Saúde e Genômica para a Sociedade
(COLLINS et al., 2003a, p. 836). Primeiro piso: o objetivo é entender a arquitetura do
próprio genoma, compilando um catálogo de todos os seus elementos funcionais (e não
somente genes no sentido “codificante”). Segundo piso: aplicar as informações estruturais
do genoma na caracterização de doenças, de modo a criar uma nova taxonomia, molecular,
das mesmas, assim como desenvolver novas abordagens terapêuticas. Terceiro piso:
projetar conhecimentos genômicos para além do contexto clínico, extraindo conclusões nos
campos racial, étnico e comportamental e debatendo as conseqüências e limites éticos
desses usos.
Neste último andar (Genômica para a Sociedade) ouvem-se até mesmo ecos do
controverso programa sociobiológico de Edward O. Wilson, em meados dos anos 1970, de
fundamentar as ciências humanas na biologia e nos invariantes do comportamento humano
fixados pela evolução, retomado triunfalmente, décadas depois, no não menos polêmico
livro Consiliência (WILSON, 1999). Afirmam COLLINS et al. (2003a, p. 843) que a nova
disciplina tem potencial para fazer a ciência social avançar:
... a genômica pode também contribuir para outros aspectos da sociedade. Assim como o PGH e desenvolvimentos relacionados semearam novas áreas de pesquisa em biologia básica e saúde, também criaram oportunidades para pesquisa sobre questões sociais, mesmo
126
no que abarca a compreensão mais completa de como definimos a nós mesmos e aos outros.175
Não por acaso, o programa apresentado pelos autores do DOE na Science vem
batizado como Genomas Para a Vida (FRAZIER et al., 2003, p.290), como se fosse um
quarto andar no edifício do NHGRI, ou quem sabe um prédio vizinho. O projeto aqui é
estender as malhas da genômica a dois campos cruciais para a sustentabilidade da economia
em sua relação com a natureza, energia de fontes limpas e saneamento ambiental, com o
seqüenciamento de plantas e até de comunidades inteiras de microrganismos, na esperança
de aprender com eles soluções bioquímicas ancestrais para o enfrentamento de condições
ambientais extremas: “Um objetivo central deste programa é entender tão bem micróbios e
comunidades de micróbios, assim como suas máquinas moleculares e controles no plano
molecular, que possamos usá-los para satisfazer necessidades nacionais e do DOE”
(FRAZIER et al., 2003, p.291; ênfase minha).176 Em lugar de um patrimônio comum da
humanidade (a informação contida no genoma humano) e um imperativo moral (seqüenciar
o genoma para curar doenças e reparar a injustiça genética de que falam Watson e
Dulbecco), a biologia modelo Big Science começa a transferir-se para o domínio da
justificação com base num conjunto de valores mais em voga – a segurança nacional dos
Estados Unidos: “Conhecimento é poder, e nós precisamos desenvolver uma compreensão
ampla dos sistemas biológicos, se pretendermos usar suas capacidades eficazmente para
enfrentar desafios sociais tremendos” (FRAZIER et al., 2003, p.293).177
O novo aliado dos homens do DOE são os antigos “inimigos”, Craig Venter e seus
colaboradores da Celera, abrigados agora no Instituto para Alternativas Biológicas de
Energia178 fundado pelo egresso da presidência da empresa Celera com finalidades não por
coincidência muito próximas do programa Genomas Para a Vida, como se pode ler em seu
sítio de internet:
175 “... genomics can also contribute to other aspects of society. Just as the HGP and related developments have spawned new areas of research in basic biology and in health, they have also created opportunities for research on social issues, even to the extent of understanding more fully how we define ourselves and each other.” 176 “A central goal of this program is to understand the microbes and communities of microbes, and their molecular machines and controls at the molecular level so well that we can use them to address DOE and national needs.” 177 “Knowledge is power, and we must develop a comprehensive understanding of biological systems if we are to use their abilities effectively to meet daunting societal challenges.” 178 http://www.bioenergyalts.org/
127
O Instituto para Alternativas Biológicas de Energia (IBEA) é uma instituição baseada em pesquisa dedicada a explorar soluções para o seqüestro de carbono usando micróbios, vias metabólicas de micróbios e plantas. Por exemplo, a genômica pode ser aplicada para aperfeiçoar a capacidade de comunidades microbianas terrestres e oceânicas de remover carbono da atmosfera. O IBEA vai desenvolver e usar vias e metabolismo microbianos para produzir combustíveis com conteúdo energético aumentado de uma maneira ambientalmente saudável. O IBEA vai empreender engenharia genômica para entender melhor a evolução da vida celular e como esses componentes da célula funcionam conjuntamente num sistema vivo.179
Um dos primeiros resultados dessa parceria IBEA/DOE foi anunciado em abril de
2004: o seqüenciamento simultâneo dos genomas de todos os microrganismos encontrados
numa amostra de água do mar dos Sargaços, número estimado de pelo menos 1.800
espécies (mínimo de 148 desconhecidas), genomas entre os quais a equipe liderada pelo
IBEA garimpou mais de 1,2 milhão de genes inéditos para a biologia molecular,
identificados com base unicamente em análise por métodos computacionais (VENTER et
al., 2004, p. 66), dos quais nada menos que 782 estão provavelmente envolvidos na
especificação de proteínas fotorreceptoras e, portanto, no aproveitamento da luz solar.
Tanto para a saúde humana quanto para a do ambiente planetário, teve início, sim,
uma nova era –a da genômica por atacado. Resta saber se, a exemplo das dificuldades do
PGH, ela vai entregar tudo o que promete, ou se as novas expectativas criadas não
equivalem a uma fuga para a frente, uma amplificação da retórica maximalista que sempre
serviu, e bem, à marcha da biologia molecular em busca de hegemonia.
3.7 A salvação pelo controle
A biologia molecular e a genômica, em particular, representam o ápice da extensão
ao domínio da biologia da estratégia materialista e da valorização moderna do controle de
179 “Institute for Biological Energy Alternatives (IBEA) is a research-based institution dedicated to exploring solutions for carbon sequestration using microbes, microbial pathways, and plants. For example, genomics could be applied to enhance the ability of terrestrial and oceanic microbial communities to remove carbon from the atmosphere. IBEA will develop and use microbial pathways and microbial metabolism to produce fuels with higher energy content in an environmentally sound fashion. IBEA will undertake genome engineering to better understand the evolution of cellular life and how these cell components function together in a living system.” http://www.bioenergyalts.org/about.html
128
que fala Hugh LACEY (1998; 1999) e que antes fora tão bem-sucedida nos campos da
física e da química, por exemplo. Diferentemente destas, porém, não se pode dizer que a
estratégia materialista em genômica tenha engendrado propriamente teorias e leis cuja
aceitação e legitimação pudessem alimentar pretensões de universalidade, pois essa é mais
a expectativa dos biólogos moleculares em relação a essa nova disciplina de investigação:
que o acúmulo de informações genômicas de várias espécies e o aperfeiçoamento dos
métodos matemático-computacionais de análise acabem por conduzir à formalização de leis
biológicas propriamente ditas e com base nelas à capacidade de predição com precisão – e
portanto de controle sobre sistemas naturais vivos. O determinismo genético que inspira
aberta ou implicitamente muitos de seus esforços, por exemplo, não chega a erigir-se em
teoria; quando muito, pode ser encarado como um hábito ou esquema de pensamento que
pode ter sido heurístico, em outros tempos, mas que tem uma longa e controversa história –
basta dizer que um de seus arrimos, a noção de fluxo unidirecional de informação no
sentido DNA � RNA � proteína, recebeu de seu próprio criador, Francis Crick, o apelido
de Dogma Central da biologia molecular (como que para marcar a distância enorme em que
se encontrava de uma verdadeira lei natural).
O que vem exposto nos itens anteriores deste capítulo deve bastar para deixar
evidente o quanto a genômica se encontra distante de tornar-se uma teoria e quanto o corpo
de seus escritos explicativos extrapola a prosa científica estrita para enveredar num discurso
de tipo misto, que cumpre a dupla função de apresentar resultados parciais de esforços de
pesquisa bilionários e de justificar sua existência com base em benefícios futuros. Como
não pode – ainda, dirão seus defensores — apoiar-se firmemente em resultados de sua
aplicação, pois eles são muito incipientes (ao menos na comparação com as promessas
hiperbólicas), o discurso sobre/a favor da genômica tende a recorrer à construção de uma
espécie de mitologia molecular em que a própria genealogia do campo é reconstruída como
uma história de proporções épicas, ao longo do percurso Mendel � Watson e Crick �
Cohen e Boyer � PGH e Celera. Como não podem falar a partir da superioridade conferida
pela universalidade das leis e corroborada pelo binômio aplicabilidade/controle, seus
pesquisadores se encastelam numa espécie de elevação moral e ética, a partir da qual
lançam razzias punitivas contra aqueles – biólogos ou não — que apontam problemas na
estratégia materialista e/ou na valorização do controle, quando aplicadas a sistemas vivos,
129
uma classe de objetos que parece particularmente resistente a essa abordagem (o que não
quer dizer que sejam por princípio refratários a ela).
Os textos de pesquisadores próximos do PGH, por exemplo, manifestam o propósito
claro de monopolizar esse bastião de superioridade ética e dele expulsar aqueles que na sua
ótica aparecem como aventureiros argentários, da estirpe de Craig Venter, retratando-se a si
mesmos como cavaleiros do Graal da biologia em defesa de sua preservação para o bem da
humanidade, ou seja, a publicação imediata das seqüências de DNA obtidas para que
possam ser utilizadas por pesquisadores de qualquer parte do mundo (e inimigos portanto
da noção proprietária de conhecimento que inspirou a formação da empresa Celera). Essa é
evidentemente uma visão simplista dos interesses envolvidos, pois a teia de relações que
entrelaça pesquisa financiada com recursos públicos, patentes e empresas privadas tem
vários pontos de contato com centros e pesquisadores do PGH, como lembra Eliot
MARSHALL (2001, p. 1191) num texto noticioso da Science: cientistas do Instituto
Whitehead, um dos cinco maiores centros de seqüenciamento do PGH, participam, por
exemplo, de um consórcio com as empresas Affymetrix, Bristol-Myers Squibb e
Millennium para empacotar informação genômica em chips de DNA. A parceria pós-PGH
firmada pelo Departamento de Energia com o IBEA de Craig Venter, e ainda por cima para
garimpar genes de imediato interesse industrial, demonstra que não são nada claras as
linhas divisórias entre forças “do bem” e “do mal”, nesse campo.
Um dos mais destacados militantes da propaganda genômica é sem dúvida James
Watson, e deveria ser motivo de preocupação para os biólogos moleculares que ele seja sua
figura mais reconhecida e ouvida – não só por sua personalidade excêntrica e
congenitamente midiática, mas também porque, como autor, ele busca empregar todos os
canais disponíveis para propagar a mensagem pró-genômica e, no seu caso, também pró-
determinista. Se é verdade que as edições da Nature e da Science examinadas acima não
contêm nem um texto sequer de sua lavra, também é fato que há escritos seus para todos os
gostos e propósitos: livro-texto (Molecular biology of the gene), autobiografias (The double
helix e Genes, girls, and Gamow), coletâneas de ensaios (A Passion for DNA), livros de
divulgação científica (DNA – The secret of life), sítios na internet (www.dnai.org) e DVD
para uso no ensino secundário (DNA – The secret of life). Em seus escritos, que por sua
natureza e público dispensam muitas amarras do discurso científico nas revistas
130
especializadas, Watson pode permitir-se uma latitude de retórica inadmissível na prosa
técnica. Em sua expansividade, e apesar de deplorar a mistura de ideologia com ciência
(WATSON e BERRY, 2003, p. 372), o “estadista” da biologia molecular eleva a mescla de
valores cognitivos com valores sociais a um patamar inédito, no qual o genoma se torna
artigo de fé, o Livro da Vida que substituiria, com vantagem, a Bíblia e a Torá:
Aqueles de nós que não sentem necessidade de um código moral anotado nalgum tomo antigo podem lançar mão, na minha opinião, de uma intuição moral inata, há muito moldada pela seleção natural, que promoveu a coesão social em grupos de nossos antepassados. (...) Poderia acontecer de, à medida que o conhecimento genético crescer nos séculos vindouros, com mais e mais indivíduos alcançando o entendimento de si mesmos como produtos de lances aleatórios de dados (...), vir a ser santificada uma nova gnose, muito mais antiga, na realidade, do que as religiões de hoje. Nosso DNA, o livro de instruções da criação humana, pode bem vir a rivalizar com escrituras religiosas como o guardião da verdade.180 (WATSON e BERRY, 2003, p. 404)
O corolário de ser esse livro sagrado mero fruto do acaso é que tal religião se
revelaria também uma religião pragmático-libertária, que teve seu primeiro advento na
descoberta da dupla hélice (1953, com Watson e Crick) e o segundo na invenção dos meios
para decifrá-la e modificá-la (1973, com Cohen e Boyer), quando os homens de ciência
passam a comungar na graça do controle: “Chegara o tempo de tornar-se pró-ativo. Bastava
de observações: nós estávamos sendo chamados pela perspectiva da intervenção, da
manipulação de coisas vivas. O advento das tecnologias de DNA recombinante, e com elas
da capacidade de talhar moléculas de DNA, tornaria tudo isso possível” (WATSON e
BERRY, 2003, p. 85).181
180 “Those of us who feel no need for a moral code written down in an ancient tome have, in my opinion, resource to an innate moral intuition long ago shaped by natural selection promoting social cohesion in groups of our ancestors. (...) It could be that as genetic knowledge grows in centuries to come, with ever more individuals coming to understand themselves as products of random throws of the genetic dice (...) a new gnosis in fact much more ancient than today’s religions will come to be sanctified. Our DNA, the instruction book of human creation, may well come to rival religious scripture as the keeper of the truth.” 181 “The time had come to become proactive. Enough observation: we were beckoned by the prospect of intervention, of manipulating living things. The advent of recombinant DNA technologies, and with them the ability to tailor DNA molecules, would make all this possible.”
131
CAPÍTULO 4
Outras biologias: sistemas de desenvolvimento
4.1 A complexidade redescoberta do genoma
A culminação do determinismo genético representada pelo anúncio em fevereiro de
2001 dos dois trabalhos científicos com as seqüências-rascunho do genoma humano nos
periódicos Nature e Science, tal como descrita no capítulo anterior, comportou também um
aspecto anticlimático. Na imprensa especializada como na leiga, o tom de surpresa
decepcionada gravitou em torno do reduzido número total de genes (unidades
transcricionais) identificados e estimados na análise das duas seqüências do genoma
humano, respectivamente 30.000-40.000 unidades transcricionais, no caso do Consórcio
Internacional de Seqüenciamento do Genoma Humano (LANDER et al., 2001, p. 900), e
26.000-38.000, no caso da iniciativa liderada pela empresa Celera Genomics; o número
anteriormente aceito era da ordem de 100.000, com estimativas variando de 50.000 a mais
de 140.000 (VENTER et al., 2001, p. 1305 e 1346).182 Por essa visão anterior, haveria um
gene para cada proteína que se acredita existir no repertório molecular da espécie humana.
Com seu patrimônio genético reduzido a modestos um terço ou um quarto da variedade
antes projetada, os seres humanos viram encurtar-se drasticamente a distância
informacional que deveria separá-los de espécies muito menos complexas, como a mosca
Drosophila melanogaster, com seus prováveis 13.000 genes, e o verme Caenorhabditis
elegans, com 19.000.183
A data desse rebaixamento genético do Homo sapiens sapiens foi comemorada por
críticos precoces do Projeto Genoma, como Stephen Jay Gould, como “um grande dia na
história da ciência e do entendimento humano em geral”. Num artigo para a página de
Opinião do jornal The New York Times, o paleontólogo, ensaísta e teórico da evolução de
182 A disparidade de cerca de 25% entre as cifras estimadas para o total de “genes” humanos, nos dois trabalhos experimentalmente mais próximos do que se supõe seja a realidade física do genoma, já permite vislumbrar o grau de incerteza envolvido nessas análises. Mesmo essa margem de 30.000-38.000 “genes” permanece objeto de polêmica, com pelo menos uma revisão publicada elevando o total para a faixa de 65.000-75.000 genes (WRIGHT et al., 2001), com base na constatação de que apenas 1 de cada 5 “genes” encontrados ou previstos aparece em ambos os trabalhos e na premissa de que ferramentas computacionais são insuficientes para identificar todas as unidades transcricionais. 183 Anônimo. Science, no. 5507, vol. 291, p. 1178 (tabela “Sequenced organisms”).
132
Harvard qualificou a descoberta como uma oportunidade para a sociedade libertar-se do
determinismo genético:
A complexidade humana não pode ser gerada por 30.000 genes sob a antiga visão da vida corporificada no que geneticistas literalmente chamaram (aparentemente com algum senso de excentricidade) de seu “dogma central”: o DNA fabrica RNA, que fabrica proteína –em outras palavras, uma direção [única] de fluxo causal do código para a mensagem e para a montagem da substância, com um item de código (um gene) fabricando no final um item de substância (uma proteína), e carradas de proteínas fabricando um corpo. Essas 142.000 mensagens [proteínas] existem sem dúvida, como é necessário para que construam a complexidade de nossos corpos, o que termina expondo como nosso erro anterior a suposição de que cada mensagem vinha de um gene distinto.184 (GOULD, 2001)
Mais surpreendente, porém, foi ver uma interpretação semelhante ser lançada na
arena pública pela maior celebridade científica das fileiras genômico-reducionistas, J. Craig
Venter, o então presidente da Celera Genomics. Por ocasião da publicação do artigo com a
seqüência-rascunho obtida sob sua liderança, a revista Science distribuiu a jornalistas
especializados um press-release com observações do pesquisador-empresário sobre o
“marco da ciência” erigido por ele e 283 co-autores:
O pequeno número de genes – 30.000 em vez de 140.000 – apóia a noção de que nós não somos circuitos pré-impressos [hard wired]. Agora sabemos que é falsa a noção de que um gene leva a uma proteína e talvez a uma moléstia. Um gene leva a muitos produtos diferentes e esses produtos – proteínas – podem mudar dramaticamente depois de serem produzidos. Sabemos que regiões do genoma que não constituem genes podem ser a chave para a complexidade que enxergamos em seres humanos. Agora sabemos que o ambiente, ao agir sobre esses passos biológicos, pode ser a chave para nos fazer o que somos.185 (THE SEQUENCE, 2001)
184 “Human complexity cannot be generated by 30,000 genes under the old view of life embodied in what geneticists literally called (admittedly with a sense of whimsy) their ‘central dogma’: DNA makes RNA makes protein –in other words, one direction of causal flow from code to message to assembly of substance, with one item of code (a gene) ultimately making one item of substance (a protein), and the congeries of proteins making a body. Those 142,000 messages no doubt exist, as they must to build our bodies’ complexity, with our previous error now exposed as the assumption that each message came from a distinct gene.” 185 “The small number of genes –30,000 instead of 140,000– supports the notion that we are not hard wired. We now know that the notion that one gene leads to one protein and perhaps to one disease is false. One gene leads to many different products and these products –proteins– can change dramatically after they are produced. We know that regions of the genome that are not genes may be the key to the complexity we see in humans. We now know that the environment acting on these biological steps may be key in making us what we are.”
133
Com efeito, como disse Venter no mesmo comunicado, a compreensão do genoma
vinha mudando muito nos pouco mais de seis meses transcorridos desde que ele e Francis
Collins haviam anunciado a conclusão da montagem da seqüência-rascunho na companhia
de Bill Clinton e Tony Blair, em junho de 2000. Na realidade, essa transformação
conceitual já vinha ocorrendo no cotidiano dos laboratórios de genômica, tal como pode ser
inferido da publicação de um artigo na mesma revista Science, mais de dois anos antes, em
que um biólogo molecular já registrava publicamente – ao menos para seus pares – que “as
realidades da organização do genoma são muito mais complexas do que é possível
acomodar no conceito clássico de gene” (GELBART, 1998, p. 660).186 Dois anos depois,
mas ainda antes da célebre cerimônia com Clinton e Blair, Gelbart assinaria, com 54 de
seus pares, outro artigo na Science em que se retirava o seguinte ensinamento da
comparação dos genomas então concluídos de eucariotos:187 “A lição é que a complexidade
aparente nos metazoários [no caso a mosca D. melanogaster e o verme C. elegans] não é
engendrada pelo simples número de genes” (RUBIN et al., 2000, p. 2214).188
Desde então, a pedra angular do determinismo genético – a saber, a correspondência
um gene/uma proteína/uma característica fenotípica (como determinada doença) – só fez
esfarelar-se. O fator mais corrosivo do conceito tradicional de gene reside sem dúvida na
recém-descoberta amplitude do fenômeno biomolecular conhecido como “processamento
alternativo” (alternative splicing).189 Um exemplo célebre do potencial de variação
oferecido por esse mecanismo de regulação celular – incorporado já até mesmo nos livros-
texto para estudantes de biologia molecular e celular – é o do transcrito slo, que especifica
ligeiras mudanças na estrutura de canais de íons em neurônios ciliados do ouvido interno de
vertebrados e, com isso, torna essas células seletivamente sensíveis a freqüências
determinadas de som na faixa de 50 Hz a 5.000 Hz: com base em oito posições no RNA
186 “(...) the realities of genome organization are much more complex than can be accommodated in the classical gene concept”. 187 Aqueles organismos cujas células têm núcleos definidos. 188 “The lesson is that the complexity apparent in the metazoans is not achieved by sheer number of genes.” 189 Depois de formado a partir de uma seqüência de DNA no núcleo, o transcrito primário de RNA é submetido já no citoplasma à excisão de trechos (correspondentes ao que se chama de “íntrons”) que não especificam a seqüência de aminoácidos da proteína em produção e à reunião contígua de trechos especificadores, correspondentes aos “éxons”. A exclusão de íntrons e a junção de éxons constitui o fenômeno de emenda (splicing), que no entanto não resulta sempre no mesmo produto: dependendo de condições observadas no estado da célula, ou mesmo do tipo de célula em que ocorre a síntese da proteína em questão, a emenda pode omitir e rearranjar trechos especificadores (éxons), resultando em proteínas diversificadas (ditas “isoformas”).
134
mensageiro (mRNA) em que éxons alternativos podem ser usados, o processamento
permite até 576 variantes (isoformas) da proteína que compõe o canal de íons, muito
embora não haja comprovação experimental de que todas as isoformas são efetivamente
expressadas (LODISH et al., 1999, p. 426). O próprio artigo do Consórcio Internacional na
Nature anunciando a seqüência-rascunho do genoma alertava para a possibilidade de que
nada menos que a metade dos genes humanos seja afetada pela emenda alternativa
(LANDER et al., 2001, p. 914).
Após a publicação das seqüências-rascunho do genoma humano, a tentativa de
compreender esses mecanismos não-lineares de produção de variação molecular
desencadeou uma atividade frenética de pesquisa. Participam da análise e interpretação das
seqüências de DNA grupos de pesquisa do mundo todo, inclusive do Brasil – no caso, a
rede de cientistas reunidos no Genoma do Câncer, projeto financiado pela Fapesp
(Fundação de Amparo à Pesquisa do Estado de São Paulo) e pelo Ludwig Institute for
Cancer Research. Essa rede participa do esforço de inventariar os genes contidos no
genoma humano com uma metodologia original, o processo ORESTES,190 que até outubro
de 2001 havia depositado 700.000 seqüências de transcritos (genes e pedaços de genes, ou
candidatos a tanto) em bancos de dados internacionais, como o GenBank (CAMARGO et
al., 2001, p. 12103). Nesse mesmo artigo destacado na capa da revista Proceedings of the
National Academy of Sciences dos Estados Unidos, os cem autores do grupo brasileiro
afirmam: “Depois da geração da seqüência-rascunho do genoma humano, a prioridade
agora é definir todos os genes humanos e seus transcritos correspondentes. Está claro agora
que só a seqüência do genoma não é suficiente para permitir isso” (CAMARGO et al.,
2001, p. 12107).191 No comentário que acompanha o artigo brasileiro, dois cientistas do
National Cancer Institute dos Estados Unidos concedem que “o número de genes é apenas
um mecanismo para criar a diversidade genética requerida para codificar o conjunto
190 Acrônimo formado a partir do nome em inglês da técnica, “open reading frame expressed sequences tags”, que difere do método tradicional para localizar genes numa seqüência de DNA, ESTs (“expressed sequences tags”), “por fornecer dados de seqüências da porção central codificadora de proteínas dos transcritos” (CAMARGO et al., 2001) 191 “After the generation of the human genome draft sequence, the priority is now to define all human genes and their corresponding transcripts. It is now clear that the genome sequence alone is not sufficient to allow this.”
135
completo de proteínas humanas” (STRAUSBERG e RIGGINS, 2001, p. 11837).192 E dão
mais um exemplo eloqüente da ação da emenda alternativa, que é capaz de produzir nada
menos do que 14 versões do gene BRCA1, um dos mais estudados entre os que podem
tornar-se ativos no fenótipo do câncer de mama (STRAUSBERG e RIGGINS, 2001, p.
11838).
É fácil de entender, com base nessas constatações da não-linearidade da relação
gene/proteína/traço fenotípico, o júbilo manifestado por outros adversários precoces do
Projeto Genoma Humano (PGH), como Barry Commoner, diretor do Projeto Genética
Crítica no Queens College da City University of New York. Num artigo polêmico para a
revista não-especializada Harper’s Magazine, o cientista denuncia os “fundamentos
espúrios da engenharia genética” e o colapso das teorias por trás do PGH “sob o peso dos
fatos”, vale dizer, diante da descoberta de que o número reduzido de genes humanos seria
incapaz de dar conta da complexidade manifestada na espécie. Commoner retoma a
formulação do Dogma Central proposta por Francis Crick num trabalho clássico193 de 1958
(citado por COMMONER, 2002, p. 41) – “uma vez que a informação [seqüencial] tenha
passado para a proteína, não pode retornar” – e toma ao pé da letra o zelo e as entonações
escriturais do co-descobridor da estrutura do DNA: “Para enfatizar a importância desse tabu
genético, Crick apostou nele o futuro de todo o empreendimento, asseverando que ‘a
descoberta de apenas um tipo de célula nos dias de hoje’ no qual informação genética tenha
passado da proteína para o ácido nucléico ou de proteína para proteína ‘abalaria toda a base
intelectual da biologia molecular’ ” (COMMONER, 2002, p. 47).194
Pode-se, é evidente, discutir indefinidamente se a emenda alternativa implica
reversão do fluxo unidirecional de informação, DNA � RNA � proteína;195 em sentido
literal, parece manifesto que isso não ocorre, ao menos não neste caso (a seqüência de DNA
permanece inalterada; o que varia é seu produto, ou seja, a seqüência de aminoácidos na
proteína sintetizada a partir do trecho de DNA em questão); esse é o argumento de
192 “(...) it is now clear that gene number is only one mechanism for creating the genetic diversity required to encode the full complement of human proteins.” 193 CRICK, Francis H.C. On Protein Synthesis. Symposium of the society for experimental biology XII, p. 153. Nova York: Academic Press, 1958. 194 “To stress the importance of this genetic taboo, Crick bet the future of the entire enterprise on it, asserting that ‘the discovery of just one type of present-day cell’ in which genetic information passed from protein to nucleic acid or from protein to protein ‘would shake the whole intellectual basis of molecular biology’.”
136
MORANGE (2001, p. 167). Também se pode ponderar – como fez MAYNARD SMITH
(2000, p. 43) – que não há proteínas ou RNAs, na espécie humana ou em qualquer outra,
que não tenham sido em algum momento especificados por uma seqüência de ácido
nucléico. De todo modo, o fato é que, se se admite que a definição de gene é de cunho
funcional (ou seja, dependente daquilo que seu conteúdo informacional especifica), como
parece ser a intenção implícita no Dogma Central, o DNA perde o monopólio da
informação necessária para o funcionamento da célula, uma vez que o resultado – a
composição, a forma e portanto a função das proteínas que o põem em marcha – também é
co-influenciado por sinais citoplasmáticos, extranucleares, independentes do DNA
cromossômico (representados por outras proteínas e vários tipos de RNA que interagem
furiosamente no citoplasma e no núcleo, e cuja teia de inter-relações caracteriza o estado da
célula como um todo). O esquema informação codificada � tradução � mensagem já não
dá conta da complexidade da síntese de proteínas, que de resto nem é iniciada pelo DNA,
mas por cascatas de sinais provenientes do citoplasma e, em última análise, desencadeadas
pelo ambiente da própria célula, seja ele representado por outras células com as quais
mantém contato, por hormônios produzidos em outros tecidos e infiltrados naquele ao qual
pertence, ou mesmo pelo meio externo em que vive o organismo.
Outra voz que se levantou para reivindicar vitória intelectual e teórica foi a de Mae-
Wan Ho, ela também crítica militante do determinismo genético que sempre esteve na raiz
do PGH. Num press-release distribuído por seu Institute of Science in Society (I-SIS) dois
dias depois da divulgação das seqüências-rascunho, Ho elogiou J. Craig Venter como o
único a ter tirado as conclusões corretas daqueles achados genômicos: “O número de genes
é muito menor do que o necessário para apoiar as afirmações extravagantes feitas ao longo
da década passada, de que genes individuais não apenas determinam como nossos corpos
são construídos, de que moléstias sofremos, mas também nossos padrões de
comportamento, nossa capacidade intelectual, preferência sexual e criminalidade” (HO,
2001, p. 1).196 Mais adiante:
195 Unidirecionalidade que já havia sido posta em causa pela descoberta da enzima transcriptase reversa, em 1970, por David Baltimore e, independentemente, Howard Temin. 196 “The number of genes is far less than needed to support the extravagant claims throughout the past decade that individual genes not only determine how our bodies are constructed, what diseases we suffer from, but also our patterns of behaviour, our intellectual ability, sexual preference and criminality.”
137
Muito antes de nos dizerem que não há genes suficientes para sustentar a visão do determinismo genético, vários cientistas já haviam concluído que não há explicações simplistas para doenças em termos de genes individuais, porque a ação de cada gene é modificada e afetada por muitos outros genes. A conexão entre genes e doença torna-se ainda mais tênue quando se trata de condições como câncer, doença cardíaca, diabete, esquizofrenia, inteligência, alcoolismo e comportamento criminoso, nas quais fatores ambientais e sociais predominam em escala crescente.197 (HO, 2001, p. 3)
Essa é talvez a conclusão mais importante a ser extraída da literatura científica
publicada em periódicos como Nature, Science ou Proceedings of the National Academy of
Sciences (PNAS): a insatisfação com a estreiteza unidimensional da noção de gene não
surge apenas entre críticos contumazes do determinismo, mas também entre os próprios
pesquisadores engajados no programa experimental genômico, diante da crescente
complexidade do genoma observada na prática dos laboratórios, ou deduzida por meio de
análises in silico (nas imensas bases de dados que reúnem informação genômica), uma
forma de pesquisa por simulação que cresce em popularidade entre biólogos. Além do
processamento alternativo do RNA, avoluma-se a lista dos fenômenos celulares que tornam
cada vez menos plausível a causalidade genética simples, unidirecional, do tipo um
gene/um traço fenotípico. Eis uma relação preliminar198 de atividades e interações no
interior da célula que extravasam o esquema tradicional do determinismo:
• Edição de transcritos – Após o processamento alternativo de éxons, ou seja, da
montagem da seqüência de bases (“letras”) especificadora da ordem dos aminoácidos
na proteína, o RNA transcrito pode ainda sofrer pequenas modificações por moléculas
presentes no citoplasma da célula, por exemplo a troca de uma de suas bases antes da
síntese protéica – processo descoberto em meados dos anos 80 e batizado como
“edição” (editing) que afeta a seqüência da proteína, fazendo com que divirja do
“código” contido no DNA (LODISH et al., 1999, p. 437);
197 “Long before we were told there aren’t enough genes to support the genetic determinist view, many scientists have concluded that there are no simplistic explanations for diseases in terms of single genes, because the action of each gene is modified and affected by many other genes. The connection between genes and disease becomes all the more tenuous when it comes to conditions such as cancer, heart disease, diabetes, schizophrenia, intelligence, alcohol abuse and criminal behaviour, where environmental and social factors increasingly predominate.” 198 Com a enorme produção de pesquisas nessa área da biologia, as referências indicadas abaixo correm o risco de desatualizar-se, mas o mesmo não deve ocorrer com os 11 itens relacionados a seguir, pois tudo indica que constituem tendências sustentáveis na pesquisa em biologia molecular.
138
• Proteínas poligênicas – De certa maneira, o oposto do processamento alternativo (um
gene traduzido em diversas variantes da proteína). Neste caso, descobriu-se que tipos
variantes da mesma proteína (isoformas) podem originar-se de pontos separados do
genoma, até mesmo de cromossomos diferentes. Foi o que encontraram por exemplo
pesquisadores alemães ao comparar proteínas produzidas nos cérebros de duas espécies
de camundongos (Mus musculus e Mus spretus): “Nossos achados mostram (...) que
diferentes tipos da mesma proteína podem ser mapeados em diferentes loci do genoma.
Conseqüentemente, mesmo uma única proteína pode ser considerada como um traço
poligênico” (KLOSE et al., 2002, p. 2); 199
• Moldura móvel (frameshifting) – A maquinaria celular que faz a síntese da proteína,
ou seja, que traduz as “palavras” de três “letras” do RNA (ou códons, cada um
composto por três bases), pode ler a “mensagem” de mais de uma maneira, começando
ou terminando em pontos diversos da seqüência, ou “lendo” quatro bases como se
fossem três – mudando assim o conteúdo de todos os códons abaixo daquele ponto e
também a seqüência de aminoácidos na proteína sintetizada (LODISH et al., 1999, p.
118);
• Silenciamento de genes – Mecanismo de reconhecimento de seqüências homólogas,
aparentemente útil para proteger o genoma de formas parasíticas de ácidos nucléicos
(indutoras de sua própria duplicação, como no caso de organismos patógenos
invasores), que no entanto podem acarretar modificações estruturais do cromossomo
capazes de silenciar um gene (impedir sua expressão, ou seja, a síntese da proteína que
tal seqüência especifica). O fenômeno foi descoberto quando, na tentativa de introduzir
seqüências de DNA estranhas para produzir fungos, plantas e animais transgênicos,
engenheiros genéticos verificaram que as múltiplas cópias assimiladas do gene de
interesse como que se cancelavam umas às outras (WOLFFE e MATZKE, 1999, p.
481). Pode envolver tanto DNA quanto RNA e ocorrer antes ou depois da transcrição
do DNA em RNA. Aparentemente, fitas duplas de RNA são muito eficazes para
reprimir a expressão de seqüências correspondentes de DNA no cromossomo – uma
indicação, segundo disse à revista Science Craig Mello, do University of Massachusetts
199 “Our findings [therefore] show that different types of the same protein may map to different loci on the genome. Consequently, even a single protein can be considered as a polygenic trait.”
139
Cancer Center, de que o RNA está falando de volta ao DNA, um desafio claro ao
Dogma Central de Crick; “tal fluxo retrógrado de informação seria realmente notável”
(MARX, 2000, p. 1372);
• Pseudogenes e similares – O genoma humano está coalhado de seqüências que
testemunham um processo dinâmico de evolução, como as duplicações promovidas –
entre outras maneiras – por RNAs transcritos (retrotransposições), que podem gerar
tanto seqüências de DNA ativas e funcionais no genoma (novos genes, chamados de
intronless paralogs, ou parálogos sem íntrons) quanto trechos inativos (pseudogenes).
No seqüenciamento do genoma capitaneado pela empresa Celera, foram catalogados
nada menos do que 1.077 blocos duplicados de DNA, com seqüências de cerca de 3.522
genes, cada bloco contendo de 3 a pelo menos 5 dessas seqüências funcionais
(VENTER et al., 2001, p. 1323 e 1329). Na escala de tempo da evolução, essas
movimentações drásticas da paisagem genômica permitiriam a emergência de novos
genes e de novas “famílias de genes” (HUTTER et al., 2000), matéria-prima para a
seleção natural produzida por um processo muito mais complexo de rearranjo que a
representação tradicional da mutação pontual (alteração aleatória de uma única base na
seqüência de DNA);
• “Exaptação” genômica – Não só o genoma como sistema deixa de ser visto como um
gerador de mutações aleatórias para posterior seleção natural como começa a
transformar-se numa totalidade em fluxo, em que módulos inteiros de que se compõem
proteínas ou vias metabólicas podem ressurgir do ostracismo genômico (em geral na
forma de heterocromatina200). Assim é que uma proteína originalmente envolvida na
digestão de animais ruminantes, por sua capacidade de degradar RNA das bactérias em
seu trato digestivo, aparece também com estrutura semelhante e função diversa, como
atividade de defesa anti-retroviral (retrovírus usam RNA para infectar células), em
primatas (ZHANG e ROSENBERG, 2002; BENNER, 2002). Em lugar de uma
adaptação de tipo darwinista clássico, tem-se uma forma de aproveitamento de vestígios
200 Parte da cromatina (arranjo de proteínas em que se enrola e compacta o DNA dos cromossomos) que permanece condensada e inativa quando a célula não está se dividindo e era considerada pobre em seqüências especificadoras de proteínas (diferentemente da eucromatina). Mas “genes” recentemente duplicados e “pseudogenes” têm sido encontrados na heterocromatina, e se acredita que essa parte dos cromossomos possa estar diretamente envolvida em processos como o silenciamento de “genes”.
140
do passado que já foi batizada por Stephen Jay Gould e Elizabeth Vrba,201 em outro
contexto, como exaptação, um dos fenômenos fundamentais da evolução (BROSIUS e
GOULD, 1992);
• Evolução acelerada por módulos – De maneira similar, sistemas de desenvolvimento
que demandam alta variabilidade parecem observar fases intensas de permutação de
módulos e motivos de transcrição, por aumento da complexidade dos mecanismos de
regulação e não do acréscimo do número de genes ao genoma. Esta seria a origem,
segundo análise comparativa de proteínas expressadas em leucócitos, fígado e cérebros
de seres humanos, chimpanzés, orangotangos e macacos resos, da discrepante
complexidade do cérebro humano, cujas proteínas ativas são as únicas a divergir
marcadamente em número desses outros primatas (à diferença do número de genes202 e
de proteínas dos outros tecidos analisados). “A aceleração aparente da linhagem
humana é maior no cérebro (3,8 vezes) do que no fígado (1,7 vez), levantando a
possibilidade de que padrões de expressão gênica possam ter mudado mais no cérebro
do que no fígado durante a evolução humana recente”,203 escreveram os autores do
estudo (ENARD et al., 2002, p. 340). Esse resultado essencialmente experimental
encontra eco numa concepção teórica da complexidade em que a quantidade de genes (e
portanto sua concepção clássica com seqüências identificáveis de DNA que especificam
os aminoácidos e a estrutura de uma proteína) já não tem lugar: “Com um número
limitado de genes, vertebrados conseguem codificar dois subsistemas altamente
complexos, que são especializados na acumulação, armazenamento e recuperação de
informação, a saber, o sistema imune e o sistema nervoso” (SZATHMÁRY, JORDÁN
e PÁL, 2001);204
• Acoplamento (coupling) de máquinas de expressão – Estudos vêm revelando que os
vários componentes da maquinaria celular envolvida na leitura do DNA e no
processamento do RNA em vários passos, até que esteja maduro para sua tradução
201 Paleobiology, vol. 8, p. 4-15 (1982). 202 Homens e chimpanzés têm 98,7% de identidade nas suas seqüências genômicas de DNA (ENARD et al., 2002, p. 340). 203 “[However], the apparent acceleration on the human lineage is larger in the brain (3.8-fold) than in the liver (1.7-fold), raising the possibility that gene expression patterns may have changed more in the brain than in the liver during recent human evolution.”
141
numa proteína, atuam de forma coordenada e fisicamente conectada (tethering),
formando uma rede molecular em que os sinais circulam de forma não-linear, com base
em vários circuitos de realimentação, e não como se fosse uma simples linha de
montagem. A eficácia do processamento do pré-mRNA, por exemplo, em que a excisão
de íntrons de até meio milhão de nucleotídeos pode consumir várias horas de
processamento bioquímico, é garantida pela conexão entre as moléculas que efetuam a
transcrição de DNA em RNA e as que fazem a emenda do RNA, permitindo que todas
as moléculas envolvidas interajam diretamente, por contato, e não por simples difusão
no meio celular – o que diminuiria dramaticamente a probabilidade das interações. Há
pelo menos duas dezenas dessas interações acopladas entre as várias moléculas
envolvidas na transcrição de genes (MANIATIS e REED, 2002);
• Enovelamento (folding) de proteínas – O conceito informacional, pré-formacionista e
determinista de gene reza que este definiria cabalmente a seqüência de aminoácidos da
proteína que especifica e, com ela, sua estrutura tridimensional – sua função, portanto
(pois a estrutura define com quais outras proteínas e compostos será capaz de reagir,
ligar-se etc.). Ocorre que, apesar de o chamado “estado nativo” de uma proteína (sua
forma final, após o enovelamento) ter claramente relação com a seqüência de
aminoácidos que a compõem, os cientistas que se dedicam às especialidades emergentes
da genômica estrutural e da proteômica ainda estão longe de conseguir desvendar,
modelar ou formular matematicamente as regras que presidem a conformação de uma
na outra, uma vez que sua meta é ser capaz de predizer a função de uma proteína com
base unicamente na seqüência de DNA do gene correspondente. No meio celular, esse
enovelamento nada tem de automático, sendo dependente de condições químicas e da
atuação de um complexo de moléculas “acompanhantes” (chaperoninas) ainda mal
compreendido. Além disso, a função final da proteína sintetizada depende ainda de
modificações químicas e processamento estrutural, como o corte de blocos inteiros de
aminoácidos (LODISH et al., 1999, p. 64); em outras palavras, aqui também a relação
linear de causação entre gene e proteína não se sustenta;
204 “With a limited number of genes, vertebrates manage to code for two highly complex subsystems that are specialized for information accumulation, storage, and retrieval: namely, the immune system and the nervous system.”
142
• Estampagem (imprinting) – Cada um dos cromossomos que compõe um genoma é
dotado de um sistema de marcas químicas (como a adição local de um grupo metila, ou
metilação) que indica quais genes estão ativos em cada célula deste ou daquele tecido
(pois, embora todas contenham o mesmo genoma, produzem apenas algumas proteínas
especificadas naquele enorme repertório). Nos mamíferos, parte dessas marcas constitui
um enigmático sistema chamado de “estampagem” (imprinting), que é totalmente
apagado e reconstituído durante a formação de gametas, de modo que o zigoto formado
da união do óvulo e do espermatozóide recebe um padrão específico de marcas
maternas e paternas sem o qual é incapaz de desenvolver-se num embrião viável; cerca
de 50 genes estampados já foram identificados em mamíferos (SURANI, 2002, p. 492),
pois são essas marcas que indicam se a cópia materna ou paterna do gene em questão é
que deve ser usada em determinado passo do desenvolvimento (o DNA paterno parece
ser fundamental para a constituição normal da placenta, por exemplo). O que equivale a
dizer que somente a informação genética (aquela contida na seqüência de DNA) não é
suficiente para o desenvolvimento de um organismo, cuja “receita” está portanto ao
menos parcialmente contida também em informação herdada “epigeneticamente”;205
• Hipótese do código de histonas – Mesmo no organismo adulto, as marcas superpostas
ao genoma por mecanismos como a metilação se revelam cada vez mais fundamentais
para a expressão dos genes e para seu silenciamento. O foco de atenção da pesquisa
recai sobre as histonas, espécie de carretel molecular em torno do qual se enrola a fita
dupla do DNA para formar a ultracompactada cromatina nos cromossomos dos
organismos eucariotos, que podem ser modificadas por vários tipos de marcas de
sinalização além da metilação (acetilação, fosforilação, ubiquitinação). Aparentemente,
a ativação e o silenciamento de genes requer múltiplas modificações das histonas, as
quais criariam superfícies para ligação preferencial de proteínas específicas envolvidas
na regulação do genoma (BERGER, 2001, p. 65). Esses padrões de modificação de
205 Segundo LEDERBERG (2001), o termo “epigenética” foi cunhado em 1942 por Conrad H. Waddington para designar o estudo dos processos pelos quais o genótipo dá origem ao fenótipo, em oposição a “genética” e ainda sem a conotação bioquímica que viria a adquirir nos anos 1990 (algo como “mecanismos de herança que não estão baseados em diferenças na seqüência de DNA”). Bem mais antigo é o termo “epigênese”, empregado por Harvey em 1651 para designar o processo de formação de novo no embrião, que não teria portanto todas as suas partes pré-formadas (PINTO-CORREIA, 1999, p. 27). Neste capítulo, emprega-se o termo no sentido que parece ser consensual, hoje: origem de regularidades no processo de desenvolvimento,
143
histonas que começam a ser identificados já conduziram à hipótese de que constituam
na realidade um código paralelo (STRAHL e ALLIS, 2000), em que a combinação
desses processos químicos dotaria a cromatina de marcas especificadoras das condições
em que aquele trecho de DNA poderia ser lido e expressado na síntese da proteína
correspondente.
Recapitulando:206 o genoma que emerge dos laboratórios de seqüenciamento de
DNA e das bases de dados em que avança a modalidade de investigação in silico é uma
entidade complexa, sujeita a uma miríade de relações, influências e interações com sinais
vindos do citoplasma e, em última instância, do ambiente da célula, entre as quais se
incluem indicações hereditárias não-transmitidas por ácidos nucléicos acerca de padrões
conservados de expressão gênica. Como dizia LEWONTIN (2000a, p. 152) já no início da
década de 1990,207 “uma razão profunda para a dificuldade de delinear informação causal
de mensagens de DNA é que as mesmas ‘palavras’ têm diferentes sentidos em diferentes
contextos, e múltiplas funções num contexto dado, como em qualquer linguagem
complexa”. KELLER (2002), por outro lado, defende que a tendência é de dissociação
entre os aspectos funcional e hereditário da noção de gene: “[O gene funcional] não pode
mais ser tomado como idêntico à unidade de transmissão, isto é, à unidade responsável pela
(...) memória intergeracional” (KELLER, 2002, p. 83), isto porque somente uma seqüência
de bases nitrogenadas é herdada por intermédio do DNA, matéria-prima crucial e
indispensável, mas insuficiente para especificar inteiramente a função: “A função do gene
estrutural depende não somente da sua seqüência, mas também de seu contexto genético, da
estrutura do cromossoma no qual ele está inserido (e que é ela própria sujeita à regulação
desenvolvimental), e de seu contexto citoplasmático e nuclear” (KELLER, 2002, p. 84).
ou mesmo de características fenotípicas, que não podem ser atribuídas diretamente à informação contida na seqüência de DNA e pressupõem a intervenção de fatores complementares. 206 Outros autores que trataram do estatuto ambíguo da noção de “gene” apresentaram relações mais curtas de incompatibilidades: SARKAR (1999, p. 157-158) contempla o chamado junk-DNA, molduras móveis, edição de transcritos, repetições de seqüências codificadoras ou regulatórias e códons não-universais; NEUMANN-HELD (2001, p. 69) destaca estampagem, moldura móvel, emenda alternativa e edição de transcritos; MORANGE (2001, p. 25-28) lista genes reguladores, íntrons e éxons, emenda alternativa, moldura móvel, rearranjo genômico em células do sistema imune e edição de transcritos; KELLER (2001, p. 299) relaciona mecanismos de reparo e edição de DNA, interações epigenéticas regulando a transcrição e emenda/edição de transcritos. 207 O ensaio em questão, The dream of the human genome, foi originalmente publicado no jornal The New York Review of Books, em 28.mai.1992.
144
4.2 Desenvolvimento e epigenética vs. determinismo
Não são porém apenas os críticos habituais do determinismo genético que lhe
apontam as limitações, mas os próprios titulares e/ou herdeiros desse programa
experimental, que visualizam seu futuro como uma espécie de superação, mais até do que
sua mera extensão como genômica estrutural ou proteômica, e essa superação parece
gravitar em torno de dois conceitos: desenvolvimento, ou seja, o processo complexo pelo
qual um organismo multicelular alcança tamanho e forma final, e epigenética, isto é, o
conjunto de interações entre genes e outros fatores que influenciam a conformação do
fenótipo e que não podem ser diretamente atribuídos a seqüências genéticas particulares.
“A epigenética representa uma nova fronteira na pesquisa genética. Com o término dos
projetos de seqüenciamento do genoma, será um grande desafio entender a função e a
regulação gênicas. Alcançar essa meta vai requerer determinar como controles epigenéticos
são impostos aos genes”, escrevem WOLFFE e MATZKE (1999, p. 485). Ainda mais
enfáticas foram declarações dadas no congresso de 2002 da American Association for
Cancer Research por Rudolf Jaenisch, do Whitehead Institute/MIT, criador do primeiro
camundongo transgênico:
A última década foi a década da genômica (...), mas eu prediria que a próxima década será a década da epigenética. (...) O campo está realmente explodindo. Quando se pensa nas implicações médicas da genômica, podem-se fazer varreduras do genoma inteiro. Está virando rotina, agora. Não se pode fazer isso com a epigenética. Não se pode medir a modificação do DNA por metilação; é muito diferente, e penso que é um aspecto muito crucial da medicina e da doença. (...) Considero que o meio pelo qual o ambiente interage com o genoma é via modificação epigenética do genoma. [Para a] metilação, temos evidência concreta de que isso ocorre [em resposta a fatores ambientais]. O ponto que estou tentando defender é que, se queremos entender a causa real da doença, e só olhamos para os genes ou para as mutações de genes, penso que só estamos considerando metade da história. Podemos fazer isso muito eficientemente –mas temos de considerar a outra metade.208 (TUMA, 2002)
208 “The last decade was the decade of genomics (...), but I would predict that the next decade will be the decade of epigenetics. (...) The field is really exploding. When you think about the medical implications of genomics, you can do genome scans of the whole genome. It is becoming routine now. You cannot do this for epigenetics. You cannot measure modification of the DNA by methylation; it is very different, and I think it is a very crucial aspect of medicine and disease. (...) I think the way the environment interacts with the genome is via epigenetic modification of the genome. [For] methylation, we have concrete evidence that this occurs [in response to environmental factors]. The point I am trying to make is that if we want to understand the real
145
E pensar que o campo em expansão da epigenética até bem pouco tempo era
considerado “ciência não muito séria” e tinha “um certo cheiro de coisa esquisita”, como
disse à Science Wolf Reik, do Babraham Institute, no Reino Unido (PENNISI, 2001b, p.
1064). Por formação profissional, contudo, os cientistas estão obrigados a se render aos
fatos, e neste caso os fatos incluem o papel preponderante de fenômenos epigenéticos no
fracasso (presente) e no sucesso (potencial) de alguns dos investimentos mais promissores
da tecnobiologia. Por exemplo, a reprogramação imperfeita da estampagem (imprinting)
parece estar na raiz da alta ineficiência da produção de clones animais por transferência
nuclear (JAENISCH e WILMUT, 2001; RIDEOUT III et al., 2001; FAIRBURN et al.,
2002),209 tecnologia tida como fundamental para produzir rebanhos uniformes de animais
transgênicos eficientes para secretar proteínas de interesse terapêutico (biorreatores). A
possibilidade de manipular (apagar ou reformular) as marcas epigenéticas também é crucial
para usufruir da pluripotência de células-tronco (SURANI, 2001), ou seja, da sua
capacidade de se transformarem em vários outros tipos de células do corpo, uma
propriedade cobiçada porque pode um dia auxiliar no desenvolvimento de terapias celulares
para doenças degenerativas, como o mal de Parkinson. Por fim, mecanismos epigenéticos
são decisivos para a engenharia genética em geral, pois a simples introdução de seqüências
de DNA no genoma de um organismo pode se revelar inoperante se interações DNA-DNA
e RNA-RNA conduzirem ao silenciamento dos genes enxertados (WOLFFE e MATZKE,
1999), como já se assinalou acima.
Em poucas palavras, a epigenética se impôs a partir das próprias bancadas e dos
próprios computadores dos laboratórios, e não da cabeça de críticos externos ao campo
genômico — o que só faz aumentar a pertinência das críticas precoces, que agora se
revelam também premonitórias. Pode-se tentar compatibilizar a epigenética redescoberta
cause of disease, and we just look at the genes or mutations of genes, I think we are only looking at half the story. We can do this very efficiently –but we have to look at the other half.” 209 Houve discussão quanto aos problemas de desenvolvimento em clones serem de fato provocados pela própria transferência nuclear. INOUE et al. (2002), por exemplo, relataram em artigo subseqüente ter obtido a expressão fiel de genes estampados em clones de camundongos e sugeriram que os defeitos epigenéticos se acumulem na manipulação das células-tronco embrionárias doadoras de núcleos para transferência, nos experimentos de Jaenisch.
146
com a noção tradicionalmente determinista de gene,210 mas o esforço decerto redundará em
formulações francamente contraditórias, como a oferecida por Emma Whitelaw, da
University of Sydney, à revista Science: “A unidade de hereditariedade, isto é, um gene,
[agora] se estende para além da seqüência [de DNA], até as modificações epigenéticas dessa
seqüência” (PENNISI, 2001b, p. 1064).211 Tantas já eram as dificuldades e aporias
suscitadas pela manutenção dessa nomenclatura do gene que BROSIUS e GOULD (1992)
chegaram a propor todo um novo vocabulário para substituí-lo, com a finalidade de nomear
mais precisamente cada estrutura identificável de ácido nucléico, DNA ou RNA; o nome
geral proposto para essa estruturas foi “núon” e se aplicaria a gene, região intergênica,
éxon, íntron, promotor, terminador, pseudogene, transposon, retrotransposon, telômero etc.,
sendo que um promotor seria rebatizado como “promonúon”, e assim por diante (a
proposta, como já previam os autores, foi sumariamente ignorada).
Tomada pela confusão terminológica e pela crescente complexidade de interações
bioquímicas que deveriam reduzir-se a elegantes formulações matemáticas, mas se revelam
refratárias a isso, a biologia molecular pós-genômica se parece mais com o disco de
Phaestos (um conjunto de sinais ainda indecifrado da ilha de Creta) do que com a pedra de
Rosetta (GELBART, 1998, p. 659). E, se fosse para insistir na metáfora do genoma como
um manual de instruções para construir um ser humano, pode-se dizer que permanecia
válida na publicação das seqüências-rascunho em 2001 a descrição feita pelo autor mais de
dois anos antes:
... uma avaliação atual razoável é que temos um conhecimento parcial, mas ainda bem incompleto, sobre como identificar e ler certos substantivos (as estruturas dos polipeptídeos nascentes e éxons codificadores de proteínas nos mRNAs). Nossa capacidade de identificar os verbos e adjetivos e outros componentes das sentenças genômicas (por exemplo, os elementos reguladores que impulsionam padrões de expressão ou elementos estruturais no interior de cromossomos) é quase imperceptível, de tão baixa. Além disso, não entendemos nada da gramática –como ler uma sentença, como alinhavar as sentenças num todo que forme parágrafos sensatos descrevendo como construir proteínas multicomponentes e outros
210 Que não chega a compor uma teoria em sentido pleno, sendo mais um esquema de pensamento prático-operacional mobilizado na prática cotidiana dos biólogos moleculares entre si e no discurso que dirigem à esfera pública, e que vem sendo paulatinamente acumulado com camadas subseqüentes de significados, à medida que a pesquisa biológica experimental vai descobrindo novas camadas de complexidade. 211 “The unit of inheritance, i.e., a gene, [now] extends beyond the sequence to epigenetic modifications of that sequence.”
147
complexos, como elaborar vias fisiológicas e desenvolvimentais, e assim por diante.212 (GELBART, 1998, p. 659)
Bem mais severo é o recente julgamento emitido por Richard STROHMAN (2002,
p. 703), que enxerga uma crise em gestação na biotecnologia médica, justamente pela
insistência “num paradigma científico que omite em grande medida o componente de
sistemas dinâmicos”:
A biologia celular e molecular, em conjunção com novos desenvolvimentos teóricos, levou-nos na última década de uma visão sumariamente ingênua de determinismo genético (segundo o qual características complexas são causadas por um único gene) para a rude realidade de que quase todas as moléstias humanas são entidades complexas dependentes de contextos, para as quais nossos genes fazem uma contribuição necessária, mas apenas parcial. Biólogos moleculares redescobriram a profunda complexidade da relação genótipo-fenótipo, mas são incapazes de explicá-la: algo está faltando.213 (STROHMAN, 2002, p. 701)
Logo adiante, o pesquisador da University of California/Berkeley indica que a saída
está na chamada “biologia de sistemas”:
A biologia molecular, ao identificar níveis de controle, concentrou-se sobre os “lances” dos genes e das proteínas, mas ignorou amplamente a estratégia empregada pelas redes dinâmicas de proteínas que geram o fenótipo do genótipo. É disso que se trata na biologia de sistemas, de encontrar a estratégia empregada por células e nos níveis superiores de organização (tecido, órgão, o organismo todo) para produzir comportamento adaptativo ordenado em face de condições genéticas e ambientais em ampla variação. No centro desse esforço está a necessidade de compreender a relação formal entre genes e proteínas como agentes e a dinâmica dos sistemas complexos dos quais são compostos. Muito esforço tem sido despendido em tentativas de predizer o fenótipo, primeiramente de bases de dados genômicos e, depois, de proteômicos. Mas essas bases de dados não contêm informação
212 “(...) a reasonable current assessment is that we have a partial but still quite incomplete knowledge of how to identify and read certain nouns (the structures of the nascent polypeptides and protein-coding exons of mRNAs). Our ability to identify the verbs and adjectives and other components of these genomic sentences (for example, the regulatory elements that drive expression patterns or structural elements within chromosomes) is vanishingly low. Further, we do not understand the grammar at all--how to read a sentence, how to weave the different sentences together to form sensible paragraphs describing how to build multicomponent proteins and other complexes, how to elaborate physiological or developmental pathways, and so on.” 213 “Cell and molecular biology, in conjunction with new theoretical developments, have, in the past decade, taken us from a grossly naïve view of genetic determinism (that complex traits are caused by a single gene) to the stark reality that almost all human diseases are complex context-dependent entities to which our genes make a necessary, but only partial, contribution. Molecular biologists have rediscovered the profound complexity of the genotype-phenotype relationship, but are unable to explain it: Something is missing.”
148
suficiente para especificar o comportamento de um sistema complexo.214 (STROHMAN, 2002, p. 701)
4.3 Da crítica da sociobiologia ao Projeto Genoma Humano
O círculo, aparentemente, começa a se fechar, porque esse tipo de interpretação
intramuros da genômica realmente existente se aproxima muito da visão advogada – desde
um ponto de vista mais teórico, ainda que motivado por valores divergentes sobre a vida e a
biologia – pelos críticos externos mais tradicionais do determinismo genético, antes vozes
um tanto isoladas no panorama acadêmico dominado pela fortuna da tecnobiologia, que ora
tentam reverter a razão que o tempo lhes trouxe em ímpeto para compor enfim um campo
alternativo que obtenha reconhecimento como tal, provisoriamente designado como “teoria
de sistemas desenvolvimentais” (developmental systems theory, ou DST). É chegado o
momento de refazer um pouco da história recente dessa perspectiva teórica, que teve
origem nos embates sobre a sociobiologia.
O cerne da sociobiologia é a suposição de que os comportamentos humanos têm
explicação biológica e, portanto, fundamento genético. Embora o termo em si tenha surgido
somente em 1975, com a publicação de um livro controverso de Edward O. Wilson,
Sociobiology: The new synthesis,215 como programa intelectual sua história se confunde
com a da eugenia e dos estudos sobre a hereditariedade da inteligência. Nas duas ou três
primeiras décadas após a Segunda Guerra Mundial, ainda sob o impacto das atrocidades
nazistas e em meio a um clima de reconstrução, essa perspectiva permaneceu eclipsada e
prevaleceu o otimismo ambiental, “nurturista”, segundo o qual tudo poderia ser inventado
no domínio da cultura, nurture tinha precedência óbvia sobre nature e se inaugurava uma
“era da psicologia” (KELLER, 1993, p. 285), mas sementes poderosas haviam sido
214 “Molecular biology, in identifying control levels, has focused on the "moves" of genes and proteins but has largely ignored the strategy used by dynamic protein networks that generate phenotype from genotype. Systems biology is all about finding the strategy used by cells and at higher levels of organization (tissue, organ, and whole organism) to produce orderly adaptive behavior in the face of widely varying genetic and environmental conditions. At the center of this effort is a need to understand the formal relationship between genes and proteins as agents, and the dynamics of the complex systems of which they are composed. Much effort has been spent in attempts to predict phenotype, first from genomic, and then from proteomic, databases. But these databases do not contain sufficient information to specify the behavior of a complex
system.” 215 Cambridge, MA: Harvard University Press.
149
lançadas e permaneciam dormentes no solo. Desde a década de 30, por exemplo, a
Rockefeller Foundation patrocinava uma linha de pesquisa no que viria a se chamar de
biologia molecular sob a rubrica “Ciência do Homem”, voltada para o estudo do
comportamento e para seu controle (KAY, 2000, p. 45).
No campo teórico, a chamada Síntese Moderna da doutrina da evolução, que
compatibilizara a partir dos anos 1930 as perspectivas de Darwin, da sistemática e da
nascente genética, viveu no pós-guerra o processo que GOULD (2002, p. 70) qualificou
como “endurecimento”, em que um pluralismo inicial de mecanismos de mudança foi
substituído pela exclusividade da seleção natural e pela crescente importância dos cenários
“adaptacionistas”: características herdadas – aí incluídos os comportamentos – são
transmitidas entre gerações porque foram selecionadas e, portanto, possuem valor
adaptativo. Como a transmissão se faz por meio de genes, a conclusão era que não poderia
haver genes neutros, sem função ou valor adaptativo, e que é exclusivamente sobre eles que
age a seleção natural (MOORE, 2002, p. 184).
A sociobiologia de Wilson compõe um tipo peculiar de determinismo biológico,
pois não chega a ser experimental e nem mesmo genético (SARKAR, 1999, p. 191n);
pressupõe que tanto os universais do comportamento (“natureza humana”) quanto suas
variações e desvios individuais tenham substrato em genes, mas não se propõe a identificar
as correspondentes seqüências de DNA ou trechos de cromossomos equivalentes,
contentando-se com combinar observações selecionadas de etologia e antropologia com
engenhosas hipóteses sobre o conteúdo adaptativo de tipos comportamentais no passado
remoto da espécie, do altruísmo à divisão sexual do trabalho. Do outro lado do Atlântico, a
obra inaugural da sociobiologia foi The selfish gene, de Richard Dawkins,216 que, mesmo
sem deixar o campo especulativo característico da doutrina sociobiológica, chega mais
perto do determinismo genético propriamente dito. Afinal, poucas obras foram tão enfáticas
ao conferir um papel de primazia para o DNA nos labores da evolução, alçando os genes à
condição de protagonistas (na condição de replicators) e rebaixando organismos à de meros
veículos (interactors) para a multiplicação daqueles.
Contra essa voga de naturalização do comportamento insurgiram-se no mundo
acadêmico anglo-saxão os integrantes do “movimento da ciência radical”, como Richard C.
216 Oxford: Oxford University Press, 1976.
150
Lewontin, Hilary Rose, Steven Rose e Leo Kamin. Segundo ROSE (1998, p. viii), a
sociobiologia de Wilson e o ultradarwinismo de Dawkins representavam uma reação
conservadora aos movimentos e conquistas sociais dos anos 1960, e o combate movido
contra ela em escritos dos anos 1980 foi sobretudo de cunho político. Num dos primeiros
textos de uma série que prosseguiria ainda por duas décadas, LEWONTIN (2000a, p. 4) já
denunciava em 1981 o determinismo biológico como ideologia, segundo a qual “as
diferenças patentes entre indivíduos, sexos, grupos étnicos e raças no tocante a status,
riqueza e poder são baseadas em diferenças biológicas inatas em temperamento e
capacidade, que são passadas de pais para filhos na concepção”.217 O esforço de denúncia
ganharia notoriedade com um volume coletivo de 1984, Not in our genes: Biology,
ideology, and human nature (LEWONTIN, ROSE e KAMIN, 1985). Num registro entre a
sociologia e a filosofia política da ciência, os autores vão buscar as raízes do que chamam
indistintamente de reducionismo e de determinismo no individualismo burguês, mais
precisamente na concepção hobbesiana de luta de todos contra todos. Em outro texto, de
1994, LEWONTIN (2000a, p. 190-191) diz que o Iluminismo é a matriz da idéia de que as
propriedades do indivíduo humano, e só elas, determinam as relações sociais, noção que
segundo ele estaria na base de toda a teoria social moderna, até Weber e Durkheim. A
operação básica denunciada corresponderia à camuflagem tipicamente ideológica de causas
sociais sob a roupagem de causas naturais: “Para entender a origem e a manutenção das
estruturas sociais, precisamos, por essa visão, entender a ontogenia de indivíduos. Assim, a
economia política se torna biologia aplicada” (LEWONTIN, 2000a, p. 192).218
Mais do que um simples uso ideológico da biologia pela teoria social, LEWONTIN,
ROSE e KAMIN (1985, p. 5-6) enxergam uma identidade epistemológica mais profunda
entre elas (embora pareça mais apropriado qualificá-la como uma analogia, pois não
apresentam vínculo mais orgânico do que a mera utilidade ideológica), fundada sobre a
noção de reducionismo: “... a suposição de que as unidades composicionais de um todo são
ontologicamente anteriores ao todo que as unidades compreendem. Ou seja, as unidades e
suas propriedades existem antes do todo, e há uma cadeia de causação que vai das unidades
217 “(...) the patent differences between individuals, sexes, ethnic groups, and races in status, wealth, and power are based on innate biological differences in temperament and ability which are passed from parent to offspring at conception”. 218 “To understand the origin and maintenance of social structures, we must, in this view, understand the ontogeny of individuals. Thus political economy becomes applied biology.”
151
para o todo”.219 O determinismo biológico, por sua vez, seria um caso especial de
reducionismo: “... as vidas e ações humanas são conseqüências inevitáveis das propriedades
bioquímicas das células que compõem o indivíduo; e essas características, por seu turno,
são determinadas de modo único pelos constituintes dos genes presentes em cada indivíduo.
Os deterministas sustentam, portanto, que a natureza humana está fixada pelos nossos
genes” (LEWONTIN, ROSE e KAMIN, 1985, p. 6).220
Não é somente por seu emprego político-ideológico que o determinismo deve ser
combatido, defendem os três autores, mas também porque é biologicamente errado. E o
equívoco do determinismo, do ponto de vista científico, decorre de ser ele pouco...
dialético:
É característico do reducionismo que ele atribua pesos relativos a causas parciais diferentes e tente avaliar a importância de cada causa mantendo todas as outras constantes enquanto varia um fator único. Explicações dialéticas, ao contrário, não abstraem propriedades de partes em isolamento dos todos, mas vêem as propriedades de partes emergirem de suas associações. Isto é, de acordo com a visão dialética, as propriedades de partes e todos codeterminam umas às outras.221 (LEWONTIN, ROSE e KAMIN, 1985, p. 11)
O vocabulário é obviamente reminiscente da controversa dialética da natureza de
Friedrich Engels, mas o importante a ressaltar é que os três combativos autores, mesmo
insistindo no esquematismo ao acusar o reducionismo sociobiológico de desprezo pela
historicidade e pelo interacionismo característico dos seres vivos, terminam por destacar a
categoria propriamente biológica que permanece realmente à margem das explicações ao
estilo de Wilson e Dawkins: o desenvolvimento, ou seja, o fato de seres de uma mesma
espécie multicelular mudarem ao longo da vida segundo padrões confiavelmente repetidos.
Como disse LEWONTIN (2001a, p. 61) num texto clássico de 1983, “genes, organismos e
219 “... the claim that the compositional units of a whole are ontologically prior to the whole that the units comprise. That is, the units and their properties exist before the whole, and there is a chain of causation that runs from the units to the whole.” 220 “... human lives and actions are inevitable consequences of the biochemical properties of the cells that make up the individual; and these characteristics are in turn uniquely determined by the constituents of the genes possessed by each individual. The determinists would have it, then, that human nature is fixed by our genes.” 221 “It is characteristic of reductionism that it assigns relative weights to different partial causes and attempts to assess the importance of each cause by holding all others constant while varying a single factor. Dialectical explanations, on the contrary, do not abstract properties of parts in isolation from their associations in wholes but see the properties of parts arising out of their associations. That is, according to the dialectical view, the properties of parts and wholes codetermine each other.”
152
ambientes estão em interação recíproca uns com os outros, de tal modo que cada um é tanto
causa quanto efeito, de um modo bem complexo, embora perfeitamente analisável”. E
prossegue: “Os fatos conhecidos do desenvolvimento e da história natural tornam
patentemente claro que genes não determinam indivíduos, e que tampouco ambientes
determinam espécies”.222 Existe um elemento de ordem temporal no processo de
desenvolvimento que não pode ser captado no esquema simplificado de causação implícito
na relação entre genótipo e ambiente para produzir o fenótipo, pois o fenótipo do instante
anterior também participa da produção do seu sucessor. Além disso, argumenta
LEWONTIN (2001a, p. 64-65), organismos não só participam da construção de si mesmos
como também constituem o próprio ambiente, que deixa portanto de ser entendido pela
biologia de inspiração “dialética” como as condições físicas meramente dadas, para se
restringir àquelas eleitas e modificadas pelo organismo em questão. Essa noção,
evidentemente inspirada na noção marxista segundo a qual os homens constroem a própria
história, ficaria depois conhecida como niche-picking (escolha de nicho) e daria origem a
uma fértil linha de estudos.
A ciência radical não se limitava a combater a sociobiologia, contudo. Outro campo
de investigação biológica – este sim dotado de um programa experimental com tendências
“imperialistas” – a fazer pouco caso de suas perorações interacionistas era a genética
propriamente dita, que ganhara impulso extraordinário após as descobertas da estrutura do
DNA (1953) e da tecnologia do DNA recombinante (1973) e culminara na proposta de
seqüenciar (identificar e ordenar) todas as bases nitrogenadas do genoma humano, aventada
pela primeira vez em meados dos anos 80. Neste caso, a ciência radical de Lewontin,
Kamin e Rose denuncia a razão de ser do PGH como uma espécie de contaminação da
teoria biológica pelas limitações inerentes à pesquisa genética experimental,
necessariamente restrita às determinações diminutas representadas por uns poucos genes
cuja expressão consegue reproduzir de modo controlado em laboratório, magnificando-as
portanto no processo de torná-las um sinal distinto em relação ao ruído de fundo. Com isso
se origina o que LEWONTIN (2000c, p. x-xi) chama de problema da extrapolação: “A
222 “(...) genes, organisms, and environments are in reciprocal interaction with each other in such a way that each is both cause and effect in a quite complex, although perfectly analyzable way. The known facts of development and of natural history make it patently clear that genes do not determine individuals nor do environments determine species.”
153
concentração dos geneticistas na origem das diferenças e sua confusão dessa questão com o
processo que leva ao estado de um organismo emerge de uma profunda limitação estrutural
da investigação experimental em biologia”.223 Noutra formulação: “O uso de mutações
drásticas de genes como ferramenta primária de investigação é um tipo de prática
reforçadora que convence ainda mais o biólogo de que toda variação observada entre
organismos deve ser o resultado de diferenças genéticas” (LEWONTIN, 2000b, p. 15).224
Tal redução deixaria de fora determinações essenciais à própria condição de ser
vivo: “Organismos, diferentemente de sistemas físicos mais simples como estrelas e seus
planetas, são de médio porte e funcionalmente heterogêneos, por dentro. Como resultado,
constituem o nexo de um número muito grande de trajetórias causais fracamente
determinantes” (LEWONTIN, 2000c, p. xi).225 O foco exclusivo da nascente genômica
conduziria historicamente à estagnação da ciência clássica da embriologia experimental,226
constata Lewontin em seu prefácio 15 anos depois da primeira edição de The ontogeny of
information, de Susan Oyama, que de resto enxerga o mesmo hiato na geneticização do
desenvolvimento e da embriologia: “... nossas convicções mais fundamentais sobre
processos de vida não parecem ter mantido o passo com o nosso crescente conhecimento
factual. (...) Criamos e observamos diferenças, mas desejamos compreender fenômenos. Ao
tentar explicar fenômenos, usamos as ferramentas que nos servem tão bem ao investigar
essas diferenças, e caímos no desvão fatal entre a análise e a síntese” (OYAMA, 2000a, p.
52).227
223 “Geneticists’ concentration on the origin of differences, and their confusion of this question with the processes leading to an organism’s state, arises from a deep structural limitation of the experimental investigation in biology.” 224 “The use of drastic gene mutations as the primary tool of investigation is a form of reinforcing practice that further convinces the biologist that any variation that is observed among organisms must be the result of genetic differences.” 225 “Organisms, unlike simpler physical systems such as stars and their planets, are medium sized and internally functionally heterogeneous. As a result, they are the nexus of a very large number of weakly determining pathways.” 226 A mesma avaliação foi feita por PINTO-CORREIA (1999, p. 382): “No final, os embriologistas foram os grandes derrotados na guerra contra a genética. Com o tempo, a abordagem genética à embriologia (e à evolução, e a tudo o mais que existisse sob o sol biológico) tornou-se a versão triunfante. E a sucessora final da pré-formação, a biologia molecular, hoje ameaça tomar conta de todo o campo da biologia do desenvolvimento”. 227 “(...) our most fundamental convictions about life processes have not seemed to keep step with our growing factual knowledge. (...) We create and observe differences, but we wish to understand phenomena. In attempting to explain phenomena, we use the tools that served us so well in investigating those differences, and we fall into the fatal gap between analysis and synthesis.”
154
Essa armadilha molecular contra a embriologia acabaria por atrair a atenção crítica
também de estudiosas da ciência próximas ou militantes de uma perspectiva feminista,
como Hilary Rose, Ruth Hubbard e Evelyn Fox Keller. Afinal, o que ficava reprimido pela
doutrina da primazia do gene não era só o desenvolvimento do embrião (que no caso dos
mamíferos ocorre em estreita ligação com o corpo feminino), mas também a contribuição
única do óvulo materno para o novo ser, que recebe metade do patrimônio genético de cada
um dos genitores, mas somente da mãe as organelas, membranas e proteínas que
desencadeiam e regulam os passos iniciais desse desenvolvimento, antes que o genoma do
embrião comece a ser lido e diretamente expressado. Keller, depois de escrever uma
biografia da geneticista Barbara McClintock sintomaticamente intitulada A feeling for the
organism, fez dessa omissão um dos temas centrais de Refiguring life:
Inevitavelmente, é claro, esse modo de falar sobre genes também teve seus custos, e esses custos foram sentidos mais obviamente pelos embriologistas. (...) Ele não concedia nem tempo nem espaço nos quais o restante do organismo, a economia supérflua do soma, pudesse exercer seus efeitos. O que é especificamente eclipsado no discurso da ação gênica é o corpo citoplasmático, marcado simultaneamente por gênero, por conflito internacional, e pela política disciplinar.228 (KELLER, 1995, p. xiv-xv)
Naquele momento Keller já demonstrava certo otimismo com a transformação do
discurso da ação gênica no de ativação gênica, para ela mais condizente com as realidades
experimentalmente estipuladas pelo estudo do desenvolvimento, mas cinco anos depois, por
assim dizer na véspera do anúncio das seqüências-rascunho do genoma humano, ainda
considerou necessário fazer em The century of the gene229 nova denúncia da omissão do
citoplasma operada pelo genocentrismo,230 com base na
... suposição não declarada de que, desde que o curso do desenvolvimento e da forma final são herdáveis, o único material causal relevante a ser transmitido de uma geração a outra é o material genético. O fato manifesto de que o processo reprodutivo passa adiante não somente genes mas também citoplasma não é mencionado. (...) a convicção de que o
228 “Inevitably, of course, this way of talking about genes also had its costs, and these costs were felt most obviously by embryologists. (...) It allowed neither time nor space in which the rest of the organism, the surplus economy of the soma, could exert its effects. What is specifically eclipsed in the discourse of gene action is the cytoplasmic body, marked simultaneously by gender, by international conflict, and by disciplinary politics.” 229 A primeira edição norte-americana foi publicada em 2000. 230 A mesma denúncia da omissão do citoplasma e do óvulo já havia sido feita em texto de 1992 por LEWONTIN (2000, p. 143).
155
citoplasma não poderia conter nem transmitir traços da memória intergeracional havia sido um pilar da genética por tanto tempo que fazia parte da “memória” dessa disciplina, operando de forma silenciosa mas eficaz para moldar a própria lógica da inferência. (KELLER, 2002, p. 99-100)
Num ensaio publicado logo depois, “Beyond the gene but beneath the skin”, a
autora explicita o caráter eminentemente político e de gênero da omissão da genética
quanto ao papel do óvulo:
Uma vez que, na reprodução sexual, o citoplasma deriva quase inteiramente do óvulo não-fertilizado, não é uma mera figura de linguagem referir-se a ele como a contribuição materna. (...) Meu título, em poucas palavras, é deliberado em sua alusão: quero indicar que a política de gênero esteve implicada na elisão histórica do corpo em questão, sem ao mesmo tempo reinscrever a mulher naquele ou em qualquer outro corpo.231 (KELLER, 2001, p. 301-302)
Assim como LEWONTIN (2000, p. 160-161), KELLER (2001, p. 300) destaca o
caráter instrumental da primazia conferida ao gene para a ressurgência de estudos
controversos no campo da eugenia e da hereditariedade da inteligência e de
comportamentos, na atmosfera da síntese neo-darwiniana, mas o faz em sentido sempre
histórico-interpretativo, como se essa visão genocêntrica limitadora já se encontrasse num
processo inelutável de dissolução, sob a luz potente das observações experimentais. Esse
otimismo de certo modo kuhniano com o poder corretivo ou revolucionador das
descobertas empíricas (neste caso, a inesgotável complexidade que emerge dos estudos
genômicos) é partilhado, por exemplo, por David S. Moore, para quem embriologia e
genética seguiram cursos divergentes a partir de 1910, inclusive na eleição de seus animais-
modelo (respectivamente ouriços-do-mar e anfíbios, de um lado, e moscas drosófilas, de
outro), mas estão fadadas ao reencontro, por visarem ao mesmo objeto, vale dizer, os
resultados do processo de desenvolvimento:
As investigações gêmeas em genética e desenvolvimento requerem integração antes que os grandes problemas da biologia e da psicologia possam ser resolvidos. (...) A boa notícia é que avanços recentes tanto no entendimento quanto na tecnologia vêm permitindo que uma
231 “Because, in sexual reproduction, the cytoplasm derives almost entirely from the unfertilized egg, it is no mere figure of speech to refer to it as the maternal contribution. (...) My title, in short, is deliberate in its allusivity: I want to indicate the possibility that gender politics has been implicated in the historic elision of the body in question, without, at the same time, reinscribing the woman in that or any other body.”
156
síntese apareça no horizonte. (...) tal reunião trará com ela uma rejeição da noção de determinismo genético.232 (MOORE, 2002, p. 30-31)
Pode ser injusto atribuir algum otimismo a Keller, que tem manifestado dúvidas
quanto à possibilidade de que a complexidade biológica possa um dia ser apreendida nas
malhas de um ciência matematicamente formalizada, como ocorre nas ciências físicas. De
todo modo, mesmo que possa ser incluída no rol dos pessimistas epistemológicos da
biologia, sua perspectiva permanece profundamente diversa do pessimismo histórico-
político à maneira de Richard Lewontin, para quem a biologia como investigação não
parece ser tolhida por certa opacidade inerente à trama do próprio objeto, mas antes por sua
renitência “antidialética”. Nos últimos anos, o inspirador e líder de tantas críticas ao
determinismo genético parece ser o último a ainda se apegar aos termos político-
ideológicos daquele debate dos anos 1980. Seu companheiro e co-autor no libelo de 1985,
Not in our genes, Steven Rose, declara-se mais preocupado em preencher as lacunas
científicas (falta de evidências empíricas) deixadas pelo movimento da ciência radical: “O
desafio para os oponentes do determinismo biológico é que, embora possamos ter sido
eficazes em nossa crítica de suas afirmações reducionistas, falhamos em oferecer uma
moldura alternativa coerente na qual [se possam] interpretar processos vivos” (ROSE,
1998, p. ix).233 Com efeito, chega a ser sintomático que LEWONTIN (2000c, p. xv) declare
ainda preferir a qualificação de “interacionismo dialético” à de “interacionismo
construtivista” defendida por OYAMA (2000a, p. xvii) na reedição de The ontogeny of
information, quando, precisamente, ela e vários cientistas simpáticos a uma reformulação
da biologia na ótica da DST (developmental systems theory)234 se esforçam para torná-la
menos datada, mais coerente e experimentalmente mais fértil.
232 “The twin inquiries into genetics and development require integration before the great problems of biology and psychology can be solved. (...) The good news is that recent advances in both understanding and technology have allowed such a synthesis to appear on the horizon. (...) such a reunion will bring with it a rejection of the notion of genetic determinism.” 233 “The challenge to the opponents of biological determinism is that, while we may have been effective in our critique of its reductionist claims, we have failed to offer a coherent alternative framework within which to interpret living processes.” 234 Steven ROSE (1998, p. ix-x) prefere empregar o termo “homeodinâmica” para designar uma visão da biologia que transcenda o determinismo genético e ponha o organismo, não o “gene”, no centro do fenômeno da vida; MOORE (2002, p. 8), por seu turno, declara-se adepto de uma “perspectiva de sistemas de desenvolvimento”, evitando a carga pretensiosa do termo “teoria” para o que ainda se configura como uma orientação dispersa entre muitas denominações, como “interacionismo”, “construcionismo”, “desenvolvimentalismo dinâmico”, “abordagem de epigênese probabilística” e outras; a própria OYAMA
157
4.4 A Teoria de Sistemas Desenvolvimentais e o interacionismo construtivista
De todo modo, ainda que expurgada da componente de crítica política, a matriz
dessa perspectiva permanece sendo aquela aberta no início dos anos 80 sob a liderança de
Lewontin, como fica atestado na persistente aceitação do termo “interacionismo” para
marcar o caráter eminentemente histórico – e contingencial – do desenvolvimento
biológico, assim como a necessária interação entre genes e ambiente para a emergência de
forma e função no organismo, pretendidas antíteses tanto da dicotomia nature/nurture
quanto da primazia de seu primeiro termo, na forma do todo-poderoso DNA pré-formador.
Eis a visão do problema para os integrantes do movimento da ciência radical em Not in our
genes:
Organismos não herdam suas características [traits], mas somente seus genes, as moléculas de DNA que estão presentes no ovo fertilizado. Do momento da fertilização até o momento de sua morte, o organismo passa pelo processo histórico de desenvolvimento. Aquilo que o organismo se torna a cada momento depende tanto dos genes que carrega em suas células quanto do ambiente no qual o desenvolvimento está ocorrendo.235 (LEWONTIN, ROSE e KAMIN, 1985, p. 268)
Duas décadas depois, a noção de que o desenvolvimento depende de um “complexo
interativo” capaz de ativar diferencial e concertadamente os genes nos diversos tecidos
ainda goza de importância central nos esforços de sistematização da DST promovidos
sobretudo por Oyama:
O que se transmite entre gerações não são características [traits], ou planos-mestres [blueprints], ou representações simbólicas de características, mas sim meios de desenvolvimento (ou recursos, ou ainda interagentes [interactants]). Esses meios incluem genes, a maquinaria celular necessária para seu funcionamento e o contexto desenvolvimental mais amplo, o qual pode incluir um sistema reprodutivo materno, cuidado
(2000b, p. 2) concorda que talvez seja preferível falar em “perspectiva” ou “abordagem”, se por teoria entender-se mais do que uma “máquina geradora de hipóteses”. 235 “Organisms do not inherit their traits but only their genes, the DNA molecules that are present in the fertilized egg. From the moment of fertilization until the moment of its death, the organism goes through the historical process of development. What the organism becomes at each moment depends both on the genes that it carries in its cells and on the environment in which development is occurring.”
158
parental ou outra interação com integrantes da mesma espécie [conspecifics], assim como relações com outros aspectos dos mundos animado e inanimado.236 (OYAMA, 2000b, p. 29)
Para a autora, levar essa perspectiva interacionista a sério exige a rejeição do
Dogma Central de Francis Crick como metáfora pertinente para descrever os mecanismos
de controle do processo de desenvolvimento: “A causação de mão única que ele implica é
inconsistente com a causação múltipla e recíproca realmente observada nos processos
vitais. Interação requer uma ‘troca de informação’ de duas mãos” (OYAMA, 2000b, p.
68).237 Poucas páginas adiante, OYAMA (2000b, p. 73-74) apresenta uma relação mais
detalhada dos vários fatores que interagem no desenvolvimento (rebaixando assim o DNA à
condição de um, apenas, entre pelo menos nove componentes):
1. O genoma, com suas partes móveis e interativas;
2. A estrutura celular, aí incluídas organelas como as mitocôndrias, que, segundo a teoria
da endossimbiose, teriam origem em organismos primitivos assimilados no passado
evolutivo profundo pelos organismos que viriam a ser os eucariotos;
3. As substâncias intracelulares, como o RNA mensageiro (mRNA) herdado de outras
gerações pelo citoplasma do óvulo;
4. O ambiente extracelular (mecânico, hormonal, energético);
5. Os sistemas reprodutivos parentais (fisiológicos ou comportamentais);
6. A auto-estimulação pelo próprio organismo em formação, como sinais bioquímicos
emitidos por células ou tecidos vizinhos;
7. O ambiente físico imediato (ninhos, fontes de alimento);
8. Os membros da própria espécie ou de outras, como nas relações de simbiose;
9. O clima e outros componentes físicos do ambiente em sentido mais amplo.
Diante desse quadro, Moore chega à conclusão de que não cabe mais falar em
controle ou informação (no sentido de instruções identificáveis num componente especial
236 “What is transmitted between generations is not traits, or blueprints or symbolic representations of traits, but developmental means (or resources, or interactants). These means include genes, the cellular machinery necessary for their functioning, and the larger developmental context, which may include a maternal reproductive system, parental care, or other interaction with conspecifics, as well as relations with other aspects of the animate and inanimate worlds.”
159
desse sistema, como os genes), uma vez que o que se pretende designar por esse termo na
realidade está pulverizado e disseminado por todo o sistema em desenvolvimento. Assim, a
constituição de características fisiológicas ou comportamentais antes ditas “hereditárias” se
daria como que espontaneamente, pela confluência de uma gama enorme de condições, a
maioria delas necessária – mas nenhuma suficiente – para o resultado, de tal modo que “as
contribuições causais para nossas características [traits] não podem ser repartidas entre os
componentes do sistema do qual emergimos, pois a própria natureza do processo
desenvolvimental que constrói nossas características torna teoricamente impossível a
repartição de causalidade” (MOORE, 2002, p. 153).238
Como é da natureza eclética da nascente perspectiva DST, existe pouca
convergência quanto à terminologia mesmo quando parece haver concordância nos
aspectos fundamentais. Eva Jablonka, ao esquematizar essa ampliação da hereditariedade, o
faz não só preservando o conceito de informação – combatido por vários outros autores239
como verdadeiro cerne do Dogma Central e do determinismo genético – como estende sua
aplicação para além da genética; define-o como “organização transmissível de um estado
atual ou potencial de um sistema” (JABLONKA, 2001, p. 100; grifo da autora) e o põe no
centro de gravidade de seu esquema com quatro sistemas de hereditariedade: genética (GIS,
na abreviação em inglês); epigenética (EIS), de célula para célula; comportamental (BIS),
ou transmissão em sociedades animais por meio de aprendizado social; e simbólica (SIS),
ou comunicação pelo emprego da linguagem.
De toda maneira, a ampliação inaudita da noção de hereditariedade representa
apenas um dos oito temas centrais ou idéias-chave que a DST mobiliza contra o
genocentrismo, tais como foram sistematizados por OYAMA (2000b, p. 2-7):
1. Aplicação dos mesmos critérios de análise para componentes do sistema como genes e
ambiente, de modo a demonstrar como a concessão de primazia aos primeiros constitui
um processo circular;
237 “The one-way causation it implies is inconsistent with the reciprocal, multiple causation actually observed in vital processes. Interaction requires a two-way ‘exchange of information’.” 238 “(...) causal contributions to our traits cannot be apportioned to the components of the system from which we emerge, because the very nature of the developmental process that build our traits renders apportioning causality theoretically impossible.” 239 O problema da “informação” genética será tratado no próximo capítulo.
160
2. Interdependência desenvolvimental e evolutiva de organismo e ambiente, que se
interpenetram e produzem reciprocamente;
3. Deslocamento da dicotomia nature/nurture para uma multiplicidade de entidades,
influências e ambientes;
4. Deslocamento da escala única que leva do genótipo ao fenótipo para múltiplas escalas
de magnitude e temporais (das interações entre moléculas àquelas entre organismos e
pessoas; da ação instantânea de um hormônio à duração de uma vida e ao tempo
evolutivo);
5. Extensão da hereditariedade;
6. Deslocamento do controle central para a regulação interativa e distribuída;
7. Deslocamento do foco na transmissão entre gerações para a construção e transformação
contínuas (daí a qualificação de “interacionismo construcionista”);
8. Extensão e unificação teóricas, com a convergência de explicações para o fenômeno do
desenvolvimento hoje dispersas e concorrentes.240
Quanto a um programa de investigação experimental, OYAMA (2000b, p. 8-9)
deduz que a DST implicaria “atentar para as ligações ecológicas, comportamentais e
fisiológicas entre gerações, assim como perguntar como mudanças intergeracionais podem
ser mantidas, abafadas ou amplificadas”. Não é muito diversa a recomendação de
LEWONTIN (2000b, p. 47) em The triple helix, possivelmente sua obra mais propositiva,
embora ele prefira centrar o destino da investigação biológica numa reforma da interação
postulada entre organismo e ambiente: “Chegou o momento em que o futuro progresso de
nosso entendimento da natureza requer que reconsideremos a relação entre o exterior e o
interior, entre organismo e ambiente”. Algo paradoxalmente, esse movimento – que seria
também aquele que transita da noção darwiniana clássica de adaptação para outra mais
240 Noutra versão da lista de temas centrais da DST, OYAMA, GRIFFITHS e GRAY (2001, p. 2) reduzem-na a seis itens: determinação conjunta por múltiplas causas; sensibilidade ao contexto e contingência; herança ampliada; desenvolvimento como construção; controle distribuído; e evolução como construção. Já STERELNY (2001, p. 335), no mesmo volume, relaciona uma tese programática (a unidade fundamental da evolução é o ciclo de vida) e três teses críticas centrais: não se deve pressupor que a fronteira organismo/ambiente tenha significado teórico para a biologia evolutiva e do desenvolvimento; genes podem ser destacados com finalidade explicativa ou preditiva, mas não são mais que um recurso desenvolvimental entre outros; é duvidoso explicar similaridades intergeracionais apenas com base em informação geradora de fenótipos transmitida entre gerações.
161
relacional, de construção – implica destruir ou abandonar o conceito de segmentos
predeterminados em um ambiente físico logicamente anterior à vida, uma vez que
... a premissa de que o ambiente de um organismo é causalmente independente do organismo, e de que as mudanças no ambiente são autônomas e independentes das mudanças na própria espécie, é claramente errada. É má biologia, e todo ecólogo ou biólogo evolucionista sabe que é má biologia. (...) Um ambiente é algo que rodeia [surrounds] e engloba, mas, para que haja um entorno [surrounding], é preciso haver algo no centro para ser rodeado [surrounded]. O ambiente de um organismo é a penumbra de condições externas que são relevantes para ele porque mantém interações efetivas com aqueles aspectos do mundo externo. Se o conceito de nicho ecológico preexistente pudesse ter alguma realidade concreta e algum valor no estudo da natureza, deveria ser possível especificar quais justaposições de fenômenos físicos constituiriam um nicho potencial e quais não. O conceito de um nicho ecológico vazio não pode ser tornado concreto.241 (LEWONTIN, 2000b, p. 48-49)
Como já foi assinalado acima, essa noção de niche-picking (escolha de nicho, ou
construção do ambiente) e a de sua conseqüente herdabilidade revelaram-se muito frutíferas
para pesquisadores simpáticos à perspectiva DST. MOORE (2002, p. 168-172) oferece três
exemplos eloqüentes de pesquisas que embaralham a nítida distinção tradicional entre o que
é herdado e o que é ambiental: camundongos que ganham mais peso quando recebem
cuidados parentais de adultos de pelagem clara, independentemente de sua própria pelagem
(ou seja, de seus genes), e que transmitem esse padrão característico de cuidado
parental/ganho de peso para as gerações seguintes, mais uma vez de maneira independente
do que especifica seu DNA em matéria de pelagem;242 filhotes de espécies diversas de
tentilhões que, ao nascerem em ninhos da outra espécie, aprendem o canto característico
desta e o transmitem a seus próprios filhotes;243 e dois tipos de organização de formigueiros
por formigas da mesma espécie (Solenopsis invicta), com uma ou com várias rainhas na
241 “... the claim that the environment of an organism is causally independent of the organism, and that changes in the environment are autonomous and independent of changes in the species itself, is clearly wrong. It is bad biology, and every ecologist and evolutionary biologist knows that it is bad biology. (...) An environment is something that surrounds or encircles, but for there to be a surrounding there must be something at the center to be surrounded. The environment of an organism is the penumbra of external conditions that are relevant to it because it has effective interactions with those aspects of the outer world. “If the concept of the preexisting ecological niche is to have any concrete reality and any value in the study of nature it must be possible to specify which juxtapositions of physical phenomena would constitute a potential niche and which would not. The concept of an empty ecological niche cannot be made concrete.” 242 RESSLER, Robert H. 1966. Inherited environmental influences on the operant behavior of mice. Journal of Comparative and Physiological Psychology. Vol. 61, p. 264-267. [Citado em MOORE, 2002.]
162
mesma colônia, com diferenças anatômicas na fase madura induzidas pelo tipo de
formigueiro e independentes do patrimônio genético desses indivíduos (mesmo rainhas com
os mesmos genes amadurecem de forma diversa caso sejam únicas, ou várias, na mesma
colônia).244 Para o autor, esse gênero de investigação fortalece cada vez mais a noção de
que as especificações contidas no DNA da espécie e os aspectos do ambiente que lhe são
relevantes ou são por ela moldados constituem complexos coerentes de recursos
desenvolvimentais que não faz sentido considerar separadamente, muito menos em
categorias hierárquicas que façam do DNA o componente mais importante, por ser
supostamente o único fator transmitido de geração para geração:
Lembre-se: como as características [traits] são construídas por cooperações [co-actions] gene-ambiente durante o tempo de vida de um indivíduo, o que precisa se tornar disponível para a prole, para que possa desenvolver as características adaptativas de seus ancestrais, são tanto os fatores genéticos quanto os fatores ambientais que levaram seus ancestrais a desenvolver essas características, antes de mais nada. Somente desse modo pode a prole desenvolver as próprias características adaptativas. Diante deste estado de coisas, a evolução darwiniana só pode ocorrer quando a natureza “seleciona” para reprodução na
próxima geração os sistemas gene-ambiente que produzem as características adaptativas. (...) O principal dessa conclusão é que mesmo recursos ambientais persistentes como o hábitat – não menos do que genes, ou do que fatores ambientais como comportamento parental, por exemplo – podem ser adquiridos por meio da evolução.245 (MOORE, 2002, p. 173-174)
BATESON e MARTIN (2000) estendem as conseqüências da noção de niche-
picking para o domínio mais controverso das relações entre genética e ambiente, aquele dos
comportamentos sociais humanos, tão caro aos proponentes da sociobiologia e adeptos do
determinismo genético:
243 IMMELMANN, K. 1969. Song development in the zebra finch and other estrildid finches. In: HINDE, R.A. (ed.). Bird vocalizations: Their relations to current problems in biology and psychology. Cambridge, Reino Unido: Cambridge University Press. [Citado em MOORE, 2002.] 244 KELLER, L. e ROSS, K.G. 1993. Phenotypic plasticity and “cultural transmission” of alternative social organization in the fire ant Solenopsis invicta. Behavioral Ecology and Sociobiology. Vol. 33, p. 121-129. [Citado em MOORE, 2002.] 245 “Remember: because traits are constructed by gene-environment co-actions during an individual’s lifetime, what must be made available to offspring if they are to develop the adaptive traits of their ancestors are both the genetic and environmental factors that led the ancestors to develop the traits in the first place. Only in this way can the offspring develop the adaptive traits themselves. Given this state of affairs, Darwinian evolution can occur only when nature ‘selects’ for reproduction in the next generation the
complete gene-environment systems that produce adaptive traits. (...) The upshot of this conclusion is that
163
Mesmo quando se sabe que um gene particular, ou uma experiência particular, tem um efeito poderoso sobre o desenvolvimento de um comportamento, a biologia tem uma maneira misteriosa de encontrar rotas alternativas. Se a via desenvolvimental normal para uma forma particular de comportamento adulto estiver bloqueada, um outro caminho pode com freqüência ser encontrado. O indivíduo pode ser capaz, por meio de seu comportamento, de configurar [match] seu ambiente de modo a adequá-lo a suas próprias características – um processo batizado como “escolha de nicho” [“niche-picking”]. Ao mesmo tempo, a atividade lúdica [playful] aumenta o leque de escolhas disponíveis e, quando mais criativa, permite ao indivíduo controlar o ambiente por vias que de outro modo não seriam possíveis.246 (BATESON e MARTIN, 2000, p. 220)
Talvez a melhor maneira de coordenar o que os adeptos de uma perspectiva DST
propõem de forma não muito unívoca seja destacar o fato de que se cruzam em seus
escritos pelo menos três tipos de recusa de primazia ou anterioridade lógica ao DNA: eles
não determinam sozinhos as características dos seres vivos, não são os únicos recursos
desenvolvimentais transmitidos de uma geração a outra e tampouco possuem exclusividade
como unidades de seleção, ou seja, não é apenas sobre eles que age a seleção natural. Este
último ponto é salientado por Stephen Jay Gould, ao negar a idéia de Richard Dawkins de
que genes interagiriam diretamente com o ambiente na luta dos organismos pela
sobrevivência:
Genes interagiriam diretamente [com o ambiente] somente se os organismos não desenvolvessem propriedades emergentes – isto é, se os genes construíssem os organismos de uma maneira inteiramente aditiva, sem quaisquer interações não-lineares entre os genes. (...) Assim, uma vez que os genes interagem com o ambiente apenas indiretamente por meio da seleção sobre os organismos, e uma vez que a seleção dos organismos opera predominantemente sobre características [characters] emergentes, genes não podem ser unidades de seleção.247 (GOULD, 2002, p. 620)
even persistent environmental resources such as habitat –no less than genes, or than environmental factors like parental behavior, for example– can be acquired through evolution.” 246 “Even when a particular gene or a particular experience is known to have a powerful effect on the development of behavior, biology has an uncanny way of finding alternative routes. If the normal development pathway to a particular form of adult behavior is impassable, another way may often be found. The individual may be able, through its behavior, to match its environment to suit its own characteristics –a process dubbed ‘niche-picking.’ At the same time, playful activity increases the range of available choices and, at its most creative, enables the individual to control the environment in ways that would otherwise not be possible.” 247 “Genes would interact directly only if organisms developed no emergent properties –that is, if genes built organisms in an entirely additive fashion, with no nonlinear interactions among genes at all. (...) Thus, since genes interact with the environment only indirectly through selection upon organisms, and since selection on organisms operates largely upon emergent characters, genes cannot be units of selection.”
164
Assim, tem razão GODFREY-SMITH (2001, p. 283) quando afirma que o cerne da
perspectiva DST é o antipré-formacionismo sobre o desenvolvimento, embora considere
que por vezes seus adeptos caminhem longe demais nesse rumo. O tema comum a essas
três recusas relacionadas com a suposta primazia do DNA pode ser caracterizado também
como o abandono definitivo das explicações teleológicas em biologia, dos resquícios de
causas finais e causas formais aristotélicas (OYAMA, 2000a, p. 13) que fazem dos genes a
sede de um intencionalidade inviável (por inexplicável e indesignável), em favor de causas
eficientes e materiais como as interações construtivas envolvendo genes, aspectos do
ambiente, estados das células, tecidos, órgãos etc., recursos de outras gerações, espécies ou
indivíduos, e assim por diante. Uma biologia, enfim, centrada na imanência do
desenvolvimento, e não essencialista (ou pré-formacionista).
Atenção: não se trata apenas de reivindicar igualdade ou mesmo superioridade de
recursos ambientais ou não-genéticos como fatores de determinação, pois isso ainda seria
permanecer nos limites estreitos da dicotomia nature/nurture e ser mais uma vez arrastado
pelo recorrente movimento pendular entre esses dois pólos, quando a perspectiva DST
pretende libertar-se de tal pensamento dicotômico.248 Esse é o sentido da escolha do termo
interacionismo construtivista: apenas alguns meios ou recursos de desenvolvimento são
herdados; os produtos do desenvolvimento, por seu turno, são construídos, e não dados
(pré-formados). Dito de outro modo, a regularidade que se observa no desenvolvimento de
seres da mesma espécie é resultado e não causa do sistema vivo (OYAMA, 2000a, p. 26 e
141; KELLER, 2002, p. 43). “Com efeito, o padrão com freqüência é mantido apesar de
consideráveis alterações no genótipo, no ambiente ou em ambos” (OYAMA, 2000a, p.
17).249 Essa mesma confiabilidade do processo de desenvolvimento é destacada também
por KELLER (2002, p. 121): “... mais notável do que a persistência material da estrutura do
gene através de tantas gerações, é a confiabilidade com que um organismo individual, em
cada geração, negocia sua precária passagem de zigoto a adulto”.
248 Movimento semelhante é realizado por Steven ROSE, ainda que ele não se filie à DST e proponha apenas a substituição da dicotomia nature/nurture por outra, entre plasticidade e especificidade (1998, p. 142), para entender o processo de desenvolvimento. Ambas seriam propriedades inerentes ao organismo e manteriam relações inextricáveis tanto com os genes quanto com o ambiente, compondo uma espécie de extensão do conceito de norma de reação introduzido por Theodosius Dobzhansky, segundo o qual muitos processos ontogenéticos são relativamente indiferentes à experiência do organismo. 249 “In fact, pattern is often maintained despite considerable changes in genotype, environment, or both.”
165
OYAMA (2000a, p. 41) chega mesmo a prescindir de um agente na efetivação do
tipo de mudança estudada pela biologia: “Em seres vivos, nenhum agente é necessário para
iniciar seqüências de mudança ou para guiá-los a suas metas [goals] próprias. A matéria,
incluindo a matéria viva, é inerentemente reativa, e a mudança, longe de ser uma intrusão
em alguma ordem natural estática, é inevitável”.250 Trata-se de uma forma algo paradoxal
de resgatar o organismo – e, por extensão, os comportamentos humanos, individual e
social, fenótipo que motiva a maior parte dos debates sobre o determinismo – do limbo de
passividade e heteronomia a que havia sido relegado pela doutrina da ação gênica, ou seja,
pela noção de que todas as manifestações fenotípicas se encontram prefiguradas de forma
linear no DNA. A qualificação de “paradoxal” se justifica por não se tratar de uma simples
troca de sinal, como por vezes se entende o ponto de vista da DST, ou seja, mera subtração
ao DNA do atributo de autonomia e sua transferência para o ambiente, ou para fatores não-
genéticos em geral, o que pode ser entendido como a ressurreição de alguma forma de
vitalismo, de um sopro ou uma força misteriosa a comandar o próprio desenvolvimento do
organismo. O que a perspectiva DST busca inaugurar não é tanto o traslado da autonomia
de um componente privilegiado a outro, mas sua distribuição por todo o processo, inclusive
em termos temporais (em que o fenótipo anterior comparece como uma das “causas” do
subseqüente, e assim por diante). Para o ser humano e social, o que se objetiva resgatar com
essa visão é exatamente a condição de possibilidade da autonomia, como ensina Susan
Oyama ao descartar tanto a doutrina do determinismo genético quanto a de seu oposto
simétrico, o behaviorismo:
Uma das conseqüências de dotar o gene com esses poderes subjetivos [subjectlike] é que nossas idéias de liberdade e possibilidade, nunca muito claras, tornam-se ainda mais turvas. Nossa liberdade parece ser ameaçada por coisas que são feitas conosco e afirmada por coisas que nós fazemos; genes como sujeitos nos tornam objetos, justamente como os estímulos dos behavioristas. O determinismo genético é freqüentemente criticado por nos transformar em robôs impelidos de lá para cá por forças biológicas, enquanto a ênfase behaviorista no controle do estímulo tem sido freqüentemente denunciada por nos tornar passivos, objetos meramente reativos de forças ambientais. Esse ataque em dois fronts
250 “In living beings, no agent is needed to initiate sequences of change or to guide them to their proper goals. Matter, including living matter, is inherently reactive, and change, far from being an intrusion into some static natural order, is inevitable.”
166
contra a autonomia deve nos fazer parar para pensar, especialmente quando nos dizem que isso é tudo o que há: apenas genes e ambiente.251 (OYAMA, 2000a, p. 90-91)
Torna-se claro, assim, como a crítica do determinismo genético empreendida do
ângulo da DST adquire uma dimensão também política, em sentido mais profundo que o da
crítica à sociobiologia. O próprio Richard Lewontin tira conclusões semelhantes, como ao
afirmar:
Todo objeto biológico, mas especialmente um ser humano, é o nexo de um grande número de causas em ação. Nenhuma, ou poucas, dessas causas determina a vida do organismo; assim, o que parecem ser histórias causais trivialmente diferentes podem ter produtos finais radicalmente diversos. É essa estrutura de interação de múltiplas vias causais que torna livres as criaturas vivas, até mesmo o cientista, de um modo que os objetos inanimados não são. É por isso que, no final, biografias nos contam tão pouco, mas exemplificam tanto, sobre a complexidade do desenvolvimento.252 (LEWONTIN, 2000a, p. 217)
Mostra-se legítimo, nesse contexto, o deslocamento metafórico do plano do
organismo biológico para o do sujeito social, elegendo a indeterminação – e portanto a
abertura para o novo e para a construção – como algo inerente a ambos; “legítimo” não
apenas porque homens em sociedade são primeiramente seres vivos, mas também, e
sobretudo, porque o determinismo biológico e em particular a sociobiologia propõem
reduzir a primeira condição à determinação pela segunda. Opor-se a tal estreitamento de
possibilidades não implica necessariamente pressupor uma continuidade ontológica, e tanto
mais problemática, entre negatividades supostamente inerentes a ambos os sistemas, o
desenvolvimental e o social, como parece sugerir LEWONTIN (1993, p. 120-121) nas
passagens em que insiste numa visão “dialética” (ou seja, na pressuposição à Engels de que
todo processo complexo de transformação necessariamente proceda pelo engendramento de
251 “One of the consequences of endowing the gene with these subjectlike powers is that our ideas of freedom and possibility, never that clear, are further muddled. Our freedom seems to be endangered by things that are done to us and affirmed by things that we do; the genes as subjects make us objects, just as the behaviorists’ stimuli do. Genetic determinism is often criticized for turning us into robots pushed and pulled by biological forces, while the behaviorist emphasis on stimulus control has frequently been denounced for making us passive, merely reactive objects of environmental forces. This two-fronted attack on autonomy should give us pause, especially when we are told that this is all there is: just genes and environment.” 252 “Every biological object, but especially a human being, is the nexus of a large number of weakly acting causes. No one, or few, of those causes determines the life of the organism; so that what appear to be trivially different causal stories may have utterly different end products. It is this structure of interaction of multiple causal pathways that makes living creatures, even the scientist, free in a way that inanimate objects are not. This is why, in the end, biographies tell us so little yet exemplify so much about the complexity of development.”
167
antíteses e sínteses). A esse respeito, é importante assinalar como Steven Rose, seu co-autor
no quase-manifesto Not in our genes (LEWONTIN, ROSE e KAMIN, 1985), evita
cuidadosamente o termo de sabor marxista em sua própria tentativa de sistematizar uma
perspectiva teórica alternativa à do determinismo genético (ROSE, 1998). Em suma,
mesmo que não se faça objeção de princípio a um ponto de vista político na base da crítica
teórica a um determinado programa ou estratégia de pesquisa, no caso da acertada crítica de
Lewontin aos pressupostos deterministas do PGH parece perfeitamente dispensável o
recurso a esquemas especulativos como o de uma “dialética da natureza”.
4.5 Interacionismo construtivista e baixo potencial heurístico
A insistência de uma de suas mais importantes figuras inspiradoras (Lewontin)
nesse esquematismo reminiscente da dialética da natureza de Engels não representa
contudo a única, e possivelmente nem mesmo a principal, fraqueza que se pode apontar na
perspectiva DST; afinal, os autores mais diretamente envolvidos no esforço de coordenação
desses pontos de vista, como Susan Oyama, claramente se afastam desse acréscimo
interpretativo desnecessário. Bem mais preocupante para a teoria incipiente do
interacionismo construtivista apresenta-se a objeção levantada por Sahotra Sarkar, segundo
o qual os adeptos da DST tendem a confundir determinismo (epistemologicamente
ilegítimo, por ultrapassar limites autorizados pelos experimentos) com redução física253
(legítima, por heurística e experimentalmente profícua), uma vez que a adoção de uma
perspectiva desenvolvimental (ou “histórica”) em biologia não invalida nem exclui
forçosamente o emprego da segunda como ferramenta de investigação:
Em biologia, aquelas condições [iniciais] são com freqüência críticas para a explicação do fenômeno – essa é uma versão do que por vezes se chama de princípio da historicidade em biologia. As entidades e processos são claramente insuficientes para construir os resultados [outcomes]. Mais ainda, dado que o conjunto de condições possíveis no qual as entidades podem se encontrar é grande, não deveria constituir surpresa que resultados [outcomes] biológicos – o resultado [result] de uma história evolutiva particular e de uma história desenvolvimental particular – não possam ser previstos ou construídos (a partir de algum outro F-domínio [F-realm; na terminologia de Sarkar, a teoria com base na qual se realiza a
253 Explicação de fenômenos biológicos com base na física (SARKAR, 1998, p. 10).
168
redução de outra, como a física em relação à biologia molecular]) na prática. Mas isso, uma vez mais, não é argumento contra o valor das reduções.254 (SARKAR, 1999, p. 65)
O equívoco estaria em deplorar a redução por não comportar predição, quando ela
representa unicamente uma forma de explicação, uma “categoria mais fraca” (SARKAR,
1999, p. 64) do que a primeira. Mas não inútil: se o critério adotado for o da prática da
ciência, ou seja, o da construção de modelos úteis ou intelectualmente iluminadores do
mundo (valor que certamente seria subscrito pelos mais ferrenhos críticos do determinismo
e do reducionismo genéticos no campo da DST, pois todos se reivindicam cientistas), a
redução física da biologia não só constitui um instrumento válido, como também profícuo,
na opinião de SARKAR (1999, p. 64). Com efeito, não há como negar ou desprezar o
notável acervo de descobertas propiciado pelo biologia molecular, sobretudo na última
década, em que pesem todos os abusos do discurso determinista do qual se fez preceder e
acompanhar. A reverência diante da inaudita produtividade experimental da genética
tornada genômica também aproxima autores insuspeitos de militância pró-determinismo,
como Evelyn Fox Keller. Para ela, o conceito reducionista de gene representa uma espécie
de alça ou manopla (handle) indispensável para o pesquisador experimental, que lhe
permite manusear e manipular de modo eficiente a vida no plano infra-celular: “De fato, a
eficácia de tais intervenções é o que convence muitos biólogos moleculares do poder causal
dos genes” (KELLER, 2002, p. 159). A utilidade do reducionismo é experimental e
tecnológica, como assinalam CHO et al. (1999, p. 2089): “Concentrar-se numa abordagem
reducionista tem obtido algum valor histórico ao ajudar cientistas a produzir um melhor
entendimento da função celular”, mas esses mesmos autores ressalvam que “a vida não
precisa ser entendida somente em termos do que a tecnologia permite a cientistas naturais
descobrir”.255
254 “In biology, those [initial] conditions are often critical in the explanation of phenomena –this is one version of what is sometimes called the principle of historicity in biology. The entities and processes are clearly not sufficient to construct the outcomes. Moreover, since the set of possible conditions in which the entities may find themselves is large, it should come as no surprise that biological outcomes –the result of a particular evolutionary and a particular developmental history– would not be predicted (from some other F-realm) in practice. But this, once again, is no argument against the value of reductions.” 255 “Focusing on a reductionist approach has had some historical value in helping scientists produce a better understanding of cellular function. (...) But life need not be understood solely in terms of what technology permits natural scientists to discover.”
169
O elogio à proficiência da perspectiva reducionista no trabalho de laboratório
(mesmo que a contragosto) pode ter também como contrapartida um ataque ao próprio
campo da DST, que padeceria de uma incapacidade de gerar programas experimentais
originais. Em Ontogeny of information, OYAMA (2000a, p. 126) ainda respondia
tentativamente à objeção de que o excesso de complexidade visado pelo interacionismo
construcionista tornava impraticáveis quaisquer generalizações, dizendo que, na verdade,
essa crítica poderia ocultar um preconceito contra novos tipos de generalização. Naquela
altura, a líder da DST ainda não arriscava mais que delinear a proposta de um estilo de
pesquisa: “Para alcançar a integração coerente [da embriologia e dos estudos
desenvolvimentais com a teoria da evolução], um investigador precisa realizar por sua
vontade e por seu engenho o que os organismos em desenvolvimento realizam pela
natureza emergente: discriminar níveis e funções e manter em ordem as fontes, os efeitos
interativos e os processos” (OYAMA, 2000a, p. 164).256 Em Evolution’s eye, década e meia
depois, ela admite que a DST não deve ser considerada uma “teoria” no sentido forte de
máquina geradora de hipóteses experimentais (OYAMA, 2000b, p. 2), embora chegue a
esboçar, como já foi destacado acima, as linhas de um futuro programa experimental para a
DST: “... atentar para as ligações ecológicas, comportamentais e fisiológicas entre gerações,
assim como perguntar como mudanças intergeracionais podem ser mantidas, abafadas ou
amplificadas” (OYAMA, 2000b, p. 8-9).
O grande e temerário passo é dado por Godfrey-Smith, em sua contribuição para a
coletânea Cycles of contingency, co-editada por Susan Oyama, quando diz que a DST não
estaria no domínio da ciência propriamente dita, mas sim no que chama de filosofia da
natureza, portanto livre da obrigação de ser útil em contexto experimental: “No trabalho
empírico, é provavelmente inevitável que o pesquisador desembaralhe fatores causais e
distinga alguns como condições primárias e outros como condições de fundo, e negar essa
estratégia ao pesquisador significa interditar a [própria] pesquisa” (GODFREY-SMITH,
2001, p. 289).257 Dele discorda Lenny Moss, no mesmo volume, recusando a dicotomia
256 “For coherent integration to be accomplished, an investigator must do by will and wit what the developing organism does by emerging nature: sort out levels and functions and keep sources, interacting effects, and processes straight.” 257 “In empirical work, it is probably inevitable that the researcher sort through causal factors and distinguish some as primary and others as background conditions, and to deny the researcher this strategy is to shut down research.”
170
sem gradações entre reducionismo heurístico e holismo “impraticável” e advogando que
nem mesmo a abordagem reducionista pode esquivar-se de dar conta da integração real
observada nos organismos: “Abrir mão do cordão umbilical pré-formacionista não significa
cair num abismo sem fundo de complexidade, mas sim manter-se empiricamente aberto
para descobrir qual nível de ordenação biológica é mais relevante para os próprios
propósitos explicativos. (...) Módulos multimoleculares e funcionalmente conservados têm
emergido como novas unidades de desenvolvimento, morfologia, inovação e variação, num
nível intermediário de ordenação biológica”.258 (MOSS, 2001, p. 91)
Em poucas palavras, não está claro ainda – nem mesmo entre os simpatizantes da
DST – se dessa perspectiva poderá ser derivado um programa experimental que consiga ir
além do programa reducionista, até porque ainda tem poucos resultados para exibir nesse
quesito, à exceção talvez da fecundidade da noção de niche-picking.
Nessa encruzilhada entre a crítica do reducionismo e a dificuldade de rivalizar com
ele nas trincheiras dos laboratórios, um dos grandes problemas para a DST é a própria
noção de gene. Embora até mesmo os adversários dessa perspectiva aceitem que se torna
cada vez mais difícil abarcar com esse termo tantas e tão díspares unidades funcionais de
ácidos nucléicos, o que hoje impediria uma definição unívoca e epistemologicamente
aceitável para ele (MAYNARD SMITH, 2000, p. 44),259 no campo dos interacionistas
construtivistas não há muito acordo quanto ao destino que lhe cabe. KELLER (2002, p. 17
e 79), por exemplo, considera que o conceito pertencia ao século XX e com ele se
extinguia, mas conclui que terá de continuar a ser empregado – pela necessidade prática de
pesquisadores260 – até que surja vocabulário novo e melhor (KELLER, 2002, p. 155).261 Já
Eva Neumann-Held considera que, mesmo retendo o conceito de gene, é preciso enfrentar a
258 “To give up the preformationist umbilical cord is not to drop in an abyss of limitless complexity but rather to remain empirically open to discovering what level of biological ordering is relevant for one’s explanatory purposes. (...) Functionally conserved, multimolecular modules have emerged as new units of development, morphology, innovation, and variation, at an intermediate level of biological ordering.” 259 Para GELBART (1998, p. 660), uma voz aparentemente mais “neutra” nesse debate, já está claro para cientistas experimentais que os genes não são objetos físicos, mas somente conceitos com uma pesada bagagem histórica. 260 Há outra razão de ordem pragmática para manter em circulação o conceito de “gene”, diagnosticada por GELBART (1998, p. 660): mesmo constituindo uma barreira para a compreensão do genoma, essa noção ainda serve de fundamento para a organização das grandes bases de dados genômicos. 261 É perceptível já a tendência de alguns cientistas a substituir “gene” por “cístron”, neologismo livre da carga filosófica e até ideológica do termo clássico, e que designa uma região de DNA comprovadamente especificadora de um produto funcional (em geral, uma proteína), por meio de teste do tipo “cis-trans”.
171
questão de sua imprecisão, o que a leva a propor sua reformulação no que nomeia como
“conceito processual-molecular de gene” (process molecular gene, ou PMG), reunindo os
processos de transcrição (do DNA em mRNA) e de tradução (dos códons de RNA em
aminoácidos):
“Gene” é o processo (isto é, o decurso de eventos) que interliga o DNA com todos os outras entidades não-DNA relevantes na produção de um polipeptídeo262 particular. O termo gene, nesse sentido, designa os processos que são especificados por (1) interações específicas entre segmentos específicos de DNA e entidades específicas não-localizadas em DNA, (2) mecanismos específicos de processamento dos mRNAs resultantes em interações com outras entidades não-localizadas em DNA. Esses processos, na sua ordem temporal específica, resultam (3) na síntese de um polipeptídeo específico. Esse conceito de gene é relacional e sempre inclui a interação entre o DNA e seu ambiente (desenvolvimental).263 (NEUMANN-HELD, 2001, p. 74)
Mesmo para um leigo fica manifesto no conceito proposto seu caráter pouco
operacional – isso para não mencionar as dificuldades de representação que introduziria:
como anotá-lo num artigo científico, por exemplo, na forma de diagramas, fórmulas,
esquemas tridimensionais? Com todos os seus defeitos, o conceito tradicional era
facilmente representado na forma de um “colar de contas”, em que seus diversos
componentes (promotores, operons, éxons etc.) aparecem enfileirados na ordem que se
acredita ocuparem na cadeia de DNA. O conceito PMG é criticado por Lenny Moss como
impraticável, com base no exemplo do gene conhecido como N-CAM,264 que, dependendo
do tecido e da etapa de desenvolvimento em que é expressado, pode resultar numa centena
de variações (isoformas) da proteína N-CAM; cada variante, no caso do conceito PMG,
demandaria uma nova definição. “Os PMGs não denotariam nada de mais durável do que
262 Molécula composta por uma única cadeia de aminoácidos; proteínas são formadas por uma ou mais dessas cadeias. 263 “(...) ‘gene’ is the process (i.e., the course of events) that binds together DNA and all other relevant non-DNA entities in the production of a particular polypeptide. The term gene in this sense stands for processes which are specified by (1) specific interactions between specific DNA segments and specific non-DNA located entities, (2) specific processing mechanisms of resulting mRNA’s in interactions with additional non-DNA located entities. These processes, in their specific temporal order, result (3) in the synthesis of a specific polypeptide. This gene concept is relational, and it always include interactions between DNA and its (developmental) environment.” 264 De neural cell adhesion molecule, ou “molécula de adesão de célula neural”.
172
singularidades na história de vida de um organismo e, portanto, seriam de valor biológico
negligenciável” (MOSS, 2001, p. 91).265
A conclusão mais plausível desse debate, além de provisória, é que – parafraseando
Ernst JÜNGER (1989, p. 249)266 a respeito da ciência e do intelecto – não se trata de
menosprezar e prescindir imediatamente do conceito de gene, mas de remetê-lo a seu
devido lugar, ou seja, o de um entre muitos recursos desenvolvimentais, e não o de um
componente privilegiado, único a armazenar toda a informação e a deter todo o controle267
do processo de desenvolvimento do organismo.268 Nesse sentido, mostra-se útil a distinção
entre Gene-P (de pré-formacionista) e Gene-D (de desenvolvimental) proposta por MOSS
(2001, p. 86-87). O primeiro, Gene-P, é o conceito mendeliano, no qual só conta sua
condição de unidade de transmissão intergeracional, funcionando portanto como fator de
predição de uma característica fenotípica, e não suas propriedades moleculares. Já o Gene-
D é entendido como unidade transcricional, simples recurso para o desenvolvimento, em si
mesmo indeterminado com relação ao fenótipo (pois este depende também da confluência
de todos os outros recursos desenvolvimentais, dos epigenéticos aos não-genéticos).
Tal diferenciação corresponde em grande medida à que Sahotra Sarkar estabelece
entre determinismo genético (cujo correlato ou substrato seria o Gene-P de Moss) e
redução física (pelo menos não-conflitante com o Gene-D), concluindo que o equívoco
estaria em promover uma mistura dessas duas doutrinas. É compreensível que os
interessados na promoção e na hegemonia da pesquisa genômica associem a ela o sucesso
experimental inegável da redução física, para reforçar a plausibilidade do determinismo
genético, mas os críticos deste último deveriam evitar cometer o mesmo erro, ao identificar
determinismo genético com reducionismo físico, como faziam LEWONTIN, ROSE e
KAMIN (1985) ao denunciar este último como não-dialético e correlato da ideologia
individualista: “(...) muito da confusão filosófica sobre a viabilidade da redução em
265 “PMGs would not denote anything more durable than singularities in the life history of an organism and thus would be of negligible biological value.” 266 Ver Capítulo 1. 267 V. próximo capítulo, “Metáfora e destino da informação”. 268 GOULD (2002, p. 614), por exemplo, diz que sua função é a de simples instrumento de apontadoria (bookkeeping), enquanto Eric Lander –um dos líderes do PGH– exprimiu idéia semelhante, numa conferência, com um termo mais glamuroso, “caderno de notas da evolução” (REUNIÃO ANUAL DA ASSOCIAÇÃO AMERICANA PARA O AVANÇO DA CIÊNCIA-AAAS, 2002, Boston); ATLAN (1992, p. 50) e MORANGE (2001, p. 24) seguem na mesma direção ao considerar mais adequada que a metáfora de programa a de memória de computador, para descrever a função do genoma.
173
genética molecular surgiu da mistura [conflation] do reducionismo genético com o físico.
Os problemas com o primeiro foram usados para argumentar contra o último” (SARKAR,
1998, p. 14).269 Raciocínio semelhante é desenvolvido por Michel Morange quando afirma
que a biologia molecular realmente praticada nos laboratórios nunca se limitou a um
programa genético-determinista:
Os opositores da biologia molecular e da genética afirmam que há dois tipos de biólogos: aqueles que querem explicar a complexidade da vida simplesmente entendendo os genes e aqueles que situam essa complexidade no nível de outros componentes do organismo e, acima de tudo, em sua organização. Tal dicotomia é absurda e cria uma impressão errada da visão molecular da vida que se tem desenvolvido desde os anos 1950. Se os biólogos moleculares tivessem de designar uma categoria de macromoléculas como sendo essenciais para a vida, seriam as proteínas e suas múltiplas funções, não o DNA e os genes. Os genes são importantes somente porque contêm informação suficiente para permitir a síntese dessas proteínas no momento e no lugar apropriados.270 (MORANGE, 2001, p. 2)
Pode-se mesmo postular que ao menos parte da dificuldade da DST em obter
desdobramentos experimentais de sua perspectiva teórica decorra do incômodo – no
mínimo, de uma atitude ambígua – de seus adeptos com respeito a um procedimento
metodológico (a redução física), que alguns equivocadamente assimilam à perspectiva que
combatem (a do determinismo genético e a da sociobiologia), que é metateórica. Mantendo
essa confusão, podem pôr a perder a oportunidade histórica de reconectar-se com aqueles
pesquisadores sensíveis às complexidades que emergem dos experimentos em biologia
molecular e que não subscrevem a priori a agenda determinista.
269 “(...) much of the philosophical confusion about the viability of reduction in molecular genetics has arisen from a conflation of genetic and physical reductionism. The problems with the former have been used to argue against the latter.” 270 “The opponents of molecular biology and of genetics claim that there are two types of biologist: those who want to explain the complexity of life simply by understanding genes, and those who situate this complexity at the level of other components of the organism and, above all, in its organization. This dichotomy is absurd and gives a wrong impression of the molecular biology of life that has developed since the 1950s. If molecular biologists had to designate one category of macromolecules as being essential for life, it would be
174
4.6 Interacionismo, complexidade e biologia de sistemas
Com efeito, como se procurou caracterizar no começo deste capítulo, é perceptível a
confluência dessas duas perspectivas, a da complexidade que se impõe no recesso dos
laboratórios que pesquisam as relações entre genoma e desenvolvimento e a da
complexidade há anos defendida pelos cientistas que orbitam, de perto ou de longe, os
temas lançados pela DST. Não é preciso muito esforço para detectar similaridades ou, no
mínimo, ressonâncias entre as formulações do interacionismo construtivista e os esboços e
modelos que emergem das pesquisas mais recentes, principalmente em torno da idéia de
que o genoma constitui uma entidade complexa e com dinâmica própria, cuja estrutura se
encontra em relacionamento não menos complexo e temporalmente determinado com
outros níveis de organização biológica, como fenótipos e ambiente (ou melhor, nichos
ecológicos definidos por organismos em desenvolvimento).
Assim é que Eörs Szathmáry, um colaborador de John Maynard Smith em obras
teóricas de biologia que pouco têm a ver com a DST, sugere buscar nos instrumentos para
abordar e quantificar a complexidade de ecossistemas a inspiração para desenvolver
modelos capazes de dar conta da conectividade inerente ao genoma e da complexidade
biológica em geral, “que poderia ser mais bem explicada considerando redes de fatores de
transcrição e os genes que regulam, em lugar de simplesmente contar o número de genes ou
de interações entre genes” (SZATHMÁRY, JORDÁN e PÁL, 2001, p. 1315).271 Compare-
se essa visão com a de genomas “turbulentos” em interação com ambientes idem, tal como
proposta por Gabriel Dover num capítulo contra Richard Dawkins de volume organizado
pelos “cientistas radicais” Hilary e Steven Rose: “Muitas adaptações supostamente
complexas não são o resultado final da adição de centenas de genes novos em folha, mas
sim os produtos de novas permutações combinatórias de um conjunto limitado de módulos
proteins and their multiple functions, not DNA and genes. Genes are important only because they contain enough information to enable the synthesis of these proteins at an appropriate time and place.” 271 “[We propose that biological complexity] might be better explained by considering networks of transcription factors and the genes they regulate, rather than by simply counting the number of genes or the number of interactions among genes.”
175
não-mendelianos livremente flutuantes e amplamente distribuídos” (DOVER, 2000, p.
69).272
Outros críticos da perspectiva DST também chamam a atenção para a importância
das propriedades de conectividade e modularidade em redes de interações e da emergência
de explicações de tipo topológico tanto na biologia molecular como em outros campos de
investigação biológica (SARKAR, 1999, p. 173), assim como para a hierarquia de
estruturas e escalas (das moléculas aos organismos e até os grupos) em que se engendram
complexas funções biológicas (MORANGE, 2001, p. 89-90) – precisamente como fazem
MOSS (2001, p. 94), KELLER (2002, p. 142-146) e GOULD (2002, p. 553n), bem mais
próximos daquilo que a DST defende como interacionismo construtivista.
Retomando o que diz STROHMAN (2002, p. 701), as condições estão dadas para
que a pesquisa nesse campo evolua para uma biologia de sistemas (a escolha do nome não é
só uma coincidência com o significado da abreviação DST, assim como não o é o fato de
ele citar Lewontin e Keller em seu artigo); mais que isso, é o conhecimento emergente dos
laboratórios que está a exigir essa transição. Mas o próprio autor alerta que interesses
econômicos e institucionais podem dificultar esse desenvolvimento, em favor da
manutenção do paradigma da biologia computacional (STROHMAN, 2002, p. 703), cujos
bancos de dados não conteriam porém informação suficiente para especificar o
comportamento de sistemas complexos. O desenvolvimento “natural” dessa biologia
dominada pelo complexo acadêmico-industrial de produção em massa de dados, após a
conclusão dos genomas das espécies mais importantes, é partir para o seqüenciamento do
conjunto das proteínas (proteoma) desses organismos, na esperança de entender como se
engendram estrutura e função dessas macromoléculas a partir do que estaria especificado
nas bases de informações já obtidas sobre o DNA.
Hoje, a estrutura de proteínas ainda é individualmente determinada por um processo
laborioso e caro de cristalografia, que pode custar de US$ 50.000 a US$ 200.000
(STEVENS et al., 2001, p. 90) por macromolécula. Como muitos motivos que constituem
proteínas se repetem e elas podem ser organizadas em famílias, acredita-se que a
determinação experimental das estruturas de 16.000 delas seria suficiente para derivar
272 “Many supposedly complex adaptations are not the end result of the addition of hundreds of brand-new genes; rather, they are the products of new combinatorial permutations of a limited set of free-floating and widely distributed non-Mendelian modules.”
176
algoritmos capazes de, a partir daí, deduzir estruturas apenas com base na seqüência
(STEVENS et al., 2001, p. 91; BAKER e SALI, 2001, p. 95) – um empreendimento de US$
800 milhões a US$ 3,2 bilhões, para ocupar legiões de biólogos moleculares por muitos
anos. “As características biofísicas das proteínas variam amplamente em comparação com
as propriedades conservadoras apresentadas pelos ácidos nucléicos, tornando esse projeto
de determinação da estrutura de proteínas ordens de magnitude mais desafiador do que os
vários projetos de seqüenciamento de genomas”, resumem STEVENS et al. (2001, p. 90).
O rumo das investigações e dos negócios com biologia, como se pôde ver, já está
traçado pelos que detêm o comando e as verbas de pesquisa no setor, mas nada indica que
essa rota consiga evitar a crise prognosticada por STROHMAN (2002, p. 703), fruto
provável da resistência da biologia informacional, hegemônica, à biologia de sistemas que
está nascendo na confluência das pesquisas moleculares mais recentes com críticas antigas
à perspectiva determinista que sempre inspirou o Projeto Genoma Humano e ainda inspira,
em grande medida, muitas das linhas de pesquisa que engendrou.
177
CAPÍTULO 5
Metáfora e destino da informação
Embora não sejam mais tão encontradiças em pronunciamentos de pesquisadores
atuantes no campo da biologia, metáforas que associam a genética com o mundo da
informática prosseguem como moeda corrente na apresentação do genoma para o público, a
ponto de penetrarem no senso comum sobre a questão e adquirirem a aparência de um
conceito revelador da essência do gene. A mais corriqueira faz dele um programa, ou seja,
por analogia com o software, um código capaz de realizar tarefas ou de engendrar ações.
Há muitas razões concorrentes para promover tal identificação – que este texto mostrará ser
tão deficitária quanto interessada –, a começar pela percepção correta de que muito do
dinamismo do que se poderia chamar de economia de futuros se deslocou para a esfera de
atuação das empresas de ciências da vida (biomedicina e biotecnologia) e de informática
(sobretudo internet). Companhias que trabalhem a partir de DNA ou de silício, ou
preferivelmente sobre alguma forma de convergência dessas plataformas, tornaram-se
sinônimos do que se convencionou designar como alta tecnologia.
A contigüidade não é porém apenas simbólica, mas se manifesta igualmente, em
graus variados de confluência, no interior dos próprios campos de atividade. Decerto que
ainda não se materializou nem como protótipo um computador com base em DNA, capaz
de cooptar as propriedades e os padrões de hibridização das fitas da dupla hélice para
substituir, na escala molecular, os avantajados dispositivos eletrônicos baseados em
semicondutores (cada vez mais próximos de um limite físico de miniaturização), mas já
foram por assim dizer incorporadas no cotidiano da informática realmente existente as
redes ditas neurais, formas de processamento que buscam imitar a flexibilidade do
pensamento humano.
É no dia-a-dia da pesquisa genômica, no entanto, que a informática está
coadjuvando o que aparece como verdadeira revolução, como se pode notar em visita a
qualquer instalação do setor (onde já soa quase anacrônico falar em “laboratório”). Os
instrumentos básicos de trabalho são seqüenciadores automáticos de DNA, que não passam
de computadores aplicados à rotina de monitorar e interpretar, em paralelo, resultados de
dúzias de processos eletroquímicos (eletroforese) no interior de tubos capilares, e não mais
178
em tubos de ensaio ou placas de gel. Mesmo as etapas “úmidas” da operação, como a
produção de lotes de DNA para leitura, passam por um processo acelerado de automação,
por exemplo com o emprego de robôs e códigos de barras para transportar, armazenar e
rastrear amostras. Convertida – ou “transduzida”, como se diz – para a modalidade digital,
na forma de séries de permutações de letras A, T, C e G para designar a seqüência de bases
nitrogenadas (amina, timina, citosina e guanina) que compõem os degraus da hélice dupla,
desaparece a identidade química enquanto tal. A partir daí, todo o trabalho de pesquisa –
anotação, interpretação e prospecção de genes – passa a ser feito in silico, e não mais in
vivo ou in vitro: a seco. É o domínio da bioinformática, setor que vem observando a maior
expansão no que já caberia chamar de complexo biológico-industrial.
Há uma maneira ainda mais substancial de conceber essa convergência, que
transcende o fato tecnológico para escorar-se numa continuidade de tipo ontológico. Nessa
camada mais profunda da metáfora do gene como programa, o próprio DNA é definido
como informação. Como não se cansam de alertar KELLER (1995), LEWONTIN (2000a,
2000b) e OYAMA (2000a, 2000b), paga-se um preço para usar metáforas, e ele pode ser
proibitivo. Um exemplo tomado da copiosa literatura de divulgação sobre o genoma
ajudará a tornar mais evidentes os custos de não refletir sobre as implicações do conteúdo
da figura de linguagem empregada. Eis como é definida, por um biólogo-empresário do
Vale do Silício, a Nova Biologia:
A biologia está renascendo como ciência da informação, progênie da Era da Informação. Como cientistas da informação, biólogos se ocupam com as mensagens que sustentam a vida, tais como as intricadas séries de sinais que dizem a um óvulo fertilizado para se desenvolver em um organismo completo (...). As moléculas carregam informação, e são suas mensagens que têm a mais elevada importância. Cada molécula interage com um conjunto de outras moléculas, e cada conjunto se comunica com outro conjunto, de modo que todos estão interconectados. Redes [networks] de células dão forma a células; redes de células produzem organismos multicelulares; redes de pessoas ocasionam culturas e sociedades; e redes de espécies abarcam ecossistemas. A vida é uma rede [web] e a rede é vida.273 (ZWEIGER, 2001, pp. xi-xii)
273 “Biology is being reborn as an information science, a progeny of the Information Age. As information scientists, biologists concern themselves with the messages that sustain life, such as the intricate series of signals that tell a fertilized egg to develop into a full-grown organism. (...) Molecules convey information, and it is their messages that are of paramount importance. Each molecule interacts with a set of other molecules and each set communicates with another set, such that all are interconnected. Networks of molecules give rise
179
Quase uma década antes, conceitualizações semelhantes já eram emitidas por
luminares da nascente ciência genômica, como Leroy Hood:
O futuro da biologia vai depender da análise de sistemas complexos e de redes que podem envolver moléculas, células ou mesmo arranjos de células. Para que algum dia possamos entender tais sistemas, precisam ser definidos os elementos individuais da rede, assim como a natureza de sua conectividade. Modelos de computador serão necessários para explorar o comportamento em rede quando elementos individuais são perturbados.274 (HOOD, 1993, p. 149)
5.1 Das gêmulas ao código construtor
Diante da freqüência e da facilidade com que se fala de “informação genética”, a
noção de que as macromoléculas de DNA carregam mensagens não chega a causar
estranheza, mas deveria. A superposição de camadas de sentido acumuladas pela
convergência bioinformática contribui para soterrar o núcleo da metáfora, que tem uma
história muito anterior ao advento da biotecnologia e das redes de computadores e se
organiza em torno da noção de pré-formação, vale dizer, da idéia de que o organismo e seu
curso de desenvolvimento estão já especificados na unidade ínfima de origem e de que esse
desdobramento ou crescimento ocorre de modo automático, graças à potência aí contida.
Essa noção é tão antiga quanto a biologia moderna, assim como a polêmica que a opôs
desde o século XVII à de epigênese, segundo a qual o organismo se forma pela produção de
partes e órgãos que não estão prefiguradas no germe (ex novo, e não ex ovo), e se mostrou
tão influente e recorrente que chegou a ser incluída entre os dez maiores debates científicos
de todos os tempos.275
Na origem, o pré-formacionismo acabou derrotado pelo epigenesismo como
explicação para o fenômeno do desenvolvimento e ridicularizado exatamente em razão das
aporias a que pode se ver conduzido o pensamento imagético em biologia, nesse caso por
to cells; networks of cells produce multicellular organisms; networks of people bring about cultures and societies; and networks of species encompass ecosystems. Life is a web and the web is life.” 274 “The future of biology will depend upon the analysis of complex systems and networks that may involve molecules, cells, or even arrays of cells. If we are ever to understand such systems, the individual elements in the network must be defined, as must the nature of their connectivity. Computer models will be required to explore network behavior when individual elements are perturbed.”
180
força de ficções como o “homúnculo” na cabeça do espermatozóide ou a presença de todos
os seres humanos nascidos e por nascer no interior do “ovário de Eva” – título de um
curioso relato dos debates da época (PINTO-CORREIA, 1999). Entretanto, como faz notar
Stephen Jay Gould na apresentação desse mesmo livro, a idéia só parece ridícula de uma
perspectiva anacrônica, cega para o peso das imagens que conferem uma aura de evidência
e naturalidade ao conceito atual de gene:
Deveremos culpá-los porque o aparato metafórico da vida do século XVIII não incluía o conceito ‘correto’ de instruções programadas, em vez de partes pré-formadas? [Charles] Bonnet conhecia a caixa de música, mas talvez a sociedade precisasse do tear de Jacquard, e da pianola e do cartão perfurado do computador Hollerith, para colocar, dentro da capacidade geral de compreensão, o conceito de instruções codificadas. (PINTO-CORREIA, 1999, p. 10)
Porque não resta dúvida de que, por meio de um aggiornamento da noção, agora
revestida com o manto respeitável das novas tecnologias, o conceito reprimido retornou
com força arrasadora, como conclui PINTO-CORREIA:
No final, os embriologistas foram os grandes derrotados na guerra contra a genética. Com o tempo, a abordagem genética à embriologia (e à evolução, e a tudo o mais que existisse sob o sol biológico) tornou-se a versão triunfante. E a sucessora final da pré-formação, a biologia molecular, hoje ameaça tomar conta de todo o campo da biologia do desenvolvimento. (1999, p. 382)
As partículas da hereditariedade passariam ainda por muitas encarnações teóricas
antes de libertar-se de seu fardo de mistério, das “gêmulas” de Charles Darwin aos
“fatores” de Gregor Mendel e aos “genes” de Wilhelm Johannsen – termo cunhado em
1909, três anos depois de “genética” (KELLER, 2000, p. 1). Tal fardo só começaria a
dissipar-se a partir de 1944, com a identificação do substrato ou correlato físico para tais
partículas. Havia alguns anos já que se desconfiava de sua presença numa substância difusa
no núcleo das células vivas – o ácido desoxirribonucléico, DNA – e que tinha a
peculiaridade de condensar-se em estruturas pareadas e duplicadas durante a divisão celular
batizadas de cromossomos, as quais, por sua vez, sugeriam uma relação direta com os pares
de fatores hereditários “conhecidos” desde o trabalho de Mendel, publicado em 1866.
275 Cf. HELLMAN, Hal. 1999. Grandes debates da ciência. Dez das maiores contendas de todos os tempos. Tradução: José Oscar de Almeida Marques. São Paulo: Editora Unesp.
181
Quase um século depois, ao desvendar a estrutura química tridimensional do DNA,
construindo o modelo da hélice dupla em que bases nitrogenadas emparelham-se segundo
um padrão fixo (adenina sempre com timina, e citosina sempre com guanina, o que torna
cada hélice logicamente complementar da outra), WATSON e CRICK (1953, p. 737)
acrescentaram a seu artigo de apenas uma página as três linhas que empolgariam a biologia
do século XX: “Não escapou à nossa atenção que o emparelhamento específico por nós
postulado sugere imediatamente um possível mecanismo de cópia do material genético”276
(ou seja, da transmissão de partículas hereditárias entre gerações de células e organismos).
O funcionamento do mecanismo propriamente dito – grupos de três bases, ou códons, como
especificadores de cada aminoácido na seqüência de uma proteína – seria elucidado anos
depois sob a liderança de Crick e Sidney Brenner, e com ele começavam a ganhar
substância, ainda que no plano ínfimo das moléculas, aquelas que até então haviam pairado
como forças enigmáticas sobre a paisagem e a sucessão da vida.
A noção de que esse mecanismo constituiria necessariamente um código, por outro
lado, não havia nascido com a estrutura do DNA, nem com sua implicação na síntese de
proteínas. Em certo sentido, a descoberta de Watson e Crick já se deu no quadro de um
programa de investigação delineado dez anos antes por Erwin Schrödinger, um físico que
havia dividido o Prêmio Nobel de 1933 com Paul Dirac por suas contribuições à mecânica
quântica. Numa conferência decisiva de 1943, What is Life? (SCHRÖDINGER, 1997), o
físico deduziu e postulou que, para conter toda a complexidade de um futuro organismo no
espaço diminuto do núcleo de uma única célula (o zigoto), sem prejuízo à ordem, uma
“chave elaborada” só poderia existir como “associação bem ordenada de átomos”
(SCHRÖDINGER, 1997, p. 97), isto é, como molécula. Mas Schrödinger deu um passo
além, adicionando a seu modelo teórico uma determinação que o aproximaria da noção de
programa, termo que só viria a ser empregado nesse contexto por Jacques Monod e
François Jacob em 1961 (KELLER, 2000, p. 80). Para Schrödinger, a substância que depois
seria identificada e decifrada como DNA haveria também de ser, necessariamente, um
construtor:
276 “It has not escaped our notice that the specific pairing we have postulated immediately suggests a possible copying mechanism for the genetic material.”
182
São esses cromossomos, ou provavelmente só uma fibra axial do que vemos sob o microscópio como cromossomo, os que contêm em alguma forma de chave ou texto cifrado o esquema completo de todo o desenvolvimento futuro do indivíduo e de seu funcionamento em estado maduro. (...) Mas o termo ‘chave’, ou texto cifrado, é demasiadamente limitado. As estruturas cromossômicas são ao mesmo tempo os instrumentos que realizam o desenvolvimento que elas mesmas prognosticam. Representam tanto o texto legal como o poder executivo; para usar outra comparação, são ao mesmo tempo os planos do arquiteto e a mão-de-obra do construtor.277 (SCHRÖDINGER, 1997, p. 41-2)
5.2 Informação, pré-formação, cognição
Essa determinação do conceito é fundamental, como demonstra OYAMA ao longo
de seu livro Ontogeny of information (2000a), publicado originalmente em 1985. As
faculdades pré-formadora e construtora de organismos no DNA serão então fundidas na
noção de gene como informação, já sob a influência do meio de cultura informática
contemporânea. Segundo Keller, os responsáveis por sua introdução foram os próprios
descobridores da dupla hélice:
A noção de informação genética que Watson e Crick invocaram não era literal, e sim metafórica. Mas foi extremamente poderosa. Embora não permitisse medida quantitativa alguma, autorizava a expectativa – antecipada na noção de ação gênica – de que a informação biológica não aumenta no curso do desenvolvimento: já está inteiramente contida no genoma. (KELLER, 1995, p. 19)278
A informação se caracteriza como um tipo especial de causa, capaz de conferir
ordem e forma à matéria viva, mas uma causa que preexiste à sua própria utilização ou
expressão (OYAMA, 2000, p. 2-3). Constitui, assim, na opinião da autora, a metáfora mais
277 “Son estos cromosomas, o probablemente sólo una fibra axial de lo que vemos bajo el microscopio como cromosoma, los que contienen en alguma forma de clave o texto cifrado el esquema completo de todo el desarollo futuro del indivíduo y de su funcionamiento en estado maduro. (...) Pero el término ‘clave’, o texto cifrado, es demasiado limitado. Las estructuras cromosómicas son al mismo tiempo los instrumentos que realizam el desarollo que ellos mismos prognosticam. Representan tanto el texto legal como el poder ejecutivo; para usar outra comparación, son a la vez los planos del arquitecto y la mano de obra del constructor.” 278 “The notion of genetical information that Watson and Crick invoked was not literal but metaphoric. But it was extremely powerful. Although it permitted no quantitative measure, it authorized the expectation –anticipated in the notion of gene action– that biological information does not increase in the course of development: it is already fully contained in the genome.”
183
adequada para a época atual, em que tudo – do trabalho à cultura e à biologia – parece
redutível a um formato digital:
Em um mundo crescentemente tecnológico e computadorizado, informação é uma mercadoria de primeira linha, e, quando utilizada na teorização biológica, lhe é conferido um tipo de autonomia atomística, ao mover-se de um lugar a outro, ser coletada, armazenada, marcada e traduzida. Tem uma história só na medida em que é acumulada ou transferida. Informação, a fonte moderna de forma, é vista como residente em moléculas, em células, em tecidos, “no ambiente”, em geral latente, mas causalmente potente. É pensada como algo que capacita essas moléculas, células e outras entidades a reconhecer, selecionar e instruir umas às outras, a construir umas às outras e a si mesmas, a regular, controlar, induzir, dirigir e determinar eventos de todos os tipos.279 (OYAMA, 2000a, p. 1-2).
Na análise de Oyama, o fulcro dessa operação simbólica sobre o gene consiste em
imprimir-lhe o atributo de cognição, ou uma modalidade peculiar de inteligência, com
poderes ontológicos – a capacidade de instituir ou engendrar a priori o seu próprio objeto:
“Quando o plano preexistente é utilizado para explicar o que é, o que é se torna necessário
(ou pelo menos natural, normal ou difícil de mudar)” (OYAMA, 2000a, p. 73).280 Ora, o
que essa visão põe entre parênteses são todas as peculiaridades e contingências do próprio
desenvolvimento do organismo, que se tornam apenas ocasião, cenário ou, no máximo,
estímulo para desencadear esse processo de desdobramento de uma forma, para todos os
efeitos, já dada. Argumentação semelhante sobre o fetichismo cognitivo do gene foi
desenvolvida por Lewontin, da maneira mais direta que lhe é característica, em um ensaio
de 1992:
A descrição mais acurada do papel do DNA é que ele carrega informação que é lida pela maquinaria da célula no processo produtivo. Sutilmente, o DNA como portador de informação é transubstanciado, de modo sucessivo, em DNA como projeto, como plano, como plano-mestre, como molécula-mestra. É a transposição para a biologia da crença na
279 “In an increasingly technological, computerized world, information is a prime commodity, and when it is used in biological theorizing it is granted a kind of atomistic autonomy as it moves from place to place, is gathered, stored, imprinted, and translated. It has a history only insofar as it is accumulated or transferred. Information, the modern source of form, is seen to reside in molecules, cells, tissues, ‘the environment’, often latent but causally potent. It is thought to enable these molecules, cells, and other entities to recognize, select, and instruct each other, to construct each other and themselves, to regulate, control, induce, direct, and determine events o f all kinds.” 280 “When preexisting plan is used to explain what is, what is becomes necessary (or at least natural, normal, or hard to change).”
184
superioridade do trabalho mental sobre o meramente físico, do planejador e do projetista sobre o operador não-qualificado da linha de montagem.281 (LEWONTIN, 2000a, p. 143-4)
Oyama talvez objetasse contra a aceitação implícita da noção de DNA-informação,
mas o fato é que sua metáfora – melhor dizendo, a componente que o autor analisa das
metáforas hegemônicas sobre os genes – tem a vantagem de pôr a nu uma determinação
fundamental. Oyama, por seu turno, propõe-se a metodicamente inventariar, analisar e
criticar a sucessão de imagens apenas alinhavada por Lewontin, e o faz num capítulo
sintomaticamente intitulado “Variações sobre um tema: Metáforas cognitivas e o gene
homunculóide” (OYAMA, 2000a, p. 54-83). Seu guia na empreitada é o inevitável fracasso
da caracterização do processo de desenvolvimento que resulta da adoção dessa perspectiva
pré-formacionista.
O primeiro alvo é a concepção simplista de gene como plano-mestre ou planta
arquitetônica (blueprint), sumariamente descartada por implicar a figura complementar de
um empreiteiro ou construtor (deficiência já intuída e “resolvida” por Schrödinger). Depois
passa a ser atacada a noção de DNA como imagem e conhecimento apresentada na obra do
etólogo Konrad Lorenz, segundo a qual ocorre uma aquisição contínua de informação pelos
genomas na sua interação com o meio, ou seja, no processo de adaptação, que, por
morfogenia, introjeta no organismo uma espécie de decalque do próprio ambiente ou nicho
ecológico (no sentido de que uma barbatana de peixe, por exemplo, “reflete” propriedades
hidrodinâmicas), de modo que “organismos ‘superiores’ são aqueles que armazenam mais
informação” (OYAMA, 2000a, p. 55).282 A objeção é que tal “conhecimento” só pode ser
localizado, segundo o próprio esquema, não nos genótipos, mas nos fenótipos, e que,
mesmo assim, persiste o problema de saber como essa informação – sobretudo a de caráter
comportamental, objeto de estudo de Lorenz – se torna “inata”. Em poucas palavras, que
sentido pode haver em afirmações como a de que carrapatos “sabem” quais animais lhes
cabe sugar.
281 “The more accurate description of the role of DNA is that it bears information that is read by the cell machinery in the productive process. Subtly, DNA as information bearer is transmogrified successively into DNA as blueprint, as plan, as master plan, as master molecule. It is the transfer onto biology of the belief in the superiority of mental labor over the merely physical, of the planner and designer over the unskilled operative on the assembly line.” 282 “(...) the ‘higher’ organisms are those that store the most information”.
185
A seguir, Oyama se debruça sobre a concepção de gene como símbolo ou como
hipótese, variantes mais elaboradas propostas por estudiosos insatisfeitos com metáforas
cognitivistas simples, como H.H. Pattee e B.C. Goodwin. Eles reconhecem a necessidade
de relacionar o conteúdo do DNA com um contexto, um sistema de balizamento que lhe
confira sentido; dito de outro modo, os símbolos (Pattee) ou hipóteses (Goodwin) contidos
nos genes precisam ser interpretados ou traduzidos, por exemplo na “linguagem” das
proteínas, ou seja, já no domínio da constituição de um fenótipo imerso num ambiente.
Assim, a bactéria que porta o gene de uma enzima para metabolizar determinado nutriente
carregaria na verdade uma hipótese, a de que tal meio de fato teria disponível o nutriente,
que atuaria então como o estímulo adequado para que o gene correspondente fosse lido.
Ora, rebate a autora, isso implicaria que um genoma contivesse todas as hipóteses sobre
todos os estímulos possíveis que lhe são exteriores, inclusive contingências do
desenvolvimento que sejam raras ou até letais, o que não parece aceitável.
Dá-se assim explicitamente ao organismo, ou melhor, ao pool de genes ou à espécie como fonte de sucessivas hipóteses, propriedades similares às da mente, mas a hipótese permanece estática pelo tempo de vida do organismo e parece firmemente incrustada no genótipo, não no fenótipo, cuja competência está na transformação, a maior parte do tempo. (...) Como Pattee, [Goodwin] parece insatisfeito com os genes como explicação completa do desenvolvimento e é conhecedor da complexidade necessária para que a transcrição do gene tenha eficácia ontogênica. No entanto, permanece apegado ao gene cognitivo.283 (OYAMA, 2000a, p. 58)
Ainda mais elaborada, e talvez por isso mais difundida entre teóricos da biologia, é
a noção de gene como regra, instrução ou programa. Oyama principia com a observação
de que não lhe parece menos difícil de compreender que moléculas possam conter
sentenças e comandos do que encerrar órgãos e comportamentos em miniatura, mas não
contorna a tarefa que se impôs de examinar com método as principais ocorrências também
dessas metáforas, que envolvem alguns pesos pesados da biologia do século XX. O
primeiro a ser apanhado na sua alça de mira é Edward O. Wilson, que, com Charles
Lumsden, aderiu em 1981 à noção por meio da idéia de “regra epigenética” – e não deixa
283 “An organism, or better, gene pool or species as source of successive hypotheses, is thus given explicitly mindlike properties, but the hypothesis is static for the organism’s lifetime and seems firmly embedded in the genotype, not the phenotype, whose competence is in transformation much of the time. (...) Like Pattee, he appears dissatisfied with the genes as full explanation of development and is cognizant of the complexity necessary for gene transcription to have ontogenetic efficacy. Yet he remains wedded to the cognitive gene.”
186
de ser sintomático que tenham escolhido o qualificativo “epigenético” apenas alguns anos
depois do vendaval de acusações de determinismo genético (entenda-se: pré-
formacionismo) conjurado pelas teorias sociobiológicas de Wilson. Ele e Lumsden estavam
preocupados em identificar condicionantes biológicos de vieses culturais (como a proibição
do incesto ou certa universalidade de expressões faciais) e os localizam em regras
epigenéticas inatas, espécie de resultante da composição dos vetores definidos por genes e
ambiente partilhados que deixaria sua marca no cérebro, como circuitos ou estruturas de
conhecimento herdadas. À parte uma indistinção incômoda entre o que seria inato e
adquirido nesse processo, Oyama aponta o aspecto tautológico da explicação: “O círculo
clássico se fecha quando regras epigenéticas são inicialmente inferidas da freqüência do
fenótipo e, depois, invocadas para explicar o desenvolvimento do fenótipo” (OYAMA,
2000a, p. 60).284
Complicações adicionais são postuladas por outros autores, como a noção de
programas fechados e abertos proposta por Ernst Mayr e assimilada por Konrad Lorenz,
mas todas essas formações acabam recaindo no mesmo tipo de dificuldade, a saber, que a
tentativa de admitir ou transferir alguma capacidade construtora para o sistema fenótipo-
ambiente sempre redundará nalguma medida de ambigüidade, posto que a própria noção de
programa pressupõe uma assimetria, um locus de onde parte o comando e outro onde ele se
cumpre, residindo a informação apenas e tão-somente no primeiro. É por isso que os vários
autores acabam sempre por pender para o lado do gene, reconhecendo-o em última
instância como sede, se não de toda a ação, ao menos de sua parte principal ou primordial,
o que repõe mais uma vez a questão da complexidade histórica da ontogênese a transbordar
desse esquema determinista, e assim por diante. “A regularidade que descrevemos, por ser
sempre determinada de modo múltiplo e por ser uma função da história do sistema, não
pode residir em um componente do sistema. É o resultado da operação do sistema, não a
sua causa” (OYAMA, 2000a, p. 72).285
284 “The classic circle is closed when epigenetic rules are first inferred from frequency of phenotype, then invoked to explain development of the phenotype.” 285 “The regularity we describe, because it is always multiply determined and is a function of the history of the system, cannot reside in a component of the system. It is the result of the operation of the system, not its cause.”
187
5.3 Forma preexistente e controle teleológico
Tendo em vista tantas dificuldades teóricas suscitadas por essa constelação
semântica, talvez se comece a entender a persistência e a penetração das metáforas
informacionais do gene se se caracterizar melhor onde estaria o núcleo duro dessa recusa
em abandoná-las. Uma hipótese é que o motivo central se encontre na informação como
precondição do controle, a faculdade de conduzir um processo a um objetivo anteposto. É o
que sugerem OYAMA (2000a, p. 159), quando diz que “as idéias parelhas de forma
preexistente e controle teleológico viajam juntas”,286 e Keller, quando lembra que a
contaminação pós-Schrödinger da biologia pela física não impediu que alguns de seus
principais programas de pesquisa seguissem caminhos divergente no que respeita à noção
de teleologia: enquanto os biólogos pelejavam para libertar sua ciência de antigos ecos
vitalistas, substituindo em suas descrições idéias como propósito, organização e harmonia
pela mais asséptica de função, físicos e engenheiros – sobretudo no Massachusetts Institute
of Technology – quebravam a cabeça precisamente para assimilá-las em suas teorias sobre
o comportamento de máquinas: “Os geneticistas estavam numa trilha diferente. Baseavam
suas esperanças não em subjugar sistemas complexos, mas no que tem sido para cientistas
naturais o paradigma mais natural de controle – os benefícios epistemológicos e
tecnológicos da reductio ad simplicitatum” (KELLER, 1995, p. 92).287 A autora expõe
então como reduto genético dessa forma mais tradicional de controle o próprio Dogma
Central proposto por Francis Crick (uma designação inspirada, para o bem e para o mal, na
rígida noção de que há uma direcionalidade irreversível na expressão do DNA, a partir do
qual se faz o RNA mensageiro e deste, as proteínas): “Em vez de feedback circular, [o
Dogma Central] prometia uma estrutura linear de influência causal, do escritório central do
DNA para as subsidiárias exteriores da fábrica de proteínas” (KELLER, 1995, p. 93).288
286 “(...) the yoked ideas of preexisting form and teleological control travel together”. 287 “Geneticists were on a different track. They had based their hopes not on the harnessing of complex systems but on what has been for natural scientists the more traditional paradigm of control –on the epistemological and technological benefits of reductio ad simplicitatum.” 288 “Instead of circular feedback, it promised a linear structure of causal influence, from the central office of DNA to the outlying subsidiaries of the protein factory.”
188
O controle visado pela genética, portanto, pouco tinha a ver com computadores,
redes e cibernética, pois, enquanto esta “estava ocupada em usar o organismo para ilustrar
um novo tipo de máquina, a outra procurava modelar organismos a partir das máquinas do
passado” (KELLER, 1995, p. 97).289 Isso nos anos 1960, porque na década de 1980, nas
palavras de Keller, os ventos da informação cresceriam como um tornado, graças à
tecnologia do DNA recombinante, e revolveriam a biologia molecular numa “ciência
informacional, uma ciência de comando, controle e comunicação” (KELLER, 1995, p.
113). Não há contradição entre as duas descrições, em primeiro lugar porque a autora está
apresentando uma evolução do próprio campo de pesquisa e, por assim dizer, uma mudança
de patamar que é evidente (basta dizer que o Projeto Genoma Humano só foi concebido em
meados dos anos 1980); além disso, pode-se também argüir que a fórmula cibernética
“informação/comando, controle, comunicação” é convocada para qualificar a prática
científica (genômica) e não mais seu objeto (organismos). De todo modo, como defende
Oyama, a metáfora do gene-programa e do organismo-computador ou organismo-rede não
é mesmo sustentável, seja porque o programa, ao tender para uma identificação com o
próprio processo (de desenvolvimento, ou ontogênese), não pode mais ser circunscrito a
uma das instâncias do processo (o gene), seja porque, do ponto de vista do
desenvolvimento, nada exige que ele se organize, em qualquer instância, de modo cognitivo
ou lingüístico: “No sistema biológico, a ‘decisão’ ou a ‘regra’ não precisam ser
programadas simbolicamente; ‘regras e decisões’ são simplesmente nossas descrições
antropomórficas dos eventos que observamos” (OYAMA, 2000, p. 72).290
5.4 Controle da natureza
De volta à questão do controle: sobre o que, exatamente, as metáforas
informacionais para o gene almejam propiciar controle? Sobre a natureza em seu sentido
mais amplo, sobre o até então incondicionado com base no qual se erguia a cultura, em
289 “(...) was busy using the organism to illustrate a new kind of machine, the other was seeking to model the organism after the machines of yesteryear”. 290 “In the biological system, the ‘decision’ or ‘rule’ needn’t be programmed symbolically; ‘rules and decisions’ are simply our anthropomorphic descriptions of the events we observe.”
189
especial o substrato do humano que não parecia estar ao alcance do homem e de sua
técnica: o desenvolvimento, a constituição fundamental do corpo, os padrões de
comportamento individual e social, as capacidades cognitivas, os padrões básicos do
metabolismo e seus desvios recorrentes (doença). O que o gene-informação promete é uma
tecnologização das ciências da vida, uma biomedicina e uma biotecnologia – uma
tecnobiologia, enfim.
Da biologia molecular emergiu um saber tecnológico que alterou decisivamente nosso senso histórico de imutabilidade da “natureza”. Enquanto a visão tradicional era a de que a “natureza” [nature] pressagiava destino e “ambiente” [nurture], liberdade, agora os papéis pareciam trocados. As inovações tecnológicas da biologia molecular convidam a uma ousadia discursiva vastamente ampliada, encorajando a noção de que poderíamos controlar mais prontamente aquela do que esta.291 (KELLER, 1993, p. 288)
A seta da metáfora aponta para os dois lados. Na visão padronizada, moléculas de DNA “processam” toda e qualquer “informação” de que necessitem para nos fazer, e nos fazer funcionar. Numa reviravolta elegante, diz-se agora de nós, algumas vezes, que “programamos” nossos filhos (...). Vale um momento de reflexão que todos esses programas conotem algum grau de obediência irrefletida. Isso pode dar conta de parte da nossa dificuldade para elaborá-los numa versão satisfatória de experiência e agenciamento.292 (OYAMA, 2000, p. 213)
O mesmo gênero de argumentação pode ser encontrado em Hegel, Texas, de
Hermínio Martins, que enxerga nas biotecnologias a “vocação mais decisivamente
ontológica”, entre todas as tecnologias contemporâneas, porque suas “criações ônticas”
(seres artificiais, cyborgs, quimeras) lançam um desafio à “imagem do equipamento básico
do Mundo”. Um desafio corrosivo, que torna movediça a fronteira outrora fixa entre
Natureza e Cultura: “A vincada fronteira ontológica entre esses mundos, bem como entre o
natural e o artificial, entrou agora na arena do essencialmente contestável, à luz das
capacidades tecnológicas contemporâneas” (MARTINS, 1996a, p. 189). O centro de
291 “Out of molecular biology emerged a technological know-how that decisively altered our historical sense of immutability of ‘nature’. Where the traditional view had been that ‘nature’ spelled destiny and ‘nurture’ freedom, now the roles appeared to be reversed. The technological innovations of molecular biology invited a vastly extended discursive prowess, encouraging the notion that we could more readily control the former than the latter.” 292 “(...) metaphor’s arrow points both ways. In the standard view, DNA molecules ‘process’ whatever ‘information’ they need to in order to make us and to make us run. By a neatly doubling back, we are now sometimes said to ‘program’ our children (...). It’s worth a moment’s thought that all of these programs connote some degree of mindless compliance. This may account for some of our difficulty in working them into satisfying accounts of experience and agency.”
190
gravidade desse conceito em deslocamento se encontra num processo de desmaterialização,
em que tudo o que antes escapava da malha tecnológica – como a produção da vida —,
agora reduzido à condição de informação, passa a ficar sob seu alcance:
Os tecnólogos de hoje têm a tendência de conceber tecnofanias nas quais a dominação total da Natureza é ela mesma quase desmaterializada em saber absoluto e numa espécie de totum simul. Versões correntes de tecnofanias ligadas ao discurso sobre as tecnologias da informação, nas quais a “informação” se torna o conceito dominante do quadro categorial, sugerem que a conversão total do não-informacional em informação é o momento da consumação do progresso tecnológico. (MARTINS, 1996a, p. 181)
Esse momento imaginário de realização, de penetração do orgânico pelo foco
potente do entendimento analítico-redutivo, é apresentado por Martins como portador de
um sentido “gnosticizante”. A diferença em relação ao sentido tradicional da idéia é que,
em lugar de uma aversão pelo orgânico e pela viscosidade natural das coisas, se trata agora
de sua submissão e conquista:
Pela expressão superficialmente paradoxal “gnosticismo tecnológico” quer-se significar o casamento das realizações, projectos e aspirações tecnológicos com os sonhos caracteristicamente gnósticos de se transcender radicalmente a condição humana (...). Ultrapassar os parâmetros básicos da condição humana – a sua finitude, contingência, mortalidade, corporalidade, animalidade, limitação existencial — aparece como um móbil e até como uma das legitimações da tecno-ciência contemporânea. (MARTINS, 1996a, p. 172)
O próprio Martins já indica o quanto há de interesse nessa visão prometéica (para
repetir outra noção sua) da tecnologia. Parece já evidente, nesta altura da análise, que a
metáfora do gene como informação e seu fulcro na noção de controle estão longe de dar
conta da complexidade do fenômeno do desenvolvimento, para não falar do comportamento
do organismo constituído, e de sua adaptação dinâmica ao meio, assim como do papel do
genoma nesse sistema. A posição simétrica – fáustica, nos termos de Martins —, de
denúncia do caráter manipulador e destrutivo da tecnologia, pode resultar igualmente
esquemática, se não for capaz de escapar da generalização vazia (que aponta na essência de
toda técnica e mesmo em qualquer atitude científica um movimento básico de criação de
condições para sua alteração ou apropriação) e de indicar em que configurações reais de
interesses essa manipulação – aqui já não importa mais se essencial ou não — se manifesta,
191
para além da satisfação de vagas necessidades, digamos, existenciais. Afinal, embora seja
igualmente difícil de discordar dela, é preciso ir além de formulações um tanto vagas, ainda
que convincentes, como a de OYAMA:
Talvez haja também uma relação não-arbitrária entre o fato de acharmos difícil acreditar que a ontogenia seja possível sem a liderança da mente, ou de um sucedâneo da mente, emprestando ímpeto, direção e forma ao processo, e o fato de acharmos difícil conduzir nossas vidas sem recorrer a verdades a priori, particularmente diante da variedade social e cultural e da grande incerteza sobre o futuro.293 (2000, p. 161)
Tampouco são plenamente elucidativas algumas das explicações avançadas por
Lewontin. Para além da crítica ao determinismo genético, ele diagnostica na fabulação
reducionista da ciência, de maneira generalizadora, uma função de legitimação da
sociedade que anteriormente era exercida pela religião, com a qual partilharia quatro
características fundamentais: é uma instituição exterior ao domínio normal da vida humana,
alcança validade e verdade transcendentais, provém de fontes absolutas e se apresenta com
qualidades místicas inacessíveis numa linguagem esotérica. Assim é que, na sua visão algo
esquemática, a noção de gene que ele chama de “reducionista” teria surgido como
decorrência do individualismo inerente ao capitalismo e como ocultamento da noção de que
a vida social é produzida coletivamente:
Essa sociedade atomizada é correlata de uma nova visão da natureza, a visão reducionista. Agora se acredita que o todo deve ser entendido somente quando tomado em suas partes, que os pedaços e partes individuais, átomos, moléculas, células e genes, são as causas das propriedades dos objetos inteiros (...). Esta é uma visão empobrecida e incorreta do relacionamento real entre organismos e o mundo que ocupam, um mundo que os organismos vivos em grande medida criam por suas atividades vivas.294 (LEWONTIN, 1993, p. 12)
293 “There may also be a nonarbitrary relation between the fact that we find it difficult to believe ontogeny is possible without a guiding mind or mind-surrogate to lend impetus, direction, and form to the process and the fact that we find it difficult to conduct our lives without recourse to a priori truths, particularly in the face of social and cultural variety and great uncertainty about the future.” 294 “This atomized society is matched by a new view of nature, the reductionist view. Now it is believed that the whole is to be understood only by taking it into pieces, that the individual bits and pieces, the atoms, molecules, cells, and genes, are the causes of the properties of the whole objects (...) this is an impoverished and incorrect view of the actual relationship between organisms and the world they occupy, a world that living organisms by and large create by their own living activities.”
192
Ainda que capture determinações relevantes de um sistema de significações erigido
em torno da genética e da genômica, a interpretação de Lewontin mal consegue disfarçar o
mecanicismo da noção de ideologia como reflexo da prática real dos homens. Não se trata
de negar que tais representações sobre o gene possam servir aos interesses de tais ou quais
grupos sociais, sobretudo ao estamento de cientistas em busca de fundos de pesquisa, mas
sim de ser capaz de mostrar como elas e as práticas a elas associadas se imbricam no
processo de reprodução material da sociedade, se possível no âmago da própria produção
de valor. A biologia já não pode mais ser reduzida à idéia de ideologia, em face do poderio
ontológico que vem adquirindo – a não ser que se admita que ideologias tenham o condão
de povoar o mundo também com quimeras de carne e osso, ou de carne e silício, e não
apenas com fantasmas.
5.5 Potencial versus processo
O aspecto mais importante da construção do gene como informação é que ela isola o
DNA como um potencial. Ao desqualificar todo o desenvolvimento do organismo como
sede de qualquer informação, reduzindo-o a uma simples manifestação ou desdobramento
de algo cuja forma substancial reside alhures (no gene), a metáfora informacional exclui
precisamente o processo que está em relação estreita com a história do organismo e da
espécie, vale dizer, com seu passado e com sua atualização (seu presente). O gene, que
poderia ser também pensado como o resultado evolutivamente contingente de um processo
ontológico continuado, ou seja, de um sistema cuja fluidez se desdobra tanto no espaço
(população, pool genético) quanto no tempo (adaptação, especiação), nessa operação
significante é por assim dizer desencarnado na condição de informação. Em sua abstração,
deixa de visar não só o dado como também o atual, razão pela qual Laymert Garcia dos
Santos destaca essa constituição do gene como informação do processo de modernização
enquanto tal, pois este desvalorizava o passado em prol do presente, e não do futuro. “A
lógica que preside a conduta da tecnociência e do capital com relação aos seres vivos, agora
transformados em recursos genéticos, é a mesma que se explicita em toda parte: trata-se de
privilegiar o virtual, e de preparar o futuro para que ele já chegue apropriado.” Ou ainda:
193
“O potencial é potência para reprogramação do mundo e a recombinação da vida. Levando
a instrumentalização ao extremo, tal estratégia considera tudo que existe ou existiu como
matéria-prima passível de valorização tecnológica.” (SANTOS, 2001b, p. 35)
A determinação que se acrescenta por essa via de interpretação, crucial, é a
vinculação do gene-informação com a produção de valor no capitalismo contemporâneo,
vale dizer, como recurso genético. Eis o tipo de controle significado na metáfora
informacional: não só o de mais um instrumento a permitir a atualização de potenciais (por
exemplo, a fabricação de objetos), mas o do próprio princípio supostamente gerador de
todos os potenciais; em outras palavras, um controle que se exerce pela via da apropriação,
em germe, das possibilidades futuras. Já se percebe que essa é a racionalidade a sustentar a
noção de propriedade intelectual (patentabilidade) de genes, em relação à qual cabe aqui
menos uma peroração ético-moral sobre a destruição dos valores intrínsecos da vida, por
legítima que seja, do que apontar a imbricação desse constructo jurídico-epistemológico
numa determinada configuração histórica. Se a investigação social da produção de
conhecimento pode tirar alguma lição do tipo de pensamento sistêmico advogado para a
biologia a partir da crítica do reducionismo, entre outros por Oyama e Lewontin, é a de que
se devem evitar as explicações de cunho teleológico, com base em intencionalidades
veladas. Da mesma forma que não se pode afirmar que o gene prefigure todas as
contingências do processo de desenvolvimento de um determinado organismo, não se deve
concluir que a metáfora do gene-informação tenha por finalidade oculta preparar o terreno
para o patenteamento de genes – muito embora, retrospectivamente, se possa estabelecer
um vínculo entre a metáfora biológica e a noção jurídica. Seria uma forma pré-
formacionista de conceber o funcionamento da ideologia, provavelmente tão aporética
quanto procurar homúnculos na cabeça de espermatozóides.
Investir seqüências de DNA de uma capacidade agenciadora que essas moléculas
efetivamente não possuem,295 de um ponto de vista estritamente bioquímico (pois se trata
de substância inerte, que precisa ser ativada para participar da síntese de proteínas),
propicia não só a inclusão de processos orgânicos na apropriação presente de objetos
futuros, como também um vasto campo de prospecção. Como diz SANTOS:
295 Ver capítulo 4.
194
A informação torna-se crucial a partir do momento em que a dimensão virtual da realidade começa a ser mais importante do ponto de vista econômico e tecnocientífico do que a sua dimensão atual. A lógica que preside a conduta da tecnociência e do capital com relação a seres vivos, agora transformados em recursos genéticos, é a mesma que se explicita em toda parte: trata-se de privilegiar o virtual, e de preparar o futuro para que ele já chegue apropriado, trata-se de um saque no futuro e do futuro. (2001b, p. 37)
Tal orientação é claramente perceptível na racionalidade que anima a principal
empreitada da biologia molecular contemporânea, a genômica, materializada no Projeto
Genoma Humano e sua nemesis empresarial, o seqüenciamento levado a cabo pela
companhia Celera (cujo lema, cabe repetir neste contexto, é speed matters, que, numa
tradução capciosa, equivaleria a “a velocidade é substancial”). Embora em termos retóricos
seja mais comum a justificativa de que permitirá resolver o quebra-cabeças do câncer –
uma doença que consome US$ 6 bilhões ao ano em pesquisa, nos Estados Unidos, e outros
US$ 40 bilhões em tratamentos (ZWEIGER, 2001, p. 1) –, a principal utilidade da
informação genômica, centralizada em gigantescos bancos de dados como o GenBank,
parece estar na racionalização da busca por novos fármacos, por meio de uma atividade
mais de corte industrial do que científica e já qualificada como “garimpagem” (mining).296
Ainda que ao preço de ter de aturar uma apresentação algo cínica da situação, se não
ingênua em seu pragmatismo, é proveitoso retornar brevemente ao discurso de quem está
imerso na prática genômica:
Um grande número de pessoas, embora não certamente todas, busca remédios melhores para tratar de suas enfermidades, em particular remédios que satisfaçam certos padrões científicos de segurança e eficácia. Empresas farmacêuticas buscam satisfazer essas necessidades por meio de drogas novas e aperfeiçoadas. Elas também enfrentam contínuas quebras de receita a cada vez que expira a vida patentária de 20 anos de um de seus medicamentos fazedores de dinheiro. Poderiam essas forças econômicas impelir o desenvolvimento de novas tecnologias?297 (ZWEIGER, 2001, p. 75)
A resposta do biólogo-empresário é um óbvio “sim”, na forma de saltos sucessivos
nas técnicas de leitura e automação de seqüências de DNA, que permitiram antecipar em
296 Ver capítulo 3. 297 “A large number of people, though certainly not all, seek better medicines to treat their ailments, particularly medicines that meet certain scientific standards of safety and effectiveness. Pharmaceutical companies seek to fulfill these needs through new and improved drugs. They also continually face revenue voids each time the 20-year patent life of one of their money-making drugs expires. Could such economic forces drive the development of new technologies?”
195
nada menos do que quatro anos a finalização do genoma. Com essas informações
disponíveis para download via internet, qualquer pesquisador poderia – no melhor dos
mundos virtuais — modelá-las em computador e investigá-las de forma abstrata, in silico,
simulando propriedades das proteínas correspondentes, comparando-as com outras
proteínas conhecidas e – mais importante – tentando encontrar ou construir outras
moléculas que atuem sobre proteínas humanas de interesse, bloqueando-as ou ativando-as
para eventualmente obter certos efeitos no metabolismo e no corpo (no limite, o cientista
pode também sintetizar a seqüência de DNA que atraiu seu interesse no banco de dados e
empregar a construção gênica rematerializada em ensaios in vitro e in vivo). Acumular
informação molecular em formato digital visa levar o estudo da vida até um patamar
totalmente novo, porque facilita em princípio técnicas analíticas que se apóiam na
matemática da probabilidade e a exploram, afirma Zweiger. A bioinformática, enfim, induz
tamanha transformação no campo da pesquisa em biologia que já foi qualificada
inevitavelmente, como “mudança de paradigma” – isso já em 1991 e por ninguém menos
que Walter Gilbert, que, além de ter ganho um Nobel por sua contribuição na criação de
métodos para seqüenciar DNA, estabeleceu a transcrição do genoma humano como o Santo
Graal da biologia: “Para usar esse dilúvio de conhecimento que vai inundar as redes de
computadores do mundo, os biólogos não só precisam tornar-se versados em computadores
como também mudar sua abordagem do problema do entendimento da vida” (citado por
ZWEIGER, 2001, p. 60).298
Outra maneira de contextualizar esse nascimento de uma tecnobiologia é entendê-la
como parte de uma transformação mais ampla da socioeconomia mundial, no que Laymert
Garcia dos Santos chamou, tomando de empréstimo um termo de Catherine Waldby, de
“virada cibernética” (SANTOS, 2005, p. 129). Mais do que uma virada cultural, em que a
própria cultura se torna mercadoria, o que se observa é a mobilização de todas as esferas,
inclusive a da vida, como matéria-prima para o movimento de acumulação do capital, cuja
força motriz se desloca mais e mais da produção industrial para a esfera da ciência e da
tecnologia. Scott Lash também enxerga esses dois momentos – a transformação cultural (ou
transmutação da arte em “tecnoarte”) e a submissão da vida ao conhecimento (tecnociência)
– como integrantes de um movimento mais geral de “informacionalização” (LASH, 2002,
298 “To use this flood of knowledge, which will pour across the computer networks of the world, biologists not
196
pp. viii e 22) das formas de vida, sejam elas orgânicas ou socioculturais. A tecnobiologia
genômica, assim, não teria toda a proeminência estrutural e histórica que lhe querem
imprimir os autores ávidos por definir e batizar novas eras, como RIFKIN (1998, 2001) ou
WATSON e BERRY (2003).
Mesmo que não estejamos presenciando o alvorecer de uma Era da Biotecnologia
ou da Revolução Genômica, não se deve subestimar a profundidade da transformação por
que passou a biologia nos últimos 50 anos, em especial na última década. Sua concepção
como ciência informacional, fundada sobre a metáfora pré-formacionista do gene como
informação, se encontra hoje tão difundida que ninguém mais pensa nela como uma
analogia, nem mesmo os biólogos moleculares cujos resultados de pesquisa promovem sua
contínua erosão (como se viu nos capítulos 3 e 4). Quando falam em gene, têm em vista
duas entidades muito diversas, o que talvez explique o excedente de sentido de que se
revestiu no imaginário social: de um lado, o gene particulado, ou seja, a unidade hereditária
direcionalmente associada com a manifestação de uma característica fenotípica, na
condição de sua causa; de outro, uma seqüência de DNA transcrita e processada na forma
de RNA, que servirá de molde para a síntese de determinada proteína. A primeira não passa
de uma construção teórica, anterior à própria definição do DNA como molécula da
hereditariedade e à própria biologia molecular, portanto. A ausência de um substrato físico,
porém, não impediu que norteasse a constituição de uma ciência prolífica, a genética, na
primeira metade do século XX. Ainda mais problemática se tornou sua sobrevivência após
a descoberta da estrutura molecular do DNA e a chamada decifração do código genético,
ambas na segunda metade do século passado, quando se tornou a pedra angular do
genocentrismo, vale dizer, do emprego retórico de noções pré-formacionistas
(determinismo genético, atenuado ou não) em favor de um programa de pesquisa molecular
com vocação hegemonista, a genômica.
A análise mais penetrante desse conceito biarticulado do gene como informação, já
mencionada no capítulo anterior, foi realizada por Leny Moss, seguindo a trilha aberta
pelas três damas pioneiras da crítica ao genocentrismo (Evelyn Fox Keller, Susan Oyama e
Lily Kay) e pela perspectiva teórica oferecida pela teoria de sistemas de desenvolvimento
(ou DST). Em What genes can’t do (MOSS, 2003), ele aprofunda a análise e descreve a
only must become computer-literate, but also change their approach to the problem of understanding life.”
197
noção dúplice corrente como um acoplamento arbitrário dos conceitos que chama de Gene-
P e Gene-D:
O gene pré-formacionista (Gene-P) prediz fenótipos, mas unicamente em uma base experimental, na qual se podem obter benefícios médicos e/ou econômicos imediatos. O gene da epigênese (Gene-D), em contraste, é um recurso desenvolvimental que fornece moldes possíveis para a síntese de RNA e proteínas, mas que não tem em si mesmo qualquer relação determinada com fenótipos organísmicos. A idéia aparentemente dominante de que genes constituem informação para características (e plantas arquitetônicas para organismos) está baseada, defendo, em uma conjunção indevida desses dois sentidos, mantidos efetivamente reunidos por um adesivo retórico. (MOSS, 2003, p.xiv)299
No caso do Gene-P, Moss se refere àqueles poucos casos em que se pode
estabelecer uma relação direta entre genótipo e fenótipo, ainda que em geral de maneira
negativa – a seqüência de DNA que, alterada por mutação ou por intrusão de outros
elementos genômicos, leva à manifestação de uma característica fenotípica na forma de
doença genética, ou erros inatos de metabolismo, como a fibrose cística. Apesar de raras e
cunhadas na deficiência, essas instâncias ainda servem de modelo para generalizar a relação
positiva entre genótipo e fenótipo como direcional e determinada, ou seja, tendo o gene
como portador da característica pré-formada. Mesmo diante da inconstância manifesta
dessa relação, que já em 1911 levara o dinamarquês Wilhelm Johannsen a cunhar os
próprios termos genótipo e fenótipo para enfatizar sua relativa independência e a influência
do ambiente encapsulada no conceito de norma de reação (MOSS, 2003, p. 30), a
tendência de substancialização pré-formacionista buscou incorporar essa elasticidade do
fenótipo como propriedades do próprio gene, com as noções de penetrância (freqüência
estatística com que um traço genotípico é expressado no fenótipo) e expressividade (grau
de expressão da característica no fenótipo), noções introduzidas por Vogt em 1926 (MOSS,
2003, p. 28).
A conceituação do Gene-D como recurso desenvolvimental tem sua raiz na DST
propugnada por Susan Oyama, a perspectiva teórica que se convencionou chamar de
299 “The preformationist gene (Gene-P) predicts phenotypes but only on an instrumental basis where immediate medical and/or economic benefits can be had. The gene of epigenesis (Gene-D), by contrast, is a developmental resource that provides possible templates for RNA and protein synthesis but has in itself no determinate relationship to organismal phenotypes. The seemingly prevalent idea that genes constitute information for traits (and blueprints for organisms) is based, I argue, on an unwarranted conflation of these two meanings which is, in effect, held together bt rethorical glue.”
198
interacionismo, e visa justamente acentuar que a manifestação de uma característica no
fenótipo resulta sempre da interação de múltiplos recursos no processo de desenvolvimento
do organismo (da compartimentação do óvulo por meio de membranas às características
físico-químicas do ninho e do nicho ecológico), em que o DNA é apenas um recurso entre
outros. Mesmo que não adote uma perspectiva interacionista, na prática de laboratório o
biólogo molecular trabalha com uma noção operacional de gene (unidade de transcrição)
que está mais próxima do Gene-D do que do Gene-P; tanto é assim que, na maior parte do
tempo, o grosso do trabalho genômico se resume a seqüenciar (soletrar) “genes” dos quais
não se conhece a função. Eles só adquirem a posição central e de comando do processo
quando acrescidos da dimensão metafórica implícita no Gene-P, a articulação “indevida” de
que fala MOSS, que segundo ele é efetuada de maneira retórica, justamente, pela noção de
gene como informação (2003, p. 50). Com suas entonações lingüísticas, a classe de
metáforas (código, texto, cifra, programa etc.) embutida no gene como informação lhe
devolve artificialmente a dimensão semântica de que havia sido desprovido na sua acepção
particulada, pré-formacionista, vale dizer, ao ser separado do contexto desenvolvimental,
sem o qual não se pode pensar em sentido biológico (função).
Para Lily Kay, no entanto, nem mesmo de uma metáfora se trata, no caso do gene
como informação, mas sim de uma catacrese – um deslocamento de sentido, a partir de uma
metáfora anterior, ela própria problemática, cunhada no campo da teoria da informação e da
cibernética de Claude Shannon, Warren Weaver300 e Norbert Wiener, a partir de 1949. Ao
se apropriar da noção comum de informação como comunicação que faz sentido, a
disciplina nascente do comando, comunicação e controle em máquinas a despiu
precisamente da dimensão semântica, inteiramente divorciada de conteúdo (KAY, 2000, p.
20), portanto concebendo metaforicamente o funcionamento de máquinas como um
processo de comunicação, ainda que sem sujeitos nos papéis de emissor ou de receptor.
Com a catacrese, isto é, o deslocamento desse conceito para forjar o de informação
biológica (genética), essa restrição de origem como que se oculta na ressignificação pré-
formacionista, mas apenas retoricamente, sem base empírica:
300 Weaver, sintomaticamente, havia dirigido a área de ciências naturais na Fundação Rockefeller antes da Segunda Guerra Mundial, posição em que fomentou pesquisas no campo que em 1938 ele mesmo havia batizado, de maneira premonitória, como “biologia molecular” (JUDSON, 1996, p. 53).
199
A medida de informação de Wiener-Shannon é um fenômeno puramente estocástico que diz respeito à raridade estatística de sinais. O que esses sinais significam ou querem dizer, ou quais são seu valor ou sua verdade, não pode ser inferido por meio da teoria da comunicação. (...) A teoria da informação, portanto, não pode servir para legitimar o texto de DNA ou o Livro da Vida como fonte de sentido biológico. Mesmo que fosse possível determinar matematicamente (em bits) o conteúdo de informação de uma mensagem genômica ou de uma “sentença” no Livro da Vida, isso não forneceria semântica alguma, a não ser que seu contexto (genômico, celular, organísmico, ambiental) pudesse ser propriamente especificado. (KAY, 2000, p. 21)301
A mesma objeção já havia sido levantada por Bernd-Olaf Küppers, que,
acompanhando Carl Friedrich von Weizsäcker, principia por questionar até mesmo a noção
de informação absoluta de Shannon, entendendo que a própria probabilidade prévia
(historicamente determinada) de ocorrência do sinal abre a porta dos fundos para o retorno
do contexto e do aspecto semântico à teoria da informação (KÜPPERS, 1990, p. 33).
Aplicado à biologia, ademais, tal conceito se revela inútil, porque implicaria atribuir a
mesma quantidade de informação a seqüências de DNA especificadoras de proteínas muito
diversas, com graus divergentes de complexidade (KÜPPERS, 1990, p. 48). Para além
dessa relação conflituada com a semântica do mundo vivo, o deslocamento da noção de
informação de Shannon para recobrir a de gene tem a desvantagem de omitir o que seria a
sua decisiva pragmática, nos termos do autor alemão: “... a protossemântica da informação
genética é decidida pela capacidade de um sistema vivo de sustentar a si mesmo pela
reprodução. Este é o equivalente biológico da tese de que a informação só pode ser alguma
coisa que produz ela própria informação” (KÜPPERS, 1990, p. 50).302 Mais adiante: “O
processo de hereditariedade e a transformação pragmática da informação hereditária no
processo de morfogênese repousam precisamente sobre a função ‘confirmatória’ da
informação hereditária” (KÜPPERS, 1990, p. 55).303 Em termos darwinianos, a pragmática
301 “The Wiener-Shannon measure of information is a purely stochastic phenomenon concerning the statistical rarity of signals. What these signals signify or mean, or what their value or truth is, cannot be gleaned from the theory of communication. (…) Information theory, therefore, cannot serve to legitimate the DNA text or the Book of Life as a source of biological meaning. Even if it were possible to determine mathematically (in bits) the information content of a genomic message or a ‘sentence’ in the Book of Life, this would not yield any semantics, not unless its context (genomic, cellular, organismic, environmental) could be properly specified.” 302 “… the protosemantics of genetic information are decided by the ability of a living system to sustain itself by reproduction. This is the biological equivalent of the thesis that information can only be something that itself produces information.” 303
“The process of inheritance and the pragmatic transformation of hereditary information in the process of
morphogenesis rest precisely upon the ‘confirmatory’ function of hereditary information”.
200
biológica está corporificada na seleção natural, e o sentido da informação biológica (muito
além da noção de Shannon), na adaptação.
Faltaria entender, então, como uma noção assim tão deficitária (em termos de
capacidade explicativa) quanto o gene como informação alcançou tamanha disseminação,
seja na comunidade dos biólogos moleculares, seja na esfera pública. Duas ordens de
razões utilitárias parecem estar por trás do sucesso reprodutivo desse conceito: sua
rentabilidade retórica e sua rentabilidade proprietária. Com relação à primeira, como já
visto nos capítulos 3 e 4, parece óbvia a vantagem de empregar noções como a de Gene-P
(ou uma conjunção Gene-P/Gene-D sob a égide do primeiro termo) quando se trata de
convencer o público e seus representantes de que uma modalidade nova de pesquisa (a
genômica) tem mais potencial para obter avanços biomédicos do que os métodos
tradicionais. É mais fácil associar a promessa de cura do câncer, por exemplo, com uma
espécie de partícula totipotente, portadora de um ímpeto causativo, do que com um mero
recurso desenvolvimental (Gene-D), que poderá ou não estar associado com a manifestação
de tumor, dependendo de uma miríade de outros fatores.304 Essa utilidade retórica já é
abertamente reconhecida por geneticistas como John Avise, da Universidade da Geórgia,
nos Estados Unidos: “... a noção do genoma como um ‘livro da vida’ ajudou a focalizar e a
vender o projeto de seqüenciamento do genoma humano” (AVISE, 2001, p. 86; ênfase
minha).305
Se fosse apenas um expediente retórico, porém, o gene como informação talvez não
tivesse sobrevivido ao contínuo ataque epistemológico dos críticos do genocentrismo. Se
vingou e proliferou, foi também porque é uma construção inteiramente favorável à
apropriação, na forma de propriedade intelectual. Não é o caso de dizer, obviamente, que a
confluência de teoria da informação e biologia molecular, iniciada nos anos 1950, tenha
tido por objetivo e motivação, desde sempre, a obtenção de seqüências de DNA
patenteáveis, o que seria um anacronismo; é fato, contudo, que essa noção adaptou-se
304 Basta mencionar, a esse respeito, que dois dos genes mais incensados na imprensa como “causas” de câncer, o BRCA-1 e o BRCA-2, estão associados com no máximo 15% dos tumores de mama. Diante desse baixo rendimento, nota MOSS (2003, p. 182), a teoria da carcinogênese transitou quase imperceptivelmente da mutação somática como causa para a idéia muito mais vaga de suscetibilidade genômica, ainda assim um bom nicho de mercado para testes diagnósticos genéticos, por exemplo. 305 “… the notion of the genome as a ‘book of life’ helped to focus and sell the human genome sequencing project”.
201
extraordinariamente bem no novo ambiente da mundialização do capital, em que a
propriedade intelectual se transformou paulatinamente num dos principais – se não o
principal – focos de produção de valor, como afirmam LASH (2002) e SANTOS (2005).
Como o conceito de propriedade intelectual não comporta (ou não comportava) a proteção
privilegiada de objetos naturais descobertos ou sem utilidade definida, o gene como
informação veio a oferecer um mínimo de artificialidade e abstração – por meio de seu
desenraizamento do emaranhado viscoso de recursos desenvolvimentais – e de
aplicabilidade imanente (pré-formada), permitindo com isso a inclusão de seqüências de
DNA na alçada da legislação de propriedade intelectual, consideravelmente flexibilizada a
partir da histórica decisão de 1980, pela Suprema Corte dos Estados Unidos, em favor de
Ananda Chakrabarty e da General Electric.
Desprovido da semântica do desenvolvimento organísmico e da pragmática da
seleção natural, as únicas capazes de lhe conferir sentido biológico, o gene-informação
deixa de ser visto como recurso desenvolvimental para se tornar um recurso meramente
bioquímico, simples instrução (linha ou módulo de código) que pode ser incorporada em
princípio a qualquer programa animador de um sistema vivo. Encontra-se reduzido a uma
sintaxe vazia. Nesta acepção, o primeiro atributo do DNA-informação vislumbrado no
Dogma Central de Francis Crick é a mobilidade: “A especificidade estava vinculada à
matéria, enquanto a informação era móvel, transportando a memória da forma para além
dos vínculos materiais. A informação era a alma e o logos do corpo. A informação era
repassada do emissor para o receptor; a especificidade era solitária e muda”, assinala KAY
(2000, p. 175).306 Pode, assim, ser transferida de seres vivos para bancos de dados, ou entre
bancos de dados, inserindo-se sem atrito nos fluxos de rede que caracterizam a
informacionalização do mundo segundo Scott Lash.
Outro atributo do gene pré-formacionista que concorda com as novas formas de
produção de valor é a sua potencialidade (ou virtualidade): ele encerra a promessa de um
efeito futuro, realizável assim que for reconduzido ao contexto pragmático de um sistema
vivo – seja por meio da transgenia, ou recombinação, quando o recurso bioquímico a que
foi reduzido será expressado em contextos inéditos, seja em testes diagnósticos ou
306 “Specificity was bounded in matter, while information was mobile, transporting the memory of form beyond material bounds. Information was the body’s soul and logos. Information was realyed from sender to receiver; specificity was solitary and mute.”
202
medicamentos revolucionários, ainda por inventar. A genômica, por exemplo, representaria
uma promessa de “bem-estar futuro” (LASH, 2002, p. 19), ou pelo menos de controle
tecnocientífico sobre a vida: “A informação genética significou uma forma emergente de
biopoder: o controle material da vida seria agora suplementado pela promessa de controlar
sua forma e seu logos” (KAY, 2000, p. 3).307 Nas palavras de SANTOS (2005, p. 133), “a
virada cibernética torna-se a quintessência do controle”.
Essa promessa de controle sobre efeitos futuros contida nas seqüências de DNA
entendidas como informação, no entanto, precisam elas mesmas ser mantidas sob controle,
por meio da propriedade intelectual:
O poder na era da manufatura estava ligado à propriedade como meios mecânicos de produção. Na era da informação, está ligado à propriedade intelectual. É a propriedade intelectual, especialmente na forma de patentes, direitos autorais e marcas, que põe uma nova ordem nos turbilhões fora de controle de bits e bytes de informação, de modo que eles podem ser valorizados para gerar lucro. Por exemplo, em biotecnologia, patentes sobre técnicas genômicas e formas de modificação genética concedem a firmas específicas direitos exclusivos de valorização da informação genética. (LASH, 2002, p. 4)308
Na formulação de FRANKLIN (2000, p.188), os genomas que haviam sido
desligados da história natural dos organismos a que pertenciam são por assim dizer
“reanimados”, voltam à vida, na forma de capital corporativo. É o que ela busca captar no
conceito de Vida Própria (Life Itself; FRANKLIN, 2000, p. 222), que define como
estratégia de acumulação, mas também como tecnologia cultural (controle), noção que
encontra muitos paralelos com o já mencionado conceito pioneiro de biossocialidade de
RABINOW (1992).
Não é por acaso que todos esses autores põem ênfase na componente do controle
como algo de fundamental no conceito cibernético de informação, em geral, e na de
informação genética, em particular. Controle não só da capacidade de gerar valor e lucro,
mas também e primeiramente sobre a própria vida, na transformação genética de plantas e
307 “Genetic information signified an emergent form of biopower: the material control of life would be now supplemented by the promise of controlling its form and logos”. 308 “Power in the manufacturing age was attached to property as the mechanical means of production. In the information age it is attached to intellectual property. It is intellectual property, especially in the form of patent, copyright and trademark, that put a new order on the out-of-control swirls of bits and bytes of information so that they can be valorized to create profit. For example, in biotechnology, patents on genome techniques and forms of genetic modification allow specific firms exclusive rights to the valorization of genetic information.”
203
animais, no combate molecular a moléstias hoje renitentes, na seleção de características
humanas por uma espécie de eugenia positiva (de mercado) e quem sabe, um dia, até na
interferência tecnobiológica sobre o comportamento humano.
Como ensina LACEY (1998, 1999), a valorização contemporânea do controle sobre
a natureza – seja na forma de tecnologia, seja na de experimentação – é o ponto fraco na
couraça de neutralidade erguida pela estratégia materialista de pesquisa em torno da
tecnociência. Ao pretender banir toda forma de valor de sua concepção estreitada da
pesquisa empírica sistemática que se convencionou chamar de ciência, essa estratégia
assume uma feição ideológica ao deixar de reconhecer a si mesma como estratégia fundada
sobre a valorização baconiana do controle sobre a natureza. No caso da genômica, este
capítulo procurou mostrar que tal ponto cego se manifesta na figura do gene como
informação (e nas várias metáforas lingüísticas para o DNA), ou melhor, na conjunção
inapropriada do Gene-P com o Gene-D. Ao eclipsar a dimensão semântica e pragmática do
organismo (morfogênese e seleção natural), a noção de DNA informacional franqueia uma
sintaxe descarnada à mobilidade e à virtualidade dos bancos de dados – em poucas
palavras, à apropriação e ao controle.
Isso não quer dizer, decerto, que a genômica colecione apenas resultados incorretos
ou inválidos. O fato de fornecerem explicações parciais e até mesmo enviesadas não
invalida, por princípio, seu conteúdo empírico. Nada há de fundamentalmente errado,
tampouco, com adotar uma estratégia de pesquisa, pois esta lhe confere uma direção:
“Valores permeiam, e devem permear, as práticas científicas e (numa medida significativa)
respondem pela direção da investigação e pelos tipos de possibilidades que se tenta
encapsular nas teorias” (LACEY, 1999, p. 256). O problema, claro, está em escamotear a
presença e a influência desses valores. Da mesma maneira, a crítica aqui empreendida do
genocentrismo e da metáfora informacional do gene que lhe dá sustentação não deve ser
entendida como uma recusa e uma negação peremptórias do papel das metáforas na
formulação de teorias e na adoção de estratégias de pesquisa; mais uma vez, a objeção se
levanta contra fazê-lo de maneira irrefletida, abrindo o espaço conceitual para a
acumulação de camadas e mais camadas de sentidos indesejáveis. Neste caso, as metáforas
se desgovernam, ganham autonomia e se afastam progressivamente da complexidade que
deveriam contribuir para domar e apreender, antes de mais nada; o que nasceu como
204
simples analogia se aproxima assim, perigosamente, de se tornar uma ontologia (KAY,
2000, p. 331).
O gene não é nem contém toda a informação biológica; com o DNA não se escreve
texto algum; e o genoma humano nunca foi nem será o Livro da Vida. Essa constelação de
construções metafóricas pode ter cumprido papel heurístico no passado, contribuindo para
pôr de pé um dos mais ricos e prolíficos programas de pesquisa – a biologia molecular – de
todos os tempos. Mas, assim como Lacey defende uma ampliação (ou um resgate) do
conceito de ciência como pesquisa empírica sistemática para além dos limites da estratégia
materialista que a circunscreve à tecnociência, cabe aqui, mais do que defender, constatar
que é chegada a hora de reformar ou substituir o complexo de analogias que tem sustentado
a biologia molecular e, em particular, a genômica. O que falta resgatar, neste caso, é a
dimensão desenvolvimental do organismo nutrida pela perspectiva teórica da DST de Susan
Oyama, Paul Griffiths, Lenny Moss, Lily Kay e outros. Isso de certo modo já está em
curso, com o movimento progressivo de biólogos moleculares para as águas turbulentas da
epigenética e da biologia de sistemas, mas poucos deles se dão conta de que termos como
epigenética têm uma história que torna contraditório empregá-los lado a lado com
metáforas pré-formacionistas como a de gene como informação e genoma como Livro da
Vida.
“Embora seja improvável que alguma metáfora vá ser informativa em todos os
aspectos, qualquer perspectiva nova que encare o genoma como uma comunidade interativa
de loci em evolução pode ser especialmente útil e estimulante neste momento”,309 concede
o biólogo molecular John AVISE (2001, p. 87) no mesmo texto em que justificava
“vender” o genoma humano como Livro da Vida. Não é ainda uma plena incorporação da
importância do ambiente e do desenvolvimento, mas já se trata de um avanço (entre
possíveis novas metáforas o autor inclui figuras mais dinâmicas do genoma como coletivo
social, divisão complexa de trabalho, ou como ecossistema). Curiosamente, o interacionista
Lenny Moss, ao discutir em seu livro a necessidade de remetaforizar a noção de gene, não
abandona o universo referencial lingüístico, defendendo na realidade uma “troca de marcha
retórica” pela incorporação de uma dimensão dialógica à analogia: “O entendimento do
Gene-D como um recurso molecular dependente do contexto é adequadamente
205
complementado pela ‘metafórica’ da construção dialógica de sentido no contexto, e tal
metafórica pode com efeito ser produtiva para induzir intuições que os biólogos serão
capazes de realizar com novos desenhos experimentais” (MOSS, 2003, p. 73).310 Como diz
ANVISE (2001, p. 86), “Metáforas em ciência são como sirenes de neblina e faróis
costeiros: em geral se encontram em áreas traiçoeiras, mas também podem guiar os
marinheiros da pesquisa até novos portos”.311
Qualquer que seja a metáfora ou as metáforas para rejuvenescer a biologia
molecular, se antigas analogias lingüísticas em nova engrenagem ou outras figuras de todo
inovadoras, não resta dúvida de que a retórica associada até aqui com a genômica necessita
enfrentar um vendaval para se livrar do lastro indesejável de propaganda acumulado em
duas décadas de Projeto Genoma Humano.
309 “Although no one metaphor is likely to be informatiba in all respects, some new perspective that views the genome as an interactive community of evolving loci may be especially useful and stimulating at this time.” 310 “The understanding of Gene-D as a context-dependent molecular resource is nicely complemented by the ‘metaphorics’ of the dialogic construction of meaning in context, and such metaphorics can indeed be productive in eliciting intuitions that biologists will be able to realize in new experimental designs.” 311 “Metaphors in science are like foghorns and lighthouses: They usually reside in treacherous areas, yet they can also guide research mariners to novel ports.”
207
CONCLUSÃO
A tese central deste trabalho, tal como enunciada na sua introdução, é que a
comoção e a aceitação públicas produzidas pelo Projeto Genoma Humano só se explicam
pela mobilização retórica e política, nas interfaces com a esfera pública leiga, de um
determinismo genético crescentemente irreconciliável com os resultados empíricos obtidos
no curso da própria pesquisa genômica. Ela foi corroborada e documentada nos capítulos 3
e 4, verdadeiro centro de gravidade desta tese, nos quais se mostrou que a complexidade
empiricamente constatada da arquitetura do genoma e de suas interações com a célula, o
organismo e o meio circundante desautorizam a manutenção da causalidade simples e
unidirecional pressuposta na noção de gene como único portador de informação, esteio da
doutrina da ação gênica, determinismo genético e genocentrismo. Neles também se expôs
que, apesar disso, o complexo de metáforas informacionais continua vivo nas
manifestações publicadas dos biólogos moleculares, um discurso ambíguo que modula
graus variados de retórica determinista conforme se dirija aos próprios pares ou, indireta e
diretamente, ao público leigo.
Tal análise foi empreendida numa chave interpretativa que buscou escapar das
armadilhas representadas tanto pela oscilação entre visões prometéicas (otimistas) e
fáusticas (alarmistas) da tecnociência quanto do determinismo tecnológico que faz dela o
núcleo ativo e exclusivo do processo de mudança social e da história, algo que não deve ser
tomado como verdadeiro nem para o bem, nem para o mal, nem para o passado, nem para o
presente. A autonomização da tecnologia em relação aos homens e suas ações e intenções
não é completa, como sugere a literatura iniciada por Mumford e Ellul, entre outros. Uma
descrição mais penetrante e menos imobilizante dessa tensão se encontra na noção de
momento dos sistemas tecnológicos proposta por Hughes – algo que pode ser quebrado, ou
vetorialmente redirecionado, como ocorreu historicamente com a reação do público, em
vários países, contra a energia nuclear e, mais recentemente, problematizando a adoção de
cultivares transgênicos.
A recusa da dicotomia fáustico/prometéico e do determinismo tecnológico não quer
dizer que a interpretação oferecida careça de ponto de vista. Ao contrário: a perspectiva
assumida foi a da atitude preconizada pela teoria crítica diante da ciência e da tecnologia,
208
ainda que não apocalíptica, por concluir dos debates abertos pela Escola de Frankfurt que o
problema digno de atenção está mais na redução da ciência à técnica (como em Habermas),
uma figura histórica, do que numa alegada característica transcendentalmente dominadora
da razão instrumental (como em Adorno e vários escritos de Marcuse).
Esta visão menos maligna da tecnociência não se confunde, ademais, com uma
confiança cega na sua capacidade auto-reformadora, implícita na perspectiva da chamada
modernização ecológica de Mol e Spaargaren, em oposição à modernização reflexiva de
Beck. A emancipação visada pela proposta de superação do momento adquirido pelos
sistemas tecnológicos é uma possibilidade real, mas o risco de um colapso social e
ecológico não é menos real que ela. O resultado final dependerá da ação política, não da
confiança nos sistemas especialistas.
Entre os componentes decisivos dessa nova política descentralizada (ou subpolítica,
nos termos de Beck) está a crítica da tecnociência, que vê voltar-se contra si mesma a
ferramenta abrasiva do ceticismo que deu ímpeto à primeira modernidade mas se
esclerosou com a colonização da idéia de ciência como pesquisa empírica sistemática pela
estratégia materialista e pelo valor exacerbado do controle, segundo a análise de Lacey. É
preciso retomar o escopo original da investigação científica de abranger todas as
possibilidades (não só aquelas passíveis de controle) e submetê-las a confirmação empírica.
Essa forma de sociologia crítica da tecnociência não deve se resumir, no entanto, a uma
atividade teórica ou acadêmica, mas sim engajar a esfera pública, melhor dizendo, a
federação de esferas públicas articuladas em que os homens de determinada época
desenvolvem um saber reflexivo sobre aquilo que representam como sociedade.
Na passagem do século XX para o XXI, com a finalização do Projeto Genoma
Humano, as biotecnologias passaram a ocupar o centro nervoso da empreitada
tecnocientífica. De uma perspectiva tecnológico-determinista, isso bastou para que se
falasse em Era da Biotecnologia, ou Era do Genoma, apesar de não possuírem elas o
mesmo potencial refundador da base econômica da informática, por exemplo. Mesmo
assim, as biotecnologias ganham papel de relevo sob dois ângulos importantes: 1. Pelo
papel que podem vir a desempenhar na solução de problemas crônicos de sustentabilidade
ecológico-econômica (oferta de energia e destinação de rejeitos), como defende Roobeek;
2. Pelo reposicionamento que desencadeiam da fronteira entre natureza e cultura, em
209
particular no que respeita ao ser humano, por exemplo com a redefinição dos conceitos de
normalidade diante da provável oferta crescente de serviços ortogênicos no mercado.
O esfumaçamento dos limites entre natureza e cultura não se resolve, porém, com a
decisão de ignorá-los, como faz a sociobiologia reencarnada como psicologia evolucionista
de Cosmides, Tooby e Pinker. Decerto ele projeta sombras sobre a autonomia durkheimiana
do fato social, na medida em que doravante as representações sobre a pessoa humana
sofrem a influência também de fatos extra-sociais, mas também põe em crise o
determinismo biológico, uma vez que deixa de ser possível invocar como substrato
imutável do comportamento humano uma “natureza” já franqueada para as manipulações e
maquinações da tecnociência. De fundamento da vida social pressuposto nessa perspectiva
naturalista, a natureza humana se converte em um horizonte fugidio, como diz Franklin. O
caráter movediço dessa fronteira engendra o que se poderia chamar de ansiedade ética,
como está representada nas obras recentes de Habermas e Fukuyama sobre o futuro da
natureza humana, ameaçada que estaria em sua condição de um incondicionado, de
ancoradouro para um sistema mínimo que seja de valores universalizantes. Contra a
inclinação restritiva da pesquisa tecnocientífica nesses dois autores se insurge justamente
Zizek, entre outros, que propõe em seu lugar uma reconceituação das noções éticas tidas
como universais.
Essa disposição menos judicativa e mais fleumática diante da ciência e da
tecnologia encontra eco na atitude etnográfica preconizada por Rabinow diante do que
chama de biossocialidade, os novos circuitos de identidade que emergem na esteira das
biotecnologias e do Projeto Genoma Humano. Foi esta a inspiração deste trabalho, que
buscou inventariar e descrever o sistema de símbolos (metáforas, no caso) veiculado na
principal manifestação cultural no campo da ciência natural, suas publicações em
periódicos auditados (com peer review). Encontrou-se que, um século depois de ter sido
cunhado como conceito apenas teórico, sem correlato empírico conhecido, a noção de gene
como partícula de hereditariedade pré-formadora de características dos organismos se
encontra em plena atividade, revivificada que foi a partir dos anos 1950 pela
superimposição que sofreu da noção cibernética de informação. Quando da divulgação do
seqüenciamento (soletração) do genoma humano, porém, essa visão determinista e
genocêntrica já se encontrava sob duas décadas de fogo cruzado, enfrentando de um lado a
210
incongruência empírica galopante de um genoma complexo em interação com o organismo
e seu meio, e, de outro, o assalto teórico pelos críticos do determinismo reunidos na ótica
de um interacionismo construtivista e da nascente teoria de sistemas desenvolvimentais
(DST). Com isso, revela a análise dos textos, a retórica das manifestações de biólogos
moleculares oscila constantemente entre pólos mais e menos deterministas e genocêntricos,
dependendo do público e do efeito visados – uma vez que a noção de gene como
informação comprovou-se muito mais eficaz, historicamente, como ponto de venda da
empreitada bilionária do genoma. Não pode, por isso, ser abandonada abruptamente,
inclusive porque penetrou fundo nos próprios esquemas mentais de que se servem os
mesmos pesquisadores, como demonstra à farta o discurso francamente ideológico e
propagandístico de um James Watson. Como seus pares, ele se entrega a uma reafirmação
da fé messiânica na prometida revolução biomédica e biotecnológica, apesar das evidências
empíricas de que esse dia talvez não venha, pelo menos não da forma de uma reviravolta
fulgurante, como mostram Nightingale e Martin.
Por outro lado, é preciso registrar que as manifestações de biólogos moleculares e
seus intérpretes comportam também inúmeros reconhecimentos e exemplos das limitações
da abordagem genômica da biologia. Além de referências apenas protocolares à influência
do meio sobre os organismos e seu desenvolvimento, encontram-se muitas reflexões sobre
a necessidade de complementar o que anteriormente havia sido apresentado como
coroamento da biologia com décadas mais de estudos “úmidos”, ou seja, de laboriosa
verificação e validação obtidas nas “cozinhas repugnantes” de que fala Latour.
Protagonistas da genômica também já reconhecem abertamente a importância da
epigenética, entre outros exemplos de sistemas hereditários não baseados em DNA, e a
necessidade de ampliar o escopo da pesquisa no sentido de uma biologia de sistemas,
confirmando assim as objeção levantadas pelos opositores interacionistas, ainda que poucos
biólogos moleculares lhes reconheçam o crédito e o pioneirismo.
Em que pese esse esboço de revisionismo, o campo da genômica ainda está longe de
abandonar a conjunção indevida das noções de gene pré-formacionista e de gene como um
recurso desenvolvimental entre outros, como assinala Moss, que está por trás da metáfora
do gene como informação. E as razões para isso vão além de uma simples inércia
vocabular. O que essa fusão inspirada pela terminologia cibernética propicia é uma versão
211
asséptica do gene, distanciada da natureza, puramente sintática, móvel e virtual o bastante
para circular desimpedidamente nos novos circuitos de geração de valor. Esse gene bifronte
que habita os bancos de dados é uma pura promessa de controle, tanto de processos antes
exclusivos do organismo e ora franqueados à tecnologia quanto do potencial de valorização
dessas possibilidades de intervenção. O gene como informação constitui simbólica e
pragmaticamente a noção de recurso genético na acepção de Laymert Garcia dos Santos,
passível de garimpagem e de apropriação, e não tanto de explicação do mundo vivo.
A conclusão principal já se encontra formulada no final do capítulo 5, cabendo aqui
a sua reiteração: cabe ao cientista social que se defronta com a tecnociência em sua vertente
biotecnológica empunhar as armas da crítica para desafiar o campo hegemônico da
genômica a abandonar ou reformular drasticamente o complexo de metáforas deterministas
que até agora lhe deu sustentação. Sem isso ela deixará de ser científica, ou seja, se afastará
cada vez mais da promessa de objetividade e de imparcialidade implícita em qualquer
forma de pesquisa científica, até mesmo na tecnociência.
213
REFERÊNCIAS BIBLIOGRÁFICAS
ADORNO, Theodor W.; HORKHEIMER, Max. 1985. Dialética do esclarecimento. Fragmentos
filosóficos. Tradução: Guido Antonio de Almeida. Rio de Janeiro: Zahar. ADORNO, Theodor W. 1989. Society. In: BRONNER, Stephen E., KELLNER, Douglas M. (Eds.).
Critical theory and society. Nova York: Routledge. ATLAN, Henri. 1992. Entre o cristal e a fumaça: Ensaios sobre a organização do ser vivo.
Tradução: Vera Ribeiro. Revisão técnica: Henrique Lins de Barros. Rio de Janeiro: Jorge Zahar Editor.
AVISE, John C. 2001. Evolving genomic metaphors: A new look at the language of DNA. Science, v.294, n. 5540, p. 86-87, 5.out.2001. BAKER, David; SALI, Andrej. 2001. Protein structure prediction and structural genomics.
Science, v. 294, n. 5540, p. 93-96, 5.out.2001. BALTIMORE, David. 2001. Our genome unveiled. Nature, v. 409, n. 6822, p. 814-816,
15.fev.2001. BATESON, Patrick; MARTIN, Paul. 2000. Design for a life: How behavior and personality
develop. Nova York: Simon & Schuster. BECK, Ulrich. 1996a. The reinvention of politics: Rethinking modernity in the global social order.
Tradução: Mark Ritter. Cambridge, Reino Unido: Polity Press. BECK, Ulrich. 1996b. Risk society: Towards a new modernity. Tradução de Mark Ritter.
Londres: Sage. BECK, Ulrich. 1997. A reinvenção da política: rumo a uma teoria da modernização reflexiva. In:
GIDDENS, Anthony, BECK, Ulrich, LASH, Scott. Modernização reflexiva. Política,
tradição e estética na ordem social moderna. Tradução: Magda Lopes. São Paulo: Editora da Universidade Estadual Paulista.
BENNER, Steven E. 2002. The past as the key to the present: Resurrection of ancient proteins
from eosinophils. PNAS, v. 99, n. 8, p. 4760-4761, 16.abr.2002. BERGER, Shelley L. 2001. The histone modification circus. Science, v. 292, n. 5514, p. 64-65,
6.abr.2001. BIJKER, Wiebe E.; HUGHES, Thomas; PINCH, Trevor. (Eds.) 1984. The social construction of
technological systems: New directions in the sociology and history of technology. Cambridge, Massachusetts: The MIT Press.
BIMBER, Bruce. 1994. Three faces of technological determinism. In: SMITH, Merritt Roe;
MARX, Leo. (Eds.). Does technology drive history? The dilemma of technological determinism. Cambridge, MA: The MIT Press. p. 79-100.
214
BIRNEY, Ewan; BATEMAN, Alex; CLAMP, Michelle E.; HUBBARD, Tim J. 2001. Mining the draft human genome. Nature, v. 409, n. 6822, p. 827-828, 15.fev.2001.
BOBROW, Martin; THOMAS, Sandy. 2001. Patents in a genetic age. Nature, v. 409, n. 6822, p.
763-764, 15.fev.2001. BORK, Peer; COPLEY, Rcihard. 2001. Filling in the gaps. Nature, v. 409, n. 6822, p. 818-820,
15.fev.2001. BRENNER, Sydney. 2001. Hunting the metaphor. Science, v. 291, n. 5507, p. 1265-1266,
16.fev.2001. BROSIUS, Jürgen; GOULD, Stephen Jay. 1992. On “genomenclature”: A comprehensive (and
respectful) taxonomy for pseudogenes and other “junk DNA”. Proceedings of the National Academy of Sciences USA, v. 89, p. 10706-10710, nov.1992.
BUTLER, Declan. 2001. Are you ready for the revolution? Nature, v. 409, n. 6822, p. 758-760,
15.fev.2001. BUTTEL, Frederick H. 1995. Biotechnology: An epoch-making technology? In: FRANSMAN,
Martin; JUNNE, Gerd; ROOBEEK, Annemieke (Eds.). The biotechnology revolution? Oxford: Blackwell. p. 25-45.
BUTTEL, Frederick H. 1997. Social institutions and environmental change. In: REDCLIFT,
Michael; WOODGATE, Graham. (Eds.) The International handbook of environmental sociology. Cheltenham, Reino Unido: Edward Elgar. p. 40-54.
CAMARGO, Anamaria A. et al. 2001. The contribution of 700,000 ORF sequence tags to the
definition of the human transcriptome. PNAS, v. 98, n. 21, p.12103-12108,9.out.(2001) CHAKRAVARTI, Aravinda. 2001. ... to a future of genetic medicine. Nature, v. 409, n. 6822, p.
821-822, 15.fev.2001.
CHO, Mildred K. et al. 1999. Ethical considerations in synthesizing a minimal genome. Science, v. 286, n. 5447, p. 2087-2090, 10.dez.1999.
CLAVERIE, Jean-Michel. 2001. What if there are only 30,000 human genes? Science, v. 291,
n. 5507, p. 1255-1257, 16.fev.2001. COLLINS, Francis; GREEN, Eric D.; GUTTMACHER, Alan E.; GUYER, Mark S. 2003a. A
vision for the future of genomics research. A blueprint for the genomic era. Nature, v. 422, n. 6934, p. 835-847, 24.abr.2003.
COLLINS, Francis; MORGAN, Michael; PATRINOS, Aristides. 2003b. The Human Genome
Project: Lessons from large-scale biology. Science, v. 300, n. 5617, p. 286-296, 11.abr.2003.
COMMONER, Barry. 2002 Unravelling the DNA myth. In: Harper’s Magazine. fev.2002. p. 39-
47. DELEUZE, Gilles. 1988 Sobre a morte do homem e o super-homem. Tradução: Claudia
215
Sant’Anna Martins. In: DELEUZE, Gilles. Foucault. São Paulo: Editora Brasiliense. p. 132-142.
DELEUZE, Gilles. 1990. Controle e devir (entrevista a Toni Negri) e Post-scriptum sobre as
sociedades de controle. Tradução: P.P. Pelbart. In: DELEUZE, Gilles. Conversações. 1972- 1990. Rio de Janeiro: Editora 34. p. 209-226.
DENNIS, Carina; GALLAGHER, Richard; CAMPBELL, Philip. 2001. Everyone’s genome.
Nature, v. 409, n. 6822, p. 813, 15.fev.2001.
DOVER, Gabriel. 2000. Anti-Dawkins. In: ROSE, Hilary; ROSE, Steven (Eds.). Alas, poor Darwin: Arguments against evolutionary psychology. Nova York: Harmony Books. p. 55-77.
DULBECCO, Renato. 1997. Os genes e o nosso futuro. Tradução: Marlena Maria Lichaa. São
Paulo: Best Seller. DUNLAP, Riley E. 1997. The evolution of environmental sociology: A brief history and
assessment of the American experience. In: REDCLIFT, Michael; WOODGATE, Graham. (Eds.) The International handbook of environmental sociology. Cheltenham, Reino Unido: Edward Elgar. p. 21-39.
DURKHEIM, Émile. 1978. As regras do método sociológico. In: Durkheim. Tradução: Margarida
Garrido Esteves. São Paulo: Abril Cultural (Os Pensadores). p. 71-161. ELLUL, Jacques. 1964. The technological society. Tradução: John Wilkinson. Nova York: Vintage
Books. ENARD, Wolfgang et al. 2002. Intra- and interspecific variation in primate gene expression
patterns. Science, v. 296, n. 5566, p. 340-343, 12.abr.2002. FAIRBURN, Hannah R. et al. 2002 Epigenetic reprogramming: How now, cloned cow? Current
Biology, v. 12, p. R68-R70. FRANKLIN, Sarah. 2000. Life itself. Global nature and the genetic imaginary. In: Sarah
FRANKLIN, Celia LURY, Jackie STACEY. Global nature, global culture. Londres: Sage. p. 188-227.
FRANSMAN, Martin; JUNNE, Gerd; ROOBEEK, Annemieke (Eds.). 1995 The biotechnology
revolution? Oxford: Blackwell. FRAZIER, Marvin E.; JOHNSON, Gary M.; THOMASSEN, David G.; OLIVER, Carl E.;
PATRINOS, Aristides. 2003. Realizing the potential of the genome revolution. The Genomes To Life program. Science, v. 300, n. 5617, p. 290-293, 11.abr.2003.
FREEMAN, Christopher. 1995. Technological revolutions: Historical analogies. In: FRANSMAN,
Martin; JUNNE, Gerd; ROOBEEK, Annemieke (Eds.). The biotechnology revolution? Oxford: Blackwell. p. 7-24.
FREUDENBURG, William R. 2000. Social constructions and social constrictions: Toward
analyzing the social construction of ‘the naturalized’ as well as ‘the natural’. In:
216
SPAARGAREN, Gert; MOL, Arthur P.J.; BUTTEL, Frederick M. (Eds.) Environmental and global modernity. Londres: Sage. p. 103-119.
FUKUYAMA, Francis. 2002. Our Post-Human Future. Consequences of the biotechnology
revolution. Nova York: Farrar, Straus and Giroux. GALAS, David J. 2001. Making sense of the sequence. Science, v. 291, n. 5507, p. 1257-1260,
16.fev.2001. GELBART, William M. 1998. Databases in genomic research. Science, v. 2, n. 5389, p. 659-661,
23.out.1998. GIDDENS, Anthony; BECK, Ulrich; LASH, Scott. 1997. Modernização reflexiva. Política,
tradição e estética na ordem social moderna. Tradução: Magda Lopes. São Paulo: Editora da Universidade Estadual Paulista.
GIDDENS, Anthony. 1991. As conseqüências da modernidade. Tradução: Raul Fiker. São Paulo:
Editora da Universidade Estadual Paulista. GILBERT, Walter. 1993. A vision of the Grail. In: KEVLES, Daniel J.; HOOD, Leroy (Eds.). The
code of codes. Scientific and social issues in the Human Genome Project. Cambridge, EUA: Harvard University Press.
GODFREY-SMITH, Peter. 2001. On the status and explanatory structure of developmental
systems theory. In: OYAMA, Susan; GRIFFITHS, Paul E.; GRAY, Russell D. (Eds.). Cycles of contingency. Developmental systems and evolution. Cambridge, Mass. (EUA): Bradford/The MIT Press. p. 283-297.
GOODY, Jack; WATT, Ian. 1968. The consequences of literacy. In: GOODY, Jack. Literacy in
traditional societies. Cambridge, Reino Unido: Cambridge University Press. GOULD, Stephen Jay. 2001. Humbled by the genome’s mysteries. The New York Times.
19.fev.(2001) GOULD, Stephen Jay. 2002. The structure of evolutionary theory. Cambridge, MA: Harvard
University Press. GRATZER, Walter B. 2000. Introduction. Em: James D. WATSON. A passion for DNA. Cold
Spring Harbor, NY: CSHL Press. HABERMAS, Jürgen. 1982. Aufgaben einer kritischen Gesellschaftstheorie. In: Theorie des
kommunikativen Handelns. Frankfurt: Suhrkamp. HABERMAS, Jürgen. 1993. Técnica e ciência como “ideologia”. Tradução de Artur Morão.
Lisboa: Edições 70. HABERMAS, Jürgen. 2000. O discurso filosófico da modernidade. Tradução: Luiz Sérgio Repa e
Rodnei Nascimento. São Paulo: Martins Fontes. HABERMAS, Jürgen. 2001. Die Zukunft der menschlichen Natur. Auf dem Weg zu einer
liberalen Eugenik? Frankfurt: Suhrkamp Verlag.
217
HARAWAY, Donna. 1997. Modest_Witness@ Second_Millennium. FemaleMan_Meets_
OncoMouse. Feminism and technoscience. Nova York: Routledge. HEILBRONER, Robert L. 1994. Do machines make history? In: SMITH, Merritt Roe; MARX,
Leo. (Eds.). Does technology drive history? The dilemma of technological determinism. Cambridge, MA: The MIT Press. p. 53-78.
HO, Mae-Wan. 2001. The human genome map, the death of genetic determinism and beyond.
Londres: Institute for Science in Society (ISIS). Disponível em <http://www.i-sis.org.uk/HumangenTWN-pr.php>.
HOOD, Leroy. 1993. Biology and medicine in the twenty-first century. In: KEVLES, Daniel J.;
HOOD, Leroy (Eds.). The code of codes. Scientific and social issues in the Human Genome Project. Cambridge, EUA: Harvard University Press. p. 136-163.
HORKHEIMER, Max. 1980. Teoria tradicional e teoria crítica. In: Textos escolhidos. São Paulo:
Abril Cultural (Os Pensadores). HUBBARD, Ruth; WALD, Elijah. 1997. Exploding the gene myth: How genetic information is
produced and manipulated by scientists, physicians, employers, insurance companies,
educators, and law enforcers. Boston: Beacon Press. HUGHES, Thomas. 1994. Technological momentum. In: SMITH, Merritt Roe; MARX, Leo.(Eds.).
Does technology drive history? The dilemma of technological determinism. Cambridge, Massachusetts: The MIT Press. p. 101-103.
HUGHES, Thomas. 1999. The evolution of large technological systems. In: BIJKER, Wiebe E.;
HUGHES, Thoma; PINCH, Trevor. (Eds.) The social construction of technological systems: New directions in the sociology and history of technology. Cambridge, Massachusetts: The MIT Press. p. 51-82.
HUTTER, Harald et al. 2000. Conservation and novelty in the evolution of cell adhesion and
extracellular matrix genes. Science, v. 287, n. 5455, p. 989-994, 11.fev.2000. INOUE, Kimiko et al. 2002. Faithful expression of imprinted genes in cloned mice. Science, v.
295, n. 5553, p. 297, 11.jan.2002. JABLONKA, Eva. 2001. The systems of inheritance. In: OYAMA, Susan; GRIFFITHS, Paul E.;
GRAY, Russell D. (Eds.). Cycles of contingency. Developmental systems and evolution. Cambridge, Mass. (EUA): Bradford/The MIT Press. p. 99-116.
JAENISCH, Rudolf; WILMUT, Ian. 2001. Don’t clone humans! Science, v. 291, n. 5513, p. 2552,
30.mar.2001. JEFFORDS, James M.; DASCHLE, Tom. 2001. Political issues in the Genome Era. Science, v.
291, n. 5507, p. 1249-1251, 16.fev.2001. JUDSON, Horace Freeland. 1996. The Eighth day of creation. Makers of the revolution in biology.
Cold Spring Harbor, Nova York: Cold Spring Harbor Laboratory Press.
218
JÜNGER, Ernst. 1990. L’état universel, suivi de La mobilisation totale. Tradução de Henri Plard e Marc B. de Launay. Paris: Gallimard.
JÜNGER, Ernst. 1993. Le travailleur. Tradução de Julien Hervier. Paris: Christian Bourgois. KAY, Lily E. 2000. Who wrote the Book of Life? A history of the genetic code. Stanford, Calif.:
Stanford University Press. KELLER, Evelyn Fox. 1993. Nature, nurture, and the Human Genome Project. In: KEVLES,
Daniel J.; HOOD, Leroy (Eds.). The code of codes. Scientific and social issues in the Human Genome Project. Cambridge, EUA: Harvard University Press. p. 281-299.
KELLER, Evelyn Fox. 1995. Refiguring life. Metaphors of twentieth-century biology. Nova York:
Columbia University Press. KELLER, Evelyn Fox. 2001. Beyond the gene but beneath the skin. In: OYAMA, Susan;
GRIFFITHS, Paul E.; GRAY, Russell D. (Eds.). Cycles of contingency. Developmental systems and evolution. Cambridge, Mass. (EUA): Bradford/The MIT Press. p. 299-312.
KELLER, Evelyn Fox. 2002. O século do gene. Belo Horizonte: Editora Crisálida. Tradução:
Nelson Vaz. KEVLES, Daniel J.; HOOD, Leroy (Eds.). 1993. The code of codes. Scientific and social issues in
the Human Genome Project. Cambridge, EUA: Harvard University Press. KLOSE, Joachim et al. 2002. Genetic analysis of the mouse brain proteome. Nature Genetics.
Publicado online. DOI: <10.1038/ng861>. p. 1-9. 25.mar.2002. KÜPPERS, Bernd-Olaf. 1990. Information and the origin of life. Cambridge, Massachusetts: MIT Press. LACEY, Hugh. 1998. Valores e atividade científica. São Paulo: Discurso Editorial. LACEY, Hugh. 1999. Is science value free? Nova York: Routledge. LANDER, E.S. et al. (INTERNATIONAL HUMAN GENOME SEQUENCING CONSORTIUM). 2001. Initial sequencing and analysis of the human genome. Nature, v. 409, n. 6822, p. 860-921, 15.fev.2001. LASH, Scott. 2002. Critique of information. Londres: Sage. LATOUR, Bruno. 1994. Jamais fomos modernos. Ensaios de antropologia simétrica.
Tradução: Carlos Irineu da Costa. São Paulo: Editora 34. LATOUR, Bruno. 2001. A esperança de Pandora. Ensaios sobre a realidade ds estudos
científicos. Bauru, São Paulo: Edusc. Tradução: Gilson César Cardoso de Sousa. LEDERBERG, Joshua. 2001. The meaning of epigenetics. The Scientist, n. 18, v. 15, p. 6
(17.set.2001).
LÉVI-STRAUSS, Claude. 1982. As estruturas elementares do parentesco. Petrópolis: Vozes.
219
LÉVY, Pierre. 1999. O que é o virtual? Tradução: Paulo Neves. São Paulo: Editora 34. LEWONTIN, Richard C.; ROSE, Steven; KAMIN, Leon J. 1985. Not in our genes:Biology,
ideology, and human nature. Nova York: Pantheon Books. LEWONTIN, Richard C. 1993. The doctrine of DNA. Biology as ideology. Londres: Penguin
Books. LEWONTIN, Richard C. 2000a. It ain’t necessarily so: The dream of the human genome and
other illusions. Nova York: New York Review Books. LEWONTIN, Richard C. 2000b. The triple helix. Gene, organism, and environment. Cambridge,
EUA: Harvard University Press. LEWONTIN, Richard C. 2000c. Foreword. In: OYAMA, Susan. The ontogeny of information.
Developmental systems and Evolution. Durham, EUA: Duke University Press. p. viii-xv. LEWONTIN, Richard C. 2001a. Genes, organism and environment. In: OYAMA, Susan;
GRIFFITHS, Paul E.; GRAY, Russell D. (Eds.). Cycles of contingency. Developmental systems and evolution. Cambridge, Mass. (EUA): Bradford/The MIT Press. p. 59-66.
LEWONTIN, Richard C. 2001b. In the beginning was the word. Science, v. 291, n. 5507, pp. 1263- 1264, 16.fev.2001. LINDEE, M. Susan. 2003. Watson’s world. Science, v. 300, n. 5618, pp. 432-434, 18.abr.2003. LODISH, H. et al. 1999. Molecular cell biology. Nova York: W.H. Freeman and Company. [4a
edição] LYOTARD, Jean-François. 2000. A condição pós-moderna. Tradução: Ricardo Corrêa Barbosa. Rio de Janeiro: José Olympio. MALAKOFF, David; SERVICE, Robert F. 2001. Genomania meets the bottom line. Science, v.
291, n. 5507, p. 1193-1203, 16.fev.2001. MANIATIS, Tom; REED, Robin. 2002. An extensive network of coupling among gene expression
machines. Nature, v. 416, n. 6880, p. 499-506, 4.abr.2002. MARCUSE, Herbert. 1991. One-dimensional man. Boston: Beacon Press. MARCUSE, Herbert. 1999. Algumas implicações sociais da tecnologia moderna. In: Tecnologia,
guerra e fascismo. Tradução: Maria Cristina Vidal Borba. São Paulo: Editora da Universidade Estadual Paulista.
MARSHALL, Eliot. 2001. Sharing the glory, not the credit. Science, v. 291, n. 5507, p. 1189-
1193, 16.fev.2001. MARTINS, Hermínio. 1996a. Hegel, Texas e outros ensaios em teoria social. Lisboa: Século XX.
220
MARTINS, Hermínio. 1996b. Technology, the risk society and post-history. In: Instituto Superior de Ciências Sociais e Políticas – 90 Anos: 1906-1996. Lisboa: ISCSP, 1996. p. 221-240.
MARTINS, Hermínio. 1998. Risco, incerteza e escatologia – reflexão sobre o experimentum
mundi tecnológico em curso (I). Episteme (dez.1997/jan.1998). Lisboa: Universidade Técnica de Lisboa. Ano 1 – n. 1. p. 99-121.
MARX, Jean. 2000. Interfering with gene expression. Science, v. 288, n. 5470, p. 1370-1372,
26.mai.2000. MARX, Karl; ENGELS, Friedrich. 1977. A ideologia alemã. São Paulo: Grijalbo. MARX, Karl Marx. 1978. Prefácio. Para a crítica da economia política. In: Manuscritos econômico-
filosóficos e outros textos escolhidos. São Paulo: Abril Cultural (Os Pensadores). MARX, Leo. 1994. The idea of “technology” and postmodern pessimism. In: SMITH, Merritt Roe;
MARX, Leo. (Eds.). Does technology drive history? The dilemma of technological determinism. Cambridge, MA: The MIT Press. p. 237-257.
MAYNARD SMITH, John. 2000. The Cheshire cat’s DNA. The New York Review of Books,
21.dez.2000, p. 43-46. McGUFFIN, Peter; RILEY, Brian; PLOMIN, Robert. 2001 Toward behavioral genomics. Science,
v. 291, n. 5507, p. 1232-1249, 16.fev.2001. McLUHAN, Marshall. 1962. The Gutenberg galaxy. The making of typographical man. Toronto:
University of Toronto Press. MENDELSOHN, Everett. 1994. The politics of pessimism: Science and technology circa 1968. In:
EZRAHI, Yaron; MENDELSOHN, Everett; e SEGAL, Howard. (Eds.) Technology, pessimism and postmodernism. Dordrecht, Holanda: Kluwer, 1994. p. 151-173
MOL, Arthur P.J. 1997. Ecological modernization: industrial transformation and environmental
reform. In: REDCLIFT, Michael; WOODGATE, Graham. (Eds.) The International handbook of environmental sociology. Cheltenham, Reino Unido: Edward Elgar. p. 138- 149.
MOORE, David S. 2002. The dependent gene: The fallacy of “nature vs. nurture”. Nova York:
Times Books. MORANGE, Michel. 2001. The misunderstood gene. Cambridge, Mass.: Harvard University
Press. Tradução de Matthew Cobb. MOSS, Lenny. 2001. Deconstructing the gene and reconstructing molecular developmental
systems. In: OYAMA, Susan; GRIFFITHS, Paul E.; GRAY, Russell D. (Eds.). Cycles of contingency. Developmental systems and evolution. Cambridge, Mass. (EUA): Bradford/The MIT Press. p. 85-97.
MOSS, Lenny. 2003. What genes can’t do. Cambridge, Massachusetts: Bradford/MIT Press. MUMFORD, Lewis. 1963. Technics and civilization. San Diego: Harvest.
221
NATURE. 2001. Human genomes, public and private. [Editorial] Nature, v. 409, n. 6822, p.
745,15.fev.2001. NELKIN, Dorothy. 1995a. Selling science. How the press covers science and technology. Nova
York: W.H. Freeman. NELKIN, Dorothy; LINDEE, Susan. 1995b. The DNA mystique. The gene as a cultural icon. Nova
York: W.H. Freeman. NEUMANN-HELD, Eva. 2001. Let’s talk about genes: the process molecular gene and its context.
In: OYAMA, Susan; GRIFFITHS, Paul E.; GRAY, Russell D. (Eds.). Cycles of contingency. Developmental systems and evolution. Cambridge, Mass. (EUA): Bradford/The MIT Press. p. 69-84.
NIGHTINGALE, Paul; MARTIN, Paul. The myth of the biotech revolution. Trends in Biotechnology, v. 22, n. 11, p. 564-569, nov.2004. [doi:10.1016/j.tibtech.2004.09.010] OLSON, Maynard V. 2001. Clone by clone by clone. Nature, v. 409, n. 6822, p. 816-
818,15.fev.2001. OTERO, Gerardo. 1995. The coming revolution of biotechnology: A critique of Buttel. In:
FRANSMAN, Martin; JUNNE, Gerd; ROOBEEK, Annemieke (Eds.). The biotechnology revolution? Oxford: Blackwell. p. 46-61.
OYAMA, Susan. 2000a. The ontogeny of information. Developmental systems and Evolution.
Durham, EUA: Duke University Press. OYAMA, Susan. 2000b. Evolution’s eye: A systems view of the biology-culture divide. Durham,
NC: Duke University Press. OYAMA, Susan; GRIFFITHS, Paul E.; GRAY, Russell D. (Eds.). 2001. Cycles ofcontingency.
Developmental systems and evolution. Cambridge, Mass. (EUA): Bradford/The MIT Press. PÄÄBO, Svante. 2001. The human genome and our view of ourselves. Science, v. 291, n. 5507, p.
11219-1220, 16.fev.2001. PELTONEN, Leena; McKUSICK, Victor A. 2001. Dissecting human disease in the postgenomic
era. 2001. Science, v. 291, n. 5507, p. 1224-1229, 16.fev.2001. PENNISI, Elizabeth. 2001a. The human genome. Science, v. 291, n. 5507, p. 1177-
1180,16.fev.2001. PENNISI, Elizabeth. 2001b. Behind the scenes of gene expression. Science, v. 293, n. 5532, p.
1064-1067, 10.ago.2001. PINKER, Steven. 2002. The blank slate. The modern denial of human nature. Londres:
Allen Lane/Penguin. PINTO-CORREIA, Clara. 1999. O ovário de Eva. A origem da vida. Tradução: Sonia Coutinho.
Rio de Janeiro: Campus.
222
POLLARD, Thomas D. 2001. Genomics, the cytoskeleton and motility. Nature, v. 409, n. 6822, p.
842-843, 15.fev.2001. PRIEST, Susanna H. 2000. US public opinion divided over biotechnology? Nature Biotechnology.
v. 18, n. 9, p. 939-942, set.2000. RABINOW, Paul. 1992. Artificiality and enlightenment: from sociobiology to biosociality. In:
CRARY, Jonathan; KWINTER, Sanford (Eds.). Incorporations – Zone. n. 6, Nova York. p. 234-252.
REDCLIFT, Michael; WOODGATE, Graham. (Eds.) 1997. The International handbook of
environmental sociology. Cheltenham, Reino Unido: Edward Elgar. RIBEIRO, Renato Janine. 2003. Novas fronteiras entre natureza e cultura. In: Adauto NOVAES
(Org.). O Homem-Máquina. São Paulo, Companhia das Letras. p. 15-36 RIDEOUT III, William M. et al. 2001. Nuclear cloning and epigenetic reprogramming of the
genome. Science, v. 293, n. 5532, p. 1093-1098, 10.ago.2001. RIFKIN, Jeremy. 1998. The biotech century. Harnessing the gene and remaking the world. Nova
York: Tarcher/Putnam. RIFKIN, Jeremy. 2001. The age of access. The new culture of hypercapitalism, where all life is a
paid-for experience. Nova York: Tarcher/Putnam. ROBERTS, Leslie. 2001. Controversial from the start. Science, v. 291, n. 5507, p. 1182-1188,
16.fev.2001. ROOBEEK, Annemieke J.M. 1995. Biotechnology: A core technology in a new techno-economic
paradigm. In: FRANSMAN, Martin; JUNNE, Gerd; ROOBEEK, Annemieke (Eds.). The biotechnology revolution? Oxford: Blackwell. p.62-84.
ROSA, Eugene A. 2000. Modern theories of society and the environment: The risk society. In:
SPAARGAREN, Gert; MOL, Arthur P.J.; BUTTEL, Frederick M. (Eds.) Environmental and global modernity. Londres: Sage.
ROSE, Steven. 1998. Lifelines: Biology beyond determinism. Nova York: Oxford University Press. ROSE, Hilary; ROSE, Steven (Eds.). 2000. Alas, poor Darwin: Arguments against evolutionary
psychology. Nova York: Harmony Books. RUBIN, Gerald M. et al. 2000. Comparative genomics of eukaryotes. Science,v. 287, n. 5461, p.
2204-2215, 24.mar.2000. RUBIN, Gerald M. 2001. Comparing species. Nature, v. 409, n. 6822, p. 820-821, 15.fev.2001. SANTOS, Laymert Garcia dos. 1998. Tecnologia, natureza e a ‘redescoberta’ do Brasil.
In: Hermetes Reis de ARAÚJO (Org.). Tecnociência e cultura. Ensaios sobre o tempo presente. São Paulo: Estação Liberdade. p. 23-46.
223
SANTOS, Laymert Garcia dos. 2000. Limites e rupturas na esfera da informação. São Paulo em Perspectiva. São Paulo, Fundação Seade, v. 14, n. 3, jul-set. (2000) p. 32-39.
SANTOS, Laymert Garcia dos. 2001a. A desordem da nova ordem. In: VIANA, Gilney; SILVA,
Marina; DINIZ, Nilo (orgs.). O desafio da sustentabilidade. Um debate socioambiental no Brasil. São Paulo: Editora Fundação Perseu Abramo. p. 27-41.
SANTOS, Laymert Garcia dos. 2001b. Informação, recursos genéticos e conhecimento tradicional
associado. In: AZEVEDO, Maria Cristina do Amaral; FURRIELA, Fernando Nabais. (Orgs.) Biodiversidade e propriedade intelectual. São Paulo: Secretaria do Meio Ambiente, pp. 33-49.
SANTOS, Laymert Garcia dos. 2003. Tecnologia, perda do humano e crise do sujeito de direito. In: Politizar as novas tecnologias. O impacto sócio-técnico da informaçõa digital e genética.
São Paulo: Editora 34. SANTOS, Laymert Garcia dos. 2005. Quando o conhecimento científico se torna predação high- tech: recursos genéticos e conhecimento tradicional no Brasil. In: SANTOS, Boaventura de Sousa. (Org.). Semear Outras Soluções. Os Caminhos da Biodiversidade e dos Conhecimento Rivais. Rio de Janeiro: Civilização Brasileira. pp. 125-165. SARKAR, Sahotra. 1999. Genetics and reductionism. Cambridge, Reino Unido: Cambridge
University Press. SCHRÖDINGER, Erwin. 1997. ¿Qué es la vida? Tradução: Ricardo Guerrero. Barcelona:
Tusquets. SIMONDON, Gilbert. 1992. The genesis of the individual. In: CRARY, Jonathan; WINTER,
Sanford (Eds.). Incorporations – Zone. n. 6, Nova York. p. 296-319. SMITH, Merritt Roe. 1994. Technological determinism in American culture. In: SMITH, Merritt
Roe; MARX, Leo. (Eds.). Does technology drive history? The dilemma of technological determinism. Cambridge, MA: The MIT Press. p. 1-35.
SMITH, Merritt Roe; MARX, Leo. (Eds.). 1994. Does technology drive history? The dilemma of
technological determinism. Cambridge, MA: The MIT Press. SPAARGAREN, Gert. 2000. Ecological modernization theory and the changing discourse on
environment and modernity. In: SPAARGAREN, Gert; MOL, Arthur P.J.; BUTTEL, Frederick M. (Eds.) Environmental and global modernity. Londres: Sage. p. 41-71.
SPAARGAREN, Gert; MOL, Arthur P.J.; BUTTEL, Frederick M. (Eds.) 2000. Environmental and
global modernity. Londres: Sage. STERELNY, Kim. 2001. Niche construction, developmental systems, and the extended replicator.
In: OYAMA, Susan; GRIFFITHS, Paul E.; GRAY, Russell D. (Eds.). Cycles of contingency. Developmental systems and evolution. Cambridge, Mass. (EUA): Bradford/The MIT Press. p. 331-349.
STEVENS, Raymond C. et al. 2001. Global efforts in structural genomics. Science, v. 294, n.5540,
p. 89-92, 5.out.2001.
224
STRAHL, Brian D.; ALLIS, C. David. 2000. The language of covalent histone modifications.
Nature, v. 403, n. 6765, p. 41-45, 6.jan.2000. STRATHERN, Marilyn. 1992. Reproducing the future. Essays on anthropology, kinship
and the new reproductive technologies. Nova York: Routledge. STRAUSBERG, Robert L.; RIGGINS, Gregory J. 2001. Navigating the human transcriptome.
Proceedings of the National Academy of Sciences, v. 98, n. 21, p. 11837-11838, (9.out.2001).
STROHMAN, Richard. 2002. Maneuvering in the complex path from genotype to phenotype. Science, v. 296, n. 5568, p. 701-703, 26.abr.2002. SURANI, M. Azim. 2001. Reprogramming of genome function through epigenetic inheritance.
Nature, v. 414, n. 6859, p. 122-128, 1.nov.2001. SURANI, M. Azim. 2002. Immaculate misconception. Nature, v. 416, n. 6880, p. 491-493,
4.abr.2002. SZATHMÁRY, Eörs; JORDÁN, Ferenc; PÁL, Csaba. 2001. Can genes explain biological complexity? Science, v. 292, n. 5520, p. 1315-1316, 18.mai.2001.
THE SEQUENCE of the human genome. Remarks by J. Craig Venter, Celera Genomics. 2001.
[Press release sobre a revista Science, v. 291, n. 5507, 16.fev.2001.] Disponível em <http://www.eurekalert.org/pub_jrnls/sci/public_releases/venter.html>.
TOOBY, John, e COSMIDES, Leda. 1992. The psychological foundations of culture. In:
Jerome H. BARKOW, Leda COSMIDES, John TOOBY (Orgs.). The adapted mind. Evolutionary psychology and the generation of culture. Nova York: Oxford University Press. p. 19-136.
TUMA, Rabiya S. 2002. Profile: Rudolf Jaenisch.. BioMedNet Conference Reporter, AACR 2002
(6.abr.2002). Disponível em <http://news.bmn.com/conferences/list/view?fileyear=2002&fileacronyn=AACR&fileday=day1&pagefile=profile_1.html>.
TUPLER, Rossella; PERINI, Giovanni; GREEN, Michael. 2001. Expressing the human
genome. 2001. Nature, v. 409, n. 6822, p. 832-833, 15.fev.2001. VENTER, J. Craig et al. 2001. The sequence of the human genome. Science, v. 291, n. 5507, p.
1304-1351, 16.fev.2001. VENTER, J. Craig et al. 2004. Environmental Genome Shotgun Sequencing of the Sargasso Sea.
Science, v. 304, n. 5667, p. 66-74, 02.abr.2004. VIVEIROS DE CASTRO, Eduardo. 2002. A inconstância da alma selvagem. E outros
ensaios de antropologia. São Paulo: Cosac & Naify. VOGEL, Gretchen. 2001. Watching genes build a body. Science, v. 291, n. 5507, p. 1181,
16.fev.2001.
225
WATSON, James D.; CRICK, Francis H.C. 1953. A structure for deoxyribose nucleic acid.
Nature. v. 171, n. 4356, p. 737-738, 25.abr.1953. WATSON, James D. 2000. A passion for DNA. Cold Spring Harbor, NY: CSHL Press. WATSON, James D., e BERRY, Andrew. 2003. DNA. The secret of life. Nova York: Alfred Knopf. WILLIAMS, Rosalynd. 1994. The political and feminist dimensions of technological determinism.
In: SMITH, Merritt Roe; MARX, Leo. (Eds.). Does technology drive history? The dilemma of technological determinism. Cambridge, MA: The MIT Press. p. 217-235.
WILSON, Edward O. 1978. On human nature. Cambridge, Mass.: Harvard University Press. WILSON, Edward O. 1999. A unidade do conhecimento. Consiliência. Rio de Janeiro: Campus.
Tradução de Ivo Korylowski. WILSON, Edward O. 2000. Sociobiology. The new synthesis. Cambridge, Mass.:
Belknap/Harvard (25th anniversary ed.). WOLFFE, Alan P.; MATZKE, Marjori A. 1999. Epigenetics: Regulation through repression.
Science, v. 286, n. 5439, p. 481-486, 15.out.1999. WRIGHT, F.A. et al. 2001. A draft annotation and overview of the human genome. Genome
Biology, n. 7, v. 2, p. 1-18. Disponível em <http://genomebiology.com/2001/2/3/preprint/0001/>.
ZHANG, Jianzhi; ROSENBERG, Helene F. 2002. Complementary advantageous substitutions in
the evolution of an antiviral Rnase of higher primates. PNAS, v. 99, n. 8, p. 5486-5491, 16.abr.2002.
ZIZEK, Slavoj. 2003. Science: cognitivism with Freud. In: Organs without bodies. Nova
York: Routledge. p. 111-147. ZWEIGER, Gary. 2001. Transducing the genome. Information, anarchy, and revolution in the
biomedical sciences. Nova York: McGraw-Hill.
Recommended