quinta-feira, 16 de outubro de 2014

Esse mundo já era - Como viver no Antropoceno - Mil Nomes de Gaia


Esse mundo já era

Como viver no Antropoceno


por Bernardo Esteves
Fonte: http://revistapiaui.estadao.com.br/edicao-97/despedida/esse-mundo-ja-era
---
Podcast: Numa conversa com Paula Scarpin, Bernardo Esteves conta o que os cientistas sociais têm a dizer sobre o aquecimento global, e explica por que estamos nos despedindo do Holoceno.
http://revistapiaui.estadao.com.br/so-no-site/podcasts/ouvir/esse-mundo-ja-era
---


Numa sexta-feira de agosto, foram abertas as inscrições para Os Mil Nomes de Gaia, colóquio que reuniria no Rio de Janeiro pensadores de vários países que vêm refletindo sobre a mudança do clima e a crise ambiental global. Atraído pelas estrelas acadêmicas de primeira grandeza, o público esgotou em cerca de uma hora e meia os ingressos para cada um dos cinco dias de programação.
Realizado na terceira semana de setembro, na Casa de Rui Barbosa, em Botafogo, o evento também teve transmissão pela web. Foi concebido pelo antropólogo Eduardo Viveiros de Castro, do Museu Nacional da UFRJ, pela filósofa Déborah Danowski, da PUC do Rio, e pelo antropólogo francês Bruno Latour, do Instituto de Estudos Políticos de Paris, ou Sciences-Po.
Na semana do colóquio, a NOAA, agência federal americana que monitora os oceanos e a atmosfera, anunciou que a temperatura média da superfície do planeta registrada em agosto foi a mais alta para esse mês desde 1880, quando as medições começaram a ser feitas de modo sistemático. A continuar nesse ritmo, 2014 pode se tornar o ano mais quente já documentado, na contramão da suposta estagnação do aquecimento global alardeada pelos céticos do clima.
O aquecimento da Terra, a faceta mais falada da crise ambiental, integra um quadro de ameaças não menos perturbadoras, como a acidificação dos oceanos ou a perda acelerada da biodiversidade e da cobertura vegetal, todos eles processos interligados. A riqueza de detalhes com que a catástrofe vem sendo descrita contrasta com a inércia de governos, empresas e sociedades civis – um relatório divulgado em setembro mostrou que em 2013 as emissões de gases do efeito estufa aumentaram 2,3% em relação ao ano anterior.

No ano 2000, o biólogo americano Eugene Stoermer e o químico holandês Paul Crutzen, prêmio Nobel em 1995, propuseram que se alterasse a linha do tempo com que os cientistas medem os éons, épocas e períodos geológicos, de modo a refletir as transformações no planeta causadas pelas atividades do homem. Segundo eles, as marcas da ação humana continuarão visíveis por milênios, gravadas nas camadas geológicas da Terra. Paleontólogos de um futuro longínquo – ou mesmo de outra civilização, caso a nossa venha a ser dizimada – provavelmente saberão identificar a alteração brusca na composição da atmosfera e as demais mudanças ambientais que provocamos, por meio dos fósseis de incontáveis espécies extintas, rejeitos radioativos, toneladas de plástico e outros rastros da nossa passagem devastadora pelo globo.
A essa época em que nossa espécie se tornou uma força geológica, Stoermer e Crutzen sugeriram dar o nome Antropoceno. Numa aula recente, Viveiros de Castro explicou que o conceito marca um colapso de escalas – a história do planeta e a da espécie humana, antes nas mãos de disciplinas distintas, agora se confundem. “O capitalismo passa a ser um episódio da paleontologia.”
Desde que foi proposto, o termo Antropoceno vem sendo apropriado por especialistas de várias disciplinas. No entanto, a União Internacional de Ciências Geológicas, guardiã da escala do tempo, ainda não o adotou oficialmente. A ideia esteve na pauta do último congresso da entidade, em 2012, quando uma comissão discutiu se o sinal da presença humana nas camadas geológicas é forte e distinto o bastante para justificar a formalização de uma nova época. Discussão inconclusiva, decisão adiada para o congresso de 2016: até lá, continuamos vivendo no Holoceno, iniciado há 12 mil anos, ao final da última glaciação.
Não há consenso sobre quando teria começado o Antropoceno. Crutzen vê sua origem na invenção da máquina a vapor em 1784, marco da Revolução Industrial, mas há quem prefira situá-la no início da agricultura, na era dos grandes descobrimentos ou no início da era nuclear – cada recorte com suas implicações políticas. O nome da nova época também é motivo de discórdia. Ao atribuir a transformação planetária ao anthropos, o termo Antropoceno joga a culpa sobre toda a espécie, embora uns sejam mais responsáveis do que outros. O sociólogo Jason Moore propôs o nome Capitaloceno, enfatizando o modo de produção responsável pelas mudanças globais. “Essa opção focaliza as causas mais que as consequências, mas perde de vista o fato de que é possível sair do capitalismo, mas não do Antropoceno”, ponderou Viveiros de Castro. “Quando o capitalismo acabar, o planeta vai continuar registrando, por muito tempo, os efeitos da Revolução Industrial e da emissão de gás carbônico.”

Odia da palestra de Bruno Latour – o nome de maior projeção dentre os convidados do colóquio – foi o primeiro a ter as entradas esgotadas. Nascido na Borgonha há 67 anos, Latour se formou em filosofia e atuou como sociólogo e antropólogo das ciências. Nas últimas quatro décadas, tem proposto uma nova forma de enxergar a produção do conhecimento científico, rejeitando noções como o excepcionalismo humano ou o dualismo entre natureza e sociedade, e entre sujeito e objeto. Conquistou uma legião de seguidores em várias disciplinas, mas também alguns críticos. No ano passado, recebeu o prêmio Holberg, citado em seu currículo como “o equivalente mais próximo do Nobel para as humanidades e ciências sociais”. Criado em 2003 pelo governo norueguês, o prêmio já foi concedido a nomes como Jürgen Habermas e Manuel Castells.
Latour usa óculos de armação grossa e tem os cabelos pretos repartidos de lado, contrastando com o grisalho das fartas sobrancelhas e do cavanhaque. Durante um almoço na semana do evento, ele contou que seu interesse pela crise ecológica começou nos anos 90, quando orientou doutorados sobre controvérsias ambientais, fez um estudo para o Ministério do Meio Ambiente e escreveu Políticas da Natureza. “Mas foi por volta de 2005 que passei a me interessar por Gaia, incorporando o termo como figura da atualidade.”
O químico James Lovelock se inspirou em Gaia – deusa mãe da mitologia grega que personifica a Terra – para batizar a hipótese que descreve o planeta como um sistema complexo autorregulável, com comportamento semelhante ao de um organismo vivo. Sua proposta, formulada nos anos 70, projetou a imagem de Gaia, que fez sucesso na cultura pop e entre alguns cientistas, mas nem todos compraram a ideia. Junto com outros colegas, Latour vem redefinindo o conceito em livros, artigos e conferências. Na abertura do colóquio, o francês alertou para o risco de um pensamento holístico que despreze a multiplicidade de Gaia. “Se a tratarmos como uma totalidade, ela será apenas uma possibilidade de recarregar as formas de modernismo que se esgotaram justamente por causa da crise ecológica.”
Em suas últimas publicações e conferências, Latour tem mostrado como a crise ambiental é marcada por um novo tipo de controvérsia, cuja resolução já não pode ser arbitrada pela ciência. “É fácil entender por que as pessoas não correm para depositar confiança nos resultados dos cientistas”, considerou o francês. “Eles anunciam fatos que estão tão bem estabelecidos quanto os fatos mais bem estabelecidos da história das ciências, mas pedem que você mude sua vida.”
Para Latour, a crise põe em xeque as distinções tradicionais entre fatos e valores, forjadas num mundo em que a ciência cuida dos objetos, e a política, dos sujeitos. Mas não há como fazer ciência desinteressada no mundo de Gaia. Latour notou que afirmar que a água ferve a 100 graus centígrados é uma coisa; constatar que a concentração atmosférica de gás carbônico chegou a 400 partes por milhão, como aconteceu em 2013, é outra bem distinta. “Nenhum climatologista pode ouvir essa frase e passar a outro tópico”, ele lembrou. “A constatação soa como uma sirene ensurdecedora.”
E, no caso dele próprio, a gravidade de suas reflexões não o impele à ação? “Sempre desconfiei dos intelectuais engajados”, respondeu Latour, que acredita ser mais útil fazendo o que faz – dando aula, mobilizando estudantes e propondo a discussão pública do tema. E, desde 2010, fazendo teatro, que lhe oferece um meio mais flexível para intervir no debate sobre a mudança climática. Seu projeto Gaïa Global Circus já deu origem a duas peças, uma das quais coescrita por ele próprio. Do Rio, o francês embarcou para Nova York, onde armaria o Circo de Gaia na semana em que a cidade recebeu a Cúpula do Clima da onu e a Marcha do Povo pelo Clima, a maior manifestação já feita em torno da causa, com 300 mil pessoas.
Latour condenou o desdém de alguns colegas pelo tema ambiental. “Na França e no Brasil, a questão continua a despertar um sorriso nos intelectuais que, uma vez que leram Foucault e Deleuze e foram vagamente de esquerda, pensam já ter feito seu trabalho para o resto da existência”, disse o francês. “Chamo a isso de quietismo ambiental. No fundo, creio que eles estejam mais próximos dos céticos.”

Aideia de reunir pensadores que refletem sobre a crise ambiental surgiu em 2012, na casa de Eduardo Viveiros de Castro e Déborah Danowski em Teresópolis, numa conversa com Bruno Latour e sua mulher, Chloé. O antropólogo brasileiro pretendia estimular um debate que ainda é tímido entre seus colegas. “No Brasil, é muito pequena a reflexão das ciências humanas e sociais sobre as mudanças climáticas”, disse. “Essa discussão está pegando fogo no mundo todo, mas a ficha não caiu aqui.”
Ao lado de Déborah, Viveiros de Castro tem tratado do tema em suas intervenções públicas, seja em conferências, seja nas redes sociais. Na semana do colóquio, lançaram Há Mundo por Vir? Ensaio Sobre os Medos e os Fins – um livro que Latour recomenda ler “como se toma uma ducha gelada”, para nos prepararmos para o pior.
Na abertura do colóquio, o antropólogo brasileiro lamentou que o tema do aquecimento global estivesse ausente da imprensa e da agenda eleitoral. Assinalou também uma coincidência irônica: na mesma semana, o Rio de Janeiro sediava outro evento internacional, a Rio Oil & Gas 2014, uma feira da indústria petrolífera que tinha entre os patrocinadores Petrobras, Shell, Total, Statoil, ExxonMobil e outros gigantes do setor que mais emite gases-estufa. O evento recebeu dezenas de milhares de participantes em seus quatro dias, inclusive o vice-presidente Michel Temer, em campanha para a reeleição. “É eloquente o fato de estarmos dividindo o espaço do Rio de Janeiro com os grandes responsáveis por boa parte da crise climática mundial”, disse Viveiros de Castro.
Em sua conferência, sublinhou a importância de o aquecimento global ser discutido pelas humanidades. “Sabemos muito bem o que está acontecendo e quem é o responsável, o que não sabemos é o que fazer e como, e isso está inteiramente fora das competências dos cientistas do clima”, disse. Viveiros de Castro ironizou a proposta que o biólogo americano Edward Wilson fizera semanas antes, de reservar metade do planeta para os organismos não humanos. “Ele não diz exatamente onde vai ficar essa metade, e nem em qual metade ficarão os Estados Unidos”, disse, arrancando risos. “É a típica ideia de jerico de um cientista natural americano. Por isso nós, cientistas antinaturais, precisamos entrar no jogo.”
O time escalado para o colóquio contou sobretudo com filósofos, historiadores e cientistas sociais, mas também incluiu pesquisadores das ciências naturais, como o físico Alexandre Costa, professor da Universidade Estadual do Ceará e editor do blog O que Você Faria Se Soubesse o que Eu Sei? Costa disse que não estava ali para dar boas notícias. Projetou slides que ilustravam o ritmo inaudito do aquecimento do sistema climático, o crescimento da forçante radiativa e o risco da emissão na atmosfera de uma quantidade assombrosa de metano estocada nopermafrost ártico. “A besta climática está acordando”, resumiu.
Quando o microfone foi aberto ao público, uma senhora se disse bouleversée, em sintonia com o espírito algo francófilo que permeava o encontro. Sua ficha acabara de cair. “Estou extremamente chocada. Queria fazer uma pergunta ao Alexandre e a todos que detêm esse tipo de conhecimento: Você tem filhos? Como consegue dormir e ser feliz todos os dias?” Costa sacou da mala duas caixas de remédio e agitou-as no ar: “Como eu consigo levar adiante?”, perguntou à plateia. “Jogando dopado!”
Numa conversa no dia seguinte, o físico afirmou que gostaria de provocar reações como aquela em todo mundo. Mas, além da preocupação, ele deseja mobilização. “Uma década atrás precisávamos da esperança das pessoas; hoje queremos o desespero.”

Outro nome estrelado do colóquio foi a belga Isabelle Stengers, uma química convertida em filósofa da ciência que é autora ou coautora de mais de vinte livros e professora da Universidade Livre de Bruxelas desde 1997. Em 2009, lançou No Tempo das Catástrofes: Resistir à Barbárie que Vem Aí, uma reflexão sobre a crise ecológica sem edição em português. Propôs ali a imagem da “intrusão de Gaia” para caracterizar a irrupção irreversível do planeta no primeiro plano de nossas vidas, chamando a atenção dos colegas para o conceito de Lovelock.
Nascida em 1949, Stengers é uma senhora de olhar vivo e fala envolvente. Numa entrevista no último dia do colóquio, ela falou sobre a situação inédita com que se deparam as ciências naturais. “Os cientistas do clima precisam de apoio. Eles devem desconfiar de seus aliados tradicionais – as empresas e o Estado –, que podem se apropriar completamente do problema com consequências catastróficas.” Para a pensadora belga, o momento é de cooperação. “As ciências humanas podem lhes dar a imaginação que a sua formação não lhes deu sobre as consequências que não lhes são familiares”, afirmou. “Se eles puderem povoar sua imaginação, talvez fiquem menos vulneráveis.”
Escalada para a conferência de encerramento, Stengers fez um balanço das discussões travadas durante a semana. Em tom grave, observou que no futuro talvez sejamos confrontados por questionamentos similares aos dos jovens alemães nascidos no pós-guerra, quando descobriram os horrores do Holocausto: “Vocês sabiam, e o que fizeram?” Ela se disse hesitante entre o pesadelo e a vergonha. “Daqui a trinta ou quarenta anos seremos a geração mais odiada.”

quinta-feira, 9 de outubro de 2014

Neil deGrasse Tyson X Philosophy of Science

Neil deGrasse Tyson and the value of philosophy

Fonte: http://scientiasalon.wordpress.com/2014/05/12/neil-degrasse-tyson-and-the-value-of-philosophy/
1-12-14-Neil-deGrasse-Tyson-inside-alternate-ftr





It seems like my friend Neil deGrasse Tyson [1] has done it again: he has dismissed philosophy as a useless enterprise, and actually advised bright students to stay away from it. It is not the first time Neil has done this sort of thing, and he is far from being the only scientist to do so. But in his case the offense is particularly egregious, for two reasons: first, because he is a highly visible science communicator; second, because I told him not to, several times.
Let’s start with the latest episode, work our way back to a few others of the same kind (to establish that this is a pattern, not an unfortunate fluke), and then carefully tackle exactly where Neil and a number of his colleagues go wrong. But before any of that, let me try to halt the obvious objection to this entire essay in its tracks: no, this isn’t about defending “my” turf, for the simple reason that both philosophy and science are my turf [2]. I have practiced both disciplines as a scholar/researcher, I have taught introductory and graduate level classes in both fields, and I have written books about them both. So, while what follows inevitably will unfold as a defense of philosophy (yet again! [3]), it is a principled defense, not a petty one, and it most certainly doesn’t come from any kind of science envy.
Neil made his latest disparaging remarks about philosophy as a guest on the Nerdist podcast [4], following a statement by one of the hosts, who said that he majored in philosophy. Neil’s comeback was: “That can really mess you up.” The host then added: “I always felt like maybe there was a little too much question asking in philosophy [of science]?” And here is the rest of the pertinent dialogue:
dGT: I agree.
interviewer: At a certain point it’s just futile.
dGT: Yeah, yeah, exactly, exactly. My concern here is that the philosophers believe they are actually asking deep questions about nature. And to the scientist it’s, what are you doing? Why are you concerning yourself with the meaning of meaning?
(another) interviewer: I think a healthy balance of both is good.
dGT: Well, I’m still worried even about a healthy balance. Yeah, if you are distracted by your questions so that you can’t move forward, you are not being a productive contributor to our understanding of the natural world. And so the scientist knows when the question “what is the sound of one hand clapping?” is a pointless delay in our progress.
[insert predictable joke by one interviewer, imitating the clapping of one hand]
dGT: How do you define clapping? All of a sudden it devolves into a discussion of the definition of words. And I’d rather keep the conversation about ideas. And when you do that don’t derail yourself on questions that you think are important because philosophy class tells you this. The scientist says look, I got all this world of unknown out there, I’m moving on, I’m leaving you behind. You can’t even cross the street because you are distracted by what you are sure are deep questions you’ve asked yourself. I don’t have the time for that. [Note to the reader: I, like Neil, live and work in Manhattan, and I can assure you that I am quite adept at crossing the perilous streets of the metropolis.]
interviewer [not one to put too fine a point on things, apparently]: I also felt that it was a fat load of crap, as one could define what crap is and the essential qualities that make up crap: how you grade a philosophy paper? [5]
dGT [laughing]: Of course I think we all agree you turned out okay.
interviewer: Philosophy was a good Major for comedy, I think, because it does get you to ask a lot of ridiculous questions about things.
dGT: No, you need people to laugh at your ridiculous questions.
interviewers: It’s a bottomless pit. It just becomes nihilism.
dGT: nihilism is a kind of philosophy.
The latter was pretty much the only correct observation about philosophy in the whole dialogue, as far as I can tell.
As I mentioned above, this isn’t the first time Neil has said things like this. For instance, during the q&a with the audience following one of his many (and highly enjoyable) public appearances [6], he was asked by a spectator: “would you rather die now or live forever?” To which his somewhat condescending reply was: “I never believe that the options available to a creative person are ever limited by the choices offered by a philosopher.” Which may be a very sophistic way of just not answering the question.
There is more: during a conversation with Richard Dawkins (another frequent offender), Neil was asked a question from the audience about philosophy of science and Stephen Hawkins’ declaration that philosophy is dead [7].
Here is Neil’s reply, in full:
“Up until early 20th century philosophers had material contributions to make to the physical sciences. Pretty much after quantum mechanics, remember the philosopher is the would be scientist but without a laboratory, right? And so what happens is, the 1920s come in, we learn about the expanding universe in the same decade as we learn about quantum physics, each of which falls so far out of what you can deduce from your armchair that the whole community of philosophers that previously had added materially to the thinking of the physical scientists was rendered essentially obsolete, and that point, and I have yet to see a contribution — this will get me in trouble with all manner of philosophers — but call me later and correct me if you think I’ve missed somebody here. But, philosophy has basically parted ways from the frontier of the physical sciences, when there was a day when they were one and the same. Isaac Newton was a natural philosopher, the word physicist didn’t even exist in any important way back then. So, I’m disappointed because there is a lot of brainpower there, that might have otherwise contributed mightily, but today simply does not. It’s not that there can’t be other philosophical subjects, there is religious philosophy, and ethical philosophy, and political philosophy, plenty of stuff for the philosophers to do, but the frontier of the physical sciences does not appear to be among them.”
Well, Neil, consider this your follow-up call, just as you requested. Not that you didn’t get several of those before. For instance, even fellow scientist and often philosophy-skeptic Jerry Coyne pointed out that you “blew it big time” [8] when you disinvited philosopher David Albert from an event you had organized at the American Museum of Natural History, and that originally included a discussion between Albert and physicist Lawrence Krauss (yet another frequent philosophy naysayer [9]). Moreover, when you so graciously came to the book launch for my Answers for Aristotle a couple of years ago, you spent most of the evening chatting with a number of graduate students from CUNY’s philosophy program, and they tried really hard to explain to you how philosophy works and why you had a number of misconceptions about it. To no avail, apparently.
So here we are again, time to set you straight once more. This, of course, is not just because I like you and because I think it is in general the right thing to do. It is mostly, frankly, because someone who regularly appears on The Daily Show and the Colbert Report, and has had the privilege of remaking Carl Sagan’s iconic Cosmos series — in short someone who is a public intellectual and advocate for science — really ought to do better than to take what amounts to anti-intellectual (and illiterate) positions about another field of scholarship. And I say this in all friendship, truly.
Since I’m sure this sort of accident will happen again in the future (whether at your hand or someone else’s), I figured I’d present my case as I would in a classroom, as a series of bullet points to keep handy any time someone  asks you again to comment about philosophy. So here we go:
  • Contra popular perception, philosophy makes progress, though it does so in a different sense from progress in science. You can think of philosophy as an exploration of conceptual, as opposed to empirical, space, concerning all sorts of questions ranging from ethics to politics, from epistemology to the nature of science. Imagine a highly dimensional landscape of ways of thinking about a given question (such as: do scientific theories describe the world as it is, or should we think of them rather as simply being empirically adequate? [10]). The philosopher explores that landscape by constructing arguments, entertaining counter-arguments, and either discarding or refining a certain view. The process does not usually lead to one final answer (though it does eliminate a number of bad ones), because conceptual space is much broader than its empirical counterpart, which means that there may be more than one good way of looking at a particular question (but, again, also a number of bad ways). Progress, then, consists in identifying and “climbing” these peaks in c-space. If you’d like, I’ll send you the draft of a book I’m finishing for Chicago Press that expands on this way of looking at philosophy, provides a number of specific examples, and compares and differentiates progress in philosophy from progress in a number of allied disciplines, including science, mathematics and logic.
  • Another popular myth is that philosophy keeps dwelling on the same questions, the implication being that, again, it doesn’t settle anything and consequently cannot move on to something else. But if “the same questions” are defined broadly enough, we can raise the very same criticism about science itself. I mean, your own profession of cosmology has been dwelling on “the same question” (the origin and evolution of the universe) since the pre-Socratic atomists (philosophers, by the way). And my discipline of biology has been concerned with the nature of adaptation since Aristotle’s (another philosopher!) articulation of his four fundamental causes. I’m not being flippant here, truly. Of course there are plenty of more specific sub-questions in cosmology (or evolutionary biology), some of which have indeed been settled; and of course we have made tremendous progress on the broader picture as well (usually, by settling some of the sub-questions). But the same — at a different scale and within a different time frame — can be said of philosophy, or mathematics, or logic.
  • You and a number of your colleagues keep asking what philosophy (of science, in particular) has done for science, lately. There are two answers here: first, much philosophy of science is simply not concerned with advancing science, which means that it is a category mistake (a useful philosophical concept [11]) to ask why it didn’t. The main objective of philosophy of science is to understand how science works and, when it fails to work (which it does, occasionally), why this was the case. It is epistemology applied to the scientific enterprise. And philosophy is not the only discipline that engages in studying the workings of science: so do history and sociology of science, and yet I never heard you dismiss those fields on the grounds that they haven’t discovered the Higgs boson. Second, I suggest you actually look up some technical papers in philosophy of science [12] to see how a number of philosophers, scientists and mathematicians actually do collaborate to elucidate the conceptual and theoretical aspects of research on everything from evolutionary theory and species concepts to interpretations of quantum mechanics and the structure of superstring theory. Those papers, I maintain, do constitute a positive contribution of philosophy to the progress of science — at least if by science you mean an enterprise deeply rooted in the articulation of theory and its relationship with empirical evidence.
  • A common refrain I’ve heard from you (see direct quotes above) and others, is that scientific progress cannot be achieved by “mere armchair speculation.” And yet we give a whole category of Nobels to theoretical physicists, who use the deductive power of mathematics (yes, of course, informed by previously available empirical evidence) to do just that. Or — even better — take mathematics itself, a splendid example of how having one’s butt firmly planted on a chair (and nowhere near any laboratory) produces both interesting intellectual artifacts in their own rightand an immense amount of very practical aid to science. No, I’m not saying that philosophy is just like mathematics or theoretical physics. I’m saying that one needs to do better than dismiss a field of inquiry on the grounds that it is not wedded to a laboratory setting, or that its practitioners like comfortable chairs.
  • Finally, Neil, please have some respect for your mother. I don’t mean your biological one (though that too, of course!), I am referring to the intellectual mother of all science, i.e., philosophy. As you yourself seem to have a dim perception of (see your example of Newton), one of the roles of philosophy over the past two and half millennia has been to prepare the ground for the birth and eventual intellectual independence of a number of scientific disciplines. But contra what you seem to think, this hasn’t stopped with the Scientific Revolution, or with the advent of quantum mechanics. Physics became independent with Galileo and Newton (so much so that the latter actually inspired David Hume and Immanuel Kant to do something akin to natural philosophizing in ethics and metaphysics); biology awaited Darwin (whose mentor, William Whewell, was a prominent philosopher, and the guy who coined the term “scientist,” in analogy to artist, of all things); psychology spun out of its philosophical cocoon thanks to William James, as recently (by the standards of the history of philosophy) as the late 19th century. Linguistics followed through a few decades later (ask Chomsky); and cognitive science is still deeply entwined with philosophy of mind (see any book by Daniel Dennett). Do you see a pattern of, ahem, progress there? And the story doesn’t end with the newly gained independence of a given field of empirical research. As soon as physics, biology, psychology, linguistics and cognitive science came into their own, philosophers turned to the analysis (and sometimes even criticism) of those same fields seen from the outside: hence the astounding growth during the last century of so called “philosophies of”: of physics (and, more specifically, even of quantum physics), of biology (particularly of evolutionary biology), of psychology, of language, and of mind.
I hope you can see, dear Neil, that it isn’t just that there are more things in heaven and earth than are dreamt of in our philosophy, but also that there is more active, vigorous, interesting, and intellectually respectable philosophy to be explored than you and some of your colleagues have been able to dream of so far. Please, keep that in mind the next time someone asks you about it. Or ask them to give me a call.
Postscript: I sent a preview of this essay to Neil, and a frank, civil email exchange has followed it over the past few days. However, I’m afraid neither one of us has really conceded an inch to the other’s position. We’ll see if we can do better in person over a couple of drinks.
As for a possible reply from Neil, I have, of course, invited him to submit one. Here is his reply, verbatim: “I generally reply to things if, and only if, they are writing about something that I judge to be untrue about me, or that they have misunderstood about what I have said. Neither is the case with you.”
_____
Massimo Pigliucci is a biologist and philosopher at the City University of New York. His main interests are in the philosophy of science and pseudoscience. He is the editor-in-chief of Scientia Salon, and his latest book (co-edited with Maarten Boudry) is Philosophy of Pseudoscience: Reconsidering the Demarcation Problem (Chicago Press).
[1] Whom I interviewed twice for the Rationally Speaking podcast: once on the value of space exploration, the second time on the meaning of atheism.
[2] For a rundown of my dual academic career, go to PlatoFootnote.org.
[3] See the wonderful book by one of Scientia Salon contributors, Rebecca Goldstein: Plato at the Googleplex: Why Philosophy Won’t Go Away.
[4] The relevant bits start at 20’ 19” into the show.
[5] Speaking of philosophy and crap, please do yourself a favor and read the wonderful On Bullshit, by (philosopher) Harry G. Frankfurt.
[6] Here is the clip.
[7] Starts at 1hr 2’ 46” or thereabouts.
[8] Jerry Coyne on Neil deGrasse Tyson.
[9] On Krauss, also a Rationally Speaking podcast guest, see twoessays I wrote for the Rationally Speaking blog.
[10] This is known as the realism-antirealism debate in philosophy of science. A good introduction can be found at the Stanford Encyclopedia of Philosophy.
[11] On the idea of category mistakes.
[12] Excellent sources include the journals Philosophy of Science, published by Chicago Press, and The British Journal for the Philosophy of Science, published by Oxford. I’m willing to bet one of your favorite drinks, hot chocolate with double whipped cream, that you’ve never actually perused either one of them. If I win, you buy me a dirty martini.

domingo, 21 de setembro de 2014

Epistemologia: Noções introdutórias

Epistemologia: Noções introdutórias
Silvio Seno Chibeni
Departamento de Filosofia - IFCH – Unicamp

epistemolgia é o estudo ou ciência do conhecimento. Dois dos grandes problemas da epistemologia são o das origens e fundamentação do conhecimento (quais os processos pelos quais o adquirimos, em que ele se fundamenta) e o dos seus limites, ou  extensão (quais as coisas que podem, em  princípio, ser conhecidas e quais as que não podem). Ao longo da história da filosofia, esses dois problemas epistemológicos quase nunca foram tratados separadamente, já que há conexões entre eles. Porém, para fins de análise a distinção é útil, e podemos classificar as doutrinas epistemológicas em dois grupos principais, conforme se ocupem de um ou de outro desses problemas.
No caso do problema das origens e fundamentação do conhecimento, há essencialmente duas posições antagônicas:
i) Empirismo.  Sustenta que o conhecimento se baseia e se adquire  através do que se apreende pelos sentidos. Admite-se, além dos sentidos “externos” (visão, audição, tato, olfato e paladar) a parti­cipação de um sentido “interno” (introspecção), que nos informa acerca de nossos sentimentos, estados de consciência e memória. Como quase toda doutrina filosófica, o empirismo encontra raízes na Grécia Antiga; ganhou novo ímpeto com a revolução científica do século 17, e seus principais defensores no período moderno foram Locke, Berkeley e Hume.
ii) Racionalismo. Mantém que as fontes do verda­deiro conhecimento encontram-se não na experiência, mas na razão. Como no caso do empirismo, também essa doutrina já era defendida entre os gregos; na era moderna, seus principais expoentes foram Descartes e Leibniz.
Naturalmente, é possível manter-se uma posição empirista acerca de determinado tipo de conhecimento e racionalista acerca de outro. De fato, é freqüente, por exemplo, que empiristas com relação ao conheci­mento do mundo físico sejam racionalistas com relação ao conhecimento matemático. E mesmo dentro de uma mesma área, é cabível sustentar-se posições diferentes quanto à origem do conhecimento, dependendo do tipo de proposição envolvida. Esse é o caso da teoria epistemológica de Kant; segundo ela, nosso conhecimento da física é parcialmente a priori (como no caso das leis de Newton) e parcialmente empírico, ou a posteriori (a lei de Boyle, por exemplo).
Não iremos aqui discutir e avaliar, ou mesmo apre­sentar de forma sistemática, as múltiplas variantes dessas doutrinas epistemológicas sobre a origem do conhecimento. Notemos apenas que, como resultado das profundas transformações sofridas pela física em nosso século (que, entre outras conseqüências, levaram à descrença na verdade universal das leis da dinâmica newtoniana, e à adoção de geometrias não-euclideanas), o racionalismo com relação ao conhecimento do mundo físico aparentemente perdeu muito de sua plausibilidade.
Passemos agora à questão dos limites do conhecimento. Aqui, a oposição principal se dá entre a doutrina epistemológica do realismo e uma série de doutrinas com nomes diversos, ditas genericamente anti-realistas.
Poucos conceitos filosóficos têm recebido caracterizações tão di­versas quanto o de realismo. Em um sentido amplo, o termo realismo denota uma determinada posição filosófica acerca de certas classes de objetos, ou de proposições sobre esses objetos. Consideram-se, por exemplo, os objetos matemáticos, os universais, os objetos materiais ordinários, as entidades não-observáveis postuladas pelas teorias científicas, etc.
 Em uma formulação puramente metafísica, o realismo sobre os objetos de uma dessas classes se caracteriza pela afirmação de que os objetos em questão “realmente existem”, ou “desfrutam de uma existência independente de qualquer cognição”, ou “estão entre os constituintes últimos do mundo real”. Pode-se pois ser realista com relação a uma classe ou classes de objetos e anti-realista com relação a outras. Outros filósofos preferem (por razões que não examinaremos aqui) formular o realismo em termos epistemológicos, dizendo, por exemplo, que por realismo se deve entender a doutrina segundo a qual as proposições sobre os objetos da classe em disputa possuem um valor de verdade objetivo, independente de nossos meios para conhecê-lo: são verdadeiras ou falsas em virtude de uma realidade que existe independentemente de nós.
As posições anti-realistas por vezes recebem nomes especiais, de acordo com a classe de objetos em questão. Assim, o anti-realismo com relação às entidades matemáticas é conhecido por construtivismo; com relação aos objetos materiais ordinários por fenomenalismo; com rela­ção aos universais por nominalismo. O anti-realismo científico questiona a possibilidade do conhecimento das entidades e processos inobserváveis postulados pelas teorias científicas; recebe várias denominações, dependendo de como a tese do realismo científico é negada: instrumentalismo, redutivismo, empirismo construtivo, relativismo, etc.

quinta-feira, 11 de setembro de 2014

Doenças mentais surgem Epigeneticamente – como todas as demais



Uma nova biologia vem se impondo na era pós-genômica com a frustração do Projeto Genoma Humano, que supunha que mapear todos os genes de nossa espécie equivaleria a decifrar os segredos de nossa vida e morte. Entendeu-se que o problema é muito mais complicado; entendeu-se que os genes estão conectados a outros mecanismos além dos genéticos; alguns e dão “acima” (epi) do genético. Essa é  uma história antiga no pensamento humano. O que causa as doenças? Causas internas? Causas externas? O ambiente é importante? Ou a herança é mais importante? Estas perguntas são profundas porque refletem o que entendemos do mundo, dos processos que resultam na saúde e na doença, gerando o tipo de tratamento que é dispensado às populações de acordo com esses modelos te´ricos. No projeto genoma humano o tiro saiu pela culatra e acabou apontando evidências experimentais irrefutáveis de que os processos genéticos estão integrados permanentemente a outros processos, proteínas se conectam a outras proteínas, formam redes que atravessam as células os tecidos, afetam os fluídos corporais de todo o organismo. Nossa imensa comunidade de bactérias residentes (grande parte de nossa massa corporal) nossa dieta, nossas relações afetivas, nossos corpos, nossas famílias, comunidades, cidades, países, destinos políticos, práticas culturais que se configuram historicamente momento a momento, não estão determinados a priori como acreditavam os geneticistas. Nós nos construímos historicamente. Essa visão em biologia se chama Epigênese (há outros usos deste mesmo termo e isto pode confundir o entendimento). É um campo importantíssimo que devia estar recebendo atenção estratégica em nossa saúde pública, na educação médica e científica, assim como em nossos programas de pesquisa e desenvolvimento.
    A visão epigenética oferece um modo útil e eficiente de explicar a saúde e a doença, com ênfase nas interações entre o organismo e seu meio, demonstrando como nossas ações, nossa cultura e nossa biologia corporal estão profundamente conectadas. Isto revolucionaria e reforçaria campos da medicina onde o tratamento de doenças é excessivamente farmacêutico (molecular), mecânico e determinista.
  Por exemplo as doenças mentais que acometem grande parte de nossa população faz uso de medicamentos “tarja preta”, psicotrópicos que são responsáveis por lucros alarmantes  das indústrias farmacêuticas, todos os anos em todo o mundo ocidental. Na visão hegemônica de nosso tempo onde o paradigma genético ainda prevalece, as doenças são causadas por defeitos no gene, ou no neurônio, ou no receptor de dopamina”, há sempre “uma causa (específica) determinável” e essa era a motivação do Projeto Genoma Humano. Dizia-se que uma vez obtido esse mapa de nossas unidades genéticas, poderíamos evitar as doenças substituindo essas unidades por outras saudáveis. Pela mesma lógica, usamos substâncias químicas específicas para corrigir problemas estruturais moleculares como anormalidades nos canais de cálcio que atravessam as membranas das células e assim controlam os fluxos de átomos carregados eletricamente para dentro e fora das células realizando movimentos que em ultima análise movem nosso corpo e desempenham nossas funções biológicas. Assim, o doente mental, provavelmente herdou de sua família aberrações genéticas, e estruturais, que devem ser corrigidas com drogas que atuem nestes defeitos moleculares e eventualmente eletrochoques que ajudarão a corrigir a atividade bioelétrica do cérebro do doente.
    No entanto, a Epigenética nos ensina que o destino biológico não está determinado, que ao contrário, a importância da experiência e do curso histórico é imensa. E que doenças graves carregam histórias graves, de miséria, que marcam o corpo biológico ao longo das gerações e vão produzindo alterações epigenéticas que se acumulam até gerar formas gravíssimas de miséria humana como as que se podem observar em Hospitais Psiquiátricos.
Mas a experiência desenvolvida dentro desses próprios Hospitais psiquiátricos hoje podem ganhar muito mais luz graças a uma biologia integrativa, orientada por paradigmas mais contemporâneos como a epigenética, que valorizam a experiência e o trabalho na produção da doença mental, e de como modificações de ordem simbólica e cultural são capazes de modificar significativamente a evolução clínica mesmo de casos graves. Experiências de psiquiatras famosos como Nise da Silveira no Rio de Janeiro, Franco Basaglia na Itália, Ronald Laing na Inglaterra,  Thomas Szasz nos Estados Unidos, e muitos outros no Brasil e no mundo alinham-se com a visão epigenética da biologia para nos relembrar que 
a única constância é a mudança e que o homem, afinal, é o destino do homem. 
E que doenças são produções culturais e políticas, através de modificações históricas epigenéticas que moldam nossos corpos. Mas modificando nossas práticas culturais e políticas, todas essas experiências científicas acumuladas em nosso tempo evidenciam que somos capazes de modificar positivamente mesmo os casos mais graves. É necessário que esse debate se instale publicamente pois estamos debatendo o que entendemos sobre nós próprios e como tratamos nossos doentes e o processo de opressão que provocou essa doença. Estamos debatendo democracia na era epigenética. Uma mudança urgente, necessária e possível que destaque a mudança permanente do mundo vivo, da biologia, poderá nos adequar melhor a natureza e à saúde.

Agradeço ao Professor Nelson Vaz pela revisão e correção sempre fiel e atenta.

segunda-feira, 1 de setembro de 2014

A epistemologia da ciência

A epistemologia da ciência

David Papineau
Tradução de Luiz Helvécio Marques Segundo

Fonte: http://criticanarede.com/episciencia.html

A filosofia da ciência pode ser proveitosamente divida em duas amplas áreas. A epistemologia da ciência lida com a justificação da alegação de que temos conhecimento científico. A metafísica da ciência investiga aspectos filosoficamente intrigantes do mundo descrito pela ciência. Com efeito, a epistemologia da ciência pergunta se as teorias científicas são verdadeiras, ao passo que a metafísica da ciência considera aquilo que diremos sobre o mundo se forem verdadeiras.
Os ensaios nesta coletânea voltar-se-ão para a epistemologia da ciência. Perguntarão se temos justificação para acreditar nas teorias científicas, e que atitudes deveremos ter perante elas caso não a tenhamos. Talvez a metafísica da ciência tenha tanto direito ao título de filosofia da ciência quanto a epistemologia da ciência. No entanto, é uma área heterogênea que resiste a qualquer compilação. Os problemas da metafísica da ciência tendem a emergir ou na metafísica geral (como a análise da causalidade, ou da probabilidade, ou das leis da natureza) ou se enquadram na área das ciências específicas (como questões sobre a indeterminação quântica ou sobre as unidades da seleção natural). A epistemologia da ciência, ao invés, lida com problemas que surgem da ciência em geral e não das ciências específicas, sendo, contudo, ao mesmo tempo distinguíveis dos problemas que surgem nas outras áreas da filosofia.
Na década de 1980 ou depois disso, os filósofos de ciência fizeram muito para consolidar e unificar o trabalho na epistemologia da ciência. Na primeira metade do séc. XX a tradição dominante na epistemologia da ciência foi o empirismo lógico de Rudolf Carnap e Carl Hempel, que usaram as técnicas da lógica formal e da matemática para analisar a estrutura das teorias científicas e formular teorias da explicação e confirmação científicas (cf. P. H. Nidditch, org., The Philosophy of Science, Oxford Readings in Philosophy, 1968). No entanto, na década de 1960, essa abordagem baseada na lógica foi posta em causa pelo trabalho de orientação histórica de N. R. Hanson, T. S. Kuhn e Paul Feyerabend, que recorreram a estudos detalhados de casos da história da ciência para defender que as pressuposições do empirismo lógico estavam fatalmente condenadas ao fracasso (cf. Ian Hacking (org.)Scientific Revolutions, Oxford Readings in Philosophy, 1981).
Isso conduziu a uma cisão nos estudos sobre a teorização científica. Alguns filósofos continuaram a trabalhar na tradição de Carnap e Hempel, formalizando padrões ideais de raciocínio científico. Mas muitos se convenceram de que essa abordagem formal tinha pouca relação com a realidade da prática científica, e voltaram-se, ao invés, para a análise histórica, a fim de conseguir uma perspectiva iluminante sobre a estrutura da ciência. Um subproduto dessa viragem histórica foi que muitos filósofos, e mesmo muitos historiadores e sociólogos da ciência, ficaram céticos quanto à existência de quaisquer padrões objetivos da racionalidade científica, acabando por ver as escolhas teóricas como nada mais do que expressões de pressões sociais e institucionais.
Os ensaios desta coletânea, juntamente com muitos outros trabalhos recentes na epistemologia da ciência, ajudam a transpor esse hiato entre os empiristas lógicos e os historicistas. Os epistemólogos da ciência contemporâneos aprenderam com Kuhn, entre outros, que a ciência efetiva está menos ligada a regras do que os empiristas lógicos supunham, embora não concluam que careça completamente de racionalidade. Ou, pondo as coisas de outra forma, ainda que os epistemólogos da ciência contemporâneos mantenham o interesse dos empiristas lógicos pelas questões da objetividade científica, já não estão comprometidos com a abordagem ultraformal dos empiristas lógicos com respeito ao que a objetividade requer.

O realismo e suas antíteses

O debate mais recente na epistemologia da ciência centra-se na questão do realismo científico. As discussões sobre o realismo científico, no entanto, e particularmente no que diz respeito às alternativas ao realismo, estão cheias de confusões terminológicas. Alguma clarificação inicial será útil.
Suponha-se que consideramos que o realismo, para qualquer corpo de suposto conhecimento, científico ou não, envolve a conjunção das duas teses seguintes: 1) umatese da independência: o que confere verdade aos nossos juízos é um mundo que existe independentemente da nossa consciência dele; 2) uma tese do conhecimento: em geral, podemos saber que esses juízos são verdadeiros.
O realismo, definido deste modo, é ameaçado por uma tensão interna: se o mundo é independente da nossa consciência dele, como podemos obter conhecimento seguro dele? Várias soluções dessa tensão são possíveis. Os realistas procuram um meio de sustentar a tese do conhecimento e a tese da independência. Mas há duas alternativas tradicionais ao realismo, definidas pela rejeição de uma dessas teses. A tradiçãoidealista ou verificacionista abandona a tese da independência, argumentando que a própria noção de um mundo adicional, para lá do mundo tal como o percepcionamos, é incoerente. Os céticos, pelo contrário, abandonam a tese do conhecimento, e argumentam que não podemos conhecer a verdade sobre o mundo.
Na epistemologia contemporânea da ciência, o ceticismo é a principal alternativa ao realismo. Isso contrasta com a epistemologia do conhecimento cotidiano. Quando os filósofos atuais consideram o nosso conhecimento cotidiano de objetos como árvores e mesas, tomam como alternativa mais séria ao realismo uma versão de idealismo ou verificacionismo. Assim, por exemplo, os “fenomenistas” argumentam que é impossível que um conceito represente algo mais que um padrão de sensações, e que é uma confusão, portanto, pensar que os juízos humanos possam fazer referência a algo para lá do mundo tal com surge na percepção sensorial. Assim, os fenomenistas podem então argumentar que o conhecimento das árvores e mesas não é problemático, dado não haver dificuldade em conhecer as nossas próprias sensações.
É verdade, com certeza, que muitos livros introdutórios de epistemologia atuais discutem o ceticismo e o fenomenismo lado a lado, como alternativas ao realismo. Mas ninguém fora de uma aula de filosofia questiona seriamente o nosso conhecimento dos objetos físicos de tamanho médio, como as árvores e as mesas. Na epistemologia atual, os argumentos céticos sobre as árvores e as mesas voltam-se para as nossas suposições: uma vez que obviamente temos conhecimento de árvores e mesas, um argumento de que tal conhecimento é impossível nos desafia a encontrar a falha no nosso raciocínio.
O ceticismo na filosofia da ciência, pelo contrário, não é de modo algum apenas um exercício filosófico. Pois não é de todo óbvio que conheçamos as entidades postuladas pelas teorias científicas modernas, tal como as ondas gravitacionais ou os neutrinos. Afinal, nunca temos qualquer indício sensorial a favor dessas entidades. E o historial das teorias do passado que postularam entidades inobserváveis similares não é bom. Considerações como esta têm persuadido uma quantidade significativa de filósofos da ciência contemporâneos de que o conhecimento de tais entidades é na verdade insustentável.
O ceticismo nem sempre tem sido a principal alternativa a uma epistemologia da ciência realista. No passado, muitos filósofos da ciência, de J. S. Mill a Rudolf Carnap no Aufbau (1928), optaram por uma abordagem fenomenista do conteúdo das afirmações científicas, defendendo que é apropriado entender que termos como “massa,” “carga” e “força” representam complexos de circunstâncias observáveis. De fato, essa foi talvez a perspectiva dominante até o início do séc. XX. Mas o surgimento da microfísica, com o seu discurso sobre átomos e campos, tornou essa perspectiva problemática. As tentativas de Carnap de reduzir tal discurso teórico a afirmações observacionais enfrentaram obstáculos técnicos. Em todo caso, a perspectiva é contra-intuitiva. Uma coisa é sustentar que as afirmações sobre árvores são realmente afirmações sobre sensações. Mas é difícil considerar seriamente essa tese no que respeita a afirmações sobre objetos inobserváveis como elétrons.
Conseqüentemente, quase todos os filósofos da ciência contemporâneos aceitam que a ciência visa descrever literalmente um mundo inobservável de partículas microscópicas e ondas intangíveis. E uma quantidade significante tira a conclusão cética de que a ciência não pode ser bem-sucedida nesse objetivo: uma vez que o mundo que a ciência visa descrever está além do alcance da percepção humana, não temos razão para pensar que suas teorias são verdadeiras.
Estas questões podem ser obscurecidas pela terminologia. Os oponentes céticos contemporâneos do realismo científico denominam-se “instrumentalistas” ou “ficcionalistas” ou “empiristas construtivos,” e provavelmente objetariam ao epíteto “cético.” Ainda assim, e ao contrário dos primeiros filósofos da ciência fenomenistas, como Mill ou Carnap, todos esses filósofos da ciência contemporâneos aceitam que as teorias científicas visam retratar literalmente um mundo inobservável, e concluem que por essa razão seria um erro acreditar em quaisquer teorias científicas. Se esses filósofos diferem dos céticos comuns, é apenas por adicionar a essa rejeição da crença a idéia adicional de que as teorias científicas podem não obstante ser “instrumentos” ou “ficções” úteis para propósitos previsivos, e nesse aspecto podem ser “aceites” como instrumentos de trabalho.
Outra fonte de confusão terminológica é o termo “anti-realismo.” O termo foi primeiramente introduzido por Michael Dummett para descrever uma posição na tradição idealista-verificacionista. O “anti-realismo” de Dummett não visa construir o mundo fora das sensações, ao estilo do fenomenismo comum; mas, ainda assim, insiste, com a tradição idealista-verificacionista, que os nossos juízos não podem fazer referência a condições que estejam para lá das capacidades de verificação dos seres humanos. Por outro lado, os filósofos da ciência, principalmente nos Estados Unidos, têm usado o termo “anti-realismo” para se referir a perspectivas céticas, e em particular à atitude cética perante as teorias científicas que é a principal alternativa contemporânea ao realismo científico.
É claro que as pessoas podem definir os seus termos como desejarem, mas há aqui muito espaço para a má compreensão. Note-se que “anti-realismo,” no sentido de Dummett, contradiz diretamente o “anti-realismo,” no sentido dos filósofos da ciência americanos. O anti-realismo de Dummett, assim como a maior parte do idealismo e verificacionismo tradicionais, procura sustentar as nossas alegações de que temos conhecimento, argumentando que não se deve pensar que estas fazem referência a um mundo para lá do nosso alcance. Ao contrário disto, o anti-realismo americano quer rejeitar quaisquer alegações científicas de que conhecemos o mundo inobservável, baseando-se precisamente na idéia de que estas fazem referência a um mundo para lá da nossa capacidade. A única característica comum a estas duas perspectivas são suas rejeições da conjunção de 1 e 2 que usei anteriormente para definir o realismo. No entanto, onde o anti-realismo de Dummett sustenta a tese do conhecimento rejeitando a tese da independência, o anti-realismo americano faz exatamente o oposto.
Tabela 1
CETICISMO
(empirismo construtivo; ficcionalismo; instrumentalismo; anti-realismo americano)
REALISMOIDEALISMO
(verificacionismo; fenomenismo; anti-realismo de Dummett)
MUNDOIndependenteIndependenteDependente
CONHECIMENTONãoSimSim
Vários destes aspectos sobre o realismo científico estão em questão nos primeiros dois artigos desta coletânea. Arthur Fine (Cap. I) argumenta em favor de uma posição a que chama “atitude ontológica natural” (“AON”). Esta posição consiste naquilo que afirma serem truísmos sobre a ciência, comuns ao realismo e ao anti-realismo. Central entre esses truísmos, argumenta Fine, é a doutrina de que as teorias científicas bem confirmadas devem ser aceites como verdadeiras. Fine argumenta que o erro cometido tanto por realistas como por anti-realistas é adicionar teses metafísicas extravagantes sobre a natureza da verdade e da realidade ao núcleo simples de suas suposições compartilhadas.
Alan Musgrave (Cap. II) concorda com Fine que a AON é a atitude correta para a teorização científica. Mas objeta que a AON é em si um espécie de realismo, e não um núcleo que pode ser aceite por realistas e anti-realistas. Afinal, como Musgrave entende o termo, os anti-realistas não aceitam as teorias científicas bem confirmadas como verdadeiras. Musgrave cita Bas van Fraassen e Larry Laudan como dois proeminentes anti-realistas contemporâneos que são bastante explícitos nas suas insistências de que é um erro acreditar na verdade de qualquer teoria científica sobre a estrutura subjacente do mundo inobservável.
Além do mais, argumenta Musgrave, não há razão pela qual um realista, tal como ele o entende, deva adicionar qualquer metafísica duvidosa à aceitação da AON das teorias como verdadeiras. É o bastante para o realismo científico, no sentido de Musgrave, que devemos aceitar que a ciência nos diz a verdade sobre o mundo inobservável. Perspectivas metafísicas adicionais sobre a natureza da verdade e da realidade são adições desnecessárias a essa posição realista.
Essa aparente disputa entre Fine e Musgrave é, em grande parte, simplesmente o resultado de darem atenção a debates diferentes. Fine não está interessado na opção cética, mas, ao invés, está pensando na disputa entre o realismo e o anti-realismo no sentido de Dummett — isto é, do quão distinto o mundo em si pode ser do modo como aparece aos seres humanos. É sobre essa questão que a AON é neutra. Fine pensa que tanto o realista, que insiste que o que confere verdade aos nossos juízos é um mundo de fatos independentes da verificação, quanto o anti-realista ao estilo de Dummett, que o nega, estão fazendo fortes afirmações metafísicas que os filósofos da ciência sóbrios deveriam por bem evitar.
Musgrave concorda de bom grado, mas pensa que a AON de Fine é em si uma forma de realismo. Isso porque está primariamente interessado no ceticismo como alternativa ao realismo científico. Desse ponto de vista, a AON de Fine e as duas perspectivas que medeia podem muito bem serem consideras versões de realismo, uma vez que todas sustentam, contra o ceticismo, que devemos aceitar como verdadeiras as melhores teorias científicas sobre inobserváveis.
Em termos da Tabela 1, podemos dizer que Fine se preocupa apenas com as duas colunas da direita, e deseja sustentar que deveríamos adotar apenas aqueles truísmos que forem comuns a ambas. Musgrave, por outro lado, está interessado na disputa entre a coluna da esquerda e as duas da direita (embora concorde com Fine em favorecer o núcleo comum das colunas da direita e da esquerda).1
Uma lição óbvia desse par de artigos é que os leitores devem ter cuidado com a terminologia. “Realismo” e “anti-realismo” são apenas dois exemplos. Vários termos relacionados, incluindo “empirista,” “positivista,” “pragmatista” e “instrumentalista” variam de significado quando usados por filósofos diferentes. Os leitores cuidadosos dos artigos nesta coletânea notarão como os autores introduzem esses termos e atentarão para quaisquer outras indicações de significados que lhes forem atribuídos.

A subdeterminação da teoria pelos indícios

Um desafio central ao realismo científico advém da subdeterminação da teoria pelos indícios observacionais. Suponha-se que duas teorias T1 e T2 são empiricamente equivalentes, no sentido de fazerem as mesmas previsões observacionais. Deste modo, nenhum corpo de indícios observacionais será capaz de decidir conclusivamente entre T1 e T2.
Note-se que o problema com tais teorias não é apenas que T1 e T2 está subdeterminada pelos indícios atuais. Se os indícios atuais falham ao decidir entre duas teorias, então a resposta óbvia é suspender a crença por enquanto, e procurar experiências científicas que decidirão entre elas. Mas com teorias cuja equivalência empírica seja genuína essa opção não está disponível. Se todas as previsões observacionais de T1 e T2 são idênticas, então não há experiência científica alguma que possa eliminar uma em detrimento da outra.
A tese da subdeterminação da teoria pelos indícios afirma que sempre seremos confrontados com teorias empiricamente equivalentes, por mais indícios que tenhamos acumulado. Há dois argumentos persuasivos a favor dessa tese. Um tem origem na chamada tese de Duhem-Quine, que afirma que qualquer teoria pode reter as suas suposições centrais face a quaisquer indícios anômalos, fazendo-se ajustes para salvar as suposições centrais. Suponha-se que começamos com duas teorias rivais T1 e T2 e olhamos para os indícios futuros para decidir entre elas, como se sugeriu no parágrafo anterior. Dado a tese de Duhem-Quine, segue-se que, mesmo após qualquer quantidade de indícios futuros, ainda teremos duas teorias, T'1 e T'2, derivadas do par original pelas revisões sucessivas ocasionadas pelos indícios, e que esses indícios não permitem decidir entre elas.
Um argumento mais direto a favor da existência inevitável de teorias empiricamente equivalentes começa com determinada T1, e mostra então que podemos sempre obter uma T2 diferente que faz exatamente as mesmas previsões. A versão mais simples dessa estratégia considerará simplesmente T2 que faz todas as afirmações observacionais feitas por T1, negando contudo a existência de quaisquer mecanismos inobserváveis postulados por T1. As versões mais interessantes do argumento não eliminam apenas os mecanismos inobserváveis postulados por T1; substitui-los por estruturas “autocorretivas” concebidas para produzir exatamente as mesmas aparências observacionais. (Por exemplo, se T1 é uma teoria dinâmica, faça-se de T2 a teoria que o universo está se acelerando ao ritmo de um pé por segundo quadrado numa determinada direção, e adicione-se uma força universal agindo sobre todos os corpos para produzir essa aceleração. O resultado será que T1 e T2 prevêem exatamente os mesmos movimentos relativos observáveis.)
O artigo de Lawrence Sklar (Cap. III) trata as questões levantadas pela subdeterminação da teoria pelos indícios. Sklar sente-se inicialmente atraído pela idéia de que, em qualquer par de teorias empiricamente equivalentes, cada uma é apenas, na verdade, uma variante notacional da outra — uma mesma teoria formulada por palavras diferentes, como o Principia de Newton escrito em latim e em inglês. Mas reconhece que esta posição carece de plausibilidade. Trata-se, com efeito, de uma versão da velha perspectiva fenomenista das teorias científicas (a perspectiva “positivista” para Sklar), de acordo com a qual as afirmações sobre as entidades aparentemente inobserváveis, como os elétrons, são na verdade afirmações sobre fenômenos observáveis: pois note-se que as teorias empiricamente equivalentes serão automaticamente variantes notacionais somente se for impossível dar significado (permitindo, portanto, que possam ser contraditas) às afirmações sobre qualquer realidade por trás das aparências observáveis.
O artigo de Sklar trata de explorar as opções deixadas em aberto depois de se aceitar a subdeterminação da teoria pelos indícios (apesar de, no final, ele duvidar que quaisquer dessas teorias sejam aceitáveis). Uma opção é adotar o ceticismo, pela razão de que nunca devemos acreditar em qualquer teoria caso nenhum indício empírico possa eliminar conclusivamente as suas alternativas empiricamente equivalentes. Outra é procurar por meios de se discriminar entre teorias empiricamente equivalentes, argumentando que mesmo quando várias teorias fazem as mesmas previsões observacionais, a crença numa pode ser mais adequada do que a crença nas outras.
O artigo de Bas van Fraassen (Cap. IV) adota a primeira opção. De acordo com o “empirismo construtivo” de van Fraassen (que é elaborado em maior detalhe em van Fraassen 1980), nunca devemos acreditar em qualquer teoria que vá além dos fenômenos observáveis. No máximo, devemos acreditar que a teoria é “empiricamente adequada” — isto é, que é correta no que diz respeito à parte observável do mundo. A maior parte do artigo de van Fraassen trata de mostrar que essa noção de adequação empírica, e a distinção associada entre observável e inobservável, se explica melhor na abordagem “semântica” das teorias científicas, que identifica as teorias com conjuntos de modelos, ao invés da abordagem “sintática” mais tradicional das teorias como conjunto de frases. (Em conexão com a distinção observável-inobservável, é importante observar que um cético como van Fraassen exige muito menos da distinção observável-inobservável do que um fenomenista como Mill ou Carnap: pois, onde os fenomenistas sustentam que não podemos dizer algo dotado de significadosobre os inobserváveis, o cético científico sustenta apenas que seres com as nossas capacidades perceptuais limitadas não devem acreditar em quaisquer afirmações sobre inobserváveis.)
A resposta não cética alternativa à subdeterminação é argumentar que podemos ter bases para acreditar numa teoria em detrimento de outras de um conjunto de teorias empiricamente equivalentes. À primeira vista isto poderá parecer pouco prometedor. Se nada do que observamos pode afastar as teorias alternativas, então como podemos ter justificação para selecionar uma para ser objeto de crença? Mas isto impõe sub-repticiamente um padrão muito alto para a crença justificada. Pressupõe que nos é permitido crer apenas nas conseqüências lógicas das nossas observações (já que passa imediatamente da existência de teorias alternativas consistentes com nossas observações para a inadmissibilidade da crença em qualquer teoria). Esta é, no entanto, uma exigência irrazoavelmente forte de crença justificada. E nem é uma exigência que a maioria dos céticos científicos contemporâneos desejaria impor. Pois implicaria (como van Fraassen fez notar no fim do seu artigo) que nem mesmo estamos autorizados a acreditar na adequação empírica de uma teoria, uma vez que isso em si requer que demos um salto indutivo para lá das conseqüências lógicas do nosso conjunto finito de dados observacionais.
Assim, talvez haja espaço para uma resposta não cética à subdeterminação. A idéia, grosso modo, seria que, dentre as teorias empiricamente equivalentes consistentes com os nossos dados observacionais, algumas são melhores explicações que as outras em virtude da sua maior simplicidade ou elegância ou poder unificador, e que essas virtudes são indicações de que aquelas teorias são verdadeiras. (Compare-se o modo pelo qual nos restringimos a generalizações “projetáveis” ao fazer induções enumerativas simples de dados finitos de nível observacional.)
Uma preferência pela “melhor explicação” certamente parece fazer parte da prática científica. Como vimos, há sempre equivalentes empíricos para qualquer teoria, baseados ou nos mecanismos de “autocorreção” ou na rejeição total dos mecanismos inobserváveis. Mas poucos cientistas praticantes considerariam a existência de tais alternativas desajeitadas uma boa razão para desacreditar as teorias normais. Dado que as explicações dos dados observáveis fornecidos por teorias normais são de longe mais elegantes, os cientistas geralmente se contentam em considerar que as teorias normais são verdadeiras.
Contudo, ainda que a “inferência a favor da melhor explicação” seja parte da prática científica intuitiva, ela não é necessariamente uma boa forma de inferência. Os filósofos da ciência céticos argumentarão que os cientistas extraviam-se sempre que se comprometem com a verdade das suas melhores explicações. Uma objeção óbvia à inferência a favor da melhor explicação é considerada no artigo de Peter Lipton “Is the Best Good Enough?” (Cap. V). Suponha-se que aceitamos que os cientistas comumente fazem juízos comparativos precisos quando julgam que a teoria T1 é provavelmente mais verdadeira do que T2, ..., Tn. Só por si, isto não garantirá que tenham chegado à verdade, pois pode haver ainda mais teorias nas quais nem pensaram. Seria ingênuo inferir que a “melhor” explicação é a verdadeira, se é apenas a melhor entre as que foram consideradas até agora. No século XVII, a teoria de Newton era de longe a melhor explicação disponível do movimento gravitacional. Mas isso se deu porque ninguém ainda tinha sido capaz de formular a relatividade geral.
Em resposta a este argumento, Lipton sugere que às vezes é possível usar juízos científicos comparativos para chegar às exigências absolutas que faz o realismo científico. Pois podemos sempre assegurar que o nosso levantamento das opções teóricas será exaustivo, incluindo Tn+1 como uma alternativa universal, a negação de todas as teorias T1, ..., Tn cogitadas até agora. De fato, os cientistas às vezes julgarão, quando fizerem isso, que Tn+1 é mais provavelmente verdadeira — isto é, que a teoria verdadeira muito provavelmente está entre as que ainda não cogitaram. Mas noutros casos colocarão Tn+1 abaixo das teorias que já cogitaram, e concluirão, portanto, que a “melhor” teoria deles é absolutamente a mais provavelmente verdadeira.

A metaindução pessimista a partir da falsidade do passado

O artigo de Lipton defende, pois, a inferência a favor da melhor explicação (de todas as possíveis) contra uma possível objeção. No entanto, as questões subjacentes quanto ao estatuto filosófico desse tipo de inferência permanecem. Note-se que Lipton começa com a suposição de que os cientistas podem pelo menos produzir juízoscomparativos sólidos de verossimilhança. Mas os céticos não precisam aceitar isto. Os céticos podem, geralmente, invocar a subdeterminação da teoria pelos indícios para questionar qualquer conexão entre a excelência explicativa (simplicidade, elegância, poder unificador) e a verdade. Se há sempre teorias alternativas consistentes com os indícios, que garantia poderia haver de que a teoria mais explicativa será geralmente a verdadeira?
Esse desafio cético levanta várias questões filosóficas delicadas sobre a verdade, a racionalidade e o fardo da prova, aos quais retornarei na próxima seção. Mas primeiro vou considerar um argumento muito mais simples contra a inferência da verdade com base na melhor explicação. Este argumento não invoca sutilezas da subdeterminação, mas sim indícios empíricos diretos de malogros teóricos do passado. Se examinarmos os casos onde os cientistas adotaram as suas melhores explicações como verdadeiras, essas explicações normalmente se tornaram falsas: considere-se, por exemplo, a astronomia ptolomaica, a teoria calórica do calor, a teoria do éter do eletromagnetismo, e assim por diante. Dado este pequeno histórico de melhores explicações, não deveríamos concluir que a inferência a favor da melhor explicação nos conduzirá, em geral, a falsidades, ao invés de verdades?
Esta “metaindução pessimista a partir da falsidade do passado” está subjacente a “A Confutation of Covergente Realism” de Larry Laudan (Cap. VI). Laudan ataca o argumento segundo o qual se alguma teoria científica for “bem-sucedida,” no sentido de gerar previsões confirmadas através de uma diversidade de contextos, então a melhor de todas as explicações possíveis desse sucesso é a verdade da teoria (“Seria um milagre se tudo funcionasse como a teoria previra, e ainda assim a teoria fosse falsa”). Examinou uma ampla gama de teorias que defensavelmente foram bem-sucedidas neste sentido, e mostrou que tal sucesso normalmente não é explicado pela verdade da teoria envolvida. Pois quase todas essas teorias — Laudan fornece uma lista histórica bastante grande — foram posteriormente consideradas falsas.
Uma possível resposta realista (antecipada por Laudan) é argumentar apenas a favor da verdade aproximada das teorias bem-sucedidas, ao invés de sua verdade irrestrita. As teorias bem-sucedidas no que diz respeito à previsão não são, sem dúvida, sempre verdadeiras em todos os detalhes precisos. Mas talvez possam ainda ser consideradaspróximas da verdade, e em geral mais próximas da verdade do que as suas predecessoras.
Uma objeção a esta manobra é que a noção de “verdade aproximada” é extremamente difícil de articular claramente. Uma tradição persistente de pesquisa da noção de “verossimilhança” (veja-se a bibliografia no final deste volume) tem tornado claro que não pode haver uma maneira independente dos nossos interesses de medir a distância entre uma teoria e a verdade. No entanto, afora essa dificuldade técnica, há uma objeção mais óbvia ao apelo realista à verdade aproximada: a saber, que a maioria das teorias do passado que foram bem-sucedidas quanto à previsão não estão nem sequer próximas da verdade, de acordo com qualquer leitura intuitivamente plausível de “verdade aproximada.” A objeção de Laudan ao realismo não é apenas que as teorias do passado se mostraram erradas no que respeita aos detalhes. É, ao invés, que tendem a estar radicalmente em desacordo com a verdade, comprometendo-se com uma gama de entidades explicativas (como esferas cristalinas, ou fluído calórico, ou o éter) que não têm quaisquer contrapartes na realidade.
John Worrall (Cap. VII) explora uma resposta realista diferente ao argumento de Laudan. Concede que teorias do passado que foram mais bem-sucedidas em termos de previsão contêm comumente erros fundamentais. Mas argumenta que isso não exige uma rejeição completa de todas as afirmações científicas sobre os mecanismos inobserváveis por detrás das previsões observáveis. Na perspectiva de Worrall, as lições da história têm implicações diferentes com respeito a componentes diferentes nas teorias científicas. Mais especificamente, argumenta que a história mostra que as teorias do passado estão caracteristicamente erradas sobre a natureza do reino observável, mas não sobre a estrutura do seu comportamento. No seu exemplo central, Worrall argumenta que os cientistas do séc. XIX estavam enganados ao crer que a radiação eletromagnética estava incorporada num “éter,” mas completamente corretos sobre as equações matemáticas que regem o eletromagnetismo. Worrall tira a lição geral de que devemos acreditar na estrutura da realidade inobservável postuladas pelas teorias bem-sucedidas, mas evitar nos comprometermos com quaisquer afirmações sobre a natureza dessa realidade.
A estratégia geral exemplificada pelo artigo de Worrall parece oferecer a melhor esperança para o realismo. Frente aos malogros teóricos do passado, os realistas precisam mostrar que algumas partes das teorias malogradas se mostraram melhor do que outras. Se puderem, portanto, identificar alguma diferença de princípio entre as partes boas e as más, podem recomendar as partes boas das teorias atuais.
Resta saber, contudo, se é um truque o modo específico, proposto por Worrall, de traçar a distinção. Alguns filósofos da ciência argumentariam que, uma vez que o nosso acesso intelectual às entidades inobserváveis é sempre mediado por uma estrutura de suposições teóricas, não sendo uma intuição direta da sua natureza, a restrição proposta por Worrall de crer apenas nas afirmações estruturais não é de fato uma restrição (cf. Psillos 1995). Se isto estiver correto, então os realistas precisam encontrar outro meio qualquer melhor para distinguir as partes das teorias que provavelmente têm de ser desacreditadas das partes que são dignas de crença.

Verdade e racionalidade

Suponhamos que o realismo possa ser bem-sucedido em bloquear a metaindução pessimista de algum modo. Os realistas, portanto, não adotarão as nossas teorias atuais in toto como a melhor explicação do sucesso previsivo, mas apenas aquelas partes cujos indícios da história indicam ser genuinamente responsável por tal sucesso.
No entanto, o realismo ainda precisa lidar como outro desafio cético mencionado anteriormente. Ao inferir a melhor explicação do sucesso previsivo, os realistas supõem que a melhor explicação (a mais simples, a mais elegante, a mais unificadora) é provavelmente a verdadeira. Os céticos põem em causa essa suposição evidenciando que há sempre mais de uma explicação inobservável consistente qualquer corpo de indícios observacionais. Uma vez que não temos acesso independente ao reino inobservável, como poderíamos saber que a “melhor” explicação é geralmente a explicação verdadeira?
Há duas respostas possíveis a este desafio, que correspondem às colunas do meio e da direita da Tabela 1. Ambas são realistas no sentido de Musgrave, rejeitando o ceticismo e sustentado a crença nas teorias científicas. Mas no sentido de Dummett (e de Fine), uma é realista e a outra anti-realista, uma vez que discordam sobre se a verdade envolve a conformidade a uma realidade independente. A opção anti-realista dummettiana está ilustrada no artigo de Brian Ellis (Cap. VIII). Se pensarmos na verdade como correspondência a uma realidade independente, argumenta Ellis, então não há alternativa ao ceticismo de van Fraassen, pois não há modo de se estabelecer que as teorias com virtudes explicativas são geralmente verdadeiras. No entanto, esse hiato entre a excelência explicativa e a verdade pode ser ultrapassado, sublinha Ellis, se considerarmos que a verdade é, por definição, a perspectiva que devemos sustentar racionalmente, dados todos os indícios observáveis possíveis. Pois se é uma norma da racionalidade que devemos acreditar na mais explicativa (simples, elegante, unificadora) dentre as teorias subdeterminadas, então a melhor delas (dados todos os indícios) será por definição uma teoria verdadeira.
A posição de Ellis, que ele caracteriza como “realismo interno,” depende da sua abordagem “pragmática” da verdade como o que quer que seja justificável por normas racionais. Ellis, de fato, considera que as normas racionais são dadas a priori, e então define a verdade em termos dessas normas. A posição resultante é um anti-realismo no sentido de Dummett. Esta não faz os juízos alcançarem a verdade através do reino das sensações, ao estilo do anti-realismo fenomenista tradicional, mas nega que os juízos façam referência a algo independente das normas racionais do pensamento humano.
A abordagem pragmática da verdade proposta por Ellis não é de maneira alguma incontroversa. Note-se que não é um argumento a favor dela a idéia de que ofereceria uma resposta ao desafio cético. (Analogamente, que poderíamos ter conhecimento de árvores caso estas fossem apenas padrões de percepções, não é uma boa razão para pensar que as árvores são padrões de percepções.) Muitos filósofos preferem uma perspectiva alternativa, a de que a verdade deveria ser definida como conformidade a uma realidade independente, ao invés de em termos de normas da racionalidade humana.
Seria um desvio discutir aqui a análise do conceito de verdade propriamente dita. Consideraremos, ao invés, se a perspectiva não pragmática da verdade tem qualquer resposta ao desafio cético. Ellis diz que se a verdade for conformidade a uma realidade independente, então não há modo de se conectar a verdade e a virtude explicativa. Mas isto é demasiado apressado. Uma abordagem não pragmática da verdade não fornecerá qualquer conexão conceitual entre verdade e virtude explicativa, uma vez que não define a verdade em termos de virtude explicativa. Mas deixa em aberto, contudo, a possibilidade de uma conexão empírica entre virtude explicativa e verdade. Se tal conexão empírica pudesse ser defendida, então isso ofereceria um modo diferente de defender as inferências a favor da melhor explicação, contra o desafio cético.
A segunda contribuição de Larry Laudan a esse volume (Cap. IX) aponta para essa possibilidade. Laudan não está preocupado em defender o realismo contra o ceticismo. Mas mostra como os princípios da escolha de teorias científicas, assim como a inferência a favor da melhor explicação, poderiam ser justificados por generalizações empíricas que conectam as virtudes teóricas com as metas da ciência.
O ponto de partida de Laudan é um velho debate sobre a relevância da história para a filosofia da ciência. A “viragem histórica” instigada por Hanson, Kuhn e Feyerabend na década de 1960 conduziu os filósofos da ciência a testar propostas metodológicas contra os indícios empíricos da história da ciência. Caso se pudesse mostrar que Newton violou a metodologia de Carnap, digamos, considerar-se-ia, então, que isso contaria contra a metodologia deste último. No entanto, a lógica desse tipo de argumento é obscura. Por que razão os preceitos do metodólogo se devem adequar aos fatos empíricos da prática de Newton? Como Laudan observa, ainda que aceitemos que Newton seja membro da elite científica, não precisamos também aceitar que todos os aspectos de sua prática sejam metodologicamente exemplares.
Laudan oferece uma explicação diferente da relevância dos indícios históricos para a metodologia. Suponha-se que distinguimos os objetivos da ciência dos meios da prática científica. Os objetivos podem incluir encontrar teorias verdadeiras, ou teorias confiáveis no que respeita à previsão, ou teorias que oferecem provas da existência de Deus. Dado determinado fim x, a prática de se escolher entre teorias que exibem uma certa virtude y pode ser vista como um meio para esse fim. Isso sugere que os principio metodológicos têm a forma de imperativos hipotéticos, especificando um meio para um fim. Desse modo, podem ser avaliados em termos empíricos, como todas as recomendações meios-fim similares: os indícios empíricos mostram que y é de fato um meio eficaz para x? Mais especificamente, no presente contexto, o registro histórico mostra que as teorias com a característica y são uma rota melhor para se chegar a x? Do ponto de vista de Laudan, a prática de Newton é metodologicamente relevante não por causa do estatuto especial de Newton, mas simplesmente porque fornece casos que poderiam ajudar a mostrar se escolher y geralmente conduz a x.
Embora Laudan deixe a questão em aberto nesse segundo artigo, não pensa de fato que a verdade (enquanto algo que se opõe à fiabilidade previsiva, digamos) seja um objetivo sensato para a ciência. Uma vez que defende a metaindução pessimista, Laudan pensa que os indícios históricos demonstram quão ineficazes são quaisquer meios metodológicos usados pelos cientistas para tentar chegar à verdade (cf. Laudan 1984: 137).
No entanto, se formos capazes de bloquear a metaindução pessimista delineada na última seção, então talvez possamos pôr ao serviço do realismo a perspectiva meios-fim da racionalidade científica proposta por Laudan. Talvez os indícios históricos relevantes permitam mostrar que certas estratégias metodológicas são rotas eficazes para chegar a teorias verdadeiras. Uma metodologia deste tipo para a ciência teria afinidades com a tradição fiabilista da epistemologia atual, que sustenta que uma crença se admite como conhecimento se for produzida por um método fiável — isto é, por um método que, por uma questão de fato empírico, geralmente produz crenças verdadeiras. Esta tradição, na verdade, inverte a abordagem exemplificada por Ellis: ao invés de definir a verdade em termos de normas a priori, identifica a metodologia racionalmente correta como aquela que, por uma questão de fato empírico, fornece uma rota eficaz para a verdade.
Richard Boyd desenvolveu esta abordagem para a filosofia da ciência numa série de artigos nas últimas décadas do séc. XX. Boyd oferece um argumento empírico a favor da fiabilidade dos métodos da ciência moderna: a saber, que a única boa explicação para o sucesso previsivo da ciência é que a ciência moderna em geral fornece uma rota eficaz para a verdade (aproximada). Mostra que os procedimentos pelos quais os cientistas desenvolvem e testam novas teorias se baseiam comumente em suposições de fundo fornecidas por teorias já estabelecidas. Boyd sustenta que esses procedimentos para desenvolver novas teorias raramente poderiam produzir sucesso previsivo a menos que essas teorias fossem em grande parte verdadeiras (Lipton, este volume, p. 100).
No artigo reimpresso aqui (Cap. X), Boyd explica como este argumento pode resistir às aparentes implicações céticas da metaindução pessimista. Conclui o artigo respondendo à acusação de que sua posição é circular. Note-se que Boyd parte de indícios empíricos de que a ciência é previsivamente bem-sucedida e conclui, via inferência a favor da melhor explicação, que o método científico moderno é uma rota eficaz para a verdade. Mas a legitimidade desse tipo de inferência é precisamente aquilo que os seus oponentes céticos negam. O desafio original do cético era quanto à legitimidade das inferências de primeira ordem a favor da melhor explicação, como a inferência de que a teoria atômica da matéria é necessária a fim de explicar os dados das experiências químicas. Na realidade, Boyd agora está respondendo a este desafio cético com uma metainferência da mesma forma: a melhor explicação do sucesso previsivo geral da ciência é que a ciência moderna geralmente chega à verdade. Os oponentes de Boyd não tardaram em objetar que isso pressupõe o que quer estabelecer. Afinal, se eles não aceitam que a teoria atômica da matéria seja necessária para explicar os dados químicos, por que deveríamos aceitar que a verdade da ciência seja necessária para explicar seu sucesso previsivo? (Cf. Fine, este volume, pp. 24-25; Laudan, este volume, pp. 133-135).
A resposta de Boyd é que essa última inferência não pode ser considerada isoladamente, mas como parte de um “pacote realista” completo. Esse pacote deve ser comparado totalmente com as alternativas completas. Se o pacote realista for mais defensável do que as alternativas, então afasta-se o ataque de circularidade. Os realistas da estirpe de Boyd consideram que têm uma resposta ao desafio cético quanto à conexão entre a virtude explicativa e a verdade. Afirmam que o sucesso previsivo da ciência é um bom indício empírico para essa conexão. Na verdade, é um bom indício apenas do ponto de vista realista. Mas se se puder mostrar por razões puramente filosóficas que o realismo está correto, então esse é o ponto de vista correto.
Filósofos com Laudan e Boyd defendem uma filosofia naturalizada da ciência. Ao invés de procurar identificar os princípios da racionalidade científica numa base a priori, procuram informação empírica sobre a eficácia de diferentes práticas científicas para decidir a metodologia correta para a ciência. Vale a pena observar que um importante subproduto dessa “viragem naturalista” é a expectativa de uma reconciliação ente filósofos e sociólogos da ciência.
As últimas décadas do séc. XX foram marcadas por uma explosão de trabalhos entusiasmantes na sociologia da ciência. Tradicionalmente, os sociólogos da ciência se contentavam em estudar os aspectos externos da ciência, como o desenvolvimento das instituições científicas, ou a estrutura da educação científica. Mas o trabalho sociológico recente tem se voltado para o interior da teorização científica em si, e visa mostrar como as influências e interações sociais desempenham um papel decisivo na solução de debates teóricos específicos.
Tem-se considerado muitas vezes que este tipo de sociologia debilita qualquer análise epistemológica da ciência, pela razão de que a epistemologia lida com padrões a priori de racionalidade, ao passo que os estudos sociológicos parecem mostrar que as escolhas das teorias científicas não se regem de modo algum desse modo, mas antes por lutas de poder científico e manobras artificiosas.
Essa rejeição da epistemologia pressupõe, no entanto, que a epistemologia lida somente com princípios a priori da avaliação teórica. Mas, pelo contrário, se a epistemologia da ciência for conduzida de maneira naturalista, então o conflito desaparece. Os filósofos da ciência naturalizados não se interessam por princípios metodológicos a priori sobre processos sociais. Podem felizmente aceitar que as escolhas teóricas são geralmente determinadas por processo sociais. A única questão normativa que quererão saber, portanto, é se esses processos são meios eficazes para os objetivos científicos. E essa nem é uma questão que possam responder por si mesmos. Pois é uma questão empírica, e não uma questão a priori, e, portanto, os filósofos da ciência precisaram da ajuda dos sociólogos e historiadores da ciência para lhe responder. (Para leitura adicional sobre esta questão, veja-se as seções sobre a epistemologia naturalizada da ciência e sobre a sociologia da ciência na bibliografia selecionada no fim deste volume).

Teoria da confirmação e bayesianismo

Está a tornar-se cada vez mais comum discutir as questões da epistemologia da ciência no enquadramento da teoria bayesiana da confirmação. A teoria da confirmação procura quantificar questões de crença teórica. Ao invés de simplesmente perguntar se devemos acreditar numa teoria T dados os indícios E, na teoria da confirmação pergunta-se o quanto deveríamos acreditar numa teoria T dados os indícios E.
Os defensores da teoria bayesiana da confirmação argumentam que tais questões se formulam melhor como questões sobre probabilidades subjetivas. Suponha-se que atribuímos uma probabilidade subjetiva Prob (H) a uma hipótese H, e uma probabilidade condicional da Prob (H/I) a H sob a suposição de que o indício I é verdadeiro. Então, I confirmará H caso a sua probabilidade Prob (H/E) seja maior que a sua Prob (H) inicial. De modo semelhante, ao observar I, devemos acrescentar a probabilidade de H à anterior Prob (H/I).
Um teorema simples do cálculo de probabilidades (“o teorema de Bayes”) estabelece que a Prob (H/I) = Prob (I/H)/Prob (I) x Prob (H). Isto significa para os bayesianos que I confirma H — isto é, a Prob (H/I) é maior do que a Prob (H) — se a Prob (I/H) for maior que a Prob (I).
Isto é intuitivo. Se os indícios I são em si surpreendentes (se a Prob (I) é baixa), embora seja o que se esperava caso a hipótese H fosse verdadeira (a Prob (I/H) é alta), então I é com certeza um bom apoio para H. O aparente desvio da luz próximo ao Sol é em si um fato surpreendente, mas é o que foi previsto pela teoria da relatividade. A sua observação em 1919, portanto, forneceu um forte apoio à teoria de Einstein.
Nem todos os filósofos que trabalham na teoria da confirmação são bayesianos. Clark Glymour, por exemplo, desenvolveu uma abordagem alternativa da confirmação (abordagem de “arranque”) em Theory and Evidence (1980). No capítulo reimpresso neste volume (Cap. XII), no entanto, ele se concentra nas críticas à teoria bayesiana. Glymour explica primeiro a estrutura básica da abordagem bayesiana (e em particular o “argumento do livro do holandês” a favor da suposição de que os graus de crença são uma espécie de probabilidade), e então aponta várias deficiências.
Para Glymour, a falha central do bayesianismo é a subjetividade das suas probabilidades. O bayesianismo não impõe limites substanciais nas probabilidades que entram nas relações de confirmação, exceto nas que refletem os graus efetivos de crença. Quão provável é H, ou I, ou I dado H? Para o bayesiano, estas perguntas sobre as atitudes subjetivas dos indivíduos.
Glymour argumenta que isto dá uma plausibilidade espúria ao bayesianismo. Uma vez que o bayesianismo per se não restringe as probabilidades que entram nas relações de confirmação, pode sempre postular como “razoáveis” quaisquer probabilidades de que possa precisar para reproduzir formas comuns de raciocínio científico. Glymour objeta que isso não explica o mérito dessas formas de raciocínio (afinal, o mesmo truque poderia reproduzir quaisquer outras formas de raciocínio). Também critica as tentativas dos bayesianos de identificar princípios adicionais a priori que rejam os graus razoáveis de crença.
“Rationality and Objectivity in Science or Tom Kuhn Meets Tom Bayes” (Cap. XI), de Wesley Salmon, oferece uma resposta naturalista à objeção de que as probabilidades bayesianas são arbitrárias. Em vez de procurar princípios a priori que rejam as probabilidades subjetivas razoáveis, Salmon sugere que devemos olhar para a histórica da ciência para que esta nos diga quais são as freqüências empíricas em que hipóteses de vários tipos se revelaram bem-sucedidas.
Salmon argumenta que esta manobra pode fazer uma reconciliação entre a tradição formalista de Carnap e Hempel e a abordagem historicista incitada por The Structure of Scientific Revolutions (1962) de Thomas Kuhn. Kuhn argumenta que os juízos de plausibilidade dos cientistas desempenham um papel crucial na decisão das suas atitudes para com a hipótese. Muitos dos seguidores de Kuhn (mas não o próprio Kuhn) inferiram que os juízos científicos são, por isso, arbitrários. Salmon sugere que esta acusação de arbitrariedade se rebate melhor entendendo tais juízos de plausibilidade como probabilidades bayesianas, fundamentando depois essas probabilidades nas freqüências empíricas em que as hipóteses do tipo em questão se revelaram bem-sucedidas.
É importante observar que Salmon está vulnerável ao ataque de circularidade análogo ao que foi dirigido contra Boyd. Do mesmo modo como Boyd apelou aos indícios empíricos acerca da prática científica para defender a preferência dos cientistas por certos tipos de explicação, Salmon também apela para indícios similares para defender o uso do raciocínio bayesiano. E assim como a defesa de Boyd foi um caso especial do tipo de inferência que este estava tentando defender, a inferência de Salmon que parte dos indícios empíricos para chegar à conclusão sobre probabilidades também pode ser vista como um caso especial de raciocínio bayesiano. Seria um exercício interessante considerar se a réplica de Boyd a esse ataque de circularidade funcionará para um bayesiano objetivista como Salmon.

São as teorias importantes?

A maioria dos artigos nesta coletânea dizem respeito à verdade, ou sua ausência, das teorias científicas. No entanto, alguns filósofos da ciência contemporâneos argumentaram que este não é necessariamente o ponto crucial dos debates sobre o realismo científico. Nancy Cartwright, em How the Laws of Physics Lie (1983), e Ian Hacking em Representing and Intervening (1983), elaboraram uma posição que denominaram “realismo da entidade” opondo-se ao “realismo da teoria.”
Esta perspectiva reconhece que as ciências físicas modernas são responsáveis por diversos efeitos físicos notáveis, dos lasers e fibras óticas aos microscópios eletrônicos e aos supercondutores. Nega, no entanto, que esses efeitos físicos forneçam bases convincentes para uma teoria física fundamental. Cartwright argumenta que as “derivações” comuns desses efeitos a partir de uma teoria fundamental são mediadas por suposições ad hoc, por atalhos matemáticos e improvisações. Uma vez que a teoria fundamental não fornece em geral qualquer motivação a favor desses artifícios, a derivação não fornece qualquer base indutiva a favor da teoria fundamental. Na verdade, a teoria básica não desempenha qualquer papel nas derivações, por comparação com as simplificações, argumenta Cartwright, e por isso não merece crédito.
No entanto, isto não implica a inexistência de partículas subatômicas ou outras entidades inobserváveis envolvidas nos efeitos físicos relevantes. Para Hacking e Cartwright, o sucesso das nossas tentativas em manipular essas entidades é testemunha profusa da sua existência. Se essas entidades não fossem reais, não poderíamos usá-las para produzir efeitos físicos. Hacking resume a perspectiva na sua conhecida divisa “se as pudemos pulverizar, existem.”
O realismo da entidade apresenta uma alternativa interessante ao realismo ortodoxo, baseado na teoria. Mas enfrenta alguns desafios óbvios. Para começar, é possível duvidar da afirmação de Cartwright de que a teoria física fundamental é na verdade redundante na análise matemática dos efeitos físicos. As simplificações certamente desempenham um papel importante em tal análise. Mas muitas das simplificações são guiadas por considerações teóricas, e, portanto, defensavelmente, contribuem para o crédito da teoria quando são bem-sucedidas. Pode-se também pôr em causa a separação entre o compromisso com entidades e o compromisso com teorias. Na maioria das vezes, pensamos nas entidades inobserváveis da ciência como entidades que desempenham certos papéis teóricos. Isso torna difícil ver como podemos aceitar as entidades sem pelo menos aceitar algumas partes da teoria adjacente.
No artigo reimpresso neste volume (Cap. XIII), Cartwright toma uma postura um pouco menos radical. Aqui, se prontifica a conceder que as leis abstratas da física fundamental recebem apoio indutivo dos efeitos físicos. No entanto, nega que tais leis precisem de ser universalmente aplicáveis. Ainda que caracterizem com precisão o comportamento dos fenômenos físicos em certos contextos laboratoriais cuidadosamente controlados, não se segue que rejam todos os fenômenos.
Os sistemas quotidianos podem se comportar de acordo com suas próprias leis, independentemente das forças e equações da física básica. Cartwright observa que a possibilidade de tais padrões “emergentes” é um tema bem conhecido no pensamento biológico. Mas quer ir além e negar que mesmo os sistemas físicos precisem de ser regidos por leis físicas fundamentais. Talvez o comportamento de uma nota de dólar em queda escape às leis da física tanto quanto o comportamento de um organismo biológico. Cartwright insta-nos a substituir a imagem reducionista de um sistema unificado, fundado numas poucas leis básicas, por uma manta de retalhos de muitas leis, cada uma das quais de alcance limitado.
Uma questão levantada pelo artigo de Cartwright é se acaso em diferentes áreas da ciência se aplicam lições filosóficas diferentes. Talvez devamos ser fundamentalistas em física mas não em biologia. Ou talvez possamos ser realistas da teoria na química, realistas da entidade na geologia, e completamente céticos na paleobiologia. No início desta introdução, afirmei que a epistemologia lida com problemas que surgem na ciência em geral. Sem dúvida que a maior parte dos escritos desta coletânea procuram lições que se apliquem a todas as áreas científicas. Mas talvez valesse a pena o esforço complementar de uma abordagem mais particularizada. Agora que estamos esclarecidos quanto às opções epistemológicas disponíveis, não há razão óbvia para esperar que a mesma alternativa se aplique a toda a disciplina científica.
David Papineau
Retirado de The Philosophy of Science, org. David Papineau (Oxford: Oxford University Press, 1996, pp. 1-20)

Notas

  1. Este diagnóstico do debate não é inteiramente claro. Fine começa o seu artigo rejeitando vários argumentos que são normalmente usados para defender, contra o ceticismo, a crença nas teorias científicas, e nesse ponto pelo menos parece ver o ceticismo como uma alternativa ao realismo científico. Mas no final do artigo parece titubear quando diz explicitamente que os seus anti-realistas aceitam as teorias como verdadeiras (veja-se a p. 36).

Referências

  • Carnap, R. (1928) Der logische Aufbau der Welt. Trad. ing.: The Logical Structure of the World. Berkeley: University of California Press, 1967.
  • Cartwright, N. (1983) How the Laws of Physics Lie. Oxford: Clarendon Press.
  • Glymour, C. (1980) Theory and Evidence. Princeton: Princeton University Press.
  • Hacking, I. (1983) Representing and Intervening. Cambridge: Cambridge University Press.
  • Kuhn, T. (1962) The Structure of Scientific Revolutions. Chicago: University of Chicago Press.
  • Laudan, L. (1984) Science and Values. Berkeley: University of California Press.
  • Niddicht, P. (org.) (1968) Philosophy of Science. Oxford: Oxford University Press.
  • Psillos, S. (1995) “Is Structural Realism the Best of the Both Worlds?” Dialectica, 49: 15-46.
  • Van Fraassen, B. (1980) The Scientific Image. Oxford: Clarendon Press.