domingo, 21 de setembro de 2014

Epistemologia: Noções introdutórias

Epistemologia: Noções introdutórias
Silvio Seno Chibeni
Departamento de Filosofia - IFCH – Unicamp

epistemolgia é o estudo ou ciência do conhecimento. Dois dos grandes problemas da epistemologia são o das origens e fundamentação do conhecimento (quais os processos pelos quais o adquirimos, em que ele se fundamenta) e o dos seus limites, ou  extensão (quais as coisas que podem, em  princípio, ser conhecidas e quais as que não podem). Ao longo da história da filosofia, esses dois problemas epistemológicos quase nunca foram tratados separadamente, já que há conexões entre eles. Porém, para fins de análise a distinção é útil, e podemos classificar as doutrinas epistemológicas em dois grupos principais, conforme se ocupem de um ou de outro desses problemas.
No caso do problema das origens e fundamentação do conhecimento, há essencialmente duas posições antagônicas:
i) Empirismo.  Sustenta que o conhecimento se baseia e se adquire  através do que se apreende pelos sentidos. Admite-se, além dos sentidos “externos” (visão, audição, tato, olfato e paladar) a parti­cipação de um sentido “interno” (introspecção), que nos informa acerca de nossos sentimentos, estados de consciência e memória. Como quase toda doutrina filosófica, o empirismo encontra raízes na Grécia Antiga; ganhou novo ímpeto com a revolução científica do século 17, e seus principais defensores no período moderno foram Locke, Berkeley e Hume.
ii) Racionalismo. Mantém que as fontes do verda­deiro conhecimento encontram-se não na experiência, mas na razão. Como no caso do empirismo, também essa doutrina já era defendida entre os gregos; na era moderna, seus principais expoentes foram Descartes e Leibniz.
Naturalmente, é possível manter-se uma posição empirista acerca de determinado tipo de conhecimento e racionalista acerca de outro. De fato, é freqüente, por exemplo, que empiristas com relação ao conheci­mento do mundo físico sejam racionalistas com relação ao conhecimento matemático. E mesmo dentro de uma mesma área, é cabível sustentar-se posições diferentes quanto à origem do conhecimento, dependendo do tipo de proposição envolvida. Esse é o caso da teoria epistemológica de Kant; segundo ela, nosso conhecimento da física é parcialmente a priori (como no caso das leis de Newton) e parcialmente empírico, ou a posteriori (a lei de Boyle, por exemplo).
Não iremos aqui discutir e avaliar, ou mesmo apre­sentar de forma sistemática, as múltiplas variantes dessas doutrinas epistemológicas sobre a origem do conhecimento. Notemos apenas que, como resultado das profundas transformações sofridas pela física em nosso século (que, entre outras conseqüências, levaram à descrença na verdade universal das leis da dinâmica newtoniana, e à adoção de geometrias não-euclideanas), o racionalismo com relação ao conhecimento do mundo físico aparentemente perdeu muito de sua plausibilidade.
Passemos agora à questão dos limites do conhecimento. Aqui, a oposição principal se dá entre a doutrina epistemológica do realismo e uma série de doutrinas com nomes diversos, ditas genericamente anti-realistas.
Poucos conceitos filosóficos têm recebido caracterizações tão di­versas quanto o de realismo. Em um sentido amplo, o termo realismo denota uma determinada posição filosófica acerca de certas classes de objetos, ou de proposições sobre esses objetos. Consideram-se, por exemplo, os objetos matemáticos, os universais, os objetos materiais ordinários, as entidades não-observáveis postuladas pelas teorias científicas, etc.
 Em uma formulação puramente metafísica, o realismo sobre os objetos de uma dessas classes se caracteriza pela afirmação de que os objetos em questão “realmente existem”, ou “desfrutam de uma existência independente de qualquer cognição”, ou “estão entre os constituintes últimos do mundo real”. Pode-se pois ser realista com relação a uma classe ou classes de objetos e anti-realista com relação a outras. Outros filósofos preferem (por razões que não examinaremos aqui) formular o realismo em termos epistemológicos, dizendo, por exemplo, que por realismo se deve entender a doutrina segundo a qual as proposições sobre os objetos da classe em disputa possuem um valor de verdade objetivo, independente de nossos meios para conhecê-lo: são verdadeiras ou falsas em virtude de uma realidade que existe independentemente de nós.
As posições anti-realistas por vezes recebem nomes especiais, de acordo com a classe de objetos em questão. Assim, o anti-realismo com relação às entidades matemáticas é conhecido por construtivismo; com relação aos objetos materiais ordinários por fenomenalismo; com rela­ção aos universais por nominalismo. O anti-realismo científico questiona a possibilidade do conhecimento das entidades e processos inobserváveis postulados pelas teorias científicas; recebe várias denominações, dependendo de como a tese do realismo científico é negada: instrumentalismo, redutivismo, empirismo construtivo, relativismo, etc.

quinta-feira, 11 de setembro de 2014

Doenças mentais surgem Epigeneticamente – como todas as demais



Uma nova biologia vem se impondo na era pós-genômica com a frustração do Projeto Genoma Humano, que supunha que mapear todos os genes de nossa espécie equivaleria a decifrar os segredos de nossa vida e morte. Entendeu-se que o problema é muito mais complicado; entendeu-se que os genes estão conectados a outros mecanismos além dos genéticos; alguns e dão “acima” (epi) do genético. Essa é  uma história antiga no pensamento humano. O que causa as doenças? Causas internas? Causas externas? O ambiente é importante? Ou a herança é mais importante? Estas perguntas são profundas porque refletem o que entendemos do mundo, dos processos que resultam na saúde e na doença, gerando o tipo de tratamento que é dispensado às populações de acordo com esses modelos te´ricos. No projeto genoma humano o tiro saiu pela culatra e acabou apontando evidências experimentais irrefutáveis de que os processos genéticos estão integrados permanentemente a outros processos, proteínas se conectam a outras proteínas, formam redes que atravessam as células os tecidos, afetam os fluídos corporais de todo o organismo. Nossa imensa comunidade de bactérias residentes (grande parte de nossa massa corporal) nossa dieta, nossas relações afetivas, nossos corpos, nossas famílias, comunidades, cidades, países, destinos políticos, práticas culturais que se configuram historicamente momento a momento, não estão determinados a priori como acreditavam os geneticistas. Nós nos construímos historicamente. Essa visão em biologia se chama Epigênese (há outros usos deste mesmo termo e isto pode confundir o entendimento). É um campo importantíssimo que devia estar recebendo atenção estratégica em nossa saúde pública, na educação médica e científica, assim como em nossos programas de pesquisa e desenvolvimento.
    A visão epigenética oferece um modo útil e eficiente de explicar a saúde e a doença, com ênfase nas interações entre o organismo e seu meio, demonstrando como nossas ações, nossa cultura e nossa biologia corporal estão profundamente conectadas. Isto revolucionaria e reforçaria campos da medicina onde o tratamento de doenças é excessivamente farmacêutico (molecular), mecânico e determinista.
  Por exemplo as doenças mentais que acometem grande parte de nossa população faz uso de medicamentos “tarja preta”, psicotrópicos que são responsáveis por lucros alarmantes  das indústrias farmacêuticas, todos os anos em todo o mundo ocidental. Na visão hegemônica de nosso tempo onde o paradigma genético ainda prevalece, as doenças são causadas por defeitos no gene, ou no neurônio, ou no receptor de dopamina”, há sempre “uma causa (específica) determinável” e essa era a motivação do Projeto Genoma Humano. Dizia-se que uma vez obtido esse mapa de nossas unidades genéticas, poderíamos evitar as doenças substituindo essas unidades por outras saudáveis. Pela mesma lógica, usamos substâncias químicas específicas para corrigir problemas estruturais moleculares como anormalidades nos canais de cálcio que atravessam as membranas das células e assim controlam os fluxos de átomos carregados eletricamente para dentro e fora das células realizando movimentos que em ultima análise movem nosso corpo e desempenham nossas funções biológicas. Assim, o doente mental, provavelmente herdou de sua família aberrações genéticas, e estruturais, que devem ser corrigidas com drogas que atuem nestes defeitos moleculares e eventualmente eletrochoques que ajudarão a corrigir a atividade bioelétrica do cérebro do doente.
    No entanto, a Epigenética nos ensina que o destino biológico não está determinado, que ao contrário, a importância da experiência e do curso histórico é imensa. E que doenças graves carregam histórias graves, de miséria, que marcam o corpo biológico ao longo das gerações e vão produzindo alterações epigenéticas que se acumulam até gerar formas gravíssimas de miséria humana como as que se podem observar em Hospitais Psiquiátricos.
Mas a experiência desenvolvida dentro desses próprios Hospitais psiquiátricos hoje podem ganhar muito mais luz graças a uma biologia integrativa, orientada por paradigmas mais contemporâneos como a epigenética, que valorizam a experiência e o trabalho na produção da doença mental, e de como modificações de ordem simbólica e cultural são capazes de modificar significativamente a evolução clínica mesmo de casos graves. Experiências de psiquiatras famosos como Nise da Silveira no Rio de Janeiro, Franco Basaglia na Itália, Ronald Laing na Inglaterra,  Thomas Szasz nos Estados Unidos, e muitos outros no Brasil e no mundo alinham-se com a visão epigenética da biologia para nos relembrar que 
a única constância é a mudança e que o homem, afinal, é o destino do homem. 
E que doenças são produções culturais e políticas, através de modificações históricas epigenéticas que moldam nossos corpos. Mas modificando nossas práticas culturais e políticas, todas essas experiências científicas acumuladas em nosso tempo evidenciam que somos capazes de modificar positivamente mesmo os casos mais graves. É necessário que esse debate se instale publicamente pois estamos debatendo o que entendemos sobre nós próprios e como tratamos nossos doentes e o processo de opressão que provocou essa doença. Estamos debatendo democracia na era epigenética. Uma mudança urgente, necessária e possível que destaque a mudança permanente do mundo vivo, da biologia, poderá nos adequar melhor a natureza e à saúde.

Agradeço ao Professor Nelson Vaz pela revisão e correção sempre fiel e atenta.

segunda-feira, 1 de setembro de 2014

A epistemologia da ciência

A epistemologia da ciência

David Papineau
Tradução de Luiz Helvécio Marques Segundo

Fonte: http://criticanarede.com/episciencia.html

A filosofia da ciência pode ser proveitosamente divida em duas amplas áreas. A epistemologia da ciência lida com a justificação da alegação de que temos conhecimento científico. A metafísica da ciência investiga aspectos filosoficamente intrigantes do mundo descrito pela ciência. Com efeito, a epistemologia da ciência pergunta se as teorias científicas são verdadeiras, ao passo que a metafísica da ciência considera aquilo que diremos sobre o mundo se forem verdadeiras.
Os ensaios nesta coletânea voltar-se-ão para a epistemologia da ciência. Perguntarão se temos justificação para acreditar nas teorias científicas, e que atitudes deveremos ter perante elas caso não a tenhamos. Talvez a metafísica da ciência tenha tanto direito ao título de filosofia da ciência quanto a epistemologia da ciência. No entanto, é uma área heterogênea que resiste a qualquer compilação. Os problemas da metafísica da ciência tendem a emergir ou na metafísica geral (como a análise da causalidade, ou da probabilidade, ou das leis da natureza) ou se enquadram na área das ciências específicas (como questões sobre a indeterminação quântica ou sobre as unidades da seleção natural). A epistemologia da ciência, ao invés, lida com problemas que surgem da ciência em geral e não das ciências específicas, sendo, contudo, ao mesmo tempo distinguíveis dos problemas que surgem nas outras áreas da filosofia.
Na década de 1980 ou depois disso, os filósofos de ciência fizeram muito para consolidar e unificar o trabalho na epistemologia da ciência. Na primeira metade do séc. XX a tradição dominante na epistemologia da ciência foi o empirismo lógico de Rudolf Carnap e Carl Hempel, que usaram as técnicas da lógica formal e da matemática para analisar a estrutura das teorias científicas e formular teorias da explicação e confirmação científicas (cf. P. H. Nidditch, org., The Philosophy of Science, Oxford Readings in Philosophy, 1968). No entanto, na década de 1960, essa abordagem baseada na lógica foi posta em causa pelo trabalho de orientação histórica de N. R. Hanson, T. S. Kuhn e Paul Feyerabend, que recorreram a estudos detalhados de casos da história da ciência para defender que as pressuposições do empirismo lógico estavam fatalmente condenadas ao fracasso (cf. Ian Hacking (org.)Scientific Revolutions, Oxford Readings in Philosophy, 1981).
Isso conduziu a uma cisão nos estudos sobre a teorização científica. Alguns filósofos continuaram a trabalhar na tradição de Carnap e Hempel, formalizando padrões ideais de raciocínio científico. Mas muitos se convenceram de que essa abordagem formal tinha pouca relação com a realidade da prática científica, e voltaram-se, ao invés, para a análise histórica, a fim de conseguir uma perspectiva iluminante sobre a estrutura da ciência. Um subproduto dessa viragem histórica foi que muitos filósofos, e mesmo muitos historiadores e sociólogos da ciência, ficaram céticos quanto à existência de quaisquer padrões objetivos da racionalidade científica, acabando por ver as escolhas teóricas como nada mais do que expressões de pressões sociais e institucionais.
Os ensaios desta coletânea, juntamente com muitos outros trabalhos recentes na epistemologia da ciência, ajudam a transpor esse hiato entre os empiristas lógicos e os historicistas. Os epistemólogos da ciência contemporâneos aprenderam com Kuhn, entre outros, que a ciência efetiva está menos ligada a regras do que os empiristas lógicos supunham, embora não concluam que careça completamente de racionalidade. Ou, pondo as coisas de outra forma, ainda que os epistemólogos da ciência contemporâneos mantenham o interesse dos empiristas lógicos pelas questões da objetividade científica, já não estão comprometidos com a abordagem ultraformal dos empiristas lógicos com respeito ao que a objetividade requer.

O realismo e suas antíteses

O debate mais recente na epistemologia da ciência centra-se na questão do realismo científico. As discussões sobre o realismo científico, no entanto, e particularmente no que diz respeito às alternativas ao realismo, estão cheias de confusões terminológicas. Alguma clarificação inicial será útil.
Suponha-se que consideramos que o realismo, para qualquer corpo de suposto conhecimento, científico ou não, envolve a conjunção das duas teses seguintes: 1) umatese da independência: o que confere verdade aos nossos juízos é um mundo que existe independentemente da nossa consciência dele; 2) uma tese do conhecimento: em geral, podemos saber que esses juízos são verdadeiros.
O realismo, definido deste modo, é ameaçado por uma tensão interna: se o mundo é independente da nossa consciência dele, como podemos obter conhecimento seguro dele? Várias soluções dessa tensão são possíveis. Os realistas procuram um meio de sustentar a tese do conhecimento e a tese da independência. Mas há duas alternativas tradicionais ao realismo, definidas pela rejeição de uma dessas teses. A tradiçãoidealista ou verificacionista abandona a tese da independência, argumentando que a própria noção de um mundo adicional, para lá do mundo tal como o percepcionamos, é incoerente. Os céticos, pelo contrário, abandonam a tese do conhecimento, e argumentam que não podemos conhecer a verdade sobre o mundo.
Na epistemologia contemporânea da ciência, o ceticismo é a principal alternativa ao realismo. Isso contrasta com a epistemologia do conhecimento cotidiano. Quando os filósofos atuais consideram o nosso conhecimento cotidiano de objetos como árvores e mesas, tomam como alternativa mais séria ao realismo uma versão de idealismo ou verificacionismo. Assim, por exemplo, os “fenomenistas” argumentam que é impossível que um conceito represente algo mais que um padrão de sensações, e que é uma confusão, portanto, pensar que os juízos humanos possam fazer referência a algo para lá do mundo tal com surge na percepção sensorial. Assim, os fenomenistas podem então argumentar que o conhecimento das árvores e mesas não é problemático, dado não haver dificuldade em conhecer as nossas próprias sensações.
É verdade, com certeza, que muitos livros introdutórios de epistemologia atuais discutem o ceticismo e o fenomenismo lado a lado, como alternativas ao realismo. Mas ninguém fora de uma aula de filosofia questiona seriamente o nosso conhecimento dos objetos físicos de tamanho médio, como as árvores e as mesas. Na epistemologia atual, os argumentos céticos sobre as árvores e as mesas voltam-se para as nossas suposições: uma vez que obviamente temos conhecimento de árvores e mesas, um argumento de que tal conhecimento é impossível nos desafia a encontrar a falha no nosso raciocínio.
O ceticismo na filosofia da ciência, pelo contrário, não é de modo algum apenas um exercício filosófico. Pois não é de todo óbvio que conheçamos as entidades postuladas pelas teorias científicas modernas, tal como as ondas gravitacionais ou os neutrinos. Afinal, nunca temos qualquer indício sensorial a favor dessas entidades. E o historial das teorias do passado que postularam entidades inobserváveis similares não é bom. Considerações como esta têm persuadido uma quantidade significativa de filósofos da ciência contemporâneos de que o conhecimento de tais entidades é na verdade insustentável.
O ceticismo nem sempre tem sido a principal alternativa a uma epistemologia da ciência realista. No passado, muitos filósofos da ciência, de J. S. Mill a Rudolf Carnap no Aufbau (1928), optaram por uma abordagem fenomenista do conteúdo das afirmações científicas, defendendo que é apropriado entender que termos como “massa,” “carga” e “força” representam complexos de circunstâncias observáveis. De fato, essa foi talvez a perspectiva dominante até o início do séc. XX. Mas o surgimento da microfísica, com o seu discurso sobre átomos e campos, tornou essa perspectiva problemática. As tentativas de Carnap de reduzir tal discurso teórico a afirmações observacionais enfrentaram obstáculos técnicos. Em todo caso, a perspectiva é contra-intuitiva. Uma coisa é sustentar que as afirmações sobre árvores são realmente afirmações sobre sensações. Mas é difícil considerar seriamente essa tese no que respeita a afirmações sobre objetos inobserváveis como elétrons.
Conseqüentemente, quase todos os filósofos da ciência contemporâneos aceitam que a ciência visa descrever literalmente um mundo inobservável de partículas microscópicas e ondas intangíveis. E uma quantidade significante tira a conclusão cética de que a ciência não pode ser bem-sucedida nesse objetivo: uma vez que o mundo que a ciência visa descrever está além do alcance da percepção humana, não temos razão para pensar que suas teorias são verdadeiras.
Estas questões podem ser obscurecidas pela terminologia. Os oponentes céticos contemporâneos do realismo científico denominam-se “instrumentalistas” ou “ficcionalistas” ou “empiristas construtivos,” e provavelmente objetariam ao epíteto “cético.” Ainda assim, e ao contrário dos primeiros filósofos da ciência fenomenistas, como Mill ou Carnap, todos esses filósofos da ciência contemporâneos aceitam que as teorias científicas visam retratar literalmente um mundo inobservável, e concluem que por essa razão seria um erro acreditar em quaisquer teorias científicas. Se esses filósofos diferem dos céticos comuns, é apenas por adicionar a essa rejeição da crença a idéia adicional de que as teorias científicas podem não obstante ser “instrumentos” ou “ficções” úteis para propósitos previsivos, e nesse aspecto podem ser “aceites” como instrumentos de trabalho.
Outra fonte de confusão terminológica é o termo “anti-realismo.” O termo foi primeiramente introduzido por Michael Dummett para descrever uma posição na tradição idealista-verificacionista. O “anti-realismo” de Dummett não visa construir o mundo fora das sensações, ao estilo do fenomenismo comum; mas, ainda assim, insiste, com a tradição idealista-verificacionista, que os nossos juízos não podem fazer referência a condições que estejam para lá das capacidades de verificação dos seres humanos. Por outro lado, os filósofos da ciência, principalmente nos Estados Unidos, têm usado o termo “anti-realismo” para se referir a perspectivas céticas, e em particular à atitude cética perante as teorias científicas que é a principal alternativa contemporânea ao realismo científico.
É claro que as pessoas podem definir os seus termos como desejarem, mas há aqui muito espaço para a má compreensão. Note-se que “anti-realismo,” no sentido de Dummett, contradiz diretamente o “anti-realismo,” no sentido dos filósofos da ciência americanos. O anti-realismo de Dummett, assim como a maior parte do idealismo e verificacionismo tradicionais, procura sustentar as nossas alegações de que temos conhecimento, argumentando que não se deve pensar que estas fazem referência a um mundo para lá do nosso alcance. Ao contrário disto, o anti-realismo americano quer rejeitar quaisquer alegações científicas de que conhecemos o mundo inobservável, baseando-se precisamente na idéia de que estas fazem referência a um mundo para lá da nossa capacidade. A única característica comum a estas duas perspectivas são suas rejeições da conjunção de 1 e 2 que usei anteriormente para definir o realismo. No entanto, onde o anti-realismo de Dummett sustenta a tese do conhecimento rejeitando a tese da independência, o anti-realismo americano faz exatamente o oposto.
Tabela 1
CETICISMO
(empirismo construtivo; ficcionalismo; instrumentalismo; anti-realismo americano)
REALISMOIDEALISMO
(verificacionismo; fenomenismo; anti-realismo de Dummett)
MUNDOIndependenteIndependenteDependente
CONHECIMENTONãoSimSim
Vários destes aspectos sobre o realismo científico estão em questão nos primeiros dois artigos desta coletânea. Arthur Fine (Cap. I) argumenta em favor de uma posição a que chama “atitude ontológica natural” (“AON”). Esta posição consiste naquilo que afirma serem truísmos sobre a ciência, comuns ao realismo e ao anti-realismo. Central entre esses truísmos, argumenta Fine, é a doutrina de que as teorias científicas bem confirmadas devem ser aceites como verdadeiras. Fine argumenta que o erro cometido tanto por realistas como por anti-realistas é adicionar teses metafísicas extravagantes sobre a natureza da verdade e da realidade ao núcleo simples de suas suposições compartilhadas.
Alan Musgrave (Cap. II) concorda com Fine que a AON é a atitude correta para a teorização científica. Mas objeta que a AON é em si um espécie de realismo, e não um núcleo que pode ser aceite por realistas e anti-realistas. Afinal, como Musgrave entende o termo, os anti-realistas não aceitam as teorias científicas bem confirmadas como verdadeiras. Musgrave cita Bas van Fraassen e Larry Laudan como dois proeminentes anti-realistas contemporâneos que são bastante explícitos nas suas insistências de que é um erro acreditar na verdade de qualquer teoria científica sobre a estrutura subjacente do mundo inobservável.
Além do mais, argumenta Musgrave, não há razão pela qual um realista, tal como ele o entende, deva adicionar qualquer metafísica duvidosa à aceitação da AON das teorias como verdadeiras. É o bastante para o realismo científico, no sentido de Musgrave, que devemos aceitar que a ciência nos diz a verdade sobre o mundo inobservável. Perspectivas metafísicas adicionais sobre a natureza da verdade e da realidade são adições desnecessárias a essa posição realista.
Essa aparente disputa entre Fine e Musgrave é, em grande parte, simplesmente o resultado de darem atenção a debates diferentes. Fine não está interessado na opção cética, mas, ao invés, está pensando na disputa entre o realismo e o anti-realismo no sentido de Dummett — isto é, do quão distinto o mundo em si pode ser do modo como aparece aos seres humanos. É sobre essa questão que a AON é neutra. Fine pensa que tanto o realista, que insiste que o que confere verdade aos nossos juízos é um mundo de fatos independentes da verificação, quanto o anti-realista ao estilo de Dummett, que o nega, estão fazendo fortes afirmações metafísicas que os filósofos da ciência sóbrios deveriam por bem evitar.
Musgrave concorda de bom grado, mas pensa que a AON de Fine é em si uma forma de realismo. Isso porque está primariamente interessado no ceticismo como alternativa ao realismo científico. Desse ponto de vista, a AON de Fine e as duas perspectivas que medeia podem muito bem serem consideras versões de realismo, uma vez que todas sustentam, contra o ceticismo, que devemos aceitar como verdadeiras as melhores teorias científicas sobre inobserváveis.
Em termos da Tabela 1, podemos dizer que Fine se preocupa apenas com as duas colunas da direita, e deseja sustentar que deveríamos adotar apenas aqueles truísmos que forem comuns a ambas. Musgrave, por outro lado, está interessado na disputa entre a coluna da esquerda e as duas da direita (embora concorde com Fine em favorecer o núcleo comum das colunas da direita e da esquerda).1
Uma lição óbvia desse par de artigos é que os leitores devem ter cuidado com a terminologia. “Realismo” e “anti-realismo” são apenas dois exemplos. Vários termos relacionados, incluindo “empirista,” “positivista,” “pragmatista” e “instrumentalista” variam de significado quando usados por filósofos diferentes. Os leitores cuidadosos dos artigos nesta coletânea notarão como os autores introduzem esses termos e atentarão para quaisquer outras indicações de significados que lhes forem atribuídos.

A subdeterminação da teoria pelos indícios

Um desafio central ao realismo científico advém da subdeterminação da teoria pelos indícios observacionais. Suponha-se que duas teorias T1 e T2 são empiricamente equivalentes, no sentido de fazerem as mesmas previsões observacionais. Deste modo, nenhum corpo de indícios observacionais será capaz de decidir conclusivamente entre T1 e T2.
Note-se que o problema com tais teorias não é apenas que T1 e T2 está subdeterminada pelos indícios atuais. Se os indícios atuais falham ao decidir entre duas teorias, então a resposta óbvia é suspender a crença por enquanto, e procurar experiências científicas que decidirão entre elas. Mas com teorias cuja equivalência empírica seja genuína essa opção não está disponível. Se todas as previsões observacionais de T1 e T2 são idênticas, então não há experiência científica alguma que possa eliminar uma em detrimento da outra.
A tese da subdeterminação da teoria pelos indícios afirma que sempre seremos confrontados com teorias empiricamente equivalentes, por mais indícios que tenhamos acumulado. Há dois argumentos persuasivos a favor dessa tese. Um tem origem na chamada tese de Duhem-Quine, que afirma que qualquer teoria pode reter as suas suposições centrais face a quaisquer indícios anômalos, fazendo-se ajustes para salvar as suposições centrais. Suponha-se que começamos com duas teorias rivais T1 e T2 e olhamos para os indícios futuros para decidir entre elas, como se sugeriu no parágrafo anterior. Dado a tese de Duhem-Quine, segue-se que, mesmo após qualquer quantidade de indícios futuros, ainda teremos duas teorias, T'1 e T'2, derivadas do par original pelas revisões sucessivas ocasionadas pelos indícios, e que esses indícios não permitem decidir entre elas.
Um argumento mais direto a favor da existência inevitável de teorias empiricamente equivalentes começa com determinada T1, e mostra então que podemos sempre obter uma T2 diferente que faz exatamente as mesmas previsões. A versão mais simples dessa estratégia considerará simplesmente T2 que faz todas as afirmações observacionais feitas por T1, negando contudo a existência de quaisquer mecanismos inobserváveis postulados por T1. As versões mais interessantes do argumento não eliminam apenas os mecanismos inobserváveis postulados por T1; substitui-los por estruturas “autocorretivas” concebidas para produzir exatamente as mesmas aparências observacionais. (Por exemplo, se T1 é uma teoria dinâmica, faça-se de T2 a teoria que o universo está se acelerando ao ritmo de um pé por segundo quadrado numa determinada direção, e adicione-se uma força universal agindo sobre todos os corpos para produzir essa aceleração. O resultado será que T1 e T2 prevêem exatamente os mesmos movimentos relativos observáveis.)
O artigo de Lawrence Sklar (Cap. III) trata as questões levantadas pela subdeterminação da teoria pelos indícios. Sklar sente-se inicialmente atraído pela idéia de que, em qualquer par de teorias empiricamente equivalentes, cada uma é apenas, na verdade, uma variante notacional da outra — uma mesma teoria formulada por palavras diferentes, como o Principia de Newton escrito em latim e em inglês. Mas reconhece que esta posição carece de plausibilidade. Trata-se, com efeito, de uma versão da velha perspectiva fenomenista das teorias científicas (a perspectiva “positivista” para Sklar), de acordo com a qual as afirmações sobre as entidades aparentemente inobserváveis, como os elétrons, são na verdade afirmações sobre fenômenos observáveis: pois note-se que as teorias empiricamente equivalentes serão automaticamente variantes notacionais somente se for impossível dar significado (permitindo, portanto, que possam ser contraditas) às afirmações sobre qualquer realidade por trás das aparências observáveis.
O artigo de Sklar trata de explorar as opções deixadas em aberto depois de se aceitar a subdeterminação da teoria pelos indícios (apesar de, no final, ele duvidar que quaisquer dessas teorias sejam aceitáveis). Uma opção é adotar o ceticismo, pela razão de que nunca devemos acreditar em qualquer teoria caso nenhum indício empírico possa eliminar conclusivamente as suas alternativas empiricamente equivalentes. Outra é procurar por meios de se discriminar entre teorias empiricamente equivalentes, argumentando que mesmo quando várias teorias fazem as mesmas previsões observacionais, a crença numa pode ser mais adequada do que a crença nas outras.
O artigo de Bas van Fraassen (Cap. IV) adota a primeira opção. De acordo com o “empirismo construtivo” de van Fraassen (que é elaborado em maior detalhe em van Fraassen 1980), nunca devemos acreditar em qualquer teoria que vá além dos fenômenos observáveis. No máximo, devemos acreditar que a teoria é “empiricamente adequada” — isto é, que é correta no que diz respeito à parte observável do mundo. A maior parte do artigo de van Fraassen trata de mostrar que essa noção de adequação empírica, e a distinção associada entre observável e inobservável, se explica melhor na abordagem “semântica” das teorias científicas, que identifica as teorias com conjuntos de modelos, ao invés da abordagem “sintática” mais tradicional das teorias como conjunto de frases. (Em conexão com a distinção observável-inobservável, é importante observar que um cético como van Fraassen exige muito menos da distinção observável-inobservável do que um fenomenista como Mill ou Carnap: pois, onde os fenomenistas sustentam que não podemos dizer algo dotado de significadosobre os inobserváveis, o cético científico sustenta apenas que seres com as nossas capacidades perceptuais limitadas não devem acreditar em quaisquer afirmações sobre inobserváveis.)
A resposta não cética alternativa à subdeterminação é argumentar que podemos ter bases para acreditar numa teoria em detrimento de outras de um conjunto de teorias empiricamente equivalentes. À primeira vista isto poderá parecer pouco prometedor. Se nada do que observamos pode afastar as teorias alternativas, então como podemos ter justificação para selecionar uma para ser objeto de crença? Mas isto impõe sub-repticiamente um padrão muito alto para a crença justificada. Pressupõe que nos é permitido crer apenas nas conseqüências lógicas das nossas observações (já que passa imediatamente da existência de teorias alternativas consistentes com nossas observações para a inadmissibilidade da crença em qualquer teoria). Esta é, no entanto, uma exigência irrazoavelmente forte de crença justificada. E nem é uma exigência que a maioria dos céticos científicos contemporâneos desejaria impor. Pois implicaria (como van Fraassen fez notar no fim do seu artigo) que nem mesmo estamos autorizados a acreditar na adequação empírica de uma teoria, uma vez que isso em si requer que demos um salto indutivo para lá das conseqüências lógicas do nosso conjunto finito de dados observacionais.
Assim, talvez haja espaço para uma resposta não cética à subdeterminação. A idéia, grosso modo, seria que, dentre as teorias empiricamente equivalentes consistentes com os nossos dados observacionais, algumas são melhores explicações que as outras em virtude da sua maior simplicidade ou elegância ou poder unificador, e que essas virtudes são indicações de que aquelas teorias são verdadeiras. (Compare-se o modo pelo qual nos restringimos a generalizações “projetáveis” ao fazer induções enumerativas simples de dados finitos de nível observacional.)
Uma preferência pela “melhor explicação” certamente parece fazer parte da prática científica. Como vimos, há sempre equivalentes empíricos para qualquer teoria, baseados ou nos mecanismos de “autocorreção” ou na rejeição total dos mecanismos inobserváveis. Mas poucos cientistas praticantes considerariam a existência de tais alternativas desajeitadas uma boa razão para desacreditar as teorias normais. Dado que as explicações dos dados observáveis fornecidos por teorias normais são de longe mais elegantes, os cientistas geralmente se contentam em considerar que as teorias normais são verdadeiras.
Contudo, ainda que a “inferência a favor da melhor explicação” seja parte da prática científica intuitiva, ela não é necessariamente uma boa forma de inferência. Os filósofos da ciência céticos argumentarão que os cientistas extraviam-se sempre que se comprometem com a verdade das suas melhores explicações. Uma objeção óbvia à inferência a favor da melhor explicação é considerada no artigo de Peter Lipton “Is the Best Good Enough?” (Cap. V). Suponha-se que aceitamos que os cientistas comumente fazem juízos comparativos precisos quando julgam que a teoria T1 é provavelmente mais verdadeira do que T2, ..., Tn. Só por si, isto não garantirá que tenham chegado à verdade, pois pode haver ainda mais teorias nas quais nem pensaram. Seria ingênuo inferir que a “melhor” explicação é a verdadeira, se é apenas a melhor entre as que foram consideradas até agora. No século XVII, a teoria de Newton era de longe a melhor explicação disponível do movimento gravitacional. Mas isso se deu porque ninguém ainda tinha sido capaz de formular a relatividade geral.
Em resposta a este argumento, Lipton sugere que às vezes é possível usar juízos científicos comparativos para chegar às exigências absolutas que faz o realismo científico. Pois podemos sempre assegurar que o nosso levantamento das opções teóricas será exaustivo, incluindo Tn+1 como uma alternativa universal, a negação de todas as teorias T1, ..., Tn cogitadas até agora. De fato, os cientistas às vezes julgarão, quando fizerem isso, que Tn+1 é mais provavelmente verdadeira — isto é, que a teoria verdadeira muito provavelmente está entre as que ainda não cogitaram. Mas noutros casos colocarão Tn+1 abaixo das teorias que já cogitaram, e concluirão, portanto, que a “melhor” teoria deles é absolutamente a mais provavelmente verdadeira.

A metaindução pessimista a partir da falsidade do passado

O artigo de Lipton defende, pois, a inferência a favor da melhor explicação (de todas as possíveis) contra uma possível objeção. No entanto, as questões subjacentes quanto ao estatuto filosófico desse tipo de inferência permanecem. Note-se que Lipton começa com a suposição de que os cientistas podem pelo menos produzir juízoscomparativos sólidos de verossimilhança. Mas os céticos não precisam aceitar isto. Os céticos podem, geralmente, invocar a subdeterminação da teoria pelos indícios para questionar qualquer conexão entre a excelência explicativa (simplicidade, elegância, poder unificador) e a verdade. Se há sempre teorias alternativas consistentes com os indícios, que garantia poderia haver de que a teoria mais explicativa será geralmente a verdadeira?
Esse desafio cético levanta várias questões filosóficas delicadas sobre a verdade, a racionalidade e o fardo da prova, aos quais retornarei na próxima seção. Mas primeiro vou considerar um argumento muito mais simples contra a inferência da verdade com base na melhor explicação. Este argumento não invoca sutilezas da subdeterminação, mas sim indícios empíricos diretos de malogros teóricos do passado. Se examinarmos os casos onde os cientistas adotaram as suas melhores explicações como verdadeiras, essas explicações normalmente se tornaram falsas: considere-se, por exemplo, a astronomia ptolomaica, a teoria calórica do calor, a teoria do éter do eletromagnetismo, e assim por diante. Dado este pequeno histórico de melhores explicações, não deveríamos concluir que a inferência a favor da melhor explicação nos conduzirá, em geral, a falsidades, ao invés de verdades?
Esta “metaindução pessimista a partir da falsidade do passado” está subjacente a “A Confutation of Covergente Realism” de Larry Laudan (Cap. VI). Laudan ataca o argumento segundo o qual se alguma teoria científica for “bem-sucedida,” no sentido de gerar previsões confirmadas através de uma diversidade de contextos, então a melhor de todas as explicações possíveis desse sucesso é a verdade da teoria (“Seria um milagre se tudo funcionasse como a teoria previra, e ainda assim a teoria fosse falsa”). Examinou uma ampla gama de teorias que defensavelmente foram bem-sucedidas neste sentido, e mostrou que tal sucesso normalmente não é explicado pela verdade da teoria envolvida. Pois quase todas essas teorias — Laudan fornece uma lista histórica bastante grande — foram posteriormente consideradas falsas.
Uma possível resposta realista (antecipada por Laudan) é argumentar apenas a favor da verdade aproximada das teorias bem-sucedidas, ao invés de sua verdade irrestrita. As teorias bem-sucedidas no que diz respeito à previsão não são, sem dúvida, sempre verdadeiras em todos os detalhes precisos. Mas talvez possam ainda ser consideradaspróximas da verdade, e em geral mais próximas da verdade do que as suas predecessoras.
Uma objeção a esta manobra é que a noção de “verdade aproximada” é extremamente difícil de articular claramente. Uma tradição persistente de pesquisa da noção de “verossimilhança” (veja-se a bibliografia no final deste volume) tem tornado claro que não pode haver uma maneira independente dos nossos interesses de medir a distância entre uma teoria e a verdade. No entanto, afora essa dificuldade técnica, há uma objeção mais óbvia ao apelo realista à verdade aproximada: a saber, que a maioria das teorias do passado que foram bem-sucedidas quanto à previsão não estão nem sequer próximas da verdade, de acordo com qualquer leitura intuitivamente plausível de “verdade aproximada.” A objeção de Laudan ao realismo não é apenas que as teorias do passado se mostraram erradas no que respeita aos detalhes. É, ao invés, que tendem a estar radicalmente em desacordo com a verdade, comprometendo-se com uma gama de entidades explicativas (como esferas cristalinas, ou fluído calórico, ou o éter) que não têm quaisquer contrapartes na realidade.
John Worrall (Cap. VII) explora uma resposta realista diferente ao argumento de Laudan. Concede que teorias do passado que foram mais bem-sucedidas em termos de previsão contêm comumente erros fundamentais. Mas argumenta que isso não exige uma rejeição completa de todas as afirmações científicas sobre os mecanismos inobserváveis por detrás das previsões observáveis. Na perspectiva de Worrall, as lições da história têm implicações diferentes com respeito a componentes diferentes nas teorias científicas. Mais especificamente, argumenta que a história mostra que as teorias do passado estão caracteristicamente erradas sobre a natureza do reino observável, mas não sobre a estrutura do seu comportamento. No seu exemplo central, Worrall argumenta que os cientistas do séc. XIX estavam enganados ao crer que a radiação eletromagnética estava incorporada num “éter,” mas completamente corretos sobre as equações matemáticas que regem o eletromagnetismo. Worrall tira a lição geral de que devemos acreditar na estrutura da realidade inobservável postuladas pelas teorias bem-sucedidas, mas evitar nos comprometermos com quaisquer afirmações sobre a natureza dessa realidade.
A estratégia geral exemplificada pelo artigo de Worrall parece oferecer a melhor esperança para o realismo. Frente aos malogros teóricos do passado, os realistas precisam mostrar que algumas partes das teorias malogradas se mostraram melhor do que outras. Se puderem, portanto, identificar alguma diferença de princípio entre as partes boas e as más, podem recomendar as partes boas das teorias atuais.
Resta saber, contudo, se é um truque o modo específico, proposto por Worrall, de traçar a distinção. Alguns filósofos da ciência argumentariam que, uma vez que o nosso acesso intelectual às entidades inobserváveis é sempre mediado por uma estrutura de suposições teóricas, não sendo uma intuição direta da sua natureza, a restrição proposta por Worrall de crer apenas nas afirmações estruturais não é de fato uma restrição (cf. Psillos 1995). Se isto estiver correto, então os realistas precisam encontrar outro meio qualquer melhor para distinguir as partes das teorias que provavelmente têm de ser desacreditadas das partes que são dignas de crença.

Verdade e racionalidade

Suponhamos que o realismo possa ser bem-sucedido em bloquear a metaindução pessimista de algum modo. Os realistas, portanto, não adotarão as nossas teorias atuais in toto como a melhor explicação do sucesso previsivo, mas apenas aquelas partes cujos indícios da história indicam ser genuinamente responsável por tal sucesso.
No entanto, o realismo ainda precisa lidar como outro desafio cético mencionado anteriormente. Ao inferir a melhor explicação do sucesso previsivo, os realistas supõem que a melhor explicação (a mais simples, a mais elegante, a mais unificadora) é provavelmente a verdadeira. Os céticos põem em causa essa suposição evidenciando que há sempre mais de uma explicação inobservável consistente qualquer corpo de indícios observacionais. Uma vez que não temos acesso independente ao reino inobservável, como poderíamos saber que a “melhor” explicação é geralmente a explicação verdadeira?
Há duas respostas possíveis a este desafio, que correspondem às colunas do meio e da direita da Tabela 1. Ambas são realistas no sentido de Musgrave, rejeitando o ceticismo e sustentado a crença nas teorias científicas. Mas no sentido de Dummett (e de Fine), uma é realista e a outra anti-realista, uma vez que discordam sobre se a verdade envolve a conformidade a uma realidade independente. A opção anti-realista dummettiana está ilustrada no artigo de Brian Ellis (Cap. VIII). Se pensarmos na verdade como correspondência a uma realidade independente, argumenta Ellis, então não há alternativa ao ceticismo de van Fraassen, pois não há modo de se estabelecer que as teorias com virtudes explicativas são geralmente verdadeiras. No entanto, esse hiato entre a excelência explicativa e a verdade pode ser ultrapassado, sublinha Ellis, se considerarmos que a verdade é, por definição, a perspectiva que devemos sustentar racionalmente, dados todos os indícios observáveis possíveis. Pois se é uma norma da racionalidade que devemos acreditar na mais explicativa (simples, elegante, unificadora) dentre as teorias subdeterminadas, então a melhor delas (dados todos os indícios) será por definição uma teoria verdadeira.
A posição de Ellis, que ele caracteriza como “realismo interno,” depende da sua abordagem “pragmática” da verdade como o que quer que seja justificável por normas racionais. Ellis, de fato, considera que as normas racionais são dadas a priori, e então define a verdade em termos dessas normas. A posição resultante é um anti-realismo no sentido de Dummett. Esta não faz os juízos alcançarem a verdade através do reino das sensações, ao estilo do anti-realismo fenomenista tradicional, mas nega que os juízos façam referência a algo independente das normas racionais do pensamento humano.
A abordagem pragmática da verdade proposta por Ellis não é de maneira alguma incontroversa. Note-se que não é um argumento a favor dela a idéia de que ofereceria uma resposta ao desafio cético. (Analogamente, que poderíamos ter conhecimento de árvores caso estas fossem apenas padrões de percepções, não é uma boa razão para pensar que as árvores são padrões de percepções.) Muitos filósofos preferem uma perspectiva alternativa, a de que a verdade deveria ser definida como conformidade a uma realidade independente, ao invés de em termos de normas da racionalidade humana.
Seria um desvio discutir aqui a análise do conceito de verdade propriamente dita. Consideraremos, ao invés, se a perspectiva não pragmática da verdade tem qualquer resposta ao desafio cético. Ellis diz que se a verdade for conformidade a uma realidade independente, então não há modo de se conectar a verdade e a virtude explicativa. Mas isto é demasiado apressado. Uma abordagem não pragmática da verdade não fornecerá qualquer conexão conceitual entre verdade e virtude explicativa, uma vez que não define a verdade em termos de virtude explicativa. Mas deixa em aberto, contudo, a possibilidade de uma conexão empírica entre virtude explicativa e verdade. Se tal conexão empírica pudesse ser defendida, então isso ofereceria um modo diferente de defender as inferências a favor da melhor explicação, contra o desafio cético.
A segunda contribuição de Larry Laudan a esse volume (Cap. IX) aponta para essa possibilidade. Laudan não está preocupado em defender o realismo contra o ceticismo. Mas mostra como os princípios da escolha de teorias científicas, assim como a inferência a favor da melhor explicação, poderiam ser justificados por generalizações empíricas que conectam as virtudes teóricas com as metas da ciência.
O ponto de partida de Laudan é um velho debate sobre a relevância da história para a filosofia da ciência. A “viragem histórica” instigada por Hanson, Kuhn e Feyerabend na década de 1960 conduziu os filósofos da ciência a testar propostas metodológicas contra os indícios empíricos da história da ciência. Caso se pudesse mostrar que Newton violou a metodologia de Carnap, digamos, considerar-se-ia, então, que isso contaria contra a metodologia deste último. No entanto, a lógica desse tipo de argumento é obscura. Por que razão os preceitos do metodólogo se devem adequar aos fatos empíricos da prática de Newton? Como Laudan observa, ainda que aceitemos que Newton seja membro da elite científica, não precisamos também aceitar que todos os aspectos de sua prática sejam metodologicamente exemplares.
Laudan oferece uma explicação diferente da relevância dos indícios históricos para a metodologia. Suponha-se que distinguimos os objetivos da ciência dos meios da prática científica. Os objetivos podem incluir encontrar teorias verdadeiras, ou teorias confiáveis no que respeita à previsão, ou teorias que oferecem provas da existência de Deus. Dado determinado fim x, a prática de se escolher entre teorias que exibem uma certa virtude y pode ser vista como um meio para esse fim. Isso sugere que os principio metodológicos têm a forma de imperativos hipotéticos, especificando um meio para um fim. Desse modo, podem ser avaliados em termos empíricos, como todas as recomendações meios-fim similares: os indícios empíricos mostram que y é de fato um meio eficaz para x? Mais especificamente, no presente contexto, o registro histórico mostra que as teorias com a característica y são uma rota melhor para se chegar a x? Do ponto de vista de Laudan, a prática de Newton é metodologicamente relevante não por causa do estatuto especial de Newton, mas simplesmente porque fornece casos que poderiam ajudar a mostrar se escolher y geralmente conduz a x.
Embora Laudan deixe a questão em aberto nesse segundo artigo, não pensa de fato que a verdade (enquanto algo que se opõe à fiabilidade previsiva, digamos) seja um objetivo sensato para a ciência. Uma vez que defende a metaindução pessimista, Laudan pensa que os indícios históricos demonstram quão ineficazes são quaisquer meios metodológicos usados pelos cientistas para tentar chegar à verdade (cf. Laudan 1984: 137).
No entanto, se formos capazes de bloquear a metaindução pessimista delineada na última seção, então talvez possamos pôr ao serviço do realismo a perspectiva meios-fim da racionalidade científica proposta por Laudan. Talvez os indícios históricos relevantes permitam mostrar que certas estratégias metodológicas são rotas eficazes para chegar a teorias verdadeiras. Uma metodologia deste tipo para a ciência teria afinidades com a tradição fiabilista da epistemologia atual, que sustenta que uma crença se admite como conhecimento se for produzida por um método fiável — isto é, por um método que, por uma questão de fato empírico, geralmente produz crenças verdadeiras. Esta tradição, na verdade, inverte a abordagem exemplificada por Ellis: ao invés de definir a verdade em termos de normas a priori, identifica a metodologia racionalmente correta como aquela que, por uma questão de fato empírico, fornece uma rota eficaz para a verdade.
Richard Boyd desenvolveu esta abordagem para a filosofia da ciência numa série de artigos nas últimas décadas do séc. XX. Boyd oferece um argumento empírico a favor da fiabilidade dos métodos da ciência moderna: a saber, que a única boa explicação para o sucesso previsivo da ciência é que a ciência moderna em geral fornece uma rota eficaz para a verdade (aproximada). Mostra que os procedimentos pelos quais os cientistas desenvolvem e testam novas teorias se baseiam comumente em suposições de fundo fornecidas por teorias já estabelecidas. Boyd sustenta que esses procedimentos para desenvolver novas teorias raramente poderiam produzir sucesso previsivo a menos que essas teorias fossem em grande parte verdadeiras (Lipton, este volume, p. 100).
No artigo reimpresso aqui (Cap. X), Boyd explica como este argumento pode resistir às aparentes implicações céticas da metaindução pessimista. Conclui o artigo respondendo à acusação de que sua posição é circular. Note-se que Boyd parte de indícios empíricos de que a ciência é previsivamente bem-sucedida e conclui, via inferência a favor da melhor explicação, que o método científico moderno é uma rota eficaz para a verdade. Mas a legitimidade desse tipo de inferência é precisamente aquilo que os seus oponentes céticos negam. O desafio original do cético era quanto à legitimidade das inferências de primeira ordem a favor da melhor explicação, como a inferência de que a teoria atômica da matéria é necessária a fim de explicar os dados das experiências químicas. Na realidade, Boyd agora está respondendo a este desafio cético com uma metainferência da mesma forma: a melhor explicação do sucesso previsivo geral da ciência é que a ciência moderna geralmente chega à verdade. Os oponentes de Boyd não tardaram em objetar que isso pressupõe o que quer estabelecer. Afinal, se eles não aceitam que a teoria atômica da matéria seja necessária para explicar os dados químicos, por que deveríamos aceitar que a verdade da ciência seja necessária para explicar seu sucesso previsivo? (Cf. Fine, este volume, pp. 24-25; Laudan, este volume, pp. 133-135).
A resposta de Boyd é que essa última inferência não pode ser considerada isoladamente, mas como parte de um “pacote realista” completo. Esse pacote deve ser comparado totalmente com as alternativas completas. Se o pacote realista for mais defensável do que as alternativas, então afasta-se o ataque de circularidade. Os realistas da estirpe de Boyd consideram que têm uma resposta ao desafio cético quanto à conexão entre a virtude explicativa e a verdade. Afirmam que o sucesso previsivo da ciência é um bom indício empírico para essa conexão. Na verdade, é um bom indício apenas do ponto de vista realista. Mas se se puder mostrar por razões puramente filosóficas que o realismo está correto, então esse é o ponto de vista correto.
Filósofos com Laudan e Boyd defendem uma filosofia naturalizada da ciência. Ao invés de procurar identificar os princípios da racionalidade científica numa base a priori, procuram informação empírica sobre a eficácia de diferentes práticas científicas para decidir a metodologia correta para a ciência. Vale a pena observar que um importante subproduto dessa “viragem naturalista” é a expectativa de uma reconciliação ente filósofos e sociólogos da ciência.
As últimas décadas do séc. XX foram marcadas por uma explosão de trabalhos entusiasmantes na sociologia da ciência. Tradicionalmente, os sociólogos da ciência se contentavam em estudar os aspectos externos da ciência, como o desenvolvimento das instituições científicas, ou a estrutura da educação científica. Mas o trabalho sociológico recente tem se voltado para o interior da teorização científica em si, e visa mostrar como as influências e interações sociais desempenham um papel decisivo na solução de debates teóricos específicos.
Tem-se considerado muitas vezes que este tipo de sociologia debilita qualquer análise epistemológica da ciência, pela razão de que a epistemologia lida com padrões a priori de racionalidade, ao passo que os estudos sociológicos parecem mostrar que as escolhas das teorias científicas não se regem de modo algum desse modo, mas antes por lutas de poder científico e manobras artificiosas.
Essa rejeição da epistemologia pressupõe, no entanto, que a epistemologia lida somente com princípios a priori da avaliação teórica. Mas, pelo contrário, se a epistemologia da ciência for conduzida de maneira naturalista, então o conflito desaparece. Os filósofos da ciência naturalizados não se interessam por princípios metodológicos a priori sobre processos sociais. Podem felizmente aceitar que as escolhas teóricas são geralmente determinadas por processo sociais. A única questão normativa que quererão saber, portanto, é se esses processos são meios eficazes para os objetivos científicos. E essa nem é uma questão que possam responder por si mesmos. Pois é uma questão empírica, e não uma questão a priori, e, portanto, os filósofos da ciência precisaram da ajuda dos sociólogos e historiadores da ciência para lhe responder. (Para leitura adicional sobre esta questão, veja-se as seções sobre a epistemologia naturalizada da ciência e sobre a sociologia da ciência na bibliografia selecionada no fim deste volume).

Teoria da confirmação e bayesianismo

Está a tornar-se cada vez mais comum discutir as questões da epistemologia da ciência no enquadramento da teoria bayesiana da confirmação. A teoria da confirmação procura quantificar questões de crença teórica. Ao invés de simplesmente perguntar se devemos acreditar numa teoria T dados os indícios E, na teoria da confirmação pergunta-se o quanto deveríamos acreditar numa teoria T dados os indícios E.
Os defensores da teoria bayesiana da confirmação argumentam que tais questões se formulam melhor como questões sobre probabilidades subjetivas. Suponha-se que atribuímos uma probabilidade subjetiva Prob (H) a uma hipótese H, e uma probabilidade condicional da Prob (H/I) a H sob a suposição de que o indício I é verdadeiro. Então, I confirmará H caso a sua probabilidade Prob (H/E) seja maior que a sua Prob (H) inicial. De modo semelhante, ao observar I, devemos acrescentar a probabilidade de H à anterior Prob (H/I).
Um teorema simples do cálculo de probabilidades (“o teorema de Bayes”) estabelece que a Prob (H/I) = Prob (I/H)/Prob (I) x Prob (H). Isto significa para os bayesianos que I confirma H — isto é, a Prob (H/I) é maior do que a Prob (H) — se a Prob (I/H) for maior que a Prob (I).
Isto é intuitivo. Se os indícios I são em si surpreendentes (se a Prob (I) é baixa), embora seja o que se esperava caso a hipótese H fosse verdadeira (a Prob (I/H) é alta), então I é com certeza um bom apoio para H. O aparente desvio da luz próximo ao Sol é em si um fato surpreendente, mas é o que foi previsto pela teoria da relatividade. A sua observação em 1919, portanto, forneceu um forte apoio à teoria de Einstein.
Nem todos os filósofos que trabalham na teoria da confirmação são bayesianos. Clark Glymour, por exemplo, desenvolveu uma abordagem alternativa da confirmação (abordagem de “arranque”) em Theory and Evidence (1980). No capítulo reimpresso neste volume (Cap. XII), no entanto, ele se concentra nas críticas à teoria bayesiana. Glymour explica primeiro a estrutura básica da abordagem bayesiana (e em particular o “argumento do livro do holandês” a favor da suposição de que os graus de crença são uma espécie de probabilidade), e então aponta várias deficiências.
Para Glymour, a falha central do bayesianismo é a subjetividade das suas probabilidades. O bayesianismo não impõe limites substanciais nas probabilidades que entram nas relações de confirmação, exceto nas que refletem os graus efetivos de crença. Quão provável é H, ou I, ou I dado H? Para o bayesiano, estas perguntas sobre as atitudes subjetivas dos indivíduos.
Glymour argumenta que isto dá uma plausibilidade espúria ao bayesianismo. Uma vez que o bayesianismo per se não restringe as probabilidades que entram nas relações de confirmação, pode sempre postular como “razoáveis” quaisquer probabilidades de que possa precisar para reproduzir formas comuns de raciocínio científico. Glymour objeta que isso não explica o mérito dessas formas de raciocínio (afinal, o mesmo truque poderia reproduzir quaisquer outras formas de raciocínio). Também critica as tentativas dos bayesianos de identificar princípios adicionais a priori que rejam os graus razoáveis de crença.
“Rationality and Objectivity in Science or Tom Kuhn Meets Tom Bayes” (Cap. XI), de Wesley Salmon, oferece uma resposta naturalista à objeção de que as probabilidades bayesianas são arbitrárias. Em vez de procurar princípios a priori que rejam as probabilidades subjetivas razoáveis, Salmon sugere que devemos olhar para a histórica da ciência para que esta nos diga quais são as freqüências empíricas em que hipóteses de vários tipos se revelaram bem-sucedidas.
Salmon argumenta que esta manobra pode fazer uma reconciliação entre a tradição formalista de Carnap e Hempel e a abordagem historicista incitada por The Structure of Scientific Revolutions (1962) de Thomas Kuhn. Kuhn argumenta que os juízos de plausibilidade dos cientistas desempenham um papel crucial na decisão das suas atitudes para com a hipótese. Muitos dos seguidores de Kuhn (mas não o próprio Kuhn) inferiram que os juízos científicos são, por isso, arbitrários. Salmon sugere que esta acusação de arbitrariedade se rebate melhor entendendo tais juízos de plausibilidade como probabilidades bayesianas, fundamentando depois essas probabilidades nas freqüências empíricas em que as hipóteses do tipo em questão se revelaram bem-sucedidas.
É importante observar que Salmon está vulnerável ao ataque de circularidade análogo ao que foi dirigido contra Boyd. Do mesmo modo como Boyd apelou aos indícios empíricos acerca da prática científica para defender a preferência dos cientistas por certos tipos de explicação, Salmon também apela para indícios similares para defender o uso do raciocínio bayesiano. E assim como a defesa de Boyd foi um caso especial do tipo de inferência que este estava tentando defender, a inferência de Salmon que parte dos indícios empíricos para chegar à conclusão sobre probabilidades também pode ser vista como um caso especial de raciocínio bayesiano. Seria um exercício interessante considerar se a réplica de Boyd a esse ataque de circularidade funcionará para um bayesiano objetivista como Salmon.

São as teorias importantes?

A maioria dos artigos nesta coletânea dizem respeito à verdade, ou sua ausência, das teorias científicas. No entanto, alguns filósofos da ciência contemporâneos argumentaram que este não é necessariamente o ponto crucial dos debates sobre o realismo científico. Nancy Cartwright, em How the Laws of Physics Lie (1983), e Ian Hacking em Representing and Intervening (1983), elaboraram uma posição que denominaram “realismo da entidade” opondo-se ao “realismo da teoria.”
Esta perspectiva reconhece que as ciências físicas modernas são responsáveis por diversos efeitos físicos notáveis, dos lasers e fibras óticas aos microscópios eletrônicos e aos supercondutores. Nega, no entanto, que esses efeitos físicos forneçam bases convincentes para uma teoria física fundamental. Cartwright argumenta que as “derivações” comuns desses efeitos a partir de uma teoria fundamental são mediadas por suposições ad hoc, por atalhos matemáticos e improvisações. Uma vez que a teoria fundamental não fornece em geral qualquer motivação a favor desses artifícios, a derivação não fornece qualquer base indutiva a favor da teoria fundamental. Na verdade, a teoria básica não desempenha qualquer papel nas derivações, por comparação com as simplificações, argumenta Cartwright, e por isso não merece crédito.
No entanto, isto não implica a inexistência de partículas subatômicas ou outras entidades inobserváveis envolvidas nos efeitos físicos relevantes. Para Hacking e Cartwright, o sucesso das nossas tentativas em manipular essas entidades é testemunha profusa da sua existência. Se essas entidades não fossem reais, não poderíamos usá-las para produzir efeitos físicos. Hacking resume a perspectiva na sua conhecida divisa “se as pudemos pulverizar, existem.”
O realismo da entidade apresenta uma alternativa interessante ao realismo ortodoxo, baseado na teoria. Mas enfrenta alguns desafios óbvios. Para começar, é possível duvidar da afirmação de Cartwright de que a teoria física fundamental é na verdade redundante na análise matemática dos efeitos físicos. As simplificações certamente desempenham um papel importante em tal análise. Mas muitas das simplificações são guiadas por considerações teóricas, e, portanto, defensavelmente, contribuem para o crédito da teoria quando são bem-sucedidas. Pode-se também pôr em causa a separação entre o compromisso com entidades e o compromisso com teorias. Na maioria das vezes, pensamos nas entidades inobserváveis da ciência como entidades que desempenham certos papéis teóricos. Isso torna difícil ver como podemos aceitar as entidades sem pelo menos aceitar algumas partes da teoria adjacente.
No artigo reimpresso neste volume (Cap. XIII), Cartwright toma uma postura um pouco menos radical. Aqui, se prontifica a conceder que as leis abstratas da física fundamental recebem apoio indutivo dos efeitos físicos. No entanto, nega que tais leis precisem de ser universalmente aplicáveis. Ainda que caracterizem com precisão o comportamento dos fenômenos físicos em certos contextos laboratoriais cuidadosamente controlados, não se segue que rejam todos os fenômenos.
Os sistemas quotidianos podem se comportar de acordo com suas próprias leis, independentemente das forças e equações da física básica. Cartwright observa que a possibilidade de tais padrões “emergentes” é um tema bem conhecido no pensamento biológico. Mas quer ir além e negar que mesmo os sistemas físicos precisem de ser regidos por leis físicas fundamentais. Talvez o comportamento de uma nota de dólar em queda escape às leis da física tanto quanto o comportamento de um organismo biológico. Cartwright insta-nos a substituir a imagem reducionista de um sistema unificado, fundado numas poucas leis básicas, por uma manta de retalhos de muitas leis, cada uma das quais de alcance limitado.
Uma questão levantada pelo artigo de Cartwright é se acaso em diferentes áreas da ciência se aplicam lições filosóficas diferentes. Talvez devamos ser fundamentalistas em física mas não em biologia. Ou talvez possamos ser realistas da teoria na química, realistas da entidade na geologia, e completamente céticos na paleobiologia. No início desta introdução, afirmei que a epistemologia lida com problemas que surgem na ciência em geral. Sem dúvida que a maior parte dos escritos desta coletânea procuram lições que se apliquem a todas as áreas científicas. Mas talvez valesse a pena o esforço complementar de uma abordagem mais particularizada. Agora que estamos esclarecidos quanto às opções epistemológicas disponíveis, não há razão óbvia para esperar que a mesma alternativa se aplique a toda a disciplina científica.
David Papineau
Retirado de The Philosophy of Science, org. David Papineau (Oxford: Oxford University Press, 1996, pp. 1-20)

Notas

  1. Este diagnóstico do debate não é inteiramente claro. Fine começa o seu artigo rejeitando vários argumentos que são normalmente usados para defender, contra o ceticismo, a crença nas teorias científicas, e nesse ponto pelo menos parece ver o ceticismo como uma alternativa ao realismo científico. Mas no final do artigo parece titubear quando diz explicitamente que os seus anti-realistas aceitam as teorias como verdadeiras (veja-se a p. 36).

Referências

  • Carnap, R. (1928) Der logische Aufbau der Welt. Trad. ing.: The Logical Structure of the World. Berkeley: University of California Press, 1967.
  • Cartwright, N. (1983) How the Laws of Physics Lie. Oxford: Clarendon Press.
  • Glymour, C. (1980) Theory and Evidence. Princeton: Princeton University Press.
  • Hacking, I. (1983) Representing and Intervening. Cambridge: Cambridge University Press.
  • Kuhn, T. (1962) The Structure of Scientific Revolutions. Chicago: University of Chicago Press.
  • Laudan, L. (1984) Science and Values. Berkeley: University of California Press.
  • Niddicht, P. (org.) (1968) Philosophy of Science. Oxford: Oxford University Press.
  • Psillos, S. (1995) “Is Structural Realism the Best of the Both Worlds?” Dialectica, 49: 15-46.
  • Van Fraassen, B. (1980) The Scientific Image. Oxford: Clarendon Press.