2016 Oliveira
2016 Oliveira
2016 Oliveira
CRITÉRIOS DE CIENTIFICIDADE
Resumo: O presente trabalho tem como objetivo refletir sobre os critérios historicamente utilizados para
considerar um conhecimento como científico de modo a esclarecer que tais critérios se alteraram ao longo do
tempo, bem como expor a característica básica que move a ciência, a saber, a postura crítica. Para isso, num
primeiro momento, vamos apresentar a ciência como um corpo estático de conhecimentos no qual o objetivo dos
pesquisadores era alcançar uma verdade inquestionável. Num segundo momento, apresentamos a crítica de
Hume à indução, algo que começou a abalar a visão estática de ciência e inaugurou uma visão da ciência como
um corpo dinâmico de conhecimentos que pode se revisar diante de uma atitude crítica. Por fim, consideramos
alguns critérios de confiabilidade usados para avaliar a legitimidade das hipóteses científicas nas ciências
naturais e sociais.
Palavras-chave: Ciência. Método científico. Critérios de confiabilidade. Atitude crítica.
Cotidianamente agimos com base em crenças que dizem ser científicas, comemos
alimentos menos gordurosos, praticamos atividades físicas, separamos o lixo, buscamos
momentos de distração e relaxamento, etc. E confiamos no que a ciência diz a ponto de
mudarmos hábitos em busca de sobrevivência e melhor qualidade de vida. Diante disso, é
importante refletir sobre o que garante com que um conhecimento seja considerado científico.
A origem do conceito de ciência, em latim scientia, refere-se a um conhecimento seguro,
certo e inquestionável (KÖCHE, 2007, p. 67). Mas será que os conhecimentos científicos se
caracterizam por ser inquestionáveis? Nesse texto vamos refletir um pouco sobre o que
caracteriza o método científico e sobre como os critérios utilizados para produzir ciência
foram se modificando ao longo do tempo.
*
Professora da Área de Ética e Conhecimento da Universidade de Passo Fundo e Doutoranda em Filosofia pela
Universidade do Vale do Rio dos Sinos. E-mail: [email protected].
número de urubus e da constatação de que todos os urubus vistos eram pretos. A partir disso,
Aristóteles inaugura um novo método científico baseado tanto na experiência sensível quanto
no raciocínio lógico, a indução. Esse método forneceria uma sentença universal baseada numa
abstração feita a partir de algumas observações sensíveis diretas. E tal sentença geral estaria
relacionada a um conhecimento seguro e inquestionável sobre o mundo (KÖCHE, 2007, p.
46-47).
A ideia de ciência como um conhecimento absolutamente verdadeiro sobre o mundo
transpassou a visão da ciência dos principais filósofos gregos até a visão moderna da ciência
aqui representada por Francis Bacon (1561-1626), Galileu Galilei (1564-1642) e Isaac
Newton (1643-1727). Para esses filósofos e físicos da modernidade, era possível alcançar um
conhecimento seguro e inquestionável sobre o mundo. Mas para eles, era necessário utilizar
métodos matemáticos experimentais além da lógica indutiva aristotélica, pois isso daria uma
precisão maior, algo que seria mais confiável do que a mera apresentação das qualidades dos
fenômenos (KÖCHE, 2007, p. 49).
Newton, com as três leis do movimento e da gravidade, foi o grande responsável pelo
salto em relação ao conhecimento que a humanidade tinha sobre o mundo. Mas suas pesquisas
basearam-se no mesmo modelo de método científico defendidos por seus contemporâneos.
Para alcançar um conhecimento seguro, Bacon enfatizava a necessidade fazer uma observação
sistemática e liberta de pré-conceitos, pois estes poderiam impedir a percepção correta das leis
do universo. Ele formulou uma sequência de passos que constituiriam um método confiável, o
qual utilizava a indução assim como o método aristotélico, porém previa não uma enumeração
dos acontecimentos, mas uma experimentação que considerava casos que nunca aconteceram
antes. Bacon compreendia que esse método indutivo tinha falhas, tanto que previu meios de
reforçar a confiabilidade dos resultados a partir da repetição dos experimentos por outros
cientistas e também para a testagem das hipóteses, a fim de buscar novas evidências que
pudessem confirmar os resultados obtidos. Galileu acreditava que os seres humanos
conseguiriam descobrir as leis e movimentos do universo que seria como uma máquina
perfeita criada por um grande engenheiro, Deus. Mas, para isso, o pesquisador deveria se
utilizar de recursos matemáticos e geométricos para construir armadilhas experimentais que
forçassem a natureza a fornecer respostas concretas e mensuráveis quantitativamente
(KÖCHE, 2007, p. 53). Assim, a visão moderna da ciência compreendia que um
conhecimento verdadeiro era completamente possível e que ele seria uma correspondência
direta com a realidade. Os experimentos e testes comprovariam (confirmariam) as crenças e
davam confiabilidade plena ao método.
3
Essa visão estática da ciência começou a ser enfraquecida com a crítica de David
Hume (1711-1776) sobre a indução como um método indubitável. Para ele, apenas podemos
ter certeza sobre as experiências sensíveis passadas, sobre as futuras não podemos afirmar
nada com segurança. Logo, a indução não é um método seguro para fazer previsões (HUME,
1999, p. 47-64). Por mais que todos os urubus já vistos, por mim, até então sejam pretos,
nada impede que existam urubus brancos, cinzas e de outras misturas de cores, como de fato
existem1. Diante da crítica humeana à indução e à possibilidade de se alcançar conhecimento
seguro sobre o futuro, a ciência foi perdendo seu status de detentora de uma verdade absoluta
sobre o mundo. O positivismo lógico do início do séc. XX, o qual pretendia fornecer uma
explicação completa e precisa da realidade a partir da lógica formal, da matemática e da
indução, foi também sendo recusado como um cientificismo ingênuo que caracterizava a
visão estática da ciência.
Nesse período, juntamente com a crítica de Hume à possibilidade de obter
conhecimentos indubitáveis sobre o futuro, também surgiram pesquisas cujos resultados
romperam com a pretensão de alcançar um conhecimento absoluto sobre o mundo,
consequentemente, de alcançar uma completa objetividade na ciência. As pesquisas de Albert
Einstein (1879-1955) sobre a teoria da relatividade mudaram completamente a ideia que se
tinha sobre tempo e espaço como medidas físicas. Na física newtoniana, tempo e espaço eram
medidas independentes e absolutas, mas Einstein mostrou que estas eram medidas acopladas,
que representavam a velocidade da luz. Tempo e espaço tornam-se medidas relativas ao ponto
de vista dos observadores e da velocidade com que eles se encontram. Quanto mais rápido
1
Algumas aves de rapina de outras misturas de cores podem ser conferidas em:
http://www.avesderapinabrasil.com/caracara_plancus.htm.
4
uma pessoa se move, menor é o tempo gasto por ela, tanto que se esse movimento alcançasse
a velocidade da luz, o tempo iria parar do ponto de vista dos observadores desse evento;
enquanto que do ponto de vista da pessoa que estivesse se movimentando naquela velocidade,
o seu relógio estaria funcionando normalmente. Essa teoria seria capaz de explicar um
fenômeno previsto por Einstein que poderia ser investigado com gêmeos, um deles faria uma
viagem espacial com um ônibus muito poderoso numa velocidade muito alta e o outro ficaria
na Terra. Ao voltar anos depois da viagem espacial, o gêmeo tripulante pareceria menos
envelhecido do que o irmão que ficou na Terra, pois para aquele realmente o tempo teria
passado mais devagar já que a velocidade com que se movimentava seria muito maior dentro
da nave em movimento. A coerência técnica dessas pesquisas e experimento mental
constituíram contraevidências para a crença numa completa objetividade da ciência; e
mostraram que o ponto de vista de quem observa o fenômeno pode interferir na forma como
ele interpreta a realidade.
As pesquisas de Niels Bohr (1885-1962) sobre o princípio da complementaridade
também chegaram a um resultado semelhante. No experimento da dupla-fenda, Bohr percebeu
que o elétron ora se comportava como onda, ora como partícula e não havia como medir a
velocidade da onda e a posição da partícula simultaneamente (BOHM, 1951, p. 609). Isso
mostrou que o fenômeno deveria ser compreendido como o composto de arranjo experimental
e resultado observado, não analisáveis de forma independente. Isto é, o método de pesquisa
interfere no resultado observado. Significa que o resultado do experimento não é
completamente previsível e controlável; e que não faz sentido falar de um experimento de
forma abstrata desconsiderando o contexto no qual ele foi produzido (BOHM; HILEY, 1993,
p. 16, 19).
A partir disso, Werner Heisenberg (1901-1976) formulou seu princípio de incerteza
segundo o qual “É lei da natureza não podermos conhecer com exatidão o estado atual de
nenhum corpúsculo” (apud KÖCHE, 2007, p. 59). Com base nessas pesquisas (e outras em
Física Quântica) e na crítica humeana, a pretensão da ciência moderna de fornecer uma
descrição da realidade foi substituída pela pretensão de que a ciência seja apenas uma
proposta de interpretação da realidade, intuito muito mais humilde que o cientificismo
moderno e a visão grega da ciência tinham. Essa interpretação não significa que seja a única
possível, mas que talvez existam várias que possam se complementar em algum sentido ou
uma superar completamente a outra e produzir uma revolução científica. Dessa forma, o
progresso científico na perspectiva contemporânea passa a ser entendido não mais pela
simples acumulação de conhecimentos, como era na perspectiva estática de ciência, mas pela
5
Para alguns pesquisadores, como Karl Popper (1902-1994) e Einstein, assim como não
faz sentido dizer que a ciência produz conhecimentos absolutamente verdadeiros,
inquestionáveis e absolutos sobre o mundo, também não faz sentido dizer que existe apenas
um método de fazer pesquisa científica. Porém, há sim algo que perpassa quaisquer regras e
modelos de investigação, é a atitude crítica do pesquisador. É ela que move a ciência e que
impulsiona novas descobertas. É imprescindível perceber fenômenos não explicados pelas
teorias existentes, reconhecer que existem problemas que precisam de solução e imaginar uma
forma de resolvê-los. Para isso, é necessário, sim, uma boa dose de criatividade; mas sem
atitude crítica, questionadora e problematizadora não se chega nem na fase em que a
criatividade se faz necessária.
Assim, a atitude crítica é o que move a ciência e ela perpassa todo o processo de
descoberta e de justificação de um método geral considerado adequado para se fazer ciência
atualmente, que é o método hipotético-dedutivo. Nesse método pressupõe-se que o
pesquisador parte de um referencial teórico já existente, a partir do qual se fazem observações
de fenômenos e pode-se perceber que alguns fatos não são explicados adequadamente. Por
exemplo, se um médico tivesse que examinar seu paciente e não tivesse uma teoria de fundo,
ele teria que fazer observações infinitas, sobre sua roupa, seus comportamentos, sua família,
suas características físicas e emocionais, etc. Em suma, nada guiaria suas observações. Pelo
contrário, se o médico examinasse o paciente com base em um referencial teórico, ele faria
perguntas específicas e exames que permitiam chegar mais rápido a alguma resposta possível
(ALVES-MAZZOTTI; GEWANDSZNAJDER, 1998, p. 4).
6
Essa percepção demanda ter um bom conhecimento das teorias existentes. Diante da
conscientização de que existe um fenômeno que não é bem explicado pela teoria existente,
surge uma dúvida que irá consistir no problema a ser investigado. Esse questionamento é
fruto tanto de uma observação atenta dos fenômenos, quanto de uma imaginação criativa que
formula uma pergunta e supõe uma possível resposta que obviamente não se encontra no
referencial teórico existente. Isso constitui o contexto de descoberta do método hipotético-
dedutivo. Já o contexto de justificação será constituído pela corroboração ou não da hipótese
criada que deverá ser testada. A atitude crítica que no contexto de descoberta serviu para criar
uma pergunta que não tinha resposta de acordo com as teorias existentes, agora serve para
avaliar sistemática e severamente a correspondência com os fatos através de instrumentos e
técnicas criadas a partir de um quadro teórico que determinará quais critérios usados para
interpretar os dados coletados (KÖCHE, 2007, p. 73).
Para fazer os testes, deduz-se da hipótese criada consequências expressas em
linguagem comum com termos de observação que devem especificar quais seriam as
evidências confirmadoras e quais as evidências falseadoras, ou contraevidências. A partir das
quais se faz o teste, na busca de contraevidências. Se a hipótese passar nos testes de rejeição,
permanecerá provisoriamente corroborada; caso contrário, será rejeitada.
Por exemplo, a partir da hipótese geral de infecção pode-se deduzir uma hipótese
específica de que a pessoa deverá estar com febre, o que pode ser refutada facilmente a partir
da leitura do termômetro. Mas a febre não é necessariamente efeito de uma infecção, portanto,
deverão ser pensadas outras hipóteses específicas para serem testadas, como exames
laboratoriais para avaliar se há bactérias. Assim, se os resultados dos testes forem negativos,
tem-se contraevidências para a hipótese de infecção, e deverá ser pensada uma nova hipótese.
Caso contrário, a hipótese de infecção tem algum grau de corroboração pelos resultados
positivos, mas isso não quer dizer que a hipótese foi confirmada, apenas que é
provisoriamente verdadeira até que se prove o contrário (ALVES-MAZZOTTI;
GEWANDSZNAJDER, 1998, p. 5).
Para Popper, os testes devem ser no sentido de procurar por erros, pois se existir um
teste falseador positivo, já será suficiente para rejeitarmos a hipótese, mas dez testes
confirmadores positivos, não serão suficientes para mostrar que ela é confiável. Isso permite
identificar os erros da hipótese para posteriores correções. Popper deu o nome de
falseacionismo a esse critério usado para validação das crenças científicas, segundo o qual só
é considerado científico, aquele conhecimento que pode ser falseado (2007, p. 27-50)
7
Os testes devem ser os mais severos possíveis. Isso significa controlar qualquer fator
que possa intervir no resultado. Por exemplo, uma pessoa pode ingerir um medicamento para
má digestão e achar que a melhora aconteceu por causa dele, mas pode ser que a indisposição
passou devido ao tempo necessário para a recuperação natural do organismo. Nesse caso, se
quiséssemos eliminar a hipótese de que a melhora foi espontânea, poderíamos criar dois
grupos de voluntários que tivessem má digestão; para um grupo daríamos o medicamento
enquanto para o outro, um placebo; é importante frisar que ninguém dos grupos saberia o que
estaria ingerindo, nem a pessoa que fornece o remédio, nem o avaliador dos efeitos do
medicamento, pois isso poderia interferir nos resultados.
Nesse tipo de experimento chamado duplo-cego, os remédios são numerados e
somente outra equipe de pesquisadores sabe quem está tomando placebo e quem não está. Se
depois do tempo determinado, por meios estatísticos se verificar que um número significativo
de pessoas do grupo que estava tomando remédio verdadeiro melhorou, a hipótese de que a
melhora foi espontânea pode ser rejeitada. Porém, se nos dois grupos houver uma quantidade
semelhante de pessoas que melhoraram, a hipótese não é rejeitada. Mas para ser corroborada,
dependerá de novos testes reproduzidos por outros pesquisadores, o que visa obter mais
objetividade na pesquisa (ALVES-MAZZOTTI; GEWANDSZNAJDER, 1998, p. 6). Após
uma severa repetição dos testes, se a hipótese geral foi corroborada, pode-se dizer que ela
torna-se uma lei científica a partir da qual se pode fazer previsões e explicações. Quanto
maior for a refutabilidade de uma teoria tanto maior será o seu grau de corroboração, pois
maior será o número de falseadores deduzidos e maior a variedade e severidade dos testes a
que ela pode se submeter (ALVES-MAZZOTTI; GEWANDSZNAJDER, 1998, p. 17).
Mas a ciência na prática utiliza muitos outros critérios para avaliar a confiabilidade de
uma teoria, além da falseabilidade. Não é suficiente dizer que uma hipótese que foi falseada
por alguns testes, não deve ser aceita. Também deve-se confrontá-la com outras hipóteses
concorrentes e comparar seu poder explicativo. Um dos problemas da proposta falseacionista
de Popper é que quando uma hipótese é refutada, isso não mostra que essa hipótese específica
deve ser eliminada ou reformulada, mas que um conjunto de hipóteses do qual essa partiu não
teve sucesso, ou seja, ela não diz qual hipótese deve ser revista. Thomas Kuhn, Lakatos e
Feyerabend criticam Popper afirmando que os cientistas não abandonam teorias refutadas,
mas buscam modificar apenas hipóteses auxiliares a fim de proteger a teoria principal
(ALVES-MAZZOTTI; GEWANDSZNAJDER, 1998, p. 4).
Quine, filósofo que propôs uma epistemologia naturalizada, apresenta seis critérios que
poderiam ser utilizados para avaliar se uma hipótese é boa (a falseabilidade seria um deles,
8
afirmar que as ciências sociais e humanas podem ser preditivas, Boudon considera que sob
certas condições a previsão é impossível, portanto, esse não seria um critério suficiente para
avaliar uma teoria (ALVES-MAZZOTTI; GEWANDSZNAJDER, 1998, p. 125). O certo é
que esses critérios são históricos e podem mudar de acordo com o problema investigado.
A pesquisa nas ciências sociais e humanas partem do pressuposto que o
comportamento humano é influenciado por crenças, percepções, sentimentos e valores e que
ele sempre tem um sentido a ser desvelado, e que não é imediatamente captado pela
observação empírica (ALVES-MAZZOTTI; GEWANDSZNAJDER, 1998, p. 131). Portanto,
o método qualitativo considera aspectos subjetivos para compreender, interpretar e quem sabe
explicar a realidade. Mas existem critérios de confiabilidade para ampliar a objetividade,
alguns deles são: o contato direto e prolongado do pesquisador com o campo (um ano é um
tempo razoável); a checagem da interpretação dos dados pelos participantes que os
forneceram ao longo da pesquisa e quanto ao relatório final; o questionamento por pares é
feito no sentido de ter pesquisadores não envolvidos diretamente na pesquisa que apontem
erros, falhas, pontos obscuros, evidências não percebidas, diferentes interpretações e
explicações; a triangulação caracteriza-se por utilizar-se de várias maneiras para obter dados,
seja sobre fontes, métodos, investigadores e teorias, um exemplo de triangulação de fontes é
comparar o que alguém presente numa reunião diz sobre o que foi discutido, com o que está
descrito na ata da mesma; a análise de hipóteses alternativas que buscam outras formas de
interpretar os dados obtendo hipóteses diferentes e buscando confirmá-las, pois assim se
estará tentando refutar a hipótese original, se as hipóteses alternativas forem rejeitadas, quer
dizer que a original estará corroborada; a análise de casos negativos que consiste em buscar
interpretar respostas e dados e que saem fora do padrão identificado, o que pode ajudar a
refinar as explicações e interpretações dos fenômenos (ALVES-MAZZOTTI;
GEWANDSZNAJDER, 1998, p. 172-173).
Esses seriam alguns critérios utilizados para avaliar hipóteses, mas eles não são
absolutos e infalíveis. Eles podem mudar ao longo da história da ciência. Alguns podem ser
considerados não tão adequados diante de um contexto em relação a outros. O método, os
procedimentos e os critérios utilizados deverão ser pensados a partir do problema a ser
investigado ou ao longo da pesquisa; portanto, tais critérios são apenas guias confiáveis
historicamente, mas não regras absolutas a serem seguidas para alcançar a cientificidade.
10
Considerações finais
_____. Wholeness and the implicate order. Londres; New York: Routledge Classics,1980.
HUME, D. Investigação acerca do entendimento humano. Trad. Anoar Aiex. São Paulo:
Nova Cultural, 1999. (Col. Os Pensadores)
QUINE, W. S.; ULLIAN, J. S. The web of belief. 2. ed. New York: McGraw-Hill, 1978.