Dieguez. Que Es La Ciencia Pp. 107 153

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 47

CAPÍTULO 4

¿ Qué es la ciencia?

1. EL PROBLEMA DE LA DEMARCACIÓN

Muchas personas en todo el mundo, pero especialmente en Alemania, Ca­


nadá y Francia, han acudido alguna vez a la medicina homeopática en busca de
algún remedio para sus dolencias. Un remedio que quizá la medicina estableci­
da y científicamente fundada no ha podido o no ha sabido darles. La homeo­
patía, aunque basada en teorías que se remontan a la época clásica, con IBpó­
crates (siglo v a.C.) y Galeno (siglo rr d.C.), es un producto relativamente
reciente. En su forma moderna fue elaborada por el médico alemán Samuel
Hahnemann (1755-1843). La idea fundamental que rige la medicina homeopá­
tica es un vieío principio hipocrático: los semeíantes se curan con semeíantes.
Lo que viene a significar que los remedios para las enfermedades deben ser
productos que generen en personas sanas síntomas parecidos a los que causa la
enfermedad. Por ejemplo, si una persona padece una enfermedad entre cuyos
síntomas está la presencia de una hinchazón acompañada de dolor, el remedio
podría estar en un preparado a base de abejas trituradas. A ello Hahnemann
añadía que, para reforzar la potencia curativa de las distintas sustancias, en mu­
chos casos éstas tenían que ser administradas en diluciones muy grandes, inclu­
so infinitesimales. Además, los enfermos debían ser tratados como casos indivi­
duales, y no como ejemplos concretos de una enfermedad.
Para ir directamente al asunto, el principal punto débil de la homeopatía,
cuando es contemplada desde la química, es el de las diluciones infinitesimales.
Debe tenerse en cuenta que algunos de los principios activos utilizados en ho­
meopatía son sumamente peligrosos, como el arsénico o la bacteria causante de
108 Antonio Diéguez

la tuberculosis. No es de extrañar, por tanto, que haya preparados homeopá­


ticos con diluciones de 10-10, e incluso a concentraciones muchísimo meno­
res. Son muy frecuentes diluciones de 10- 30. El máximo de dilución permiti­
do en Francia es de 10---<:>0, pero hay países que admiten diluciones más
extremas (dr. Millet, 1998). Ahora bien, un sencillo cálculo utilizando el número
de Avogadro muestra que para estar seguros en el caso de una dilución de 10-30
de haber ingerido una sola molécula del principio activo habría que beberse
centenares de miles de litros del preparado homeopático. En concreto, si parti­
mos de una concentración de principio activo de 10 molar, al final de las dilucio­
nes habrá 6 moléculas del principio activo por cada millón de litros de agua (o del
líquido empleado en las diluciones). Esto es un hecho reconocido por los homeó­
patas, a pesar de que implica que lo que dan a sus pacientes son botes con agua
azucarada y alcohol, o caramelos impregnados con esta agua. Pero para ellos, en
lugar de ser un punto débil, es una prueba de las bondades de la homeopatía. Un
libro divulgativo publicado en España en defensa de la homeopatía trata así este
asunto, que es -según nos dice- «el más criticado por los ignorantes»:

Como es fácil de comprender, llega un momento en las disoluciones en


que es imposible detectar la presencia de la materia prima y sin embargo su
eficacia es incuestionable. A partir de la 4CH [es decir, de una disolución en
la que habría que multiplicar la concentración inicial del principio activo por
lQ-ll] ni siquiera los métodos de laboratorios más sofisticados son capaces de
encontrar algo más que agua y alcohol. La inocuidad, por tanto, está garanti­
zada (Agustí, 1999, pág. 44).

Habría que decir dos cosas al respecto: si los métodos más sofisticados no
pueden detectar la presencia del principio activo es, sencillamente, porque lo
más probable es que no haya una sola molécula del mismo en un preparado.
Y, segundo, en efecto esto garantiza la inocuidad de la homeopatía, pero tam­
bién parece garantizar su inanidad, al menos si descontamos el efecto placebo.
Para responder a estas críticas algunos homeópatas han desarrollado una
hipótesis novedosa pero cuya única motivación es defender la teoría. Se trata de
la hipótesis de la «memoria del agua». Según dicha hipótesis, el agua y otros di­
solventes pueden grabar de alguna manera información acerca de con qué otras
sustancias han estado en contacto. Esta información, y no las moléculas de
principio activo como tales, sería lo que captarían las células de nuestro cuerpo
y lo que induciría a la curación. Queda envuelto en la confusión, al menos por
el momento, el modo en que esta información se guarda y, sobre todo, cómo es
que esta información puede actuar terapéuticamente sobre nuestro cuerpo. Lo
cierto es que esta hipótesis fue sometida a contrastación experimental por Jac­
ques Benveniste y sus colegas; publicando en 1987 unos resultados que pare­
cían apoyarla. No obstante, su trabajo ha sido muy criticado por ausencia de
controles experimentales mínimos que invalidaban por completo el resultado;
una deficiencia reconocida posteriormente por alguno de sus colaboradores
(cfr. Danchin, 1998).
¿Qué es la ciencia? 109

¿Es, pese a todo, respetable la homeopatía desde un punto de vista cientí­


fico? ¿Se trata sólo de una disciplina que tiene algunas dificultades teóricas en
vías de subsanación, o falla más bien todo su enfoque general de la enferme­
dad? ¿Es su choque con la química un caso parecido al choque inicial de la teo­
ría de la evolución con los cálculos hechos desde la física del momento, que no
daban a la Tierra más qu� una antigüedad de unos pocos miles de años? En de­
finitiva, ¿hay algo que distinga sustancialmente a la homeopatía de las teorías
científicas acerca de las enfermedades, tal como se enseñan hoy en las faculta­
des de medicina? La cuestión no es menor, si tenemos en cuenta las enormes
cantidades de dinero que se juegan junto al prestigio o desprestigio científico
de la homeopatía.
Menos importante desde este punto de vista económico, pero no menos
desde el intelectual, es el caso de la parapsicología. La parapsicología es el estu­
dio de los fenómenos «psi», y por tales se entiende fenómenos sensoriales o
motrices que exceden las capacidades humanas. Se trata fundamentalmente de
fenómenos de percepción extrasensorial es decir, de obtención de información
inaccesible a los sentidos (sucesos pasados, futuros o distantes), y de fenóme­
nos de psicoquinesia, es decir, de influjo causal sobre objetos fuera de la esfera
de actividad posible de los sujetos. Este estudio se realiza a menudo en depar­
tamentos universitarios, como es el caso de la Universidad de Edimburgo, de la
Universidad de Princeton y en su momento de la Universidad de Duke; y sus
experimentos se basan en el diseño experimental habitual en las ciencias del
comportamiento. Los resultados se publican en revistas especializadas, como el
]ournal o/Parapsychology. Por otra parte, algunas encuestan hablan de que más
del 50 por 100 de las personas han experimentado alguna vez en su vida fenó­
menos de percepción extrasensorial (dr. Díaz Corrales, 2001, págs. 8-10).
Sin embargo, pese a todos los esfuerzos realizados por investigadores se­
rios, muchos de ellos con un acreditado currículum en algún campo científico,
por obtener resultados innegables y replicables por cualquiera en el estudio de
los fenómenos «psi», lo cierto es que tales resultados faltan por el momento.
Todos los experimentos llevados a cabo hasta ahora o no han proporcionado
una prueba fehaciente de que se han producido resultados distintos a los espe­
rables por el mero azar, o han sido cuestionados desde un punto de vista meto­
dológico por los críticos de la parapsicología. Es más, no hay acuerdo siquiera
en qué consistiría una evidencia acerca de la existencia de fenómenos «psi».
Hay quien cree que detrás de la parapsicología no hay más que fraude. Otras
personas piensan que las críticas metodológicas hechas contra los experimen­
tos parapsícológícos son tan exigentes que pocos experimentos realizados en
algunas disciplinas científicas bien establecidas, y en concreto en la psicología,
serían capaces de pasarlas sin problemas, y lo mismo podría decirse acerca de
la replicabilidad de los experimentos. ¿Quién tiene razón? ¿Es la parapsicolo­
gía un refugio de embaucadores, o es una disciplina emergente a la que los pu­
ristas de la ciencia se niegan a darle una oportunidad a causa de prejuicios arrai­
gados? ¿Es quizás una disciplina que carece por el momento de carácter
científico, o tiene ya este carácter pero no le ha acompañado la fortuna en los
110 Antonio Diéguez

resultados? Para responder a estas preguntas con un mínimo de rigor habría


que estudiar en profundidad los méritos y los deméritos de la parapsicología, lo
que no podemos hacer aquí; pero además de eso, como en el caso de la homeo­
patía, habría que tener una cierta idea prevía de qué debe considerarse como
científico y qué no. Es a esta cuestión a la que dedicaremos ahora nuestra aten­
ción.
La homeopatía y la parapsicología no son sino dos ejemplos de una larga
lista de disciplinas que se proclaman como científicas, o al menos con capaci­
dad para producir un conocimiento tan fiable como el de la ciencia, sin que esta
pretensión encuentre reconocimiento en la comunidad científica. Suelen ser ca­
lificadas peyorativamente como seudociencias, lo cual significa que son discipli­
nas que pretenden pasar por científicas sin serlo realmente. Esta lista incluye a
la astrología, el creacionismo, el psicoanálisis, el lysenkoísmo, el marxismo, la
ufología, etc. Se trata, como puede comprobarse, de una lista abigarrada en la
que varía mucho el nivel de rigor y de compatibilidad con la ciencia estableci­
da. Algunas de esas disciplinas no pueden mantenerse coherentemente al tiem­
po que se aceptan los datos de la ciencia contemporánea, como es el caso de la
astrología, la homeopatía, el creacionismo y el lysenkoísmo. Otras, sin embargo,
no chocan tan frontalmente con ella, como es el caso del psicoanálisis y el mar­
xismo, y no es justo ponerlas al nivel de las otras. Finalmente, es discutible si
este choque se produce o no en el caso de la parapsicología. El interés que des­
piertan algunas de ellas en muchas personas, así como la enorme capacidad de
influencia que tienen en el modo en que sus seguidores ven el mundo, es un in­
dicador más que elocuente de la importancia práctica que tiene en la actualidad
el problema filosófico de la caracterización de la ciencia como modo de cono­
cimiento. De la inclusión o no de algunas de estas disciplinas entre las ciencias
puede depender no sólo un mayor prestigio social, sino también su financia­
ción a través de fondos públicos y su asimilación por los sistemas públicos de
salud y educación.
Digamos por adelantado que es una tarea imposible la de dar con una de­
finición rigurosa y permanente de lo que es la ciencia, entre otras razones por­
que la ciencia es una actividad humana sometida, como muchas otras manifes­
taciones culturales, a cambios históricos. Por eso, aun cuando consiguiéramos
cristalizar en una definición un rasgo o una serie de rasgos que hubieran per­
manecido estables en el pasado y que fueran compartidos por todas las ciencias
en sus estados actuales, nada garantizaría que no pudieran aparecer en el futu­
ro nuevas disciplinas que fueran consideradas como científicas por los investi­
gadores, las instituciones académicas y políticas, y el público en general, y que,
sin embargo, no encajaran en la definición.
No obstante, esta dificultad para dar una definición precisa no impide que
bastantes personas con un nivel cultural medio o alto posean una imagen más
o menos acertada de lo que la ciencia es y de lo que la ciencia hace. De hecho,
tener una opinión sobre este asunto se ha convertido en algo fundamental en
una sociedad como la nuestra en la que la ciencia y la tecnología han pasado a
ocupar un lugar central y cuya propia existencia como sociedad depende del
¿Qué es la ciencia? 111

desarrollo científico y técnico. Tal dependencia, ya bastante explícita, unida a


los intereses económicos y políticos que aparecen hoy día ligados a la investiga­
ción científica (conformando lo que se ha dado en llamar big scz'ence)1 determi­
nan que los medios de comunicación presten una atención cada vez mayor a la
investigación científica. De forma indirecta en muchos casos, pero directa e in­
tencionada en otros, estos medios de comunicación contribuyen a difundir una
cierta imagen pública de la ciencia.
Lamentablemente, en ocasiones esa imagen está distorsionada por la pre­
sentación que de la ciencia hacen tanto sus propagandistas más comprometidos
como sus detractores más duros. Para los primeros la ciencia suele identificar­
se con sus logros tecnológicos y sus aplicaciones más espectaculares, para los
segundos el científico contemporáneo es un aprendiz de brujo que ha puesto
en marcha fuerzas que no controla y que amenazan con destruirnos. Y lo que
es peor, una gran parte de la población, incluso en aquellos países con mejores
niveles educativos, no tiene imagen alguna de la ciencia, ya que carecen de una
formación mínima como para entender su funcionamiento, o la que tienen está
falta de cualquier rigor. Según algunas encuestas, menos del 7 por 100 de los
adultos estadounidenses tienen alguna cultura científica, y sólo el 13 por 100
tiene alguna idea de cómo procede la ciencia (cfr. Holton, 1993, pág. 147).
Cuando consigue ascender por encima de cierto nivel, el contenido de la
imagen pública de la ciencia incluye en general la idea de que los científicos in­
vestigan para alcanzar ciertos conocimientos acerca de la naturaleza y del hom­
bre, y que para ello observan, miden, experimentan, inventan teorías, se reúnen
en congresos para comunicarse sus ideas y sus resultados, publican en revistas
especializadas, se pasan horas interminables en los laboratorios, etc. Es notorio
también que deben ayudarse en esa labor de instrumentos con una perfección
y sofisticación crecientes que les permiten poner a prueba sus teorías con el ma­
yor rigor. Dentro de esta imagen probablemente se incluye la convicción de que
son los hechos establecidos mediante la experimentación los que tienen la últi­
ma palabra en la ciencia.
Una imagen semejante fomenta además en algunos sectores de la pobla­
ción una firme confianza en el valor y la efectividad de los resultados de la in­
vestigación científica, e incluso en su capacidad para resolver, si no todos, al
menos una gran parte de los problemas graves que aquejan a la humanidad.
De hecho, la legitimidad social que posee hoy la ciencia proviene en buena
medida de la convicción general en la utilidad potencial de todos los conoci­
mientos científicos. Es frecuente que un nuevo resultado en la investigación
sea anunciado en los medios de comunicación junto con las promesas de sus
aplicaciones futuras. Paradójicamente esta imagen va unida también a un te­
mor creciente a que se superen ciertos límites, sobre todo éticos (investiga­
ción armamentística, donación, eutanasia, etc.), y a que se deteriore irreversi­
blemente el entorno natural debido a un uso incontrolado de esos resultados de
la investigación.
En todo lo que acabamos de decir queda ya implícito que el término 'cien­
cia' designa tanto una actividad humana como su producto (el conocimiento
112 Antonio Diéguez

científico). Tradicionalmente, la filosofía de la ciencia se ha ocupado de este úl­


timo, y puede decirse que la mayor parte de los problemas tratados en ella per­
tenecen todavía al ámbito epistemológico, pero en la actualidad el estudio de la
ciencia como actividad está en auge, otorgándose cada vez más importancia a
los aspectos prácticos de la investigación (experimentación, implementación
tecnológica, valores, despliegue institucional, contexto social, etc.). Ya en 1942
el sociólogo de la ciencia Robert Merton señalaba que la palabra 'ciencia' deno­
ta varias cosas distintas: un conjunto de métodos, el conocimiento alcanzado
con dichos métodos y los valores y tradiciones culturales que la gobernaban en
cuanto actividad humana (cfr. Merton, 1942/1980, pág. 65).
Las definiciones habituales en diccionarios, ensayos introductorios y ma­
nuales científicos suelen limitarse -y ésta es ya su primera deficiencia- a la
ciencia entendida como producto. El denominador común de muchas de ellas
podría ser cifrado en la siguiente cláusula: la ciencia es el conocimiento estruc­
turado sistemáticamente que·permite, mediante el establecimiento de leyes uni­
versales, la explicación y la predicción de los fenómenos, y que ha sido obtenido a
partir de un método crítico basado en la contrastación empírica. Este método ga­
rantiza la objetividad y la autocorrección, y en él descansa el amplio acuerdo que
puede encontrarse entre los científicos acerca de cuestiones fundamentales, posibi­
litando un rápido progreso en los conocimientos (cfr. Wartofsky, 1983, pág. 43,
Nagel, 1981, págs. 15-26, Niiniluoto, 1984, págs. 1-7 y Bunge, 1985a, pág. 32).
Pero, de entre todo ello, quizás la característica más señalada que se atri­
buye al conocimiento científico sea la de su obtención mediante un método
propio que garantizaría su objetividad y permitiría el consenso de la comu­
nidad científica. La importancia que se da a esta característica es tal que Ma­
rio Bunge (1985, pág. 29) declara: «Donde no hay método científico no hay
ciencia».
La objetividad se conseguiría por medio de la supresión o neutralización
del punto de vista individual -de los prejüicios subjetivos- a través de la crí­
tica intersubjetiva basada en el seguimiento correcto de las normas metodoló­
gicas. Es central para este propósito que exista la posibilidad de que otro
investigador cualificado sea capaz de reproducir, dadas las condiciones perti­
nentes, los resultados alcanzados por un científico cualquiera. Como escribe
Barry Barnes:
Prácticamente, cada uno de los pasos del proceso de investigación se repite
una y otra vez, en primer lugar por parte de un investigador concreto y, posterior­
mente, por sus colegas. En consecuencia, los juicios individuales apenas tienen
efectos a largo plazo. Lo que importa es la tendencia a que una serie de juicios se
estabilice sobre un resultado específico. Será ese resultado, en el que se habrá su­
perado el error, el que reflejará los principios aceptados por el conjunto de la co­
munidad científica y una visión común sobre cómo se aplican esos principios al
caso en cuestión. De esta forma, una serie de individuos, propensos a cometer
errores, que se organizan sistemáticamente y se agrupan en sus actividades pro­
fesionales, constituye una máquina productora de conocimiento altamente fiable
y mucho menos predispuesta al error (Barnes, 1987, pág. 40).
¿Qué es la ciencia? 113

Por su parte, el consenso estaría facilitado precisamente por la común


aceptación de métodos estrictos de contrastación y revisión de las diferentes
propuestas de los investigadores.
Parece claro, en efecto, que la ciencia no es un tipo de sabiduría personal e
intransferible lograda tras años de solitaria meditación, al modo de algunas fi­
losofías orientales. La ciencia es una tarea intersubjetiva que reclama el concur­
so y la colaboración de numerosos investigadores, y que proporciona un tipo
de conocimiento comunicable y público. Parece claro también que la comuni­
dad científica es capaz de adoptar una decisión sobre la validez de gran parte
de ese conocimiento y que esa decisión es ampliamente aceptada. Los libros de
texto son prueba fehaciente de que hay una extensa zona de consenso en la
ciencia de la que carecen otras instancias culturales. Eso no significa ni mucho
menos que no existan discrepancias y controversias en el seno de la ciencia, so­
bre todo en la vanguardia de la investigación. Pero incluso en tales casos puede
decirse, considerando las cosas en su globalidad, que es mucho más lo que
comparten los contendientes que lo que les separa, y no sólo en los conocimien­
tos, sino también en los métodos y en los fines.
La capacidad para lograr el consenso ha sido el rasgo definitorio de la cien­
cia para muchos filósofos y sociólogos de la ciencia, especialmente hasta la dé­
cada de los 60 (cfr. Laudan, 1984, pág. 3 y sigs.). Y la explicación habitual que
han dado los filósofos de esa capacidad de consenso era la común aceptación y
aplicación de una serie de reglas constitutivas del «método científico». A lo lar­
go de los próximos capítulos veremos, sin embargo, que esta explicación sim­
plifica en exceso las cosas. En primer lugar, deja sin explicar cómo es posible,
en casos donde la evidencia empírica es clara, el desacuerdo en la ciencia, .a no
ser que se suponga que obedece a causas puramente irracionales. Y en segun­
do lugar, desconoce el hecho de que los científicos también difieren en la esti­
mación de lo que debe considerarse como una metodología correcta en cada
circunstancia.
Los filósofos, en su mayoría, han abandonado en la actualidad la preten­
sión de señalar un conjunto de reglas o de estrategias identificables como el
«método científico». Tradicionalmente, las propuestas más comunes al respec­
to han sido variantes del método inductivo o del hipotético-deductivo. Es de­
cir, o bien se supone, como hizo John Stuart Mili, que el científico comienza
realizando observaciones y experimentos y que a partir de ellos, con el auxilio
de razonamientos de tipo inductivo, llega a la formulación de una hipótesis ca­
paz de explicar los resultados previamente obtenidos; o bien se supone, como
hizo William Whewell, que el científico parte de problemas a los que intenta
dar una respuesta inventando de forma creativa una hipótesis a tal efecto y que,
a continuación, intenta contrastar dicha hipótesis derivando de ella, mediante
razonamientos deductivos, una consecuencia o una serie de consecuencias (de
predicciones) susceptibles de ser confirmadas o refutadas por la experiencia ul­
terior. Caben; por supuesto, variantes que combinen ambos procesos o que ma­
ticen alguno de ellos. Pero, en lo esencial las cosas no han variado demasiado
con respecto a estos planteamientos.
114 Antonio Diéguez

Ahora bien, caracterizadas de este modo esquemático y general con el que


son presentadas en los manuales y los libros de texto, no sólo no son informa­
tivas en absoluto acerca de los procedimientos que realmente emplean los cien­
tíficos en sus investigaciones concretas -procedimientos que pueden variar mu­
?1º :1e �as ciencias a otras y que en ocasiones decisivas no encajan con la
idealízac1on que estos esquemas ofrecen-, sino que además no serían métodos
exclusivos de la ciencia, ya que otras disciplinas no consideradas como científi­
cas también hacen uso de ellos. Por ello, no suena hoy ya tan descabellada la
negación que hizo Feyerabend de la existencia de un método científico. Bien
entendido que esi:o no es negar que los científicos empleen métodos diversos en
su trabajo investigador, sino reconocer que ninguno de ellos es de aplicación
universal.
La ciencia es en realidad una empresa múltiple y heterogénea que incluso
presenta rasgos contrapuestos. Cada disciplina constituye un modo distinto de
hacer ciencia, adaptando a sus propias necesidades las características generales
antes mencionadas. Así, por ejemplo, la definición que hemos dado más arriba
no se acomoda apenas a las ciencias formales: lógica y matemáticas. Su posible
_
validez quedaría restringida en principio a las ciencias empíricas. Pero aun den­
tro de éstas, son las ciencias naturales (física, química, biología, bioquímica,
etc.) las que mejor encajan en ella, y no todas por igual si tenemos en cuenta
que es un tema controvertido si hay o no leyes en la biología.
En cuanto a las llamadas ciencias humanas y sociales (sociología, econo­
mía, psicología, etc.), el intento de explicar los fenómenos acudiendo a leyes
causales ha sido contrapuesto en numerosas ocasiones al objetivo pretendi­
damente más fundamental de la comprensión del significado de las acciones
de los seres humanos, dado que éstas son lo que son en virtud de que los
agentes y los receptores de las mismas les atribuyen precisamente un signifi­
_
cado. Existe toda una tradición de pensamiento, la tradición hermenéutica,
que pretende marcar una diferencia insalvable desde el punto de vista meto­
dológico entre las ciencias naturales y las ciencias humanas sobre la base de
que las acciones humanas obedecen a razones y no (o no sólo) a causas. Esta
tradición considera inadecuado su estudio sin atender a esa característica di­
ferenciadora que sería suficiente para inhabilitar el enfoque puramente ex -
terno propio de las ciencias naturales. El mundo social sólo podría conocer­
se desde dentro.
La diversidad de la ciencia es algo que difícilmente puede negarse desde la
perspectiva de las últimas décadas, en las que hemos visto surgir tantas discipli­
nas nuevas aplicadas al estudio de tantos campos diferentes. A tal efecto, y muy
en la línea de lo que previamente defendió Feyerabend, afuma Stephen Toulmin:

En lugar de ser partes diversas de una sola y comprehensiva 'ciencia


unificada', hoy las ciencias representan más bien una confederación de em­
presas, con métodos y patrones de explicación para abordar problemas
distintos. 'Ciencia' ya no es entendido como un nombre singular. Al con­
trario, la expresión 'ciencias naturales' es plural, y la imagen platónica de
¿Qué es la ciencia? 115

un único tipo de conocimiento formal ha sido reemplazada por una imagen


de empresas que están siempre en flujo, y cuyos métodos de investigación
-como pensaba Aristóteles- se adaptan a 'la naturaleza del caso' (Toul­
min, 1990, pág. 165).

Dicho todo esto, debemos ahora analizar las principales propuestas de carac­
terización de la ciencia realizadas desde la filosofía y explicar con cierto detalle
por qué no pudieron cumplir su objetivo satisfactoriamente. Los intentos por a
contestar la pregunta' ¿qué es la ciencia?' han consistido, desde el Círculo de Vie­
na en adelante, en buscar algún rasgo diferenciador del conocimiento científico
que fuera capaz distinguirlo con claridad de otros productos culturales, y en con­
creto de otras formas pretendidas o no de conocimiento. Es esto lo que se cono­
ce como el problema del mºterio de demarcación entre ciencia y no ciencia.

2. LA VERIFICABILIDAD COMO CRITERIO DE DEMARCACIÓN

Los neopositivistas comenzaron señalando un rasgo definitorio que todavía


cuenta con gran aceptación entre muchos. La ciencia se caracteriza por ser ca­
paz de verificar sus teorías, es decir, porque puede establecer a partir de los he­
chos observables (determinados por observación directa o por experimenta­
ción) que dichas teorías son verdaderas.
Para ser precisos, la verificabilidad, así como la confirmabilidad, de la que
hablaremos a continuación, no fueron propuestas por los neopostivistas como
criterio de demarcación entre la ciencia y lo que no lo es, sino como criterio de
sentido, esto es, como criterio para distinguir lo que tiene sentido de lo que no
lo tiene. Carnap en particular, aunque de forma tardía, fue explícito a la hora
de separar ambos problemas (cfr. Carnap, 1963, págs. 877-879). Afirmó que las
seudociencias corno la astrología, las creencias mágicas y los mitos tenían senti­
do empírico, pese a que no eran científicas. No obstante, aquí seguiremos el
ejemplo de Popper y las interpretaremos también como criterios de demarca­
ción. Y ello por varias razones. En primer lugar, porque a efectos prácticos, lo
que los neopositivistas tenían en rriente cuando pensaban en enunciados con
sentido eran los enunciados que formaban parte de la ciencia o que podían,
dado el caso y suponiendo que fueran verdaderos, formar parte de ella. El pro­
pio Carnap definió la ciencia de forma amplia, como «el sistema de los enun­
ciados intersubjetivamente válidos» (Carnap, 1932/1995, pág. 66). Definición
que no hacía sino parafrasear la identificación que Wittgenstein establecía en­
tre el conjunto de los enunciados verdaderos y las ciencias naturales (Wittgens­
tein, 1921/1975, 4.11). Por lo tanto, dada esta identificación en la práctica,
aquello que pudiera servir como criterio para determinar cuándo estamos ante
un enunciado significativo serviría también en muchos casos como criterio de
demarcación entre la ciencia (o lo que podría serlo) y lo que no es ciencia. En
segundo lugar, porque el criterio de sentido pretendía ser también explícita­
mente un criterio de demarcación entre la ciencia y la metafísica, como casos
116 Antonio Diéguez

paradigmáticos de lo que tiene sentido y de lo que no lo tiene. Por lo que, si no


expresaba condiciones suficientes de la ciencia, sí expresaba al menos condicio­
nes necesarias. Y en tercer lugar, porque tanto la verificabilidad como la confir­
mabilidad coinciden en buena medida con características que han sido y son
todavía tenidas por muchos, debido sobre todo a la influencia de la filosofía
neopositivista, como definitorias de la ciencia.
El nivel básico en el análisi.? de la ciencia efectuado por los miembros del
Círculo de Viena lo ocuparon, no las teorías, sino los enunciados que compo­
nen las teorías. Según las tesis del positivismo lógico, los enunciados que tienen
sentido cognitivo son sólo los enunciados analíticos y los enunciados sintéticos
verificables. Camap prefería una división tripartita: enunciados analíticos,
enunciados sintéticos verificables y enunciados contradictorios. Enunciados
analíticos son aquéllos cuya verdad o falsedad puede determinarse mediante un
mero análisis del significado de sus términos, es decir, atendiendo únicamente
a reglas semánticas. Incluyen tanto las leyes lógicas, que son verdaderas en vir­
tud del significado de sus términos lógicos, como los enunciados que son ver­
daderos en función del significado de sus términos no lógicos. Un ejemplo del
primer caso sería el enunciado 'Juan es alto o no es alto'; un ejemplo del segun­
do caso sería el enunciado 'ningún soltero está casado'. La negación de un
enunciado analítico verdadero es autocontradictoria. Los enunciados sintéticos
se suelen definir en contraste con los anteriores, o sea, son los enunciados no
determinados analíticamente; o bien, podemos decir también, son aquellos que
afuman o niegan algo acerca de lo cual cabe tener una experiencia. Los enun­
ciados analíticos siempre tienen sentido, pero los enunciados sintéticos pueden
carecer de él si no son verificables a partir de la experiencia.
Las ciencias, por otra parte, constan sólo de enunciados significativos, lo que
implica, de acuerdo con lo dicho, que consta sólo de enunciados analíticos o de
enunciados sintéticos verificables. A diferencia de empiristas anteriores, como
Mili, los miembros del Círculo de Viena pensaban que la matemática y la lógica
(las ciencia formales) estaban constituidas únicamente por enunciados analíticos,
mientras que las ciencias empíricas o factuales, como la física, la química, la bio­
logía o la psicología, estaban constituidas por ambos tipos de enunciados, aunque
fundamentalmente por los sintéticos verificables (cfr. Camap, 1935). Para el neo­
positivismo quedaban descartados, por tanto, los enunciados sintéticos a priori en
los que Kant había basado la ciencia. Sencillamente no existían tales enunciados.
Y, por supuesto, quedaban fuera de la ciencia y del discurso significativo los
enunciados sintéticos no verificables. Un enunciado acerca del mundo que no sea
verificable, carece de sentido cognitivo; no dice nada en realidad acerca del mun­
do. Los enunciados de la metafísica serían de este tipo.
En realidad, para los neopositivistas, la mayor parte de la filosofía tradicio­
nal, que no estaba constituida ni por enunciados analíticos ni por enunciados
sintéticos verificables, era un discurso sin el más mínimo sentido. Sólo la cien­
cia puede ofrecemos un conocimiento del mundo. La filosofía, la poesía, la teo­
logía, la moral, no son más que discursos que, bajo la apariencia engañosa de
querer decir algo sobre el mundo, no llegan más que a expresar sentimientos.
¿Qué es la ciencia? 117

Ésta es, al menos, la función que Camap concede a la metafísica. U_na fynció'.1
similar a la del arte, o la poesía, pero alejada desde luego de cualqwer virtuali-
dad cognitiva:
Los (pseudo)enunciados de la metafísica no sirven p�ra la desa:ipción de
los estados de cosas, ni de los existentes (en cuyo c�so serian_ enunciados v�r­
daderos) ni de los rto existentes (en cuyo caso serian enunciados falsos); sir­
ven para' la expresión de sentimientos vitales (Lebensge/ühl) (Carnap, 1932,
pág. 238).

Hemos dicho que los neopositivistas identificaro'.1 en la prácti:a el discur­


so significativo con el discurso cien1#ico. Todo enunciado-con sentido o forma­
ba parte de la ciencia, o era sus<;ep�ble de f,o?Dar parte de ella. P_uesto 9ue, l?
que nos interesa ahora son las ciencias empmcas, es en lo� ,enunciados smtetl­
cos en los que h emos de fijam<!s. He1:10� �eñal�do tam�iei:- _qu�, de �cuerdo
con el neopositivismo, los enunciados smtetlcos solo son sig��at1vos si son ve­
rificables. Éste es, pues, el criterio de sentido y de demarcaoon propuesto: la
verificabilidad de los enunciados sintéticos. Un criterio cuy�s raíces_ pueden �n­
coritrarse en la obra de Comte y, especialmen te, en las consideraciones de Witt­
genstein sobre el lenguaje en el Trac at
� � s Logico-Philo sophicus.
Moritz Schlick lo presenta del sigwente modo:

Es imposible entender el significado de ;1!1ª propo�i�ón sin saber al mis­


mo tiempo en qué sería diferente el mundo s1 la propos1e1on fuera falsa. !ene­
mas que ver qué circunstancias han de darse en el mundo para poder 9#rn:,�r
legítim amente la proposición. Si sabemos eso, conocemo� �tonces el s1g_nif!­
cado de la proposición. También puede exf'.resarse esto di�e;1do_ �ue el s1gru­
ficado de una proposición es el modo (o metod?� de su verifi�a�:on (p�ra en­
tender su significado hemos de ver cómo se verifica la propos1e1on Y como se
falsa). .
Si queremos saber lo que una proposición signifi· ca, y dar as1, su _si_gnifi.
, que
ca-
do, la reformul am os de modo que sea reemplazada por otra propos1c1on
represente algo directamente contrastable [... ]. . .,
Establecemos así el significado de una propos1c1on afirmando lo que se
deriva de ella, o cómo hemos llegado a ella. Su significado se identifi�a con las
proposiciones que pueden ser directamente comparadas con la realidad. No
toda proposición puede ser comparada d� este modo; po�· tanto, la reempla­
zamos por otras, y éstas por otras que se sigan d(, ellas, y finalmente ��g am os
a proposiciones sobre lo _ �ediat�ente dado. ?stas son las propos1c10nes a
las que nos conduce la ciencia (Schlick, 1987, pags. 128-130).

Así pues, un enunciado sintético tiene significado si sabemos cómo verifi­


carlo. Y sabemos cómo verificarlo si podemos reformularlo de mod� q1;e,_ en
análisis sucesivos, quede reducido a expresio�es 9u� hag� referencia uru�a­
mente a cosas de las que cabe tener una experiencia mme<:liata; o en C?tros ter­
minas, si sabemos qué observaciones harían verdadero dicho enunciado. En
otro lugar lo explica así:
118 Antonio Diéguez

Si no soy capaz, en principio, de verificar una proposición, es decir, si no


sé en absoluto cómo proceder, o lo que tengo que hacer, para averiguar su ver­
dad o falsedad, entonces es obvio que no sé lo que la proposición afirma real­
mente, y seré incapaz de interpretar la proposición pasando de sus términos a
experiencias posibles, con ayuda de definiciones (Schlick, 1932/1933, pág. 7).

Es importante notar que ei criterio de verificabilidad no afuma que un


enunciado sea significativo y, por lo tanto científico, sólo si es verificado de he­
cho. Lo que el criterio enuncia es que un enunciado es significativo si sabemos
cómo se podría verificar en principio, aunque nadie haya conseguido verificar­
lo nunca. No es la verificación real lo que importa, sino la verificabilidad, lapo­
sibilidad de verificación. El enunciado 'hay aluminio en el núcleo de Plutón' es
significativo aunque no haya sido verificado nunca, ya que normalmente admi­
tiríamos que es posible su verificación en principio. El criterio de demarcación
es, pues, la veri/icabilz'dad en principio.
Esta posibilidad de verificación no es siquiera una posibilidad técnica. Un
enunciado como el anterior es significativo a pesar de la imposibilidad técnica
de su verificación en estos momentos. Ni es tampoco una posibilidad empírica.
Es empíricamente imposible saber qué está sucediendo en este preciso instan­
te en la superficie de una estrella situada a mil años luz de la Tierra, puesto que
la señal más veloz que nos pueda llegar de ella tardará mil años en hacerlo. Sin
embargo, si decimos que ahora mismo hay manchas en la superficie de dicha
estrella, estaremos diciendo algo con sentido. La posibilidad que el criterio re­
clama es la posibilidad lógica de verificación, entendida como la posibilidad de
concebir una prueba observacional que sirviera para determinar, si es que se
realizara realmente, la verdad del enunciado a verificar. Esto es lo que se pre­
tende poner de manifiesto cuando se dice que el enunciado ha de ser verifica­
ble en principio; es suficiente con saber qué observaciones lógicamente conce­
bibles verificarían el enunciado en el caso de que fueran hechas. Aun entendido
así, el criterio se supone que es lo bastante estricto como para no dejar pasar
como significativos los enunciados de la metafísica. Resulta, por ejemplo, inve­
rificable la siguiente afirmación hegeliana: «La fuerza es como el todo, el cual
es en sí mismo la referencia negativa a sí mismo.» No podemos siquiera conce­
bir el tipo de experiencias que podrían hacerla verdadera. No es un enunciado
que _nos diga algo acerca del mundo, sino un seudoenunciado: algo que se pa­
rece a un enunciado pero que no lo es.
De acuerdo con la descripción que hace Hempel de las fases sucesivas por
las que pasó dentro del Círculo de Viena la discusión sobre este criterio de de­
marcación y de sentido, en un primer momento la verificabilidad de un enun­
ciado sintético se entendió cómo la posibilidad de establecer de modo conclu­
yente la verdad o falsedad de dicho enunciado a partir de la experiencia, o más
precisamente, a partir de un conjunto finito de enunciados que describan cosas
o propiedades observables (enunciados observacionales) (cfr. Hempel, 1959,
pág. 111). No obstante, esta interpretación fuerte dejaba fuera de la ciencia a
las leyes científicas. Inicialmente Schlick intentó evitar el problema entendien-
¿Qué es la ciencia? 119

do las leyes como reglas o instrucciones para la obtención de enunciados, en lu­


gar de como enunciados mismos, pero terminó por imponerse rápidamente en
el seno del Círculo de Viena la convicción de que una verificación concluyente
de las leyes científicas era imposible. En 1932 Schlick escribía:
Hablando estrictamente, el significado de una proposición sobre objetos
físicos sólo sería agotado por un número indefinidamente grande de posibles
verificaciones, y de alú se si gue que estas proposiciones nunca pueden ser
mostradas en un último análisis como absolutamente verdaderas. De hecho,
generalmente se reconoce que incluso las proposiciones más ciertas de la cien­
cia han de ser si=pre consideradas sólo como hipótesis que permanecen
abiertas a ulteriores precisiones y mejoras (Schlick, 19,32/1933, pág. 12).
Una ley universal afirma que algo se cumplirá en cualquier lugar del espa­
cio y en cualquier momento del tiempo. Para poder establecer concluyente­
mente su verdad, tal como exige el criterio de verificabilidad, tendríamos que
disponer de un conjunto ilimitado de experiencias que encajaran con la ley, lo
cual es obviamente imposible. Las pocas experiencias que podemos realizar
acerca de cualquier ley científica en comparación con todos los casos posibles
no permitirían afumar jamás que hemos verificado la ley. Podríamos haber ob­
servado hasta hoy un millón de casos que cumplen la ley y aun así nada nos ase­
guraría que mañana no vayamos a encontrar un caso que la incumple y, por tan­
to, un caso que muestre que en sentido estricto la ley era falsa. Esto no es más
que el viejo problema de la inducción, que todo lector de Hume conoce. Pue­
de entonces que la metafísica hegeliana no sea verificable de forma concluyen­
te, pero tampoco lo son las leyes científicas universales, como la ley de la grave­
dad. Ahora bien, si las leyes científicas no son verificables de forma concluyente
y, pese a ello, son enunciados perfectamente significativos, el criteri? de.verifi­
cabilidad debía ser formulado de forma que no las excluyera de la ciencia.
Un intento en esta dirección fue el que llevó a cabo A lfred J. Ayer en su
muy influyente obra Lenguaje, verdad y lógica, cuya primera edición es de 1936.
En ella, Ayer proponía sustituir este sentido fuerte de verificabilidad por un
sentido débil del término. Un enunciado es verificable en sentido débil si es po­
sible para la experiencia hacerlo probable, es decir, si existen determinadas ex­
periencias posibles que lo apoyarían en caso de darse. La formulación que da
Ayer es la siguiente: un enunciado es verificable si de él, en conjunci�n c�m
_
otras premisas, pueden deducirse algunos enunciados acerca de expenencias
reales o posibles, y estos últimos no pueden deducirse sólo a partir de esas otras
premisas (cfr. Ayer, 1946, págs. 38-39). Todavía cabe decirlo de otro mod?· 1:Jn
enunciado es verificable si, junto con otras premisas, sirve para hacer prediccio­
nes observables en cuya obtención es una parte indispensable. Cuando un
enunciado permite hacer dichas predicciones, la comprobación empírica del
resultado predicho no establece de modo concluyente su verdad, pero sí au­
menta su probabilidad. Por consiguiente, el rasgo definitorio de la ciencia es
que en ella podemos hacer predicciones observables y que éstas, una vez cons­
tatadas, hacen más probables a las hipótesis de las que se derivan.
120 Antonio Diéguez

Pero ocurre que este criterio, con ser más atento a la estructura lógica de
las c�ntrastaciones científicas a través del método hipotético-deductivo, y no
exclwr de la ciencia a los enunciados universales, como las leyes científicas es
también, según mostró pronto Isaiah Berlin, un criterio inoperante (cfr. Berlin,
1:38/1939). Tal como está formulado permitiría que cualquier enunciado tu­
viera sentido empírico y fuera científico. Supongamos un enunciado cualquie­
ra, como 'el Absoluto es perezoso'. De este enunciado podría inferirse el enun­
cia�� ob��rvacional 'esta manz ana es roja' si le añadimos la siguiente premisa
auxiliar: s1 el Absoluto es perezoso, esta manzana es roja'; premisa de la que,
por sí sola, no se sigue el enunciado 'el Absoluto es perezoso' tal como marca
el criterio. 'El Absoluto es perezoso' tendría entonces sentido �mpírico, ya que
?�
puede obt�erse él un enunciado observa�onal. El lector quizá objetará que
esta premtsa auxiliar a la que hemos recurndo es totalmente arbitraria. Pero
Ayer no ha formulado en esta versión del criterio ninguna condición que deban
cumplir las premisas auxiliares empleadas.
En la introducción de la segunda edición del libro, que se publicó diez años
mas,
tarde, Ayer propuso una versión mejorada del criterio de verificabilidad
que permitía escapar a esta objeción. En esa nueva versión, las premisas auxi­
liares deben cumplir ciertas condiciones: deben ser o enunciados analíticos' o
enunciados verificables en un proceso independiente.
Pero tampoco esto funcionó. Alonzo Church (1949) mostró en sólo doce
líneas que, incluso con esta mejora, cualquier enunciado o bien su negación po­
drían pasar el criterio y ser un enunciado significativo.
Finalmente, una objeción muy repetida contra el criterio de verificabilidad
como criterio de sentido (y que valdría también para la confim1abilidad, pero
no para la falsabilidad popperiana) ha sido que el criterio se anula a sí mismo,
ya que de acuerdo con su propia prescripción carecería de sentido. En efecto,
el criterio de verificabilidad no es un enunciado analítico ni tampoco un enun­
ciado sintético verificable, con lo que no pertenece al discurso significativo· no
tiene ningún sentido empírico.
Con posterioridad, Ayer reconoció la fuerza de la objeción e intentó res­
ponderla, pero su respuesta -como alguna otra que también se ofreció (cfr.
Hempel, 1959, págs. 123-126)- resulta difícilmente aceptable:

Debía haber tomado la decisión más atrevida de caracterizar el principio


como analítico, en virtud de la conexión necesaria entre el sentido de un
enunciado y las condiciones de verdad de la proposición que se entiende que
expresa (Ayer, 1987, pág. 28).

En las mismas páginas, Ayer no tiene reparos ·en añadir una crítica más al
criterio: no tiene en cuenta la cuestión de quién es el responsable de la verifica­
ción de un enunciado. El criterio no adara si debemos tomar como tal a un ob­
servador hipotético situado en una situación epistémica ideal o a un observador
real con todas sus limitaciones para determinar la verdad o falsedad de los
enunciados. Y, sin embargo, las cosas serían muy diferentes en ambos casos. Si
¿Qué es la ciencia? 121

consideramos que los enunciados sobre el pasado, el presente y el futuro están


en igualdad de condiciones frente al criterio, así como los enunciados acerca de
experiencias de otras personas, tendremos que recurrir a la noción de un obser­
vador ideal capaz de moverse de una posición a otra en función de cada caso, y
esta noción-como Ayer reconoce-es bastante problemática (cfr. Ayer, 1987,
pág. 30).

3. LA CONFIRMABILIDAD COMO CRITERIO DE DEMARCACIÓN

Paralelamente a los esfuerzos de Ayer por mejorar el criterio de verificabi­


lidad, Camap iba desarrollando un criterio de sentido que intentaba superar
también los problemas que hemos señalado. Carnap coincide con Ayer en re­
chazar la verificación completa como criterio de sentido. Considera, como Ayer
y como Schlick, que los enunciados universales, cuyo exponente científico más
destacado son las leyes científicas, tienen el carácter de hipótesis, sin posibili­
dad de verificación completa. En 1932 también él se manifestaba en términos
muy parecidos a los de Schlick anteriormente citados:
En relación con los enunciados singulares, una 'ley' tiene el carácter de
una hipótesis; es decir, no puede ser deducida directamente de ningún conjun­
to finito de enunciados singulares, pero, en los casos favorables, es apoyada
crecientemente por tales enunciados (Camap, 1932/1995, pág. 48).

En TestabilityandMeaning, obra publicada entre 1936 y 1937, Carnap sus­


tituye finalmente, para evitar confusiones, el término 'verificación' por el de
'confirmación'. Una diferencia fundamental entre ambas es que, mientras la ve­
rificación era un proceso de todo o nada, la confirmación posee grados, es nn
proceso gradualmente creciente. Esto permite recoger bajo este concepto el he­
cho señalado de que las leyes pueden ser apoyadas crecientemente por ennn­
ciados observacionales.
El criterio de verificabilidad es reemplazado en consecuencia por el crite­
rio más débil de la con/irmabilidad. Lo que caracteriza a la ciencia, según este
criterio, no es que sus teorías sean verificables, sino que son confirmables en nn
grado cada vez mayor. Las teorías científicas son susceptibles de encontrar ex­
periencias que las apoyen; y a medida que crece el número dé tales experien­
cias, crece la probabilidad de que la teoría correspondiente sea verdadera. De
nuevo la filosofía, la poesía, la religión, etc. quedan fuera de la ciencia (y del dis­
curso significativo), porque no hay experiencias posibles capaces de apoyar, di­
gamos, la metafísica hegeliana o la existencia de Dios. Pero esta vez no quedan
fuera las leyes científicas. Una ley como la de la gravedad no puede ser deduci­
da de ningún conjnnto finito de enunciados observacionales -y, por ello,
como las demás leyes, es siempre hipotética-; sin embargo, sí puede recibir
apoyo de los casos concretos que la confirman, y es confirmada cada vez que
observamos una manzana caer del árbol o el movimiento de la Luna en el cielo
122 Antonio Diéguez

estrellado (su]?oníendo que hacemos además las mediciones precisas para cada
una de las vanables). Cuantas más observaciones semejantes hacemos cuantos
más hechos positivos encontramos, más confirmamos la ley. Camap identificó
más t_arde e� grado de confirmación de un enunciado con su probabilidad lógi­
�a o mductlva, dándole así una expresión numérica. Como desarrollo de esta
idea elaboró un complejo sistema de lógica inductiva probabilística.
La i?ea intuitiva que hay tras el criterio de confirmabilidad es que lo que
C'.1factenza a un enunciado (sintético) con sentido no es que pueda ser estable­
cido concluyentemente a partir de la experiencia, sino que la experiencia pue­
de �Pº>'.arlo (o debilitarlo) de forma creciente o, en otras palabras, que hay ex­
penencia r�evante para decidir acerca de su verdad o falsedad. Pero ¿cuándo
es un enunciado susceptible de confirmación del modo descrito? La respuesta
de Camap es que un enunciado es completa o incompletamente confirmable si
cada predicado descriptivo que aparece en él es completa o incompletamente
reduct�ble a predicados observables (Camap, 1936/1937, pág. 457). Así, el cen­
tro de _mterés se desvía ahora hacia los términos en que vienen formulados los
e:1-unc1ados. Para que un enunciado sea susceptible de formar parte de la cien­
�ia (y para 9ue tenga sentido cognitivo), sus términos, tal como exigía el fisica­
hs1!1o asUffildo _por Camap, han de ser traducibles a términos que se refieran a
objetos o propie:fa�es observ�bles. En esta línea marcada por Camap, Hem­
pel formula el cnteno de sent.1do de un modo que hizo fortuna: un enunciado
tiene significado cognitivo si y sólo si es reductible a un «lenguaje empirista»
(cfr. H�mpel, 1959, págs. 116 y sigs.). Por lenguaje empirista entiende aquél
que satisface las dos siguientes condiciones:

l. El vocabulario de dicho lenguaje contiene únicamente expresiones habituales


en �a lógica ('y', 'o', 'si... entonces', 'todos', 'algunos' etc.), predicados obser­
vacionales, y cualquier otra expresión forrnulable con las dos anteriores.
2. Las reglas para la formación de enunciados son las establecidas por algún sis­
tema lógico actual, como el de los Pn'ncipia Matemática.

El criterio de confumabilidad entendido como la traducibilidad a un len­


guaje empirista evitaba, según Hempel, todos los problemas anteriores. Funda­
mentalmente conseguía que los enunciados universales no quedaran excluidos
por el mer?_ hecho de serlo, ya que el cuantificador universal pertenece al len­
_
�aje empmsta, y además dejaba sin significado a muchos pretendidos enun­
ciados, en especi� los enuncia�os me!�sicos como 'la nada nadea', que no
pueden ser traducidos al lenguaje empmsta.·
E:ste criterio de d_ �arcación p��ce a primera vista más razonable que el
antenor, pero las objeciones no se hicieron esperar. Una primera es que no pa­
rece factible definir todos los términos científicos por medio de predicados ob­
servacionales -piénsese en términos como 'entropía', 'campo eléctrico' o
'9uark'. Camap y H�mpel l?�evíeron la obje _ �ón e intentaron resolverla permi­
tiendo que el 1�1:guaje empmsta _ se ampliar� mcluyendo términos que, aunque
no fueran explícitamente traducibles a predicados observacionales, sí pudieran
¿Qué es la ciencia? 123

ser conectados parcial e indirectamente con la observación a través de oracio­


nes reductivas o de reglas de correspondencia, que proporcionarían una inter­
pretación empírica a las teorías de las cuales esos términos forman parte. De ese
modo, estos términos no reductibles al lenguaje observacional terminarían en­
contrando en el seno de una teoría un cierto entronque en la experiencia me­
diante las relaciones establecidas a través de postulados teóricos con los térmi­
nos que sí son reductibles.
Sin embargo, esta solución está lejos de ser satisfactoria. En primer lugar, el
empirismo lógico fue incapaz a lo largo de interminables discusiones de darle
un significado homogéneo y aceptable a la noción de regla de correspondencia.
En segundo lugar, Popper mostró que las teorías metafísicas y seudocientíficas
también pueden ser reducidas de esta forma indirecta y parcial al lenguaje ob­
servacional. Hasta una «aserción archimetafísica» como 'existe un espíritu per­
sonal omnipotente, omnipresente y omnisciente', puede ser considerado como
un enunciado científico de acuerdo con el criterio de confirmabilidad, ya que
es posible reducirlo a un lenguaje empirista, y eso le convierte en confirmable
en principio (cfr. Popper, 1963, págs. 206-212)1. De hecho, fuera de la ciencia
tenemos teorías que cuentan, o al menos eso dicen, con muchos ejemplos con­
firmadores, con muchas predicciones cumplidas (psicoanálisis, astrología).
Como afirma Stegmüller, hasta «teorías» teológicas o místicas son capaces de
establecer este contacto indirecto entre sus términos centrales y el mundo de la
experiencia (entre el «más allá» y esta vida) (cfr. Stegmüller, 1979, pág. 405).
Pero la confirmabilidad fracasa como criterio de demarcación entre ciencia y
no-ciencia sí en campos que no consideramos habitualmente como científicos,
incluyendo la metafísica, encontramos también hipótesis confirmables. Y la
prueba de que son confirmables es que en algunos casos, como en la astrología
o en la homeopatía, podemos decir que los hechos han mostrado que se trata
de hipótesis sumamente improbables cuando no claramente falsas.
Podría quizás intentarse una justificación de este fr acaso aceptando la ex­
plicación carnapiana de que la confirmabilidad no pretendió excluir a las seu­
dociencias, sino sólo a la metafísica y a la poesía (aunque la metafísica no se de­
jara excluir fácilmente). El problema es que la confirmabilidad también fracasa
como criterio de sentido. Como señaló Israel Scheffler (1956/1957), el concep­
to de traducción correcta, en el que se basa el criterio, sólo puede aplicarse si
presuponemos de antemano que los enunciados implicados en la traducción
tienen sentido. Con lo cual caemos en un círculo vicioso. Para saber si un enun­
ciado tiene sentido hemos de saber sí tiene una traducción correcta en el len­
guaje empirista, pero para saber sí la traducción es correcta (sí se conserva el va­
lor veritativo de los enunciados implicados en ella), hemos de presuponer que
los enunciados en cuestión tienen sentido.

1 La respuesta de Carnap a esta objeción consistió en rechazar que la «aserción archimetafísi­


ca» de Popper fuera realmente metafísica en el sentido que los neopositivistas daban a este térmi­
no (cfr. Carnap, 1963, pág. 881).
124 Antonio Diéguez

Por si esto no fuera suficiente, el concepto de confirmación de una teoría a


partir de los hechos conduce a paradojas -al menos aparentes- que genera­
ron un largo debate con final incierto y definitivamente alejado de los proble­
mas de la ciencia real (para un tratamiento de las mismas puede consultarse
Hempel, 1979, cap. 1 y Rivadulla, 1984, cap. 2).
Hay una clilicultad técnica que se señala a menudo aun cuando no supone
en realidad una objeción decisiva contra la confirmabilidad. La clilicultad estri­
ba en que dentro del sistema de lógica inductiva desarrollado por Carnap,
como él mismo reconoce, el grado de confirmación de una ley universal tiene
que ser cero. Una ley universal afirma que algo se cumple en todo lugar del es­
pacio y en todo momento del tiempo. Su ámbito de aplicación es, por tanto, in­
finitamente grande comparado con el número de casos que podemos registrar
en su favor. Luego por extensa que sea la evidencia empírica de la que los seres
humanos dispongan en apoyo de una ley, siempre será insuficiente para aumen­
tar de forma significativa la probabilidad de que la ley sea verdadera y su valor
será siempre cero o estará cercano al cero. No obstante, este problema no es in­
salvable, ya que puede ser resuelto en otros sistemas de lógica inductiva, como
el desarrollado por el finlandés Jaakko Hinitikka.
Por último, el criterio de confirmabilidad, tanto como el de verificabilidad,
presuponen que la teoría y la observación son categorías disyuntas. Es verdad
q'.-le Carnap admitió que no hay una línea precisa de separación entre los pre­
dicados observables y los no observables (cfr. Carnap, 1936/1937), pero aun así
e� �riterio se sustenta en que unos términos (los teóricos) fundamentan su sig­
nificado en los otros (los observacionales). Ahora bien, buena parte de la filo­
sofía de la ciencia posterior al Círculo de Viena ha cuestionado seriamente esta
idea2• Toda observación, según dicen muchos filósofos actuales de la ciencia,
está «cargada de teoría». Todo enunciado observacional presupone la validez
de alguna teoría, por elemental que pueda ser. De modo que se dotan de signi­
ficado los unos a los otros en una relación recíproca.
Estas objeciones conjuntamente constituyen una prueba de cargo muy po­
derosa contra la tesis de que la confirmabilidad vale como criterio de demarca­
ción entre lo que es ciencia y lo que no lo es. Pero hay un argumento contra la
versión que Carnap ofrece de ella que tiene especial interés debido a su elegan­
cia (a pesar de las burlas que de él hizo Feyerabend) y a que suscita de nuevo el
viejo problema humeano de la inducción en unos términos renovados que han
sido después particulaimente fructíferos. Nelson Goodman mostró (en 1954)
con dicho argumento que lo que cuente en la ciencia como un ejemplo confir­
mador de una teoría es algo que depende en ocasiones, más que de la pura ló­
gica, de la historia de una disciplina y de la historia de los términos que emplea.

2 Según una relectura reciente del pensamiento de Camap, también éste la cuestionó en cier­
to grado, en la medida en que admitió que los términos observacionales dependen parcialmente
en su significado de las teorías en las que se dan. No obstante, Camap mantuvo siempre la distin­
ción entre términos teóricos y términos observacionales (dr. Irzik y Grünberg, 1995 y Earman,
1993a).
¿Qué es la ciencia? 125

En otras palabras, una caracterización puramente formal de la confirmación es


inviable. Para considerar confirmada una hipótesis concreta no basta con en­
contrar casos empíricos en su favor. Merece la pena que expongamos el argu­
mento brevemente.
Partamos de la base de que todas las esmeraldas observadas hasta el mo­
mento son verdes, de modo que podemos decir que dichas observaciones pro­
porcionan un alto grado de confirmación a la hipótesis 'todas las esmeraldas
son verdes'. Esto no presenta en principio ninguna clilicultad. Pero considére­
se ahora el predicado 'verdul', que inventamos expresamente para nuestros
propósitos y al que definimos como sigue:
Un objeto es verdul si y sólo si

a) es observado antes del tiempo t y es verde, o bien


b) es observado después del tiempo t y es azul.

Supongamos ahora que tes el año 2050. Resulta entonces que todos los ca­
sos de esmeraldas observadas hasta el momento confirman también la hipóte­
sis 'todas las esmeraldas son verdules', puesto que son casos de objetos obser­
vados antes de t (año 2050) y de color verde. Tenemos, pues, que los mismos
datos empíricos confirman dos hipótesis distintas: 'todas las esmeraldas son
verdes' (llamémosla H) y 'todas las esmeraldas son verdules' (llamémosla H').
Ahora bien, como hipótesis científicas confirmadas, ambas pueden ser utiliza­
das para hacer predicciones, y como ambas están confirmadas en la misma me­
dida, las predicciones de ambas deben ser consideradas como igualmente fia­
bles. El problema es que las predicciones que hacen cada una de ellas para las
esmeraldas que observemos después del año 2050 son muy distintas. H predi­
ce que serán verdes, mientras que H' predice que serán azules. AJ.proyectar ha­
cia el futuro la evidencia disponible llegamos a resultados en conflicto en fun­
ción de qué hipótesis tomemos como confirmada. En realidad, mediante este
procedimiento podemos predecir cualquier cosa a partir de los datos disponi­
bles. Basta con elegir el predicado apropiado para formular la hipótesis que
consideremos confirmada.
Parece obvio que en este ejemplo el predicado que debemos utilizar para
proyectar hacia el futuro la evidencia disponible es 'verde' en lugar de 'verdul'.
Pero la cuestión es: ¿por qué pensamos así? ¿Qué hace que 'verde' sea preferi­
ble a 'verdul' a la hora de formular hipótesis sobre eLcolor de las esmeraldas?
El hecho de que 'verdul' sea un término artificialmente creado no puede valer
como respuesta. En la ciencia se crean términos que no existían con anteriori­
dad en el lenguaje y el resultado es habitualmente satisfactorio. Es más, la cien­
cia no podría progresar sin crear términos nuevos.
Otra razón que podría aducirse para preferir 'verde' es que en la definición
de este término no hay que hacer ninguna especificación espacio-temporal,
mientras que en la definición de 'verdul' sí hay que hacerla; y se supone que los
términos sin dichas especificaciones son más útiles para la ciencia. Sin embar­
go, esto es un asunto de convención. Podríamos inventar, por ejemplo, el tér-
126 Antonio Diéguez

mino 'azerde', al que definiríamos como objeto observado antes de t y de color


azul o después de t y de color verde. En tal caso, el término 'verde' podría de­
jar de ser definido como habitualmente, sin referencias espacio-temporales, y
pasar a ser definido del siguiente modo:

Un objeto es verde si y sólo si


a) es observado antes de t y es verdul, o bien
b) es observado después de t y es azerde.

Éste es en pocas palabras el problema que Goodman denomina 'nuevo


enigma de la inducción'. Escribe Goodman:

El problema de justificar la inducción ha sido desplazado por el proble­


ma de definir la confirmación, y nuestro trabajo sobre éste nos ha conducido
al problema residual de distinguir entre hipótesis confirmables y no confirma­
bles [...]. La pregunta crucial que queda es «¿Qué hipótesis son confirmadas
por sus casos positivos?» (Goodman, 1954, págs. 80-81).

La solución de Goodman a este problema pasa por abandonar las consi­


deraciones puramente sintácticas acerca de la confirmación y por tener en
cuenta otro tipo de información para saber qué hipótesis debemos conside­
rar confirmada. En concreto debe tenerse presente el historial de prediccio­
nes pasadas hechas con cada hipótesis y el resultado obtenido con las mis­
mas. Es esta información la que puede ayudarnos a decidir qué predicados
son proyectables y cuáles no. Volviendo a nuestro ejemplo, ese tipo de infor­
mación nos dice que 'verde' tiene un historial mayor de proyecciones que
'verdul', o como dice Goodman, el predicado 'verde' está mejor atrinchera­
do que el predicado 'verdul' (pág. 95). Así pues, debemos proyectar los pre­
dicados que estén mejor atrincherados, y éstos serán los que cuenten en su
haber con mayor número de proyecciones anteriores con éxito. Para deter­
minar qué hipótesis estamos confirmando a partir de la evidencia empírica
disponible hemos de atender, por tanto, a consideraciones históricas dentro
de una disciplina. El proyecto carnapiano de caracterizar la confirmación
como una mera relación lógica entre las hipótesis y la evidencia empírica
queda en entredicho.
No debe concluirse de todo esto que el concepto de confirmación sea com­
pletamente inútil y que no haya confirmaciones en la ciencia. Es obvio que las
hay, y tiene perfecto sentido decir que en muchos casos el conocimiento cientí­
fico es un conocimiento altamente confirmado. Las críticas que hemos expues­
to no van contra esto, sino contra la pretensión de que la confirmabilidad es
una característica exclusiva de la ciencia y además una característica que deter­
mina dónde comienza el discurso significativo. Quizá tenga razón Stegmüller
(1983, pág. 411) en que el proyecto neoposii:ivista de formular un criterio es­
tricto para separar lo que tiene sentido de lo que no lo tiene perseguía fines loa­
bles con procedimientos inadecuados. La tarea de eliminar de la filosofía todó
¿Qué es la ciencia? 127

discurso puramente retórico y de buscar la claridad, dando más valor a la expe­


riencia y a la argumentación rigurosa que a los juegos de palabras, es más algo
que se debe realizar mediante la promoción de ciertas actitudes que mediante
un criterio basado en análisis teóricos. No me resisto a citar con cierta exten­
sión sus palabras porque creo que son un resumen magnífico de lo bueno y lo
malo que encerró todo este proyecto:
El aspecto del «problema de la metafísica» [...] no se refiere a una cues­
tión teórica, sino práctica. Lo que aquí se siente como un «mal» no es la absur­
didad o carencia de sentido de determinados supuestos, sino una determina­
da actitud mental, que aparece en los partidarios de doctrinas metafísicas con
la misma frecuencia que en los partidarios de concepciones políticas y religio­
sas. Se trata del espíritu, o mejor dicho, del mal espíritu de la intolerancia, que
lleva al intento de dogmatizar e inmunizar determinadas concepciones frente a
objeciones crítico-racionales. Quien afirma ser un iluminado, que dispone de
la verdad única, ya sólo puede pretender reunir a su alrededor discípulos cre­
yentes, sin tener ningún verdadero interés en una discusión racional con su in­
terlocutor, sino a lo sumo un interés fingido. Esta actitud mental no puede su­
perarse mediante argumentos teóricos, sino sólo mediante una actividad que
trate de propagar el pensamiento crítico y que esté animada por la esperanza
de que ese mal espíritu en un futuro más o menos lejano, si bien no desapa­
rezca de nuestro planeta, se vea condenado, no obstante a la insignificancia
práctica. Esta actividad surgiría de la decisión «existencial» a favor de un
modo de vida para el que la fe inquebrantable, contra la que chocan los argu­
mentos racionales, no sea una virtud, sino un vicio.

4. LA FALSABILIDAD COMO CRITERIO DE DEMARCACIÓN

Karl Popper (1902-1994), un físico y filósofo cercano al neopositivismo,


pero también crítico con él, consiguió darle un giro radical a la cuestión. En
1934, dos años antes de que Ayer propusiera la sustitución del concepto fuerte
de verificabilidad por otro más débil, o de que Carnap, convencido de la impo­
sibilidad de verificación total de los enunciados universales, iniciase el análisis
lógico del concepto de confirmación, aparecía publicada en Viena su primera
obra significativa. Sin embargo, esta obra, titulada Logzk der Forschung, y en la
que se exponían ideas que Popper venía madurando desde hacía más de una
década, sólo ejercería una influencia muy limitada hasta que se tradujo al inglés
en 1959 bajo el título de The Logic o/Scientt/ic Discovery. A partir de entonces,
se convirtió sin lugar a dudas en uno de los trabajos de referencia más impor­
tantes de la filosofía de la ciencia. Para su traducción al castellano se prefirió el
título inicial: La lógica de la investigación científica.
La obra comienza con una tesis abiertamente enfrentada al neopositivismo:
el método empleado en la ciencia no es el método inductivo, sino el hipotético­
deductivo. La inducción no es siquiera un modo de inferencia lógicamente
aceptable. Un conjunto de enunciados singulares, por grande que sea, nunca
puede justificar lógicamente la pretensión de verdad de un enunciado univer-
128 Antonio Diéguez

sal o de una teoría; y puesto que tanto el verificacionismo como el confirmacio­


nismo se basan en la aceptación de este tipo de inferencias inductivas, Popper
rechaza igualmente ambas posturas. Popper pensaba que la razón de que los fi­
lósofos y científicos, desde los tiempos de Bacon, hubieran insistido tanto en
que la inducción era el método empleado en la ciencia para justificar las teorías
era que creían, erróneamente, que así podían establecer una línea de demarca­
ción entre lo que es ciencia y lo que no es ciencia.
Las razones que Popper aporta para descartar la inducción como método
de la ciencia siguen de cerca las críticas que ya había ofrecido Hume. La induc­
ción es injustificable desde un punto de vista lógico. En la conclusión hay siem­
pre contenida más información que en las prenúsas. Este salto exige una justi­
ficación que lo legitime. Tradicionalmente se ha empleado para tal propósito
algún principio de inducción, como el principio de uniformidad de la naturale­
za, que sostiene que las regularidades que se han dado en el pasado continua­
rán dándose en el futuro. Pero la aceptación de ese principio reclama a su vez
una justificación. No puede tratarse de un enunciado analítico, sino de un
enunciado sintético cuya verdad debemos sustentar sobre la experiencia (Pop­
per tampoco acepta la posibilidad de enunciados sintéticos a priori). Y esto nos
lleva entonces a una regresión infinita: para establecer mediante la experiencia
la verdad de este principio inductivo necesitaríamos recurrir a un nuevo prin­
cipio inductivo de orden superior, y para establecer la de éste a otro, y así suce­
sivamente. Esta objeción afecta igualmente a los intentos de basar las inferen­
cias inductivas en el cálculo de probabilidades.
Por lo tanto, Popper se impone a sí mismo la tarea de reconstruir un crite­
rio de demarcación que sólo admita la lógica deductiva, y ello sin abandonar el
principio del empirismo según el cual sólo la experiencia -los enunciados ob­
servacionales- puede ayudarnos a decidir sobre la verdad o falsedad de nues­
tras hipótesis. Porque Popper, después de todo, sigue siendo un empirista.
Existe una asimetría lógica fundamental que puede proporcionar la base
para ese nuevo criterio:

Los enun�iados uníversales [...] no son jamás deducibles de enunciados


singulares, pero sí pueden entrar en contradicción con estos últimos. En con­
secuencia, por medio de inferencias puramente deductivas (valiéndose de mo­
dus tollens de la lógica clásica) es posible argüir de la verdad de enunciados
singulares la falsedad de enunciados uníversales (Popper, 1962, pág. 41).

Así, el enunciado 'todos los cuerpos se atraen entre sí con una fuerza que
es directamente proporcional al producto de sus masas e inversamente pro­
porcional al cuadrado de la distancia que los separa' no puede ser jamás veri­
ficado, pues no podemos deducirlo a partir de enunciados singulares acerca
. del comportamiento observado de una serie de cuerpos materiales, pero bas­
taría con que encontráramos un solo caso de incumplimiento del mismo, un
solo caso de cuerpos que no se atraigan entre sí como afirma el enunciado,
para que, aplicando el modus tollens, pudiéramos concluir que el enunciado
¿Qué es la ciencia? 129

es falso. Habría quedado refutado, o en terminología de Popper, habría que­


dado falsado. El modus tollens es un tipo de inferencia deductiva que sigue el
siguiente esquema: «Si p, entonces q,· y no q; por lo tanto no p.» En el ejem­
plo que acabamos de poner, la posible refutación de la ley de la gravedad iría
de este modo: «Si todos los cuerpos se atraen entre sí con una fuerza etc., en­
tonces los cuerpos A y B se comportarán de la forma x; pero resulta que se
comprueba experimentalmente que los cuerpos A y B no se comportan de la
forma x; por lo tanto, no es cierto que todos los cuerpos se atraigan entre sí
con una fuerza etc.»
En cambio, los enunciados de la metafísica o de las seudociencias no pue­
den ser falsados, porque no hay experiencias posibles que puedan servir para
refutarlos.
Tenemos con ello todos los elementos para establecer el nuevo criterio de
demarcación. Lo que distingue a la ciencia no es su capacidad para verificar o
confirmar sus teorías, sino todo lo contrario, su capacidad para deshacerse rá­
pidamente de las teorías erróneas mediante una crítica rigurosa orientada a la
refutación de las teorías a partir de la experiencia. Una teoría es científica si y
sólo si es susceptible de refutación o falsación empírica. En otras palabras, si es
posible en principio concebir una o varias observaciones que, caso de darse, ha­
rían falsa a la teoría.
Como en los criterios anteriores, se trata de una posibilidad en principio,
en este caso de la posibilidad de refutación. Es esa mera posibilidad y no, claro
está, la refutación de hecho, la que el criterio exige. Popper creía que el desti­
no de toda teoría científica era el de ser falsada algún día. Pero una teoría pue­
de pasar con éxito durante mucho tiempo todas las pruebas a las que se ·la so­
meta para intentar falsada. Y cuanto más duras y rigurosas sean las pruebas que
ha pasado con éxito, tanto mejor teoría será. El hecho de pasar con éxito los in­
tentos de refutación no prueba que la teoría sea verdadera, ya que siempre cabe
la posibilidad de que sea falsada más adelante, pero al menos podemos decir
que la teoría está «corroborada». El grado de corroboración de una teoría es sólo
el grado en que una teoría ha resistido hasta el momento los intentos de falsa­
ción. No debe interpretarse, por tanto, que una teoría es más probable por el
hecho de estar mejor corroborada. El grado de corroboración popperiano no
se debe identificar con el grado de confirmación camapiano. La ciencia progre­
sa en la medida en que se proponen hipótesis audaces que van siendo refutadas
cuando se consigue encontrar ejemplos en su contra, y, una vez refutadas, van
siendo sustituidas por otras hipótesis mejores. La ciencia nunca es más que un
sistema de hipótesis o conjeturas. No estamos justificados para afirmar que he­
mos alcanzado en ella la verdad, y ni siquiera que hemos alcanzado teorías muy
probablemente verdaderas.
Todas las teorías científicas encajan, según Popper, con este criterio de de­
marcación. Nuestras mejores teorías, como la teoría de la relatividad, han efec­
tuado predicciones arriesgadas que podían haber fallado (lo que habría signifi­
. cado la falsación de la teoría) y que sin embargo fueron exitosas. Tal es el caso
de la predicción einsteíniana de que la luz se curvaría en campos gravitatorios.
130 Antonio Díéguez

Era una predicción novedosa f arriesgada, que ponía en juego a la teoría, y que
fue constatada durante un eclipse solar en 1919. Ello proporcionó fama mun­
dial a Einstein. En cambio, las teorías seudocientíficas ---Popper pensaba sobre
todo en � psi_:=oanáli�is,_ la astrol_ogía y el m8:°'1smo- se caracterizan por que
no hacen ¡amas predicc10nes arnesgadas, y s1 las hacen y fallan (como sucedió
con el marxismo), buscan la manera de encajar el ejemplo en contra de modo
�1:e se conyierta en un ejemplo a su favor. Las teorías metafísicas y seudocien­
tíficas son infalsables de por sí, o bien sus defensores las convierten en infalsa­
bles con su actitud de rechazar toda falsación. Para ellas todos son casos con­
firmadores y nunca refutadores.
En Conjeturas y refutaciones hay un texto sumamente ilustrativo en el que
Popper narra cómo en 1919, mucho antes de haber entrado en contacto con el
Círculo de Vié:D�, cuando todavía era un joven estudiante de física, había llega­
do al ,convenc�ento de que lo que distinguía a la ciencia no era que las teorías
_ _
c1entífi�as tuvieran mu?los casos a su favor, sino que podían hacer prediccio­
nes arnesgadas, susceptibles de ser de��entidas por la experiencia. En esa épo­
ca Po�per �ab1a alcanzado un conoc1m1ento bastante profundo de tres teorías
que le mqmetaban: el marxismo, el psicoanálisis y la psicología del individuo de
Alf�ed ��er. Pese a su interés por ellas, comenzaba a sospechar que algo las
hacia distmtas de otra teoría por la que también sentía fascinación: la teoría de
la relativid�d �e Einstein. Y la diferencia parecía estar en que, paradójicamen­
te, no �abra nm�una conducta humana que no pudiera ser encajada bajo las
tres pnmeras, mientras que en el caso de la teoría einsteiniana se efectuaban
c�ertas predicciones claras que podían fallar estrepitosamente. L� teoría einstei­
mana adelantaba qué tipo de experiencias podrían ir en su contra. El texto con­
tinúa:
Descubrí que aquellos de mis amigos que eran admiradores de Marx
Freud y �dler estab� impresionados por el número de puntos comunes e�
estas teonas, y especialmente por su aparente poder explicativo. Estas teorías
parecían capaces de explicar prácticamente todo lo que sucedía dentro de los
campos a los que se referían. El estudio de cualquiera de ellas parecía tener el
efecto de una conversión o revelación intelectuales que abría los ojos a nuevas
verdades escondidas para los no iniciados. Una vez que los ojos se abrían de
esta manera, se veían ejemplos confirmadores por todas partes: el mundo es­
taba lleno d : verif:1aciones de 1� teoría. Sucediera lo que sucediera, siempre
era una _co�ac1on de la teona. De este modo, su verdad parecía manifies­
t�; y los mcredulos eran claramente personas que no querían ver la verdad ma­
nifiesta; que rehusaban verla, ya fuera porque iba contra sus intereses de cla­
se, ya fuera a causa de sus represiones, que aún no estaban «analizadas» y
clamaban por un tratamiento.
Me pareció que el elemento más característico de esta situación era la in­
cesante corriente de confirmaciones, de observaciones que 'verificaban' las
teorías en cuestión; y éste era un punto que sus partidarios enfatizaban cons­
tantemente. Un marxista no podía abrir un periódico sin encontrar en cada
página evidencia que confirmara su interpretación de la historia- no sólo en las
noticias, sino también en su presentación --que revelaba los pr�juicios de da-
¿Qué es la ciencia? 131

se del periódico-- y especialmente, claro está, en lo que el periódico no decía.


El analista freudiano subrayaba que sus teorías eran verificadas constante­
mente por sus 'observaciones clínicas'. En lo que respecta a Adler, me impre­
sionó mucho una experiencia personal. En cierta ocasión, en 1919, le informé
de un caso que no me parecía particularmente adleriano, pero que él no en­
contró ninguna dificultad en analizar en los ténninos de su teoría de los senti­
mientos de inferioridad, aunque ni siquiera había visto al niño. Un poco es­
candalizado le pregunté cómo podía estar tan seguro. 'Por mi experiencia de
mil casos', replicó; a lo que no pude evitar contestarle: 'Y con este nuevo caso
supongo que su experiencia es ahora de mil y un casos.'
[...] Era precisamente este hecho -que siempre encajaban, que siempre
eran confirmadas- lo que a los ojos de sus admiradores constituía el argu­
mento más fuerte a favor de estas teorías. Empecé entonces a comprender que
esta fuerza aparente era de hecho su debilidad.
Con la teoría de Einstein la situación era muy diferente. Tomemos un
ejemplo típico -la predicción einsteiniana, que acababa de ser confirmada
por los hallazgos de la expedición de Eddington. La teoría de la gravedad de
Einstein llevaba al resultado de que la luz debía ser atraída por cuerpos pesa­
dos (como el Sol), tal como son atraídos los cuerpos materiales. En conse­
cuencia, podía calcularse que la luz de una estrella fija distante cuya posición
aparente estuviera cercana al Sol llegaría a la Tierra desde tal dirección que la
estrella parecería estar ligeramente desplazada con respecto al Sol; o, en otros
términos, las estrellas cercanas al Sol se verían como si se hubiesen separado
un poco del Sol y unas de otras. Esto es algo que no puede observarse normal­
mente, ya que tales estrellas se vuelven invisibles durante el día debido al
abrumador brillo del Sol; pero durante un eclipse es posible tomar fotografías
de ellas. Si la misma constelación es fotografiada por la noche, se pueden me­
dir las distancias sobre las dos fotografías y comprobar el efecto predicho.
Ahora bien, lo impresionante en este caso es el riesgo que implica una
predicción de este tipo. Si la observación muestra que el efecto predicho está
definitivamente ausente, la teoría simplemente queda refutada. La teoría es in­
compatible con ciertos resultados posibles de la observación -de hecho, con re­
sultados que todo el mundo habría esperado antes de Einstein (Popper, 2002,
págs. 45-47).

Unas páginas después Popper identifica sin ambages la actitud científica


con la actitud crítica, que busca refutar si es posible los propios puntos de vis­
ta para cambiarlos cuanto antes si son erróneos, y la actitud seudocientífica con
la actitud dogmática, que sólo busca confirmaciones de los propios puntos de
vista y tiende a ignorar los contraejemplos.
Popper no propone la falsabilidad como criterio para separar lo que tiene
sentido de lo que no lo tiene, al modo en que los neopositivistas presentaban la
verificabilidad y la confumabilidad, sino únicamente como criterio de demar­
cación entre lo que es ciencia empírica y lo que no lo es, sin prejuzgar la caren­
cia o no de sentido de este último ámbito. A ambos lados de la línea pueden
existir sistemas de enunciados con sentido. La metafísica, en particular, no tie­
ne por qué ser un absurdo. Y esto queda de manifiesto cuando constatamos
que algunas teorías que durante siglos fueron consideradas como metafísicas,
132 Antonio Diégu ez

como es el caso del atomismo, pasaron más tarde a formar parte de la ciencia.
Popper no busca en absoluto «derribar la metafísica», sino delimitar claramen­
te su terreno frente a las ciencias, aunque dadas las influencias mutuas, las fron­
teras no puedan ser siempre precisas (cfr. Popper, 1985b, págs. 199-200). El
criterio de falsabilidad debe entenderse como una convención útil para estable­
cer dicha delimitación. En tal sentido, escapa a la crítica que se hacía a los cri­
terios neopositivistas acerca de si ellos mismos eran enunciados con sentido
cognitivo. Dicho de otra manera, el criterio de falsabilidad no tiene por qué ser
falsable, porque no es una hipótesis científica, sino una propuesta filosófica o
metodológica, pero el hecho de que no sea falsable no lo convierte en algo sin
sentido, porque fuera de la ciencia hay también discursos significativos acerca
del mundo.
Las leyes científicas, por tanto, no son ni verificables ni confirmables, pero
son falsables. Esto obedece a que todo enunciado universal puede ser refutado
por un solo caso que lo contradiga. En efecto, todo enunciado universal es ló­
gicamente equivalente a la negación de un enunciado existencial. Debido a
esto, Popper propone que las leyes sean entendidas no como afirmaciones de
que algo sucede en el mundo, sino como negaciones o prohibiciones de algo.
Aceptar un enunciado singular que infringe esa prohibición implica afirmar la
existencia de algo no permitido por la ley y, por consiguiente, la ley queda refu­
tada (cfr. Popper, 1962, págs. 66-67).
De esta consideración se siguen dos consecuencias importantes y caracte­
rísticas de la filosofía de Popper. En primer lugar, los enunciados existenciales,
en la medida en que no pueden ser contradichos por ningún enunciado básico,
esto es, por ningún enunciado singular acerca de un acontecimiento observado,
no son falsables. Por lo tanto, según el criterio de demarcación asumido, los
enunciados estrictamente existenciales no son empíricos sino metafísicos. Esta
consecuencia de sus tesis le acarreó a Popper bastantes críticas (cfr. Hempel
1959). Sin embargo, Popper siempre insistió en que eran fruto de una mala in­
terpretación. Para evitar estos problemas introdujo en la traducción inglesa de
La lógica de la investigación científica la aclaración de que la infalsabilidad y el
carácter metafísico se atribuyen a enunciados existenciales aislados. En cambio,
los enunciados existenciales que fo rmen parte de una teoría falsable, como por
ejemplo 'existe un elemento con el número atómico 72', serán científicos, ya
que la teoría en cuestión, en este caso la teoría atómica, es contrastable y pro­
porciona indicaciones acerca del modo de encontrar ese elemento. El contexto
teórico en el que un enunciado existencial se sitúa puede hacerlo falsable (cfr.
Popper, 1962, pág. 67 y 1985b, pág. 218).
La segunda consecuencia mencionada es que cuanto más cosas prolu'ba un
enunciado universal, tanto más cosas dice, y, por consiguiente, tanto más falsa­
ble es, ya que puede ser contradicho por más enunciados acerca de experien­
cias posibles. Por eso las tautologías no dicen nada y las contradicciones dicen
demasiado. Inversamente, esto significa que una hipótesis muy poco falsable es
también una hipótesis que dice muy poco. Y puesto que la probabilidad lógica
de un enunciado es, según Popper, complementaria de su grado de falsabilidad
¿Qué es la ciencia? 133

--es decir, que cuanto más probable es un enunciado, menos falsable es-, la
ciencia no debe buscar una alta probabilidad en sus teorías, sino todo lo con­
trario. Lo que interesan son teorías arriesgadas y muy falsables, porque son las
que más información empírica aportan, las que más contenido empírico tienen.
Un mayor contenido empírico (una mayor precisión, una mayor universalidad)
implica un mayor grado de falsabilidad. Tomemos un ejemplo muy simple para
aclarar estas relaciones. Consideremos los siguientes enunciados:

a) Todos los electrones tienen spin.


b) Todos los electrones tienen spin 1/2.

De estos dos enunciados (b), es más informativo que (a), pues además de de­
cirnos lo que nos dice (a), hace una afirmación acerca del valor del spin del elec­
trón. En cambio, prima /acie, sin ningún dato en nuestra mano, la probabilidad
de (a) es mayor que la de (b), ya que es menos arriesgado, e incluye a (b) como
caso particular. De las tres posibilidades que entran en juego (que el electrón no
tenga spin, que tenga spin distinto de 1/2, o que tenga spin 1/2), el enunciado (a)
sólo descarta una, mientras que el (b) descarta esa y otra más. Por lo tanto, la pro­
babilidad de acertar a ciegas con (a) es mayor que la de acertar con (b). Pero por
todo ello (b) es más falsable que (a). Hay menos casos que pueden refutar (a) que
casos que pueden refutar (b). El primero sólo puede ser refutado por casos de
electrones sin spin. El segundo puede ser refutado por casos de electrones sin
spin y por casos de electrones con spin distinto de 1/2. En definitiva, la clase de
los posibles falsadores de (b) incluye a la clase de los posibles falsadores de (a).
Hemos explicado que una hipótesis o una teoría queda falsada si se ·acepta
como verdadero un enunciado básico que la contradiga. Un enunciado básico
es un enunciado singular acerca de la ocurrencia de un evento observable. Esto
nos sitúa ante un problema que Popper trató con especial cuidado pero que, en
opinión de sus críticos, no llegó a resolver satisfactoriamente de acuerdo con
sus propias convicciones epistemológicas. El problema es: ¿cómo y por qué se
aceptan los enunciados básicos? En terminología de Popper, se trata del proble­
ma de la base empírica.
El fundamento más inmediato que los filósofos, en especial los empiristas, han
solido buscar para la aceptación de los enunciados básicos es la experiencia. Según
esto, un enunciado básico es aceptable si y sólo si la experiencia nos muestra que
realmente es cierto lo que el enunciado dice. Popper no niega en absoluto que esto
sea así o que tal manera de proceder sea racional y conveniente. Es decir, no niega
que los enunciados básicos han de ser contrastables mediante la observación. Lo
que sí pretende es distinguir con claridad la cuestión de la fuerza que nuestras ex-
periencias subjetivas o nuestros sentimientos de convicción puedan tener para mo­
tivar la aceptación personal de los enunciados básicos (lo cual es objeto de investi­
gación psicológica) de la cuestión sobre la pósibilidad de justificación lógica de
tales enunciados (lo cual es un problema lógico y metodológico). El asunto es que
si bien la experiencia puede motivar la aceptación de un enunciado básico, no
puedejustificarla, ya que «los enunciados sólo pueden justificarse lógicamente me-
134 Antonio Diéguez

di3:11t� '.=11unciados» (Popper, 1962, pág. 43). Popper pretende así salvaguardar la
ob;et:ividad de la base empírica de la ciencia. Dicha base no se justifica lógícamen­
t� porque_ podamos tener experiencia acerca de ella. En otras palabras, la expe­
nencia -y aquí de nuevo Popper se separa de las tesis iniciales del neopositivis­
mo- no puede probar la verdad de los enunciados básicos. Escribe Popper:
Por intenso que sea un sentimiento de convicción nunca podrá justificar
un enunciado. Por tanto, puedo estar absolutamente convencido de la verdad
de_un enunciado, seguro de la evidencia de mis percepciones, abrumado por
la mtensidad de mi experiencia: puede parecerme absurda toda duda. Pero,
¿aporta, acaso, todo ello la más leve razón a la ciencia para aceptar mis enun­
ciados? [...]. La única respuesta posible es que no, y cualquier otra sería in­
compatible con la idea de la objetividad científica (Popper, 1962, pág. 45).

La e�periencia no puede justificar los enunciados básicos porque, como


hemos dicho, éstos sólo pueden ser justificados por otros enunciados. Pero
además, cualquier enunciado científico, incluido los enunciados básicos
más simples, van siempre más allá de lo que la experiencia inmediata nos
rr:uestra. De ahí que no se pueda sostener la verificabilidad de ningún enun­
ciado, ya sea universal, existencial o singular. Todo enunciado, por elemen­
tal q�e sea, incluye términos universales que trascienden la experiencia in­
mediata. Hasta un enunciado tan apegado a la experiencia como puede ser
'�quí hay ur_i vaso de agua' incluye dos términos, 'vaso' y 'agua', cuyo signi­
ficado contiene elementos que no pueden reducirse a ninguna experiencia
concreta de ver un vaso de agua; por ejemplo, que tanto los vasos como el
agua poseen ciertos comportamientos regulares que esperamos encontrar
en ca�a c�so de exr:eriencias con ellos. No hemos aprehendido en ninguna
�xpenenc'.a determmada de ver un vaso de agua que el agua es un líquido
mcoloro, modoro e insípido y que su · composición química es H2 O (cfr.
Popper, 1962, pág. 90).
. Ahora bien, los enunciados básicos constituyen las premisas para toda fal­
sación. Por consiguiente, en tanto que enunciados científicos deben ser falsa­
bles. Si la �alsación de una teoría se realiza aceptando un enunciado básico que
la con�radig�, la_ falsación de ill: enunciado básico se realiza aceptando otro
enunciado basico que lo contradiga (o que contradiga a alguno de los enuncia­
dos básicos que se siguen de él en conjunción con una teoría). Pero este proce­
so de falsaciones debe tener un fin. No tendría sentido proseguir indefinida­
mente el cuestionamiento de los enunciados básicos. Ha de llegar un momento
en� que los investigadores decidan detener el proceso y aceptar un enunciado
básico (o un conjunto de enunciados básicos), considerándose satisfechos con
ellos por el momento. En una palabra, según Popper, la aceptación de unos
e�un_?ados básicos en lug�r de otros depende de una decisión por parte de los
,
científicos. Se acuerda tacitamente aceptar aquellos enunciados básicos sobre
los que se supone que los investigadores se pondrán fácilmente de acuerdo.
Aquellos que nadie_ va a cuestionar previsiblemente. Esto quiere decir que, en
el fondo, los enunciados básicos se aceptan por convención (cfr. Popper, 1962,
¿Qué es la ciencia? 135

págs. 99-101). La base empírica de la ciencia se convierte así en algo revisable y


provisional; algo que no autoriza jamás a afirmar que se ha probado definitiva­
mente mediante ella la verdad de una teoría:

La ciencia no está cimentada sobre roca: por el contrario, podríamos de­


cir que la atrevida estructura de sus teop'.as se eleva sobre un terreno pantano­
so, es como un edificio sobre pilotes. Estos se introducen desde arriba en la
ciénaga, pero en modo alguno hasta alcanzar ningún basamento natural o
'dado'. Cuando interrumpimos nuestros intentos de introducirlos hasta un es­
trato más profundo, ello no se debe a que hayamos topado con terreno firme:
pararnos simplemente porque nos basta que tengan firmeza suficiente para
soportar la estructura, al menos por el momento (Popper, 1962, pág. 106).

La tesis epistemológica de que los enunciados básicos se aceptan por con­


vención parece estar muy cercana al convencionalismo de Duhem y Poincaré.
Para el convencionalismo, las teorías científicas se aceptan o se rechazan según
las decisiones de los científicos sobre su simplicidad y su utilidad para explicar
los fenómenos, pero nunca por una supuesta verdad objetiva de dichas teorías.
Popper, que unos años después de escribir esto será uno de los defensores prin­
cipales del realismo científico, se esfuerza por distinguir su tesis de la tesis con­
vencionalista en un punto que considera esencial: mientras que el convenciona­
lista sostendría que los enunciados que se deciden por medio del acuerdo son
los enunciados universales (leyes y teorías), su opinión es que son sólo los enun­
ciados singulares los que se aceptan de este modo (cfr. Popper, 1962, pág. 104).
No obstante, sí el destino de las teorías depende de la aceptación o no de de­
terminados enunciados básicos y si éstos se aceptan por convención, sin que la
experiencia juegue un papel epistemológico, sino sólo psicológico, entonces el
destino de las teorías depende de una convención. ¿No conduce esto al mismo
resultado que la postura convencionalista? Así lo creen algunos críticos. New­
ton-Smith, por ejemplo, no duda en sacar una conclusión fuerte: «[L]os pop­
perianos son muy aficionados a inculpar a Kuhn de reducir la aceptación de
teorías a una 'cuestión de psicología de masas'. Pero resulta bastante difícil ver
como puede defenderse Popper de esta misma crítica en lo que toca a la elec­
ción de teoría. Para él la aceptación y el rechazo de teorías descansan sobre de­
cisiones convencionales infundadas e infundables de la comunidad científica,
lo que corresponde exactamente a convertir el tema en psicología de masas.»
(Newton-Smith, 1987, pág. 77).
Ahora examinaremos las razones por las que el criterio de falsabilidad, tal
como Popper lo presenta, falla en su cometido de criterio de demarcación. Al
igual que en el caso de la confirmabilidad, este fracaso no debe interpretarse en
el sentido de que la falsabilidad no cumpla ningún papel en la ciencia. El pro­
blema es, más bien, que ese papel no le permite marcar una distinción neta con
ámbitos exteriores a la ciencia.
El criterio de falsabilidad recibió críticas desde el lado neopositivista,
pero las más interesantes vinieron fundamentalmente de Kuhn, Lakatos y Fe-
136 Antonio Diéguez

yerabend (cfr. Kuhn, 1962/1970 y 1970, Lakatos, 1983 y Feyerabend, 1981).


Para éstos el criterio de Popper no es válido porque, como muestra un análi­
sis serio de la historia de la ciencia, las teorías científicas no siempre son fal­
sables en el sentido descrito. Los científicos casi nunca consideran falsada
una teoría porque choque con el resultado de alguna observación o experi­
mento. Las teorías son tenaces frente a la evidencia empírica. Y ello por va­
rios motivos.
Por una parte, está el hecho de que los enunciados básicos que expresan
esos resultados son/alibles (al igual que las teorías); no se ve, pues, por qué ha­
bría mejores razones para mantener un enunciado básico, a costa de una teoría
plagada de éxitos anteriores, que para abandonar el enunciado. Al fin y al cabo
podemos estar equivocados con respecto a ese determinado hecho descrito por
el enunciado básico, y una teoría es algo demasiado valioso y difícil de formu­
lar como para abandonarla a las primeras de cambio. Lo más prudente en tales
condiciones sería relegar el enunciado básico a un segundo plano y considerar
su conflicto con la teoría como una anomalía que el avance de los conocimien­
tos terminará por explicar. Y es así como proceden frecuentemente los científi­
cos; ignoran los supuestos contraejemplos estimándolos como no fiables o
como dificultades que se deben resolver más adelante. Además, no podría ser
de otro modo porque todas las teorías han nacido y se han desarrollado envuel­
tas en este tipo de «anomalías» y nunca han estado libres de contraejemplos.
En los momentos iniciales de una teoría es muy probable que estos ejemplos
proliferen, pero los científicos tienden a ignorarlos si ven que la teoría es sufi­
cientemente prometedora. Si los contrajemplos hubieran determinado el recha­
zo de las teorías, no habría habido posibilidad de aceptar ninguna durante el
tiempo suficiente para que mostrara sus potencialidades. Todas habrían sido
rechazadas desde el primer momento.
Un caso bien conocido de cómo los científicos apartan las anomalías y con­
traejemplos es el del perihelio del planeta Mercurio. El perihelio es el punto en
el que un planeta se acerca más al Sol:En el caso de Mercurio, este perihelio ex­
perimenta un desplazamiento mayor del que podía obtenerse con la mecánica
newtoniana. Sin embargo, ningún científico consideró jamás que este contrae­
jemplo la falsaba. Más bien se esperaba que en el futuro se pudiera encontrar
una respuesta satisfactoria. En realidad dicha respuesta no pudo encontrarse
nunca dentro de la mecánica newtoniana y tuvo que llegar de la mano de la teo­
ría general de la relatividad. En ella, la energía del campo gravitatorio solar lle­
va asociada una masa que añade más energía al campo gravitatorio originado
exclusivamente por la masa del Sol. Es esta energía añadida, especialmente no­
table cuando nos acercamos al Sol, lo que explicaría la desviación del perihelio
de Mercurio.
Por otra parte, aun cuando los científicos decidieran aceptar ciertas anoma­
lías que fueran refutadores potenciales de una teoría, siempre pueden proteger
la teoría mediante hipótesis ad hoc, es decir, mediante hipótesis añadidas que
modifiquen la teoría con el fin de evitar la falsación. No escasean los casos his­
tóricos con los que Kuhn, Lakatos y Feyerabend ilustran este uso de hipótesis
¿Qué es la ciencia? 137

ad hocen la ciencia. En ocasiones, el uso de di':11as ,1:ipót�sis_ '? �ás allá de una
estrategia defensiva y posibilita un progreso_ científico s1gnifi_cat1vo. Bohr em­
pleó esta estrategia, por �j�mplo, para «exp�car» el he_cho evidente de que los
electrones no colapsan rap1damente en el nucleo atom1co, ,
cuando e�o e� exac­
,
tamente lo que debía ocurrir de acuerdo con la teoría electromagnetlca s1 sup�­
nemos que los electrones s9n partículas cargadas q;1e se mueven �1:- torno al nu­
cleo atómico. Su solución a este choque entre teona y datos empmcos no pudo
ser más radical: la teoría, sencillamente, no se ªJ:?lic� en el caso de los electr<:mes;
0 mejor podríamos decir, se postula que algo �Pl?e que su comportamiento
. pueda ser el exigido por la teoría. El mod�o ato,m1�0 propue,st? por Bo�r en
1913 postulaba, en efecto, que sólo son posibles orbitas �lectromcas estaciona­
rias asociadas a cierto nivel de energía con un valor múltiplo ?e la �onstant� de
Planck. El átomo sólo puede hallarse en estos estados esta�10nanos , cu��za­
dos. Los electrones emiten (o absorben) un cuanto de en;rg1a (un foton) umc�­
mente al pasar de un nivel de energía, a otro. Cu�d? el atomo absorbe energia
del exterior el electrón se desplaza a una nueva orb1ta estable con mayor ener­
gía. Cuand� el ele�trón vuelve a !a órbi!a previa, la, pérdida de energía del elec­
trón viene dete!ffililada por la diferencia de energia entre el estado fundame1;1-
tal y el estado excitado, y se cede en forma de un fotón con 1:11ª fr�cu.encia
determinada. Pero mientras los electrones se mantengan en la m1sma orb_1ta al­
rededor del núcleo no radian o pierden energía. Esto es tanto como decir que
no se les aplican las leyes de Maxwell. Si se , les ap�caran, los electrones ��be­
rían emitir constantemente energía -debenan radiar ondas electrom�gneticas
de frecuencia igual a la correspondiente a su rotación-, con una pérdida ener­
crética que les haría caer hacia el núcleo en una mínima fracción de seg�do. Al
�aer la frecuencia de su movimiento sería cada vez mayor y la luz emltlda de­
berí� ir aumentando gradualmente de frecuencia, dar_ido lugar a un, espectro de
emisión continuo. Lo que se observa, por el contrano, es que los atomos pue­
den emitir ondas electromagnéticas sólo en frecuencias discretas específi�as (las
líneas espectrales). El modelo de Bohr conseguía explicar este_ c�_ rácter discreto
de los espectros de emisión. Las rayas de los. espectros �e :m1sion de cada ele­
mento se corresponden con ciertas frecuencias caractenstlcas porque los f ?to­
nes son emitidos con unas energías determinadas y sólo con esas. Ell? c?1'.tnb:,1-
yó a que el modelo fuera recibido muy favorablemente des:fe el pnncw10. Sm
embargo, el rriodelo Bohr no sólo introducía como hipótesis ad hos la _ 1dea_de
que las ecuaciones de Ma.'ruTe!l no s<:m apli�ables � la escala subat?rruca, smo
que en realidad, sólo consegllla explicar satisfactoriamente las pro�1edades del
átomo de hidrógeno, con un úní<:_o electró1:-. No �bst'.111:t;, este cara�t.:r a1 �oc
y su falta de encaje con átomos mas compleJos no lillpidio su aceptacion rap1da
por parte de los científico�. . . .
Por último no es factible en ocasiones deterffilllar si el choque con los he­
chos tiene su �ausa en la propia teoría o en las hipótesis auxiliares utilizadas
para su contrastación. Quine ya había señalado -y m;1c�o antes que é! t�­
bién Pierre Duhem, por lo que e�to se conoce como t�sis �uhem-Q:1111e.-:;­
que las teorías nunca se someten aisladas a la contrastacion,_
smo en conJuncion
138 Antonio Diéguez

con ?1versas condiciones iniciales y toda clase de hipótesis auxiliares (como las
relativas al funcionamiento de los instrumentos). Esto hace imposible atribuir
de manera s�gura a la teoría la_ r��ponsabilidad de un fracaso experimental,
puesto que siempre cabe la posibilidad de que sean las hipótesis auxiliares las
fuentes d�l error (véase sección 7.4). Lo habitual, por tanto, es que los científi­
cos protejan legítim�en�e sus teor�as de los intentos de refutación, y que para
ello recurran a modificaciones parciales de las mismas, por extrañas e incone­
xas que puedan ser. No abandonaran la teoría hasta que tengan otra mejor que
poner en su lugar.
Popper, dio respuesta a estas críticas (cfr. Popper, 1974, págs. 976-987 y
19�56! pa�s. 23-42 y 224-29). Incansablemente repitió que él nunca fue el fal­
sac10;11sta mgenuo que parecen tener en mente sus críticos. En particular, su­
brayo el hecho de que ya en 1934, en la primera edición de La lógica de la in­
vestigación científica, había negado la existencia de falsaciones concluyentes de
teorías basándose precisamente en el carácter falible de los enunciados básicos
Y en la posibilidad de recurrir a hipótesis ad hoc. En esta obra encontramos
c�ertamente un pasaje como éste: «No es posible jamás presentar una refuta­
ción con�uyente de una teor!a, ya que siempre puede decirse que los resulta­
dos �xpenmentales no son dignos de confianza, o que las pretendidas discre­
pancias entre aquéllos y la teoría son meramente aparentes y desaparecerán con
el progre�º de nuestra comprer:sión de los hechos» (Popper, 1962, pág. 49).
-
Y unas pa�1:1as antes_ leemos: «Si�mpre e� posible �1;contrar una vía de escape
de l�_falsacion, por ejemplo, mediante la mtroduccion ad hoc de una hipótesis
�uxiliar o �or cambio ad hoc de una definición; se puede, incluso, sin caer en
u:ico�erencia lógica, adoptar la posición de negarse a admitir cualquier expe­
riencia falsa�ora» (Popper, 1962, pág. 41; véase también págs. 77-78).
Ahora bien, según Popper, esta imposibilidad de refutación o falsación
concluyente no obliga ni mucho menos a abandonar la falsabilidad como crite­
r�o de demarcación, porque si bien es posible eludir la falsación de la manera
citada, los_ científicos deben seguir una serie de reglas metodológicas, que son las
reglas de Juego de la ciencia empírica. Y esas reglas exigen no emplear estrata­
gemas P!otectoras de las teorías de modo que disminuyan la falsabilidad de és­
tas. Es cierto que los científicos pueden recurrir a esas estratagemas, pero no de­
ben hacerlo, porq1:e �o conduce
_ a la larga al estancamiento de la investigación.
Pueden ef�ct;1ar ?Ípotesis ad hoc cuando lo necesiten, pero con la condición de
que esas hipotesis ad hoc sean contrastables independientemente y aumenten
así el grado de falsabilidad de la teoría para la que se proponen.
En cuanto a la imposibilidad de atribuir la responsabilidad de una falsación
a Ja teoría o a las hip?tesis que!ª. acompañan, Popper admite que, en efecto,
solo podemos falsar sistemas teoncos completos y que cuando decidimos que
el choq1;1e con los hechos refuta unas hipótesis en lugar de otras, estamos con
�o haciende: un� , co:r_ijetura falible que supone asumir un cierto riesgo de rea­
lizar una a� nb �ion mcorrecta de responsabilidad. Sin embargo, a pesar de
1;
todo, los científicos suelen tener éxito al señalar una determinada hipótesis
como la responsable del fracaso. Eso se debe a que las teorías científicas presen-
¿Qué es la ciencia? 139

tan una estructura de capas de diferente profundidad, universalidad y preci­


sión, lo cual permite distinguir las partes de una teoría que están más expuestas
a la falsación (cfr. Popper, 19856, págs. 226-228).
En definitiva, la respuesta de Popper puede reconstruirse más o menos de la
siguiente forma: teorías falsables y, por tanto, científicas, como la mecánica clási­
ca (el ejemplo es suyo), podrían ser protegidas siempre de la falsación mediante
ciertas estrategias, convirtiéndose de ese modo en infalsables y en seudocientífi­
cas; pero esto no debe hacerse porque el juego de la ciencia empírica está regido
por métodos de contrastación que prohiben recurrir a dichas estrategias. Por
consiguiente, las teorías científicas no se caracterizan porque sean falsables con­
cluyentemente, sino porque son falsables si los científicos adoptan frente a ellas
una actitud crítica e intelectualmente honesta. Averiguar si una teoría es científi­
ca significa entonces preguntar, además de por su forma lógica o por lo que la
teoría dice, por la actitud con la que es contrastada. Primero hay que saber si sus
partidarios han adoptado la decisión metodológica de jugar realmente al juego de
la ciencia, ya que si no lo hacen, cualquier teoría que mantengan estará inmuniza­
da frente a la falsación; y una vez que se sabe que están jugando a dicho juego, po­
demos indagar si la teoría es realmente científica atendiendo a su falsabilidad.
Sólo cuando se excluyen mediante reglas metodológicas oportunas las estrategias
convencionalistas de protección y se decide actuar de manera crítica se puede re­
currir a una caracterización lógica de la falsabilidad. La caracterización puramen­
te lógica de la falsabilidad como una relación entre la teoría y una clase de enun­
ciados básicos parte, pues, de la presunción de que los partidarios de la teoría
aceptan el método empírico y no juegan sucio intentando salvar la teoría a toda
costa. Si no se adopta esa actitud crítica el criterio de falsabilidad se vuelve inútil,
sencillamente porque entonces no se está haciendo ciencia.
El error de sus críticos estaría, según Popper, en no haber comprendido
que el hecho de que los científicos no adopten a veces una actitud crítica -una
actitud científica-, no destruye su criterio de demarcación para sistemas teó­
ricos, sino que, a lo sumo, lo que pone en evidencia es que los científicos no
siempre se comportan racionalmente y no siempre siguen los métodos adecua­
dos. El criterio de falsabilidad funciona cuando los científicos hacen lo que de­
ben y deciden actuar críticamente en lugar de buscar la salvación de sus teorías
a toda costa. Cuando los que proponen una teoría deciden por el contrario no
jugar al juego de la ciencia, eso los desacredita a ellos, no al criterio.
El psicoanálisis y la astrología, por ejemplo, no son científicos según Pop­
per porque, aunque sus partidarios estuvieran dispuestos a no utilizar estrate­
gias inmunizadoras --cosa a la que no están dispuestos-, son teorías que no
prohfüen ninguna experiencia posible, sino que son compatibles con todas. En
cambio el marxismo no es científico porque, siendo una teoría falsable, ya que
ha sido falsada por los acontecimientos históricos en Rusia, ha sido reinterpre­
tada para inmunizarla ante todos los ataques (cfr. Popper, 2002, pág. 48-51).
En resumen, la actitud crítica que busca contrastaciones cruciales es la ac­
titud que debe caracterizar a la ciencia; ella es necesaria para que las teorías fal­
sables puedan ser falsadas, y sin ella una teoría falsable puede hacerse infalsa-
140
Antonio Diéguez

ble_ y seudocientífica, como ocurrió con el marxismo. D ando por sentada esa
actitud habrá entonces teorías seudocientíficas por ser infalsables (en el sentido
de ser COfI;patibles con _ cu�9uier experiencia posible), como el psicoanálisis y
, científicas por ser falsables (en el sentido de prohibir al­
la astrologia, y �eonas
,
gun suceso posible), como la teoría de la relatividad de Einstein. De este modo
;a teor�a de Einstein es falsable y no inmunizada, el marxismo es falsable per�
�uruzado y el psicoanálisis y la astrología son infalsables. La primera es cien­
�ca, la segunda ha sido convertida en seudocientífica y las otras dos son en sí
m1smas seudocientíficas.
En La lógica de la investigación científica Popper distinguía entre falsabili­
dad (J_a!siability) y fal ación (/alsi/ication) (cfr. Popper, 1962, págs. 82-84). La
_ �
falsal;>�dad �s el entena de demarcación y se refiere -según explicaba- a una
relacion lógica entre la teoría y los enunciados básicos. La falsación es la acep­
tación efectiva de uno o varios enunciados básicos que contradicen a la teoría
en cue_sti?n y corro?oran a una hipótesis falsadora. La falsación depende del
c�plimiento de crertas reglas o postulados metodológicos que determin an
c;-1an�? de�emos considerar falsado un sistema teórico. Por lo tanto, el que los
científicos mcumplan los postulados metodológicos no debería considerarse
como un cargo contra el criterio lógico.
En la «Introducción de 1982» al volumen 1 de su Post Scriptum a la lógica
de la investigación científica, Popper es aún más explícito. Allí recalca:

La falsabilidad en el sentido de un criterio de demarcación es un asunto


puramente lógico. Se refiere únicamente a la estructura lógica de los enuncia­
�os_ y de las clases de enunciados. Y no tiene nada que ver con la cuestión de
s1 aertos resultados experimentales posibles podrian o no ser aceptados como
falsaciones (Popper, 1985b, pág, 23 ).

Inmediatamente después Popper deja claro que las teorías científicas son
falsables en el �ei:i�do puramente lógico, pero no en el sentido práctico de que
pued an ser definitiva y concluyentemente falsadas. Popper denomina al primer
sentido 'falsabilidad ¡ ' y al segundo 'falsabilidad/
En esta obra, sin embargo, Popper revisa su opinión sobre las razones de la
seudocientificidad del psicoanálisis. Después de un párrafo donde afirma que
no p ;1ede _ concebir nin� ejemplo de conducta que no pueda interpretarse en
los terminos de las teonas de F reud y Adler, añade con fecha de 1980 el siguien­
te c?mentario: «Ahora creo que la última oración del párrafo anterior era de­
masiado fuerte. Como me ha señalado Bartley, hay ciertos tipos de conducta
que son incompatibles con la teoría de Freud, es decir, que la teoría de F�eud
los e�cluye» (Popper, 1985b, pág. 209). Bartley, en efecto, le mostró a Popper
un e¡emplo de falsador potencial del psicoanálisis puesto por el mismo Freud.
Se trat�ba del caso de una paciente paranoica que no ocultaba ningún conflic­
to con Impulsos homosexuales inconscientes. Eso era algo que no podía ocurrir
según la teoría psicoanalítica, puesto que, según dicha teoría, una intensa ho­
mosexualidad reprimida era una condición indispensable de la paranoia. En
¿Qué es la ciencia? 141

realidad, no es de extrañar este cambio de opinión porque en la primera redac­


ción Popper reconocía implícitamente la falsabilidad del psicoanálisis al man ­
tener que «los.sueños de angustia constituyen una refutación general de la sa­
tisfacción de deseos» (Popper, 1985b, pág. 213). Además, como ha señalado
Grünbaum (1989, pág. 143): «Si Popper tuviera razón en que 'la teoría de
Freud... simplemente no tiene falsadores potenciales' [. ..],¿por qué habrían ne­
cesitado los freudianos esquivar las refutaciones por medio de gambitos inmu­
nizadores?» Sea como sea, el caso es que Popper llegó al convencimiento de
que el psicoanálisis es falsable en el sentido lógico (falsablei.), es decir, que es in­
compatible con algún suceso lógicamente posible, pero había sido inmunizado
contra la falsación por sus defensores. Estaría así en la misma situación que el
marxismo.
La pregunta ineludible después de esto es: ¿qué teorías son entonces infal­
sables ? De los casos ya citados sólo nos queda la astrología, pero en Realismo
y el objetivo de la ciencia Popper cita dos más: la teoría que afirma que 'todas
las acciones humanas son egoístas, motivadas por el propio interés' y los enun­
ciados puramente existenciales como 'hay una ceremonia cuya realización
exacta hace aparecer al diablo' (cfr. Popper, 1985b, pág. 24). Comentaremos
por separado estos ejemplos.
Comenzando por el último, que es el menos comentario necesita, es una
posición un tanto peculiar y discutible la de tener por seudocientíficos a todos
los enunciados existenciales aislados que no formen parte de una teoría con­
trastable, pero esto no parece suficiente para sustentar un criterio de demarca­
ción del que se espera que sea aplicable fundamentalmente a sistemas teóricos.
Incluso aunque Popper tuviera razón en que los enunciados puramente exis­
tenciales son infalsables1, estaríamos ante una tesis con un interés secundario
que dejaría todavía por contestar la pregunta de si hay realmente teorías infal­
sables1 .
En cuanto a la astrología, ¿cabe defender en realidad que no entra en con­
tradicción con ningún suceso lógicamente posible? Si se entiende que lo que la
astrología sostiene es que todo suceso terrestre recibe la influencia de los astros
(cfr. Popper, 2002, pág. 255), ésta afirmación parece en principio falsable 1 .
Quizá podría argüirse en defensa de Popper que no hay ninguna experiencia
concebible que pueda aseguramos que un determinado suceso no ha estado so­
metido a una influencia astral del tipo que la astrología preconiza, ya que no
hay manera de detectar o de medir directamente esa influencia. Pero pueden
imaginarse, por ejemplo, experiencias acerca de actos iguales, realizados en el
mismo lugar, en el mismo momento y por personas nacidas en el mismo instan­
te, aunque con resultados muy distintos. Esto eliminaría al menos la idea de
que las supuestas influencias astrales determinan el resultado de nuestros actos.
O bien, podrían buscarse personas nacidas en el mismo instante y en lugares
cercanos y comprobar si su carácter y los acontecimientos fundamentales de su
vida guardan algún parecido.
En realidad, la astrología se basa más bien en la idea de que las configura­
ciones astrales en el momento del nacimiento de una persona se correlacionan
142 Antonio Diéguez

con ciertas tendencias en las acciones humanas. No todos los astrólogos están
de acuerdo en interpretar estas correlaciones como consecuencia de influencias
reales de los astros sobre los hombres. Algunos las atribuyen más bien a una es­
pecie de armonía preestablecida que hace del macrocosmos un símbolo de lo
que sucede en el microcosmos (ser humano). No obstante, pese a la vaguedad
de esta idea, y tal como sostiene Kuhn, la astrología ha producido a lo largo de
su historia muchas predicciones que no se cumplieron; lo cual significa que
_
hubo conflictos entre la «teoría» y los hechos. Es más, según Kuhn, los astrólo­
gos emplearon para explicar sus fracasos el mismo tipo de explicaciones que los
médicos o los meteorólogos para explicar los suyos, a saber, la inmensa comple­
ji?ad de los fenómenos y de los cálculos (cfr. Kuhn, 1970). No hay, pues, tanta
_
diferencia en este sentido entre la astrología y ciertas prácticas científicas. Lo
que hace a la astrología distinta de las disciplinas científicas comúnmente admi­
tidas como tales no es que sea infalsable, sino que está plagada de predicciones
fallidas. Ninguna teoría científica con tantos fracasos predictivos se mantendría
todavía a flote, por muchos que hubieran sido sus aciertos. De hecho, ha habi­
do varios casos en que se han sometido expresamente a contrastación empírica
las predicciones astrológicas, con resultados desalentadores. Por ejemplo, no se
ha encontrado ninguna correlación entre los signos del zodíaco y las distintas
profesiones. A ello podemos añadir sus carencias teóricas: no ha evolucionado
apenas en miles de años y mantiene escuelas con posiciones contrarias en as­
pectos fundamentales; no tiene una explicación convincente de por qué el mo­
mento decisivo desde el punto de vista astrológico es el nacimiento y no la con­
cepción; no ha explicado por qué seguir manteniendo la validez de las cartas
astrales realizadas antes de los descubrimientos de Urano, Neptuno y Plutón;
no aclara si la influencia astral disminuye o no con la distancia (las cartas astra­
les se realizan como si la variación en la distancia no afectara al resultado, pero
entonces ¿por qué no incluir a las galaxias lejanas?); no proporciona la más mí­
nll:1a indicación de cómo se produce esa influencia de los astros, ni de qué re­
laciones hay entre ella y las fuerzas fundamentales propuestas por la física3 •
Esto nos deja sólo con el ejemplo de los motivos egoístas detrás de cada ac­
ción humana. Sobre él hay que hacer la misma pregunta que antes: ¿es que no
hay ninguna acción lógicamente posible que no obedezca a un motivo egoísta?
Cualquier acción altruista que podamos recordar en nuestra vida es una res­
puesta negativa a esta pregunta. La teoría 'todas las acciones humanas son
egoístas' entra en conflicto con el enunciado básico que expresa una experien-

> Estas son las objeciones más importantes que la Astronomical Society ofthe Pacific hace a la
astrología en su publicación electrónica The Universe in the Classroom (www.aspsky.org./html/
tnl/11/11.htrnl) (Fecha de consulta: 28 de octubre de 97). Es significativo que el asunto de la in­
falsabilidad de la astrología no aparezca mencionado. Puede consultarse esta publicación para ob­
tener información sobre algunos casos de contrastación empírica de hipótesis o predicciones as­
trológicas. Por lo demás, casi todas estas objeciones se han formulado repetidamente contra la
astrología. Una respuesta, en mi opinión poco convincente, a las mismas puede encontrarse en
Barbault (1981, cap. 7).
¿Qué es la ciencia? 143

cia lógicamente posible 'la acción a realizada por el sujeto x en el momento t no


tuvo motivación egoísta'.
Podría replicarse de nuevo desde un planteamiento popperiano que el
enunciado básico que acabamos de proponer, y cualquier enunciado similar
que se formule en relación con la astrología, no expresan sucesos lógicamente
posibles para los defensores de esas teorías, porque para ellos no son lógica­
mente posibles sucesos no influidos por los astros o acciones no egoístas. Esta
es precisamente la razón que aduce Popper para explicar cómo una teoría lógi­
camente falsable puede ser transformada en infalsable. Refiriéndose al enuncia­
do 'todos los cisnes son blancos', explica:

Como ya he dicho, este enunciado es falsable. Supongamos, sin embargo,


que hay alguien que, cuando se le enseña un cisne que no es blanco, adopta la
posición de que no puede ser un cisne, ya que es «esencial» que un cisne sea
blanco.
Tal posición equivale a sostener que los cisnes no blancos son estructuras
lógicamente imposibles (y, por lo tanto, inobservables). Los excluye como cla­
se de falsadores potenciales.
En relación con esta clase modificada de falsadores potenciales, el enun­
ciado «todos los cisnes son blancos» es, naturalmente, infalsable. Para evitar
ese paso podemos exigir que cualquiera que defienda el carácter científico­
empírico de una teoría sea capaz de especificar bajo qué condiciones estaría
dispuesto a considerarla falsada, es decir, tendría que ser capaz de describir al
menos algunos falsadores potenciales (Popper, 19856, pág. 25).

Según esto, lo que hace lógicamente infalsables a las teorías que venimos
considerando es que sus defensores no especifican de antemano bajo qué con­
diciones estarían dispuestos a considerarlas falsadas. De nuevo nos encontra­
mos aquí con la idea de que para que el criterio lógico de falsabilidad funcione,
debe quedar garantizado que los partidarios de la teoría juegan al juego de la
ciencia. Hasta que no acreditan su honestidad científica adelantando ejemplos
de enunciados que aceptan como falsadores potenciales, o sea, hasta que no re­
nuncian explícita y previamente a cualquier estrategia inmunizadora, no se
puede calificar de científica su teoría, porque aunque fuera falsable1 , ellos po­
drían hacerla infalsable2 •
Sin embargo, es claro que existe una tensión entre la falsabilidad como cri­
terio de demarcación puramente lógico y la caracterización de la ciencia a tra­
vés de unas reglas metodológicas que aseguren la actitud crítica. Popper quie­
re poner el peso de su criterio en las relaciones formales entre las teorías y los
posibles enunciados falsadores (falsabilidad1 ) para escapar así a la crítica de
que en la realidad los científicos no falsan las teorías (falsabilidad); pero, por
otro lado, no puede obviar la cuestión de qué hacen en la práctica con las teo­
rías aquellos que las proponen y con qué actitud la sustentan. Ahora bien, la ac­
titud de los defensores de una teoría en lo que respecta a la aceptación de los
enunciados falsadores potenciales no cambia en absoluto la relación lógica de
la teoría con esos enunciados. Si una teoría fuera lógicamente falsable, debería
144 Antonio Diéguez

seguir siéndolo con independencia de que sus defensores se nieguen a falsada,


y así deberían reconocerlo al menos los que no pertenezcan a este grupo. Un
criterio puramente lógico de demarcación entre ciencia y no-ciencia no puede
incluir consideraciones históricas acerca de la teoría que se juzga, ni puede de­
pender de factores extralógicos como la actitud con la que sus defensores enfren­
tan la teoría con los hechos. En la medida en que la atribución del apelativo 'cien­
tífica' a una teoría necesita incluir ese tipo de consideraciones históricas,
sociológicas, psicológicas, etc., como parece necesitarlo según el propio Pop­
per, el criterio puramente lógico fracasa.
Así pues, debemos concluir que la falsabilidad lógica como criterio de de­
marcación no permite excluir al psicoanálisis, al marxismo y a la astrología,
puesto que contienen hipótesis falsables (y de hecho, falsadas muchas de ellas).
Y lo mismo podría decirse del creacionismo, del lysenkoísmo y de otras de las
disciplinas o teorías que venimos mencionando. Si, no obstante, para excluirlas
de la ciencia, Popper recurre a la actitud dogmática de sus defensores consis­
tente en ignorar los falsadores potenciales, entonces son aplicables las críticas
formuladas por Kuhn, Lakatos y Feyerabend en el sentido de que la ciencia
tampoco está exenta de esta actitud dogmática y de que las maniobras inmuni­
zadoras son practicadas también por los científicos. Las hipótesis ad hoc Son
empleadas con frecuencia en las ciencias, y hay principios fundamentales en to­
das las ciencias que los científicos no estarían dispuestos a considerar falsados
bajo ningún concepto, como por ejemplo los principios de la termodinámica.
Cuando Max Planck introdujo a la desesperada, como él mismo dijo, la idea del
cuanto de acción para poder encajar los datos experimentales acerca de la ener­
gía de radiación de un cuerpo negro, dando así el primer paso de la teoría cuán­
tica, afirmó expresamente que estaría dispuesto a abandonar ciertas cosas de la
física clásica, pero que consideraba intocables los principios de la termodinámi­
ca. Como mucho podría decirse que el psicoanálisis o el marxismo han llevado
estas prácticas al extremo, y en eso Popper quizá llevaría razón, pero este hecho
hablaría más en contra de la actitud de sus defensores que en contra de las teo­
rías que defienden. Con ello no se marca además una diferencia capaz de defi­
nir a la ciencia, pues no tenemos una indicación precisa de a partir de qué mo­
mento los intentos de inmunización dejan de ser científicos para pasar a ser
seudocientíficos. No cabe entonces establecer sobre esta base ninguna distin­
ción cualitativa.
Lo que hace más científica a la teoría de la relatividad que al psicoanálisis
no es que la primera tenga consecuencias contrastables y la segunda no. La di­
ferencia viene dada por una multiplicidad de factores. Entre ellos está el que,
dado que la primera posee mayor rigor experimental y metodológico, mayor
precisión, mayor simplicidad, mayor grado de formalización y sistematización
y mayor poder predictivo, el choque con los hechos puede afectarla más pro­
fundamente que a la segunda. Indudablemente, también cuentan como facto­
res important�s la actitud de los defensores de ambas teorías, más crítica en el
caso de la teoría de la relatividad; así como el carácter abierto y público que
presenta la teoría de la relatividad en su concreción institucional (universida-
¿Qué es la ciencia? 145

des, laboratorios, etc.) frente al carácter privado y en ocasiones hasta sectario


que presenta el psicoanálisis (asociaciones psicoanalíticas nacionales, escuelas
psicoanalíticas, etc.). Pero nada de esto establece una diferencia absoluta entre
las dos teorías. La actitud crítica y la actitud dogmática no son exclusivas de na­
die. La actitud crítica está presente también en el psicoanálisis, el marxismo e
incluso en la astrología, y la actitud dogmática se da en las ciencias establecidas.

5. LA PROGRESIVIDAD DE LOS PROGRAMAS DE INVESTIGACIÓN


COMO CRITERIO DE DEMARCACIÓN

En 1968 Imre Lakatos propuso un nuevo criterio de demarcación de inspi­


ración popperiana -la progresividad de los programas de investigación- que in­
tentaba superar las deficiencias encontradas por los críticos en el de Popper. Pero
el criterio de Lakatos presenta una diferencia fundamental con los anteriores. La
verificabilidad, la confirmabilidad y la falsabilidad son criterios lógicos de demar­
cación; se basan en la relación lógica que mantienen unos enunciados (los enun­
ciados teóricos, las hipótesis) con otros (los enunciados observacionales, los
enunciados básicos). El criterio de Lakatos, en cambio, incluye expresamente ele­
mentos históricos que no pueden ser reducidos a la pura lógica.
Según Lakatos, el criterio de falsabilidad de Popper es desmentido por la
historia de la ciencia, entre otras razones porque ofrece una imagen errónea de
la investigación científica en dos puntos cruciales. En primer lugar, Popper pre­
sentaba toda contrastación empírica como una confrontación bilateral entre
una teoría y un experimento. En segundo lugar, el único resultado interesante
de esa confrontación era la falsación de la teoría. Lakatos sugiere que, en lugar
de esto, la historia muestra que toda contrastación empírica es al menos una
confrontación trilateral entre dos teorías rivales y un experimento, y además, el
resultado más interesante de estas confrontaciones es en muchas ocasiones la
confirmación de una teoría (cfr. Lakatos, 1983, pág. 45).
Con respecto a lo primero, Lakatos sigue a Kuhn al sostener que una teo­
ría no es nunca puesta seriamente en cuestión, y mucho menos abandonada a
causa de un experimento en su contra, a no ser que esté disponible otra teoría
mejor que pueda sustituirla: «No hay falsación sin la emergencia de una teoría
mejor» (Lakatos, 1983, pág. 50). Popper había reconocido que en la mayoría de
los casos, antes de refutar una hipótesis tenemos otra en reserva, pero Lakatos
va más allá: es necesario que tengamos otra en reserva, si no la teoría no es con­
siderada como falsada a pesar de los hechos que pueda tener en su contra. Sien­
do esto así, la falsación no puede reducirse entonces a la cuestión lógica de si
una teoría entra en conflicto con enunciados básicos aceptados, sino que se
transforma en una cuestión histórica que debe tomar en consideración cuáles
son las teorías rivales a otra en un momento dado. Para que una teoría resulte
falsada es condición indispensable, por tanto, que haya otra teoría mejor que
poner en su lugar. Por una teoría mejor entiende Lakatos en este contexto una
teoría que:
146 Antonio Diéguez

l. posea un exceso de contenido empírico en relación con la que se pretende


falsar, es decir, que sea capaz de hacer predicciones nuevas;
2. explique todos los hechos que explica ésta; y
3. vea corroborada empíricamente una parte al menos de este exceso de con­
tenido empírico.
Con ello pasamos al segundo punto de discrepancia mencionado. Hay que
decir antes de nada que Lakatos no es muy justo con Popper al afirmar que éste
sólo considera interesantes las falsaciones. Aunque es cierto que Popper se ex -
presa en ocasiones de ese modo (cfr. Popper, 1974, pág. 991), en el próximo ca­
pítulo veremos que también sostiene que no hay progreso científico sin la veri­
ficación de algunas predicciones nuevas hechas por las teorías que reemplazan
a las anteriores. Lo que en última instancia quiere decir Lakatos es que la cien­
cia no progresa buscando falsar las teorías aceptadas, por la sencilla razón de
que no puede esperar en muchas ocasiones a que eso ocurra. Para que se pro­
duzca un cambio de teorías no hace falta que se efectúe de hecho una falsación,
basta con que aparezca otra teoría nueva con un excedente de contenido empí­
rico corroborado. Podríamos decir que no hay falsación sin la aparición de una
teoría mejor, pero una vez que hay propuesta una teoría mejor, la falsación de
la anterior ya no es necesaria para que los científicos opten por el cambio.
Por eso Lakatos subraya que para su metodología, el falsacionismo sofisti­
cado, lo importante no es la falsación en el sentido popperiano, sino la prolife­
ración de teorías rivales con un contenido mayor que e! de la teoría vigente, así
como la corroboración de dicho contenido adicional. Este es el motivo de que
los experimentos que confirman las predicciones nuevas de una teoría rival in­
teresen y ocupen a los científicos mucho más que los experimentos refutadores
de las teorías aceptadas. Incluso en el caso de que estas nuevas predicciones co­
rroboradas no sean incompatibles con la teoría anterior (esto es, no den lugar a
enunciados falsadores de la misma), dicha teoría se verá forzada a desarrollar
una explicación ad hoc de los nuevos fenómenos predichos, con lo que se pon­
drá en evidencia su debilidad frente a la nueva teoría. Así, por ejemplo, la me­
cánica relativista de Einstein no sustituyó a la mecánica newtoniana porque ésta
fuera refutada. Ni el problema del perihelio de Mercurio ni los resultados ne­
gativos del experimento de Michelson y Morley para detectar el movimiento de
la Tierra en el éter fueron considerados por los físicos como contraejemplos re­
futadotes de la teoría newtoniana. La teoría de Einstein sustituyó a la de New­
ton porque era mejor que ésta en el sentido descrito. No sólo explicaba todo lo
que explicaba la de Newton, sino que resolvía algunas anomalías, como las dos
que acabamos de citar, e hizo predicciones novedosas que se cumplieron, como
la curvatura de la luz en campos gravitatorios (cfr. Lakatos, 1983, pág. 56).
Por otra parte, Lakatos piensa que la regla metodológica básica implicada
en el criterio popperiano de demarcación es demasiado estricta. Recordemos
que según dicha regla el científico debe especificar de antemano en qué condi­
ciones experimentales estaría dispuesto a abandonar sus supuestos más funda­
mentales. Esta estrategia de «cartas sobre la mesa», como alguien la ha llamado,
es tan exigente que si la tomamos al pie de la letra, los psicoanalistas, los mar-
¿Qué es la ciencia? 147

xistas o los seguidores de cualqtúer seudociencia no serían los únicos en incum­


plirla. También la incumplirían los científicos más pulcros. «¿Qué clase de ob­
servaciones --escribe Lakatos- refutaría, a la entera satisfacción del newtonia­
no, no simplemente una explicación newtoniana particular, sino la misma
dinámica newtoniana y la teoría gravitacional? ¿Han discutido o acordado los
newtonianos en alguna ocasión tales criterios? Dífícilmente sería capaz el new­
toniano de dar una respuesta positiva» (Lakatos, 1983, pág. 163).
Lakatos nos transmite una experiencia personal que desmiente el uso de
esta regla metodológica por parte de los científicos:
Recuerdo, cuando retorno a mis días de popperiano, que solía hacerles a
marxistas y freudianos la siguiente pregunta: «Dígame, ¿qué acontecimiento
histórico o social específico habría de ocurrir para que usted abandonara el
marxismo?» Recuerdo que esto venía acompañado habitualmente de un si­
lencio pasmado o de confusión. Yo, sin embargo, estaba encantado con el
efecto.
Mucho después hice la misma pregunta a un científico eminente, el cual
no pudo dar ninguna respuesta, porque dijo: «por supuesto que siempre sur­
gen anomalías, pero tarde o temprano siempre las resolvemos de alguna ma­
nera» (Lakatos, 1999, pág. 26).

Los científicos son, después de todo, personas normales y es lógico que no


sigan los preceptos de ese ascetismo racional que Popper les presenta. Como a
todos, les gusta tener razón; y les llena de satisfacción que sus ideas, las hipóte­
sis y teorías que tanto les ha costado construir, se vean corroboradas por la ex­
periencia, en lugar de refutadas. Es sumamente improbable que un científico
tenga como meta principal de su trabajo la refutación de la teoría en la que
cree. Por el contrario, lo normal es que los científicos trabajen para desarrollar
y consolidar las teorías que consideran mejores, o, a lo sumo, para refutar las
teorías de la competencia. Y si se dedican a esto último, lo hacen apoyándose
en una teoría que defienden en la medida en que pueden.
Pero no es esto todo lo que Lakatos tiene que objetar al criterio de Popper.
No se trata sólo de que la falsación no sea una condición necesaria para que una
teoría sea sustituida por otra y, por ende, para que pueda haber progreso cien­
tífico; es que además la falsación, como explicamos cuando presentamos las crí­
ticas formuladas contra ella, no es siquiera una condición suficiente para que
una teoría sea abandonada y eliminada. El criterio de Popper ignora, según La­
katos, la gran tenacidad de las teorías científicas frente a los intentos de refuta­
ción. «Los científicos tienen la piel gruesa» (Lakatos, 1983, pág. 12). La crítica
no destruye ni debe destruir con la rapidez que Popper afirma.
Para ilustrar esto, Lakatos construye un ejemplo artificial pero muy efecti­
vo por su plausibilidad inicial. El lector puede interpretarlo como lo que habría
podido suceder si no se hubiera confirmado la predicción realizada a mediados
del siglo XIX por los astrónomos J. C. Adams y U. Leverrier de que la anomalía
encontrada en la órbita del planeta Urano debía estar causada por la existencia
de un planeta desconocido (el que hoy conocemos como Neptuno). El ejemplo
148 Antonio Diéguez

trata de mostrar que los científicos tienen siempre a mano proceder de una for­
ma que el falsacionista dogmático condenaría como seudocientífica. Dice así:
Un físico de la era preeinsteiniana combina la mecánica de Newton y su
ley de la gravitación (N) con las condiciones iniciales aceptadas (I) y calcula
mediante ellas la ruta de un pequeño planeta que acaba de descubrirse, p.
Pero el planeta se desvía de la ruta prevista. ¿Considera nuestro físico que la
desviación estaba prohibida por la teoría de Newton y que, por ello, una vez
confirmada tal ruta queda refutada la teoría N? No. Sugiere que debe existir
un planeta hasta ahora desconocido, p', que perturba la ruta de p. Calcula la
masa, órbita, etc., de ese planeta hipotético y pide a un astrónomo experimen­
tal que contraste su hipótesis. El planeta p' es tan pequeño que ni los mayores
telescopios existentes podrían observarlo: el astrónomo experimental solicita
una ayuda a la investigación para construir uno aún mayor. Tres años después
el nuevo telescopio ya está disponible. Si se descubriera el planeta desconoci­
do p', ello sería proclamado como una nueva victoria de la ciencia newtonia­
na. Pero no sucede así. ¿Abandona nuestro científico la teoría de Newton y
sus ideas sobre el planeta perturbador? No. Sugiere que una nube de polvo
cósmico nos oculta el planeta. Calcula la situación y propiedades de la nube y
solicita una ayuda a la investigación para enviar un satélite con objeto de con­
trastar sus cálculos. Si los instrumentos del satélite (posiblemente nuevos, fun­
damentados en una teoría poco contrastada) registraran la existencia de la
nube conjeturada, el resultado sería pregonado como una gran victoria de la
ciencia newtoniana. Pero no se descubre la nube. ¿Abandona nuestro cientí­
fico la teoría de Newton junto con la idea de un planeta perturbador y la nube
que lo oculta? No. Sugiere que existe un campo magnético en esa región del
universo que inutilizó los instrumentos del satélite. Se envía un nuevo satélite.
Si se encontrara el campo magnético, los newtonianos celebrarían una victo­
ria sensacional. Pero ello no sucede. ¿Se considera este hecho una refutación
de la ciencia newtoniana? No. O bien se propone otra ingeniosa hipótesis au­
xiliar o bien... todo la historia queda enterrada en los polvorientos volúmenes
de las revistas, y nunca vuelve a ser mencionada (Lakatos, 1983, págs. 27-28).
Podrían encontrarse fácilmente ejemplos reales en la historia de la ciencia
de esta actitud de protección mediante hipótesis ad hoc. Antes mencionábamos
el caso del modelo atómico de Bohr. Un caso histórico que, sin llegar a formar
una cadena tan larga de hipótesis auxiliares protectoras como la que Lakatos
describe, exhibe una conducta similar es el de la reacción de H. A. Lorentz y
G. E. FitzGerald ante los resultados contrarios al esperado movimiento de la
Tierra en el éter obtenidos por Michelson y Morley. Ambos autores propusie­
ron como hipótesis ad hoc algo que luego se deduciría como una consecuencia
lógica de los postulados de la teoría de la relatividad. Supusieron que los cuer­
pos (y, por tanto, los brazos del interferómetro usado por Michelson y Morley)
se acortan en la dirección del movimiento en un factor ✓1-tJ/c2, donde ves la
velocidad del cuerpo y c la velocidad de la luz. Piénsese también en la hipótesis
más reciente de la existencia de una gran cantidad de «materia oscura» en el
universo para explicar ciertos efectos sobre las órbitas de las estrellas y el mo­
vimiento de las galaxias; hipótesis que tendría el beneficio añadido de explicar
¿Qué es la ciencia? 149

por qué la densidad del universo, según se desprende de los datos de que se
dispone, es mucho menor que la exigida por algunos modelos teóricos.
Como superación de todos estos problemas que surgen inevitablemente en
el falsacionismo popperiano, Lakatos propone su sustitución por una nueva
metodología: la metodología de los programas de investigación científi,'ca. En ella
la unidad básica de evaluación en la ciencia no son los enunciados ni las teorías
aisladas, sino los programas de investigación. Un programa de investigación
científica es una serie de teorías estrechamente relacionadas entre sí. En el pró­
ximo capítulo estudiaremos con más detalle sus componentes básicos.
El criterio para evaluar los programas de investigación científica se centra
en el progreso o el estancamiento interno de dichos programas. Todo progra­
ma de investigación es o bien progresivo o bien regresivo. Un programa es pro­
gresivo si es tanto teórica como empíricamente progresivo, y es regresivo o de­
generativo en caso contrario. Que sea teóricamente progresivo significa que
cada modificación teórica dentro de él conduce a predicciones de hechos
nuevos e inesperados; que sea empíricamente progresivo significa que al me­
nos algunas de tales predicciones resultan corroboradas (cfr. Lakatos, 1983,
pág. 230). Cuando un programa no ofrece predicciones de hechos nuevos y
se limita a fabricar hipótesis ad hoc para acomodar hechos ya conocidos o
predichos por otros programas rivales, o cuando un programa hace descubri­
mientos puramente casuales, o predice hechos nuevos pero estas prediccio­
nes resultan ser falsas, entonces se trata de un programa regresivo o degene­
rativo. En tal caso, el programa es superado por algún programa rival y puede
ser abandonado.
Puesto que los programas de investigación científica son series históricas de
teorías interconectadas, su evaluación ha de realizarse sobre largos períodos de
tiempo. La progresividad o regresividad de un programa de investigación no es
un asunto que se pueda dirimir contemplando el estado de dicho programa en
un momento puntual de su historia. Un programa progresivo puede pasar por
periodos degenerativos de los que vuelve a recuperarse.
Con este bagaje estamos en condiciones de responder a la pregunta de
cómo delimitar entre ciencia y seudociencia. Según Lakatos, un programa de
investigación es seudocientífico si y sólo si no es un programa progresivo. De
este modo, el problema de la demarcación se reduce a distinguir entre progra­
mas de investigación progresivos y programas de investigación regresivos. La
metafísica puede formar parte, y de hecho normalmente forma parte, de la
ciencia (o sea, de programas progresivos). Pero un programa regresivo, conten­
ga o no elementos metafísicos, no puede ser considerado como científico.
Los ejemplos que Lakatos cita de programas seudocientíficos son funda­
mentalmente los mismos que despertaban los recelos de Popper: el marxismo
y el psicoanálisis. Con respecto al primero, en un pasaje que podría haber fir­
mado el propio Popper, se pregunta:

¿Alguna vez ha predicho el marxismo con éxito algún hecho nuevo?


Nunca. Tiene algunas famosas predicciones que no se cumplieron. Predijo el
150 Antonio Diéguez

empobrecimiento absoluto de la clase trabajadora. Predijo que la primera re­


volución socialista sucedería en la sociedad industrial más desarrollada. Predi­
jo que las sociedades socialistas estarían libres de revoluciones. Predijo que no
existirían conflictos de intereses entre países socialistas. Por tanto, las prime­
ras predicciones del marxismo eran audaces y sorprendentes, pero fracasaron.
Los marxistas explicaron todos los fracasos: explicaron la elevación de niveles
de vida de la clase trabajadora creando una teoría del imperialismo; incluso
explicaron las razones por las que la primera revolución socialista se habría
producido en un país industrialmente atrasado como Rusia. «Explicaron» los
acontecimientos de Berlín en 1953, Budapest en 1956 y Praga en 1968. «Ex­
plicaron» el conflicto ruso-chino. Pero todas sus hipótesis auxiliares fueron
manufacturadas tras los acontecimientos para proteger a la teoría de los he­
chos. El programa newtoniano originó hechos nuevos; el programa marxista
se retrasó con relación a los hechos y desde entonces ha estado corriendo para
alcanzarlos (Lakatos, 1983, pág. 15).

Como era de esperar por todo lo que llevamos dicho, también el criterio de
demarcación de Lakatos se vio envuelto en dificultades que lo mostraron como
inoperante. Desgraciadamente, Lakatos murió repentinamente en 1974, a la
edad de cincuenta y un años (había nacido en 1922), y no pudo darles cumpli­
da respuesta. La objeción principal fue ya formulada por Richard Hall en 1970
y desarrollada por Feyerabend en 1975 (cfr. Hall, 1982 y Feyerabend, 1981,
capítulo 16). Según Lakatos, un programa de investigación puede pasar por largas
fases degenerativas para volver a tornarse progresivo después, como fue el caso
del atomismo, que pasó por una fase degenerativa de varios siglos. <<Resulta
muy difícil -escribe- decidir cuándo un programa de investigación ha dege­
nerado sin remisión posible, si no se exige que exista progreso en cada paso; o
cuándo uno de los programas rivales ha conseguido una ventaja decisiva sobre
otro» (Lakatos, 1983, pág. 193). Por eso, sólo podemos juzgar sobre la raciona­
lidad de un cambio científico cuando éste ya hace tiempo que ha pasado, «sólo
ex-post podemos ser 'sabios'» (Lakatos, 1983, pág. 148). Ahora bien, si esto es así,
es perfectamente racional la conducta de un científico que se mantenga fiel al
programa degenerativo en la esperanza de que los malos tiempos terminen algu­
na vez. Pero también es racional la conducta del científico que abandona dicho
programa y se adhiere a otro que presente en ese momento un carácter progresi­
vo. Lo cual significa que la metodología de los programas de investigación care­
ce de valor normativo para delimitar lo que es ciencia de lo que no lo es, porque
el científico estará legitimado tome la opción que tome. Dicho de otro modo,
nunca se podría calificar de seudocientífica una teoría porque nunca se puede es­
tar seguro de que un programa de investigación regresivo no cambiará su suerte
y se volverá progresivo. En opinión de Feyerabend, la metodología de Lakatos,
llevada a sus consecuencias finales, conduce, aunque Lakatos no lo quisiera, al
«todo vale». Es un «caballo de Troya» que, por conservar aún su apego a la ra­
zón, puede utilizarse para hacer pasar escondido un anarquismo epistemológico
en toda regla. No es de extrañar que Feyerabend le dedicara a Lakatos su Against
Method, con el comentario «amigo y camarada anarquista».
¿ Qué es la ciencia? 151

6. ¿QUÉ CONCLUIR PESE A TODO?


Las reacciones ante este fracaso reiterado de los sucesivos criterios de de­
marcación han sido diversas. Algunos, como Feyerabend, han negado que exis­
ta algún tipo de distinción. relevante desde el punto de ;11sta_ del conoc�ento
entre la ciencia y la no-ciencia. Feyerabend compara la ciencia con el rruto, con
el pensamiento mágico, con el arte, con la filosofía, y no encuentra razones �ara
concederle ningún tipo de privilegio epistemológico, y mucho menos político,
social o académico. Por otra parte, desde la sociología de la ciencia la demarca­
ción se considera como una cuestión puramente convencional. Es la propia co­
munidad científica la que decide tácitamente en función de sus intereses y de
sus tradiciones institucionales lo que debe ser considerado como científico y lo
que no. Sin que ello implique que todo lo que recibe el marchamo de científi­
co comparta un conjunto de características comunes. No hay nada que pueda
ser considerado como un rasgo distintivo de la ciencia, excepto el estar enmar­
cada dentro del marco institucional de lo que socialmente se admite como cien­
cia. Otros como el autor de estas páginas, prefieren ser más moderados. El que
1

no quepa una distinción tajante e intemporal entre ciencia y no ciencia no sig­


nifica para ellos que no quepa ninguna distinción en absoluto, o que ésta sea
puramente convencional. Estamos más bien ante una cuestión gradual y con­
textual en la que es imposible trazar una frontera definida, pero en la que pue­
den determinarse una serie de rasgos que, sin ser condiciones imprescindibles,
ayudan a cualificar como más o menos científica a una teoría. Entre estos ras­
gos característicos algunos de los más s�gnificati:70� �erían el rigor con��ptual,
la exactitud, el apoyo en los hechos, la mtersubJet1vidad, la contrastabilidad y
revisabilidad, la coherencia con otras teorías científicas aceptadas, la capacidad
predictiva, y la capacidad de progreso. . .
De forma análoga, se pueden detectar ciertos rasgos que parecen extendi­
dos entre las seudociencias, aunque tampoco deban considerarse condiciones
definitorias de las mismas. He aquí los que destaca Raimo Tuomela (1985, pági­
nas 228-229):

l. Las seudociencias descansan a menudo en una ontología oscura, una epis­


temología basada en la autoridad o en capacidades paranormales, y una ac­
titud dogmática ante las críticas.
2. Rehúyen el pensamiento exacto lógico-matemático.
3. Sus hipótesis y teorías son imposibles de contrastar o están poco apoyadas
en los hechos y en otras teorías. . .,
4. Sus hipótesis y teorías no cambian como consecuenoa de la confrontac10n
con cualquier tipo de evidencia.
5. Implican un pensamiento anacrónico que se retrotrae a teorías antiguas ya
abandonadas.
6. Apelan con frecuencia a los mitos. , .
7. Los problemas que se plantean tienen a menudo una naturaleza practica
en lugar de teórica.
152 Antonio Diéguez

8. Sus métodos no les permiten corregirse a sí mismas ni comprobar las cosas


de formas alternativas.
9. Constituyen un cuerpo de doctrina aislado de la ciencia de su tiempo.

Si nos atenernos a la posesión de los rasgos señalados corno deseables para la


ciencia o, por el contrario, a los señalados corno comunes en las seudociencias,
podernos obtener una graduación de disciplinas en función de su cientificidad.
En el nivel más alto estarían la física y la química, mientras que en el más bajo po­
siblemente se situarían la astrología, la ufología, y el creacionismo. El psicoanáli­
sis y el marxismo (en la medida en que todavía haya quien pretenda verlos como
ciencias) estarían en posiciones intermedias, y probablemente sería imposible po­
ner de acuerdo a todos acerca de si están más cerca de las primeras que de las se­
gundas. La parapsicología, por el momento, estaría en mi opinión entre el psicoa­
nálisis y la astrología. Y la homeopatía más abajo aún. Corno puede apreciarse, no
es necesario establecer ningún criterio de demarcación para formular este juicio
porque precisamente no se ha hecho ninguna demarcación entre unas disciplinas
y otras. Si querernos poner un listón, éste dependerá del contexto y variará con
las personas. Si lo ponernos demasiado bajo, probablemente convenceremos a
pocos de que nuestro juicio está bien formado, si lo ponernos demasiado alto co­
rreremos el riesgo de ser acusados de cientifistas dogmáticos. Lo más normal será
situarlo en la zona intermedia. Pero esta zona es confusa y no se nos ofrece con
una marca ya hecha. No seremos además igual de exigentes si se trata de decidir
acerca de la financiación de una investigación con fondos públicos, acerca de in­
cluir un tratamiento médico en la Seguridad Social, o acerca de admitir un testi­
monio en un juicio por asesinato. El listón subirá o bajará dependiendo de las
consecuencias posibles de la decisión que se tome (cfr. Resnik, 2000).
La existencia de lo que se ha dado en llamar 'ciencia patológica' y 'ciencia
basura' o, con el término popularizado por R. L. Park (2001), 'ciencia vudú',
nos recuerda por otra parte que algunos de los rasgos que acabamos de atribuir
a las seudociencias han estado también presentes en diversos episodios de las
ciencias más consolidadas. Baste citar el caso de los rayos-N de René Blondlot
y el más reciente caso de la fusión fría, protagonizado por científicos de la Uni­
versidad de UTA. Hace pocos años, en una de las más prestigiosas revistas de
física se criticaba la situación en el campo de la física de partículas elementales.
La acusación era que en ella abundaban las hipótesis incontrastables y ad hoc,
tales como la existencia de múltiples dimensiones en el universo (hasta 950 se
han llegado a proponer), las afirmaciones sobre los primeros segundos después
del Big Bang, el confinamiento de los quarks, las teorías de las supercuerdas,
etc. (cfr. Oldershaw, 1988, citado por Selleri, 1994, págs. 219 y sigs .). Se habla
incluso del surgimiento de una física especulativa en la que los métodos expe­
rimentales resultan inaplicables por el momento y no hay visos de contrastar las
hipótesis propuestas.
La tendencia actual, corno ha sugerido Laudan (1996, págs. 218-222), es la
de dejar a un lado el problema de saber cuándo estamos ante una teoría cientí­
fica -Laudan lo considera incluso un seudoproblema- para averiguar en su
¿Qué es la ciencia? 153

lugar cuándo estamos ante una buena teoría, es decir, ante una teoría fiable, fér­
til y bien fundada, sea o no científica.
En lo que sí parece haber amplio acuerdo es en que, se tracen donde se
tracen las fronteras entre lo científico y lo no científico, no deben ser identi­
ficadas con las fronteras entre lo racional y lo irracional, o entre el conocimien­
to válido o fiable y el ámbito de lo impreciso, fútil o sin sentido. Lo más proba­
ble es que siempre encontremos a ambos lados de la línea modos útiles de
conocer la realidad.

También podría gustarte