ELSTER, JON - El Cambio Tecnológico (Investigaciones Sobre La Racionalidad y La Transformación Social)

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 242

Sociología Gjf

Jon Elster ""*?


P*

El caitjbio
tecnológico ■M
Investigaciones sobre la racionalidad

O
gedisaeditorial
Jon Elster

EL CAMBIO TECNOLOGICO

Serle C L A .D E .M A
F ilosofía de la C iencia/ S ociología
Editorial Gedisa ofrece
los siguientes títulos sobre

HISTORIA DE LA CIENCIA Y
EPISTEMOLOGIA
pertenecientes a sus diferentes
colecciones y series
(Grupo “ Ciencias Naturales y del Hombre” )

Jon Elster E l cambio tecnológico

Ervin L aszlo La gran bifurcación

J. Piaget Y R. García Hacia una lógica de


significaciones

Donald Davidson D e la verdad y de la


interpretación

I. Revolución en la ciencia
BERNARD COHEN

LUDOVICO GEYMONAT Lím ites actuales de la


filosofía de la ciencia

Philippe Roqueplo E l reparto del saber

Albert Jacquard La ciencia, ¿una amenaza?


ganzl912
EL CAMBIO
TECNOLOGICO

invest igaciones sobre la racionalidad y


la transformación social

Jon Elster
Título original en inglés:
Explaining Technical Change
© Cambridge University Press and Universitetsforlaget, 1983
Publicado por Press Syndicate o f the University o f Cambridge

Traducción: Margarita Mizraji


Ilustración de cubierta: Alma Larroca

Quinta reimpresión: junio 2006, Barcelona

Derechos reservados para todas las ediciones en castellano

© Editorial Gedisa, S.A.


Paseo Bonanova, 9 Io-I a
08022 Barcelona, España
Tel. 93 253 09 04
Fax 93 253 09 05
Correo electrónico: [email protected]
http://www.gedisa.com

ISBN: 84-7432-386-X
Depósito legal: B. 28086-2006

Impreso por: Romanyá Valls


C/Verdaguer, 1
08786 Capellades

Impreso en España
Printed in Spain

Queda prohibida la reproducción total o parcial por cualquier medio de


impresión, en forma idéntica, extractada o modificada, de esta versión
en castellano o en cualquier otro idioma.

h t t p s ://tinyurl.com/y7 9 4dggv
h t t p s ://tinyurl.com/y9malmmm
ganzl912

INDICE

Prefacio y agradecimientos......................................................................... 11

Introducción general................................................................................... 13

Primera parte. M odalidades de la explicación científica ................... 17


Introducción a la primera parte.................................................................... 19
1. Explicación causal.................................................................................... 28
a. Explicación causal: en general........................................................... 28
b. Explicación causal: en las ciencias sociales.................................... 34
2. Explicación funcional............................................................................... 48
a. Explicación funcional: en b iolog ía .................................................... 48
b. Explicación funcional: en las ciencias sociales............................... 53
3. Explicación intencional........................................................................... 65
a. Intencionalidad.................................................................................... 66
b. Intencionalidad y racionalidad........................................................... 67
c. Racionalidad y optimalidad................................................................ 69
d. Intencionalidad y causalidad............................................................... 77

Segunda parte: Teorías del cam bio te c n o ló g ico ................................... 83


Introducción a la segunda parte.................................................................... 85
4. Teorías neoclásicas.................................................................................... 89
a. La función de producción................................................................... 89
b. Explicación de la tendencia de factores del cambio tecnológico ... 93
c. Explicación del ritmo del cambio tecn ológico................................ 97
5. Teoría de Schumpeter................................................................................ 103
a. La teoría del desarrollo capitalista (1 9 1 1 )...................................... 104
b. C iclos com erciales (1 9 3 9 ).................................................................. 110
c. Capitalismo, socialism o y dem ocracia { 1942)................................ 114
6. Teorías evolucionistas............................................................................. 119
a. Conducta instrumental anim al........................................................... 119
b. EilertSundt........................................................................................... 123
c. Nelson y Winter................................................................................... 125
d. Paul D a v id ............................................................................................ 135
7. Las teorías marxistas................................................................................. 142
a. ¿Creía Marx en los coeficientes fijos de producción?..................... 143
b. La velocidad y dirección del cambio tecn ológico........................... 148
c. La tasa decreciente de rentabilidad.................................................... 159
d. El desarrollo de las fuerzas productivas........................................... 162
Apéndice 1. Riesgo, incertidumbre y energía nuclear ..................... 165

Apéndice 2. La contradicción entre las fuerzas y las relaciones


deproducción..................... 185
Con una nota matemática por Aanund Hylland................................. 203

N otas ................................................................................................... 209

R eferencias b iblio g rá fic as ................ 231

Indice de nombres p r o p io s ..................................................................... 243


Prefacio y agradecimientos
La ocasión para escribir este libro me la proporcionó Bemt Schiller de
la Universidad de Linkóping (Suecia), quien me solicitó que redactara un
manual de filosofía de la ciencia que se adecuara a su programa de docto­
rado sobre “Tecnología y cambio social”. Estoy muy agradecido por las
sugerencias y comentarios que recibí tanto de él como de sus colegas du­
rante todo el tiempo que duró mi tarea. También quisiera agradecer a las
siguientes personas por los comentarios que hicieron en una primera re­
dacción del manuscrito: G. A. Cohén, Aanund Hylland, Michael McPher-
son, Nathan Rosenberg, y a un árbitro anónimo de Cambridge University
Press. Los reconocimientos por los comentarios para los apéndices se in­
cluyen en los respectivos lugares. El apéndice 1 se publicó originalmente
en Social Science Information 18 (1979).
La primera parte de esta obra puede leerse como una introducción a
la filosofía de la explicación científica. Sin duda, el talón de Aquiles de es­
ta parte es el capítulo sobre explicación causal. Mi competencia en este
punto tan intrincado no es mucha, pero como la arquitectura general de la
obra requería la inclusión de este capítulo, pensé que debía exponer mis
puntos de vista al respecto aunque no estuvieran fundados sobre bases de­
masiado sólidas. Espero no haber dicho demasiadas cosas obviamente
equivocadas, pero seguramente el lector tiene todo el derecho de creer que
algunas cosas que digo no son muy interesantes o que mi argumentación
no tiene todo el peso que pudiera desearse.
La segunda parte no debe leerse como una introducción a la teoría del
cambio tecnológico, sino que está subordinada al propósito epistemológico
de mostrar cómo las distinciones y proposiciones de la primera parte pue­
den aplicarse a un conjunto específico de problemas empíricos. Aquí el pe­
ligro reside en que mi exposición puede ser demasiado densa para la per­
sona no especializada y demasiado incoherente para el especialista. Al
primero sólo puedo ofrecerle el consejo de que consulte las obras origina­
les. Al segundo le pido que las afirmaciones ambiguas las tome en su sen­
tido más razonable. Aun así, probablemente todavía puedan quedar algu­
nas afirmaciones lisa y llanamente erróneas por las cuales el lector pueda
reclamar con toda razón.

J. E.

11
Introducción general

El estudio del cambio tecnológico se adapta especialmente bien al


análisis epistemológico. Como está situado en la intersección de la ciencia
social y las ciencias naturales, podría esperarse que fuera pertinente para
el examen de “la unidad de la ciencia”. Cubre el vacío que media entre la
ciencia pura y los asuntos cotidianos y, por lo tanto sería dable esperar
que permitiera comprender cómo se relaciona el conocimiento teórico con
el mundo observable. El cambio técnico — la fabricación y modificación de
herramientas— puede haber desempeñado un papel importante en la
evolución de la vida inteligente sobre la Tierra, comparable al del lengua­
je. Durante el transcurso de la historia humana, las instituciones sociales
surgieron y desaparecieron en gran medida como respuesta a cambios en
la tecnología productiva y destructiva. Más aun, el cambio tecnológico
constituye un desafio para el análisis puesto que es fundamentalmente
impredecible. “Si supiera hacia dónde va el jazz, yo ya estaría allí”, son
palabras que se le atribuyen a Humphrey Lyttelton. Análogamente, cual­
quier intento de explicar el cambio tecnológico tarde o temprano se en­
frenta con la paradoja de tener que convertir a la creatividad en una va­
riable dependiente.
En este libro voy a exponer en primer lugar las principales variedades
de explicación científica y luego me referiré a algunas de las teorías más
importantes sobre el cambio tecnológico desde el marco de referencia que
me proporciona ese análisis. Esto me permite trabajar con los que, en mi
opinión, son los dos enfoques principales del cambio tecnológico. Primero,
el cambio tecnológico puede ser concebido como una actividad racional di­
rigida hacia una meta, como la elección de la mejor innovación entre un
conjunto de cambios posibles. En segundo lugar, puede vérselo como un
proceso de ensayo y error, como la suma acumulativa de ciertas modifica­
ciones del proceso de producción, pequeñas y en gran medida accidenta­
les. Cualquier estudioso serio de la tecnología estará de acuerdo en que en
el cambio tecnológico se manifiestan estos dos aspectos, pero existen im­
portantes diferencias de intensidad entre estas dos explicaciones diver­
gentes.
Esta dicotomía básica atraviesa muchas de las otras dos distinciones
pertinentes que pueden hacerse en este campo. Por ejemplo, creo que las
teorías neoclásicas y las marxistas del cambio tecnológico en el nivel de la
empresa, comparten el interés por el enfoque del actor racional. Es cierto
que los marxistas no se han preocupado mucho por ofrecer modelos deta-

13
liados del cambio tecnológico en el micronivel, pero existe una cantidad de
estudios históricos hechos por marxistas que argumentan que el empresa­
rio utiliza la innovación como un arma en la lucha de clases. Los econo­
mistas neoclásicos explican el cambio tecnológico a la luz de la maximiza-
ción de la ganancia, mientras que los marxistas tienden a argumentar que
lo que está en juego es el poder y no ganancias de corto plazo. Ambas tra­
diciones explican el cambio en la tecnología a la luz de la meta que se quie­
re lograr, aunque le atribuyen al empresario objetivos diferentes.
En el otro extremo de la dicotomía principal encontramos las teorías
“evolucionistas” del cambio tecnológico, que ponen el acento en la historia
pasada y no en las metas futuras cuando tratan de explicar por qué las
empresas utilizan corrientemente las técnicas que usan. Es típico que los
partidarios de estas teorías conciban el cambio tecnológico en forma más o
menos análoga a la evolución por selección natural. Por lo tanto, resulta
muy instructivo tener en cuenta los estudios sodobiológicos de la conduc­
ta instrumental animal que explican el progreso técnico como un ejemplo
literal y no metafórico de la evolución biológica. Estas teorías se proponen
explicar no sólo las invenciones específicas sino también el surgimiento
de genes para la capacidad de invención. Es muy interesante descubrir
que la conducta instrumental resulta estrechamente relacionada con la
conducta lúdica, lo que nos recuerda que la creatividad es un elemento
esencial en el cambio tecnológico.
El cambio tecnológico puede ser estudiado en distintos niveles de
complejidad y en diversos períodos temporales. Las teorías neoclásicas y
evolucionistas tienden a estudiar el cambio en los niveles de la empresa y
la industria, en forma distinta y opuesta a las síntesis históricas en gran
escala que presentan Schumpeter y Marx. Schumpeter es tal vez el escri­
tor individual más importante sobre el cambio tecnológico, sus causas y
consecuencias. Probablemente esto se debe a que puso el acento en la
creatividad y el desequilibrio y no trató de incluir forzadamente el cambio
tecnológico en el esquema habitual de maximización de la ganancia. Su
evaluación positiva del capitalismo no se debió a la eficiencia y racionali­
dad de este sistema sino a su carácter dinámico, que podía explicarse en
términos de sueños y expectativas irracionales de dinastías privadas fun­
dacionales. Marx también insistió sobre el carácter singular del capitalis­
mo en la medida en que, al contrario de todos los modos anteriores de pro­
ducción, no se opone al cambio tecnológico sino que depende de él. A pesar
de lo cual, en su concepción materialista de la historia también argumen­
tó, en forma un tanto incoherente, que el desarrollo de las fuerzas produc­
tivas constituye el determinante principal del cambio social en todos los
modos de producción.
Debería resultar bastante obvio que no trato de presentar una intro­
ducción a las teorías del cambio tecnológico. En la mayoría de los casos el
lector tendrá que remitirse a otros textos para encontrar exposiciones de­
talladas de las diversas teorías analizadas en la segunda parte. El análi­
sis del marxismo en el capítulo 7 y en el apéndice 2 son un poco más ex­
haustivos, porque conozco mucho mejor esta tradición que las otras. Pero
aun en este caso, mi atención está guiada por intereses epistemológicos y

14
no por un interés hacia las cuestiones sustanciales. Esta obra es un estu­
dio casuístico sobre filosofía de la ciencia, no un recorrido a vuelo de pája­
ro sobre la ciencia. Una vez más, debería resultar bastante evidente que
no me propongo decir a los economistas e historiadores cómo deben reali­
zar su tarea. Pero creo que los filósofos de la ciencia pueden resultar de
gran ayuda para distinguir entre los núcleos de desacuerdo verdaderos y
espurios en el terreno de las disciplinas empíricas. Puede ser que el traba­
jo empírico realizado sin contacto con la filosofía de la ciencia no resulte
peor, por eso, mientras que la filosofía de la ciencia se atrofia si no se man­
tiene en contacto estrecho y permanente con el desarrollo del pensamien­
to actual sobre asuntos empíricos. De todos modos, la asimetría no es tan
extrema como para convertir a la filosofía de la ciencia en un enfoque to­
talmente parasitario.
Muchos científicos no tendrán ningún inconveniente en admitir esto
cuando se trata de problemas de verificación y falsación. Muy pocos nega­
rán que la metodología científica de Popper — básicamente una exhorta­
ción a los científicos a que se arriesguen— ha tenido una influencia apre­
ciable. En el nivel más técnico, la cuestión de la inferencia estadística ha
sido estudiada por filósofos de la ciencia y por científicos que trabajan pa­
ralelamente y a veces en colaboración. De todos modos, lo que me preocupa
en esta obra es la estructura de las explicaciones científicas. En tanto creo
que los problemas de verificación son básicamente los mismos en todas las
disciplinas, mi argumentación tenderá a mostrar que las diferencias de
objetos de estudio imponen estrategias diferentes de explicación. Voy a
distinguir entre explicaciones causales, funcionales e intencionales que
corresponden, en términos muy generales, a las ciencias físicas, biológicas
y sociales, respectivamente. Si bien admito que la explicación causal en
algún sentido o sentidos es más básica que las otras modalidades, voy a
tratar de demostrar que de todos modos hay lugar y necesidad para las
otras.
La dicotomía entre teorías de elección racional sobre el cambio tecno­
lógico y teorías evolucionistas corresponde —y una vez más tengo que ha­
blar en términos muy generales— a la distinción entre explicación inten­
cional y funcional. Sin embargo, como se verá, en muchos sentidos las ex­
cepciones a esta afirmación son los casos más interesantes. De hecho, no
sólo la ciencia, sino también la filosofía de la ciencia, tienen mucho para
ofrecer en el terreno del análisis pormenorizado, cuando las generaliza­
ciones más lábiles no se sostienen. La evolución tecnológica se diferencia
de la biológica en que los cambios están muy lejos de ser totalmente aza­
rosos, sino que en cierta medida son dirigidos. También son seleccionados
por un mecanismo en el cual la intencionalidad humana desempeña un
papel decisivo. Análogamente, no todos los modelos intencionales del
cambio tecnológico se pueden calificar como modelos racionales, puesto
que puede haber casos en que las expectativas subyacentes no están cons­
tituidas racionalmente. La falta de racionalidad en las expectativas pue­
de deberse a complejas interacciones estratégicas o a una incertidumbre
fundamental respecto del futuro, o a ambas cosas. Tal vez es la interac­
ción entre estas dos fuentes de ignorancia lo que otorga un matiz y una

15
profundidad singulares a la explicación del cambio tecnológico. Tomados
por separado, tanto los juegos sin solución como las decisiones tomadas en
condiciones de incertidumbre extrema causan estragos en los modelos de
elección racional. Cuando ambos operan en una determinada situación de
elección, el resultado es algo muy parecido al caos. Fuera de este caos, las
teorías evolucionistas son las que parecen estar en mejores condiciones de
explicar el progreso tecnológico real. Pero con esto me aparto de los lími­
tes que yo mismo me puse, de modo que vuelvo a ocuparme de asuntos
que están dentro de mi competencia.

16
PRIMERA PARTE

Modalidades de la
explicación científica
Introducción a la primera parte

En términos muy generales, la filosofía de la ciencia tiene dos tareas


principales. Una es explicar los rasgos que son comunes a todas las cien­
cias (o por lo menos a todas las ciencias empíricas), y la otra es dar cuen­
ta de lo que las diferencia unas de otras. Para comenzar con la segunda, la
distinción entre las ciencias naturales y las humanidades (Geisteswissens-
chaften) tiene una larga tradición. Dentro de las ciencias naturales se
puede distinguir, además, entre el estudio de la naturaleza inorgánica (o
física) y el estudio de la naturaleza orgánica (biología). Dentro de las hu­
manidades tal como se las ha definido tradicionalmente, se ha producido
una escisión entre las ciencias sociales (que defino en términos muy am­
plios como para incluir la lingüística, la historia y la psicología además de
las disciplinas más obvias) y las disciplinas estéticas o artes. Ahora bien,
estas distinciones temáticas no resultan en sí muy interesantes. Si hay
algo pertinente, debe surgir de que se las correlaciones con otras clasifica­
ciones. Voy a analizar tres de esos modos de clasificar a las ciencias: se­
gún el método, según el interés subyacente, y según la modalidad de expli­
cación.
Una concepción ampliamente sostenida indica que las ciencias se dis­
tinguen entre sí según los métodos característicos que utilizan. Según es­
te punto de vista, las ciencias naturales utilizan el método hipotético-de-
ductivo, las artes, el método hermenéutico y las ciencias sociales, el mé­
todo dialéctico. No siempre resulta claro si se trata de métodos para la
construcción de teorías o para su verificación, salvo el caso del método hi-
potético-deductivo que sin duda pertenece al último tipo. Voy a exponer
mis opiniones sobre este punto, en forma muy sucinta y sin mucha argu­
mentación. 1) El método hipotético-deductivo es el método de verificación
en todas las ciencias empíricas. Si el método hermenéutico se lo entiende
como un procedimiento de verificación, sólo puede ser una subespecie del
hipotético-deductivo. Para ser más preciso, el método hermenéutico es el
método hipotético-deductivo aplicado a fenómenos intencionales, con al­
gunos rasgos peculiares que se deben a la naturaleza de esos fenóme­
nos.! 1] 2) Si el método hermenéutico se concibe como un método de forma­
ción de teorías, coincide con la noción de explicación intencional. 3) El mé­
todo dialéctico como procedimiento de verificación supone algún tipo de
apelación a la “praxis”, es decir, a la idea de que las teorías sociales pue­
den ser al mismo tiempo agentes del cambio y explicaciones del cambio.

19
Sin embargo, esto es ambiguo porque puede significar o bien que las teo­
rías son autosuficientes, o que pueden ser instrumentales cuando se trata
de producir el cambio deseado. Me parece que la idea que subyace vaga­
mente cuando se utiliza la frase “unidad de teoría y praxis” es que la teo­
ría debe ser a la vez autosuficiente y útil, lo cual, lamentablemente, en la
mayor parte de los casos no es posible.[2] 4) El método dialéctico como he­
rramienta para la formación de teorías sólo puede entenderse de varios
modos, entre los cuales el más interesante implica la idea de contradiccio­
nes psicológicas y sociales. Sin embargo, éstas sólo pueden hacerse inteli­
gibles en el lenguaje estándar causal-cum-intencional de las ciencias so­
ciales. [3]
La conclusión de este análisis — excesivamente condensado— es que
no hay bases sólidas para distinguir entre las disciplinas científicas se­
gún sus métodos de verificación, con la excepción mencionada en la nota
1. Tampoco debe pensarse a la hermenéutica o a la dialéctica como méto­
dos para la formación de teorías que son de algún modo sui generis. En mi
opinión, tampoco es muy defendible la teoría de Jürgen Habermas de que
las ciencias se diferencian principalmente por los intereses a los que sir­
ven .^ ] Según esta teoría, las ciencias naturales atienden un interés téc­
nico, las ciencias hermenéuticas, un interés práctico, y las ciencias socia­
les, un interés emancipatorio. Esto puede ser tautológicamente cierto,
contingentemente cierto o contingentemente falso, según cómo se definan
luego los términos. A mi entender, la lectura más razonable de esta con­
cepción nos la presenta como falsa. Cada una de las tres disciplinas cientí­
ficas puede atender a cada uno de los tres intereses, aunque quizás en di­
ferentes grados y (sobre todo) de modos diferentes. No quiero entrar en
mayores detalles sobre esta cuestión, puesto que creo que, se la lea como
se la lea, la teoría es singularmente poco útil para el científico práctico, y
esto significa que no pasa la prueba de fuego de cualquier filosofía de la
ciencia. El lenguaje de los intereses sencillamente es demasiado crudo y
externo respecto de la práctica científica como para poder combinarse ade­
cuadamente con el grano fino de la investigación real.
En este punto voy a esbozar mi propia explicación de cómo se diferen­
cian las ciencias entre sí. Mi argumento será que la distinción más escla-
recedora y fecunda es la que se hace entre diversas modalidades de expli­
cación científica que, una vez más, están estrechamente conectadas con
estrategias de formación de teorías. Sólo ciertos tipos de teorías pueden
llegar a dar explicaciones satisfactorias en un campo determinado. Por
una parte, distingo entre tres modalidades de explicación: la causal, la
funcional y la intencional. Por otra parte, distingo entre tres campos de
investigación científica: física (en el sentido amplio al que me referí ante­
riormente), biología y ciencias sociales. Por razones que no son pertinen­
tes para el presente estudio, no creo que las disciplinas estéticas puedan
lograr explicaciones científicas o deban tender a lograrlas. El desacuerdo
sobre este punto no significa que no puedan aceptarse los argumentos si­
guientes.
Ahora la pregunta es: ¿qué tipos de explicación son adecuados, carac­
terísticos y pertinentes para qué campos de investigación? En el cuadro 1

20
aparecen dos tricotomías cruzadas entre sí, de modo que cuando una de­
terminada modalidad de explicación es claramente pertinente para un
campo dado, la entrada correspondiente dice: “Sí”, y cuando es claramen­
te irrelevante, la entrada dice “No”. En los casos en que hay motivos de
duda la entrada es En última instancia los casos dudosos resultarán
asimilables a los indudablemente irrelevantes, pero será necesario argu­
mentar mucho para explicar en qué sentido esto es cierto, y con qué al­
cances.

Cuadro 1

Física Biología Ciencia social

1 4 7
Explicación Explicación
¿Se aplica la subfuncional subintencional
explicación Si Sí Sí
causal? Explicación Explicación
supra funcional supraintencional

2 5 8
¿Se aplica la
explicación No Sí ?
funcional?

3 6 9
¿Se aplica la
explicación No ? Sí
intencional?

En la primera parte propiamente dicha voy a analizar en detalle qué


significan las diversas categorías del cuadro. Por el momento me limito a
presentar breves comentarios sobre cada una de las nueve entradas.
1) La explicación causal es la única modalidad de explicación en físi­
ca, y la física es el ejemplo y el modelo estándar de una ciencia que utiliza
la explicación causal. Más adelante, en las sucintas observaciones sobre
física que haré en el capítulo 1, me limitaré en la mayor parte de los casos
a la física clásica, anterior a la teoría de la relatividad y a la física cuán­
tica.
2) Las explicaciones funcionales suponen, para anticipar, nociones ta­
les como beneficios, adaptación, selección y evolución. Podría parecer ob­
vio que no hay lugar para todo esto en la física, pero hay quienes no lo han
creído así. C. S. Peirce consideró que el universo realmente existente es
sólo una de las múltiples configuraciones posibles de átomos, seleccionada

21
— por algo parecido a una cadena de Markov absorbente— a causa de su
estabilidad. [5] Pero no creo que haya físicos que suscriban hoy este punto
de vista. Aunque a veces se sostiene que las constantes fundamentales de
la física cambian con el tiempo; que yo sepa nadie ha señalado que ese
cambio pueda concebirse como evolución o progreso.
3) También existe hoy un acuerdo generalizado de que no hay lugar en
la física para la explicación intencional o teleológica, pero este consenso es
relativamente reciente. La cuestión es mucho más compleja y va más alió
de la explicación funcional en física. La extensa tradición aristotélica en el
campo de la física, finalmente quebrada por Galileo, a mi entender hoy no
es admisible.[6] Pero el razonamiento teleológico en física de ninguna ma­
nera desapareció con la revolución científica del siglo XVII. Durante mucho
tiempo se pensó que el principio del menor tiempo y otras formulaciones
variacionales de las leyes físicas tenían una base teleológica. Al parecer,
la luz era capaz de un comportamiento inteligente, de tomar caminos indi­
rectos para llegar a la meta en el mínimo tiempo posible.[7] Análogamen­
te, otros procesos de la naturaleza parecían reducir al mínimo la acción, la
energía o el trabajo. Puesto que todo proceso físico puede describirse como
la minimizadón o maximización de algo,[8] es fácil caer en la idea de que
debe de haber un sujeto — alguien que minimiza o maximiza— como guía
del proceso. Por lo menos ésta fue una noción admisible en tanto los físicos
supusieron que funcionaba una intencionalidad divina en el universo físi-
co.[9] Con la secularización de la física, ya no resulta posible sacar la con­
clusión retrospectiva de que existen intenciones de maximizar a partir de
conductas de maximización.[10] Tampoco existe ninguna otra manera de
explicar por ejemplo la conducta de un péndulo, por la tendencia a reducir
al mínimo la energía potencial.[ll] Las fuerzas que actúan en el péndulo
explican tanto por qué se mueve como lo hace y también por qué tiende a
reducir al mínimo la energía potencial. Este último efecto no tiene capaci­
dad explicativa por sí mismo.
4) Por supuesto, la biología invoca en forma decisiva la explicación
causal. De hecho, la explicación funcional en la biología sólo está justifica­
da cuando creemos en la verdad de una determinada teoría causal, que es
la teoría de la evolución por selección natural. Por causalidad subfuncio­
nal en biología, entiendo los errores o mutaciones accidentales que, por
una parte hacen posible la selección y la evolución natural, y por otra par­
te son responsables de fenómenos tales como el envejecimiento y el cáncer.
Estos errores no tienen ninguna función, contrariamente a la idea popular
de que la función de las mutaciones es la de permitir y estimular la evolu­
ción de la vida en la Tierra.[12] Por causalidad suprafiincional entiendo la
interacción causal de muchos organismos individuales, cada una de cuyas
conductas puede ser explicada füncionalmente. Por ejemplo, existen aná­
logos biológicos de “consecuencias no queridas” de la conducta individual.
5) La biología es el paradigma de la explicación funcional, tanto como
la física lo es para la explicación causal, y la ciencia social para la intencio­
nal. La estructura de la explicación funcional en biología la presento en el
capítulo 2. En este punto sólo voy a formular la conclusión de ese análisis:
un rasgo estructural o un esquema de conducta de un organismo se expli­

22
ca fúncionalmente cuando se muestra que forma parte de un máximo local
para el organismo respecto de su capacidad reproductora.
6) La explicación intencional en biología prácticamente nadie la sus­
tenta hoy, como lo hicieron los biólogos predarwinianos, quienes no po­
dían explicar la adaptación de los organismos salvo si postulaban la exis­
tencia de un creador divino. Sin embargo, creo que algunos biólogos y filó­
sofos de la ciencia han sido llevados a subestimar las diferencias entre la
adaptación funcional y la intencional, de modo tal que en realidad razo­
nan como si la evolución de los organismos fuera guiada por algún agente
intencional. Así, atribuyen a la selección natural la capacidad de simular
algunas de las formas más complejas de adaptación intencional, como por
ejemplo la capacidad para utilizar estrategias indirectas. Contra esto voy
a argumentar que tal simulación, si bien no es imposible, es mucho menos
característica de la selección natural que la tendencia a llegar al reposo
en la máxima local lograda por la adaptación creciente.
7) La explicación causal en las ciencias sociales puede entenderse en
un marco parcialmente semejante al que se utiliza para el análisis de la
causalidad biológica. En primer lugar, todos los fenómenos cubiertos por
la explicación intencional también pueden explicarse causalmente, aun­
que la relación es bastante diferente de la que se da entre el análisis fun­
cional y el causal. En segundo lugar, aun aquellos que no estén de acuer­
do con este punto de vista, deben aceptar que existe algún lugar para la
explicación causal en el análisis de la conducta humana. Interviene la
causalidad subintencional en las operaciones mentales que no están regi­
das por la voluntad o la intención, sino que se producen —hablando meta­
fóricamente— “en el fondo” de ese individuo. La causalidad suprainten-
cional se refiere a la interacción causal entre actores intencionales. (Ade­
más existe la interacción intencional entre actores intencionales que es la
estudiada por la teoría de los juegos.)
8) La más controvertida de las afirmaciones que se exponen en esta
obra es la negación del papel de la explicación funcional en las ciencias
sociales. Aquí no me refiero a explicación funcional en el sentido mencio­
nado anteriormente, que supone el beneficio puramente biológico del
incremento de la capacidad de reproducción. Ese tipo de razonamiento
biológico tiene un lugar en el estudio de la conducta humana, aunque muy
limitado. Pero aquí me refiero a explicaciones de fenómenos sociales en
términos de beneficios no biológicos. No me atrevería a negar que tales
consecuencias beneficiosas puedan explicar sus causas aun cuando los be­
neficios no sean biológicos, siempre que se especifique algún mecanismo
de realimentación. En biología la teoría de la selección natural crea la pre­
sunción de que todo lo que beneficie a la capacidad reproductiva también
puede ser explicado por esos beneficios. En ciencias sociales no existe una
teoría de generalidad comparable, de modo que el verdadero mecanismo
debe ser explicado en cada caso particular.
9) El bloque básico en las ciencias sociales, la unidad elemental de ex­
plicación, es la acción individual guiada por alguna intención. Me propon­
go argumentar que la adaptación intencional difiere de la funcional en
que la primera puede estar dirigida hacia el futuro distante, mientras que

23
la última es típicamente miope y oportunista. Los seres intencionales pue­
den emplear estrategias del tipo “un paso atrás y dos adelante”, las que se
dan sólo por accidente en la evolución biológica. También analizo con cier­
ta extensión la relación entre intencionalidad, racionalidad y optimiza­
ción, y sostengo que están mucho menos estrechamente relacionadas de lo
que suele suponerse. Hay intenciones irracionales, o planes que implican
contradicciones lógicas, y también existen casos en los que la acción racio­
nal conduce a la satisfacción y no a la optimización.
Tales son, pues, el esquema escueto de la información que se llenará
de contenido en los capítulos ulteriores. Para concluir esta introducción,
voy a plantear y contestar parcialmente dos cuestiones relacionadas que
son básicas para mi empresa total. En primer lugar, la relación entre ex­
plicaciones causales y los otros modos de análisis, y en segundo lugar, la
relación entre macroexplicaciones y microexplicaciones.
Tal vez el lector se haya formulado las siguientes preguntas. ¿Es real­
mente admisible concebir en un pie de igualdad las explicaciones causa­
les, funcionales e intencionales? En realidad ¿no se trata de que la expli­
cación causal sea el modo del razonamiento científico, y que las otras
explicaciones son abreviaturas convenientes o expedientes temporarios,
dilucidaciones de segunda mano de las que se puede en principio prescin­
dir? Y en particular, una concepción materialista del mundo ¿no implica
que el objetivo de todo esfuerzo científico debe ser explicarlo todo en térmi­
nos de causa y efecto?
Acabo de señalar que la explicación funcional de hecho es menos fun­
damental que la explicación causal. Podemos utilizar la explicación fun­
cional en biología porque tenemos una teoría causal — la teoría de la evo­
lución por selección natural— que nos permite explicar los fenómenos or­
gánicos mediante las consecuencias que son beneficiosas en términos de
la capacidad de reproducción. Aun si en un caso determinado, no estamos
en condiciones de explicar la totalidad del mecanismo causal, tal vez po­
damos adelantar una explicación en términos de esas consecuencias be­
neficiosas. Es cierto que a lo mejor esto nos lleve por el camino equivoca­
do, porque un fenómeno puede tener consecuencias beneficiosas que no
pueden invocarse para explicarlo, pero en biología esto ocurre con muy es­
casa frecuencia. [13] Y si a “beneficiosa” le agregamos “óptima”, la fre­
cuencia con que aparecen beneficios no explicativos se acercará bastante
a cero.[14] Sigue siendo cierto que la explicación funcional no proporciona
una respuesta completa a la pregunta: “¿Por qué el organismo está or­
ganizado como lo está?”. Algunos rasgos quedarán sin explicación, e in­
clusive los que resultan explicados, lo están en forma incompleta. Com­
prendemos bastante cuando sabemos que un rasgo está allí a causa de sus
consecuencias beneficiosas, pero lo comprenderíamos mucho mejor si co­
nociéramos toda la historia de cómo llegó allí. Pero decir que un vaso está
medio vacío es lo mismo que decir que está medio lleno; por supuesto la ex­
plicación funcional explica, aunque en forma incompleta.
La relación entre explicación funcional y causal es mucho más comple­
ja y polémica. Analizarla adecuadamente es algo que escapa a mi compe­
tencia. Por lo tanto, me daré por satisfecho con exponer sin mucha argu­

24
mentación la concepción que me parece la más admisible, la de Donald
Davidson.[15] Dentro de esta concepción es posible ser materialista en la
cuestión referida a mente-cuerpo, sin ser además reduccionista. Los esta­
dos mentales por supuesto son estados cerebrales, pero esto no significa
que hablar de estados mentales pueda reducirse sin ninguna ambigüedad
a hablar de estados cerebrales.
Para explicar esto un poco mejor, voy a utilizar “x” como variable indi­
vidual y “a” como constante individual, que denota a alguna persona de­
terminada. Decir “a cree que Beethoven murió en Viena” es un enunciado
acerca de la persona a, mientras que ux cree que Beethoven murió en Vie­
na” es un predicado que puede aplicarse a una determinada persona, co­
mo a, al reemplazar su nombre por “x”. En este sentido Davidson es mate­
rialista porque cree que el hecho expresado por el enunciado “a cree que
Beethoven murió en Viena” puede ser descrito en forma exhaustiva por al­
gún enunciado neurofisiológico (presumiblemente muy complejo). El enun­
ciado, si es verdadero, lo es porque una determinada persona en una si­
tuación dada cree que Beethoven murió en Viena, y una descripción fisio­
lógica completa de la persona en esa situación contendría también una
descripción (en términos fisiológicos) de su creencia de que Beethoven
murió en Viena. Por otra parte, Davidson es antirreduccionista porque
piensa que el predicado “x cree que Beethoven murió en Viena” no es ex-
tensionalmente equivalente a cualquier predicado neurofisiológico. “Si un
determinado concepto psicológico se aplica a un acontecimiento y no a
otro, debe de haber una diferencia describible en términos físicos. Pero de
esto no se sigue que existe una única diferencia describible físicamente
que distingue a cualquiera de dos acontecimientos que difieren en un as­
pecto psicológico dado.[16] Por lo tanto, concluir que a partir del materia­
lismo se es reduccionista es cometer la misma falacia que cuando del he­
cho de que todo tiene una causa, se concluye que hay algo que es la causa
de todo.
Una consecuencia de la concepción de Davidson es que las acciones
son causadas por creencias y deseos. Por supuesto, decir que lo que hace
el agente, p, fue causado por el deseo de hacer de p, no es dar una explica­
ción causal. Es sólo parafrasear la explicación intencional de modo de in­
dicar la existencia de alguna explicación causal (desconocida). De todas
maneras, no me faltará oportunidad de utilizar este lengutqe de las creen­
cias y deseos que provocan acciones, ya que resulta muy conveniente para
muchos propósitos. En particular es muy útil para establecer un modo co­
herente de hablar acerca de los fenómenos irracionales.
Por lo tanto, creo que la explicación intencional es algo sui generis en
un sentido que no vale para la explicación funcional. Se puede usar la ex­
plicación causal, se puede hablar acerca de todo lo que existe, pero eso no
nos permitirá distinguir los fenómenos mentales de todo lo demás que
existe. Una analogía tomada de la matemática puede resultar esclarece-
dora. Existe una axiomatización determinable del sistema de los números
reales en la cual, sin embargo, es imposible definir el conjunto de los nú­
meros naturales. De hecho, esto debe de resultar imposible, puesto que de
otro modo tendríamos un procedimiento de decisión para la teoría de los

25
números naturales, lo cual se sabe que es imposible.[17] Utilizando el sis­
tema axiomático, podemos hablar de todos los números que existen, pero
no estaremos en condiciones de distinguir los números naturales de todo
lo demás que existe.
Sea como fuere, resulta claro que para propósitos prácticos, tratamos
las explicaciones intencionales y causales como algo enteramente distin­
to. Cuando empleamos una explicación funcional, en general ya sabemos,
por lo menos a grandes rasgos, cómo se la podría respaldar con un relato
causal adecuado. Pero en el estado actual de nuestros conocimientos, no
podemos tener ni siquiera un esbozo de cómo se relacionan las explicacio­
nes intencionales con los análisis causales de los mismos fenómenos. Aun
si en algún momento del futuro, Davidson se uniera a la línea de distin­
guidos pensadores que han declarado que en principio era imposible ha­
cer algo que los científicos luego pudieron llevar a la práctica, por el mo­
mento y para mayor seguridad, los epistemólogos consideran las dos pers­
pectivas como algo radicalmente diferente.
La segunda cuestión se refiere al tipo de hechos que pueden entrar en
una explicación científica. Dentro de una disciplina científica determina­
da, por lo general habrá conceptos definidos en diferentes niveles de orga­
nización y complejidad. En la física hay moléculas, átomos, partículas ele­
mentales y demás, en una cadena descendente aparentemente intermi­
nable. En biología hay ecosistemas, poblaciones, organismos, órganos,
células y genomas; en las ciencias sociales hay sociedades, organizacio­
nes, industrias, empresas, familias e individuos. En cualquiera de los ni­
veles se pueden plantear problemas e incógnitas pero ¿en qué nivel hay
que buscar la solución? En particular, ¿se pueden explicar hechos de un
nivel altamente integrado por otros hechos del mismo nivel, o hay que
buscar la explicación en hechos de nivel menor?
Hablando en términos generales, la práctica científica consiste en
buscar una explicación en un nivel inferior al del explanandum. Si quere­
mos comprender la patología del hígado, buscamos la explicación en la
biología celular. Si queremos entender las cadenas químicas, la mecánica
cuántica proporciona la explicación. Si queremos comprender las revolu­
ciones sociales, buscamos una explicación en las acciones y motivaciones
individuales. La búsqueda de microbases, para usar un término de moda
en las polémicas recientes en el campo de la economía,[ 18] en realidad es
un rasgo de la ciencia omnipresente y generalizado. Esto se corresponde
con la insistencia de William Blake en que “El arte y la ciencia no pueden
existir más que en particulares detalladamente organizados” . Explicar es
proporcionar un mecanismo, abrir la caja negra y mostrar las tuercas y
tornillos, las piezas y las ruedas de la maquinaria interna. (Aquí el térmi­
no “mecanismo” debe entenderse en un sentido muy amplio, que abarque
cadenas intencionales que van desde un objetivo a una acción, lo mismo
que cadenas causales desde un acontecimiento hasta su efecto.)
El papel de los mecanismos es doble. Primero, nos permite ir de lo
más grande a lo más pequeño: de moléculas a átomos, de sociedades a in­
dividuos. Segundo y principal, reduce el vacío temporal entre explanans y
explanandum. Un mecanismo proporciona una cadena continua y conti­

26
gua de vínculos causales o intencionales; una caja negra es un vacío en la
cadena. Si consideramos a los mecanismos desde la primera perspectiva,
son siempre relativos. “Desde el punto de vista ya sea de la investigación
científica o del análisis filosófico, legítimamente se puede decir que el me­
canismo de un hombre es la ctya negra de otro. Quiero decir con esto que
los mecanismos postulados y utilizados por una generación son mecanis­
mos que han de ser explicados y comprendidos por las siguientes genera­
ciones en términos de mecanismos más primitivos.”[19) Sin embargo,
visto desde la segunda perspectiva, podría parecer que los sistemas de
ecuaciones diferenciales simultáneas encaman el caso de no vacío tempo­
ral entre explanans y explanandum. Si esto fuera verdaderamente así,
proporcionarían la forma canónica de explicación científica, una explica­
ción que no podría mejorarse. Tales sistemas, sin embargo, son siempre
artificiales, puesto que las variables nunca se desagregan en la misma
medida. Establecer una relación entre macrovariables como renta nacio­
nal, inversión y consumo mediante un conjunto de ecuaciones diferencia­
les, puede ser conveniente para propósitos de análisis, pero sin duda
distorsiona la representación de la realidad. Debe haber intervalos entre
macrovariables.[20] Podemos concluir que, aunque el propósito de un me­
canismo es reducir el intervalo temporal entre causa y efecto, el éxito de la
reducción depende de la medida en que las macrovariables sean reempla­
zadas simultáneamente por microvariables.

27
1

Explicación causal

El análisis de la relación causal y de la explicación causal plantea pro­


fundas cuestiones filosóficas, que necesariamente caen fuera del alcance
de esta exposición, aun cuando estuvieran dentro de mi competencia.
Afortunadamente, ahora puedo remitir al lector a un completo y excelente
estudio, Hume and the Problem o f Causation, de Tom L. Beauchamp y
Alexander Rosenberg. Por lo tanto, me limitaré a efectuar algunos comen­
tarios bastante amplios sobre la cuestión general de la causación y la ex­
plicación causal, y luego voy a analizar en términos un poco más específi­
cos la explicación causal en las ciencias sociales e históricas.

a. Explicación causal: en general


La cuestión de la naturaleza de la causación debe distinguirse muy
claramente de la de la explicación causal. La relación causal se da entre
acontecimientos, en virtud de una conjunción regular entre hechos de ese
tipo. Esta es la concepción humana de la causación, expuesta y defendida
por Beauchamp y Rosenberg. Por el contrario, los explanando de las expli­
caciones causales pueden ser hechos de cualquier tipo: el hecho de que un
acontecimiento tuvo lugar o el hecho de que se da algún estado de cosas.
Por el momento me limitaré a la explicación causal de los acontecimientos
y dejaré para más adelante el análisis de la explicación de los estados de
cosas. Otra diferencia es que la explicación causal depende de la mente,
mientras que la relación causal no. Cuando citamos un acontecimiento co­
mo causa de otro, como lo hacemos en el caso de la explicación causal, só­
lo podemos mencionar algunos rasgos de la causa. Pero por supuesto lo
que actúa como causa es el acontecimiento completo; de hecho no puede
haber un acontecimiento incompleto. “Si un acontecimiento causó otro es
una cuestión aparte de por qué lo causó. La descripción de un aconteci­
miento por medio de sus rasgos causalmente irrelevantes recogerá la mis­
ma causa, aun cuando no proveerá una explicación de por qué tuvo ese
efecto en particular.”[1] Los rasgos causalmente pertinentes son aquellos
que se mencionan en la ley causal que enuncia la conjunción regular bajo
la que queda subsumido el par de acontecimientos. Así, los enunciados
causales verdaderos y singulares no siempre proporcionan una explica­
ción causal. Dan una explicación sólo cuando los rasgos mencionados en el

28
enunciado también están mencionados en la ley bajo la cual quedan sub­
sumidos los acontecimientos. El enunciado, suponiendo que sea verdade­
ro, de que “poner en un estante un ejemplar de la Fenomenología de Hegel
causó la rotura del estante” no explica nada, porque el rasgo causalmente
pertinente, es decir, el peso del libro, no se menciona.[2]
La explicación causal, entonces, subsume los acontecimientos bajo le­
yes causales. Esta concepción de la explicación se relaciona, aunque con
algunas diferencias, con la “ley de cobertura” o modelo “nomológico-de-
ductivo” de Cari Hempel. Según Hempel las leyes que sostienen la expli­
cación son enunciados universales legaliformes a partir de los cuales, da­
do un conjunto de condiciones iniciales, se puede derivar lógicamente el
explanandumX3] Este análisis no da cuenta de la explicación causal,
puesto que permite entrar a leyes no causales como la Ley de Boyle, en la
cual la temperatura, el volumen y la presión del gas varían funcional y si­
métricamente de un modo en que no lo hacen las secuencias causales.[4]
Lo que es más importante, el análisis de Hempel no da cuenta de la expli­
cación causal, puesto que muchas derivaciones del tipo especificado no se
explican en absoluto. Dos casos importantes son los que, siguiendo a Da­
vid Lewis, podemos denominar epifenómenos y causación precedente. [5]
Puede haber un enunciado universal, legaliforme y verdadero que diga
que A siempre es seguido por B, y sin embargo B puede ser un simple epi­
fenómeno si A y B son ambos efectos de una causa común C. En otras pa­
labras, el problema de los epifenómenos es idéntico al problema de distin­
guir entre la correlación verdadera (o explicativa) y la espuria. Además,
puede haber una ley verdadera que asegure que se produce A, dadas cier­
tas condiciones iniciales, y sin embargo, lo que verdaderamente produce
A en un caso determinado (donde se dan esas condiciones) puede ser un
mecanismo totalmente diferente que, por así decirlo, precede al mecanis­
mo que subyace en esa ley. En otros términos, el problema de la causación
precedente es idéntico al de distinguir entre obligación y explicación.[6]
Estos dos problemas volveré a retomarlos más adelante, cuando analice
la relación entre enunciados causales y contrafácticos.
Por lo general se piensa que la relación causal obedece a los tres prin­
cipios siguientes: determinismo, localidad, asimetría temporal. Los anali­
zaré sucintamente en ese orden, prestando especial atención al papel que
desempeñan en la restricción de la explicación causal. Excepcionalmente
la relación causal en sí puede violar esos principios, pero con mucha ma­
yor frecuencia aparecen explicaciones causales que no los obedecen.
Determinismo es el postulado que dice que todo acontecimiento tiene
una causa: un conjunto determinable de antecedentes causales que en
conjunto son suficientes e individualmente necesarios para que se pro­
duzca. La negación del determinismo puede asumir varias formas distin­
tas. La más conocida es la idea de acontecimientos estadísticamente alea­
torios, lo que supone la existencia de una distribución probabilística del
rango de resultados posibles. En este sentido el azar objetivo no es total­
mente indeterminado, puesto que la ley de los grandes números permite
predicciones muy precisas cuando tratamos con conglomerados de aconte­
cimientos. Menos conocida es la idea de indeterminación objetiva, que sig-

29
niñea que no podemos siquiera atribuir probabilidades a los diversos re­
sultados posibles, no porque no podamos averiguarlas sino porque no es­
tán allí para que se las averigüe. La distinción es parecida a la que se da
entre riesgo e incertidumbre (apéndice 1), con la diferencia de que en el ca­
so presente el azar o carácter indeterminado del proceso se supone que tie­
ne una base objetiva y no se debe a las deficiencias cognitivas del sujeto
cognoscente. Más aun, esta comparación también indica la distinción en­
tre incertidumbre en el rango de los resultados e incertidumbre dentro de
un conjunto fijo de resultados.[7] Desde el punto de vista explicativo, la in­
determinación con regularidad (azar objetivo o conjunto restringido de re­
sultados posibles) es claramente más admisible que la indeterminación
sin regularidad (indeterminación objetiva no restringida).
Los mecanismos cuánticos se basan en la idea del azar objetivo en el
nivel de la conducta de las partículas elementales. En este terreno la ex­
plicación sólo puede ser estadística. Puede ser bastante satisfactoria se­
gún los cánones ordinarios, pero la ciencia en sí nos dice que no vendrá
una explicación mejor. La situación es completamente diferente cuando
recurrimos a la explicación estadística en otros terrenos, como por ejem­
plo la mecánica estadística o el estudio de la movilidad social. En estos ca­
sos suponemos que las entidades individuales en estudio están regidas
por leyes deterministas y que en principio se puede elaborar una explica­
ción determinista. Sin embargo, puede haber abrumadoras razones prác­
ticas para poner patrones de explicación más bajos y quedarse contento
con una explicación estadística. Un poco más adelante vuelvo a esta cues­
tión. Aquí sólo me interesa destacar la diferencia radical entre la explica­
ción estadística en la mecánica cuántica y en otras disciplinas. Cuando
salimos de la física de las partículas elementales y ascendemos hacia
niveles más altos de variables, en primer lugar pasamos del azar al deter-
minismo y luego, en algunos casos, del determinismo al azar. Tanto la me­
cánica estadística como la cuántica son teorías de los procesos accidenta­
les, pero en medio de ellas está la teoría determinista de la conducta de
las moléculas individuales.[8]
Causalidad local significa que una causa siempre actúa sobre lo que
es contiguo a ella, en espacio y tiempo. La acción a distancia es imposible.
Si se dice que una causa tiene un efecto distante de ella en tiempo o espa­
cio, suponemos que debe de haber una cadena continua de causa a efecto,
sin vacíos insuperables en ella. En la historia de la ciencia este postulado
desempeñó un papel muy importante en el debate producido en el siglo
XVn entre newtonianos y cartesianos. Estos últimos, con razón en muchos
sentidos, consideraron la teoría de Newton como oscurantista y reacciona­
ria, puesto que invocaba una fuerza oculta que podía actuar donde no es­
taba. Pero por supuesto la alternativa que ellos proponían, si bien inobje­
table sobre bases metafísicas, no tenía el extraordinario poder predictivo
de la mecánica newtoniana y de esta manera permaneció en las sombras
durante dos siglos hasta que fue rehabilitada por la moderna teoría de la
gravitación.
En el caso de Newton contra los cartesianos, lo que estaba en juego
era la acción espacial a distancia. Pero existe también un problema acerca

30
de la acción temporal a distancia, o causación directa remota. Esta noción
se denomina histéresis y se utiliza en el estudio de algunos fenómenos
magnéticos y elásticos que aparentemente manifiestan algún tipo de
memoria. Leibniz, con su insuperable lucidez, reconoció que, si se la toma
literalmente, la idea era tan inaceptable'como su análogo espacial mejor
conocido. En este sentido tuvo que polemizar contra los partidarios carte­
sianos, quienes trataban de salvar la teoría del movimiento de Descartes
postulando que la “fuerza” de un cuerpo en cualquier momento dado
depende de la longitud del período durante el cual se haya acumulado. Es­
to para Leibniz era tan absurdo como pretender afirmar que la salud ac­
tual de una persona depende del tiempo que haya utilizado para acumu­
larla.^]
Postular la histéresis es violar “el dogma científico ampliamente di­
fundido de que todos los aspectos del conocimiento histórico pueden ser
reemplazados en última instancia y en principio por un conocimiento es­
tructural suficientemente profundo del estado actual de ios fenómenos en
cuestión” .[10] Si no obstante muchos modelos, especialmente en las cien­
cias sociales, manifiestan histéresis, es porque todavía no hemos adquiri­
do ese conocimiento estructural. Tanto los modelos probabilísticos como
los modelos que implican acción temporal remota reflejan nuestra igno­
rancia de la causalidad local determinista que se supone que funcio-
n a .[ll] La explicación causal en tales casos tiene rasgos que no se cree
que estén presentes en las relaciones causales que los sostienen.
En algunos casos podemos suplir esta ignorancia recurriendo alterna­
tivamente al azar o a la histéresis. Este es el caso, por ejemplo, de las ca­
denas de Markov de alto orden, en las cuales las probabilidades de transi­
ción de un período al siguiente dependen no sólo del estado actual del sis­
tema, sino también de estados anteriores.[12] Un ejemplo es el pronóstico
meteorológico, donde el conocimiento de la temperatura de hoy y de ayer
sirve mejor para predecir que sólo el conocimiento de la temperatura de
hoy. Por el contrario, las cadenas de primer orden encaman el “supuesto
markoviano” de que las probabilidades de transición dependen solamente
del estado actual. No es correcto sostener que este supuesto es el “análogo
probabilístico al principio del determinismo científico”.[13] Las cadenas
de primer orden conservan la causalidad local pero violan el determinis­
mo, y éstos son principios reguladores distintivos.
Resultará claro por el momento que el principio de causalidad local se
relaciona con lo que denominé anteriormente como la necesidad de meca­
nismos de explicación científica. Más aun, los dos conceptos gemelos, el de
causalidad local en el espacio y causalidad local en el tiempo, se relacio­
nan con los dos aspectos de los mecanismos que denominé sustitución de
macrovariables por microvariables y de intervalos de corto plazo por otros
más prolongados. Pero la causalidad local es un rasgo del mundo, es decir,
de la relación causal en la medida en que existe independientemente de
nuestra mente, mientras que la idea de mecanismo depende de la mente,
puesto que sólo tiene sentido en contraste con explicaciones menos sutiles.
La creencia en que el mundo está regido por la causalidad local es precisa­
mente lo que nos obliga a buscar mecanismos mucho más sutiles. Por últi­

31
mo, debe quedar claro que la causalidad local nos indica la salida de las di­
ficultades que enfrentó la teoría de la explicación de Hempel, puesto que
la cuestión de los epifenómenos y de la causalidad precedente no se plan­
tea cuando postulamos cadenas causales continuas y contiguas. Pero tam­
bién queda claro que cualquier mecanismo real tiene que ser demasiado
grueso para evitar estas dificultades. La diferencia entre la concepción de
Hempel y la que aquí se expone reside en que yo he argumentado que la
explicación debe abandonarse siempre y cuando una especificación más
refinada del mecanismo muestre que lo que creíamos que era causación en
realidad era un epifenómeno o causación precedente.
Asimetría temporal significa que una causa debe preceder a su efecto,
o por lo menos no sucederlo. El aspecto controvertido de este principio se
refiere a la diferencia entre las dos formulaciones que se acaban de dar.
¿Puede un efecto ser simultáneo con su causa? Volveré a esta pregunta
más adelante. Aquí quisiera observar que el principio de asimetría tem­
poral puede generalizarse a partir de la explicación causal a cualquier ti­
po de explicación: el explanans no puede seguir al explanandum. Respecto
de la explicación intencional esto se sigue del hecho de que no explicamos
la conducta intencional por las consecuencias reales que se derivan de
ella, sino sólo por las consecuencias previstas, que pueden no haberse
cumplido o que inclusive pueden ser irrealizables. Podría parecer que la
explicación funcional viola el principio generalizado, puesto que en este
caso los fenómenos son explicados por sus consecuencias reales.[14] Pero
la conclusión que se debe sacar no es que el efecto retroactivo es posible,
sino que el explanandum debe ser una entidad que perdura en el tiempo y
no un acontecimiento que se produce una sola vez. Si fuéramos a decir, por
ejemplo, que el delito ha de explicarse por sus efectos beneficiosos para la
competencia capitalista, eso sólo puede significar que el delito en el tiem­
po t tiene consecuencias beneficiosas que mantienen y sostienen el delito
en algún tiempo posterior t‘.
Los tres principios de causalidad son lógicamente independientes. Só­
lo afirmaré esto respecto de los dos primeros principios, puesto que el ter­
cero no presenta ninguna dificultad (ni interés) en este sentido. Con deter-
minismo sin causalidad local, apelamos al pasado para explicar el presen­
te y predecir el futuro. Supongamos, por ejemplo, que se ha demostrado
que el siguiente enunciado es falso: siempre que dos sistemas (de un tipo
dado) son idénticos en el tiempo t, también son idénticos en todos los tiem­
pos posteriores. A partir de esto podemos concluir la falsedad del determi-
nismo, pero no necesitamos hacerlo. Podemos conservarlo si el siguiente
enunciado es verdadero: toda vez que dos sistemas han sido idénticos has­
ta t inclusive, serón idénticos en todos los tiempos posteriores. Para que el
primer enunciado sea verdadero y el segundo falso, debe haber alguna
histéresis real en el sistema. Se ha señalado, por ejemplo, que el aparente
indeterminismo de la mecánica cuántica puede suprimirse tomando en
cuenta la historia pasada de las partículas.!! 15] Pero la solución estándar
es la contraria, o sea conservar la causalidad local y abandonar el deter-
minismo. Esto supone rechazar los dos enunciados que acabamos de men­
cionar y aceptar el siguiente: toda vez que dos sistemas son idénticos en el

32
tiempo t, tendrán idéntica distribución de probabilidades para su desarro­
llo futuro.
En realidad, el status epistemológico de las tres propiedades de la re­
lación causal es una cuestión problemática. Tal vez la mejor respuesta sea
la siguiente. Invariablemente se encuentra que los principios funcionan
en el nivel molar, el de los objetos aproximadamente comparables por su
tamaño a los seres humanos. Por el tipo de mecanismo que tan bien des­
cribió Hume, esto ha llevado a creer en su absoluta necesidad, tanto en el
caso de objetos menores como mayores que aquellos que podemos manipu­
lar y observar. Los filósofos han tratado de comprender la naturaleza de
esta necesidad y también sus fundamentos. Pero la ciencia recientemente
ha llegado a cuestionar y —en el caso del determinismo— a rechazar los
principios sobre bases empíricas. Y si se los puede cuestionar sobre bases
empíricas, aparentemente serían de carácter empírico, aun si en algún
tiempo posterior llegaran a ser reafirmados. Sin embargo, este último pa­
so no es obvio. Si el análisis científico futuro conduce a una rehabilitación
del determinismo, podría hacerlo de un modo tal que lo hiciera aparecer
como verdaderamente necesario, en alguno de los muchos sentidos de es­
te término.
Sin embargo, sea como fuere, el científico que no trabaja en física ató­
mica probablemente pueda continuar invocando los principios con relati­
va buena conciencia, no sólo en el nivel molar sino también en el caso de
los fenómenos micro y macro que están fuera del alcance de los sentidos.
Pero esta conciencia a lo sumo puede ser relativamente buena, porque el
azar objetivo de la mecánica cuántica no puede quedar totalmente restrin­
gido a la física atómica. Puede volcarse hacia la biología y también a la
psicología: la biología, puesto que las mutaciones al azaren última instan­
cia pueden tener alguna explicación en mecánica cuántica, y la psicología,
puesto que los fenómenos del pensamiento pueden depender de la descar­
ga al azar de las neuronas.
Quedan dos hilos sueltos en el argumento, que en realidad se pueden
usar recíprocamente para anudarse entre sí. Estos son: la cuestión de las
explicaciones causales de los estados de cosas y la cuestión de la causa­
ción simultánea. Que puede haber explicaciones causales de los hechos
fácticos es obvio. El hecho de que mi máquina de escribir en este momen­
to esté situada a 85 cm del suelo es un estado de cosas que puede explicar­
se causalmente. Pero por supuesto ese estado no entra como relatum en
una relación causal, puesto que sólo los acontecimientos pueden ser relata
causales. La explicación causal de un estado de cosas se maneja con leyes
causales, pero de un modo más complejo que las explicaciones causales de
acontecimientos. La posición presente de mi máquina de escribir puede
explicarse como el resultado equilibrado de una cantidad muy grande de
mecanismos causales interrelacionados que especifican qué ocurre en el
grano fino de la máquina de escribir tanto como en el de la mesa en la que
está apoyada. Resulta tentador decir que la posición actual de la máquina
de escribir es explicada, y tal vez hasta causada, por el hecho de que co­
rrientemente está en reposo encima de mi mesa. Con lo cual podríamos in­
troducir la noción de explicación simultánea, y tal vez la de causación si-

33
inultánea. Pero creo que estas tentaciones deben resistirse, o por lo menos
entregarse a ellas sólo metafóricamente. Un equilibrio puede modelarse
como intemporal, pero ésta es sólo una aproximación superficial. Los equi­
librios se sostienen en micromecanismos que operan de modos muy sutil­
mente afinados y compensadores. Esto vale para el equilibrio térmico del
gas como para el equilibrio económico general. Tal vez queremos decir,
con una expresión abreviada, que un rasgo del equilibrio es explicado por
otro, y este modo de expresión puede ser útil para algunos propósitos. Pe­
ro estrictamente hablando, esto es cometer la falacia de los epifenómenos,
puesto que los macrorrasgos de los equilibrios son efectos conjuntos de la
microestructura.

b. Explicación causal: en las ciencias sociales


Puesto que la temática central de este libro es la explicación del cam­
bio tecnológico — cuestión que se plantea en el seno de las ciencias socia­
les— me pareció útil y de hecho necesario explicitar cómo algunos de los
principios generales analizados antes se aplican en estas disciplinas. Voy
a tomar las siguientes cuestiones. ¿Cuál es el “papel del individuo en la
historia”? ¿Cuál es la importancia de la histéresis en las ciencias sociales?
¿Cuál es la relación entre causalidad y enunciados contrafácticos en la
historia y en la ciencia social? ¿Cuál es el papel de la causación simultá­
nea en las ciencias sociales? ¿Cuál es el papel verdadero y característico
de la explicación estadística en las ciencias sociales? Además, en el capítu­
lo 3 me ocuparé de algunas otras modalidades de explicación causal en las
ciencias sociales, en relación con la explicación causal de las creencias y
preferencias. No es necesario decir que el análisis ha de ser sumamente
esquemático y, me parece, un tanto idiosincrático.

El papel del individuo en la historia. Se sigue inmediatamente de lo


que se expuso en la introducción a la Parte I que en algún sentido éste es
un pseudoproblema. La historia la hacen los individuos y debe ser expli­
cada en términos de acción individual. Sin embargo, en otro sentido, la
cuestión es significativa. Podemos preguntarnos si el curso de la historia
puede ser desviado por la acción de un solo individuo. Esto a veces se de­
nomina determinismo, pero en realidad debería conceptualizarse como
una cuestión de estabilidad. Es decir, podemos preguntarnos si las socie­
dades tienen la propiedad de homeorhesis,[\§] de forma tal que ante cual­
quier pequeña desviación en su curso retomarán más adelante el desarro­
llo que hubieran seguido si la desviación no se hubiera producido. Si las
sociedades son estables en este sentido, y si cualquier acción individual
aparece como un a “pequeña” contribución, entonces, el individuo no tiene
ningún papel característico en la historia.
Es muy fácil ver cómo esta cuestión puede llegar a confundirse con la
del determinismo. A menudo queremos realizar dos tareas simultánea­
mente: predicción y totalización. Si el grupo social dado es estable en el
sentido indicado, podemos tener éxito en ambas, puesto que el grano fino

34
en realidad no altera la predicción. Esto significa que el grupo se compor­
ta como si fuera determinista en su conjunto. Por supuesto, no hay razo­
nes generales para esperar la misma estabilidad que encontramos en la
biología evolutiva, donde apareció por primera vez la noción de homeorhe-
sis, de modo que tenemos que dar razones específicas en cada caso parti­
cular para creer que existen sociedades dinámicamente estables. Pero su­
poniendo que se haya dado alguna demostración de ese tipo, podemos pre­
decir únicamente el valor futuro de macrovariables, usando sólo valores
presentes de macrovariables. (O posiblemente también valores pasados,
en la medida en que aquí sólo me ocupo del determinismo y no de la cau­
salidad local.) Si en otros casos — que en las ciencias sociales e históricas
serán la abrumadora mayoría— no estamos en condiciones de predecir
macrovariables usando sólo macrovariables, esto no significa que esa so­
ciedad no se comporte en forma determinista, sino sólo que le falta un cier­
to tipo de estabilidad. Sin embargo, aun puede ser posible formular ma-
croteorías, si renunciamos a la predicción singular. Se han hecho intentos,
por ejemplo, de desarrollar una teoría del cambio histórico utilizando co­
rrespondencias (impropiamente denominadas funciones multivalentes) y
no funciones (denominadas en forma redundante funciones univalen-
tes).[17] Dado el macroestado actual, podemos predecir que el macroesta-
do siguiente se encontrará dentro de algún subconjunto de los estados
abstractamente concebibles. O bien, alternativamente, podríamos tratar
de definir una distribución probabilística sobre el conjunto de macroesta-
dos que pueden surgir.

Histéresis en las ciencias socia/es.l 18J Se ha sostenido que la histére-


sis tiene una importancia especial en las ciencias sociales, a causa de la
irreductible importancia de la historia para la comprensión del presen-
te.[19] En el nivel ontológico no es así, como se indicó antes. Pero es pro­
bablemente verdad que en las ciencias sociales los modelos y teorías que
presentan intervalos temporales tienen un lugar más destacado que en
las ciencias físicas, porque no se ha alcanzado el conocimiento estructural
que nos permitiría acabar con la histéresis aparente. La meta de la inves­
tigación debería ser reemplazar por causas pasadas las huellas que deja
en el presente el funcionamiento de esas causas, pero esto no siempre lo
podemos lograr. Esas huellas generalmente se denominan “variables de
estado” y ocupan una posición privilegiada en la explicación científi­
ca. [20]
Un ejemplo tomado del estudio de la tecnología nos resultará útil más
adelante. En la función de producción neoclásica, la producción total es
una función del capital conjunto y el trabajo: P=f(K, T). La así llamada
“controversia capital” ha demostrado, al menos para mi satisfacción que
la noción de capital conjunto en algunos casos resiste a la construc­
ción.[21] Si la estructura tecnológica desagregada subyacente tiene ciertas
propiedades (no improbables), la noción de capital conjunto no se compor­
ta como era de esperar. En particular, puede no manifestar productividad
marginal decreciente, ni verificarse la esperada relación monótona entre
la tasa de salario y la intensidad de capital. Dado este resultado, algunos

35
autores,[22] han sostenido que más bien debería considerarse la corriente
de producción en el tiempo como una función de la corriente de energía de
trabajo en el tiempo: P(t)=F(T(t)). Sin embargo, esto supone histéresis,
porque entonces no se puede predecir producción en el tiempo t sin apelar
a la energía de trabajo en tiempos anteriores. El procedimiento puede ser
conveniente para algunos propósitos analíticos, además de su evidente
atractivo político, pero como descripción de la estructura causal del proce­
so de producción es claramente inadecuado. Tiene que ser posible explicar
lo que ocurre en el proceso de producción ahora sin apelar al pasado dis­
tante. Una manera de hacerlo sería simplemente desagregar la función
de producción: PsAK^.K^, T).

Causalidad y contrafácticos. Habitualmente se da por sentado que


existe un vínculo estrecho entre enunciados causales y enunciados con­
trafácticos, es decir, entre “A causó a B” y “Si A no hubiera ocurrido, B no
habría ocurrido”. [23] Sin embargo puede demostrarse que la verdad del
enunciado contrafáctico no es ni suficiente ni necesaria para la verdad del
enunciado causal. La condición de no suficiente surge de la posibilidad de
los epifenómenos. Si C es suficiente para A y necesario para B, el enuncia­
do contrafáctico es verdadero, pero el causal es falso. La condición de no
necesaria surge de la posibilidad de la causación precedente. Si C hubiera
producido B en caso de estar A ausente, el enunciado causal sigue siendo
verdadero pero el contrafáctico es falso. En términos más generales, todo
intento de definir nociones causales en términos de enunciados contrafác­
ticos supone poner el carro delante de los caballos. A continuación argu­
mentaré que esto explica el fracaso de dos recientes intentos de definir las
nociones esencialmente causales de poder y explotación.
Poder supone conseguir lo que se quiere, pero esto solo no es suficien­
te. Hay que agregar: 1) una cláusula causal a los efectos de que la persona
que tiene el poder sea instrumental en lograr conseguir lo que quería; 2)
que tuviese la intención de lograrlo; 3) que lo lograse en la forma en que
quería (es decir, no por un golpe de suerte), y 4) que lo lograse frente a la
resistencia de otra gente o, si no había ninguna resistencia, que lo hubie­
se logrado aun cuando hubiese habido. La última cláusula muestra que el
análisis del poder sí incluye contrafácticos, pero sería un error entender el
componente causal del poder en términos de contrafácticos. Si se argu­
menta que en ausencia de la acción de la persona que detenta el poder, el
efecto hubiese estado ausente, inmediatamente aparece el problema de la
causación precedente. Y si, siguiendo a Alvin Goldman, se argumenta que
el poderoso conseguirá lo que quería aunque lo hubiese querido de modo
diferente, se va más allá de lo que está implícito en esta noción.[24] Para
verlo, consideremos al hombre que quiere lograr p porque sabe que si no lo
hace, su rival lo hará, de modo que precede a su rival por despecho, supe­
rando la resistencia de aquél. Seguramente este hombre tiene poder para
lograr p, aun cuando su deseo de lograrlo es causado por el conocimiento
de que eso se producirá de todos modos. Y su deseo de lograr p, según
Goldman, no disminuye un ápice por su incapacidad para lograr q, si es
que el deseo de fastidiar a su rival tomara esa forma.

36
La explotación supone sacar provecho indebido de alguien.[25] Por eso
incluye la noción moral de falta de equidad, así como un requisito esen­
cialmente causal de que explotador y explotado interactúen de modo que
el primero “saque provecho” del último. En su importante obra sobre ex­
plotación y clase, John Roemer presentó dos definiciones de explotación:
una que respeta estos requisitos y la otra no.[26] La última — la única que
me interesa en este caso— estipula que un grupo es explotado si hubiese
estado en mejores condiciones si se lo hubiera apartado del conjunto de la
sociedad, llevándose consigo alguno de los activos sociales conforme a al­
guna regla de separación. Para superar posibles objeciones, también esti­
pula que el grupo complementario — los explotadores— hubiesen estado
en peores condiciones si tuviesen que apartarse siguiendo las mismas re­
glas. Pero es fácil elaborar ejemplos en los que dos grupos interactúan de
un modo en que estos dos enunciados contrafácticos resultan verdaderos,
y sin embargo la interacción no es de explotación.[27]
Pero aunque los enunciados contrafácticos no agotan el significado de
los enunciados causales, pueden ofrecer caracterizaciones verdaderas no
definicionales de relaciones causales en muchos casos centrales. Una ra­
zón por la que la causalidad es tan importante prácticamente, es por su­
puesto el hecho de que con mucha frecuencia el efecto no se producirá en
ausencia de la causa. De un modo semejante, la definición de Roemer de
explotación y la de Goldman de poder ofrecen una comprensión decisiva
de muchos casos empíricos importantes.
Aunque el significado de la causalidad no se puede dar por enuncia­
dos contrafácticos, éstos tienen una función importante en el análisis cau­
sal. Cuando queremos evaluar la importancia relativa de las causas
Cr ..Cn para algún efecto E, tenemos que eliminar mentalmente las cau­
sas, una por una, para ver qué diferencia establece la ausencia de esa cau­
sa para el efecto. (Y, por supuesto, tenemos que eliminar cualquier otra
causa que estuviera esperando en alguna parte pero que fue precedida
por esa causa determinada. Volveré a este tema más adelante.) Cuando el
efecto E es alguna variable cuantitativa, la importancia relativa de las
causas puede estimarse simplemente evaluando su influencia cuantitati­
va sobre E. En otros casos tal vez esto no sea factible, y entonces debemos
aguzar el ingenio para elaborar otras medidas. Si, por ejemplo, la ausen­
cia de la causa C, hubiera postergado por un año la producción de E y la
ausencia de C2 a una demora de 10 años, sin duda tenemos justificación
para decir que C2 era más importante que Clt pero quizá no para decir que
era 10 veces más importante. Este procedimiento podría utilizarse, por
ejemplo, en un análisis de la importancia relativa de las causas de la Pri­
mera Guerra Mundial, mientras que el enfoque cuantitativo más directo
podría usarse para evaluar las causas del crecimiento económico nortea­
mericano en el siglo XIX.
El problema epistemológico es cómo averiguar la verdad, o la asertibi-
lidad, de los enunciados contrafácticos. En mi opinión, es muy difícil acep­
tar que esos enunciados tienen condiciones de verdad, es decir, que son
verdaderos, cuando son verdaderos, a causa de alguna correspondencia
con los hechos. En particular, no puedo aceptar la sugerencia de que los

37
enunciados contrafáctícos podrían tener sus condiciones de verdad en
mundos posibles, como señalan algunos escritores recientes.[28] Sostie­
nen que el enunciado “ Si hubiera ocurrido A, entonces hubiera ocurrido
B” es verdadero en el mundo x si y sólo si: 1) A no ocurre en cualquier
mundo que sea posible relativamente a x, y 2) B ocurre en el mundo más
cercano a x en el que ocurre A. Aquí se supone, primero, que la noción de
un mundo posible está en relación con otro mundo y no se la ve sólo como
posible tout court, y segundo, que de alguna manera podemos medir la
distancia entre un mundo dado y los otros mundos que son posibles rela­
tivos a él.
Mi propia concepción, que es también la de otros autores huméanos
que escriben sobre causación, es que los contrafáctícos no pueden ser ver­
daderos o falsos, sino sólo asertibles o no asertibles.[29] Las bases o condi­
ciones para la asertíbilidad son nuestras teorías científicas actualmente
aceptadas, es decir, los enunciados universales legaliformes aceptados
hoy. Un enunciado contrafáctico es garantizado o asertible si el conse­
cuente se puede deducir del antecedente junto con algunos enunciados
teóricos adecuadamente elegidos. Por otra parte, es importante conservar
parte de la descripción del mundo posible, como por ejemplo, la idea de
que debemos limitarnos a las alternativas más próximas bajo las cuales el
antecedente es verdadero. Queremos decir que el contrafáctico es aserti­
ble cuando el consecuente se sigue del supuesto del antecedente y la can­
tidad mínima de otros cambios. Cuando suponemos un antecedente con­
trario a los hechos, normalmente tenemos que agregar una cantidad de
otros cambios para que el supuesto sea internamente coherente.[30] Diga­
mos, no podemos eliminar mentalmente a todos los esclavos del Sur norte­
americano anterior a 1861, sin eliminar también a los capataces, los pro­
pietarios de los esclavos, las leyes esclavistas, etc. Pero si bien algunos
cambios de este tipo deben aceptarse, no es lo mismo en todos los casos. Si
queremos defender el enunciado “En ausencia de la esclavitud la econo­
mía sureña anterior a 1861 hubiera tenido una tasa de crecimiento sus­
tancialmente más alta”, no nos ocupamos de la alta tasa de crecimiento de
todas las economías no esclavistas internamente coherentes anteriores a
1861, incluyendo las que fueron devastadas por un terremoto o afectadas
por plagas.
Además de la coherencia interna del supuesto contrafáctico, necesita­
mos la posibilidad histórica. Si el antecedente de un contrafáctico históri­
co no puede insertarse dentro del desarrollo histórico real, no debe incluír­
selo. Si queremos evaluar la economía norteamericana real en 1860 com­
parándola con un estado contrafáctico de la economía en la misma época,
necesitamos que este último pudiera haberse derivado de la historia real
en alguna época posterior, hasta donde sepamos, es decir, hasta donde
nuestras teorías nos lo digan. Puesto que si este requisito no se cumple, no
estaremos hablando del curso d é la historia norteamericana, que es un in­
dividuo histórico.[31] Por supuesto, para que tal derivación sea posible
nuestras teorías deben tener un carácter no determinista pero, como he­
mos dicho antes, esto sólo podríamos esperarlo en el nivel de las macroteo-
rías utilizadas para el estudio del cambio social.

38
Un ejemplo relacionado con el cambio tecnológico puede ayudamos a
explicitar lo que está implícito en este enfoque de los contrafácticos. El es­
tudio de Robert Fogel sobre la importancia de los ferrocarriles para el cre­
cimiento económico norteamericano en el siglo XIX probablemente es el in­
tento más ambicioso que jamás se haya hecho en el campo de la historia
contrafáctica.[32] Fogel se propone defender una tesis: que el PBN nortea­
mericano en 1890 no hubiese sido mucho menor si los ferrocarriles nunca
se hubieran introducido.[33] Al exponer los argumentos para su tesis, Fo­
gel generalmente se toma mucho cuidado en seguir el procedimiento que
hemos delineado antes: reconstruir el desarrollo económico norteamerica­
no a partir de la época más tardía posible en que se pudiera haber deriva­
do una economía sin ferrocarriles, es decir, aproximadamente a partir de
1830. Pero existe un error flagrante en el razonamiento, señalado por
Paul David en su reseña de esa obra. Se trata del supuesto implícito de Fo­
gel de que las ventqjas de la introducción son equiparables a las pérdidas
de su eliminación. El principal ejemplo de David se refiere a la existencia
de economías de escala irreversibles, debidas al aprender haciendo (capítulo
6). Si los menores costos del transporte por ferrocarril llevaron a menos
precios de las mercaderías transportadas, y a una mayor demanda de
ellas, las técnicas de producción masiva podrían haber logrado que — su­
poniendo una eliminación instantánea del ferrocarril en 1890— se obtu­
viera todavía una mayor eficiencia con un volumen menor de producción
que con las técnicas dadas inicialmente. Al medir la falta de ganancias por
la introducción mediante la pérdida ocasionada por la eliminación, Fogel
argumenta como si fuera posible medir la importancia de la escalera en el
punto en que se ha hecho posible dejarla caer.
El análisis de enunciados contrafácticos en historia plantea varios in­
terrogantes de los cuales mencionaré tres. El primero podemos llamarlo
“el problema de la tijera” creado por el uso doble de la teoría en el análisis
de contrafácticos. Claramente necesitamos una teoría para pasar del an­
tecedente al consecuente en los enunciados contrafácticos, pero también
necesitamos teoría para evaluar la legitimidad del antecedente tomado
en sí. Necesitamos teoría para que nos diga si el supuesto del anteceden­
te contrafáctico es compatible con lo que contiene el mundo real. La teoría
económica nos dice, por ejemplo, que normalmente no podemos suponer
un mayor volumen de ventas y mantener constante la unidad de pre-
cio.[35] El interrogante se plantea porque estas dos funciones asignadas a
la teoría pueden entrar en conflicto entre sí. Cuanto mejores sean nues­
tras teorías, tanto más antecedentes podrán eliminar como ilegítimos, y
en mejores condiciones estaremos de evaluar el consecuente. O formular­
lo de otra manera: cuantas más preguntas podemos hacer, menos pode­
mos contestar. Sin duda aquí hay que encontrar un delicado equilibrio.
Una vez más, el ejemplo del ferrocarril resultará útil. Si queremos sa­
ber qué hubiera pasado si el ferrocarril no se hubiera inventado, podría
interesarnos determinar si la máquina de combustión interna podía ha­
berse inventado antes del momento en que efectivamente se hizo. Para
contestar a esta pregunta necesitaríamos una teoría que relacionara el
cambio tecnológico con diversas condiciones socioeconómicas y científicas.

39
Pero si tuviéramos tal teoría, hay grandes posibilidades de que también
nos diría que la invención del ferrocarril era inevitable, dadas las condi­
ciones existentes en ese momento, de modo que la misma teoría que nos
dice cómo contestar a la pregunta (¿qué hubiera pasado sin el ferrocarril?)
también nos dice que ésta no es una pregunta que se deba formular (por­
que la invención era inevitable de acuerdo con la teoría). Si suponemos
que no había ferrocarril en 1830, la teoría nos dice que será inventado en
1831; y si insistimos en suponer que no lo había durante todo el período,
la teoría nos dice que algo m uy parecido a él se inventará.[36] En otras
palabras, la causación precedente nuevamente vuelve a levantar su desa­
gradable cabeza. Fogel se puede permitir una estratagema con este pro­
blema porque no pudo evaluar la importancia exacta de los ferrocarriles
para el crecimiento económico norteamericano, sino sólo probar la tesis de
que la importancia estaba por debajo de cierto límite superior. Entonces
puede hacer de abogado del Diablo y suponer que no se hubiera desarro­
llado ningún sustituto del ferrocarril, porque si su tesis es válida con este
supuesto, continuará siéndolo si se lo elimina.
El segundo interrogante se plantea cuando hay causas que interac­
túan en forma no aditiva Supongamos, esquemáticamente, que las cau­
sas Cj y 2 contribuyen al efecto E del modo siguiente: £=20^+302+0,.C2.
Más aun, supongamos que en un caso dado C, y C, tienen valores 2 y 1 res­
pectivamente, suponiendo un valor de 9 para E. Si tratamos de determi­
nar la importancia relativa de las causas suponiendo que no estén prime­
ro Cj y luego C2, obtenemos el resultado de que C, contribuye 6 a E (pues­
to que sin ella el efecto sería 3) y C2 contribuye 5 (puesto que sin ella el
efecto sería 4). Pero esto a su vez implica que la contribución total de las
dos causas al efecto excede el efecto total, lo cual es absurdo.
El problema tiene una pertinencia crucial en el caso de la teoría de la
distribución del ingreso. Si se acepta que el factor participación debe re­
flejar el factor contribución (“A cada uno según su contribución”), enton­
ces necesitamos un principio para determinar qué porción del producto
ñnal debe asignarse causalmente a los diversos factores de la producción.
Si suponemos que los factores son capital y trabajo (dejando de lado el
problema del capital conjunto), relacionados como lo están en la función
de producción de Cobb-Douglas P=a.Kb.Lc, con b+c=l, entonces el método
contrafáctico tiene la implicación absurda de que cada factor es causal­
mente responsable del producto total puesto que el resultado es cero
cuando un factor es cero. El enfoque elegido en algunas versiones más
simplificadas de la teoría neoclásica es suponer en cambio que la contri­
bución por unidad de cada factor debe ser equiparada con el producto
marginal de ese factor. Entonces resulta, mágicamente, que las contribu­
ciones totales de todas las unidades de ambos factores agotan el producto
total.[37] Y puesto que la contribución de cada trabajador se considera co­
mo el producto marginal, el principio aA cada cual según su contribución”
inmediatamente implica que el trabajo debe pagarse de acuerdo con la
productividad marginal.
Se pueden levantar las siguientes objeciones contra esta línea de ar­
gumentación. Primero, simplemente no existe ningún modo de descompo­

40
ner el producto total en la contribución del capital y la del trabajo. De he­
cho, resulta claro que no se puede tratar a cada trabajador como si fuera
el último que va a ser contratado.[38] Este análisis causal tiene sentido en
el margen, pero no para el factor contribución en su conjunto. Si renuncia­
mos al supuesto de que b+c=l en la función de producción, permitiendo
rendimientos crecientes o decrecientes en escala, entonces deja de ser
verdad que el producto sea exactamente agotado por el factor total “con­
tribuciones” (en el sentido de productos marginales). Con rendimientos
crecientes en escala, la suma total de “contribuciones” excederá el produc­
to total, y con rendimientos decrecientes se quedará corta. En segundo lu­
gar, el principio “A cada uno según su contribución” no debe extenderse a
la contribución de capital. Aun cuando los bienes de capital tienen un pa­
pel causal en el proceso de producción, sus propietarios no trabajan como
para que pudiera justificarse que conservan una parte del producto neto.
A menudo los marxistas expresan esto diciendo que el capital “realmente”
es trabajo congelado, y así no pueden reclamar ninguna parte del produc-
to.[39] Argumenté anteriormente que este lenguaje es engañoso, puesto
que da la impresión de alguna histéresis verdadera en el proceso de pro­
ducción. La representación fTK, T) del proceso de producción es engañosa
a causa del problema de la agregación, pero sería un error descartar esta
representación arguyendo que el capital, al ser solamente trabqjo conge­
lado, no debe figurar en la función de producción. Si el problema de la
agregación no surgiera, se podría aceptar f(K, T) como representación ade­
cuada y sin embargo objetar el derecho del capital a una participación en
el producto.
El tercer interrogante tiene que ver con la identificación de los actores
que participan en el enunciado contrafáctico. A menudo queremos saber
si la situación económica — miseria o prosperidad— de un cierto grupo de
personas puede ser atribuida al sistema económico en el que se encuen­
tran. Entonces contestamos, contrafácticamente, si hubieran estado en
mejores condiciones en algún sistema alternativo. Sin duda puede resul­
tar conceptualmente difícil determinar cuál es el sistema pertinente para
la comparación.[40] Sin embargo, un problema más básico es que en el sis­
tema alternativo que se analiza puede resultar imposible identificar al
grupo cuya situación queremos evaluar, si está definido en términos espe­
cíficos para el sistema real. En ese caso podemos evaluar la situación del
grupo sólo en los casos realmente especiales en que el miembro más aco­
modado de la sociedad real está en peor situación que el miembro que se
encuentra en la peor situación en el sistema alternativo, o el miembro en
peor situación de la sociedad real está en mejores condiciones que el más
acomodado en el alternativo.
Una vez más la esclavitud nos proporciona un ejemplo instructivo. Un
historiador de la esclavitud norteamericana escribe que “si no hubiera si­
do por las plantaciones y la esclavitud, las ciudades y pueblos del Sur hu­
biesen sido menos y más pequeñas todavía, lo cual hubiese resultado en
oportunidades mucho menores para los blancos que no tenían escla-
vos”.[41] Ahora bien, dejando de lado la “ilusión microeconómica” que sub­
yace en este argumento,[421 éste falla por la simple base lógica de que en

41
la economía sureña sin esclavos no sería posible identificar a los grupos
que en la economía esclavista eran “los blancos que no tenían esclavos” y
distinguirlos de los que tenían esclavos. Esto es así porque el grupo de
blancos que no tienen esclavos está definido en términos del propio siste­
ma que se nos pide que se elimine del supuesto. Por el contrario, no habría
problema si preguntáramos por el destino de los pequeños granjeros o de
los negros en un sistema no esclavista, puesto que éstas no son categorías
definidas en términos de esclavitud. Tales problemas de “identidad trans-
mundial” se plantean bastante a menudo en las ciencias sociales, y tien­
den a socavar nuestras nociones intuitivas acerca de cuáles son las com­
paraciones significativas que se pueden hacer entre grupos o sistemas.[43]
Los tres interrogantes que destaqué para su análisis son todos, bási­
camente, problemas de agregación. Se plantean porque con frecuencia
queremos explicar en el macronivel, aun cuando los mecanismos subya­
centes son de grano más fino. Claramente, en el futuro previsible las cien­
cias sociales no pueden prescindir de macroexplicaciones, pero tampoco
pueden esperar deshacerse de tales interrogantes.

Causación simultánea. En las ciencias sociales constantemente se


nos presentan enunciados tales como “las democracias conducen al escep­
ticismo” o “la vida en las grandes ciudades favorece el delito”, en los cua­
les estados contemporáneos se relacionan entre sí como causa y efecto.
Para que tales enunciados tengan sentido, sin apelar a la noción misteriosa
de causación simultánea o instantánea, tenemos que estar en condiciones
de distinguir entre variables exógenas y endógenas dentro del sistema en
consideración. Podemos entonces interpretar tales enunciados en térmi­
nos del efecto de estado fijo en una variable endógena producido por un
cambio en una variable exógena. Si solamente consideramos al sistema
en un momento determinado después del cambio en la variable exógena, y
observamos que ha producido un cambio en una variable endógena, no
podemos concluir que éste es un efecto de estado fijo. En primer lugar, el
sistema no puede haber encontrado todavía su estado fijo, de modo que
más adelante la variable endógena puede adoptar valores completamente
diferentes: y en segundo lugar, el sistema puede ser tal que no exista esta­
do fijo hacia el que converja después del cambio en la variable exó-
gena.[44]
Voy a ilustrar estos principios con algunos ejemplos tomados de la
obra de Alexis de Tocqueville. En La democracia en América y en otros
textos, se ocupó de evaluar las consecuencias sociales de las consti­
tuciones, y en particular de las constituciones democráticas. En el curso
de este análisis se nos aparece como una persona extraordinariamente
sofisticada para la comprensión de la causalidad social. Brevemente voy a
explicitar los cuatro principios básicos que subyacen en su análisis.
El primero podemos denominarlo el principio del holismo: las relacio­
nes causales que son válidas en el margen no se pueden generalizar al
conjunto. Por ejemplo, aun cuando los matrimonios por amor tiendan a no
ser felices en las sociedades donde constituyen la excepción, no se puede
concluir que también serán infelices en las sociedades democráticas don­

42
de constituyen la regla. Casarse por amor en una sociedad aristocrática es
ponerse al borde del desastre, puesto que ir contra la corriente tiende a
crear hostilidad y a su vez rencor. Más aun, sólo las personas obstinadas
irán contra la corriente en primer lugar, y el hecho de ser obstinado no es
un rasgo de carácter que pueda conducir a un matrimonio feliz.[45]
El segundo principio es el del efecto neto. Un ejemplo típico es el si­
guiente: “Como no hay organización preventiva en los Estados Unidos,
hay más incendios que en Europa, pero generalmente se los apaga más
rápidamente, porque los vecinos nunca dejan de acudir con premura al si­
tio del siniestro”.[46] Un argumento similar se aplica al impacto de la de­
mocracia sobre la integración social, en el que Tocqueville afirma que, en
comparación con las aristocracias, cada persona está ligada a una mayor
cantidad de personas, aunque la fuerza de cada vínculo es más débil.[47J
La estructura general de estos argumentos es la siguiente. Queremos en­
tender el efecto de la variable exógena, la democracia, sobre variables en­
dógenas tales como la cantidad de casas destruidas por el fuego o la fuer­
za de la integración social. Tocqueville observa que el efecto en cada caso
está modificado por dos variables intermedias, que interactúan multipli­
cativamente en lugar de aditivamente; y que trabajan en direcciones
opuestas. Por lo tanto, el efecto neto puede darse en cualquiera de los dos
sentidos, en ausencia de información acerca de la fuerza relativa de las
dos tendencias. El punto metodológico es que el impacto de la democracia
puede decidirse simplemente observando el efecto neto, y no focalizando
uno de los mecanismos parciales, como se podría hacer fácilmente.
El tercer principio es el del largo plazo. De hecho, es un caso especial
del segundo, pero de suficiente importancia como para ser considerado in­
dividualmente. Tocqueville escribe que “con el tiempo el gobierno demo­
crático debería aumentar las fuerzas reales de una sociedad, pero no pue­
de reunir inmediatamente, en un punto y en un momento dado, fuerzas
tan grandes como las que están a disposición de un gobierno aristocrático
o de una monarquía absoluta”.[48] El punto es similar al que planteó
Schumpeter en un famoso argumento a favor del capitalismo, analizado
más adelante en el capítulo 5.
El cuarto principio es el del estado estable. Quizás el argumento cen­
tral del trabajo de Tocqueville sobre la democracia es que no deben con­
fundirse los efectos de la democratización con los efectos de la democracia.
Los primeros son los que se observan antes de que la democracia haya
encontrado su “equilibrio permanente y tranquilo”,149] mientras que los
segundos se encuentran cuando el proceso finalmente llega a un alto. Ob­
sérvese que la distinción entre efectos a corto y largo plazo se realiza den­
tro del estado estable: la ineficiencia del corto plazo y la eficiencia del lar­
go plazo de la democracia pertenecen a las características de estado esta­
ble. Por lo tanto, no deben confundirse efectos transitorios con efectos a
corto plazo. Tocqueville conoce bien el hecho que puede no resultar un es­
tado estable a partir de un cambio exógeno dado. Alrededor de 1855,
cuando escribe acerca del impacto de la revolución francesa, observa que
“ya he escuchado cuatro veces en mi vida que la nueva sociedad, así como
la hizo la Revolución, finalmente había encontrado su estado natural y

43
permanente, y luego los hechos siguientes demostraron que era un
error”.[50] En tales casos, no es posible identificar los efectos de la demo­
cracia: solamente se puede buscar la cadena de efectos que se originan en
la revolución democrática. Pero en su análisis de los Estados Unidos,
Tocqueville claramente creyó posible distinguir los efectos del estado esta­
ble de los meramente transitorios.[51]
Además de las dos dificultades mencionadas más arriba — que el sis­
tema que observamos quizá no haya alcanzado aún su estado estable, y
que quizá no tenga un estado estable— existe la dificultad de que tal vez
nunca haya tiempo para que el efecto de estado estable aparezca, porque
el sistema está constantemente expuesto a choques exógenos. Probable­
mente éste sea el caso en sociedades modernas que cambian rápidamente
(véase el capítulo 3 para un análisis de un problema análogo que surge en
los modelos de cambio social como una cadena de Markov absorbente). Por
todas estas razones, puede resultar difícil identificar casos de causación
simultánea. Por otro lado, se puede aliviar el problema que se origina en
la ausencia de un estado estable extendiendo el concepto de manera de in­
cluir también los ciclos límite. Si, después de un cambio en una variable
exógena, las variables endógenas finalmente quedan fijas en una configu­
ración oscilatoria estable, puede denominarse un efecto del cambio en
cuestión. Por ejemplo, se ha dicho que un efecto de la Revolución Francesa
fue introducir un cambio cíclico entre el orleanismo y el bonapartismo.[52]

Explicación estadística. Aunque la explicación determinista es la


ideal en ciencia, con frecuencia hay que contentarse con menos. En parti­
cular, la explicación estadística puede ofrecer una comprensión parcial de
los fenómenos estudiados. Analizaré brevemente tres variedades de este
modo de explicación: explicación deductiva-estadística, explicación induc-
tiva-estadística y análisis de correlación.
Según Hempel,[53] la explicación deductiva-estadística deduce una
regularidad estadística a partir del supuesto de que hay un proceso esto-
cástico. En el estudio de la movilidad social, podemos tratar de explicar los
modelos de movilidad observados bajo la suposición de que se trata de un
proceso de Markov de primer orden o de orden superior, por ejemplo. Es
decir que suponemos que en un momento dado la probabilidad de tran­
sición de un grupo a otro depende de la pertenencia actual o pasada al
grupo. Este enfoque satisface la demanda de un mecanismo en el sentido
que demuestra cómo un simple microproceso genera macromodelos
complejos, pero también nos deja insatisfechos porque el proceso, aunque
simple, sigue siendo fundamentalmente oscuro mientras no se propor­
cione una justificación teórica para el modelo. La afirmación, por ejemplo,
que un obrero seguirá siéndolo con una probabilidad del 60 por ciento y
que será ascendido con una probabilidad del 40 por ciento, no puede ser el
fundamento explicativo. De hecho, si no hay justificación teórica para el
modelo tampoco puede decirse que lo explica, ya que la aparente ca­
pacidad para explicar los datos puede ser simplemente un caso de
“coincidencia con la curva”, desacreditada práctica en las ciencias so­
ciales.

44
Hay varios modos para tratar de proporcionar un apuntalamiento teó­
rico de las probabilidades de transición. 1) Suponiendo que la elección de
carrera depende de preferencias, capacidad y oportunidades, el carácter
aleatorio de las primeras puede hacerse inteligible en términos de la dis­
tribución aleatoria de uno de los dos últimos. La capacidad, para tomar el
caso más obvio, puede entenderse en términos de leyes genéticas estadís­
ticas. Aunque esto es simplemente pasar la responsabilidad explicativa,
puede mejorar nuestra comprensión si la teoría invocada satisface uno de
los requisitos que aquí se estudian. 2) La elección de carrera puede enten­
derse a través de la idea de una estrategia mixta, es decir, una distribu­
ción de probabilidades intencionalmente elegida de entre el conjunto de
estrategias posibles. Lo que parece una explicación causal imperfecta se
transforma en una explicación intencional completamente satisfactoria.[54]
3) El contexto puede ser tal que justifique el supuesto de equiprobabili-
dad, basada en el principio de razón insuficiente. Para tomar un ejemplo
fiiera de las ciencias sociales, en mecánica estadística se deriva la distri­
bución de Maxwell de las velocidades de las moléculas a partir del supues­
to de que su movimiento es aleatorio, es decir, que no tiende a ninguna di­
rección en particular. La suposición de aleatoriedad está justificada por el
siguiente argumento:

Si el gas está formado por una gran cantidad de partículas en movimiento,


entonces el movimiento de las partículas debe ser completamente aleatorio o
caótico... Si el movimiento fuera ordenado (por ejemplo, que todas las partí­
culas en una caja rectangular se movieran precisamente en caminos parale­
los), tal condición no podría persistir. Cualquier leve irregularidad en la pa­
red de la caja desviaría a alguna partícula fuera de su camino; el choque de
esta partícula desviada con otra desviaría a la segunda, y así sucesivamente.
Evidentemente, el movimiento pronto sería caótico.[55]

El argumento supone que no existe fuerza externa como la gravedad


que logre la regularidad, ni mecanismo interno alguno que logre la
homeostasis. En la deducción de la distribución de Maxwell también hay
que suponer que las partículas tienen la misma masa. Resultará claro por
qué argumentos de este tipo rara vez se aplican a las ciencias sociales.
Las personas difieren entre sí; están sujetas a fuerzas comunes no gene­
radas por su interacción; y no siempre se desvían de su camino cuando se
encuentran.
La explicación inductiva-estadística (otro término tomado de Hem-
pel)[56] invoca las leyes estadísticas para explicar casos especiales en
lugar de modelos de casos. Un ejemplo sería la explicación de la recupera­
ción de una enfermedad mediante el tratamiento con algún medicamento.
Dado el hecho de que la mayoría de los pacientes con la enfermedad se re­
cuperan de ella mediante ese tratamiento, pueden explicarse casos espe­
ciales de recuperación. O un caso particular de ascenso social puede expli­
carse señalando las altas probabilidades de transición que vinculan a
ambos estados analizados. Obviamente, dichas explicaciones comparten
la dificultad observada en el caso de la explicación deductiva-estadística,
y permanece oscura mientras las probabilidades no se justifiquen teórica­

45
mente. Además, la explicación inductiva-estadística tiene una dificultad
propia, señalada por Hempel.[57] Consideremos las siguientes inferencias:

( la) Si el barómetro baja, casi seguro lloverá


(2a) El barómetro baja
(3a) Casi seguro lloverá

( lb) Cuando el cielo está colorado a la noche, es casi seguro que no


lloverá
(2b) El cielo está colorado esta noche
(3b) Es casi seguro que no lloverá

Aquí las cuatro premisas pueden ser ciertas, y sin embargo, ambas
conclusiones pueden no serlo. Por lo tanto, debe haber algo incorrecto en
el modo de inferencia. Hempel diagnostica la falla en el hecho de que la
conclusión es independiente de sus premisas, y afirma que solamente
puede entenderse en relación con la evidencia o fundamento en que se ba­
sa. Esta dificultad se arrastra de la predicción a la explicación, dado que
“no importa si se nos informa que determinado hecho... ocurrió o no, pode­
mos producir una explicación del resultado en cualquiera de los dos casos;
y una explicación, más aun, cuyas premisas son afirmaciones científica­
mente establecidas que confieren una alta probabilidad lógica al resulta­
do informado”.[581 O nuevamente, consideremos el siguiente ejemplo.
López se recupera de una enfermedad luego de haberse tratado con peni­
cilina. Como la mayoría de las personas que trataron la misma enferme­
dad con penicilina se recuperan, podemos explicar la recuperación de Ló­
pez según líneas inductivo-estadísticas. Sin embargo, puede suceder que
un pequeño subgrupo de personas sean muy probablemente inmunes al
tratamiento con penicilina. Y López es uno de ellos. Si bien se curó, fue
porque pertenecía a un subgrupo de dicho subgrupo, cuyos miembros tie­
nen grandes probabilidades de ser curados por la penicilina. Evidente­
mente, la explicación — si es que este término es correcto— de la recupera­
ción de López debe invocar su pertenencia al subgrupo del subgrupo, y no
su pertenencia a la población general. Pero si no supiéramos nada acerca
de estas diferenciaciones finas, bien podríamos concluir que López se curó
porque la penicilina en general lleva a la recuperación. La explicación in­
ductiva-estadística, por las razones demostradas en tales casos, puede ser
ilegítima.
El análisis de correlación y sus derivaciones más sofisticadas como el
análisis de camino, proceden encontrando covariaciones sistemáticas en­
tre las variables. Para una variable dependiente dada podemos encontrar
que covaría con varias variables independientes, y mediante conocidas
técnicas estadísticas es posible determinar la fúerza relativa de estos
vínculos, distinguir entre efectos directos e indirectos, etc. Típicamente la
variable dependiente solamente es explicada parcialmente por las varia­
bles independientes, y el “residuo inexplicado” que queda frecuentemente
es muy grande. Sin embargo, decir que una explicación es sólo parcial­
mente exitosa no es decir que es ilegítima.[59] Generalmente con esto úl­

46
timo nos referimos a la correlación entre dos variables que no se origina
en una relación causal entre ellas, sino en su relación común con una ter­
cera. Esto es lo que antes apareció como el problema de epifenómenos. El
peligro de confundir correlación y causación es un problema constante en
este modo de explicación estadística y la razón por la que hay que cuidar­
se de interpretar correlaciones como más que indicaciones que “algo está
pasando” que vale la pena ser observado con más detalle. O quizás el pun­
to debería expresarse negativamente, que la función del análisis de corre­
lación es que nos permite descartar una hipótesis causal si la correlación
resulta baja.
Es común decir en tales casos que se puede distinguir la correlación
verdadera (es decir, explicatoria) de la ilegítima “controlando” la tercera
variable. Si, por ejemplo, hay una alta correlación negativa entre x (el por­
centaje de miembros de un grupo que son casados) e y (la cantidad prome­
dio de kilos de caramelos consumidos mensualmente por cada miembro),
podemos sospechar que esto se debe a que son efectos de una causa común
z (la edad promedio de los miembros del grupo). Si z se mantiene constan­
te, la correlación entre x e y puede desaparecer, y podríamos concluir sin
más que la correlación era ilegítima. Y en este caso probablemente sería la
conclusión correcta. Pero consideremos el siguiente caso, extraído, como el
anterior, de un importante artículo de Herbert Simon.[60] Suponemos
una alta correlación positiva entre x (el porcentaje de mujeres empleadas
casadas) e y (el promedio de ausencias semanales por empleado). Sin em­
bargo, cuando z (la cantidad de trabajo en la casa realizado semanalmen­
te por empleada) se mantiene constante, la correlación entre x e y desapa­
rece. Sin embargo, aquí concluiríamos que z es una variable interviniente
entre x e y. En el primer caso la cadena causal es x 4—z — en el segun­
do es x —>z —»y. En el primer caso la correlación entre x e y era realmen­
te ilegítima, en el segundo, no, aunque en ambos casos desaparece cuando
se mantiene z constante. Lo que nos permite distinguir entre los dos casos
son supuestos a priori acerca de los mecanismos causales que seguramen­
te operarán; y ninguna mera manipulación o control de las variables pue­
de sustituir tales supuestos.

47
2

Explicación funcional

En biología la explicación funcional es, histórica y lógicamente, el


principal ejemplo de este modo de explicación. Históricamente, porque en
gran medida la ciencia social funcionalista contemporánea deriva del pa­
radigma biológico; y lógicamente porque la teoría evolucionista sigue
siendo el único caso de éxito completo de explicación funcional. Por lo tan­
to, en primer lugar voy a exponer este paradigma biológico y luego conti­
nuaré con el análisis de algunas variedades de explicación funcional en
las ciencias sociales.

a . E x p lic a c ió n f u n c i o n a l: e n b io lo g í a

Primeramente esbozaré una explicación muy simpliñcada [1] de la


teoría de la selección natural, que es el fundamento de la explicación fun­
cional en biología. Ateniéndome estrictamente a los principios iniciales
espero no cometer errores sobre asuntos específicamente biológicos fuera
de mi competencia. Como las conclusiones estarán en el nivel de dichos
principios, espero que mis simplificaciones estén justificadas.
Pensemos en los organismos de una población como una máquina que
constantemente recibe entradas en forma de mutaciones. (La analogía de
la máquina puede parecer forzada, pero resultará útil después.) Por razo­
nes de simplicidad supongo reproducción asexual, de modo que las muta­
ciones son la única fuente de novedades genéticas; por otro lado podemos
ignorar la recombinación si afirmamos que con el tiempo solamente las
mutaciones pueden perturbar el equilibrio biológico (en un medio cons­
tante). Supongo, y esto es decisivo, que las mutaciones son aleatorias y pe­
queñas. La corriente de entradas es aleatoria, en el sentido de que no hay
correlación entre los requisitos funcionales o las necesidades del organis­
mo y la probabilidad de ocurrencia de una mutación que satisface dichas
necesidades. Mediante mutagenes es posible aumentar la probabilidad de
mutaciones en general e incluso de subgrupos de mutaciones estructural­
mente especificados, pero es imposible — y éste es el dogma central de la
biología molecular— modificar la probabilidad de subgrupos de mutacio­
nes funcionalmente definidos. Si comparamos las mutaciones con errores
de imprenta, se puede aumentar la probabilidad de errores de imprenta
rompiendo los lentes del tipógrafo, pero no hay manera de aumentar se-

48
lectivamente la probabilidad de errores de imprenta que ocurran en la se­
gunda edición de un libro que corregirá los errores de la primera edición.
Más aun, se supone que las mutaciones son pequeñas, típicamente
sustituciones de aminoácidos que resultan del error en una sola letra del
lenguaje genético. Sin duda hay mecanismos, como la duplicación de ge­
nes, que pueden producir macromutaciones. Sin embargo, en primer lu­
gar la importancia evolutiva de éstos actualmente es muy controvertida; y
en segundo lugar, tales mutaciones, mientras que son grandes compara­
das con las sustituciones de aminoácidos, son pequeñas comparadas con
las discontinuidades que se encuentran en la innovación humana. Antici­
pando el análisis del capítulo 5 más adelante, ninguna duplicación de ge­
nes podría producir un cambio del orden de magnitud del cambio de un ca­
rro tirado por caballos a uno “sin caballos” .[21 O para citar a Schumpeter
“Por más que agreguemos sucesivamente tantos vagones de correo como
queramos, nunca tendremos con un eso un ferrocarrir.[3] Como el argu­
mento principal en este trabajo es que hay una diferencia básica entre la
optimización local a través de pequeñas mejoras y la maximización global
que permite pasos de cualquier tamaño, la definición precisa de “pequeño”
no es realmente importante.
En la frase de Jacques Monod, la selección natural funciona por ca­
sualidad y necesidad.[4] Mientras que las mutaciones son aleatorias, el
proceso de selección es determinístico, en el sentido de que en cualquier
momento la máquina tiene criterios bien definidos para aceptar o recha­
zar cualquier mutación dada. (Esto significa que no me ocuparé de la
corriente genética ni de la evolución no darwiniana.) La mutación es acep­
tada si el primer organismo en la que ocurre se beneficia con una mayor
capacidad reproductiva. Entonces como el organismo deja más descen­
dientes que los otros organismos de la población, el nuevo alelo se expan­
dirá hasta estar universalmente presente. (Esto significa que no hablaré
de la selección dependiente de la frecuencia ni de otras fuentes de poli­
morfismo estable — como la heterosis— salvo un breve análisis en el
capítulo 3.) Una vez aceptada una mutación, los criterios para aceptar o
rechazar otras mutaciones cambiarán ya que el organismo, al estar ahora
en un estado diferente, puede resultar perjudicado o beneficiado por dife­
rentes entradas. La máquina dice Sí o No para cada entrada según crite­
rios que cambian cada vez que dice Sí. Si la máquina alguna vez llega a un
estado en el que dice No para cada una de las entradas (finitamente) posi­
bles, decimos que ha alcanzado un máximo local. La población asciende
por un gradiente de conveniencia hasta que llega a un punto desde el que
cualquier otro movimiento solamente puede ser descendente, y allí se de­
tiene.
Esta máquina de maximizar localmente es incapaz de determinadas
clases de conducta que, sin embargo, están indisociablemente vinculadas
a la adaptación humana y la resolución de problemas. En primer lugar, la
máquina no puede aprender de errores pasados, ya que sólo el éxito se
trae desde el pasado. En evolución no hay nada que corresponda a las “fa­
llas útiles” de ingeniería.[5] En segundo lugar, la máquina no puede utili­
zar la clase de estrategias indirectas resumidas en la frase “un paso hacia

49
atrás, dos hacia adelante”. Un excelente ejemplo de tal conducta entre los
humanos es la inversión, por ejemplo: en maquinaria; consumir menos
ahora para consumir más en el futuro. En tercer lugar, la máquina es in­
capaz de esperar, es decir, de rechazar oportunidades ahora para poder
explotar otras más favorables más tarde. El sistema de las patentes pue­
de ser un ejemplo de tal conducta entre los humanos: “retrasar la difusión
de progresos técnicos asegura que habrá más progresos para difundir”.[6J
Y por último, la máquina no podría comprometerse con antelación, lle­
vando a cabo pasos hoy para restringir lo factible mañana.[7] Analizo al­
gunos de estos puntos con más detalle en el capítulo siguiente. Aquí sola­
mente quiero subrayar lo que se ha denominado el carácter impaciente,
miópico u oportunista de la selección natural: no tiene memoria del pasa­
do ni capacidad para actuar en términos del futuro.
Un análisis más detallado de la máquina explicará la posibilidad de
cambio ambiental. Si el medio cambia, los criterios para decir Sí o No a las
mutaciones en general también cambiarán. Una mutación no es benefi­
ciosa o peijudicial en sí misma, sino solamente con respecto a anteceden­
tes genéticos dados (que son el resultado de mutaciones anteriores) y a un
medio dado. Con un medio cambiante bien puede darse el caso de que in­
cluso nunca se alcancen máximos locales transitorios si el organismo no
puede avanzar al mismo ritmo que el medio. Sin embargo, el concepto de
medio es ambiguo. En primer lugar, los cambios ambientales pueden ser
modificaciones del medio climático y geológico, hasta el punto en que pro­
vocan un cambio evolutivo sin verse afectados por él. (La última condición
es necesaria para excluir cambios climáticos endógenos, tales como el
cambio en la atmósfera originado por la evolución de las plantas.) En
segundo lugar, algunas partes de los ambientes son organismos en
evolución o que están afectados por ella. Si una población está constante­
mente sujeta a un cambio ambiental exógeno, nunca puede lograrse un
equilibrio duradero, pero si el medio está formado (o afectado) por orga­
nismos en evolución, tiene sentido preguntar si se puede lograr un equili­
brio biológico general, un estado en el que todos los organismos han alcan­
zado máximos locales con respecto a los demás. A priori, no es obvio que
éste sea siempre el caso: podría haber “juegos evolutivos” sin equilibrio.
No hay una objeción lógica a la idea de un mundo en el que la propor­
ción de cambios del medio sea tan alta, en relación con la proporción de
mutaciones, que la mayoría de los organismos la mayor parte del tiempo
se adapten mal entre sí y al medio inorgánico. Sin embargo, en el mundo
que conocemos las infinitas adaptaciones sutiles que se encuentran en la
estructura y conducta de los organismos han atraído durante milenios la
curiosidad y —menos justificadamente— la admiración de los naturalis­
tas. En muchos casos bien documentados la solución natural a los proble­
mas estructurales y funcionales está sorprendentemente cerca de la que
hubiera elegido un ingeniero trabajando sobre el mismo problema. En al­
gunos casos los animales y los hombres se están enfrentando a los mismos
problemas, de manera que se pueden comparar las soluciones. Como lo
demostró d’Arcy Wentworth Thompson en su tratado clásico On Growth
and Form, así como también otros autores recientes,[8] estas soluciones

50
con frecuencia son fuertemente convergentes. En trabajos ecológicos re­
cientes,[91 la naturaleza se considera como un economista y no como un
ingeniero; de hecho la presupuestación óptima, la programación lineal, la
maximización de las ganancias, la minimización de los costos e incluso la
teoría del juego se están convirtiendo en parte de la teoría evolucionista
como de la economía. La evolución ha tenido mucho éxito en la resolución
del problema de acertar a un blanco móvil, es decir, de adaptarse a un me­
dio cambiante. Esto sólo puede ser debido a la velocidad relativa de los
dos procesos intervinientes: la velocidad con la que se mueve la evolución
hacia el blanco debe ser mucho mayor que la velocidad con que el blanco
se aleja de la evolución. (Debería agregar, para evitar un malentendido,
que un medio que cambia regularmente puede tratarse como uno constan­
te a los efectos de la teoría de la evolución.)! 10]
Ahora estamos en condiciones de mostrar la estructura lógica de la
explicación funcional en biología. Me ocuparé del caso ideal, en el que po­
demos describir el explanandum lo más completamente posible dentro del
marco funcional. De lo que se ha dicho más arriba, está claro que, y por
qué, rara vez si es que sucede, se realiza este ideal. Entonces podemos de­
cir que una característica estructural o de conducta de un organismo está
explicada funcionalmente si se puede demostrar que es parte de un máxi­
mo individual local con respecto a la capacidad reproductiva, en un medio
de otros organismos que han alcanzado máximos locales similares. Es de­
cir, si podemos demostrar que un pequeño cambio en la característica
estudiada conducirá a una capacidad reproductiva reducida para el orga­
nismo, entonces entenderemos por qué el organismo tiene dicha caracte­
rística.
He analizado dos de los elementos de esta definición: el concepto de
un máximo local y el de un equilibrio biológico general. Ahora quiero decir
algo acerca de las otras dos ideas que entran en la definición. Primero, de­
bemos insistir en el carácter estrictamente individualista de la explica­
ción funcional en biología. La evolución natural promueve la capacidad
reproductiva del organismo individual, no la de la población, de las espe­
cies o del ecosistema. De hecho, el aumento de la capacidad reproductiva
del individuo puede reducir la de la población. Para explicar cómo puede
suceder esto necesitamos un aparato conceptual que resultará útil en ca­
pítulos posteriores.
Supongamos que un organismo (o un individuo humano) pueda com­
portarse en una de dos maneras diferentes, egoístamente (E) y altruista­
mente (A). No debe preocupamos aquí el origen de cualquier conducta ob­
servada: puede ser elección deliberada, mutación, etc. Supongamos también
que el organismo (restringiéndonos a este caso por el momento) vive en
una población de otros organismos que también se comportan de alguna
de estas dos maneras. Debido a la interacción, el resultado— en términos
de capacidad reproductiva— para el organismo dependerá no solamente
de su propia conducta, sino también de la de los demás. Por conveniencia
y sin mucha pérdida de generalidad,[11] podemos suponer que la situa­
ción que enfrenta el organismo es la siguiente. Hay sólo cuatro posibilida­
des: por un lado el organismo puede seguir A o E, y por el otro lado todos

51
los demás pueden seguir A o todos pueden seguir E. Escribiremos ‘(A, E)’
para el caso en que el organismo adopta A y todos los demás E; ‘(E, E)’ pa­
ra el caso en que el organismo y los demás adoptan E; y así con los demás.
Si tomamos un ejemplo de los cardúmenes de peces,[12] ‘E’ será la tenden­
cia hacia el medio del cardumen y ‘A’ será la ausencia de dicha tendencia.
Es claro entonces que será favorecida una mutación hacia E ya que, sien­
do las otras iguales, siempre es mejor estar en el medio del cardumen que
en la periferia porque los peces del medio están menos expuestos a los de­
predadores. Sin embargo, si todos tratan de estar en el medio (como lo ha­
rán, ya que los peces que lo hagan se verán favorecidos por la selección na­
tural), el cardumen como un todo se tom ará más compacto y estará más
expuesto a los depredadores. Esto significa que, desde el punto de vista de
la capacidad reproductiva de cada pez, las cuatro alternativas pueden cla­
sificarse según el orden de preferencia del dilema de los prisioneros:

Preferencias del dilema de los prisioneros:


1. (E, A). 2. (A, A). 3. (E, E). 4. (A, E).

Para referencias futuras deberán tenerse en cuenta las siguientes ca­


racterísticas de esta estructura. 1) Si nos limitamos a los casos en que to­
dos se comportan del mismo modo, el altruismo universal tiene preferen­
cia sobre el egoísmo universal. 2) El egoísmo es una estrategia dominante,
ya que cualquier cosa que hagan los demás peces, la mejor opción para
cada pez es seguir E. 3) Esto significa que el resultado será que todos si­
gan E. 4) Esto significa que el resultado real es peor para todos que cual­
quier otra opción concebible, y peor en particular para todos que la situa­
ción que se obtuvo antes de la mutación a E. Entonces el resultado real es
Pareto inferior al estado inicial. 5) El resultado “colectivamente óptimo”
(A, A) es tanto individualmente inaccesible (no hay ventaja dando el pri­
mer paso hacia él) como individualmente inestable (hay una ventaja en
dar el primer paso alejándose de él). 6) Para cada organismo la mejor si­
tuación posible es la de egoísmo unilateral (“jinete independiente”), la
peor, la de altruismo unilateral (“aprovechador”).
Muchas de estas observaciones resultarán más pertinentes cuando se
traduzcan al lenguaje intencional propio del ánalisis de la conducta hu­
mana. Pero demuestran claramente que no hay mecanismo mediante el
cual la selección natural tiende a favorecer la supervivencia de las espe­
cies o de la población. De hecho, la población puede “mejorarse hasta la
extinción”. Sin embargo, esta tendencia individualista de la selección
natural no excluye la evolución de una conducta altruista, a través de me­
canismos tales como la selección por parentesco, la selección recíproca o
— posiblemente— la selección grupal.[13] Pero la tendencia requiere que
todas estas explicaciones tengan una base firme en las presiones de la se­
lección que se ejercen sobre los individuos. El antiguo concepto de que las
características que originan beneficios colectivos pueden explicarse sim­
plemente a través de aquellos beneficios, ha sido abandonado por la biolo­
gía contemporánea.[14]
La última característica de la explicación funcional sobre la que quie­

52
ro dirigir la atención es que el maximando es la adaptación reproductiva,
no la adaptación al ambiente según se mide, digamos, durante una vida.
Es obvio que cierta adaptación ecológica en general es un medio indispen­
sable para la adaptación reproductiva, pues si no se sobrevive, tampoco se
puede reproducir. Pero la conexión es solamente general: la selección na­
tural no favorece el grado máximo de adaptación ecológica, sino el grado
que es óptimo para la adaptación reproductiva. Demasiada adaptación
ecológica puede resultar peijudicial para la adaptación reproductiva, sim­
plemente porque el sólo proceso de producir y criar descendencia crea un
riesgo ecológico para el organismo exponiéndolo más a depredadores que
en otro momento. Para maximizar la adaptación ecológica un organismo
debería ser estéril, con adaptación reproductiva cero.
Es importante ver que las dos últimas características mencionadas de
la explicación funcional crean una teoría muy diferente de la imagen po­
pular de la evolución. En lugar del tranquilizador panorama de la selec­
ción natural que adapta las especies a su medio, por ejemplo, evitando el
pastoreo excesivo o la agresión, obtenemos la triste historia de organis­
mos individuales que salen a maximizar la cantidad de descendientes, su­
ceda lo que suceda. O, más sombrío aun, una historia acerca de genes indi­
viduales que salen a maximizar las copias de ellos mismos, utilizando a
cada organismo como sus recipientes.[15]

b . E x p lic a c ió n f u n c i o n a l: e n la s c ie n c ia s s o c ia le s

Mi análisis de la explicación funcional en las ciencias sociales consta­


rá de dos pasos. En primer lugar expondré un argumento contra esta ex­
plicación que ya he desarrollado en otra parte, y que aún creo que es bási­
camente válida.[16] Sin embargo, en segundo lugar explicaré algunas de
las razones que me han hecho ver que el tema es más complicado de lo que
solía pensar. Antes de entrar en los detalles de estos argumentos, quiero
decir algunas palabras acerca de la gran atracción que parece ejercer la
explicación funcional sobre muchos científicos sociales, bastante indepen­
dientemente de los argumentos serios que puedan introducirse en su de­
fensa. Creo que la atracción se origina en el supuesto implícito de que to­
dos los fenómenos sociales y psicológicos deben tener un significado, es
decir que debe haber algún sentido, alguna perspectiva en los que son be­
neficiosos para alguien o algo; y que además estos efectos benéficos son
los que explican el fenómeno estudiado. Este modo de pensar es totalmen­
te ajeno a la idea de que puede haber elementos de sonido y furia en la vi­
da social, consecuencias involuntarias y accidentales que no tienen signi­
ficado alguno. Incluso cuando el cuento parece relatado por un idiota, se
supone que existe un código que, una vez hallado, nos permitirá descifrar
el verdadero significado.
Esta actitud tiene dos raíces principales en la historia de las ideas. La
primera es la tradición teológica que culmina con la Teodicea de Leibniz,
con el argumento de que todos los males aparentes del mundo tienen con­

53
secuencias beneficiosas para el modelo más amplio que los justifica y ex­
plica. Es cierto, ésta no es la única forma posible de teodicea, pues tam­
bién existe la tradición alternativa que explica el mal como el inevitable
subproducto del bien y no como un medio necesario para lograrlo.[17] Cas­
car los huevos no contribuye al sabor de la omelette; simplemente no pue­
de ser de otro modo. Además, la teodicea no puede servir como una base
deductiva para la sociodicea, para utilizar un término acuñado por Ray-
mond Aron, solamente como una analogía. No hay razón para que el mejor
de los mundos posibles también incluya a la mejor de las sociedades posi­
bles. De hecho, el punto central de la teodicea es que la suboptimalidad en
la parte puede ser una condición para la optimalidad en el todo, y esto
también puede ser cierto si la parte considerada es el rincón del universo
en el que la historia del hombre se desarrolla. A pesar de estas amenidades
lógicas, el legado de la tradición teológica a las ciencias sociales fue una
fuerte conjetura de que los vicios privados resultarían ser beneficios pú­
blicos.
En segundo lugar, la búsqueda de significado deriva de la biología
moderna. La biología predarwiniana también encontró un penetrante sig­
nificado en los fenómenos biológicos, pero era un significado otorgado por
el creador divino y no uno que pudiera servir como una inspiración inde­
pendiente para la sociología. Sin embargo, Darwin le dio a la adaptación
biológica un fundamento sólido en el análisis causal proporcionando así
un sustituto para la tradición teológica a cuya destrucción también con­
tribuyó. Anteriormente tanto la sociodicea como la biodicea derivaban di­
rectamente de la teodicea, pero ahora la sociodicea podría apelar a una
biodicea independiente. Nuevamente, la biodicea no servía como una base
deductiva (excepto algunas formas de darwinismo social y más reciente­
mente la sociobiología), sino como una analogía. De modos algunas veces
crudos y otras veces sutiles, los científicos sociales estudiaban la sociedad
como si los presupuestos de adaptación y estabilidad tuvieran la misma
validez que en el reino animal. En la cámara de los horrores del pensa­
miento científico los excesos biológicos de muchos científicos sociales cer­
ca de comienzos de siglo ocupan un lugar primordial.[l81 Actualmente la
situación es menos desastrosa, pero el paradigma biológico mantiene una
importancia desproporcionada con respecto a sus méritos.
Podemos distinguir entre el programa fuerte y débil de la sociología
funcionalista. El programa fuerte puede resumirse en el

Principio de Malinowski: Todos los fenómenos sociales tienen conse­


cuencias beneficiosas (intencionadas o no, reconocidas o no) que los
explican.
Este principio puede asociarse con ideologías tanto conservadoras co­
mo revolucionarias: las primeras explicarán los hechos sociales en térmi­
nos de su contribución a la cohesión social, las segundas según su contri­
bución a la opresión y el dominio de clase.[19]
Esta teoría fue hábilmente criticada por Merton,[20] que propuso a su
vez expresar el programa débil de la siguiente manera:

54
Principio de Merton: Cada vez que los fenómenos sociales tienen con­
secuencias beneficiosas, involuntarias y no reconocidas, también pue­
den explicarse a través de dichas consecuencias.

Para situar la falacia en este principio, permítaseme enunciar lo que


sería una forma de explicación funcional válida, si bien rara vez ejemplifi­
cada, para demostrar cómo se desvía de ella el Principio de Merton. De
fuentes estándar como Social Theory and Social Structure de Merton y
Constructing Social Theories de Stinchcombe, podemos extraer la siguien­
te descripción de lo que parecería una explicación funcional válida:[21]

Un modelo X de institución o de conducta es explicado por su función


Y para el grupo Z si y sólo si:

1) Y es un efecto de X;
2) Y es beneficioso para Z;
3) Y no es intención de los actores que realizan X;
4) Y — o por lo menos la relación causal entre X e Y— no es reconoci­
da por los actores en Z;
5) Y mantiene a X por un giro de retroalimentación causal que pasa a
través de Z.[22]

Hay algunos casos en las ciencias sociales que satisfacen todos estos
criterios. El más conocido es el intento de la escuela de economistas de
Chicago de explicar la conducta de maximización de ganancias como re­
sultado de la “selección natural” de empresas por el mercado.[23] La ano­
malía que motivó este intento fue la siguiente. Por un lado, la conducta
externa observada en las empresas, como la elección de combinaciones de
factores y de nivel de producción, parece indicar que adoptan una posición
de maximizar las ganancias ajustándose óptimamente a la situación del
mercado. Por otro lado, estudios del proceso interno de toma de decisiones
de la empresa no encontraron que tuviera dicho objetivo; sino que eran
usuales ciertas reglas prácticas e inmediatas. Para cubrir la brecha entre
la producción de la caja negra y su trabajo interno, uno postuló que algu­
nas empresas simplemente utilizaran reglas prácticas para maximizar
las ganancias y otras no; que las primeras sobreviven mientras que las
otras se extinguen; que las rutinas de maximización de ganancias tienden
a propagarse entre la población de empresas, ya sea por imitación o por
adquisición de compañías. Si fijamos X igual a cierta regla práctica, Y
igual a la maximización de ganancias y Z igual al conjunto de empresas,
tendremos un ejemplo de análisis funcional exitoso, en el sentido de que
posee la clase correcta de estructura explicativa. Sin embargo, debe obser­
varse que la condición 4 solamente se cumple si las reglas se propagan por
adquisición de compañías, no por imitación.
Russell Hardin me ha convencido de que este ejemplo no es tan singu­
lar como se pensaba antes.[24] Entre otros, da el siguiente ingenioso
ejemplo: el crecimiento de la burocracia norteamericana puede explicarse
a través de sus consecuencias beneficiosas para los congresistas, pues una

55
burocracia significa más problemas burocráticos para el votante, y más
quejas para sus representantes en el Congreso, que entonces son reelegi­
dos porque son más capaces que los candidatos nuevos para brindar este
servicio, pero también significa que los congresistas tienen menos tiempo
para el trabajo legislativo, que entonces recae en la burocracia, que por lo
tanto aumenta. Similarmente, el refuerzo skinneriano proporcionaría un
mecanismo que puede sostener explicaciones funcionales, aunque nueva­
mente es dudoso si se cumple la condición 4, pues “si un vínculo causal es
tan sutil que su percepción está más allá de los poderes cognitivos (del be­
neficiario), no puede desempeñar ningún papel en el refuerzo”.[25] Si
abandonamos la condición 4, obtenemos la clase de explicaciones que po­
drían denominarse explicaciones filtro, en las que el beneficiario puede
percibir y reforzar (o adoptar) el modelo que lo beneficia, aunque en pri­
mer lugar dichos beneficios no tuvieron ningún papel en su surgimiento.
Si bien son empíricamente importantes,[26] estas explicaciones no sirven
como ejemplos de explicación funcional exitosa así como se utiliza el tér­
mino aquí.
Sin embargo, mi preocupación principal no es la rareza o frecuencia
de los casos exitosos del paradigma enunciado más arriba. Quiero decir
que muchos casos aparentes de explicación funcional fallan porque el giro
de retroalimentación del criterio 5 está postulado y no demostrado. O qui­
zá “postulado” es demasiado fuerte, y debería decir “tácitamente presu­
puesto”. Los sociólogos funcionalistas afirman como si (que no es afirmar
que) el criterio 5 se cumpliera automáticamente cuando se cumplen los
otros criterios. Como la demostración de que un fenómeno tiene conse­
cuencias involuntarias, no percibidas y beneficiosas parece otorgarle cier­
ta clase de significado, y como dar significado es explicar, el sociólogo tien­
de a suponer que su trabajo ha terminado cuando se demuestra que se
cumplen los primeros cuatro criterios. En todo caso, ésta es la única mane­
ra en que puedo explicar la verdadera práctica de la sociología funcionalis-
ta, de la que ahora daré algunas muestras.
Consideremos primero un argumento de Lewis Coser con respecto a
que “Los conflictos dentro y entre estructuras burocráticas proporcionan
los medios para evitar la osificación y el ritualismo que amenaza su forma
de organización”.[27] La frase es característicamente ambigua, pero es di­
fícil no retener una impresión de que la prevención de la osificación expli­
ca el conflicto burocrático. Si no se hacen reclamos explicatorios, ¿por qué
Coser no escribió “tiene el efecto de reducir” en lugar de “proporcionan los
medios para evitar”? El término “medios” indica claramente el concepto
complementario de un “fin”, con la idea sugerida de que el medio está allí
en favor del fin. Pero por supuesto no se postula ningún actor que desplie­
gue los medios o que defina el fin: estamos en presencia de una teleología
objetiva, un proceso que no tiene sujeto y sin embargo tiene una meta.
Como ejemplo tomaré el siguiente pasaje del tercer volumen del Capi­
tal de Marx:

La circunstancia de que un hombre sin fortuna pero que posee energía, soli­
dez, estabilidad y agudeza comercial pueda convertirse en un capitalista de

56
esta manera... es muy admirada por los apologistas del sistema capitalista.
Aunque esta circunstancia trae continuamente una indeseada cantidad de
nuevos soldados de fortuna al campo y a la competencia con los capitalistas
ya existentes, también refuerza la supremacía del capital mismo, extiende
su base y le permite reclutar nuevas fuerzas para sí fuera del sustrato de la
sociedad. De manera similar, la circunstancia de que la Iglesia Católica, en
la Edad Media, formara su jerarquía con los mejores cerebros del territorio,
sin considerar sus propiedades, nacimiento o fortuna, fue uno de los princi­
pales medios para consolidar el poder eclesiástico y suprimir la laicici-
dad.[28]

Nuevamente observamos el uso delator de la palabra “medios”, así co­


mo la idea de que el “capital” —no debe confundirse con el conjunto de los
capitalistas— tiene ojos que ven y manos que se mueven.[29] Es verdad
que el texto puede interpretarse como para entender que Marx simple­
mente está describiendo una feliz coincidencia, pero a la luz de sus antece­
dentes hegelianos y su persistente inclinación a la explicación funcional,
no puedo tomar seriamente la idea.[30]
Luego los marxistes continuaron la tradición de la teleología objetiva.
Es un procedimiento normal entre los científicos sociales marxistas expli­
car cualquier institución, política o conducta dadas, buscando primero la
clase a cuyo interés sirven y luego explicándolas a través de dichos intere­
ses. O, con frecuencia se supone que todos los fenómenos sociales sirven a
los intereses de la clase capitalista, y luego el asunto se convierte en la
búsqueda de un sentido aceptable en el que esto sea cierto. Esto resulta
muy fácil con los significados múltiples del concepto de interés de clase,
que es ambiguo con respecto a las distinciones entre el interés del inte­
grante de cada clase y el interés de la clase como un todo; entre el interés
a corto y a largo plazo; entre el interés transicional y el de estado fijo; en­
tre el interés inmediato y el fundamental; entre el interés económico y el
político. Pero por supuesto el solo hecho de que en cierto sentido se atien­
da a un interés de clase no ofrece una explicación. Por ejemplo, es cierto
que las divisiones internas en la clase obrera sirven a los intereses de la
clase capitalista, pero no debemos concluir a partir de ello que ocurren
porque tienen dicho efecto.[31] Hacerlo es ignorar la importante distin­
ción de Simmel entre tertiusgaudens y divide et impera: es posible benefi­
ciarse con el conflicto entre los propios enemigos y sin embargo no tener
parte en el sufrimiento del conflicto.[32]
Los científicos sociales marxistas tienden a combinar la falacia fun-
cionalista general con otra, el supuesto de que las consecuencias de largo
plazo pueden explicar sus causas incluso cuando no hay acción intencio­
nal (o selección),[33] Por ejemplo, hay algunas teorías marxistas del Esta­
do que 1) rechazan el concepto instrumental del Estado como una herra­
mienta en manos de la clase capitalista, 2) aceptan que el Estado frecuen­
temente actúa de un modo que va en detrimento del interés a corto plazo
de la clase capitalista, 3) afirman que es en el interés a largo plazo de di­
cha clase tener un Estado que no actúa siempre y en todas partes en favor
de su interés a corto plazo, y 4) sostienen que este interés a largo plazo ex­
plica las acciones del Estado, incluyendo las que están contra el interés a

57
corto plazo.[34] Ahora bien, en primer lugar, el concepto de interés a largo
plazo es tan elástico y ambiguo que puede utilizarse para demostrar casi
cualquier cosa; y en segundo lugar no se puede apelar al modelo “un paso
hacia atrás, dos hacia adelante” sin apelar también a la existencia de un
agente intencional. No se pueden tener las dos situaciones: ambas apelan
a una teleología objetiva que no requiere un agente intencional, y atribu­
yen a esta teleología un modelo que solamente tiene sentido para la inten­
cionalidad subjetiva.[35]
Esto concluye mi argumento — o debería decir diatriba— contra la ex­
plicación funcional del tipo más irreflexivo. Podría parecer injusto incluir
a Merton entre, e incluso como el ejemplo más importante de, los adhe-
rentes a este procedimiento. De hecho deja el interrogante de si sus análi­
sis funcionales pretenden explicar, o quizá simplemente son paradigmas
para el estudio de consecuencias involuntarias en general. Pero como los
comprensivos lectores han considerado que su meta es la explicación,[36]
y como sin duda ha sido la interpretación más influyente, creo que mi pre­
sentación está ampliamente justificada.
Los argumentos presentados más arriba descansan sobre dos pre­
misas tácitas. Primero, una explicación funcional puede triunfar sola­
mente si hay razones para creer en un giro de realimentación desde la
consecuencia hasta el fenómeno que se explica. Segundo, estas razones
solamente pueden ser la muestra de un mecanismo específico de rea­
limentación en cada caso en particular. La segunda premisa no es ne­
cesaria en el caso de la explicación funcional en biología, pues aquí
tenemos conocimiento general — la teoría de la evolución a través de la
selección natural— de que asegura la existencia de cierto mecanismo de
realimentación, aunque en un caso dado no podamos demostrarlo. Pero no
hay un análogo de las ciencias sociales a la teoría de la evolución y, por lo
tanto, los científicos sociales se ven obligados a mostrar en cada caso cómo
funciona la realimentación. Ahora continuaré analizando dos defensas de
la explicación funcional que se basan en la negación de ambas premisas
respectivamente. Comienzo con el intento de Arthur Stinchcombe de de­
mostrar que hay un análogo de las ciencias sociales a la teoría de la selec­
ción natural, y luego analizaré la propuesta más revolucionaria de G. A.
Cohén de que para una explicación funcional exitosa no es necesario nin­
gún conocimiento — general o específico— de un mecanismo.
Stinchcombe indica que deberíamos considerar el cambio social como
una cadena absorbente de Markov.[37] Para explicar esta idea, utilizaré
un ejemplo de un pasaje citado más arriba, con respecto a la función de los
conflictos dentro y entre las burocracias. Suponemos que el sistema bu­
rocrático puede estar en uno de dos estados posibles: R (rígido) y F (flexi­
ble). Una burocracia rígida tiene una estructura jerárquica que no permi­
te la manifestación de conflictos. Esto conduce a la acumulación de
tensión en la organización, que tendrá dificultades para adaptarse a las
condiciones cambiantes y a los problemas. Por otro lado, una estructura
flexible permite el desarrollo actualizado del conflicto y asegura la adap­
tación. Entonces planteamos la pregunta de Markov: dado que la organi­
zación en el momento t se encuentra en uno de los dos estados R o F, ¿cuá­

58
les son las probabilidades de que el momento t +1 esté en uno u otro de los
estados?

Cuadro 2
Estado en el momento t

R F

Estado en el R 0 <p<1 0

momento t +1 F 1-p 1

El supuesto central representado en el cuadro 2 es que el estado F es


absorbente. Una vez que la organización ha entrado en dicho estado, nun­
ca lo abandona, ya que no hay acumulación de tensión que produzca un
cambio. Si la organización comienza en el estado F, permanecerá allí. Si
comienza en el estado R, sabemos por la teoría de las cadenas de Markov
— y de hecho es obvio— que tarde o temprano terminará en el estado F
con una probabilidad del 100% de permanecer allí. El argumento dice que
esto demuestra que hay una presunción de equilibrio en los sistemas so­
ciales. Los estados de no equilibrio no son duraderos, y por lo tanto son
reemplazados por otros, que pueden o no estar en equilibrio. Mientras ha­
ya una probabilidad no nula de que el estado de no equilibrio será reem­
plazado por uno de equilibrio, el segundo se alcanzará tarde o temprano.
La teoría de la cadena de Markov de la evolución social difiere de la
teoría de la selección natural de la evolución biológica en que no hay com­
petencia entre las soluciones coexistentes para los mismos problemas
funcionales. En realidad hay una secuencia de soluciones sucesivas que se
detiene una vez que ha surgido un arreglo satisfactorio. En el lenguaje
utilizado más arriba: una vez que la máquina ha dicho Sí a una entrada,
deja de buscar más entradas (hasta que un cambio en el ambiente nueva­
mente lo requiera). O nuevamente, la teoría supone que la evolución social
se basa en satisfacer en lugar de maximizar. Seguiré hablando de satisfa­
cer en los capítulos 3 y 6 más adelante.
¿Cuál es el poder explicativo de este ambicioso e interesante intento
de proporcionar un fundamento general para la explicación funcional en
las ciencias sociales? En mi opinión es débil pues está sqjeto a las dos ob­
jeciones que enunciaré ahora.
En primer lugar, el modelo fracasa como base para la explicación fun­
cional ya que no explica los fenómenos sociales en términos de sus conse­
cuencias beneficiosas o estabilizadores. En realidad, la carga explicativa
se traslada a la ausencia de consecuencias desestabilizadoras. Una infe­
rencia es que el modelo viola nuestros conceptos intuitivos sobre la expli­
cación funcional, que seguramente debe estar relacionada de alguna ma­
nera con funciones, no simplemente con la falta de disfunciones. Por ejem­
plo, en el enfoque de la cadena de Markov podríamos decir que la posición

59
de una persona que duerme puede explicarse como un estado absorbente:
damos vueltas dormidos hasta que encontramos una posición en la que no
hay presiones hacia otro cambio. [38] Esta puede ser una explicación váli­
da de la posición, pero no es una explicación funcional. Esta no es una ob­
jeción seria en sí misma. Sin embargo, en el caso más general un estado de
neutralidad funcional o de indiferencia con frecuencia inducirá una des­
viación, [39] que con el tiempo se acumulará para producir grandes cam­
bios. La tradición es un ejemplo. A diferencia del tradicionalismo, la tradi­
ción tiene una memoria corta e inexacta: consiste en hacer aproximada­
mente lo que hicieron nuestros padres, no hacer exactamente lo que las
personas de nuestra sociedad han estado haciendo desde tiempos inme-
moriales.[40] Por lo tanto, la conducta tradicional frecuentemente se en­
cuentra en un estado de cambio incesante y hasta imperceptible. Explicar
la conducta tradicional, como la danza de la lluvia de los trobriandos,[41]
mediante la ausencia de consecuencias desestabilizadoras es, entonces,
ser víctima de miopía o aceptar sin pensar la descripción local de la prác­
tica como antigua e inmutable. Para que la tradición sea inmutable, debe
haber fuerzas que actúan sobre ella para mantener constante la conduc-
ta.[42]
Sin embargo, en muchos casos la ausencia de un efecto positivo será
como la presencia de uno negativo. Por ejemplo, no es siempre cierto que
aquellos que pagan a los burócratas continuarán apoyándolos aunque no
les envíen por lo menos algo de la mercadería. Algunas veces las burocra­
cias sobreviven simplemente por no causar petjuicios, pero esto no sirve
como un enunciado general. Concentrándome en los equilibrios estables
puedo ahora enunciar mi segunda objeción al modelo de Stinchcombe.
El modelo de la cadena de Markov se aplica a instituciones específi­
cas, no a sociedades enteras. Para cualquier institución, lo que cuenta co­
mo equilibrio dependerá del estado actual de todas las demás institucio­
nes, igual que en el caso biológico. Esto significa que, como en el caso de la
evolución biológica, estamos en presencia de un blanco móvil. Sin embar­
go, en el caso social no hay razones para creer que la velocidad del proce­
so de adaptación exceda, en caso de hacerlo, la del cambio de los criterios
de adaptación. Por el contrario, el mismo ejemplo considerado más arriba
demuestra muy bien que los cambios sociales no tienen el carácter lento e
incremental de la evolución biológica. Una vez que el sistema burocrático
de una sociedad cambia tanto como de R a F, o de F a R, todos los demás
subsistemas pueden ser lanzados — o alejarse— del equilibrio y puede no
haber tiempo para moverse a (o sustancialmente hacia) uno nuevo.
Sin duda es un asunto empírico que admite niveles. En las sociedades
campesinas tradicionales puede ser que todos los subsistemas estén en un
estado de adaptación mutua entre sí, aunque nuevamente podría ser una
ilusión debida a la visión limitada del observador (o de la ideología local).
Edmund Leach, en su estudio de los kachin, argumenta en favor de un ci­
clo muy largo de cambio social en esta sociedad tradicional, apelando a
una analogía con los ciclos de población en ecología. [43] Si esto es así, me
resulta claro que en las modernas sociedades industriales hay demasia­
dos cambios como para que los equilibrios tengan tiempo para producirse

60
del modo que propone Stinchcombe.[44] La asociación entre antropología
social y explicación funcional entonces puede no ser accidental.
La defensa de Cohén de la explicación funcional se basa en considera­
ciones epistemológicas y no en una teoría sociológica justificativa. [45]
Afirma que mientras el conocimiento de un mecanismo es condición sufi­
ciente para una explicación funcional exitosa, y la existencia de un meca­
nismo es una condición necesaria, el conocimiento no es una condición ne­
cesaria. Una explicación funcional debe estar respaldada por algo más
allá de la mera observación de que el explanandum tiene consecuencias
beneficiosas, pero no necesitamos apelar a un mecanismo específico para
el respaldo. Las leyes de consecuencia proporcionan un respaldo alternati­
vo, por ejemplo, enunciados generales legaliformes a los efectos de que ca­
da vez que una institución o una conducta tuviera efectos beneficiosos, se
observaría realmente.
Esta idea puede explicitarse a través de un ejemplo. En su análisis de
la variedad y número de organizaciones en los Estados Unidos, Tocquevi-
lle ofrece una explicación que, parafraseando una cita, dice lo siguiente.
En las democracias los ciudadanos no difieren mucho entre sí y son cons­
tantemente arrojados todos juntos a una vasta masa. Por lo tanto, surgen
una cantidad de clasificaciones artificiales y arbitrarias mediante las cua­
les cada uno trata de mantenerse aparte, temiendo que de otro modo sería
absorbido por la multitud.[46] Similarmente, sin referirse a Tocqueville,
Paul Veyne ofrece el mismo análisis de los colegios romanos, cuya “fun­
ción latente” era permitir festividades en un grupo lo suficientemente pe­
queño como para la intimidad requerida, mientras que la función mani­
fiesta era alguna meta arbitrariamente elegida y poco importante.[47]
Ahora es difícil ver cómo estos efectos involuntarios, no reconocidos y be­
neficiosos de las agrupaciones también pueden explicarlas, y en todo caso
ninguno de los dos autores proporciona un mecanismo que dé una explica­
ción. Sin embargo, Cohén diría que el análisis puede ser válido a pesar de
todo. Consideremos la siguiente proposición que resume el análisis de
Veyne:

1) Los colegios romanos pueden explicarse a través de sus efectos


beneficiosos sobre los participantes.
No será discutido por nadie. Creo que no podemos defender esta pro­
posición simplemente señalando la existencia de los beneficios. Un respal­
do posible podría ser el siguiente:

2) Los colegios romanos pueden explicarse por sus efectos benefi­


ciosos sobre los participantes, a través del mecanismo de reali­
mentación X.
Si bien acepta que esta justificación es tan buena como cualquiera, y
de hecho mejor que cualquiera, Cohén afirma que también podemos ape­
lar a una defensa de la siguiente manera:

3) En virtud de la ley de consecuencia Y, los colegios romanos pue­


den explicarse por sus efectos beneficiosos sobre los participantes.

61
Esta ley, a su vez, podría tener la siguiente forma:

Y) En todos los casos en que la aparición de colegios (o asociaciones


similares) tendría efectos beneficiosos sobre los participantes,
dichas asociaciones realmente surgen.
La estructura de esta ley, así como de todas las leyes de consecuencia,
es “Si (si A, entonces B), entonces A”.[48] Una vez establecida una ley de
tal naturaleza, podemos, si en un caso dado observamos que ocurre A y
que conduce hacia B, apelar a la ley y decir que A es explicado por su con­
secuencia B. La explicación de ninguna manera está invalidada por nues­
tra falta de conocimiento del mecanismo subyacente, aunque por supues­
to suponemos que existe tal mecanismo en virtud del cual es válida la ex­
plicación, en caso de serlo. Así podemos proceder como en el caso normal:
1) proponer una hipótesis; 2) tratar de verificarla en tantos casos específi­
cos como sea posible; 3) tratar activamente de demostrar su falsedad me­
diante contraejemplos; 4) luego de una confirmación exitosa y de una des­
confirmación fallida acordarle el carácter (provisional) de ley; y 5) utilizar
la ley para explicar otros casos. Las explicaciones propuestas por Tocque-
ville y Veyne son, por lo tanto, más convincentes tomadas en conjunto que
individualmente, ya que cada caso puede entrar en la ley explicando al
otro.
Cohén argumenta en favor de esta tesis citando el estado de la biolo­
gía antes de Darwin. En esa época los biólogos tenían el conocimiento su­
ficiente como para estar justificados al formular una ley de consecuencia
a los efectos de que, hablando groseramente, las necesidades del organis­
mo tienden a ser satisfechas, aunque no habían propuesto una explica­
ción correcta del mecanismo subyacente. Por ejemplo, Lamarck estuvo
bastante justificado y acertado al explicar la estructura de los organismos
a través de sus consecuencias útiles, aunque estaba errado en su esbozo
de un mecanismo. Similarmente, Cohén afirma que actualmente el mar­
xismo está en una situación predarwiniana. Tenemos el conocimiento
requerido para explicar, digamos, las relaciones productivas en una socie­
dad en términos de sus consecuencias para las fiierzas productivas, aun­
que todavía no podamos proporcionar un análisis detallado de la reali­
mentación en funcionamiento (véanse el capítulo 7 y el apéndice 2 más
adelante).
Mi primera objeción a esta explicación es que hace imposible distin­
guir entre las correlaciones explicatorias y las no explicatorias. Cada vez
que hemos establecido una ley de consecuencia “ Si (si A, entonces B), en­
tonces A ”, esto puede expresar alguna relación subyacente que de hecho
proporciona una explicación de A en términos de su consecuencia B, o en
términos de su propensión a producir dicha consecuencia.[49] Sin embar­
go, siempre existe la posibilidad de que haya un tercer factor C, que expli­
ca tanto la presencia de A como su tendencia a generar B. De hecho, creo
que esto es cierto para la explicación de Lamarck de la adaptación biológi­
ca. No estableció una correlación explicatoria, pues creía equivocadamen­
te que la adaptación ecológica y no la reproductiva era el hecho funda­
mental acerca de los organismos. Darwin demostró que la adaptación re­

62
productiva es el “tercer factor”, que explica tanto las características del or­
ganismo como su tendencia a ser ecológicamente adaptables.
Un ejemplo de las ciencias sociales es más ilustrativo. En su análisis
de las relaciones de autoridad en la antigüedad clásica, Paul Veyne apela
a la teoría de Festinger de la disonancia cognitiva para explicar por qué
los súbditos aceptaban tan fácilmente su sumisión.[50] El no aceptar la
superioridad natural de sus gobernantes habría creado un estado muy
desagradable —“disonancia cognitiva”— en los súbditos, que por lo tanto,
se resignaban a un estado de sumisión del que no podían escapar en
ningún caso. Sin ninguna duda, la resignación era útil a los gobernantes,
aunque distaba de ser indispensable. Si era necesario podrían haber
defendido —y cuando fue necesario lo hicieron— su mandato por la
fuerza. Sin embargo, el hecho es que era útil; más aun, se llevaba a cabo
precisamente en aquellas circunstancias donde sería útil, es decir, aque­
llas caracterizadas por una marcada desigualdad social. Un grado moíderado
de desigualdad no llevaría a la resignación, pero tampoco conduciría a la
rebelión. Entonces podemos formular una ley de consecuencia a los efectos
que “Cuando la resignación sería útil a los gobernantes, se produce la re­
signación”, y sin embargo no podemos explicar la resignación a través de
estas consecuencias, ya que hay un “tercer factor” — la marcada desigual­
dad social— que explica tanto la tendencia a la resignación como los bene­
ficios para los gobernantes. Debemos concluir que lo que explica la re­
signación de los súbditos al statu quo es que tenía beneficios para ellos,
siendo meramente casuales los beneficios para los gobernantes. La expli­
cación de Cohén de la explicación funcional en términos de leyes de conse­
cuencia recae en el problema de los epifenómenos. Para terminar con el
argumento debemos apelar al de Herbert Simón, citado en el último pá­
rrafo del capítulo 1 más arriba, de que es imposible en principio distinguir
entre correlaciones reales y falsas sin algunos supuestos a priori sobre el
mecanismo causal en funcionamiento.
Análogamente, el problema de la explicación precedente destruye el
argumento de Cohén. Podría haber una ley de consecuencia no falsa de la
forma dada más arriba y, sin embargo, la presencia de A en algún caso es­
pecífico podría deberse a un mecanismo muy diferente, que precedió al
mecanismo subyacente a la ley de consecuencia. Se podría modificar el
ejemplo utilizado en el párrafo anterior para ilustrar esta posibilidad.
Imaginemos que en general los gobernantes deben adoctrinar a los súbdi­
tos para que éstos crean en la legitimidad del gobierno, y que de hecho lo
hacen cuando lo necesitan. Sin embargo, en algunos casos pueden no ne­
cesitarlo, por ejemplo, si los súbditos espontáneamente inventan esta
ideología en bien de su tranquilidad espiritual. La ley de consecuencia ci­
tada en el párrafo anterior entonces necesitaría la resignación, pero no la
explicaría en los casos en que los súbditos preceden el adoctrinamiento
creando su propia ideología. Aunque Cohén conoce bien las dificultades
que provocan los epifenómenos y la precedencia para el modelo de Hempel
de la explicación,[51] curiosamente desconoce hasta qué punto destruyen
su propia teoría de la explicación funcional.

63
Independientemente de estas cuestiones de principio, hay fuertes ra­
zones pragmáticas para ser escéptico en el uso de las leyes de consecuen­
cia para respaldar la explicación funcional. Estas se relacionan con algu­
nas diferencias básicas entre la explicación funcional en biología y en
sociología. Primero, la biología se basa en la idea de las consecuencias
óptimas, mientras que la sociología se basa en el concepto mucho más va­
go de las consecuencias beneficiosas. En segundo lugar, la biología apela a
la misma consecuencia en todos los casos, como la adaptación reproducti­
va, mientras que en las ciencias sociales los beneficios explicatorios difie­
ren de caso a caso.[52] Dada esta amplitud en el concepto de consecuen­
cias beneficiosas, parece probable que para cualquier fenómeno social e
histórico importante se pueda encontrar una consecuencia a la que está
vinculado en una ley de consecuencia espuria. Hay tan pocos ejemplos his­
tóricos de fenómenos tales como la transición de un modo de producción a
otro, para tomar el principal ejemplo de Cohén, que no se requiere mucho
ingenio para hallar una falsa ley de consecuencia confirmada por todos
ellos. Entonces, esta objeción dice que en las ciencias sociales puede resul­
tar difícil distinguir entre generalizaciones legales y accidentales del tipo
representado por las leyes de consecuencia. Las objeciones enunciadas en
los párrafos precedentes dicen que incluso una generalización con carác­
ter de ley puede no explicar, debido a la posibilidad de que estemos en pre­
sencia de epifenómenos o de precedencias.

64
3

Explicación intencional

La explicación intencional es la característica que diferencia a las


ciencias sociales de las ciencias naturales. No tiene sentido discutir si
también es el método más importante de explicación dentro de las cien­
cias sociales. Por supuesto, el análisis causal también es muy importante
tanto en el nivel individual como en el colectivo. Dedicaré la mayor parte
de este capítulo a un análisis de la intencionalidad, y luego finalizaré con
algunas observaciones sobre la relación entre el análisis causal y el inten­
cional en las ciencias sociales.
La red conceptual que subyace al análisis de la intencionalidad es
bastante compleja. Comenzaré con un gráfico que muestra la estructura
del argumento que sigue, de manera que el lector en cualquier momento
de la exposición podrá referirse a él y situar su lugar en la jerarquía con­
ceptual.

Cuadro 3

65
a. In te n cio n a lid a d

Explicar la conducta intencionalmente es equivalente a demostrar


que es conducta intencional, es decir, conducta realizada para lograr una
meta. Explicamos una acción intencionalmente (o la entendemos, como al­
gunas veces se dice en una terminología diferente de la que adoptamos
aquí)[l] cuando podemos especificar el estado futuro que se pretendía
crear. Por supuesto, no estamos explicando la acción en términos de un
estado futuro: primero porque el explanandum no puede preceder al ex-
planans, y segundo, porque el futuro estado deseado puede no producirse
por una cantidad de razones. En particular, algunas intenciones pueden
ser intrínsecamente irrealizables y, a pesar de ello, ser mencionadas en la
explicación de la conducta desarrollada para realizarlas. Esto resultará
importante cuando se analicen las intenciones irracionales.
El esquema general para explicar la conducta intencional no sola­
mente incluye metas o deseos, sino también creencias. Un agente inten­
cional elige una acción que cree será el medio para su meta. A su vez esta
creencia está relacionada con diversas creencias acerca de asuntos fácti-
cos, relaciones causales entre medios y fines, etc. La explicación intencio­
nal esencialmente comprende una relación triádica entre acción, deseo y
creencia. Como las creencias y deseos necesitan ser explicados, la explica­
ción intencional dista de un profundo análisis de conducta. Más adelante
en este capítulo tendré algo que decir acerca de la explicación (causal o in­
tencional) de las creencias y los deseos.
Utilicemos “razón” como término común para las creencias y los de­
seos, y diferenciemos “actuar con una razón” de “actuar por una razón”.
Actuar con una razón significa que el actor tiene razones para hacer lo
qu eh ace.y actuar por una razón significa además que hizo lo que hizo de­
bido a dichas razones. La explicación intencional incluye mostrar que el
actor hizo lo que hizo por una razón. La necesidad de esta distinción se de­
muestra en casos en los que el actor hace algo accidentalmente que resul­
ta ser coincidente con lo que cree es una manera de promover su deseo.
Por ejemplo, la conducta compulsiva ocasionalmente puede ser adecuada
a la situación, pero eso no la convierte en intencional. El requisito de que
el actor hace lo que hace por una razón implica que la razón es causalmen­
te eficiente para producir la acción,[2] pero no queda agotada por dicha
deducción. Debemos agregar que las razones causan la acción “en la for­
ma correcta”, es decir, no por casualidad.[3] Por lo tanto, debemos excluir
no sólo las “coincidencias del primer tipo”, en las que algo diferente de las
razones provoca la acción, de la que son razones, sino también las “coinci­
dencias del segundo tipo”, en las que las razones realmente causan la ac­
ción de la que son razones, pero lo hacen de un modo no convencional.
La conducta intencional está esencialmente relacionada con el futuro.
Es acción guiada por una meta ausente, no realizada aún, simplemente
imaginada y representada. Como observa Franfois Jacob, los hombres
pueden elegir entre posibles no realizados, mientras que la selección na­
tural puede elegir solamente entre las alternativas reales.14] Es conocido
que la capacidad de gratificación postergada o la espera caracterizan al

66
hombre y lo diferencian de los animales.[5] Además de esperar, que inclu­
ye la capacidad de rechazar opciones favorables para acceder a opciones
aun más favorables más adelante, el hombre también tiene la capacidad
de utilizar estrategias indirectas, es decir, de aceptar opciones desfavora­
bles para acceder a las muy favorables más tarde. Ambos modos de con­
ducta fundamentalmente comprenden la relación con el futuro, así como
también lo hace la capacidad más compleja del precompromiso y otros
modos estratégicos de superar la propia irracionalidad.[6]
En el capítulo 2 varias veces apelé a la idea de que cada vez que que­
remos explicar un modelo mediante sus consecuencias positivas a largo
plazo, mientras que también le adjudicamos consecuencias negativas a
corto plazo, implícitamente estamos suponiendo la presencia de un toma­
dor de decisiones consciente. De hecho, la conciencia puede definirse como
un medio de re-presentación, una pantalla interna sobre la que lo física­
mente ausente puede tener presencia y marcar una diferencia para la ac­
ción en el presente. Operacionalmente, la conciencia puede detectarse a
través de la capacidad de desarrollar estrategias indirectas o de esperar
en situaciones cualitativamente nuevas. Aunque los animales algunas
veces se comportan de este modo, generalmente lo hacen solamente en
contextos muy estereotipados. Y cuando algunos animales parecen hacer­
lo espontáneamente, la conclusión correcta es que sin duda están dotados
de conciencia y de la capacidad para comportarse intencionalmente.[7]
De este argumento se sigue que el concepto de intenciones inconscien­
tes no es más coherente que el de la cuadratura del círculo. Sin embargo,
no se puede deducir que es imposible sacar sentido del concepto de incons­
ciente, si lo concebimos estrictamente como un mecanismo para trepar
por un gradiente de placer.[8] Sería absurdo adjudicar al inconsciente la
capacidad de esperar, de hacer sacrificios, de actuar de acuerdo con re­
glas, etc., pues todos estos modos de conducta presuponen conciencia.[9]
Los fenómenos como las ilusiones [10] o la flaqueza de voluntad [11] se
originan en el “principio del placer”, es decir, de la tendencia a buscar la
gratificación inmediata. Deberían explicarse en términos de los “cables de
la máquina del placer”,[12] no apelando a un agente milagroso u ho­
múnculo dentro de la persona. Muchas explicaciones psicoanalíticas de la
conducta se originan en la misma obsesión errónea por el significado que
subyace en gran parte de la explicación funcional.

b. In ten cion a lid a d y ra cio n a lid a d

¿Puede haber intencionalidad sin racionalidad? ¿O racionalidad sin


intencionalidad? Mi principal interés en este apartado es la primera pre­
gunta, pero permítaseme también algunas palabras sobre la segunda.
Evidentemente todo depende de cómo definimos el concepto de racionali­
dad. Si solamente queremos decir adaptación en el sentido de maximiza-
ción local, hemos visto en el capítulo 2 que puede haber racionalidad no
intencional. Pero cualquiera sea el modo en que definimos la racionali­
dad, creo que debería reservarse para los casos en que tiene poder explica-

67
tivo. Es decir que nunca habría que caracterizar una creencia, una acción
o un modelo de conducta como racional a no ser que se esté dispuesto a
afirmar que la racionalidad explica que lo que se dice es racional. O, si el
término se utiliza en un sentido no explicativo, debe aclararse. El término
“racional”, como el término “funcional” , se utiliza frecuentemente para ca­
racterizar la acción de un modo que hace poco claro si realmente hay una
intención de explicación.
La manera habitual de deñnir conducta racional es apelando a algún
concepto de optimización. Es decir que se dice que el agente racional elige
una acción que no sólo es un medio para el ñn, sino el mejor de todos los
medios que cree disponibles. En el siguiente apartado afirmaré que los
conceptos de racionalidad y optimalidad no son sinónimos. La caracteri­
zación más completa de racionalidad tendrá que posponerse hasta ese
momento. Para los propósitos presentes es suficiente observar que la ra­
cionalidad mínimamente implica consistencia de metas y creencias. Para
calzar una cuña entre intencionalidad y racionalidad, debemos demostrar
que puede haber deseos inconsistentes y creencias inconsistentes.
Con respecto a las creencias inconsistentes, demostraré su posibili­
dad mediante una historia sobre Niels Bohr, que cierta vez tenía una he­
rradura sobre la puerta. Cuando se le preguntó si la había colocado allí
porque creía que le traería suerte, contestó: “No, pero me dijeron que
traen suerte incluso a quienes no creen en ellas”.[13] Arreglando un poco
la historia, resulta lo siguiente:

1) Niels Bohr cree “La herradura no me traerá suerte”.


2) Niels Bohr cree “Las herraduras le traen suerte a quienes no
creen que les traerán suerte”.

Aunque las creencias entre comillas son consistentes entre sí, ambas
no pueden ser ciertas y ser creídas (por Bohr). Pero un sistema de creen­
cias es consistente solamente si existe un mundo posible en el que son to­
das ciertas y creídas.[14] Si en favor del argumento suponemos que Bohr
no estaba haciendo una broma y que en realidad colocó una herradura so­
bre la puerta porque quería suerte y creía, aunque inconsistentemente,
que le traería suerte, tenemos el caso de una acción claramente irracio­
nal, y sin embargo explicada intencionalmente.
Sin embargo, son más centrales los deseos irracionales que fueron es­
tudiados intensivamente desde Hegel por filósofos y psicólogos. Los crite­
rios de consistencia para los deseos pueden definirse análogamente a los
criterios para la creencia: debería haber algún mundo posible en el que el
deseo 1) se cumple y 2) se cumple a través del intento de hacerlo. La nece­
sidad de la primera condición es obvia: sirve para caracterizar deseos tan
irracionales como el deseo bien intencionado de que todos ganen más di­
nero que el ingreso promedio. La necesidad de la segunda condición se
demuestra observando la importancia de los fenómenos que son esencial­
mente subproductos, es decir, el conjunto de estados que solamente pue­
den aparecer, no ser producidos por la acción deliberada. [15] Un caso pa­
radigmático es el sueño, que — después de cierto punto— elude a quien

68
trata de provocarlo, mientras que llega compasivamente cuando final­
mente ha decidido que lo eludirá. Similarmente para otras “ausencias de­
seadas”, como el olvido, la indiferencia o el no deseo (en el budismo). Tam­
bién hay estados definidos positivamente, como la creencia o el coraje, que
son imposibles de lograr por voluntad, y el intento de hacerlo entonces es
una intención irracional. Además, hay casos en los que es conceptualmen­
te imposible provocar por la mera orden determinados estados en otra
persona, por ejemplo, tratar de ordenar la gratitud de otra persona. O si
tomamos una paradoja obvia, consideremos la orden “Sea espontáneo”.
Esto incluye tratar de no tratar, es decir, intenciones de un orden mayor,
así como la paradoja de Bohr comprendía creencias de un orden mayor.
Tratar de no tratar, o desear la ausencia de voluntad, serían metas con­
sistentes si solamente se apelara al criterio 1. Sin embargo, como son cla­
ramente autoderrotistas, es necesaria la condición 2.
Otro ejemplo de deseos inconsistentes puede servir como transición
para el análisis de optimalidad. Supongamos que una persona se aboca a
encontrar la solución de un problema de maximización que en realidad no
tiene solución, como por ejemplo “Encontrar el número real más pequeño
estrictamente mayor que 1”. La conducta de esta persona entonces puede
explicarse mediante la meta que se ha fijado. La observamos escribiendo
números cada vez más pequeños, todos estrictamente mayores que 1, y
explicamos lo que hace a la luz de este plan inconsistente. Esto no sólo cal­
za una cuña entre intencionalidad y racionalidad, sino también entre
racionalidad y optimalidad. Evidentemente, en este caso la conducta
racional no es la que optimiza. Lo que sería la (o una) conducta racional
depende de los motivos prácticos detrás de la operación. Si la persona va a
recibir una cantidad de dinero igual a una libra dividida por la diferencia
entre el número elegido y 1, puede pensar en una suma “satisfactoria” y
elegir el número de acuerdo con ella.

c. Racionalidad y optimalidad

En este apartado primero continuaré con las últimas observaciones y


luego me olvidaré de ellas. De hecho, aunque hay fuertes razones de prin­
cipio para insistir en las diferencias entre intencionalidad y racionalidad
y entre racionalidad y optimalidad, la explicación en términos de optimi­
zación sigue siendo el caso paradigmático de la explicación en las ciencias
sociales fuera de la psicología. En economía, la teoría de la satisfacción es
reconocida por muchos como una importante alternativa teórica para op­
timizar, pero sigue insuficientemente desarrollada como para servir de
base para el trabajo empírico.
Hay dos razones por las que la interpretación de racionalidad como
optimalidad no vale para la generalidad. También hay razones para creer
que algunas veces la racionalidad debe entenderse como satisfaciente, es
decir, como que encuentra una alternativa “lo suficientemente buena” pa­
ra nuestro propósito y no la “mejor” .[161 Primero, existe el argumento es­
pecial para satisfacer que deriva de los problemas de optimización sin so­

69
luciones bien definidas, como en el caso mencionado más arriba. Para un
ejemplo menos trivial, consideremos un plan sobre tiempo infinito. La
persona que lo realiza tratando de maximizar el consumo en tiempo infi­
nito puede descubrir — utilizando el “criterio de adquisición”— [17] que no
hay un porcentaje óptimo de ahorro, ya que por cada porcentaje menor
que el 100% hay uno mayor que es mejor, aunque el porcentaje 100% es
inferior a todos los demás, pues implica que se pospone siempre el consu-
mo.[18] En tales casos la conducta racional debe ser encontrar un plan
que sea “suficientemente bueno”, formalizado en la teoría de los planes
agradables.[19] Si realmente observamos una persona que realiza un
plan eligiendo un porcentaje de ahorro bastante alto en tales casos, pode­
mos explicar su elección intencionalmente, en términos de la meta de ma­
ximizar el consumo en el tiempo. Sin embargo, obsérvese que la explica­
ción no tiene “una sola salida”,[20] es decir, que del supuesto acerca de la
meta no podemos derivar una única consecuencia observacional que se
compare con el comportamiento real. La explicación intencional debe
completarse con algún relato causal de por qué la persona fijó exactamen­
te aquel porcentaje de ahorro. La razón por la que la satisfacción no emer­
gió como una alternativa para optimizar es sin duda que tales explicacio­
nes suplementarias no han sido próximas, mientras que el supuesto de
satisfacer en sí mismo puede ser compatible con una gran cantidad de he­
chos observados.
En segundo lugar, se puede apelar al argumento general para satisfa­
cer que deriva de las paradojas de información que se analizan más ade­
lante en el capítulo 6. Aquí solamente observaré que el argumento requie­
re que no definamos la racionalidad en términos de creencias dadas, sino
que preguntemos si las creencias son racionales. Esto significa que a la
pregunta “¿Puede esta acción ser explicada como una conducta optimi­
zante?”, podemos dar respuestas diferentes, dependiendo de si las creen­
cias son consideradas como constantes o como variables de conducta. Si
adoptamos un concepto “delgado” de racionalidad, definido con respecto a
creencias dadas, solamente se aplica el argumento especial para satisfa­
cer. El argumento general tiene fuerza si adoptamos un concepto más am­
plio de racionalidad, que también requiere racionalidad en la recolección
de información y la formación de creencias.
Ahora proseguiré con la estructura fina de optimizar la conducta. El
primer caso y el más simple es lo que denominaré racionalidad paramétri­
ca, es decir, conducta racional dentro de un medio que el agente (quizás
erróneamente) supone está formado: a) por objetos naturales gobernados
por leyes causales, y b) por otros agentes que o bien son tales que su con­
ducta no le resulta diferente, o si sí le resulta diferente, se suponen menos
sofisticados de lo que él es. La última condición implica que el agente
piensa en sí mismo como una variable y de los demás como constantes; o
si piensa que los demás se adaptan a su medio, se cree el único que se
adapta a la adaptación de los demás, y así sucesivamente. Esto compren­
de la parte “paramétrica” del concepto de racionalidad paramétrica. La
parte de la racionalidad implica que el agente trata de hacer lo mejor po­
sible para sí, dadas sus creencias acerca del mundo. En muchos casos es­

70
ta meta puede representarse mediante alguna función objetiva, que pue­
de ser real o imaginaria. Una función objetiva real es la que el agente se
dispone a maximizar conscientemente, así como cuando se trata de expli­
car la conducta de una empresa suponiendo que (el gerente) trata de ma­
ximizar las ganancias. Una función objetiva imaginaria es una función de
conveniencia que puede construirse como una expresión taquigráfica con­
veniente para una subclase importante de ordenamientos de preferencias
consistentes.[21] El caso común de racionalidad paramétrica es la maxi-
mización de una función objetiva dentro de los límites dados, pero debe
quedar claro que a partir de las observaciones anteriores la definición
completa es un poco más complicada.
Incluso si el actor supone que el medio es paramétrico, puede tener in­
formación incompleta sobre él. En este caso debemos hacer una distinción
básica, pero discutida, entre riesgo e incertidumbre (véase el apéndice 1
para un análisis más completo). Hay riesgo cuando el agente tiene grados
cuantificables de creencia, o “probabilidades subjetivas”, sobre los diver­
sos estados posibles del mundo. En este caso racionalidad implica que el
agente debería maximizar la utilidad esperada asociada con los diversos
cursos de acción, es decir, un promedio de las conveniencias que se reali­
zarán para diferentes estados del mundo. Por otro lado, la incertidumbre
surge cuando el agente no puede especificar probabilidades numéricas, ni
siquiera dentro de un rango de límites inferiores y superiores. O, aun más
fundamentalmente, ni siquiera puede especificar un conjunto completo
de los posibles estados del mundo, sin mencionar su probabilidad. En el
primero de estos casos, hay un importante teorema que establece que el
agente puede considerar solamente los mejores y los peores resultados po­
sibles asociados con cada curso de acción, pero que no puede decidir racio­
nalmente cuánto peso darle a uno o al otro. Por ejemplo, esto dependerá
de rasgos de carácter como el “optimismo” o el “pesimismo”, de modo que
la decisión final solamente puede explicarse causalmente. Por supuesto,
en el segundo caso hay incluso menos campo de acción para la toma de
decisiones racionales. En la primera variedad de incertidumbre, por lo
menos podemos excluir algunos cursos de acción como indudablemente
inferiores, es decir, aquellos cuya mejor consecuencia es peor que la peor
consecuencia de alguna otra alternativa. Sin embargo, en la segunda va­
riedad ni siquiera puede llevarse a cabo esta clase de comparación, ya que
no conocemos el rango completo de estados posibles del mundo y por lo
tanto de los posibles resultados de los diversos cursos de acción.
La racionalidad estratégica se define mediante un axioma de sime­
tría: el agente actúa en un medio de otros actores, ninguno de los cuales
puede suponerse menos racional o sofisticado que él mismo. Entonces, ca­
da actor necesita anticipar las decisiones de los demás antes de tomar la
propia, y sabe que hacen lo mismo con respecto a los demás y a él. El enfo­
que estratégico de la conducta humana se formaliza mediante la teoría de
los juegos, que podría haberse denominado más correctamente la teoría
de las decisiones interdependientes.
Para situar el lugar correcto y la contribución de la teoría de los ju e­
gos en el análisis de la interacción social, podemos observar que la vida

71
social está constituida por cuatro conjuntos entrelazados de interdepen­
dencias. Primero, la recompensa de cada uno depende de la elección de to­
dos, a través de la causalidad social general. Segundo, la recompensa de
cada uno depende de la recompensa de todos, mediante la envidia o el al­
truismo. Tercero, la decisión de cada uno depende de la decisión de todos:
ésta es la contribución específica de la teoría de los juegos. Por último, la
estructura de preferencias de cada uno depende de las acciones de todos, a
través de la socialización y mecanismos similares. Por supuesto, todos es­
tos enunciados se refieren al caso más general; en casos particulares pue­
den no ser válidos.
La estructura completa de la teoría de los juegos es bastante compli­
cada y aquí no se trata ni siquiera de esbozar las generalidades.[22] Sin
embargo, diré algunas palabras sobre la distinción básica entre juegos
cooperativos y no cooperativos, y luego señalaré algunos casos importan­
tes dentro de la última categoría. La teoría del juego cooperativo supone
que grupos de agentes pueden actuar juntos contra otros grupos y no in­
vestiga la posibilidad ni las condiciones para que se produzca dicha coope­
ración. En mi opinión esto significa que la teoría no puede tener gran po­
der de explicación, aunque puede resultar muy útil para el propósito del
análisis normativo.[23] La teoría del juego no cooperativo es más satisfac­
toria en este respecto pues solamente postula decisiones racionales indi­
viduales. La teoría del juego cooperativo requiere fundamentos en la teo­
ría no cooperativa, demostrando que la decisión de cooperar puede ser un
movimiento dentro de un juego no cooperativo. O, inversamente, se puede
tratar de demostrar que hay mecanismos (no estratégicos) que tienden a
lograr la “solución” de un juego cooperativo, mediante alguna clase de
“mano invisible”.[24] Suponer que la conducta cooperativa se producirá
simplemente porque es colectivamente óptima, es caer víctima del pensa­
miento funcionalista.[25]
Dentro de la clase de juegos no cooperativos, una variedad es teórica­
mente trivial, aunque importante por sus aplicaciones. Son los juegos en
los que cada participante o jugador tiene un curso de acción o estrategia
que es su mejor opción sin considerar cómo eligen los demás. El dilema de
los prisioneros presentado en el capítulo 2, tiene al egoísmo como estra­
tegia dominante en este sentido. Allí vimos que era racional para cada in­
dividuo actuar de un modo que, cuando es adoptado por todos, es desas­
troso para todos. Aunque en este juego la recompensa de cada uno está
afectada por la decisión de todos, la decisión de cada uno puede tomarse
independientemente de las decisiones de todos. Por otro lado, considere­
mos una situación generalmente denominada el “juego de los seguros”.[26]
En el lenguaje del capítulo 2 este juego se define postulando que todos los
jugadores clasifican las alternativas de la siguiente manera:

Preferencias del juego de los seguros: 1. (A, A). 2. (E, A). 3. (E, E). 4.
(A, E).

Aquí el egoísmo ya no es dominante, pues si todos los demás se com­


portan en forma altruista, esto es lo que el individuo también prefiere

72
hacer. El óptimo (A, A) es individualmente estable. Sin embargo, no es in­
dividualmente accesible, pues si los demás se comportan egoístamente,
entonces el individuo también lo hará. No hay deseo de andar solo, aun­
que todavía existe el temor de ser un “aprovechador”. Aunque el juego no
tiene estrategias dominantes, tiene una solución que es (A, A). No describiré
la definición precisa del concepto de solución en la teoría del juego no coo­
perativo, pero informalmente hablando consiste en un conjunto de estra­
tegias hacia las cuales jugadores racionales y perfectamente informados
convergerán tácitamente. Si la solución está formada por estrategias do­
minantes, solamente será bloqueada por falta de racionalidad individual.
En juegos sin estrategias dominantes, la solución puede estar bloqueada
por falta de información. Así, en el juego de los seguros el óptimo no apa­
recerá si cada jugador desconoce las preferencias de los demás, creyendo
quizá que son como en el dilema de los prisioneros, o si cada uno cree que
los demás tienen preferencias del juego de los seguros, pero también cree
que los demás no saben esto de cada uno de los otros, y así sucesivamente.
Para que se llegue a una solución, no es suficiente compartir las preferen­
cias del juego de los seguros; “debe compartirse el hecho mismo de com-
partir”.[27]
Esto significa que debido a la falta de información se puede obtener
un resultado que es peor para todos que cualquier otro resultado factible.
Tal resultado se denomina “Pareto-subóptimo”. Evidentemente es un ras­
go perverso e inquietante de la interacción social. También está presente
en el dilema de los prisioneros, aunque por una razón diferente y más pro­
funda. La suboptimalidad en el juego de los seguros surge de una falla de
información; en el dilema de los prisioneros de una falla en la coordina­
ción. Podemos preguntamos si la falla en la información del juego de los
seguros no será la regla, ya que la solución depende de requisitos de infor­
mación estrictos que seguramente no serán satisfechos en casos rea-
les.[28] En el caso extremo que hemos presentado, esto puede ser verdad.
Pero hemos estado utilizando el caso extremo sólo para aclarar la exposi­
ción y es muy posible modificarlo para hacerlo más realista. En particu­
lar, se puede construir un marco más poderoso que permita que la elec­
ción sea accidental en diversas proporciones de otros participantes que
eligen un modo u otro, en lugar de hacer que dependa de todos los de-
más.[29]
Cuando se trata de explicar suboptimalidades observadas en la vida
social, puede resultar difícil asegurar si se deben a fallas en la informa­
ción o a fallas en la coordinación.[30] Por ejemplo, podemos tener razones
para creer que la mayoría de las personas preferirán un estado en el que
nadie se comprometa con la contaminación ambiental, la evasión de im­
puestos y otros, a uno en el que todos lo hagan, y sin embargo observamos
que la contaminación ambiental y la evasión de impuestos son desenfre­
nados. La difícil tarea de explicar es determinar si las preferencias son co­
mo en el dilema de los prisioneros o como en el juego de los seguros. El
problema también tiene consecuencias prácticas importantes ya que las
técnicas para superar la suboptimalidad difieren radicalmente en ambos
casos. En particular, podemos afirmar que una importante tarea de lide­

73
razgo es proporcionar la información que permita a las personas conver­
ger en una conducta por la que todos tienen una preferencia condicional.
Con preferencias incondicionalmente altruistas no hay necesidad de lide­
razgo y con preferencias incondicionalmente egoístas se necesita coerción
en lugar de liderazgo para lograr el óptimo colectivo.[31]
Aun más perversos que las suboptímalidades debidas a fallas en la in­
formación o en la coordinación son los juegos sin solución, es decir, situa­
ciones tales donde no hay conducta estratégicamente racional. Estos jue­
gos se dividen en dos clases. Primero, hay juegos en los que no hay un con­
junto de estrategias que sean individualmente estables, es decir, no hay
conjunto de estrategias de manera que nadie pueda beneficiarse saliendo
del juego. El término técnico para un conjunto de estrategias con esta pro­
piedad es un punto de equilibrio. Un simple juego sin punto de equilibrio
es el siguiente. Cada actor debe pensar en un número y escribirlo sin que
los demás lo vean. Cuando se comparan los números, el jugador que ha es­
crito el número mayor obtiene de los demás una cantidad igual a la dife­
rencia entre su número y el que escribió el otro. Evidentemente, cualquier
jugador siempre ganará escribiendo un número mayor. La hiperinflación
puede ser un ejemplo más real de una estructura de interacción con pro­
piedades similares.
Segundo, hay juegos con más de un punto de equilibrio, ninguno de
los cuales surgirá como el punto focal de una convergencia tácita. El juego
de los seguros tiene dos puntos de equilibrio, (A, A) y (E, E), de los cuales
el primero surge como la solución porque todos lo prefieren al segundo.
Pero también hay juegos con equilibrios múltiples de los cuales ninguno
puede considerarse la solución. El regateo y el monopolio bilateral son ca­
sos típicos. Consideremos también la siguiente variación sobre los temas
presentados más arriba:

Preferencias de gallinas: 1. (E, A). 2. (A, A). 3. (A, E). 4. (E, E).[32]

Aquí la situación es tal que cada uno tiene un incentivo para utilizar
E si todos los demás utilizan A, y viceversa. Es fácil ver intuitivamente
que esto produce inestabilidad y provoca que todos persigan a todos en
una persecución interminable. Más formalmente, el juego tiene los si­
guientes puntos de equilibrio. Con más información sobre la estructura
de premios del juego podemos determinar una proporción p de los jugado­
res tal que si p eligen A y 1-p eligen E, tenemos un punto de equilibrio en
el que nadie puede mejorar su resultado cambiando a otra estrategia. De
hecho, esto nos da una cantidad mayor de puntos de equilibrio, pues hay
muchas permutaciones de los jugadores compatibles con estas proporcio­
nes. Además, está el punto de equilibrio en el que cada actor elige A con
probabilidad p y E con probabilidad 1-p. Es una estrategia mixta ya men­
cionada en el capítulo 1. Racionalmente, no hay manera en que los actores
puedan elegir entre estos equilibrios. Psicológicamente, puede discutirse
que la estrategia mixta sea un punto focal,[33] siendo cualitativamente
diferente de todos los demás. Pero siempre puede haber dudas acerca de
la psicología de los otros jugadores, y en todo caso hay otros juegos sin

74
solución que no tienen puntos de equilibrio psicológicamente sobresa­
lientes.
Cuando se juega un juego sin solución racional, cada jugador tiene
que suponer algo sobre lo que los demás van a hacer, y luego actuar para
maximizar su recompensa en base a dicho supuesto. El supuesto no pue­
de ser racional, en el sentido de ser derivable de la hipótesis de que los
demás son tan racionales y están tan bien informados como él. Debe pro­
ducir algún conocimiento psicológico o alguna creencia, ya sea sobre los
jugadores humanos específicamente o sobre los seres humanos en gene­
ral. Sin embargo, la situación se tom a intolerable cuando cada jugador, al
tratar de adivinar a los demás, sabe que ellos están tratando de hacer lo
mismo. Cada jugador es racional y sabe que los demás lo son y que saben
tanto de la situación como él, y sin embargo, debe tratarlos como causal­
mente determinados, sabiendo que lo tratan a él similarmente. Esta es la
reintroducción del pensamiento paramétrico dentro de la racionalidad es­
tratégica. La explicación intencional no es suficiente en tales casos. Puede
excluir algunas líneas de conducta claramente irracionales, pero sola­
mente la teoría causal puede reducir las posibilidades restantes a un úni­
co resultado determinado. Sin duda, la situación no es “objetivamente
indeterminada” en el sentido de la mecánica cuántica,[34] pero puede ha­
cerse determinada simplemente complementando el modelo intencional
con una teoría causal.
Aquí puede ser útil un ejemplo. Hay mucha bibliografía sobre la racio­
nalidad de la participación política: ¿se molestaría en votar una persona
egoísta y racional? Seguramente sabría que su probabilidad de tener al­
guna influencia sobre el resultado es virtualmente nula y en todo caso
menor que la probabilidad de ser atropellado por un auto y morir en cami­
no hacia la votación. En las elecciones nacionales esto sin duda es cierto y
entonces solamente podemos explicar que las personas votan suponiendo
que no lo hacen especialmente en interés propio ni movidas exclusiva­
mente por las consecuencias de lo que hacen. Pero en electorados más
pequeños, una persona podría razonar de la siguiente manera.[35] “Segu­
ramente otras personas verán que es irracional que ellos voten, excepto
por una pequeña cantidad de ‘votantes éticos’. Sin embargo, serán tan po­
cos que mi voto realmente podría marcar una diferencia, por lo tanto es
racional que yo vote. ¡Pero atención! Otros podrían pensar lo mismo y acu­
dir a votar en cantidades tan grandes que después de todo puede no ser
racional que yo vote. Entonces me quedaré en casa. ¡Pero atención otra
vez! Los demás podrían pensar del mismo modo y así sería racional que yo
vote después de todo.” Y así sucesivamente. En algún punto la regresión
puede interrumpirse por la acción, es decir, por la persona que va a votar
o que toma la decisión consciente de no votar. Entonces podríamos afir­
mar que la persona ha hecho una estimación implícita o explícita de cómo
actuarán los demás y que ha hecho lo mejor posible según dicho supuesto.
Pero, ¿qué sucedería si la persona sigue deliberando hasta que la mesa
electoral ha cerrado? Su situación es hasta cierto punto como la del asno
de Burídan, aunque para mí representa una anomalía mucho más pro­
funda en la teoría de la elección racional.

75
Podemos utilizar estos conceptos de la teoría de los juegos para
conocer la diferencia entre la adaptación intencional y la funcional. Pri­
mero, consideremos el juego de los seguros. Algunas veces los animales
parecen comportarse de un modo que corresponde a esta situación, por
ejemplo, adoptando la estrategia de “empantanar el apetito de los depre­
dadores”. ^ ] Está en la naturaleza de este caso que esta conducta sea efi­
caz cuando es adoptada por muchas presas simultáneamente, pero la
primera que lo intenta casi no tendría ventajas reproductivas. Entonces,
esta conducta no es individualmente accesible, pero hay casos en los que
es individualmente estable porque “hay seguridad en números”. Pero co­
mo la accesibilidad individual es de lo que trata la selección natural, no se
puede explicar la presencia de tal conducta afirmando que constituye una
“estrategia evolutiva estable”. Contrariamente, en la interacción humana
la estabilidad individual puede explicar la presencia de un modelo de
conducta si se cumplen los requisitos de información pertinentes. Si todos
saben que cierto arreglo es mejor para todos y si no hay tentación para
desertar y todos los saben, entonces aquel arreglo surgirá espontáne­
amente aunque no haya incentivo individual para contribuir unilate­
ralmente.
En segundo lugar, consideremos los casos de la gallina en el reino
animal, como “la lógica del conflicto animal”.[37] Aquí suponemos que hay
dos variantes de conducta entre los organismos en una población: los
“halcones” y las “palomas”, así llamados debido a su conducta cuando se
encuentran y luchan. Suponemos que cuando una paloma se encuentra
con otra paloma, cada una tiene un 50% de probabilidades de ganar 50
“unidades evolutivas” (medida de éxito de reproducción) y de perder el
10%; que cuando una paloma se encuentra con un halcón, la primera no
ganará ni perderá y el segundo ganará 50 con certeza; y que cuando un
halcón se encuentra con un halcón tienen iguales probabilidades de ganar
50 y de perder 100 unidades. Es fácil ver que en una población de palomas,
el halcón solitario tendrá una ventaja reproductiva, y viceversa. También
se puede demostrar que el equilibrio es un polimorfismo estable en el que
hay 5/12 de palomas y 7/12 de halcones. En la interacción humana, como
se dijo antes, también podría existir la posibilidad de que todos los
individuos utilicen una estrategia mixta, actuando en cada ocasión como
halcones con probabilidad 7/12 y como palomas con probabilidad 5/12. Sin
embargo, esto es improbable en el reino animal.[38] Un “gen de cambio”
tendría una desventaja inicial en cualquier población excepto en una que
hubiera alcanzado el cociente 5:7, e incluso allí no conferiría ninguna
ventaja: sería tan bueno como cualquiera de las estrategias puras, pero no
mejor. La moraleja es la misma que en el ejemplo precedente: la adap­
tación animal es estrictamente individualista y nunca podría favorecer
una conducta que es beneficiosa solamente cuando todos la adoptan. En
contraste, los seres intencionales pueden elegir en términos de sus
expectativas, incluyendo sus expectativas acerca de las de los demás.
Entonces, en las ciencias sociales hay más campo que en biología para la
explicación de la conducta en términos de beneficios colectivos, supo­
niendo estabilidad individual a pesar de ello. Que algo sea bueno para

76
todos puede explicar por qué todos lo hacen, suponiendo que ni siquiera es
mejor para cada uno ser el único que no lo hace.
Permítaseme concluir este estudio de la teoría de la racionalidad con
algunas observaciones acerca de las anomalías que hemos encontrado.[39]
Primero, el concepto de intenciones irracionales va contra la naturaleza de
muchos de los recientes análisis, que tienden a ver las ideas de intencio­
nalidad y racionalidad como sinónimos. En segundo lugar, los argumentos
especiales y generales para satisfacer quiebran el vínculo entre racionali­
dad y optimalidad. Tercero, las variedades de toma de decisiones bajo in-
certidumbre inducen al escepticismo acerca del poder de la teoría de la ra­
cionalidad como una guía para actuar. Y por último, la existencia de juegos
sin solución demuestra que la racionalidad individual puede desmoronar­
se cuando la estructura de interacción es suficientemente perversa. Sin
duda, estas últimas conclusiones serán cuestionadas. Algunos dirán que
siempre se pueden producir anticipaciones o probabilidades subjetivas
acerca de la conducta de los demás o el estado del mundo, y maximizar la
conveniencia esperada de acuerdo con ello. En el apéndice 1 el lector ha­
llará un intento de refutar esta objeción. Otros afirmarán que incluso ba­
jo la incertidumbre o en un juego sin solución se puede actuar con alguna
racionalidad, es decir, satisfaciendo. Para ser preciso, el concepto de “con­
ducta maximizadora” — eligiendo el curso de acción con la mejor peor con­
secuencia posible— puede verse como una variedad de satisfacer. Pero
obsérvese que en juegos sin un punto de equilibrio, como el juego de la hipe-
rinflación, y en decisiones bajo una incertidumbre extrema, que se extien­
de hasta el rango de posibles estados del mundo, el concepto de conducta
maximizadora no está bien definido. Concluyo que las anomalías son difi­
cultades verdaderas, que no deben resolverse de modo prucrusteano.

d. Intencionalidad y causalidad

La teoría de los juegos estudia lo que podría llamarse interacción in­


tencional entre seres intencionales. Por supuesto, también ocurre la inte­
racción causal entre agentes intencionales. Esto se produce cuando cada
;agente actúa en base a supuestos injustificados acerca de la conducta de
los demás, por ejemplo, cuando cada agente cree que es el único que se
adapta al ambiente, mientras que los demás simplemente siguen hábitos
o tradiciones. O nuevamente, para repetir una frase ya utilizada más
arriba, cuando cada agente se considera como una variable y a los demás
como parámetros, viéndose como únicamente pour-soi y a todos los demás
en-soi.[40] Este modo de interacción puede causar dramáticas consecuen­
cias no deseadas. De hecho, para emplear el término de Sartre,[41] la con­
trafinalidad es una de las principales contradicciones en la vida social
junto con la suboptimalidad y los juegos sin solución.[42] Para un ejemplo
de cómo pueden bloquearse las intenciones de esta manera, consideremos
el ciclo de la telaraña de la teoría económica.[43] Aquí cada productor de­
be decidir en el año t cuánto producir en el año f+1. Si actúa ingenuamen­
te, decidirá el volumen que maximiza sus ingresos en el año t+ 1 suponien­

77
do que los precios serán los mismos que en el año í. Con precios bajos en el
año í producirá un volumen pequeño en el año í+1, lo que conducirá a pre­
cios altos en el año í+1, lo que producirá un volumen grande en el año í +2
y así sucesivamente. El supuesto de precios constantes implica el supues­
to de que todos los demás productores comercializarán el mismo volumen
que en el corriente año, y que la modificación de los individuos no altera­
rá el nivel de precios. La segunda parte del supuesto se justifica en un
mercado perfectamente competitivo, la primera no.
Esto proporciona un paradigma para muchos casos de análisis en las
ciencias sociales: la explicación intencional de acciones individuales junto
con la explicación causal de la interacción entre los individuos.
Primero debemos “entender” por qué — es decir, en pos de qué meta—
los actores se comportan del modo en que lo hacen; y luego debemos “ex­
plicar” por qué, comportándose como lo hacen, provocan lo que hacen. De­
bemos tratar de descomponer la explicación en estas dos etapas ya sea
que el fenómeno a ser explicado sea un ciclo comercial, una campaña
presidencial, movilidad geográfica o cambio tecnológico. No alcanza con
postular simplemente la relación causal entre macrovariables. Podemos
observar como una regularidad empírica que en un ciclo comercial un as­
censo seguirá a un descenso, o que determinados patrones de distribución
de ingresos producirán determinados patrones de migración, pero no he­
mos explicado nada hasta que podamos demostrar 1) cómo los macroesta-
dos en el momento t influyen la conducta de individuos motivados por de­
terminadas metas y 2) cómo estas acciones individuales se suman para
dar nuevos macroestados en el momento í+1.
Sin embargo, hay también “causalidad subintencional”, es decir,
procesos causales que moldean creencias y deseos en cuyos términos se
pueden explicar intencionalmente las acciones. Primero permítaseme
señalar que cuando tratamos de explicar deseos y creencias no es obvio
que solamente se dispone de explicaciones causales. De hecho, se pueden
elegir deseos propios mediante el “planeamiento de carácter”,[44] que
luego proporciona una explicación intencional de por qué los deseos son lo
que son. Pero entonces, por supuesto, el asunto surge otra vez en otro
grado, y supuestamente habrá alguna etapa en la regresión en la que
solamente cabe una explicación causal.[45] Similarmente, pero más
controvertidamente, puede ser posible elegir las propias creencias, en el
sentido de adoptar deliberadamente determinadas creencias porque es
útil mantenerlas, independientemente de si el agente cree que son
ciertas.[46] Sin embargo, es probable que la elección deliberada de rasgos
de carácter y sistemas de creencias sea un fenómeno raro. En todo caso
me limitaré a la explicación causal de los deseos y las creencias.
Los deseos están moldeados, predominantemente, por la socializa­
ción. Esto no significa que se nos socializa para desear algún producto en
particular, sin tener en cuenta el costo. La idea es que de la socialización
se aprende cómo comerciar diferentes artículos por otros. Por ejemplo, un
delincuente no es alguien que se ha desarrollado dentro de una subcultu­
ra criminal que lo priva de una elección de carrera. Es una persona que, al
hacer su elección tiende a adjudicar mayor importancia a algunas conse­

78
cuencias que a otras. Por ejemplo, puede preferir los riesgos en lugar de
temerlos; puede darle más peso a las consecuencias a corto plazo que a las
de largo plazo, y así sucesivamente. Decir esto no es decir que correrá
cualquier riesgo, o que prefiere cualquier beneficio a corto plazo frente a
cualquier ganancia a largo plazo. Tampoco es decir que será imposible in­
fluir sobre su elección modificando la estructura de recompensas, por
ejemplo, mediante penalidades más severas o una mayor probabilidad de
ser encontrado. Sin embargo, puede ser que este modo de cambiar su con­
ducta sea relativamente costoso y que trabajar directamente sobre su am­
biente sea un método más eficiente. Para resumir: no debemos buscar en
la socialización la fuente directa de la acción, sólo la causa de determina­
dos esquemas de preferencias que, en un medio dado, pueden hacer que se
prefiera una acción en lugar de las alternativas factibles. Si agregamos
una nueva hilera a la estructura de dos hileras indicada más arriba, pode­
mos formular el siguiente lema: primero una explicación causal de los de­
seos, luego una explicación intencional de la acción en términos de los
deseos y finalmente una explicación causal de los macroestados en térmi­
nos de las diversas acciones individuales.
Sin embargo, la socialización no es el único mecanismo causal que
moldea nuestros deseos. También existe la “formación de preferencias de
adaptación”, resumida en la fábula de la zorra y las uvas verdes.[47] Esto
surge de lo que me referí más arriba como los cables de la máquina de
placer, por ejemplo, por la tendencia a reducir la disonancia cognitiva.
Otros procesos causales que moldean los deseos incluyen la producción de
disonancia, por ejemplo, mediante el impulso perverso por la novedad,[48]
o fenómenos imitativos tales como el conformismo y el anticonformismo.
Estos procesos indican la idea de una teoría sociológica general, en la que
las preferencias y los deseos se explican endógenamente como un produc­
to de los estados sociales a cuya generación también contribuyen, como se
explicó cerca del final del párrafo precedente. Esta teoría —que, obvia­
mente, en el presente estado del arte parece estar a años luz de distan­
cia— incluiría 1) la explicación de la acción individual en términos de
deseos y creencias individuales, 2) la explicación de macroestados en tér­
minos de acciones individuales y 3) la explicación de deseos y creencias en
términos de macroestados.
Pero hay más para decir sobre los procesos causales de formación de
preferencias. Los mecanismos analizados en el párrafo precedente son
predominantemente “calientes”, es decir, que explican la formación y el
cambio de las preferencias a través de los impulsos y los cables de placer
del individuo. Pero los deseos también pueden estar moldeados por meca­
nismos “fríos”, es decir, por distorsiones cognitivas en cierto modo empa­
rentadas con las ilusiones ópticas. A sí la relativa naturaleza atractiva de
las opciones puede cambiar cuando la situación de elección se reformula
en un modo que, racionalmente, no debería tener influencia sobre las pre­
ferencias. Tversky y Kahneman citan un ejemplo de L. J. Savage de “un
cliente que desea agregar $X al costo de un auto nuevo para comprar un
moderno estéreo, pero se da cuenta de que no querría agregar $X por el
estéreo después de haber comprado el auto por el precio normal”. Y agre­

79
gan que “muchos lectores reconocerán la devaluación temporaria del dine­
ro que hace nuevas compras desusadamente atractivas en el contexto de
la compra de una casa”.[49]
Pasando de deseos a creencias, también encontramos procesos calien­
tes y fríos. La formación “caliente” de creencias influye fenómenos tales
como la ilusión, la racionalización y el autoengaño, es decir, casos en los
que nuestras creencias sobre cómo es el mundo están moldeadas por
nuestros deseos relativos a cómo debería ser. Similarmente, los errores
“fríos” incluyen aquellos que resultan de fracasos cognitivos, como cuando
“un individuo que se juzga como muy probable republicano pero improba­
blemente abogado sería juzgado moderadamente como probable abogado
republicano”,[50] como si las probabilidades fueran aditivas y no multi­
plicativas.
Pero por supuesto no toda formación de creencias es errónea o tenden­
ciosa. También existe formación de creencias que en cierto sentido es co­
rrecta o racional, no necesariamente resultante en creencias ciertas, pero
por lo menos en creencias justificadas. (Aquí utilizo el término “justifica­
das” en el sentido fuerte de que la persona debe tener dicha creencia por
buenas razones, y no simplemente que debe haber buenas razones para la
creencia que tiene. De hecho, lo último es compatible con la ilusión, si sus
deseos lo llevan a sostener creencias para las que tiene buenas razones,
aunque aquellas razones realmente no hayan jugado papel alguno en la
formación de la creencia. Es decir, el sentido fuerte de “justificadas” se ne­
cesita para excluir “coincidencias de la primera clase”.) Frecuentemente
se dice que las personas con capacidad para formar creencias racionales o
bien fundamentadas tienen juicio, cualidad fundamental en muchos ca­
minos de la vida. Decir que una persona tiene cierta creencia porque tiene
buenas razones es en cierto modo como ofrecer una explicación intencio­
nal de la creencia, pero no tanto. No estamos diciendo que ha elegido la
creencia, sino que al sostenerla demuestra ser racional. Esto vale en un
grado aun mayor si la persona va más allá de tener creencias racionales
en relación con las pruebas disponibles y continúa adquiriendo más prue­
bas si siente que es necesario.
Me desconcierta esta forma anómala de explicación, que no corres­
ponde a la variedad intencional ni causal. Un problema similar suige en
la formación de deseos. Muchos de los mecanismos que moldean nuestros
deseos conducen a la heteronomía, así como cuando alguien siempre
quiere hacer lo contrario de lo que hace la mayoría, no porque tenga una
metapreferencia por aquellos deseos, sino porque es la clase de personas
contrarias. Tales personas no tienen el principio motor dentro de sí, sino
que se comportan más como apéndices de la estructura social. Y hay
muchos otros mecanismos de esta clase. Contrariamente, de una persona
autónoma podemos decir que posee el deseo, en lugar de decir que el deseo
lo posee a él. Desafortunadamente no sé cómo definir el concepto de
autonomía, aunque estoy seguro de que hay personas autónomas. Definir
la autonomía a través de la idea de deseos intencionalmente elegidos da
demasiado y demasiado poco: demasiado porque puede haber metadeseos
no autónomos, demasiado poco porque la autonomía puede existir sin es­

80
ta actitud autorreflexiva. Pero suponiendo que supiéramos cómo definir o
por lo menos cómo reconocer personas autónomas, aun habría un proble­
ma conceptual en cuanto a qué clase de explicación proponemos cuando
decimos que una persona actúa en base a un deseo autónomo.
De hecho, el concepto de conducta racional relativa a deseos y creen­
cias dadas (y consistentes) es extremadamente débil. Además de esta ra­
cionalidad formal queremos que las personas tengan racionalidad real, en
las formas gemelas de juicio y autonomía. La fórmula de explicación ra-
cional-cum-intencional de la acción en términos de deseos y creencias,
complementadas con la explicación causal de las creencias y deseos mis­
mos, puede resultar engañosa o superficial. Si las personas son agentes en
un sentido real y no sólo los soportes pasivos de sus estructuras de prefe­
rencias y sistemas de creencias, entonces necesitamos entender cómo son
posibles el juicio y la autonomía. En mi opinión, éste es el problema sobre­
saliente no resuelto tanto en filosofía como en las ciencias sociales.

81
SEGUNDA PARTE

Teorías del cambio


tecnológico
Introducción a la segunda parte

En el resto del libro estudio algunas teorías del cambio tecnológico


desde el punto de vista proporcionado por la anterior descripción de la ex­
plicación científica. Comienzo con la ortodoxia neoclásica que tiende a ex­
plicar el cambio tecnológico como simplemente otro caso de maximización
biyo limitaciones. Creo que no digo nada nuevo cuando afirmo que la teo­
ría neoclásica está en su elemento cuando trata con medios estáticos, in­
cluyendo equilibrios intertemporales. La extensión de la teoría al problema
dinámico de la innovación es, a pesar de ello, problemática. Básicamente,
la dificultad es la siguiente. Aunque es indudable que la innovación en
cualquier momento dado está limitada por lo que es científicamente y de
otro modo posible, estas limitaciones no pueden entrar en la explicación
de la innovación a no ser que sean conocidas por el innovador. Aunque se
suponga que el empresario innovador maximiza ganancias, no podemos
imputarle el conocimiento del conjunto factible que nos permitiría expli­
car su conducta sobre el modelo estándar de la racionalidad paramétrica.
Aunque la teoría neoclásica domina la economía contemporánea en
general, extendiendo su influencia incluso al análisis económico marxis-
ta,[l] es probablemente justo decir que dentro del estudio del cambio tec­
nológico rivaliza en importancia con la tradición de Schumpeter. Este au­
tor acentuó el lado irracional de la innovación empresarial: las ambicio­
nes dinásticas y el excesivo optimismo que, aunque desastroso para la
mayoría de los empresarios, es socialmente útil. También se separó de la
visión ortodoxa cuando indicó que los elementos monopolistas del capita­
lismo que eran condenados generalmente por su ineficiencia distributiva
eran indispensables para el crecimiento y la innovación. Aunque la teoría
de Schumpeter probó ser resistente a los modelos formales, ha ejercido
una amplia influencia subterránea en la formación del modo en que los
economistas piensan acerca de la innovación. Estaba lejos de ser un eco­
nomista de economistas, y sin embargo entendió mejor que la mayoría de
los economistas la naturaleza del asunto: los seres humanos caprichosos.
El capítulo sobre modelos evolutivos se ocupa de una tercera línea de
pensamiento. Esos modelos son ampliamente evolucionistas en un senti­
do analógico débil, a diferencia de las descripciones propuestas por etólo-
gos del surgimiento de la conducta instrumental en los animales. Comienzo
el capítulo con una breve exposición de estos modelos evolucionistas lite­
rales, y continúo con tres versiones de modelos que en cierto sentido se

85
basan en la metáfora evolucionista. Primero, llamo la atención sobre el
trabajo de Eilert Sundt, un sociólogo noruego que en 1862 propuso lo que
probablemente sea el primer modelo darwiniano de cambio tecnológico.
Segundo, analizo con cierta extensión el importante trabajo de Richard
Nelson y Sidney Winter, quienes durante más de diez arios se han aboca­
do a encontrar una alternativa sin restricciones a la ortodoxia neoclásica,
apoyándose por i gual en las ideas de Schumpeter y Herbert Simón. Y por
último, analizo la herejía rival de Paul David quien afirma que el cambio
tecnológico es el resultado adicional de “aprender haciendo” en el micro-
nivel.
El último capítulo, sobre las teorías marxistas del cambio tecnológico,
quizá parecerá desproporcionadamente largo. En parte esto es porque mi
propio interés personal y competencia son mayores en esta área que en
las demás. En parte el énfasis dado al marxismo también refleja el énfasis
dado al cambio tecnológico en el marxismo. El marxismo es una teoría in­
mensamente influyente e intelectualmente cuestionadora de la historia
mundial, en la que el cambio tecnológico — el desarrollo de las fuerzas
productivas— desempeña un importante papel explicativo. Más aun,
Marx estudió en gran detalle los mecanismos de cambio tecnológico bajo
las relaciones capitalistas de producción, indicando varios enfoques im­
portantes que recién últimamente se han descubierto.
Permítaseme presentar informalmente lo que estas teorías están tra­
tando de explicar. En los capítulos siguientes se dan enunciados más for­
males y precisos, pero existen antecedentes comunes de estas teorías que
pueden enunciarse aquí. Básicamente, se refieren a la explicación del rit­
mo y dirección del cambio en el conocimiento tecnológico. Suponiendo que
el conocimiento tecnológico pueda medirse cardinalmente, el término “rit­
mo de cambio” no plantearía ninguna dificultad. El término “dirección” se
refiere al factor-tendencia del cambio, por ejemplo, si ahorra trabajo, ca­
pital, energía, etc. Estos no son los únicos aspectos del cambio tecnológico
que (lesearíamos explicar. También, por ejemplo, podríamos tratar de ex­
plicar la localización del cambio tecnológico, es decir, si ocurre principal­
mente en la industria, agricultura, minería, etc. O nuevamente, podría­
mos concentramos en la importancia relativa del producto innovación y
del proceso innovación, es decir, de innovaciones que conducen a nuevos
productos para el consumidor e innovaciones que permiten una produc­
ción más barata de productos existentes. Sin embargo, me concentraré en
las dos variables mencionadas más arriba, para facilitar la comparación
entre las teorías y evitar los problemas más importantes que no me com­
pete analizar.
Denominaré innovación a la producción de nuevo conocimiento tecno­
lógico. Primero, la diferenciaré de la invención, que es la creación de algu­
na idea científica, teoría o concepto que pueda conducir a la innovación
cuando se aplica a un proceso de producción; en segundo lugar, de la difu­
sión, que es la transferencia de una innovación existente a un contexto
nuevo; y en tercer lugar de la sustitución, que comprende el cambio en el
proceso de producción sobre la base del conocimiento tecnológico existen­
te. En la mayoría de los casos me ocuparé solamente de la innovación y la

86
sustitución. Aunque la ciencia indudablemente es un importante determi­
nante en el “lado de la oferta” de las innovaciones, la consideraré princi­
palmente como dada exógenamente. Es cierto que en el ritmo de cambio
tecnológico influye tanto el ritmo del cambio científico como el de la trans­
formación de invenciones en innovaciones, y parecería que ambos son
moldeados hasta cierto punto por los procesos económicos. Pero solamen­
te consideraré el ritmo de transformación, ya que en el plazo corto y me­
diano el ritmo de invención puede tomarse como dado. Con respecto a la
difusión, queda ampliamente fuera de la bibliografía que estoy analizan­
do. Sin embargo, debo señalar que con frecuencia hay un elemento de in­
novación en la difusión también, ya que frecuentemente debe adaptarse
un método al nuevo contexto.[2] Similarmente, la distinción entre susti­
tución e innovación está lejos de ser hermética, pues si una empresa fun­
ciona con un factor combinación rara vez puede cambiar sin esfuerzo a
otro.
Si la innovación es un cambio en el conocimiento tecnológico, debemos
saber qué es el conocimiento. El siguiente esquema de la estructura del
conocimiento tecnológico en un instante dado no es completamente gene­
ral. Tiende hacia el enfoque neoclásico (y la “función de producción”) y es
menos compatible con los modelos evolucionistas de Nelson y Winter. Sin
embargo, es suficientemente general como para proporcionar anteceden­
tes para la mayor parte del análisis en los capítulos siguientes.
La estructura del conocimiento tecnológico se entiende mejor si se
piensa en tres aspectos diferentes. Primero, está lo que denominaré una
práctica , que es una combinación particular de factores de producción uti­
lizados en un proceso específico. Segundo, está lo que llamaré técnica, es
decir, un conjunto de prácticas que permiten cierto grado de sustitución
entre los factores, de manera que se puede cambiar de una práctica que
utiliza mucho de un factor y poco de otro, a otra que utiliza más del segun­
do y menos del primero. Tercero, está la tecnología disponible, por la que
entiendo todas las técnicas conocidas. Para ilustrar, consideremos la pro­
ducción de fertilizante nitrogenado.[3] La técnica tradicional comprende
la producción de hidrógeno a través de la electrólisis del agua, pero tam­
bién existe una técnica más reciente que comprende la extracción de hi­
drógeno del petróleo. Estas técnicas juntas constituyen la tecnología para
producir el fertilizante de nitrógeno. Dentro de la técnica tradicional, te­
nemos la elección entre varias prácticas, por ejemplo entre el uso de más
capital (células electrolíticas) y menos energía (energía eléctrica) y el uso
de menos capital y más energía. Posibilidades similares de sustitución
pueden aparecer dentro de la nueva técnica.
Este modo de considerar las posibilidades de producción es un poco
fuera de lo común. La perspectiva más habitual es distinguir solamente
entre dos niveles, por ejemplo, entre la técnica (correspondiente a lo que
denomino práctica) y la tecnología. De hecho, es cierto que frecuentemen­
te la distinción entre lo que denomino técnica y tecnología no es tan fácil
de hacer como en el ejemplo precedente. Además, la elección entre (lo que
llamo) técnicas puede incluir también la sustitución, pero en un nivel más
alto de agregación. Así, en el mismo ejemplo el cambio de la técnica tradi­

87
cional a la más reciente podría comprender, conjeturalmente, la sustitu­
ción de trabajo por capital, donde “capital” signiñca algún agregado de los
tantos y cualitativamente diferentes bienes de capital. Sin embargo, hay
buenas razones para rechazar el último movimiento. La “controversia del
capital”, a la que se hizo referencia en el capítulo 1, ha mostrado, según
mi opinión, concluyentemente, que en muchos casos el capital agregado
no es un concepto bien definido. Supongamos, en mi terminología, que ca­
da técnica consiste en una sola práctica. Se ha demostrado entonces que
para que las diversas técnicas sean incluibles dentro de una sola tecnolo­
gía (“función de producción”) que permite la sustitución del trabajo por
capital agregado, hay que postular condiciones bastante específicas que
no pueden suponerse como universalmente cumplidas. La naturaleza de
estas condiciones se describe en el capítulo 7 para un caso simple. Presu­
miblemente el problema de la agregación sería aun más difícil si también
se hiciera la distinción entre práctica y técnica. Entonces, creo que en el
caso general se necesita la estructura de tres hileras, aunque puede haber
casos particulares en los que será suficiente un modelo de dos.
Es característico de la economía neoclásica que transforme los tres ni­
veles en dos. Habitualmente se piensa que Marx, simplificando aun más,
suponía que la tecnología en un momento dado consiste en una sola prác­
tica, de manera que no hay lugar para elegir entre prácticas o entre técni­
cas. Esto es lo que generalmente se denomina el supuesto de “los coefi­
cientes fijos de producción”, o “la tecnología de Leontief”. En el capítulo 7
analizo si Marx realmente tenía esta opinión y concluyo que mientras él
(erróneamente) negaba la elección intratécnica, reconocía la elección in­
tertécnica.
A partir de este análisis conceptual se deriva que quizás habría que
distinguir entre cambio técnico y cambio tecnológico, siendo el primero
una mejora de una técnica existente y el segundo un agregado de una
nueva técnica al espectro existente. Sin embargo, no lo haré y hablaré en
todo el trabajo de cambio tecnológico. Esto reflejará el hecho de que fre­
cuentemente me ocuparé del sentido más estrecho del término, es decir,
de la mejora intratécnica. En otros casos la discusión será tan general que
se aplica tanto al sentido estrecho como al amplio. Nuevamente, esto re­
fleja el hecho de que en la mayor parte de la bibliografía no se distingue
entre ambos sentidos.

88
4

Teorías neoclásicas

a. La fu n c ió n d e p ro d u cció n

La herramienta neoclásica básica para el estudio de la tecnología y del


cambio tecnológico es el concepto de función de producción! 1J Aquí y más
adelante consideraré que un proceso de producción es aquel en el que el
resultado es un solo producto homogéneo, sin considerar el caso de “pro­
ducción conjunta”.[2] En base a este supuesto podemos considerar que la
producción es un proceso con muchas entradas o inputs, o “factores de
producción” y un output o producto. Conceptualmente, los inputs y out-
puts pueden entenderse como puntos o flujos, y el proceso de producción
puede a su vez entenderse de diversas maneras. Sin embargo, me limita­
ré al simple caso de “punto input - punto output", en el que suponemos que
en determinado instante los inputs entran en la fábrica mientras que el
output está disponible en algún momento posterior. La función de produc­
ción especifica una relación cuantitativa entre inputs youtputs: dadas las
cantidades de los diversos inputs, se producirá una determinada cantidad
de producto final. Por supuesto, también existe la posibilidad de que se
produzca menos debido a la ineficiencia, pero supondré que hay un output
que se produce invariablemente, dados los inputs.
La estructura causal del proceso de producción comprende la trans­
formación de 1) materia prima utilizando 2) energía, 3) trabajo y 4) me­
dios de producción creados. Toda producción requiere materia prima y
energía. Además requiere trabajo o medios de producción, finalmente
producidos por el trabajo. En el proceso de producción algunos inputs se
utilizan completamente, normalmente la materia prima, la energía y el
trabajo. Los medios de producción creados pueden o no ser utilizados com­
pletamente. Podemos suponer por conveniencia que la duración de un
proceso de producción corresponde a la vida productiva de los medios de
producción creados, de manera que todos los inputs se utilizan en el pro­
ceso. Esto comprende algunas simplificaciones importantes, pero trataré
de brindar solamente conclusiones fuertes.
Dada esta información, la forma general del proceso de producción es

q = f ( x „ x 2 ...xn)

Evidentemente esto es demasiado general como para ser útil. Para po-

89
der decir algo más específico, debemos imponer alguna estructura sobre
las variables y sobre la función. Utilizaré el enfoque neoclásico estándar
[3] y supondré que hay sólo dos inputs: trabajo y capital agregado. Una ra­
zón fundamental para utilizar esta representación objetable es que pode­
mos pensar que el análisis está limitado a los casos en que es inobjetable.
Más interesante aun, muchas de las conclusiones pueden trasladarse,
mutatis mutandis, al caso de n bienes de capital cualitativamente diferen­
tes. Y finalmente, como estoy explicando principalmente opiniones neo­
clásicas, no puedo evitar utilizar su conjunto de normas aunque no se ade­
cúen bien a los hechos. Entonces ahora decimos

q = f (K, T) (1)

donde “K ” es el capital agregado y “T” el trabajo agregado. Para impo­


ner una estructura sobre la función f, suponemos (neoclásicamente) que
es continua y continuamente diferenciable en ambas variables. Por ejem­
plo, esto implica que el concepto de un “producto marginal” (de capital o
de trabajo) siempre tiene sentido. Más adelante, en el capítulo 7, veremos
que el concepto de coeficientes de producción fijos también pueden repre­
sentarse mediante una función de producción que, a pesar de ello, no tie­
ne productos marginales bien definidos. También suponemos que hay
productos marginales decrecientes, lo que significa que si un factor se
mantiene constante y el otro se aumenta constantemente, cada unidad ex­
tra del segundo dará un aumento constantemente decreciente en el pro­
ducto total. El producto marginal puede o no finalmente llegar a cero o a
valores negativos. Más aun, suponemos que hay retornos constantes a es­
cala:

f (aK, aT) = a f (K, T), para todos los a no negativos (2)

Con estos supuestos, tenemos el siguiente teorema:

f (K, T) = fk(K, T)-K + fT(K, T)-T (3)

En palabras, el teorema dice que si tomamos el producto marginal de


capital multiplicado por la cantidad total de capital más el producto mar­
ginal de trabajo multiplicado por la cantidad total de trabajo, esto agota
exactamente el producto total. (Por conveniencia, los lectores no matemá­
ticos pueden pensar que el producto marginal de un factor es la cantidad
extra de producto creada por la adición de una unidad extra del factor,
dado que las cantidades preexistentes eran K y T respectivamente. Sin
embargo, esta simplificación solamente tiene sentido si las unidades son
pequeñas comparadas con las cantidades totales utilizadas.) Como se ob­
servó brevemente en el capítulo 1, el supuesto de retornos constantes de
escala y la ecuación 3 pueden ser útiles para ciertas teorías dudosas de
distribución de ingresos, pero esto está fuera del tema aquí. En este con­
texto es más importante observar que el supuesto de retornos constantes
permite una representación de la función de producción conveniente me­

90
diante isocuantos unidad. Un isocuanto se defíne como el lugar geomé­
trico de las combinaciones de factores que dan el mismo output, de mane­
ra que (Kp T,) y (Kj, Tj) se encuentran sobre el mismo isocuanto si y sólo si
f (K,, T,) = f (K,, T2). Con retornos constantes a escala, toda la información
en la fíinción de producción puede brindarse a través del isocuanto corres-

Figura 1

P V

pondiente a una unidad de output, ya que todos los demás procesos son
simples múltiplos de ésta. El isocuanto unidad en la figura 1 está dibuja­
do convexo al origen, correspondiendo a la idea del producto marginal de­
creciente. La teoría económica de la producción —a diferencia del aspecto
técnico— se ocupa de determinar cuáles de las combinaciones de factores
pueden realizarse. La teoría neoclásica supone que esto se decide median­
te la elección racional, y que el empresario (en una economía capitalista)
elige la combinación de factores que maximiza sus ingresos netos o ga­
nancias. Si suponemos que los precios de los factores de producción y del
producto se dan (el supuesto de la competencia perfecta), entonces pode­
mos explicar su elección de un modo particularmente simple. En la figura
1 cada una de las líneas rectas es una curva de isocosto, es decir, el lugar
geométrico de las combinaciones de inputs con el mismo costo total, dados
los precios del factor. La pendiente de estas líneas corresponde al cocien­
te factor precio. Entonces el empresario elegirá el punto en el isocuanto
unidad que esté en la curva de isocosto más bqja, es decir, el punto A tan­
gente entre el isocuanto y la recta PP’. Análogamente, un cambio en el co­

91
cíente factor precio, que lleva a un conjunto de curvas de isocosto parale­
las a QQ\ hará que el empresario cambie de A a B. Esto es sustitución de
trabajo por capital luego de un alza en el precio del capital relativo al del
trabajo.
Básicamente, esto es todo en cuanto a la teoría neoclásica estática de
la producción. A este simple tema pueden agregarse infinitos adornos y
variaciones, pero la lógica básica de la elección racional y la sustitución
inducida por el precio es la misma. Podemos observar que el simple mode­
lo esquematizado más arriba se basa en tres supuestos. Quizás el más
importante sea el postulado de la conducta de maximización de las ganan­
cias. En capítulos siguientes veremos cómo diversas teorías evolucionis­
tas y marxistas niegan este postulado, ya sea suponiendo que la elección
entre las prácticas posibles sigue una lógica diferente o negando que haya
que hacer una elección. Casi igualmente importante es el supuesto inclui­
do en el concepto de la función de producción, una representación compac­
ta de las posibilidades y limitaciones técnicas existentes. Se supone que
todos los puntos en el isocuanto unidad son igualmente accesibles a la em­
presa, y el punto correspondiente a la práctica real no está privilegiado de
ningún modo. También es posible moverse por el isocuanto unidad en res­
puesta a los cambios de precio sin que el isocuanto sea afectado por los
movimientos. En el capítulo 6 veremos que estos supuestos han sido cues­
tionados. Finalmente, el modelo se basa en el postulado institucional de
la competencia perfecta. Este es el supuesto menos central y la teoría neo-
clásicapuede manejar perfectamente las complicaciones que surgen cuan­
do se deja de lado. De hecho, la mayoría de los “adornos y variaciones”
mencionados anteriormente son búsquedas de elección de técnicas bajo
una competencia imperfecta.

En general, el progreso tecnológico se define como un traslado del iso­


cuanto unidad hacia el origen. Según W. E. G. Salter,[4] podemos definir
el ritmo o el alcance del cambio tecnológico como “el cambio relativo en los
costos totales por unidad cuando las técnicas en cada período son las que

92
minimizarían los costos unitarios cuando los precios de los factores son
constantes”. Análogamente, “las tendencias de ahorro de trabajo o de ca­
pital del avance técnico se miden mediante el cambio relativo en el capital
por unidad de trabajo cuando los precios de los factores son constantes”.
“Así, la figura 2a muestra el cambio tecnológico neutral, el de la figura 2 b
es ahorro de trabqjo y el de la figura 2c el ahorro de capital. Esta defini­
ción de tendencia innovadora no es más que una de las disponibles, cada
una de las cuales puede tener algo a su favor en un contexto dado. Pero
creo que Salter tiene razón en cuanto a que su definición es la más
apropiada para el estudio del cambio tecnológico en el nivel industrial,
mientras que las demás se crean con el propósito de un análisis adicio­
nales] Más aun, el nivel industrial (o empresarial) también es el apropia­
do para propósitos explicativos, ya que, como expliqué en el capítulo 3,
queremos entender el cambio tecnológico agregado como el resultado de
acciones individuales. Veremos en el capítulo 7 que pueden surgir ambi­
güedades fatales cuando se utiliza indiscriminadamente el concepto de in­
novaciones en “ahorro de trabajo” en el micro y el macroanálisis.
Entonces, ¿cómo podemos explicar el alcance y la dirección del cambio
tecnológico en una teoría neoclásica? Debemos decir rotundamente que la
teoría neoclásica no se adapta bien a esta tarea. Es una herramienta su­
mamente eficiente para el análisis del equilibrio de la vida económica, in­
cluyendo los equilibrios intertemporales, el crecimiento del estado fijo y
otros fenómenos que se producen en el tiempo lógico, en oposición al histó­
rico. Por otro lado, conceptualmente es muy escasa su utilidad cuando se
trata de problemas realmente dinámicos. Sin embargo, queda por ver si
esto es porque la teoría neoclásica es en cierto modo defectuosa o porque
la tarea de explicar lo impredecible es naturalmente difícil.
La economía neoclásica se aboca a la explicación de todos los fenóme­
nos en términos de elección racional dentro de límites. En este caso, esto
significa que el ritmo y la tendencia de cambio tecnológico deberían resul­
tar de la elección deliberada, supuestamente del empresario. Pero enton­
ces debemos preguntar: ¿cuáles son los límites? ¿Y cómo puede conocerlos
el empresario? Si tiene acceso a mejores métodos, ¿cómo es que no los es­
tá utilizando? Por ahora pospondré esta pregunta, suponiendo que hay
una corriente de innovaciones dada exógenamente y disponible al empre­
sario y que su única elección es si las va a dirigir en alguna dirección en
especial. Es decir, que dejaré de lado la explicación del ritmo del cambio y
me concentraré exclusivamente en la tendencia del factor de ahorro.

b. Explicación de la tendencia de factores del cambio tecnológico

La posición ortodoxa sobre el tema de la tendencia de factores fue


muy simple durante mucho tiempo: un alto precio de trabajo (respectiva­
mente capital) conduce a innovaciones en el ahorro de trabajo (ahorro de
capital). La innovación es exactamente como la sustitución ya que ambas
son manejadas por precios relativos. El enunciado clásico de esta idea se
encuentra en Theory ofW ages de John Hick, de 1932:

93
La verdadera razón de la predominancia de invenciones para el ahorro de
trabajo es seguramente la que se indicó en nuestro análisis de la sustitución.
Un cambio en los precios relativos de los factores de producción es un impul­
so para la invención, y para la invención de una clase en particular, dirigida
a economizar el uso de un factor que se ha tomado relativamente más caro.
La tendenciageneral a un aumento más rápido de capital que de trabajo que
ha marcado a la historia europea durante los últimos siglos ha proporciona­
do naturalmente un estímulo para la inversión para el ahorro de trabajo.[6]
Salter, en Productivity and Teehnical Change de 1960, presenta una
refutación igualmente clásica de esta idea persuasiva:

Si la teoría [de Hick] implica que el trabajo más costoso estimula la búsque­
da de nuevo conocimiento dirigido específicamente al ahorro de trabajo,
entonces es pasible de serias objeciones. El empresario está interesado en
reducir los costos en total, no en particular como los costos de trabajo o de ca­
pital . Cuando los costos de trabajo suben es bienvenido cualquier avance que
reduzca el costo total y no importa si esto se logra mediante el ahorro de tra­
bajo o de capital. No hay razón para suponer que deba concentrarse la aten­
ción sobre técnicas de ahorro de trabajo, a no ser que, debido a alguna carac­
terística inherente déla tecnología, el conocimiento para ahorrar trabajo sea
más fácil de adquirir que el conocimiento para ahorrar capital.[7]

También puede decirse lo mismo en términos levemente diferentes.


Supongamos un cambio inicial en los precios de factores. Entonces, el em­
presario sustituirá primero un factor por otro hasta lograr un nuevo equi­
librio, como en la figura 1. En esta nueva situación ya no se puede decir
que un factor es más caro que el otro, pues en el equilibrio todos los facto­
res son igualmente caros o igualmente escasos. Cuando se utiliza poco de
un factor, entonces es más productivo y es correcto pagar más por él. A su
vez esto significa que no hay más incentivo para economizar sobre dicho
factor, ya que la sustitución se ha hecho cargo de ello. Sin duda, la conclu­
sión parece contraintuitiva, pero creo que no hay falla en la lógica. Si co­
mo una consecuencia de, por ejemplo, trabajo más caro hay una tendencia
hacia invenciones para ahorrar trabajo, esto no puede explicarse median­
te la idea de elección racional. Sin embargo, puede haber una explicación
causal de por qué se concentra la atención sobre una clase en particular
de invención. El factor que se ha tom ado relativamente más caro puede
resultar ser más llamativo y atrayendo la atención hacia él también pue­
de llevar a la búsqueda de nuevos métodos.
Sin embargo, probablemente éste no sea el fin de la historia. Conside­
raré brevemente algunas explicaciones propuestas de la tendencia en tér­
minos de elección racional, pero primero permítaseme indicar que la fuer­
te atracción intuitiva del argumento de Hick puede deberse a una falacia
lógica muy fácil de cometer. Supongamos que el precio del trabajo relativo
al capital aumenta en la economía, de manera que todos los empresarios
simultáneamente se enfrentan a costos de trabajo ascendentes. Entonces
es claro que si todos realizan innovaciones para ahorrar trabajo, habrá
una caída en la demanda agregada de trabeqo, llevando a una caída en los
salarios. Es decir, que colectivamente las innovaciones para ahorrar tra­

94
bajo parecen ser la respuesta racional de los empresarios al alza de los sa­
larios. Pero por supuesto los empresarios actúan individualmente, no co­
lectivamente, y entonces la explicación propuesta fracasa. Las economías
externas no pueden motivar la conducta bajo una competencia perfecta;
creer que pueden hacerlo es cometer un error estrechamente relacionado
con la falacia que subyace a la explicación funcional. La proporción de los
salarios es un parámetro para cada empresario y éste no puede hacer na­
da para cambiarlo a través de su conducta. A pesar de todo, si por alguna
razón —quizá la indicada en el párrafo anterior— hay una tendencia real
a las innovaciones para ahorrar trabsqo, estos beneficios colectivos surgi­
rán como un subproducto. Así como en otros casos, entonces es muy tenta­
dor convertir a estos subproductos en razones para la acción.[8]
Obsérvese que la situación puede entenderse en una de dos maneras.
En un modelo podemos postular que el empresario paga un costo por dar
un sesgo particular a su búsqueda de innovaciones. Esto nos da un dilema
de los prisioneros: es mejor para todos los empresarios si todos mecanizan
que si ninguno lo hace, pero para cada empresario es tentador desertar y
beneficiarse de lás invenciones para ahorrar trabajo emprendidas por los
demás sin hacer su propia contribución al bien público. Y por supuesto si
los demás no mecanizan, cada empresario no tiene un incentivo para ha­
cerlo, ya que solamente supondría costos y ningún beneficio. En otro mo­
delo, podemos postular que no hay costos asociados a la dirección de la
búsqueda de invenciones en un sentido específico. Entonces obtenemos
una situación un tanto curiosa, que puede ejemplificarse con el siguiente
juego. Utilizando la terminología de capítulos anteriores, y siendo “A ” la
estrategia de mecanización y “E” la estrategia de la búsqueda sin tenden­
cias, vemos que todos son indiferentes entre (A, A) y (E, A) y también en­
tre (A, E) y (E, E), mientras que todos también prefieren los dos primeros
resultados a los dos últimos. Para cada empresario en sí entonces se trata
de un asunto de estricta indiferencia si le da una inclinación por el ahorro
de trabqjo a su búsqueda, pero colectivamente prefieren la mecanización.
John Harsanyi indica que en tales casos la elección racional es tirar una
moneda entre A y E.[9] Mi opinión sería — tentativamente— que debería­
mos forzar el concepto de racionalidad individual para actuar de un modo
colectivamente racional cada vez que esto no sea perjudicial individual­
mente. O, como alternativa, podríamos indicar que casos como éste ofre­
cen campo para el liderazgo y la persuasión, si los dirigentes empresarios
pueden aprovechar la “zona de indiferencia” de cada empresario.[10]
William Fellner [11] ha propuesto dos mecanismos que convertirían
en individualmente racional la reacción al trabajo más caro con invencio­
nes para el ahorro de trabajo, incluso suponiendo que hay costos asocia­
dos con tal tendencia. Primero, podemos abandonar el supuesto de la
competencia perfecta y suponer que la empresa es tan grande que puede
internalizar algunas de las economías externas creadas por la mecaniza­
ción. Es decir, que si la empresa actúa hasta cierto punto como monopso-
nista en su tratamiento del trabajo, entonces puede influir sobre la pro­
porción de los salarios por la cantidad de mano de obra que emplea, que a
su vez puede modificarse mediante la mecanización. En segundo lugar, y

95
más interesante, la empresa puede aprender de la experiencia pasada. Si
ha habido una tendencia al alza de los salarios en el pasado, que se espe­
ra continuará en el futuro, entonces puede ser racional buscar innovacio­
nes para ahorrar trabajo para prevenir hasta cierto punto el impacto de
futuras alzas de salarios. Este argumento funciona bien si las empresas
basan sus expectativas simplemente en la extrapolación de tendencias
pasadas, pero podríamos preguntar si realmente lo hacen. Y quizá, más
particularmente, ¿es racional que lo hagan?
Consideremos nuevamente la situación como estratégica. Cada em­
presario puede, inicialmente, llevar adelante el argumento indicado por
Fellner, pero luego puede recordar que su empresa no es la única en la
economía. También hay otros empresarios en una situación similar de al­
za de salarios y, en base a un razonamiento similar, puede esperarse que
mecanicen para reducir el impacto de futuras alzas de salarios. Pero si se
puede esperar que hagan esto, habrá una caída en la demanda agregada
de mano de obra y entonces la proporción de salarios esperada no subirá
después de todo, lo que significa que no tiene incentivo —en realidad un
desaliento— para mecanizar. Pero después de seguir reflexionando pode­
mos reconocer que los otros empresarios pueden estar pasando por el mis­
mo argumento y llegar a la misma conclusión, en cuyo caso los salarios
continuarán subiendo y la mecanización nuevamente comienza a parecer
atrayente. Pero entonces... Evidentemente, la situación es la del juego de
la gallina, ya que cada empresario tiene un incentivo para mecanizar si
ningún otro lo hace y un desaliento si todos los demás lo hacen. Esto
significa que es difícil dar una explicación completa de elección racional
en la innovación para ahorro de trabajo según Fellner: tales innovaciones
son racionales sólo en base a expectativas difíciles de defender racional­
mente.
Una explicación diferente de la elección racional de la tendencia de
factores en el cambio tecnológico fue propuesta por Charles Kennedy.[12]
Supone que en cualquier momento la empresa se enfrenta a una frontera
de posibilidad de innovación, que impone limitaciones a las invenciones
técnicamente posibles. Un modelo similiarfúe presentado por S. Ahmad.[13]
“Kennedy indicó que la frontera debe relacionar la proporción de un factor
que podría ahorrarse con la proporción ahorrada del otro factor. Por otro
lado, Ahmad indica que la frontera debe relacionar la cantidad de un
factor ahorrado por unidad de output con la cantidad del otro factor aho­
rrado.”!^14] Sin embargo, ninguno de los dos autores dio alguna razón pa­
ra creer que uno o el otro sería el postulado más plausible. Más fun­
damentalmente, ninguno dio una razón para creer que la frontera de
posibilidad de invención tiene una realidad psicológica para el empresa­
rio. Para insistir en un punto mencionado repetidamente en el capítulo 3,
las explicaciones de elección racional se vuelven contra los deseos y las
creencias: el actor elige la acción que para él tiene más sentido, no la ac­
ción que sería óptima en cierto sentido abstracto o absoluto. Apelar a un
conjunto inobservable y discutiblemente incognoscible de innovaciones
factibles es abandonar este principio metodológico fundamental. En cual­
quier instante puede haber límites objetivos a las innovaciones que pue­

96
den hacerse en base al conocimiento técnico existente, pero dichos limites
pueden no hacer ninguna diferencia para la conducta ni tener poder expli­
cativo a no ser que se manifiesten de algún modo a los agentes. Me parece
que Kennedy apela a la maximización sin un maximizador. Supone que la
innovación ocurrirá en el punto de la frontera que, en los precios de factor
dominantes, permita la mayor reducción en el costo unitario, pero no nos
dice cómo se supone que el empresario encuentra la frontera y se mueve a
lo largo de ella hasta que encuentra un máximo, ni siquiera cómo encon­
trará el máximo global. En una palabra, la teoría carece de microfunda-
mentos.[15]

c. Explicación del ritmo del cambio tecnológico

El problema de explicar el ritmo de innovación está estrechamente


relacionado con el de la explicación de la proporción de actividad inno­
vadora. Ambos problemas son diferentes porque el producto de la acti­
vidad innovadora — nuevo conocimiento técnico— tiene la peculiar
propiedad de que “toda clase d eoutput final se produce esencialmente una
vez”.[16] Esto implica que la duplicación es inútil y que la actividad in­
novadora no puede servir como una medida de innovación. Sin embargo,
los dos están tan estrechamente relacionados que una teoría capaz de ex­
plicar una también puede explicar la otra. De hecho, el énfasis sobre los
microfundamentos parecería señalar que la proporción de innovaciones
sólo puede explicarse en términos de la proporción de la actividad inno­
vadora.
La innovación y el cambio tecnológico no son fenómenos universales,
sino que están restringidos en tiempo y espacio a un subconjunto muy pe­
queño de sociedades históricas. Un modo de enfocar el problema del cam­
bio tecnológico es, por lo tanto, preguntar por qué ocurre en cantidades
tan insignificantes en las sociedades preindustriales (y, con algunas ex­
cepciones, en sociedades no occidentales). Si la acción se explica como una
elección racional dentro de un conjunto factible de opciones, entonces la
ausencia de determinada acción específica debe explicarse por su ausen­
cia del conjunto factible, por la ausencia de alguna motivación que pudie­
ra racionalmente seleccionarse dentro del conjunto o por la ausencia de
información que se encuentra realmente dentro del conjunto. En lo que si­
gue ignoraré el último tema y estipularé que las empresas o los empresa­
rios tienen cierto conocimiento probabilístico sobre las invenciones facti­
bles y provechosas que pueden realizarse. (Obsérvese que este postulado
es mucho más débil que la idea de una frontera de posibilidad de innova­
ción, que supone conocimiento determinístico acerca de cuán fácil es rea­
lizar clases específicas de invenciones.) Entonces nos queda la elección
entre dos explicaciones de falta de innovación: la ausencia de objetos de
innovación y la ausencia de la motivación para innovar. Quizás es cierto
que en las sociedades preindustriales había una presión hacia el consumo
conspicuo que era incompatible con la motivación para innovar.[17] Pero
también existe la posibilidad de que hubiera una falta de objetos de inver­

97
sión, es decir, que las innovaciones factibles no parecieran económicamen­
te interesantes.! 18]
Para analizar esta última idea, consideremos la diferencia entre los
réditos privados y sociales de la innovación. Los últimos, aproximada­
mente, son los beneficios que se acumulan en la sociedad cuando una
innovación determinada es universalmente adoptada por todos los pro­
ductores del sector pertinente. Los primeros incluyen los beneficios que
puede recoger el mismo innovador. Suponer que las innovaciones se pro­
ducirán cuando son (en cierto sentido) posibles y socialmente beneficiosas
es ignorar que debe haber un incentivo para que algún individuo las pro­
duzca y que, por razones pertinentes a la producción de información, los
réditos individuales y sociales de la innovación generalmente divergen
ampliamente. Una vez que la información se ha producido, puede ser difí­
cil para el innovador evitar que otros empresarios la tomen y la utilicen
sin cargo. Si es así, solamente recogerá los beneficios que derivan de su
propio uso productivo del nuevo conocimiento técnico. Es cierto que los be­
neficios pueden aumentar por su monopolio temporario durante el perío­
do en que sus competidores adoptan los nuevos métodos, pero frente a
esto debemos pesar las “penalidades por llevar ventaja”. Generalmente el
monopolio no durará mucho, por lo menos no lo suficiente como para jus­
tificar la actividad innovadora que se requiere. La historia económica y
tecnológica desde el siglo xvn en adelante muestra que hay cuatro res­
puestas principales a este problema.[19] Primero el innovador —general­
mente un pequeño artesano— puede guardar la innovación para sí, guar­
dando celosamente sus secretos profesionales para mantener las ganan­
cias de su monopolio durante el mayor tiempo posible. Por supuesto, esto
limita mucho la clase y cantidad de innovaciones que se producirán, tanto
porque el procedimiento excluye innovaciones que por razones puramente
técnicas son difíciles de mantener en secreto como porque no permite que
los réditos sociales actúen como incentivo. Segundo, el Estado puede fo­
mentar la actividad innovadora, así como lo hace con la producción de
otras clases de bienes públicos.[20] Sin embargo, el registro histórico
muestra que éste no fue un método eficiente. El Estado debía recompen­
sar los intentos ingeniosos de producir máquinas de movimiento perpetuo
y aventuras similarmente improductivas, recompensando efectivamente
al inventor de acuerdo con sus esfuerzos pasados y no por los beneficios fu­
turos. Tercero, el sistema de patentes surgió como un modo de extender y
estabilizar el monopolio temporario del inventor, permitiéndole así adue­
ñarse de los réditos sociales o al menos de una parte suficiente de ellos pa­
ra que el esfuerzo innovador valiera la pena. Y por último, los monopolios
surgieron como tales debido a que por su posición dominante en la indus­
tria podía apropiarse de gran parte de los réditos sociales incluso en
ausencia de un sistema de patentes.
Al tratar de explicar la proporción de innovación, el enfoque neoclási­
co más prometedor parecería suponer que la proporción de invenciones se
da exógenamente y que las empresas se enfrentan con el problema de
cuánto invertir en el esfuerzo de transformar invenciones en innovacio­
nes. Es decir, que debemos suponer que el crecimiento de la ciencia no es

98
parte del proceso económico. Evidentem ente esto es contrario a los hechos
en algunos casos, 121J pero son también los casos para los que puede ser
difícil encontrar explicaciones. El progreso científico está oscurecido por
la incertidumbre, en el sentido técnico de la palabra, y a una em presa le
resultaría muy difícil justificar racionalm ente la inversión que realice en
investigación científica básica. (Sin embargo, parecería que las ciencias
de la vida cada vez se convierten en más excepciones a este enunciado.)
Más aun, supondré que las em presas pueden form ar algunas expectati­
vas justificadas — probabilísticas— acerca de los costos privados y los
réditos sociales de transform ar una invención dada en una innovación
productiva. Este supuesto parece haber surgido aproxim adam ente de la
experiencia, aunque sería obviam ente absurdo buscar altas precisiones
en tales casos.
Con este contexto, el enfoque neoclásico estándar explicará la propor­
ción de innovación en térm inos de los dos m ecanism os mencionados en el
penúltimo párrafo: apropiabilidad y estructura del mercado. A dem ás ob­
viamente hay un problem a acerca de la demanda de innovaciones, ya que
el rédito social depende fundam entalm ente de este elemento. Desde
Adam Smith se ha reconocido que la ca n tid a d d e innovación depende de la
extensión del mercado, enunciado que tam bién fue confirm ado en muchos
estudios recientes.[22] Pero este aspecto del problem a es en cierto modo
incidental al enfoque de la elección racional favorecido por la teoría neo­
clásica; y en todo caso no lo analizaré aquí. Entonces el enunciado final
del problema es el siguiente: suponiendo que la fuente científica de inno­
vaciones y la demanda económ ica de innovaciones se den exógenamente,
¿cómo explicamos la proporción en que se producen?
Como se observó en el capítulo 2, la paradoja del sistema de patentes
es que, al disipar la suboptim alidad dinámica, también destruye la opti-
malidad estática. Al darle al innovador un m onopolio tem porario de la in ­
novación, asegura que las innovaciones realm ente se produzcan, pero
también evita que se utilicen óptimamente. (Una paradoja en cierto modo
similar, aunque básicam ente no relacionada, es creada por el papel de las
expectativas en la innovación: cuantas más nuevas innovaciones se espe­
ra que suijan en un campo dado, menor será la proporción en que sean di­
fundidas, ya que los usuarios prefieren esperar la versión siguiente y me­
jorada )[23J Por lo tanto, desde un punto de vista el sistema de patente
puede incluirse entre aquellas “relaciones de producción” que “inm ovili­
zan” las fuerzas productivas. A nalizo estos conceptos marxistas en el
apéndice 2. Aquí solam ente quiero acentuar que el sistem a de patentes
puede diseñarse de m anera de ser óptimo desde el punto de vista social,
por ejemplo, variando las tarifas perm itidas para las licencias, la dura­
ción de la patente, etc.124] Los com entarios a continuación sobre la con­
ducta de las empresas deben entenderse com o relativos a un sistema dado
de patentes, que puede o no estar diseñado como para canalizar aquella
conducta en form as socialm ente deseables.
Entonces, supongamos una industria con empresas posiblemente
innovadoras. ¿Cuánto invertirán racionalm ente en la actividad in­
novadora? y ¿cuánta innovación resultará? Estas preguntas resultan

99
mucho más difíciles de contestar de lo que se pensaba previamente porque
son esencialmente de una naturaleza de equilibrio general. Tradicional­
mente, se suponía que la estructura del mercado era exógena y proporcio­
naba una explicación causal para la proporción de la actividad innovado­
ra. Así la “hipótesis de Schumpeter”, de la que hablaré más en el próximo
capítulo, afirmaba que los monopolios tienden a fomentar la innovación.
Pero ahora resulta que la “concentración industrial y la intensidad de la
búsqueda son determinadas simultáneamente”[25] en base a, entre otras
cosas, la tecnología interna del proceso de investigación y desarrollo. En
un modelo propuesto por Glenn Loury, por ejemplo, la industria será per­
fectamente competitiva (con una cantidad infinita de empresas) si la tec­
nología para la innovación tiene réditos descendentes a escala, pero con
réditos incialmente crecientes puede haber un equilibrio con una cantidad
finita de empresas.[26] Otra falla de los análisis del equilibrio parcial se
origina en los supuestos que hacen sobre la conjetura que la empresa ha­
ce de la conducta de las otras empresas. Por ejemplo, si el modelo supone
que todas las empresas son idénticas, no se puede determinar el óptimo
para una empresa dada con respecto a niveles dados de inversión de otras
empresas, ya que es una condición de la solución que en equilibrio todas
las empresas deben comportarse idénticamente.[27]
Esto también implica la condición de que en equilibrio todas las
empresas deben hacer supuestos similares con respecto a cada una. El
asunto es si estas expectativas existen, es decir, si el “juego de innova­
ción” tiene una solución. No puedo entrar en detalles en este análisis, sim­
plemente porque siento que no los domino por completo. Sin embargo, per­
mítaseme indicar, siguiendo un modelo presentado por Partha Dasgupta
y Joseph Stiglitz, por qué en tales “juegos R & D” no se necesita una solu-
ción.[28] Suponen que no hay incertidumbre acerca de las posibilidades
innovadoras, de modo que existe una relación conocida y determinista en­
tre la cantidad invertida en la innovación y el tiempo en el que se produce
la innovación. Luego se prueba 1) que debe haber por lo menos una empre­
sa que invierta en la innovación en equilibrio, 2) que no puede haber más
de una empresa que invierta en la innovación en equilibrio y 3) que el su­
puesto de que en equilibrio una sola empresa invierte en la innovación es
inconsistente. Se concluye que no puede haber un punto de equilibrio en el
juego.
El razonamiento detrás de estas proposiciones es el siguiente. En el
modelo se estipula que la innovación es beneficiosa, en el sentido de que
existe una cantidad x tal que una empresa que invierte x en innovaciones
y que obtiene toda la recompensa aumentará el valor actual de sus ganan­
cias. Si en equilibrio hubiera dos empresas que invierten en innovaciones,
deben invertir cantidades iguales. Pero esto podría no ser un equilibrio,
pues una empresa podría entonces elevar marginalmente su inversión y
así elevar la probabilidad de obtener la recompensa del 50% al 100%. Fi­
nalmente, si en equilibrio hubiera solamente una empresa invirtiendo,
tendría que invertir una cantidad que dé ganancias esperadas nulas,
pues de lo contrario surgirían competidores. Pero como suponemos que es
un equilibrio en el sentido teórico del juego (un “equilibrio de Nash-Cour-

100
not”, como se denomina generalmente en este contexto), la conducta de la
firma inversora debe ser óptima con respecto a la de las no inversoras. Sin
embargo, éste no podría ser el caso con ganancias esperadas nulas, ya que
suponiendo que las otras empresas no invierten, la empresa inversora po­
dría obtener ganancias positivas reduciendo sus gastos R & D. Básica­
mente, es claro que se trata de una variante del juego de la “gallina”: si
otros invierten, cada empresa no tiene incentivo para invertir; si no lo ha­
cen, sí lo tiene.
Entonces, en el modelo no hay equilibrio en estrategias puras. Sin
embargo, sabemos por la teoría de los juegos que debe haber un equilibrio
en estrategias mixtas, es decir, una salida en la que las empresas invier­
ten estocásticamente en la innovación. Pero esto, por supuesto, no garan­
tiza que el juego tenga una solución en las estrategias mixtas. De hecho,
los economistas tienden a satisfacerse con la demostración de que una es­
tructura de interacción dada tiene un equilibrio, es decir, una solución in­
dividualmente estable en el sentido explicado anteriormente. Que este
equilibrio se produzca realmente es otro asunto. En un juego sin solución
no hay equilibrio que se realice a través de los actores que convergen táci­
tamente en un único conjunto de estrategias. Suponer que una “mano in­
visible” realizará un equilibrio es, nuevamente, caer víctima de alguna
variedad de funcionalismo. Por supuesto podría suceder que se llegue a
un equilibrio a través de algún proceso dinámico de adaptación mutua
convergiendo en una situación estable, pero esto debería probarse en cada
caso específico.[29]
La familia de modelos analizados aquí también puede aclarar algo so­
bre la relación entre la proporción de actividad innovadora y la proporción
de innovación. En el modelo simple y atractivo de Loury, primero prueba
tres teoremas para el caso de una cantidad fija de empresas, con barreras
al libre ingreso: el nivel de inversión de la empresa desciende con una can­
tidad creciente de empresas; la proporción de innovación aumenta con la
cantidad de empresas; y habrá demasiada inversión en innovaciones en
relación con el óptimo social, es decir, demasiada cantidad innovadora
comparada con las innovaciones producidas. En el caso de una cantidad
de empresas (con libre ingreso) endógenamente determinado, los dos pri­
meros teoremas también sirven y también se demuestra que con réditos
iniciales a escala en la tecnología de la innovación habrá sobreinversión
en la actividad innovadora. Sin ninguna duda, estos resultados dependen
fuertemente de supuestos muy específicos; los cito aquí solamente para
dar una idea de los problemas que aborda esta sofisticada rama de la eco­
nomía neoclásica.
Tiendo a ser un poco escéptico en cuanto al poder explicativo de estos
modelos neoclásicos del cambio tecnológico. Básicamente, el problema es
que hay demasiada incertidumbre en la situación para que la elección ra­
cional esté bien definida. En primer lugar, existe la incertidumbre que ro­
dea a las posibilidades innovadoras. He supuesto que esta incertidumbre
hasta cierto punto puede reducirse aprendiendo de la experiencia, de mo­
do que las empresas enfrenten un problema de decisión bajo riesgo. Es
una gran concesión para hacer, pero quizá no mucho mayor que lo que ge­

101
neralmente se requiere en los modelos económicos. El problema real está
en otra parte, en la incertidumbre fundamental que nace de la naturaleza
estratégica de la situación. Lo mejor que podemos hacer es suponer que
las empresas actúan racionalmente en base a supuestos no racionales
acerca de cada una, lo que significa que caemos realmente en una explica­
ción causal de su conducta. En lugar de suponer que las empresas actúan
racionalmente en base a creencias arbitrarias, podría parecer más equili­
brado simplemente suponer que actúan arbitrariamente, el empresario
movido por lo que Keynes memorablemente denominó sus “espíritus ani­
males”. De hecho, ésta es una manera de describir algunos de los modelos
que esbozaré en el capítulo 6. Postulando que las empresas buscan aleato­
riamente y luego deciden sobre la base de satisfacer y no de optimizar, sin
duda nos acercamos al verdadero proceso empresarial.

102
5

Teoría de Schumpeter

Joseph Schumpeter (1883-1950) es el escritor más influyente acerca


del cambio tecnológico. Consideró a la innovación — de la que la innova­
ción tecnológica es la variedad más importante, si bien no la única— como
el motor del desarrollo económico. Más aun, afirmó que las innovaciones
también eran la principal causa de las fluctuaciones cíclicas que experi­
menta la economía en el curso de dicho desarrollo. Para él crecimiento y
ciclo estaban indisociablemente vinculados, por lo menos en el modo capi­
talista de producción: para suprimir los ciclos habría que eliminar las in­
novaciones que fueron la fuente de crecimiento. Además de la explicación
de estas largas tendencias históricas en términos de innovación, también
ofreció una explicación del proceso innovador mismo. En él la idea expli­
cativa clave es la del empresario — una figura histórica única, de voluntad
y energía superiores a lo normal. En lugar de comentar los aspectos crea­
tivos e impredecibles de la innovación, los convirtió en la piedra funda­
mental de su teoría. La innovación es esencialmente un fenómeno de de­
sequilibrio— un salto en la oscuridad— que requiere capacidades que sólo
tienen unos pocos. La elocuencia de Schumpeter al describir la psicología
del empresario rivaliza solamente con su evasividad.[l] Sin duda, está es­
tudiando un fenómeno elusivo, la psicología de la creación. Sin embargo,
esto no es excusa para la verbosidad autoindulgente que caracteriza mu­
chos de sus trabajos. Lionel Robbins habría calificado uno de sus libros
más importantes, Capitalismo, socialismo y democracia, como “una char­
la de sobremesa sumamente inteligente”,[2] y cualquier lector puede com­
probar la veracidad de esta afirmación.
Por otro lado, Schumpeter fue “el gran lector de caracteres del siste­
ma capitalista”, para utilizar una frase de W. Leontief para caracterizar a
Marx.[3] Su vasta erudición histórica, su profundo conocimiento del fun­
cionamiento del sistema capitalista, su realismo — bordeando lo cínico—
y su agudeza psicológica lo han hecho singularmente apto para intentar
un análisis a gran escala del desarrollo capitalista, que rivaliza solamen­
te con los de Marx y Weber.[4J Como ellos, no sólo brindó un análisis del
capitalismo como un sistema económico, sino una explicación de la orga­
nización política más compatible con él. Su teoría del empresario político
—un derivado directo de la teoría de la innovación económica— ha dado
origen a toda una escuela de científicos políticos, con An Economic Theory
ofDemocracy de Downs como el trabajo más conocido. En su opinión, tan-

103
to la vida económica como la política son moldeadas por hombres con la
capacidad para “hacer que las cosas se hagan”, para superar el pensa­
miento habitual y percibir posibilidades objetivas ocultas a los demás.
Aunque las actividades rutinarias puedan ser predominantes en el senti­
do cuantitativo, las innovaciones son chispas que encienden y vivifican el
sistema. De allí que en su trabajo sobre los ciclos comerciales Schumpeter
no estuviera interesado comparativamente en los mecanismos de difusión
y propagación que determinan la forma precisa de las fluctuaciones, y
mucho más interesado en las innovaciones que proporcionan las series
irregulares de shocks que serán propagados. [5]
La última observación también explica su profunda hostilidad hacia
Keynes y su rechazo a considerar el elemento de demanda efectiva como
una explicación fundamental del ciclo comercial. [6] El creía que esto sola­
mente podía explicar los aspectos superficiales del proceso y distraer la
atención de las causas básicas. Más aun, tenía una fuerte aversión por el
método agregado de Keynes y sus seguidores: “Mantiene el análisis en la
superficie de las cosas y evita que penetre en los procesos industriales que
se encuentran por debajo, que son lo que realmente importa. Invita a un
tratamiento mecánico y formal de unas pocas líneas de contorno aisladas
y atribuye a los agregados una vida propia y un significado causal que no
poseen”.[7] Schumpeter no sólo practicó la doctrina del individualismo
metodológico: según Fritz Machlup fue él quien acuñó el término e hizo la
frecuentemente descuidada diferenciación entre individualismo político y
metodológico. [8]
Estudiaré los trabajos centrales de Schumpeter en orden cronológico,
pero no dudaré en citar algún trabajo para elaborar puntos mencionados
en otros. La unidad de la obra de Schumpeter desde 1911 en adelante es
tal que este procedimiento parece perfectamente legítimo.

a. L a te o r ía d e l d esa rro llo c a p ita lista (1911)

Prácticamente toda la teoría económica de Schumpeter está conteni­


da en éste, que es uno de los primeros trabajos (la teoría será citada según
la traducción revisada del inglés de 1934). Sin embargo, me concentraré
en la parte que trata de la microeconomía — o mejor dicho, la psicología—
de la innovación. Aunque también analiza las macroconsecuencias de la
innovación, son estudiadas con mayor profundidad en trabajos poste­
riores.
La forma básica de innovación es cualitativa y discontinua: “Es aque­
lla clase de cambio que surge desde dentro del sistema que desplaza su
punto de equilibrio del tal manera que el nuevo no puede alcanzarse desde
el anterior mediante pasos infinitesimales. Por más que se agreguen tan­
tos vagones correo como se desee, nunca se obtendrá un tren de ese mo-
do”.[9] Schumpeter es conocido como el teórico de la innovación en este
sentido, y en este carácter lo analizaré principalmente aquí. Además,
Schumpeter también tiene ideas interesantes — el término “teoría” sería
demasiado pretensioso— acerca del cambio tecnológico que ocurre a tra­

104
vés de pasos infinitesimalmente pequeños. Resultará útil para varios pro­
pósitos citar y analizar brevemente su explicación de tales adelantos “pe­
queños” y “adaptables” — en oposición a “amplios” y “espontáneos”— en
técnica:

El supuesto de que la conducta es rápida y racional es en todo caso una fic­


ción. Pero resulta suficientemente cercana a la realidad, si las cosas tienen
tiempo para introducir la lógica en los hombres. Donde esto ha sucedido y
dentro de loe límites de loe cuales ha sucedido podemos estar satisfechos con
esta ficción y construir teorías sobre ella. Entonces no es cierto que el hábito
o la costumbre o loe modos no económicos de pensar causen una diferencia
sin esperanza entre loe individuos de diferentes clases, tiempos o culturas, y
que por ejemplo, la “economía de la bolsa” sería inaplicable, digamos, a loe
campesinos de la actualidad o a los artesanos de la Edad Media. Contraria­
mente, el mismo panorama teórico en sus contornos más amplios se adapta a
loe individuos de culturas muy diferentes, cualquiera sea su grado de inteli­
gencia y de racionalidad económica y podemos afirmar que el campesino
vende su ternero tan astuta y egoístamente como el miembro de la bolsa sus
acciones. Pero esto es válido solamente donde precedentes sin número se
han formado a través de décadas y, básicamente, a través de cientos y miles
de años, y han eliminado la conducta inadaptada.[10]

Schumpeter agrega que tales “pequeñas variaciones en los márgenes”


pueden “sumarse hasta dar grandes cantidades con el tiempo”.[ l l ] Dado
esto, no es claro por qué el cambio tecnológico adaptable debería ser me­
nos importante que la variedad espontánea. Evidentemente, es necesario
seguir el razonamiento. Schumpeter no lo hace, pero tendremos oportuni­
dad de volver al problema en este capítulo y en el siguiente.
El “cambio tecnológico adaptable” permite la explicación funcional de
la conducta económica. Como observa Schumpeter, “puede haber conduc­
ta racional incluso en ausencia de un motivo racional” .[12] El texto no es
lo suficientemente preciso como para permitimos decidir si Schumpeter
tenía en mente alguna analogía bastante directa de la selección natural o
algo más parecido a los procesos de Markov considerados en el capítulo 2.
Pero podemos observar que Schumpeter insiste en el gran lapso requerido
para que tal adaptación se produzca. Por lo tanto en un medio que cambia
rápidamente no habrá tiempo suficiente para que la “conducta racional”
quede fija y, aun si esto sucediera, pronto dejaría de ser racional. La adap­
tación incremental — para anticipar— a lo sumo puede alcanzar máximos
locales e incluso éstos serán inalcanzables en un medio que cambia rápi­
damente.
Mark Elvin analizó recientemente la historia económica china en tér­
minos bastante similares a los del cambio adaptable de Schumpeter, aun­
que nunca cita a este último en su trabajo.[13] El problema central de El­
vin es por qué la economía china, luego de una etapa de crecimiento vigo­
roso, quedó atrapada en una “trampa de equilibrio de alto nivel” de la cual
no podía escapar a través de los aumentos de productividad incremental
tradicional. El problema fue bien planteado por R. H. Tawney: ¿por qué
“China araba con hierro cuando Europa utilizaba la madera y continuó

105
arando con hierro cuando Europa utilizaba el acero”?[14] Elvin señala
que finalmente China llegó a un punto en que solamente el cambio tecno­
lógico discontinuo podría haber causado más aumentos de productividad,
ya que el potencial de la tecnología tradicional se había agotado. Enton­
ces, ¿por qué China no dio ese salto? No porque la ciencia china no estu­
viera desarrollada: “En la mayoría de las áreas, siendo la principal excep­
ción la agricultura, la tecnología china dejó de progresar mucho antes de
que el punto en que la falta de conocimientos científicos básicos se convir­
tiera en un serio obstáculo”.[15] Tampoco porque la innovación fuera aje­
na a la mentalidad china: era una civilización “con un fuerte sentido de
racionalidad económica, con un aprecio por la invención tal que se cons­
truyeron templos en honor a los inventores históricos (aunque, cierta­
mente, sin ley de patentes) y con notables dotes mecánicas” .[16]
En la complicada explicación de Elvin del estancamiento tecnológico
en China, el siguiente es un párrafo clave: “Mercados enormes, pero casi
estáticos no crearon cuellos de botella en el sistema de producción que po­
drían haber impulsado a la creatividad. Cuando se produjo escasez tem­
poraria, la versatilidad mercantil, basada en el transporte barato, fue un
remedio más rápido y seguro que la invención de máquinas”.[17] Frente a
esto un historiador económico neoclásico acentuaría la falta de un siste­
ma de patentes (mencionado sólo de modo parentético por Elvin) o de al­
gún arreglo similar para internalizar los beneficios sociales de la innova-
ción.[18] Y Schumpeter, mientras también enfatiza la necesidad de un
arreglo de tal naturaleza, agregaría que el estancamiento de la economía
china está vinculado a la ausencia en China del empresario innovador.
La innovación capitalista, para Schumpeter, es un concepto mucho
más amplio que la idea de la innovación tecnológica realizada por una em­
presa capitalista. La innovación se define generalmente como la realiza­
ción de nuevas combinaciones de los medios de producción e incluye los si­
guientes casos:

1) La introducción de un nuevo artículo —es decir, uno que los consumido­


res aún no conocen— o de una nueva calidad de producto. 2) La introducción
de un nuevo método de producción, es decir, uno que no ha sido probado aún
por la experiencia en la rama de producción correspondiente, que de ningu­
na manera debe estar basado en un descubrimiento científicamente nuevo y
también puede existir en un nuevo modo de manejar comercialmente un
producto. 3) La apertura de un nuevo mercado, es decir, un mercado en el
que no se introdujo previamente la rama particular de fabricación del país
considerado, haya o no existido este mercado antes. 4) La conquista de una
nueva fuente de suministro de materia prima o productos semifabricados,
nuevamente sin tener en cuenta si esta fuente ya existe o si debe ser creada.
5) La realización de una nueva organización de cualquier industria, como la
creación de una posición de monopolio (por ejemplo, a través de un fideicomi­
so) o la interrupción de una posición de monopolio.[19]

Esto define en general la innovación y la función empresarial, pero


Schumpeter solamente se ocupa de la innovación capitalista. En Business
Cycles Schumpeter dio la siguiente definición de capitalismo: “Es aquella

106
forma de economía de propiedad privada en la que las innovaciones se
realizan a través de dinero prestado, que en general, aunque no por una
necesidad lógica, implica la creación de créditos”.[20] Por ejemplo, esto le
permite indicar que los principados alemanes del siglo XVm llevaron a ca­
bo innovaciones capitalistas, con los servidores públicos financiando sus
empresas comercialmente.[21] También le permitió enunciar una famosa
y dudosa afirmación de que las ganancias empresariales de ninguna ma­
nera son un reembolso por haber corrido riesgos, ya que es quien presta el
capital el que corre con los riesgos financieros.[22]
Permítaseme concentrarme en la innovación en el sentido tecnológico
estrecho y preguntar cómo explica Schumpeter el alcance y la elección del
momento para la innovación empresarial. (Como Schumpeter nunca plan­
teó el tema de la tendencia de factores del cambio tecnológico, este proble­
ma queda fuera del alcance del análisis.)[23] ¿Qué hace que el empresario
se ponga en marcha? ¿La innovación es una actividad racional? Hemos
visto que la respuesta neoclásica a estas preguntas es que el empresario
se propone maximizar las ganancias y que innova mientras la innovación
sea un medio racional para dicho fin, dados supuestos más o menos racio­
nales acerca de los costos y beneficios de la innovación y acerca de la con­
ducta de otros empresarios. En cierto modo, Schumpeter tiene respuestas
diferentes para ambas preguntas. En su análisis de los motivos empresa­
riales enfatiza tres elementos: el sueño y la voluntad de encontrar un rei­
no privado; la voluntad de conquistar, de tener éxito no por los frutos del
mismo, sino por el éxito mismo; y finalmente la alegría de crear, de que
las cosas se hagan.[24] Solamente el primero de éstos está directamente
vinculado con la adquisición de propiedad privada, aunque la ganancia
monetaria también es un índice muy exacto de hasta qué punto se reali­
zan los otros deseos.[25]
Cuando observamos más detalladamente estos motivos empresaria­
les, según son descritos por Schumpeter, parecen notablemente evasivos.
Primero, no está claro si el empresario es básicamente racional o si está
guiado por motivos más “atávicos”, para emplear una frase de Schumpe­
ter en su estudio del imperialismo.[26] La “voluntad de conquistar” es
tanto sin límites como sin objetivo. No tiene un objeto precisamente defi­
nido que podría convertirla en una búsqueda racional, sino que se satisfa­
ce en una búsqueda indefinida de acumulación. “El comerciante moderno
adquiere hábitos de trabajo debido a la necesidad de ganar el sustento,
pero trabaja más allá de los límites en los que la adquisición aún tiene un
significado racional en el sentido hedonista.”[27] La analogía con Marx es
bastante clara a pesar de afirmaciones que dicen lo contrario.[28] Enton­
ces, tales argumentos parecen justificar la opinión de que “en un golpe
maestro de economía postulacional, Schumpeter pudo presentar su ‘psi­
cología del empresario’ como un caso especial de su principio de ‘g eists su­
perpuestos’” [29] Sin embargo, por otro lado, Schumpeter acentuó el ca­
rácter “racionalista y no heroico” de los burgueses.[30] Sin duda éste es
un tema tan penetrante de su trabajo que es difícil ver cómo puede recon­
ciliarse con el concepto del fundador atávico de una dinastía que quiere el
éxito más que sus propios frutos.

107
Los comentarios precedentes se referían al problema de los motivos y
deseos empresariales. Comentarios similares se aplican a la teoría de
Schumpeter de cómo se forman las creencias y expectativas empresaria­
les. En Business Cycles logra decir en un solo párrafo que los comercian­
tes son invariablemente demasiado optimistas y que están lejos de serlo
siempre.[31] Sin embargo, la siguiente ambigüedad es más central. En La
teoría del desarrollo económico parece afirmar que los empresarios inva­
riablemente tienen razón en su evaluación de las posibilidades innovado­
ras: su éxito “depende de la intuición, de la capacidad de ver las cosas de
un modo, que luego resulta ser cierto, aunque no pueda establecerse en el
momento, y de captar el hecho esencial, descartando lo que no es esencial,
aunque no puedan explicarse los principios por los cuales se realiza”.[32]
Sin embargo, en Capitalismo, socialismo y democracia encontramos un
argumento aparentemente contradictorio con esto, en un párrafo que ci­
taré en extensión ya que expresa bien las virtudes y los vicios caracterís­
ticos del estilo de Schumpeter:

La sociedad burguesa se h a formado en un molde puramente económico: sus


basamentos, vigas y faros están todos hechos de material económico. El edi­
ficio mira hacia el lado económico de la vida. Los premios y castigos se miden
en términos monetarios. Subir y bajar significa ganar y perder dinero. Por
supuesto, nadie puede negar esto. Pero quisiera agregar que, dentro de su
propio marco, este arreglo social es, o en todo caso era, singularmente efecti­
vo. En parte apela a, y en parte crea, un esquema de motivos insuperable en
simplicidad y fuerza. Las promesas de riqueza y las amenazas de destitución
que sostiene, son redimidas con cruel prontitud. Cada vez que el modo bur­
gués de vida se afianza lo suficiente como para oscurecer los faros de otros
mundos sociales, estas promesas son lo suficientemente fuertes como para
atraer a la gran mayoría de cerebros supranonnales y para identificar el éxi­
to con el éxito comercial. No son propuestas al azar; y sin embargo, hay una
mezcla de probabilidades suficientemente tentadora; el juego no es como la
ruleta, sino más parecido al póker. Están dirigidas hacia la capacidad, la
energíay la capacidad supranormal para el trabajo; pero si hubiera un modo
de medir aquella capacidad en general o el logro personal que significa cual­
quier éxito en particular, los premios realmente pagados probablemente
tampoco resultarían proporcionales. Premios espectaculares mucho mayo­
res de lo que hubiera sido necesario para impulsar los esfuerzos particulares
se lanzan a una pequeña mayoría de ganadores, propulsando así más eficaz­
mente de lo que lo haría una distribución más pareja y ‘justa”, la actividad
de aquella vasta mayoría de comerciantes que reciben a su vez compensacio­
nes muy modestas o nada o menos que nada, y a pesar de ello hacen todo lo
poeible pues tienen los grandes premios delante de los ojos y sobreestiman
sus probabilidades de hacerlo igualmente ¿>ien.[33]

Aquí el párrafo clave que he escrito en bastardilla establece que el sis­


tema capitalista funciona tan bien porque induce expectativas irreales
con respecto al éxito y así logra mucho más esfuerzo del que hubiera obte­
nido de espíritus más sobrios. Este tema — los beneficios sociales del auto-
engaño individual— se planteó en una cantidad de trabajos recientes,
desde el “Principio de la mano que oculta”[34] de Albert Hirschman hasta

108
estudios de psicología cognoscitiva. El argumento de Schumpeter, aunque
evasivo, puede relacionarse con lo siguiente:

Algunas veces las personas requieren probabilidades subjetivas excesiva­


mente optimistas o excesivamente pesimistas para estimularlas a la acción
eficiente o evitar que realicen una acción peligrosa. Así es muy difícil que el
día de su casamiento se le avise al novio o a la novia que las probabilidades
de divorciarse son del 0,40. Un jugador de béisbol con un promedio de bateo
de 0,200 no lo hará bien, cuando está por batear, si cree que la probabilidad
de hacerlo bien es sólo del 0,2. Los beneficios sociales de probabilidades
subjetivas individualmente erróneas pueden ser grandes incluso cuando el
individuo paga un precio alto por el error. Probablemente tendríamos pocos
novelistas, actores o científicos si todos los aspirantes potenciales a dichas
carreras actuaran en base a una probabilidad de éxito normativamente
justificable. También tendríamos pocos productos nuevos, nuevos procedi­
mientos médicos, nuevos movimientos políticos o nuevas teorías cientí-
ficas.[35]
La primera mitad de este párrafo indica que el optimismo excesivo
puede beneficiar al individuo: para lograr cualquier cosa, hace bien en
creer que logrará mucho. En otros casos, como se indica en la segunda mi­
tad, sólo se beneficia la sociedad. Las expectativas excesivamente opti­
mistas aseguran que una gran cantidad de individuos entren en la compe­
tencia, de manera que el material sobre el cual puede actuar la selección
— por parte del mercado o algún otro mecanismo de selección— es lo más
amplio posible y el individuo elegido lo mejor posible. Entonces, los perde­
dores no contribuyen en nada: solamente son el subproducto incidental
del proceso de selección. Por el contrario, los ganadores son aquellos cu­
yas expectativas resultan, ex post, no haber sido demasiado optimistas:
son los individuos infalibles a los que se refiere Schumpeter en el párrafo
citado anteriormente. Una interpretación alternativa de Schumpeter se­
ría que incluso los perdedores tienen una función social ya que están in­
ducidos por la atracción de una recompensa a trabajar más de lo que lo
hubieran hecho. Supuestamente, éste sería el caso en la ciencia: la mayo­
ría de las personas que eligen una carrera científica lo hacen porque creen
equivocadamente que serán sobresalientes y sin embargo ofrecen una
contribución positiva además de proporcionar material para seleccionar a
aquellos que resultarán sobresalientes, ya que el trabajo científico rutina­
rio también es necesario para que se produzca el progreso.[36]
Entonces, para concluir, es difícil decidir si Schumpeter concibe los
motivos y expectativas detrás de la innovación como racionales o irracio­
nales. En un sentido, el empresario innovador demuestra “una conducta
racional sin un motivo racional”, ya que tiene expectativas que ex ante son
irracionales y se confirman solamente ex post. Su conducta es racional en
el sentido de explotar con éxito las posibilidades objetivas de innovación,
y también es irracional ya que está dominado por un demonio que nunca
lo deja estar satisfecho por los resultados. De todos modos no tendría sen­
tido describir su conducta como la elección del mejor miembro de un con­
junto factible conocido. Su don es el de expandir el conjunto factible, no
elegir racionalmente dentro de él.

109
b. C iclo s co m e rcia les (1939)

En esta obra monumental de más de 1000 páginas Schumpeter estu­


dió las macroconsecuencias de la innovación: el crecimiento económico y
las fluctuaciones comerciales que la acompañan invariablemente. Esta
teoría de los ciclos comerciales ha resultado difícil de representar por un
modelo matemático y por muy buenas razones. Tanto R. M. Goodwin co­
mo Ragnar Frisch han construido modelos semischumpeterianos del ciclo
comercial en el que un aumento constante de las posibilidades innovado­
ras se transforma en momentos discontinuos de verdaderas innovacio-
nes.[37] Por ejemplo, en el modelo de Goodwin el potencial innovador se
transforma automáticamente en innovación una vez que excede cierto ni­
vel crítico. Sin embargo, esto es una traición al pensamiento de Schumpe­
ter. Como obserVÓ A. P. Usher, según Schumpeter las innovaciones “no
son ni trascendentales e ignorables ni mecánicas y predeterminadas”.[38]
En particular, las innovaciones no son respuestas a necesidades preexis­
tentes ya que frecuentemente crean la necesidad misma que satisfacen.
Schumpeter cita como ejemplo el motor del automóvil.[39] Más importan­
te que el tamaño de la ganancia potencial es la presencia de un empresa­
rio capaz de “hacer la cosa”. Schumpeter cita las industrias del algodón y
la lana de la Inglaterra del siglo xvm como ejemplos: las posibilidades de
innovar existían en ambas, pero solamente la industria algodonera tuvo a
los Nuevos Hombres capaces de llevar a cabo las innovaáones.[40] En
otras palabras, las industrias antiguas no innovan no debido a la menor
cantidad de oportunidades para hacerlo, sino debido a u n debilitamiento
de la motivación para innovar.[41] Más aun, cuando el capitalismo llega a
una etapa en que las posibilidades objetivas para la innovación se trans­
forman automáticamente en innovación, la era del empresario ha pasa-
do.[42] Entonces, la teoría de Schumpeter es como la teoría de la selección
natural ya que permite sólo la explicación de lo que realmente sucedió y
no la predicción de lo que ocurrirá. Hablando en un sentido amplio, las in­
novaciones son impredecibles en el mismo sentido que las mutaciones lo
son. El curso de la historia no está marcado por la masa agregada de inno­
vaciones, sino por las innovaciones individuales sobresalientes que de­
penden de la aparición aleatoria de individuos excepcionalmente dotados.
En otras palabras, no hay “fuerzas” en la historia que canalicen los es­
fuerzos individuales en direcciones específicas y que contribuyan a la ho-
meorhesis en el sentido explicado en el capítulo 1.
Entre otras cosas, Ciclos comerciales es un argumento continuo en fa­
vor de las dos proposiciones siguientes acerca del capitalismo. 1) En el ca­
pitalismo el fenómeno del crecimiento económico está indisociablemente
vinculado con las fluctuaciones cíclicas. 2) En el capitalismo, la eficiencia
a largo plazo se obtiene solamente pagando el precio de la inefíciencia a
corto plazo. Estas son proposiciones diferentes ya que la segunda no im­
plica nada sobre los ciclos. Las analizaré en el orden dado.
Schumpeter se disocia claramente de lo que denomina la “teoría de
Marshall-Moore del crecimiento orgánico”, según la cual el desarrollo eco­
nómico muestra “primero un movimiento suave y constante y luego fluc­

110
tuaciones alrededor de él debidas a impactos aleatorios”:[43] un ciclo so­
breimpuesto sobre una tendencia independiente. El motor de crecimiento
en este concepto podría ser el ahorro o la ampliación de mercados; en cual­
quier caso el empresario innovador no juega ningún papel. Contra esto,
Schumpeter adopta lo que sólo puede denominarse una teoría hegeliana
del progreso económico:

Debemos dejar de pensar en el [progreso] como suave y armonioso por natu­


raleza en el sentido que los pasajes bruscos y las disonancias presentan fenó­
menos qjenos a su mecanismo y requieren explicaciones especiales por
hechos que no están representados en su modelo puro. Contrariamente, de­
bemos reconocer que la evolución es desequilibrada, discontinua, disonante
por naturaleza, que la falta de armonía es inherente al modus operandi mis­
mo de los factores del progreso. Sin duda, esto no excluye que se continúe ob­
servando: la historia del capitalismo está tachonada de violentas explosio­
nes y catástrofes que no están de acuerdo con la hipótesis alternativa que
aquí descartamos, y el lector podrá ver que nos hemos preocupado por llegar
a la conclusión de que la evolución es una perturbación de las estructuras
existentes y es más parecida a una serie de explosiones que a una transfor­
mación suave, pero incesante.[44]
El mecanismo por el cual la innovación produce perturbaciones y fal­
ta de armonía es bastante complicado. Schumpeter distingue entre rece­
sión y depresión. La primera se produce debido a que la introducción de
nuevos métodos obliga a las otras empresas a adaptarse o a racionalizar o
a extinguirse; también debido a que crean una situación de desequilibrio
en la que el cálculo racional es imposible. Son dolores de adaptación que
por sí mismos no implican un movimiento cíclico, es decir, que no hay ra­
zón por la que la recesión en cualquier etapa se hunda por debajo del nivel
preinnovador. De hecho, un índice agregado de output “solamente mos­
trará un aumento. Pero el mero aumento en el output total no produciría
[los efectos de desequilibrio]. Lo que interesa es el aumento no armónico o
unilateral y los cambios dentro de la cantidad total”.[45] Sin embargo, la
depresión pertenece a lo que Schumpeter denomina “la aproximación
secundaria”, y es menos fundamental que la recesión. Básicamente, se
produce debido a expectativas irracionales, por ejemplo, porque “muchas
personas actuarán suponiendo que la proporción de los cambios que ob­
servan continuará indeñnidamente”.[46] En otras palabras, Schumpeter
apela aquí a los resultados colectivamente desastrosos que pueden surgir
cuando los individuos actúan en base a la racionalidad paramétrica.
Actualmente el argumento suena obvio y poco interesante y quizás haya
sido así cuando se escribió. Entonces es más que curioso ver que Schum­
peter rechaza el modelo de Tinbergen del ciclo de la construcción de bar­
cos observando que “viola no sólo los supuestos generales de la teoría eco­
nómica sobre la racionalidad de la conducta, sino que también está en de­
sacuerdo con el sentido común. No podemos suponer razonablemente que
la reacción a, por ejemplo, valores de flete anormalmente favorables será
mecánica y que se procederá sin considerar las causas y la probable dura­
ción de aquel estado de cosas y de los efectos de la acción simultánea por
parte de la totalidad del comercio”.[47] Aquí Schumpeter supone como

111
cosa corriente que las personas crearán expectativas estratégicas o racio­
nales.
La recesión y la depresión difieren en varios aspectos en el esquema
de Schumpeter. La recesión tiene una tarea que cumplir, el trabajo de
adaptación, y termina cuando la tarea se ha cumplido. Por el contrario, la
depresión “tiene un modo de alimentarse a sí misma [48] y puede entrar
en una espiral viciosa. Por esta razón la depresión realmente producirá
un ciclo, es decir, que hay una caída por debajo del equilibrio preinnova­
dor. También “el caso de la acción gubernamental en la depresión... sigue
siendo... incomparablemente más fuerte que en la recesión".[49] Podemos
observar en relación con esto que el análisis semischumpeteriano por par­
te de Nicholas Kaldor [50] tiende a invertir el vínculo causal descrito más
arriba, afirmando que el crecimiento es causado por expectativas irracio­
nal y excesivamente optimistas, en lugar de que tales expectativas creen
un “proceso patológico al que no pueden atribuírsele funciones orgáni­
cas”.^!.] Para Schumpeter, el ciclo es estrictamente un subproducto del
crecimiento, mientras que para Kaldor es causalmente eficaz para indu­
cir el crecimiento. (Véase el capítulo 2 donde se distingue entre las dos va­
riedades de teodicea del siglo XVH.)
La “hipótesis schumpeteriana” o el “trueque schumpeteriano” men­
cionados en el capítulo 4 establece que las innovaciones están favorecidas
por el oligopolio. El sistema de patentes es sólo una de las muchas prácti­
cas oligopólicas o monopólicas que favorece la innovación a cambio de una
eficiencia distributiva estática. Un enunciado reciente es el siguiente:
“Donde la protección de las patentes es irregular y las imitaciones pueden
producirse rápidamente, el rédito para el innovador dependerá amplia­
mente de su capacidad para explotar dicha innovación durante un perío­
do relativamente corto. Las empresas grandes tienen un nivel de produc­
ción, una capacidad productiva, arreglos de comercialización y finanzas
que les permiten explotar rápidamente una tecnología nueva a una esca­
la relativamente amplia”.[52] La posibilidad empírica de la hipótesis pue­
de no parecer precisa. Un estudio reciente distinguió entre dos sentidos
de la variable independiente:[53] el tamaño de la empresa y la estructura
del mercado. Análogamente, se hizo una distinción entre dos sentidos de
la variable dependiente: la cantidad de actividad innovadora y la canti­
dad de innovación. De las cuatro versiones de la hipótesis ninguna fue
confirmada sin ambigüedades por pruebas.[54] Sin embargo, dejaré estos
asuntos de lado. La hipótesis schumpeteriana puede aclarar la historia
del capitalismo aunque no pueda compararse con datos de los últimos cin­
cuenta años. En todo caso, la sola existencia e indiscutida importancia del
sistema de patentes demuestra que hay un núcleo inexpugnable de ver­
dad en la hipótesis aunque resultara ser el caso en que otras formas de
prácticas oligopólicas no tienen beneficios a largo plazo similares. El
enunciado más famoso de la hipótesis se encuentra en Capitalismo, socia­
lismo y democracia-.

[Como] tratamos con un proceso en el que cada elemento lleva mucho tiempo
para revelar sus rasgos verdaderos y efectos fundamentales, no tiene senti-

112
do evaluar el desempeño de dicho proceso ex visu un instante determinado;
debemos juzgar su desempeño a medida que se desarrolla a través de las dé­
cadas o los siglos. Un sistema —cualquiera sea, económico u otro— que en
cada instante determinado utiliza plenamente sus posibilidades para obte­
ner mejor ventea puede, a pesar de ello, con el tiempo ser inferior a un siste­
ma que lo hace en cualquier instante, pues el que este último no lo haga pue­
de ser una condición para el nivel o la velocidad del desempeño a largo
plazo.[55]
Esto es lo que en el capítulo 1 denominé el principio del largo plazo de
Tocqueville. Pasando por Tocqueville a Leibniz encontramos el mismo
principio enunciado con insuperable precisión: "La serie infinita de todas
las cosas puede ser la mejor de las series posibles, aunque lo que existe en
el universo en cada instante en particular no es lo mejor posible”.[56] La
idea puede tener muchas aplicaciones. Schumpeter mismo se refiere al
"hecho de que producir a un costo mínimo con el tiempo puede, en el caso
de factores desproporcionados, implicar nunca producir a un costo míni­
mo en cualquiera de las curvas de costo a corto plazo porque otro ‘método’
resulta ventajoso antes de alcanzar aquel punto”.[57] Kenneth Arrow
afirma que el empresario schumpeteriano representa un dilema similar:
al maximizar la utilidad y no las ganancias, evita la realización de esta­
dos eficientes, pero al mismo tiempo son sus lazos personales con la em­
presa (y la subsiguiente maximización de las utilidades y no de las ganan­
cias) los que lo convierten en el Prometeo del crecimiento.[58] Análoga­
mente, parece plausible que muchos intentos de justificar los "hornos pa­
ra acero en el patio del fondo” y prácticas similares del Gran Salto H ada
Adelante en China tuvieran esta estructura general. Sin duda se dijo que
la línea de masa implica una pérdida de eficiencia, pero esto queda más
que compensado por el aumento de esfuerzo humano y de energía que li­
bera. O nuevamente, la participación en la industria está justificada por
la idea de que hay un efecto neto positivo de dos tendendas opuestas, es
decir, la pérdida de eficiencia en la toma de dedsiones y un aumento de
motivación.
Sin embargo, deberíamos agregar que Schumpeter no quiso insistir
en la idea de que las prácticas oligopólicas tenían consecuencias negati­
vas para la asignación estática de recursos. Deliberadamente fue contra
la corriente y afirmó que en muchos o incluso en la mayoría de los casos
los oligopolios reducirán los precios y expandirán la producción en lugar
de seguir el argumento de libro.[59] De hecho, si una empresa tratara de
explotar una posición monopólica que adquirió de algún modo, pronto la
perdería.[60] Por lo tanto, la teoría de Schumpeter tiene dos puntas:

[Las imperfecciones de la competencia o del equilibrio] originan un caso tan


fuerte y tan universalmente reconocido contra la pretendida eficiencia de la
maquinaria capitalista que resulta necesario por un lado que un sistema en
el que prevalece la competencia imperfecta producirá, contrariamente a la
opinión establecida, en muchos casos y quizás en la mayoría, resultados si­
milares a los que se esperarían de la competencia perfecta y, por otro lado,
que incluso si un sistema produjera constantemente menos que su cantidad

113
óptima, esto no constituiría una refutación del desempeño óptimo a través
del tiempo.[61]
De estos dos argumentos, la posteridad retuvo solamente el segundo,
mientras que discutiblemente el primero era el más importante para
Schumpeter, por lo menos en Ciclos comerciales.

c. C a p ita lism o, so c ia lism o y d em o cra cia (1942)

De los muchos temas abordados en este libro multifacético e intermi­


nablemente fascinante solamente mencionaré dos: la idea de que el capi­
talismo será destruido por su propio éxito y la teoría de la democracia co­
mo una competencia por votos. Y no los analizaré con la profundidad que
se merecen, sino sólo mientras estén conectados con los temas principales
de este libro.
De la definición general de innovación dada en La teoría del de­
sarrollo capitalista surge que la creación de nuevas formas de organi­
zación es una de las tareas que realiza el empresario innovador. En par­
ticular, la creación del negocio gigante característico del “capitalismo
trustificado”[62] requiere un acto de empresa, mientras que también es­
tablece el escenario para la eliminación del empresario.[63] Schumpeter
afirmó que esto es así porque el negocio gigante convierte a la innovación
en rutina, de manera que las “posibilidades objetivas” para la innovación
se realizan automáticamente.[64] Las amplias consecuencias sociales y
políticas de la desaparición del empresario se describen en un famoso
pasaje:

Si la evolución capitalista —el “progreso”— cesa o se torna completamente


automática, la base económica de la burguesía industrial se reducirá even­
tualmente a salarios como los que se pagan por el trabajo administrativo
actual exceptuando a los remanentes de cuasirrentas y ganancias monopoli­
zadas que puede esperarse que se prolonguen por algún tiempo. Como la em­
presa capitalista, por sus logros mismos, tiende a automatizar el progreso,
concluimos que tiende a hacerse superflua, para romperse en pedazos bajo
la presión de su propio éxito. La unidad industrial gigante perfectamente
burocratizada no sólo desaloja a la pequeña o mediana empresa y “expropia”
a sus dueños, sino que finalmente también desaloja al empresario y expropia
a la burguesía como una clase que en el proceso perderá no sólo sus ingresos
sino también lo que es infinitamente más importante, su función. Los verda­
deros promotores del socialismo no fueron los intelectuales o agitadores que
lo predicaban sino los Vanderbilt, Carnegie y Rockefeller.[65]
El defecto básico de este argumento, en mi opinión, es la idea de que
la innovación se convertirá en rutina. En un punto Schumpeter utiliza
una frase más apropiada, cuando dice que “la investigación tecnológica se
torna cada vez más mecanizada y organizada”.[66] En otras palabras, la
innovación se convirtió en una industria, que supuestamente tiene una
función de producción que puede ser moldeada y cambiada por la innova­
ción en el metanivel. La tarea de las empresas entonces no será crear nue­

114
vos métodos o productos, sino organizar equipos de investigación con el
propósito de tal creación. En base a pruebas impresionistas realmente
parece que en industrias tales como las de computadoras, productos quí­
micos e ingeniería biológica, el desafío empresarial es reunir la experien­
cia económica, tecnológica y científica para el avasallante propósito de
maximizar las ganancias (o de satisfacer). Más aun, las otras tareas inno­
vadoras mencionadas por Schumpeter, como la apertura de nuevos mer­
cados y la conquista de una nueva fuente de suministros, supuestamente
no estarán saetas a convertirse en rutinas en el mismo sentido que pue­
de serlo la innovación tecnológica. Y finalmente, en los intersticios entre
las empresas gigantes parece haber un lugar permanente para las pe­
queñas empresas innovadoras que trabajan en las fronteras del conoci­
miento. Por todas estas razones parece difícil aceptar la idea de Schumpe­
ter — evidentemente inspirada por pensamientos similares de Marx— de
que el capitalismo será víctima de su propio éxito.
Hemos visto que Schumpeter amplió los conceptos de innovación y de
empresa de modo de incluir no sólo el cambio tecnológico, sino también el
cambio institucional y organizacional. En la definición citada más arriba,
sin embargo, la innovación estaba limitada a la esfera económica. En todo
caso, es un medio para las ganancias. En Capitalismo, socialismo y demo­
cracia Schumpeter avanzó al ampliar el concepto de empresa para incluir
también la esfera política, sustituyendo las ganancias por el poder. Sin
duda, Schumpeter nunca utiliza el término “empresario’’ para el dirigen­
te político, ni la palabra “innovación” para lo que aquél hace para obtener
y mantener el poder. Sin embargo, resulta perfectamente obvio que sus
teorías políticas y económicas provienen de la misma matriz.
Schumpeter propone como premisa básica que la democracia es un
método para tomar decisiones políticas, no un fin en sí mismo.[67] Lo que
caracteriza a la democracia y la diferencia de otros métodos es “quién y có­
mo” se toman dichas decisiones. Su respuesta es que la democracia es
“aquel arreglo institucional para llegar a decisiones políticas en las que
los individuos adquieren el poder para decidir mediante una lucha compe­
titiva por el voto de las personas”.[68] Estos individuos son los dirigentes
políticos, la analogía del empresario en la esfera política. Como en el caso
del empresario strictu sensu, deben tener “una fuerza personal considera­
ble”: deben poder desviar al electorado, movilizar a sus seguidores, con­
trolar a los rivales, someter a la oposición y demás. En contraste con esto,
no se requiere que tengan una verdadera capacidad para gobernar. A
diferencia del capitalismo competitivo — y ésta es una importante dife­
rencia entre la esfera política y la económica— la competencia política no
selecciona por la capacidad para el desempeño, sino por la capacidad de
persuadir. “Las cualidades de intelecto y carácter que hacen a un buen
candidato no son necesariamente las que hacen a un buen administra­
dor. ”[69] Desde el punto de vista del desempeño en el cargo, el proceso de
selección tiene a lo sumo méritos negativos: “después de todo hay muchas
piedras en el arroyo que conduce a los políticos a cargos nacionales que no
son completamente ineficientes al impedir el progreso del imbécil o del
charlatán”.[70] Más aun, no sólo los talentos del político de éxito no son los

115
del buen administrador: también estará motivado por asuntos diferentes.
La política de “que un gobierno decide con miras a sus oportunidades po­
líticas no es necesariamente la que producirá los resultados más satisfac­
torios para la nación”. Los políticos buscan el poder y luego la reelección,
no el bien de la nación.
Entonces, ¿cómo se puede caracterizar a la democracia como un méto­
do para tomar decisiones políticas? La respuesta de Schumpeter es que
las decisiones se toman como un medio para, o un subproducto de, la lu­
cha por el poder. El siguiente pasaje trata el tema en términos elocuentes:

Cuando dos ejércitos operan uno contra el otro, sus razones individuales
siempre se centran en tom o de objetos particulares que están determinados
por sus situaciones estratégicas o tácticas. Pueden luchar por una de­
terminada extensión de territorio o por alguna montaña. Pero el deseo de
conquistar dicha extensión o montaña debe derivar del propósito estratégico
o táctico, que es derrotar al enemigo. Sería obviamente absurdo derivarlo de
alguna propiedad extramilitar que pueda tener la extensión o la montaña.
Análogamente, la meta primera y principal de cada partido político es pre­
valecer sobre los demás para llegar al poder o permanecer en él. Como la
conquista de la extensión de territorio o de la montaña, la decisión de los
asuntos políticos, desde la posición del parlamentario, no es el ñn sino sola­
mente el material de la actividad parlamentaria.[72]
La analogía es útil hasta cierto punto. Más allá de dicho punto — y
Schumpeter ciertamente va más allá de él— se convierte en una idea fija
Como en el caso de la guerra, el propósito fundamental de la política no es
simplemente obtener una posición de mando, sino explotarla. La idea de
que “la tienda no puede definirse en términos de sus marcas y un partido
no puede definirse en términos de sus principios”[73] pertenece, definiti­
vamente, a la esfera de la charla de sobremesa. Saludable como un con­
trapeso al sesgo, no puede permanecer como una opinión equilibrada pro­
pia. No cae dentro del campo de este estudio ocuparse de este asunto. En
lugar de ello, permítaseme tratar el importante punto metodológico que
presenta Schumpeter en el siguiente pasaje:

Al observar las sociedades humanas como regla no nos resulta difícil especi­
ficar, por lo menos de un modo aproximado con sentido común, los diversos
fines que las sociedades estudiadas luchan por obtener. Puede decirse que
los fines proporcionan la razón fundamental o el significado de las activida­
des individuales correspondientes. Pero no se deduce que el significado so­
cial de una clase de actividad necesariamente proporcionará el poder del mo­
tivo, y por lo tanto la explicación de este última Si no lo hace, una teoría que
queda satisfecha con un análisis del fin social o de la necesidad que será
satisfecha no puede aceptarse como una explicación adecuada de las activi­
dades que le competen. Por ejemplo, la razón por la cual existe algo como la
actividad económica es por supuesto que las personas quieren comer, vestir­
se y demás. Proporcionar los medios para satisfacer aquellos deseos es el fin
social o el significado de la producción. Sin embargo, todos estamos de acuer­
do en que esta proposición constituiría un punto de partida irreal para una
teoría de la actividad económica en una sociedad comercial y que haremos
mucho mejor si comenzamos a partir de proposiciones acerca de las ga-

116
nandas. Análogamente, el signiñcado social o la fundón de la actividad par­
lamentaria sin duda es legislar y, en parte, dar medidas administrativas.
Pero para entender cómo la política democrática sirve a este fín social de­
bemos comenzar a partir de la lucha competitiva por el poder y el cargo y
damos cuenta de que la fundón sodal se cumple, como si fuera, incidental­
mente, en el mismo sentido que la producción es incidental en la obtendón
de ganancias.[74j
El argumento es típicamente ambiguo. Primero Schumpeter dice que
solamente los motivos pueden explicar una actividad, pero luego sigue di­
ciendo que el fín o el significado social es “la razón por la cual existe algo
como la actividad económica”, como si proporcionar una razón no fuera
dar una explicación. Más aun, en el caso económico parecería que el signi­
ficado social también proporciona una explicación en términos de los mo­
tivos, es decir, ofreciendo una explicación filtro de la conducta económi-
ca.[75] Los consumidores seleccionan entre los posibles empresarios a
aquellos que realmente satisfacen sus deseos. Sin embargo, en el caso po­
lítico esto no es así: “las personas quieren el producto y no el poder del m o­
tivo del proceso político”.[76] El empresario político de éxito no es el que es
bueno interpretando y reuniendo los deseos (preexistentes) de los votan­
tes, sino el que es bueno dándoles forma.
Mientras que los desarrollos posteriores del argumento schumpete-
riano supusieron que los votantes actúan de un modo racionalmente inte­
resado sobre deseos preexistentes,[77] Schumpeter rechaza explícita­
mente esta idea y así parece “[abandonar] la analogía con la economía de
mercado”. [78] Y al leer Capitalismo, socialismo y democracia realmente
se podría tener esta impresión. Pero en Ciclos comerciales Schumpeter
aclara que tiene una opinión no común de la economía de mercado, que
restablece la analogía. Aquí supone a través de toda la obra que la inicia­
tiva de los “consumidores” para cambiar sus gustos — es decir, para cam­
biar aquel conjunto de nuestros datos que la teoría general incluye en los
conceptos de “funciones utilitarias” o “variedades de indiferencia”— es in­
significante y que todo cambio en los gustos de los consumidores es inci­
dental a, y provocado por, la acción de los productores”.[79] Sin embargo,
entonces califica esta estricta afirmación diciendo que una vez introduci­
da una nueva clase de producto, frecuentemente contra la resistencia ini­
cial del consumidor, los consumidores desarrollarán criterios de calidad
para el producto que no son manipulables de modo similar. Y aquí hay
una verdadera diferencia entre la economía y la política, pues en esta úl­
tima no existe el “sentido punzante de la realidad” o la “influencia saluda­
ble y racionalizadora de la experiencia favorable y desfavorable”.[80] En
política el ciudadano rara vez se enfrenta a las consecuencias desfavora­
bles de sus elecciones porque la causalidad social es demasiado opaca pa­
ra que pueda percibirse el vínculo entre causa y efecto.[81] El empresario
en un sentido real está presionado por los consumidores: puede manipu­
lar sus deseos, pero no sus criterios de racionalidad y de calidad.[82] Con­
trariamente, el político no encuentra resistencia entre los ciudadanos
siempre que sea lo suficientemente elocuente y enérgico. Por esta razón
las “funciones sociales” cumplidas por el empresario y por el político no

117
pueden — incluso según las propias suposiciones de Schumpeter— asimi­
larse al punto que lo hace en el pasaje citado más arriba.
Entonces a partir de este análisis de Schumpeter podemos mantener
el énfasis sobre el desequilibrio; la idea de que la innovación ocurre dis­
continuamente; la insistencia sobre el aspecto incorporizado en la innova­
ción, es decir, sobre el empresario innovador; la idea de que la innovación
ocurre aleatoriamente, o por lo menos está lejos de ser automática; la idea
de que el cambio tecnológico requiere un oligopolio y posiblemente com­
prende la ineficiencia estática; el sutil análisis de los deseos y creencias
del empresario innovador; y finalmente el concepto de que el cambio tec­
nológico debe entenderse como un caso de innovación más generalmente y
no simplemente como otro caso de conducta económica de rutina. En el
análisis del trabajo de Richard Nelson y Sidney Winter en el próximo ca­
pítulo veremos cuántos, aunque no todos, de estos elementos fueron to­
mados de un modo más preciso, e inevitablemente un poco diferente.

118
6
'Peorías evolucionistas

La teoría de la evolución por variación casual y por selección natural


es inmensamente atractiva ya que es simple y poderosa a la vez. No debe
sorprender que los científicos sociales trataran de aprovecharla para sus
propósitos explicativos, sea en forma de explicación funcional o en alguna
otra versión. En este capítulo estudiaré algunas teorías evolucionistas del
cambio tecnológico, comenzando con la teoría biológica de la conducta ins­
trumental y continuando con las teorías más específicamente sociológi­
cas.

a . C o n d u c t a in s t r u m e n t a l a n im a l

En lo que sigue me referiré especialmente a dos valiosos trabajos re­


cientes, Animal Tool Behavior de Benjamín Beck y Animal PlayBehavior
de Robert Fagen. El último tiene un capítulo final sobre “Juego, innova­
ción, invención y tradición” que coloca a la conducta instrumental dentro
del contexto más general de la innovación y ofrece algunos modelos para
explicar cómo podría surgir la innovación — o cómo podría evitarse que lo
haga— a través de mecanismos evolutivos (incluyendo la transmisión cul­
tural). El primero es un completo catálogo y un detallado análisis concep­
tual del uso y fabricación de las herramientas. Sin estos trabajos de sínte­
sis hubiera sido imposible para un no especialista entender los problemas
comprendidos. Incluso con su ayuda puedo haber caído en el error a tra­
vés de la ignorancia, por lo que me disculpo de antemano.
Según Beck hay 21 modos de uso de herramientas entre los animales:
el lanzamiento sin apuntar, arrastrar, dar palmadas, rodar o patear,
lanzamiento apuntando, dejar caer o tirar, sacudir o blandir, golpear,
aguijonear o pinchar, alcanzar, triturar o martillar, insertar y tantear, le­
vantar o hacer palanca, cavar, balancearse y trepar, sostenerse y trepar,
apilar, colgarse y balancearse, absorber, frotar, cubrir o adherir, conte­
ner, utilizar carnada.il] A su vez éstas pueden agruparse en cuatro clases
funcionales, según si sirven para “extender el alcance del usuario, am­
plificar la fiierza mecánica que el usuario puede ejercer sobre el medio,
incrementar la eficacia de las conductas que demuestra el usuario o au­
mentar la eficiencia con la que el usuario puede controlar fluidos”.[2] Con
respecto a la fabricación de herramientas, Beck distingue cuatro modelos:

119
separar, quitar, agregar o combinar, dar otra forma.[3] Muchos casos de
fabricación de herramientas comprenden varios de estos modos, como
cuando “los pájaros primero separan las ñbras de los trozos de corteza y
luego combinan las fibras para fomar pelleta ovoides”[4] o cuando “los mo­
nos primero separan las hojas y luego les dan otra forma para que aumen­
te su absorción”.[5] Entonces, Beck no acepta la definición del hombre co­
mo un animal que fabrica herramientas ya que esta conducta también se
encuentra en otras especies. Sí acepta que el hombre es el único que utili­
za herramientas para hacer herramientas,[6] así como entre los animales
el hombre es único en su capacidad de formular enunciados sobre enun-
ciados.[7] Pero también agrega que “hemos vsito en las últimas décadas
una erosión constante de hitos facultativos del hombre: no sería sorpren­
dente encontrar que algunos animales pueden utilizar una herramienta
para fabricar otra”.[8]
El interés de Beck es en las herramientas y no en la innovación y el
cambio tecnológico en general. Por ejemplo, esto significa que los anima­
les que trituran una conchilla contra una piedra para abrirla no caen den­
tro del análisis, mientras los que tiran una piedra contra la conchilla sí.
La razón por la que se excluye el primer caso es simplemente de conve­
niencia. Beck no cree que la conducta instrumental — como él la define—
sea de algún modo privilegiada desde el punto de vista cognoscitivo. Sin
duda, tal conducta demuestra una cantidad de importantes rasgos cog­
noscitivos que se enumeran más adelante, pero de ningún modo es única
por eso. De hecho, Beck ofrece un extenso análisis de las gaviotas que cap­
turan moluscos y los dejan caer sobre superficies duras para tener acceso
al interior comestible, para demostrar que esta conducta (no instrumen­
tal) presenta todos los rasgos cognoscitivamente interesantes que se en­
cuentran, por ejemplo, en la conducta instrumental de los chimpancés.[9]
Ellos son: 1) la adaptación óptima a la tarea que se realiza, 2) la capacidad
para comportarse adaptablemente con respecto al rasgo ambiental espa­
cial y temporalmente eliminado, 3) la capacidad de adaptar la conducta a
variaciones sutiles en el medio, 4) el uso de contraestrategias para neu­
tralizar la defensa de las presas, 5) un importante papel del juego en la
ontogénesis de la conducta y 6) un importante papel del aprendizaje a tra­
vés de la observación para difundir la conducta.
De estos rasgos, el segundo quizá sea el más importante desde el pun­
to de vista de este trabajo. En algunos de los casos mencionados por Beck
hubo “una mayor dificultad para resolver el problema cuando la herra­
mienta y el alimento no estaban en el mismo campo visual”.[10] Sin em­
bargo, en otros casos los chimpancés llevaban las herramientas “directa­
mente a montículos que se encontraban hasta 90 m de distancia y que
eran probablemente invisibles desde el lugar de la elección de la herra­
mienta”.[11] (Más sorprendente aún, algunos también llevaban lanzas,
una conducta que parecería requerir una operación mental bastante com­
plicada para encarar la posibilidad de que se rompiera la herramienta.)
Un ejemplo de lejanía temporal es por ejemplo el de utilizar carnada, co­
mo cuando las garzas colocan trozos de pan en el agua y capturan a los pe­
ces que son atraídos por el pan.[12] Presumiblemente la garza misma po­

120
dría haber comido el pan, pero prefirió invertirlo en función del consumo
posterior. Como se afirmó en el capítulo 3, tal conducta — cuando se obser­
va en situaciones nuevas— es prueba de vida mental y de intencionali­
dad. Beck hace un análisis extenso y en cierto modo inconcluso de la rela­
ción entre la conducta instrumental y la resolución de problemas median­
te el discernimiento, a diferencia de los procedimientos de ensayo y error.
Aunque enfatiza enérgicamente la última forma de aprendizaje, admite
que parece haber algunos casos que son “resistentes a la explicación en
términos de aprendizaje previo asociativo y experiencia”.[13] Sin embar­
go, creo que el tema del discernimiento o la intuición debe separarse de la
intencionalidad. El discernimiento — la percepción repentina de la posibi­
lidad de hacer cosas de un modo diferente— requiere intencionalidad, pe­
ro lo contrario no es cierto. Incluso la conducta que fue adquirida original­
mente por imitación o por ensayo y error, puede requerir intencionalidad
en su realización.
Para explicar la conducta instrumental y más generalmente la inno­
vación en la conducta de los animales, se pueden seguir varias estrate­
gias. Primero, se puede tomar como explanandum una clase específica de
conducta y explicarla como el resultado directo de la selección natural.
Por ejemplo, podemos imaginar que una mutación puntual o una serie de
dichas mutaciones llevaron a que los cangrejos pinchen a las anémonas
como herramientas para defenderse o con propósitos ofensivos.[14] En la
gran mayoría de los casos analizados por Beck, esta clase simple de expli­
cación no parece plausible.
Entonces, en segundo lugar, se puede enfocar la misma clase de expli­
cación afirmando que la conducta considerada surge del aprendizaje o de
la invención, es decir, a través del ensayo y el error o del discernimiento.
(Ahora me concentro en el surgimiento y no en la difusión de la conducta,
de modo que la transmisión cultural y el aprendizaje por observación no
son relevantes.) Entonces es natural considerar las condiciones de fondo
que favorecen o impiden el surgimiento de la novedad. Según Beck y Fa­
gan parecería que son importantes las siguientes variables. 1) Debe haber
tiempo para el juego con objetos y la exploración de los objetos. Entre
otras cosas, esto significa que “la escasez de alimentos que obliga a los
animales a cambiar por alimentos menos preferidos que son más difíciles
de recoger y que llevan más tiempo de encontrar, procesar o comer, causa­
rá una menor manipulación del objeto. Una disminución en la manipula­
ción del objeto reduciría la probabilidad de descubrimiento de un nuevo
patrón de heiTamienta”.[ 15] Contra esto deberíamos establecer la opinión
de que “la necesidad es la madre de la invención” frecuentemente utiliza­
da para explicar la conducta instrumental humana. Volveré sobre esto en
el apartado c más adelante. 2) El medio debe ser lo suficientemente varia­
do como para permitir la exploración de los objetos. Fagen indica que el
óptimo perfil temporal puede incluir “un medio de crianza enriquecido
para desarrollar la versatilidad, luego un período de privación y consi­
guiente enriquecimiento” ,[16] Esto también significa que la territoriali­
dad tendería a impedir el desarrollo de la conducta instrumental.[17] “El
innovador potencial debe ser aislado de los compañeros de juego de la

121
misma especie”,[18] por dos razones. Primera, si los compañeros de juego
están disponibles, puede producirse un juego social y no de objeto. Segun­
da, los compañeros pueden actuar como factores disuasivos de la innova­
ción robando las invenciones antes de que el inventor recoja los frutos. Sin
embargo, esto realmente pertenece al siguiente conjunto de explicaciones,
que iniciaré ahora.
En tercer lugar, se puede tomar como explanandum el surgimiento de
genes para jugar e inventar en lugar de formas específicas de conducta.
Aquí Fagen hace la fundamental observación de que "los asuntos de ori­
gen y de diseminación son independientes en el nivel de mecanismo, pero
no en el de la evolución, ya que el ‘robo’ de descubrimientos útiles del in­
ventor por observadores de la misma especie no relacionados genética­
mente tendería a contraseleccionar genéticamente en base a tendencias
individuales hacia la innovación”.[19] Como hay costos asociados con la
conducta del juego, es decir, el costo oportuno del alimento y las posibili­
dades del apareamiento predeterminadas, no surgirá la conducta si no
tiene asociado a ella cierto beneficio de conveniencia. Sin embargo, dicho
beneficio tenderá a ser debilitado si los miembros de la misma especie no
relacionados adoptan inmediatamente la conducta. Fagen especula bre­
vemente acerca de algunas maneras en que este problema del jinete soli­
tario podría superarse: mediante innovadores que inventan tan rápida­
mente que los imitadores siempre quedan atrás; mediante la formación
de grupos de juego solamente integrados por individuos con dos alelos (re­
cesivos) para la invención; mediante el secreto, la información errónea o
el ocultamiento con respecto a descubrimientos beneficiosos; mediante el
libre intercambio de descubrimientos entre parientes cercanos unidos a
interacciones con no parientes restringidos; y compartiendo descubri­
mientos con no innovadores a cambio de protección.[20] Evidentemente,
estos mecanismos para facilitar las invenciones difieren en su situación
evolutiva. En particular, los mecanismos que comprenden juegos guípa­
les y (en un grado un poco menor) grupos de parientes son mejores para
explicar la estabilidad de los genes para inventar que para explicar su
surgimiento, ya que ambos presuponen la interacción entre individuos
que comparten dichos genes.[21]
Estas teorías biológicas de la conducta instrumental y de la innova­
ción originan varias preguntas que también podrían ser importantes para
la clase de cambio tecnológico que constituye el tema principal de este tra­
bajo. Primero, ¿cuál es el explanandum correcto de las teorías del cambio
tecnológico? Dado que una empresa en un instante t realiza una técnica o
práctica, ¿habría que tratar de explicar lo que hará en el instante t+1? ¿O
habría que explicar la cantidad de dinero que invertirá en innovaciones la
empresa? En segundo lugar, ¿las innovaciones están favorecidas por la
abundancia y prosperidad o por la crisis y las dificultades? Tercero, ¿algu­
nos de los mecanismos por los cuales la evolución supera el problema del
jinete solitario podrían ser importantes para la teoría económica? En par­
ticular, ¿la idea de que los innovadores están protegidos por su propio ím­
petu — y no por patentes y arreglos similares— podría encontrar aplica­
ción en casos en los que la difusión es menos que instantánea? Esta idea

122
resulta ser importante en muchos de los modelos de Nelson-Winter. No
puedo enfatizar demasiado que las analogías biológicas sólo pueden origi­
nar preguntas y nunca proporcionar respuestas. Por las razones descritas
en los capítulos 2 y 3, la adaptación evolutiva e intencional difieren en as­
pectos fundamentales que invalidan muchos de los usos actualmente de
moda de los modelos biológicos en las ciencias sociales.

b . E i le r t S u n d t

En el primer apartado de este capítulo me ocupé de modelos que


explican el cambio tecnológico mediante la reducción a la selección na­
tural: ya sea la reducción de un solo paso que explica la conducta ins-
trumenal específica como el resultado de la selección natural o la reduc­
ción de dos pasos que explica los genes para la invención mediante este
mecanismo. [22] Ahora trataré una serie de modelos que tratan de enten­
der el cambio tecnológico a través de alguna clase de analogía con la selec­
ción natural. Sólo que la analogía en todos los casos será imperfecta: de
hecho lo será cada vez más para los tres modelos considerados, vinculados
a los nombres de Eilert Sundt, Richard Nelson y Sidney Winter y Paul
David.
Eilert Sundt (1817-75) fue un teólogo que dedicó su vida a trabajos
pioneros en demografía y sociología.[23] Unió una fuerte tendencia mora­
lizante con una mente extremadamente enérgica, analítica e investigado­
ra, una combinación frecuente en aquella época. Su curiosidad y rigor
analítico con frecuencia lo hacían llegar a conclusiones que tendía a resis­
tir por razones morales, como cuando encontró que ciertos rituales de cor­
tejo extraños en Noruega occidental podían explicarse mediante lo que
hoy denominaríamos la teoría de la decisión bajo riesgo. Luego de una vi­
sita a Inglaterra en 1862 quedó muy impresionado por la teoría de Dar-
win y la aplicó al estudio etnológico de artefactos como casas y botes. An­
tes de su visita a Inglaterra ya había publicado un largo estudio de las
costumbres de construcción rural, pero luego empezó a creer que las mis­
mas debían entenderse en un marco evolucionista. Cuando en 1862 dio
una conferencia sobre la clase de botes de pesca utilizados en Noruega oc­
cidental, también, a modo de introducción hizo las siguientes observacio­
nes acerca de la evolución de las costumbres de construcción:

Incluso aunque las personas que levantan nuevos edificios no intentaran


alejarse de la costumbre de ningún modo, fácilmente podría suceder que sur­
giera alguna pequeña variación. Entonces dicha variación seria accidental.
Sin embargo, lo que no fue accidental es que los habitantes de la casa y los
vecinos percibieran las variaciones y formaran una opinión acerca de sus
ventajas e inconvenientes. Entonces no debe sorprender que cuando alguien
más tarde quisiera construir una casa nueva, eligiera cuidadosamente aque­
lla casa para imitar lo que le parecía lo más útil. Y cuando la idea de la me­
jora en una dirección determinada surgiera primero, alguien más astuto en­
tonces podría avanzar un paso más y realmente encarar y 1levar a cabo otra
mejora.[24]

123
Más adelante en su conferencia Sundt elabora estas ideas a medida
que interfieren con el tema elegido, la tecnología de los botes de pesca:

Un constructor de botes puede ser muy habilidoso y a pesar de ello nunca ha­
rá dos botes exactamente iguales, aunque se esfuerce por lograrlo. Las va­
riaciones que surgen de este modo pueden llamarse accidentales. Pero hasta
una variación muy pequeña generalmente se observa durante la navega­
ción, y entonces no es accidental que los marinos reparen en aquel bote que
ha sido mejorado o que es más conveniente para su propósito, y que deberían
recomendar que sea elegido para ser imitado... Podemos creer que cada uno
de estos botes es perfecto a su modo, ya que ha alcanzado la perfección me­
diante un desarrollo unilateral en una dirección en particular. Cada clase de
mejora ha progresado al punto en que un mayor desarrollo provocaría defec­
tos que harían más que contrabalancear la ventaja... Y concibo el progreso
del siguiente modo: cuando la idea de formas nuevas y mejoradas haya sur­
gido primero, entonces una larga serie de experimentos prudentes, cada uno
abarcando cambios extremadamente pequeños, podría conducir al feliz re­
sultado de que del taller del constructor de botes surja un bote que todos de­
searían tener así.[25]

En este modelo casi darwiniano del cambio tecnológico, Sundt incor­


poró las siguientes ideas. 1) Las variaciones son aleatorias, por lo menos
inicialmente. (Luego las variaciones se producen deliberadamente, expe­
rimentando con cambios pequeños, aunque no está claro si Sundt quiere
decir que tanto la dirección como la cantidad de variaciones están sujetas
a elección.) 2) Las variaciones son generalmente muy pequeñas. 3) El re­
sultado de la variación-cum-selección es un máximo local. 4) La imperfec­
ción del constructor — su incapacidad para hacer copias perfectas— es
una condición para la perfección última del resultado final. 5) La elección
de botes es afortunada ya que aquí la sensibilidad del resultado final a pe­
queñas variaciones es grande. Sin embargo, Sundt se equivoca cuando di­
ce que éste es un modelo completamente análogo a la selección natural.
Su énfasis en la percepción y en la subsiguiente elección demuestra que el
suyo es un modelo de selección artificial y no natural, asegurando explica­
ciones filtro en lugar de explicaciones funcionales del cambio tecnológico.
Como se observó en el capítulo 2, la selección artificial difiere de la natu­
ral en que permite esperar y el uso de estrategias indirectas, a diferencia
del oportunismo miope de la evolución biológica. Por ejemplo, los criado­
res de animales practican la espera cuando mantienen algunas opciones
(genes) abiertas a un uso posterior, en caso que surgiera la necesidad de
utilizarlas, en lugar de seleccionar exclusivamente para la maximización
actual de lo que estén tratando de maximizar. Análogamente, la elección
deliberada de alternativas inferiores con el propósito de alcanzar un má­
ximo global más tarde puede realizarse mediante la selección artificial,
aunque en el caso particular analizado por Sundt los pescadores difícil­
mente se prestarían a este procedimiento.
A pesar de todo, la selección artificial también difiere de la adaptación
intencional ya que está restringida a la elección entre variaciones que
surgen aleatoriamente. A diferencia de la selección natural, la selección

124
artiñcial puede explicar las consecuencias a largo plazo de la elección ac­
tual, pero a diferencia de la adaptación intencional está obligada a acep­
tar o rechazar las pequeñas variaciones que lanza el mecanismo aleato­
rio. Sin duda, la cantidad y posiblemente la dirección de estos inputs en el
proceso de selección pueden estar moldeados por la acción intencional, co­
mo indica Sundt hacia el final de los dos pasajes citados, pero mientras es­
tán obligados a ser pequeños no se puede suponer que pueda llegarse a
ninguna alternativa, por más distante que esté, mediante una serie de
cambios graduales, aunque algunos de éstos pueden ser desfavorables.
No está claro por qué estas variaciones inducidas están obligadas a ser
pequeñas en el caso de la mejora de los botes, pero evidentemente esto es
cierto para la crianza de animales y el cultivo de plantas.
Lo anterior nos permite detectar una ambigüedad en la frase “maxi-
mización local* que se mencionó varias veces aquí. [26] Primero, tenemos
un máximo local si hay algún entorno del estado estudiado en el que no
hay alternativa mejor según algún criterio de optimización, que podría
ser a corto plazo o a largo plazo. En segundo lugar, tenemos un máximo
local si no se pueden realizar más mejoras pasando antes por un deterioro
temporario. El primer concepto no incluye el tiempo, el segundo lo incluye
esencialmente. Análogamente, la miopía puede implicar tanto la incapa­
cidad para percibir alternativas distantes en el espacio de las posibilida­
des como la incapacidad de percibir (o estar motivado por) consecuencias
a largo plazo de las elecciones actuales dentro de aquel espacio. La selec­
ción natural es miope en ambos sentidos, la elección intencional no lo es
en ninguno y la selección artificial como se la entiende aquí es miope en el
primer sentido pero no en el segundo. (La cuarta y última categoría está
ejemplificada por un agente libre sujeto a debilidad de voluntad.) La im­
portancia relativa de una u otra forma de miopía en la restricción de las
acciones dependerá de la estructura del espacio de posibilidades y de la
naturaleza de las cadenas causales comprendidas. Sin embargo, debe en­
fatizarse que la “trampa del máximo local* asociada generalmente con la
selección natural se debe a la incapacidad de actuar según consecuencias
a largo plazo, no a la pequeñez de los cambios. Si, per impossibile, la selec­
ción natural pudiera aceptar mutaciones desfavorables y rechazar las fa­
vorables, el máximo global aún sería inalcanzable, pero no porque la evo­
lución se encuentre atrapada en un máximo local.

c. Nelson y Winter

He señalado a Joseph Schumpeter como probablemente el escritor


más influyente acerca del cambio tecnológico. Sin embargo, economistas
posteriores han tenido dificultades para aplicar su teoría a explicaciones.
“El problema con la teoría de Schumpeter es que es descriptiva y no ana­
lítica*, dice un autor.[27] Otros dos afirman que “Muchos economistas es­
tán de acuerdo con la amplia descripción de la opinión que tiene Schum­
peter sobre el desarrollo capitalista, que es muy diferente de los modelos
de crecimiento que actualmente se realizan en Cambridge, Massachussets,

125
o en Cambridge, Inglaterra. Pero las opiniones de esa clase todavía deben
transformarse en una teoría que pueda aplicarse al trabajo analítico y
empírico de todos los días”.[283 El último enunciado ya no puede conside­
rarse cierto. En una larga serie de importantes artículos Sidney Winter y
Richard Nelson elaboraron con gran detalle analítico, con miras a la apli­
cación empírica, una versión rigurosa de la teoría de Schumpeter. Sin du­
da, sus modelos derivan tanto de Herbert Simón como de Schumpe­
ter ,[29] y veremos que su repetida insistencia [30] sobre la naturaleza
schumpeteriana de su teoría no se justifica plenamente. Están más cerca
de Schumpeter cuando rechazan los conceptos neoclásicos de racionali­
dad maximuadora y equilibrio que cuando ofrecen búsqueda y selección
como sus propias alternativas. A pesar de ésta y otras diferencias, su tra-
bajo puede considerarse como un “desarrollo creativo” del de Schumpeter,
quizá con más acento sobre la primera parte de aquella frase.
Además del trabajo conjunto entre Nelson y Winter, este último ha
escrito una serie de artículos acerca de los fundamentos metodológicos de
su alternativa evolucionista a la economía neoclásica.[31] Una de sus con­
tribuciones es de particular interés e importancia: la demostración de que
el concepto neoclásico de maximizar incluye una regresión inñnita y que
debería ser reemplazado por el de satisfacer. El argumento me parece
irreductible, y sin embargo, no está universalmente aceptado entre los
economistas, sin duda porque no conduce a postulados de conducta unívo­
camente definidos. Como se explicó antes, el hecho de satisfacer incluye
una restricción arbitraria de atención: una restricción del conjunto de po­
sibilidades analizadas que un argumento racional no puede justificar.
Winter afirma que el satisfacer está inevitablemente presente en toda
conducta intencional, en lugar de ser un modo de elección que podemos
elegir para adoptar como una alternativa de la maximización. Su enun­
ciado clásico de esta idea merece ser citado en cierta extensión:

No vale la pena, en términos de viabilidad o de ganancias obtenidas, pagar


un precio por información acerca de loe aspectos inmutables del medio. No
vale la pena revisar constantemente las decisiones que no requieren revisión.
Estos preceptos no implican simplemente que los costos de la información
deben considerarse en la definición de las ganancias. Pues sin observar al
medio o revisar la decisión no hay manera de saber si el medio está cambiando
o si la decisión requiere una revisión. Puede decirse que un determinado ma-
ximizador de ganancias adoptaría la forma de organización que requiere la
observación de aquellas cosas que es beneficioso observar en loe momentos
que sea beneficioso observarlas: la simple respuesta es que esta elección de
una estructura informativa que maximice las ganancias requiere información
y no es evidente cómo adquiere dicha información el maximizador de ganan­
cias aspirante, o qué garantiza que no pague un precio excesivo por él...
El principio de satisfacer, por supuesto, no es una teoría de la empresa...
Mientras aquellas consideraciones de selección le presten apoyo, se debe en
gran parte a que el reconocimiento explícito de que modos concebibles de
conducta permanecen ignorados proporciona un escape de la reductio ad ab-
surdum de los costos de información. En cierto nivel de análisis, toda meta
que busca la conducta es una conducta satisfaciente. Debe haber límites pa­
ra el espectro de posibilidades analizadas, y dichos límites deben ser arbitra-

126
nos en el sentido de que quien toma las decisiones no puede saber que son
óptimas.[32]

Como observa Winter, la idea de satisfacer es compatible con una am­


plia gama de patrones de conducta, y no proporciona una teoría de la con­
ducta empresarial. La teoría solamente nos dice que en algún nivel de aná­
lisis la decisión debe apelar al hecho de satisfacer, y no qué nivel es (o debe­
ría ser). Más adelante veremos cómo, en sus diversos modelos, Nelson y
Winter consideran postulados de conducta específicos de brindar satisfacción.
Nelson y Winter han desarrollado sus argumentos en una serie de mo­
delos relacionados, aunque sutilmente diferentes. Entre otros encaran los
siguientes problemas: explicar la proporción de cambio tecnológico, expli­
car la estructura de mercado como una variable endógena, explicar el fac­
tor de propensión del cambio tecnológico, explicar la importancia relativa
de la innovación y de la imitación en el cambio tecnológico. Estos también
son problemas analizados en modelos neoclásicos, pero las herramientas
conceptuales utilizadas por Nelson y Winter son completamente diferen­
tes de las de la economía neoclásica. Primero, rechazan por completo el
concepto de la función de producción como la conceptualización correcta
del estado del conocimiento tecnológico. De la teoría general de satisfacer
surge con bastante facilidad que no se puede esperar que las empresas
tengan en sus manos un conocimiento detallado de las técnicas diferentes
de las que están utilizando en ese momento. En realidad, “el estudio del
conocimiento disponible es como el estudio de un paisaje en un día brumo­
so. Algunas cosas están lo suficientemente cerca como para verlas con cla­
ridad, otras lo suficientemente lejos como para ser totalmente invisibles.
Pero las condiciones intermedias cubren una amplia gama y son complica­
das para describir” .[33] Desarrollar estas técnicas intermedias requerirá
mucho tiempo, esfuerzo y dinero, aunque es imposible decir cuánto con
anticipación. Más aun, el principio de satisfacer dictamina “que la inver­
sión en la búsqueda del entendimiento se postergue hasta que haya un
síntoma de problema para tratar”.[34] Esto significa que si por alguna ra­
zón las empresas son llevadas a cambiar la técnica, tendrán que buscar
otra, sin garantías de que encuentren una mejor que la que se utiliza en
ese momento. De hecho, el mejor modelo probabilístico para la búsqueda
se obtiene suponiendo que la probabilidad de encontrar una técnica supe­
rior — por innovación o imitación— es una función de la cantidad inverti­
da en la búsqueda.
El elemento de búsqueda es un concepto básico en los modelos de Nel­
son-Winter. La otra idea fundamental es la de la selección de empresas
por parte del mercado. Las empresas que encuentran mejores técnicas,
que utilizan mejores reglas para buscar que otras, se expandirán relativa­
mente más. (Aquí “mejor” debe tomarse estrictamente en un sentido ex
post: ex ante todas las conductas se suponen igualmente buenas o “satis­
factorias”.) Exactamente cómo se produce la expansión depende de diver­
sos rasgos del mercado: de la cantidad de empresas, del grado de agresivi­
dad, de la disponibilidad de financiación externa, etc. Para comprender
mejor estas ideas, será útil analizar con más detalle algunas de las fami­

127
lias de modelos utilizados por Nelson y Winter. Primero estudiaré breve­
mente una familia de modelos de equilibrio, y luego los modelos de no
equilibrio más canónicos. Entre estos últimos hay que distinguir entre un
intento inicial de explicar el cambio tecnológico postulando la satisfacción
a nivel de la técnica actual y los modelos más recientes en los que las em­
presas satisfacen según sus políticas R & D.*
Todos los modelos suponen que hay una población de empresas y que
cada instante cada empresa puede caracterizarse con un número de va­
riables de estado, como la cantidad de capital, técnica actual (o producti­
vidad actual), política de investigación, etc. Más aun, los modelos defínen
ciertos postulados de conducta concernientes a las actividades de investi­
gación e inversión de las empresas. Finalmente, hay un conjunto de con­
diciones que relacionan los precios de los factores y los precios de los pro­
ductos con la demanda de los factores y la oferta del producto. No todos los
modelos incluyen todas estas variables y condiciones, pero cada uno tiene
algunas variables de estado, algunos postulados de conducta y otras con­
diciones de mercado de esta clase. Dados los valores de las variables de es­
tado en el instante t, los otros postulados y condiciones nos permiten defi­
nir una distribución de probabilidades sobre el conjunto o los conjuntos de
variables de estado que pueden obtener en el instante t+1. En otras pala­
bras, el modelo puede verse como un proceso de Markov con probabilida­
des constantes de transición. La razón por la cual el modelo es probabilís-
tico y no determinista es que el resultado de los procesos de búsqueda es
estocástico. Los modelos tienen en su núcleo un cambio tecnológico incier­
to e impredecible.
Estos modelos pueden estudiarse de dos modos diferentes. Primero,
se puede tratar de obtener resultados analíticos explícitos concernientes
a la evolución de las empresas en el tiempo. En uno de los primeros
análisis, Winter presentó un modelo del cambio tecnológico de un modo
estrechamente vinculado con lo que en el capítulo 2 se mencionó como una
cadena absorbente de Markov.[35] Demostró que, dada una cantidad de
supuestos bastante restrictivos, un estado de equilibrio eventualmente
ocurriría con probabilidad uno y se mantendría indefinidamente de allí
en adelante. Las reglas de transición del modelo eran particularmente
simples: las empresas redituables se expanden sin cambiarla técnica, las
empresas no redituables se contraen cuando cambian la técnica y las em­
presas con ganancias cero no cambian. (Además hay reglas para entrar en
la industria.) El proceso generado por estas reglas de transición converge
en un estado en el que todas las empresas tienen ganancia cero. Aunque
el resultado es teóricamente interesante, el modelo carece demasiado de
contenido económico y de estructura como para decirnos algo sobre la con­
ducta de la economía real. Un modelo posterior de Nelson-Winter que
analizaba la tendencia de los factores del cambio tecnológico en un marco
similar de equilibrio va en cierto modo más allá de este primer intento,
pero se propone explícitamente sólo como un ejercicio metodológico. [36]

* R & D = Research and Development (investigación y desarrollo). [T]

128
Sin embargo, en segundo lugar, se pueden construir modelos dema­
siado complicados como para ser estudiados por métodos analíticos y ba­
sarse en su lugar sobre simulaciones de computadora. Este es el procedi­
miento de los modelos Nelson-Winter más interesante, según mi opinión,
y que ahora trataré.
Nelson, Winter y Schuette propusieron un modelo anterior y más sim-
ple.[37] Incluye los siguientes conceptos. 1) Satisfacer según las técnicas.
Las empresas conservan la técnica utilizada si los réditos brutos sobre el
capital exceden en cierto nivel. 2) La búsqueda inducida. Si las ganancias
brutas caen por debajo de dicho nivel, las empresas inician una búsqueda
local de nuevas técnicas o imitan a otras empresas. 3) Pruebas de reditúa-
bilidad. Una empresa adopta una nueva técnica que surge de la búsqueda
si promete dar mayores ganancias sobre el capital. 4) Inversión. Las em­
presas se expanden in virtiendo sus ganancias brutas, luego de la sustrac­
ción de la desvalorización y de los dividendos requeridos. 5) Entrada. La
entrada es libre, pero está regulada por supuestos que causan que sea re­
lativamente poco frecuente. 6) Mercado laboral. La proporción de los sala­
rios en parte es endógena al modelo, influida por la conducta de la indus­
tria como un todo, y en parte está sujeta a una tendencia exógena. Como
siempre, las leyes del movimiento son probabilísticas y dependen de la
probabilidad de una búsqueda con éxito.
Para las simulaciones con computadora se variaron sistemáticamen­
te cuatro parámetros, cada uno de ellos con dos valores de modo que se
consideraron 16 casos en total. Estos eran: la comodidad de la innovación
a través de la búsqueda local, la fuerza de la imitación relativa a la inno­
vación, el tamaño de los dividendos requeridos y la dirección de la búsque­
da local (neutral versus ahorro de trabajo). En cada computadora todas
las empresas se suponen con valores idénticos de todos estos parámetros,
de modo que su importancia se demuestra solamente en comparación en­
tre las computadoras. Cada caso se cursó durante 50 períodos en la
computadora, en correspondencia con el estudio de Robert Solow de la
economía norteamericana desde 1909 en adelante.[38] Solow afirmó que
los datos podían explicarse neoclásicamente, suponiendo que la economía
funciona con una función de producción agregada sujeta al cambio tecno­
lógico neutral. Contra esto los autores dicen 1) que los datos históricos en­
cajan casi igualmente bien con algunos de los cursos de las computadoras
y 2) que si se trata de dar una explicación neoclásica de los valores gene­
rados por las simulaciones, se logra bastante bien, a pesar del hecho de
que estos valores son generados por un proceso que no incluye los concep­
tos neoclásicos de maximización o la función de producción. “El hecho de
que no hay una función de producción en la economía simulada claramen­
te no es un obstáculo para un alto grado de éxito al utilizar tal función pa­
ra describir la serie agregada que genera.”[39] Y concluyen que “esta com­
petencia particular entre esquemas explicativos rivales debe considerar­
se como esencialmente un lazo, y deben consultarse otras pruebas en un
esfuerzo por decidir el asunto”.[40] Los autores dicen que tales pruebas
deben hallarse en el micronivel, es decir, en la teoría de la toma de deci­
siones en las empresas.

129
La comparación entre los cursos demuestra la importancia de los
parámetros, algunas veces de un modo sorprendente. El siguiente es un
modo típico de razonamiento. Resultó que un alto valor del primer pará­
metro, con innovación relativamente fácil y menos restringida a ser local,
se da junto con un alto cociente capital-trabajo (en el período 40 del cur­
so). ¿Por qué es así?
Reflexionando, una posible respuesta a esta pregunta parece ser la siguien­
te: La dirección general del camino trazado en el espacio ¿nput-coeficiente no
depende de lo local de la búsqueda. Sin embargo, la velocidad del movimien­
to por el camino es menor si la búsqueda es más local. Por lo tanto, dado que
el camino tiende a cocientes capital-trabajo más altos (como una consecuen­
cia del nivel elegido para R41y la neutralidad o la tendencia al ahorro de tra­
bajo de la búsqueda), el cociente capital-trabajo que resulta luego de un
número dado de períodos es menor cuando la búsqueda es más local... Otra
respuesta posible es más “schumpeteriana”. Una alta proporción de progre­
so tecnológico puede producir un alto nivel de ganancias (de desequilibrio),
que a su vez son invertidas. El aumento resultante en la demanda de traba­
jo resulta en salarios más altos y desvía los resultados en comparaciones de
productividad en la dirección del capital-intensivo.[42]
Una familia posterior de modelos captura interacciones más com­
plejas entre las empresas.[43] Su característica más importante es que se
supone ahora que las empresas satisfacen la inversión en R & D. En otras
palabras, la búsqueda de nuevas técnicas no está provocada por la adver­
sidad, como en el modelo descrito más arriba, sino que se realiza como ru­
tina. Algunas empresas llevan a cabo la investigación y la imitación,
mientras que otras solamente imitan. Como siempre, los resultados de la
búsqueda y de la imitación son sólo estocásticos: una gran inversión en
R & D puede producir poco, y una pequeña inversión puede dar excesivas
ganancias, dependiendo de la suerte. En la mayoría de estos modelos la
innovación “se basa en la ciencia”, es decir, que se realiza sobre un aumen­
to exógeno de la “productividad latente”. Sin embargo, en un modelo los
autores también consideran un caso de “tecnología acumulativa” en el que
una empresa innova realizando mejoras increméntales en su propia técni­
ca en uso, y no basándose en nuevos conocimientos creados fuera de la in-
dustria.[44] Entre otras condiciones que varían en la simulación por com­
putadora se encuentran las siguientes. La cantidad de empresas en la po­
blación puede ser 2, 4, 8, 16 y 32. También hay un parámetro para el gra­
do de agresividad: un estado no agresivo de las industrias se da si las em­
presas requieren mayores ganancias para invertir a medida que crecen,
implicando que consideran que son lo suficientemente grandes como para
bajar el precio mediante una mayor expansión. También se permite variar
a la facilidad de la financiación externa, la facilidad de la imitación y la ta­
sa de crecimiento de la productividad latente. Estas son todas diferencias
intercursos, mientras que, repitiendo, la distinción entre innovadores e
imitadores es una diferencia intracurso en dichos modelos.
No es posible resumir aquí todos los resultados sorprendentes que ob­
tuvieron los autores en su trabajo con estos modelos. Me limitaré, enton­
ces, a algunas conclusiones que parecen especialmente importantes para

130
los propósitos presentes. Al resumir estos resultados, no indicaré en cada
paso los rasgos precisos de los modelos de los que derivan: el lector intere­
sado deberá buscarlo por su cuenta.
Un tema constante en los modelos es la “hipótesis schumpeteriana”
de un intercambio entre la conducta competitiva y el progreso. En su aná­
lisis de este tema los autores hacen varias distinciones valiosas. Primero,
se puede deñnir la competencia estructuralmente, mediante la cantidad
de empresas en la industria,[45] o conductistamente, por el grado de
agresividad. Segundo, podemos distinguir entre tres sentidos de progre­
so, según que el nivel elegido sea el de la productividad promedio, la pro­
ductividad de las mejores técnicas en práctica, o el precio del producto. En
el caso del cambio tecnológico basado en la ciencia, la diferencia para el
progreso está en la cantidad de empresas y no en el grado de agresión.
Más específicamente, una industria de cuatro empresas comparada con
una de dieciséis empresas tenía una productividad promedio mayor, pero
también precios más altos, ya que los costos más bajos eran más que com­
pensados por el margen más alto de ganancia bruta sobre el costo. [46] Sin
embargo, en la tecnología acumulativa la conducta agresiva tenía un efec­
to negativo sobre el progreso en los tres sentidos, ya que el costo más alto
no era compensado por el margen de las ganancias brutas.[47]
Otro tema constante es el destino relativo de los imitadores o de los
innovadores. En un conjunto de modelos los innovadores trabajan mejor
cuando la competencia está restringida y los imitadores cuando es agresi­
va. Nuevamente resultará útil una cita para dar mejor idea del razona­
miento al que se apeló para explicar los descubrimientos:

La explicación de este fenómeno... reside en lo siguiente. En este modelo un


imitador nunca puede alcanzar un nivel de productividad más alto que el
mejor de los innovadores. Si iguala la productividad de un innovador tendrá
mayores ganancias porque no incurre en los costos R & D de la innovación.
Pero si detiene el crecimiento del output en un tamaño razonable, se alivian
las presiones sobre la empresa innovadora para su reducción, el presupues­
to R & D no se desgasta y hay una oportunidad para la recuperación de la
empresa innovadora... Pero si la gran empresa imitadora continúa crecien­
do, obliga a la empresa innovadora a seguir reduciéndose. A medida que se
achica el presupuesto R & Ddel innovador, las oportunidades para que haya
un éxito innovador que provoque la recuperación disminuyen y el tiempo
de ventaja esperado antes de que el gran imitador imite, también dismi-
nuye.[48]

En un conjunto diferente de modelos surge un problema porque tanto


los investigadores como los imitadores funcionan del mismo modo en to­
dos los casos menos en 32 empresas, y a pesar de ello parece haber prue­
bas decisivas de que la investigación no es provechosa.[49] La explicación
es que la investigación resulta ser una actividad “ relajada”, algo que el in­
vestigador puede realizar por ser un rico oligopolista, pero en realidad no
es provechoso. Con una mayor cantidad de empresas, la inversión debe fi­
nanciarse externamente en mayor grado, y por lo tanto depende del valor
neto de la empresa, que es negativamente afectada por gastos de R & D.

131
Sin embargo, esto no necesariamente lleva a la eliminación de los innova­
dores. Por el contrario, surge “una clase diferente del compartir el merca­
do en 'equilibrio’, una clase en la que los imitadores son lo suficientemen­
te grandes como para desear que el margen de las ganancias brutas sea lo
suficientemente alto como para que los investigadores puedan recuperar
los gastos”.[50]
En el contexto de este muestreo aleatorio de resultados generados por
los modelos de Nelson-Winter, deseo analizar tres puntos. Primero, ¿en
qué sentido puede decirse que son “schumpeterianos”? Segundo, ¿cuál es
su relación con la teoría biológica de la evolución? Tercero, ¿cuál es la si­
tuación explicativa de los métodos de simulación?
Schumpeter está presente en los modelos de varios modos. En primer
lugar, los autores analizan y, ampliamente hablando, adoptan la hi­
pótesis de Schumpeter de un intercambio entre la eficiencia estática ge­
neralmente asociada a la competencia y la eficiencia dinámica de la com­
petencia restringida. También, y más importante, insisten en la idea
schumpeteriana de que la competencia es un proceso y no un estado. En
los modelos neoclásicos, la competencia es un poco más que una conducta
de aceptar precios, mientras que en el sentido cotidiano de la palabra es
un proceso con ganadores y perdedores identificables. Más aun, en la vida
económica así como también en el deporte la suerte pura juega un impor­
tante papel en la distinción entre ganadores y casi ganadores, “aunque
grandes diferencias de habilidad y competencia puedan separar a los
competidores de los no competidores”.[51] No hay duda de que éste es un
rasgo típicamente schumpeteriano de los modelos. Por otro lado, el con­
cepto fundamental de satisfacer deriva de Herbert Simón, y no de Schum­
peter. La importancia de grandes innovaciones discontinuas en el esque­
ma schumpeteriano no se encuentra en los modelos de Nelson-Winter, y
el énfasis sobre la habilidad y la energía más que normales tampoco es
una condición para obtener ganancias. También creo que la idea de las
empresas que siguen constantemente el crecimiento de la productividad
latente es un poco tgena a la opinión de Schumpeter sobre el cambio tec­
nológico. En este aspecto los modelos de Frísch-Goodwin son más fieles ya
que por lo menos incorporan el elemento de discontinuidad. Lo que era
inaceptable en los últimos modelos, es decir, la transformación automáti­
ca y determinista del aumento de la productividad latente en innovación,
por supuesto no es un rasgo de los modelos de Nelson-Winter en el micro-
nivel. Sin embargo, en el nivel agregado el resultado puede ser, en algu­
nas versiones, que la población de empresas siga muy de cerca y continua­
mente el crecimiento de la productividad latente.
La misma frase “teoría evolucionista del cambio tecnológico” por su­
puesto indica una analogía biológica. Nelson y (especialmente) Winter
frecuentemente analizan la relación de su teoría del cambio tecnológico
con la teoría de la evolución biológica.[52] Son muy sensibles a la cantidad
de diferencias entre ambas teorías y en ningún momento caen en la tram­
pa de transferir ilegítimamente las conclusiones de un a a la otra. La gran
analogía reside en el uso, en ambas teorías, de la variación estocástica y
la subsecuente selección determinista. Entre las diferencias, la más im­

132
portante se analiza separadamente más adelante, es la falta de un con­
cepto de equilibrio en los modelos de Nelson-Winter. Si miramos con más
detalle, también aparecen las siguientes diferencias. Primero, aunque las
variaciones generalmente son bastante pequeñas, no son necesariamente
aleatorias en los modelos del cambio tecnológico. Por ejemplo, más allá
del hecho de que los precios de los factores puedan influir en la selección
de nuevas técnicas, “es posible que un alza en los salarios induzca un
cambio en la distribución de los esfuerzos de búsqueda de las empre­
sas”. ^ ] Más aun, la corriente de variaciones o “mutaciones’’ no tiene por
qué ser constante, como lo es en la teoría de la evolución biológica. En el
modelo de Nelson-Winter-Schuette, la proporción de mutaciones es cero
cuando no se necesitan mutaciones, y solamente es positiva cuando las
ganancias brutas caen por debajo de un nivel crítico. Se trata de una má­
quina de satisfacer que difiere tanto de la máquina de máximos locales co­
mo de la máquina de máximos globales que se estudiaron en el capítulo 2.
(En biología, la máquina de satisfacer no violaría stricto sensu el dogma
central de la inexistencia de retroalimentación del medio al genoma, pero
evidentemente violaría el espíritu de dicho dogma.) Por otro lado, en los
modelos posteriores de Nelson-Winter las empresas satisfacen R & D, in­
duciendo una proporción constante de “mutaciones”.
Segundo, el proceso de selección en economía difiere del de la biología
Las empresas, como los organismos, pueden morir, aunque en la mayoría
de los modelos de Nelson-Winter sólo disminuyen hacia la extinción sin
llegar a desaparecer totalmente. Sin embargo, no pueden reproducirse.
Cuando sus rasgos — las técnicas o reglas de búsqueda que las hacen exi­
tosas— se distribuyen entre la población de empresas, se produce en par­
te por expansión y en parte por imitación. La imitación es como más arti­
ficial que la selección natural ya que comprende un elemento subjetivo de
la percepción y no sólo el elemento objetivo de la supervivencia diferen­
cial. Por el contrario, la expansión es en cierto modo más análoga al fun­
cionamiento de la selección natural. Sin embargo, este mecanismo signifi­
ca que el éxito de una técnica o de una regla de búsqueda no puede medir­
se por la cantidad de empresas que la adoptan, sino que las empresas
deben medirse por su tamaño.
La condición explicativa de los modelos de Nelson-Winter es descon­
certante e intrigante. Muestran una conducta de gran no equilibrio y de
no estado fijo, lo que significa que es difícil establecer conexiones explica­
tivas entre las variables. Permítaseme comenzar con el aspecto de dese­
quilibrio de los modelos, que los autores acentúan con fuerza. El enuncia­
do más general parece ser el siguiente:

Esta clase de modelopuede tener un equilibrio con las propiedades neoclási­


cas, pero también es posible analizar las propiedades de desequilibrio del
modelo y de hecho establecer el contexto de modo tal que no se obtenga el
equilibrio sobre todo el lapso considerado. Mientras que las empresas en­
cuentran mejores técnicas, siempre podrán encontrarse mejores. Las empre­
sas con ganancias se expanden, las no redituables se reducen. Pero el siste­
ma no tiene por qué desechar todas las técnicas o reglas de decisión menos

133
las más eficientes. Los cambios en las “mejores” técnicas conocidas por las
empresas y en el medio externo de las condiciones déla demanda del produc­
to y la oferta de factores pueden ser suficientemente rápidos con respecto a la
velocidad déla adaptación del sistema total como para que una amplia gama
de conductas pueda sobrevivir en cualquier momento.[54]

En la frase en bastardilla los autores apelan a un argumento similar


al utilizado en el capítulo 2 para refutar la defensa de Arthur Stinchcom-
be de la explicación funcional. El argumento muestra que en general no se
puede — sin pruebas específicas— suponer que la conducta observada
puede explicarse por sus propiedades de racionalidad y optimalidad. A di­
ferencia del caso de la selección natural en biología, el medio económico
puede cambiar con demasiada rapidez para que las empresas ineficientes
sean eliminadas, ya que lo que es eficiente en un momento dado depende
en gran parte del medio. Obsérvese la naturaleza de dos puntas del argu­
mento Nelson-Winter. Por un lado, apelan a consideraciones generales de
satisfacer para afirmar que la empresa no maximiza y no puede hacerlo
(ex ante) en ningún sentido subjetivo. Por otro lado, señalan el medio rápi­
damente cambiante para decir que la selección puede no tener tiempo pa­
ra producir la optimalidad (ex post) en el sentido más objetivo. La coexis­
tencia de empresas eficientes e ineficientes en todo instante es una razón
decisiva para no creer en la analogía biológica.
Sin embargo, incluso si los modelos no están nunca en equilibrio, pue­
den tener propiedades de estado fijo. Por ejemplo, la proporción relativa
de empresas eficientes e ineficientes después de cierto tiempo puede que­
dar fija en un valor bastante estable. En el modelo de Nelson-Winter-
Schuette los autores observan que “la razón para focalizar los valores ob­
servados al final del curso es permitir que haya suficiente tiempo para
que las diferentes configuraciones de parámetros exhiban su influencia
distintiva sobre el estado de la industria” .[55] En esta perspectiva las em­
presas pueden elevarse y desaparecer por razones estocásticas, y a pesar
de ello, los patrones pueden permanecer bastante estables con el tiempo.
En tales casos podemos apelar a los parámetros para explicar el estado de
la industria, de acuerdo con lo que denominé en el capítulo 1 “causación
simultánea”. Los modelos de equilibrio permiten explicaciones de fenóme­
nos en términos de sus consecuencias reales, posiblemente también bus­
cadas. Los modelos de estado fijo permiten explicaciones causales de fenó­
menos en términos de las variables exógenas que influyen sobre los patro­
nes en los que el sistema finalmente descansa. Como también se explicó
en el capítulo 1, la derivación del estado fijo puede ser bastante complica­
da y requiere el análisis de una gran cantidad de mecanismos opuestos,
cuyo efecto neto sería difícil de predecir ex ante. De hecho, el enfoque de
Nelson-Winter está muy cerca de la metodología de Tocqueville que se
describió anteriormente.
Finalmente, en algunos de los modelos ni siquiera hay una conducta
de estado fijo de la población de empresas. Por ejemplo, en los modelos
que tienen inicialmente 16 ó 32 empresas de igual tamaño, hay una fuer­
te tendencia ascendente en concentración que, luego de una simulación de

134
25 años, no llega a un estado fijo. Los autores concluyen que esta tenden­
cia ascendente es un fírme resultado de la simulación.[56] Esto puede jus­
tificarse mediante su profundo conocimiento de cómo funcionan los mode­
los, pero para alguien de afuera que no tiene dicho conocimiento no puede
excluirse la posibilidad de los ciclos. En otras palabras, a la tendencia as­
cendente hacia la concentración podría suceder una tendencia descenden­
te hacia una estructura de industria más fragmentada. Para apelar nue­
vamente a Tocqueville, el efecto transitorio del cambio de un parámetro
dado puede diferir — no sólo en tamaño, sino incluso en dirección— del
efecto de estado fijo.
Esto concluye mi análisis de los modelos de Nelson-Winter. Resulta
obvio a partir del tono general de mi análisis que comprendo bien su en­
foque así como también es obvio que no puedo declararme competente pa­
ra evaluar su exactitud para el propósito de la investigación empírica. La
imagen de la economía como un flujo constante con ciertos patrones mo­
deradamente estables claramente tiene la ventaja del realismo sobre la
visión neoclásica. Queda por ver si la escuela evolucionista podrá aprove­
char esta ventaja con fines explicativos.

d. Paul David

El último teórico evolucionista que analizaré aquí es Paul David. En­


tre los escritores que he elegido en este capítulo también es el menos evo­
lucionista, en el sentido que su obra está menos íntimamente ligada a la
teoría biológica de la evolución. Sin embargo, él mismo se refiere a su tra­
bajo como una alternativa evolucionista a la teoría neoclásica, y resultará
claro que realmente es una descripción correcta. El trabajo de David so­
bre el cambio tecnológico se encuentra en Technical Choice, Innovation
and Economic Growth, en el que ha recogido una cantidad de estudios de
historia tecnológica y agregó un extenso capítulo inicial sobre “La escasez
de la mano de obra y el problema de la práctica y el progreso tecnológicos
en los Estados Unidos del siglo diecinueve”. El siguiente estudio se ocupa
exclusivamente de este capítulo. Aunque es explícitamente histórico en
cuanto al tema, el capítulo también esboza un marco teórico general para
el estudio del cambio tecnológico. El hecho básico que debe explicarse es el
vínculo entre la escasez de mano de obra y la mecanización del siglo XIX en
Estados Unidos en comparación con el desarrollo inglés en el mismo perío­
do. David analiza y rechaza críticamente las explicaciones neoclásicas de
esta tendencia de factores propuestas por Fellner y Kennedy (en el
capítulo 4), y luego elabora una explicación alternativa “evolucionista”.
Sorprendentemente, también rechaza el trabajo de Nelson y Winter por
ser “fundamentalmente neoclásico en espíritu”.[57]
Para entender la lógica de la alternativa de David, primero podemos
observar que está fuertemente influido por el importante artículo de
Kenneth Arrow “Leaming by doing”. Dicho artículo a su vez tuvo como
punto de partida el llamado “efecto Homdal”. “Los trabajos de hierro

135
Horadal en Suecia no tuvieron inversiones (y por lo tanto presumible­
mente ningún cambio importante en sus métodos de producción) durante
un período de 15 años, y a pesar de ello la productividad (producción por
hora hombre) se elevó en un promedio cercano al 2% anual. Hallamos...
un desempeño que se incrementa constantemente que sólo puede impu­
tarse al aprendizaje a partir de la experiencia.”[58] Esta clase de aumen­
tos de la productividad es local y neutral: local porque sólo incluye el cam­
bio incremental y de adaptación, y neutral porque ahorra proporciones
iguales de todos los factores de producción. La propuesta básica de David
es explicar el porcentaje total y la dirección del cambio tecnológico como la
suma total de muchos cambios locales neutrales.
Antes de estudiar los detalles del análisis de David, revisaré breve­
mente lo que se dijo o insinuó en el apartado precedente acerca de la fun­
ción de producción. Según el enfoque de Nelson-Winter las empresas no
tienen acceso directo a ningún método diferente del que están utilizando
en el momento. Si se las induce a buscar nuevas técnicas, no tienen la cer­
teza de que encontrarán prácticas mejores, sino solamente cierta probabi­
lidad de hacerlo. En algunos de sus modelos la búsqueda también incluye
costos, de manera que la inversión en R & D implica que las empresas
compran una probabilidad de muestreo de una distribución que incluye
algunas técnicas superiores. Aquí no hay lugar para el concepto de una
función de producción que comprende una gran cantidad de prácticas a
las que las empresas tienen acceso inmediato y libre. David (y también
Nathan Rosenberg en un trabajo muy relacionado)[59] critica el concepto
de la función de producción desde un ángulo un poco diferente. Supone
que las empresas en cualquier momento dado tienen acceso inmediato y
libre a una pequeña cantidad de prácticas y cualquier combinación lineal
de ellas. En la figura 3 más adelante (tomada de David) hay dos de tales
prácticas, con la intensidad de capital en correspondencia con las pen­
dientes de las rectas a y y desde el origen. La “frontera de procesos dispo­
nibles” FPD° consiste en todas las combinaciones lineales de las dos prác­
ticas básicas. La “función de producción fundamental” FPP° consiste en
todas las prácticas que podrían hacerse disponibles en base al conoci­
miento científico y tecnológico existente. No están disponibles inmediata­
mente y sin costo ya que se necesitan la investigación y el desarrollo para
sacarlas de su estado latente. La importancia económica de estos concep­
tos se explica del siguiente modo:

[Supongamos] que antes de un aumento en el cociente de salarios-precios de


renta (representado como el cambio en la línea de precios de pp a p’p’), los
productores se contentaran con minimizar los costos de producción traba­
jando con la técnica a disponible. Una consecuencia inmediata del alza indi­
cada en el precio relativo de la mano de obra sería hacerlas indiferentes a,
sobre las mismas consideraciones, quedarse con a o cambiar a y. Y un ulte­
rior cambio marginal de los porcentajes de salarios relativos en la misma di­
rección decidiría el asunto en favor de la dirección más capital-intensivo. Pe­
ro una respuesta alternativa también podría obtenerse de algunos producto­
res por este cambio del factor-precio: la asignación de recursos al verdadero
desarrollo de una técnica P-[60]

136
F ig u r a 3. Innovación tecnológica vista com o sustitución

Esto demuestra que la línea entre innovación y sustitución no puede


trazarse con la precisión indicada por el sistema neoclásico. Moverse des­
de la práctica a a la práctica yes sustitución sin innovación, mientras que
el cambio de la práctica a a la práctica |3 es una forma de sustitución que
también comprende la innovación. Y por último hay innovación propia­
mente dicha: innovación sin sustitución. Consideremos la figura 4 (de Da­
vid). Aquí el cambio de precios de pp a p’p’ ha inducido un cambio de la
práctica a a la práctica p. Entonces David supone que se produce la inno­
vación en forma de progreso tecnológico local-neutral, de modo que la me­
jor práctica se mueve a lo largo de la recta P hacia el origen. (De hecho, co­
mo se explica más adelante, no se mueve a lo largo de la recta, sino de un
modo aleatorio cerca de ella.) A medida que la práctica P se mueve hacia
el origen, la frontera de proceso disponible se inclina en la dirección del
ahorro de mano de obra, convirtiéndose finalmente en FPD’. Si en este
punto el cociente de precios cambia de p’p’ nuevamente a pp, no habrá un
retomo a la práctica a, ya que la práctica (3 mejorada también se ha tom a­
do superior en este cociente.
En un momento veremos cómo este modelo puede utilizarse para ex­
plicar. Sin embargo, detengámonos para considerar las inferencias para

137
la función de producción neoclásica. Hemos visto que el enfoque de David
que subyace en la figura 3 implica una suave crítica a la función de pro­
ducción, indicando que la sustitución puede incluir un elemento de inno­
vación. El sistema presentado en la figura 4 contiene los elementos de
una crítica más fuerte. Señala, metafóricamente hablando, que la función
de producción no está allí cuando se la está mirando. O en un lenguaje
más preciso, la función de producción no puede ser un concepto útil a no
ser que tenga más que una existencia meramente transitoria. Esto impli­
ca por lo menos los siguientes requisitos, a) Si la función tiene retornos no
constantes a escala y nos movemos de un isocuanto a otro, entonces la pri­
mera aún debería estar allí si por alguna razón deseamos volver, b) Si una
empresa ocupa actualmente una posición en el isocuanto unidad (supo­
niendo desde ahora retornos constantes a escala) y luego se mueve a otra
posición, entonces la primera aún debería estar allí si por alguna razón
desea volver, c) Mínimamente, si la empresa opera en algún punto sobre
el isocuanto unidad, entonces “estar allí” simplemente no debería tener el
efecto de cambiar la práctica.
Como se observa brevemente en el capítulo 1, la crítica de David a
Robert Fogel constituye una negación del primer requisito, ya que gene­
ralmente hay economías irreversibles de escala que permiten una produc­
ción más eficiente si se retorna nuevamente a la escala menor. El no cum­
plimiento del segundo requisito con frecuencia se expresa mediante una
tirase como “movimientos a lo largo de la función de producción no pueden
distinguirse de los movimientos de la función de producción”.[61] Y el mo­
delo representado en la figura 4 muestra que incluso el tercer requisito no
se cumple en un modelo con “aprender haciendo”. Operar dentro de un
conjunto de posibilidades tiene el efecto de cambiar al conjunto mismo. Es
claro que si se aceptan estas objeciones, el concepto de la función de pro­
ducción puede perder su borde filoso analítico. Cuanto pierde dependerá
de la velocidad relativa de los procesos actuantes y del propósito del análi­
sis, ya que puede ser posible tratar una frontera que se mueve lentamen­
te como si estuviera en reposo para los propósitos de una adaptación a cor­
to plazo. Otra posibilidad —indicada por los problemas análogos que sur­
gen en el caso de la función de utilidad [62]— sería señalar la función de
producción mediante la práctica en uso y suponer a) que las empresas eli­
gen la práctica para el instante t+1 según la función correspondiente a la
práctica utilizada en el instante t y b) que una función correspondiente a
la práctica <+l también surge de un modo bien determinado.
Ahora el modelo de la figura 4 puede utilizarse, primero, para expli­
car cómo un factor de sesgo en el cambio tecnológico puede surgir sin cam­
biar las tendencias en los cocientes factor-precio. Según Habakkuk [63] y
David, suponemos que los movimientos de la tecnología en el siglo XIX a lo
largo de la recta fj capital-intensivo eran inherentemente más veloces que
los movimientos a lo largo de la recta a. Esto equivale a decir que la faci­
lidad de innovación es inherentemente mayor en un extremo del espectro
que en el otro. Sin embargo, no debemos requerir conocimiento empresa­
rial acerca de la facilidad relativa de innovación pues las empresas inno­
van local y neutralmente en cualquier parte del espectro en que se en-

138
Figura 4. Aprendizaje localizado y el sesgo global del progreso tecnológico.

cuentren. (Así el modelo de David no debe enfrentarse al problema de los


microfundamentos que observamos en conexión con el modelo de Ken­
nedy analixado enel capítulo 4.) Más aun, suponemos que el cociente fac­
tor-precio no muestra una tendencia total, sino que fluctúa en torno de un
nivel constante. Por lo tanto, el cambio tecnológico en total ahorra traba­
jo ya que se producen más innovaciones cuando los precios favorecen las
prácticas en la parte capital-intensivo del espectro que cuando fomentan
métodos de trabajo-intensivo. Tiempos iguales con cocientes salarios-ga­
nancias altos y bajos no implican igual cantidad de innovaciones en capi­
tal-intensivo y trabajo-intensivo ya que suponemos que hay más innova­
ciones cuando la economía está en una etapa de salarios altos.
La aplicación más importante del modelo y el propósito para el cual se
construyó es la explicación de las diferentes tendencias del cambio tecno­
lógico en los Estados Unidos (una región de salarios altos) y en Gran Bre­
taña (una región de salarios bajos) durante el siglo xix. Si en el primer
país el cambio tecnológico progresa a lo largo de la recta P y en el segundo
a lo largo de la recta a, entonces su función de producción fundamental
compartida (suponiendo que cada país tiene libre acceso al conocimiento
tecnológico básico del otro, a través de la migración de ingenieros, etc.) se
desviará hacia el origen en una dirección ahorro de trabajo, ya que el mo­

139
vimiento a lo largo de la recta |3 es más rápido que en la recta a. Entonces
observaremos dos cosas. A través del tiempo veremos que los productores
británicos se embarcan en innovaciones de ahorro y trabajo, pues tienen
acceso a una “función de producción” que se desvía en la dirección ahorro
de trabajo. Transversalmente, observaremos que las prácticas británicas
en cualquier momento son menos capital-intensivo que las estadouniden­
ses pues en los precios de factores británicos la práctica |3rara vez será la
óptima, si es que llega a serlo. (Aquí el caso es diferente del que se conside­
ró anteriormente porque no estamos manteniendo — como en la figura 4—
constante la práctica a a medida que la práctica 3 se mueve hacia el
origen.)
Esta es una explicación de cómo un alto cociente de salarios-ganan­
cias va junto con una tendencia de ahorro de trabajo en el cambio tecnoló­
gico. La demostración gira en tom o de los supuestos de a) sustitución
racional (o sustitución-cum-innovación), b) progreso tecnológico local neu­
tral y c) progreso local inherentemente más veloz en la parte más capital-
intensivo del espectro. Sobre esta base David llega a la conclusión de que
los teóricos neoclásicos trataron en vano de probar mediante el método
más directo de demostrar la racionalidad de la tendencia misma. No ten­
go comentarios sobre los supuestos a) y c), pero hay cierto interés metodo­
lógico en el argumento de David para el fundamental supuesto b).
En primer lugar David argumenta a favor de la neutralidad del cam­
bio tecnológico a partir del Principio de la Razón Insuficiente. Como no
hay razón para creer que aprender haciendo tenga una tendencia consis­
tente en dirección alguna, podemos representarla como un paseo aleato­
rio en el que un desvío a la izquierda (en la dirección ahorro de trabajo) es
tan probable como un desvío igualmente proporcional hacia abajo (en la
dirección ahorro de capital). Esto significa que puede esperarse que el
cambio tecnológico sea neutral, es decir, que el medio estará en la recta al
origen. Pero como la variación de un paseo aleatorio irrestricto es desven­
tajosamente grande, y de hecho aumenta con la cantidad de pasos, David
agrega que el proceso de cambio local neutral está obligado a operar den­
tro de las “barreras elásticas” representadas por las dos líneas punteadas
a cada lado de la recta 3 en la figura 4.
El núcleo de la teoría de David probablemente sea la justificación tec­
nológica de este postulado. Para decirlo brevemente, afirma que hay “in­
terrelación tecnológica (complementariedad) entre las subactividades”
comprendidas en una práctica dada, de modo que un cambio de ahorro de
factores en una subactividad provoca un cambio de uso de factores en
otra.[64] A pesar de ello, no tengo competencia para analizar la suficien­
cia empírica de esta idea, pero evidentemente es el lugar en que el histo­
riador de la tecnología desearía focalizar su atención.
El lector recordará que Nelson y Winter no le adjudican a la empresa
conocimiento alguno acerca de cualquier práctica salvo la que está en uso.
David no le adjudica conocimiento a toda la función de producción neoclá­
sica, pero supone que la empresa tiene acceso a diversas prácticas y elige
racionalmente entre ellas. Por lo tanto, podría parecer que la separación
de David de la teoría neoclásica es menos extremista que la de Nelson y

140
Winter. Yo estoy dispuesto a afirmar esto, al mismo tiempo que agrego
que este concurso en heterodoxia es de un interés limitado. A pesar de
ello, sería instructivo estudiar el argumento de David para la idea de que
el trabajo de Nelson y Winter es “fundamentalmente neoclásico en espíri­
tu”. ^ ]
David califica a su propio enfoque como evolucionista e histórico.
Mientras que está de acuerdo en que la teoría de Nelson-Winter también
es evolucionista, niega que sea histórica. Debido a la falta de un “concepto
genuinamente histórico del crecimiento económico como un suceso irrever­
siblemente evolucionista”, su modelo no es una alternativa para la tradición
neoclásica, de la que sólo diñere en el concepto de conducta de microeco-
nomía. En la explicación de David de lo que quiere decir por “modelo
histórico”, el pasaje clave es el siguiente: “ a diferencia de la gran clase de
modelos económicos dinámicos y estáticos inspirados en la mecánica clá­
sica, el futuro desarrollo del sistema no sólo depende del estado actual si­
no también del modo en que se desarrolló el estado actual” . El enfoque de
Nelson-Winter no satisface este requisito ya que ellos basan su teoría en
los procesos de Markov, que son “analogías probabilísticas de los procesos
de la mecánica clásica”. Esto se reñere al hecho, explicado en el capítulo 1,
de que en un modelo de Markov las probabilidades de transición solamen­
te dependen del estado actual y no de estados previos del sistema.
Se deduce directamente del análisis del capítulo 1 que —y por qué—
este argumento es incorrecto. David toma como ejemplo la histéresis en
un sentido sustancial, como si el pasado pudiera tener una influencia cau­
sal sobre el presente sin mediar una cadena de eslabones localmente cau­
sales. En esto sigue a Georgescu-Roegen, a quienes cita con aprobación.
Pero, como se dijo antes, esta idea es contraria a todos los cánones del mé­
todo científico. Algunas veces sería conveniente representar un proceso
como si el pasado pudiera tener efecto directo sobre el presente, pero si se
rechaza la acción a distancia hay que creer que ésta sólo puede ser una
ficción útil. Si un modelo es histórico en el sentido de David, es una des­
ventaja, no una ventaja. Cada vez que se tiene un “modelo histórico”, de­
bería ser un desafío seguir adelante y eliminar la historia transformándo­
la en variables de estado. Y por supuesto el hecho de que el progreso local
opera dentro de un medio que está moldeado por el progreso pasado no es­
tá aquí ni allá. Es simplemente tan cierto de la teoría de Nelson Winter
como de la de David. Tampoco sería cierto decir que los modelos de Nel­
son-Winter son insensibles a las diferencias en las condiciones iniciales.
Por el contrario, demuestran que incluso con condiciones iniciales idénti­
cas pueden divergir desarrollos ulteriores y a fortiori esto debe valer con
diferentes configuraciones iniciales. Concluyo que las objeciones metodo­
lógicas de David a la teoría de Nelson-Winter están mal orientadas, una
conclusión que solamente se ve reforzada por su extraño contraste entre
las teorías “darwinianas” y “mendelianas” del cambio tecnológico. No es
necesario decir que de ningún modo esto interfiere con la comparación
empírica y teórica entre ambas teorías.

141
7

Las teorías marxistas

Marx sostenía que el cambio tecnológico — el desarrollo de las fuerzas


productivas— era el principal motor de la historia. Su concepción de la
historia era no sólo de tipo económico sino también de carácter tecnológi­
co. El hombre es un “animal hacedor de herramientas”.[1] “No son los ar­
tículos fabricados, sino cómo se los fabrica y mediante qué instrumentos,
lo que nos permite distinguir las distintas épocas económicas.”[2J Y la de­
claración más autoritaria acerca del materialismo histórico — el Prólogo a
la Crítica sobre la economía política — no nos deja dudas sobre el rol abso­
lutamente central del cambio tecnológico en la historia. Por otra parte, la
meta de la historia — el estado final que justifica teleológicamente (¿y lo
explica?X3] el sufrimiento de la humanidad— es una sociedad en la cual
“el desarrollo libre, sin obstrucciones, progresivo y universal de las fuer­
zas de producción”[4] finalmente se ve realizado. Efectivamente no existe
ningún otro teórico social de importancia que haya asignado semejante
importancia al cambio tecnológico. Y al no haber ningún otro teórico so­
cial cuyas opiniones hayan tenido semejante impacto, no hay necesidad
de justificar el presente capítulo.
El capítulo tratará principalmente, pero no de manera exclusiva,
acerca de Marx. No hay muchos escritos marxistas posteriores acerca del
cambio tecnológico que hayan contribuido al avance teórico, con la princi­
pal excepción de la obra de los teóricos sobre “el proceso de trabajo” que se
analiza más adelante. Procederé de la siguiente manera. Primero, anali­
zaré lo que puede denominarse, en forma un tanto anacrónica, la noción
de Marx acerca de la función de producción a nivel de empresa o indus­
tria. (Lo dicho aquí vale exclusivamente para el capitalismo, dado que
Marx no analiza formas anteriores de producción en esta densa red con­
ceptual.) El análisis puede parecer excesivamente largo, pero creo que es­
tá justificado por la falta (a mi entender) de un buen análisis acerca de la
opinión de Marx sobre el tema. En segundo lugar, abordaré su explicación
sobre la velocidad y dirección del cambio tecnológico en el capitalismo.
Aquí tendré ocasión de analizar la “opinión acerca del proceso de trabajo”
mencionada anteriormente. En tercer lugar, resumiré brevemente su teo­
ría sobre la tasa decreciente en las ganancias y algunas de las controver­
sias que la rodean. Y finalmente abordaré la teoría histórica más amplia
sobre la interrelación existente entre las fuerzas productivas y las relacio­
nes de producción. Aquí nuevamente la exposición será bastante breve,
dado que se ofrece un estudio más detallado en el apéndice 2.
142
a. ¿Creía Marx en los coeficientes fijos de producción?

Suele considerarse que Marx favorecía la opinión de que la producción


(en la industria)[5] tuvo lugar con coeficientes fijos de producción.[6] De­
seo argumentar aquí que esta interpretación es engañosa e incluso erró­
nea. Para analizar esta interpretación, debemos darle primero una forma
más precisa. Si escribimos “mín (x, y, z...)” para la función que elige los nú­
meros más pequeños entre x, y, z,..., la fúnción de producción con coefi­
cientes fijos toma la forma:

q = mín (a,x,, a^Xj... a ^ (1)

donde las x son los montos de los diversos factores de producción y las a
son constantes. En otras palabras, existen rígidas complementaciones
técnicas entre los factores de producción, algo así como las que existen en­
tre las piezas de un rompecabezas. Si uno tiene dos piezas número 78 en
el rompecabezas y 1000 unidades de todas las demás piezas, pueden ar­
marse sólo dos rompecabezas completos, y todas las demás piezas son to­
talmente inútiles. Esto implica: 1) que toda cantidad extra de cualquier
input (en una situación inicial en la que a, x, = a_ Xj... = an xn) da un incre­
mento cero en el output, y 2) que un quite del t% de cualquier input
(respecto de la misma situación inicial) implica una reducción del t% en el
output. No hay ningún “producto marginal” y no es posible la sustitución
entre factores.
Los coeficientes fijos de producción implican también retornos cons­
tantes a la escala. Sin embargo, no existe una conexión lógica entre las
complementaciones rígidas y los constantes rendimientos a escala. Para
ver esto, podemos introducir el concepto de proporciones fijas de produc-
ción.[7] Definimos este concepto manteniendo la expresión (1), y haciendo
que los coeficientes de proporcionalidad dependan del nivel del output:

aj = f ( q i) (2)

Podemos también establecer la siguiente condición:

fi( q o ) _ f j ( q i )
para todo i, qo, q, (3)
fn(qo) fn(Qi)

La condición (2) establece que para todo nivel dado de output q, existe
una y sólo una combinación eficiente de input, es decir, exactamente una
combinación en la cual no hay inactividad. Vale decir, los factores de pro­
ducción deben emplearse en determinadas cantidades definidas si se de­
sea un determinado output sin desperdicio. Para estas cantidades n co­
rresponde también el factor-relación n-1. La condición (3) establece que
estas relaciones son las mismas para todos los niveles de output. Tome­
mos un ejemplo numérico, donde n=2. Imaginemos que con 2 unidades de
x, y 1 unidad de x, podemos producir eficientemente 10 unidades de
output. Si sólo imponemos la condición (2), resulta concebible que la com­

143
binación eñciente de input necesaria para producir 40 unidades sea 6 uni­
dades de x, y 4 unidades de x¡. Si además imponemos la condición (3), es­
ta posibilidad queda excluida. Resultaría, sin embargo, compatible con
las condiciones (2) y (3), si para la producción eñciente de 40 unidades, se
necesitan 6 unidades de x, y 3 de x^ dado que entonces el factor-relación
es 2:1 en ambos niveles de ouípuí, como lo exige la condición (3). Obsérve­
se que la producción en este caso no tendría lugar con rendimientos cons­
tantes a escala a pesar de que existirían proporciones fijas de producción.
Sin embargo, si imponemos la condición (1) y tomamos las a como cons­
tantes independientes del output, entonces 40 unidades sólo pueden pro­
ducirse en forma eficiente con 8 unidades de x} y 4 unidades de x^, dado
que ahora tendrá que haber rendimientos constantes a escala.
A estos conceptos puede dárseles también una simple interpretación
geométrica. El hecho de que existan complementaciones rígidas en la pro­
ducción significa que todos los isocuantos tienen la forma de ángulos rec­
tos paralelos a los ejes. Si tenemos coeficientes fijos de producción, necesi­
tamos sólo la unidad de isocuantos para representar las posibilidades de
producción. Si sólo necesitamos proporciones fijas de producción (cumpli­
das las condiciones (2) y (3)), podremos necesitar más que la unidad de
isocuantos para representar la función de producción, pero sabemos que
todos los ángulos de los isocuantos se hallan en una línea recta a través
del origen. Sin embargo, si sólo imponemos la condición (2), los isocuantos
no tendrán en general los ángulos en una línea recta desde el origen. Uti­
lizaré el término coeficientes variablemente fijos de producción para el
caso en donde imponemos la condición (2) pero no la condición (3) y de­
mostraré que este concepto ofrece una mejor (aunque aún incompleta)
aproximación a la teoría de Marx que la hipótesis habitual de que Marx
favorecía la teoría de los coeficientes fijos. Echemos una mirada a algunos
de los textos más importantes sobre esto. En determinado lugar, Marx se
refiere (en forma ambigua) a la complementación estricta entre el trabajo
y los medios de producción:
La cantidad de los medios de producción debe ser suficiente para absorber la
cantidad de trabajo, para ser transformada por éste en productos. Si los me­
dios de producción disponibles son insuficientes, el exceso de trabajo a dispo­
sición del comprador podría no ser utilizado y su derecho a deshacerse de él
sería inútil. Si existieran más medios de producción que trabajo disponible,
los mismos no estarían saturados con trabajo y no se transformarían en pro-
ductos.[8]
Existe aquí una leve ambigüedad, dado que M arx no dice en tantas
palabras que exista una estricta proporcionalidad que determine la satu­
ración de los factores. Considérese, sin embargo, el siguiente pasaje:
La división del trabajo, como se llevó a cabo en la fabricación no sólo simpli­
fica y multiplica las partes cualitativamente distintas del trabajador colecti­
vo social, sino que crea también una relación matemática fija o proporción
que regula el alcance cuantitativo de esas partes, es decir, el número relati­
vo de trabajadores o el tamaño relativo del grupo de trabajadores, para cada
operación en particular.[9]

144
Esto es aplicable a la relación entre los obreros en la fabricación. Exis­
te un principio similar para la relación entre las máquinas en la tecnolo­
gía industrial o maquinofabricación;

Al igual que en la fabricación, la cooperación directa de loe trabajadores mi­


noristas establece una proporción numérica entre los grupos especiales, de
modo que en un sistema organizado de maquinarias, en donde un minorista
se mantiene constantemente empleado por otro, se establece una relación fi­
ja entre sus números, tamaño y velocidad.[10]

Y finalmente hay un pasaje en el cual se manifiesta con total genera­


lidad el principio de complementación:

[La composición técnica del capital es una proporción que] descansa sobre
una base tecnológica y debe ser considerada como dada en una cierta etapa
del desarrollo de las fuerzas productivas. Se necesita una cantidad definida
de mano de obra representada por un número definido de trabajadores para
producir una cantidad definida de productos en, digamos, un día y —lo que
es evidente— para consumirlos en forma productiva, es decir, para poner en
movimiento una cantidad definida de medios de producción, maquinaria,
materia prima, etc.[ll]

Aquí Marx relaciona explícitamente las cantidades fijas de input


— las cantidades definidas— con el nivel de output, como en la condición
(2) mencionada anteriormente, dejando abierta la posibilidad de que las
proporciones en las que se emplean los factores puedan variar según el ni­
vel de output. Citaré ahora dos pasajes en los que se afirm a esto en forma
explícita. En primer lugar, respecto de las maquinarias:

En una fábrica grande con uno o dos motores centrales, el costo de estos mo­
tores no aumenta en la misma relación que su potencia en caballos de fuerza
y, por ende, que su posible esfera de actividad. El costo del equipo de trans­
misión no crece en la misma relación que el número total de las máquinas
que pone en funcionamiento. El bastidor de una máquina no se vuelve más
costoso en la misma proporción que el número creciente de herramientas
que emplea como sus órganos, etc.[12]

En segundo lugar y lo que es más importante, respecto de la relación


entre maquinaria y trabajo:

[La] concentración de trabajadores y su cooperación a gran escala ahorra ca­


pital constante. Los mismos edificios y artefactos de calefacción e ilumina­
ción, etc., cuestan relativamente menos para la producción a gran escala que
para la de pequeña escala. Lo mismo vale para la fuerza motriz y la maqui­
naria. Si bien el valor absoluto aumenta, disminuye en comparación con la
creciente extensión de la producción y la magnitud del capital variable o la
cantidad de mano de obra en actividad.[13]

Aquí se pone énfasis en el hecho de que en la producción a gran esca­


la los costos unitarios se reducen y las proporciones entre los factores

145
cambian (aunque sean rígidas en cada nivel de producción). De hecho, en
el último pasaje también afirma que la producción a gran escala es más
intensiva laboralmente hablando que la producción en pequeña escala.
Esto indica que Marx no se ocupa aquí de las economías de escala origina­
das en el proceso tecnológico, dado que, en su opinión, eran en gran parte
de capital intensivo, como .se tratará de demostrar más adelante. Mas
bien, creo, Marx tiene en mente las economías de escala que surgen de
una tecnología determinada.
Marx, entonces, negaba la idea de que los factores de producción pu­
dieran reemplazarse entre sí dentro de una tecnología determinada. En
esto estaba evidentemente equivocado. Con frecuencia existen posibilida­
des de reemplazo intertecnológicas, como en el ejemplo de la electrólisis
que se ofrece en la introducción de la segunda parte. Por otra parte, para
aseverar esto, no es necesario creer en la historia absolutamente neoclási­
ca del reemplazo fluido a lo largo de un i socuanto. Para refutar a Marx es
suficiente citar los casos en que un nivel dado de output puede producirse
en forma eficiente con dos combinaciones de inpui. Tampoco creo que pue­
da defenderse a Marx apelando a modelos de satisfacción o “de arcilla”.
Cuando Marx argumentaba que las empresas solamente conocían los pro­
cedimientos que en ese momento utilizaban, lo hacía porque consideraba
que en todo momento dado existía una única tecnología eficiente, no
porque no resultara redituable para las empresas adquirir conocimientos
sobre otras tecnologías. Y se bien es cierto que las posibilidades de reem­
plazo se ven muy reducidas ex post, en comparación con lo que se puede
hacer ex ante en el tablero de dibujo, no creo que pueda atribuirse esta dis­
tinción a Marx, ni que sea suficiente justificar su negativa acerca de los
reemplazos. Seguramente siempre hay algunas posibilidades de reempla­
zo ex post, por ejemplo entre el trabajo y las materias primas. Con salarios
altos puede resultar óptimo (es decir, con máximas ganancias) aceptar un
cierto desperdicio de materia prima en lugar de contratar m ás obreros pa­
ra reducir el desperdicio.
Por el otro lado, Marx conocía perfectamente las posibilidades del re­
emplazo intertecnologías, como demuestra en el siguiente pasaje:
En algunas ramas de la industria lanera en Inglaterra, el empleo de niños se
ha reducido considerablemente en los últimos años, y en algunos casos ha
sido totalmente abolido. ¿Por qué? Porque las Leyes para Fábricas hicieron
necesarias dos clases de niños, unos que trabajen seis horas y los otros
cuatro, o ambos cinco horas. Pero los padres no quisieron vender a los de
“media jomada” más baratos que a los de “jomada completa”. De ahí el
reemplazo por máquinas de los de “media jomada”... Losyankees inventaron
una máquina rompepiedras. Los ingleses no la utilizan porque el “pobre des­
graciado” que hace este trabajo recibe por su trabajo una paga tan baja que
la máquina incrementaría el costo de la producción al capitalista.[14]
Marx también cita con aprobación el siguiente pasaje de John Barton:
La demanda de trabajo depende del incremento del capital circulante y no
del capital fijo. Si fuera verdad que la proporción entre estos dos tipos de ca­
pital es siempre la misma en todo momento y en toda circunstancia, enton­

146
ces, sin duda s« infiere que el número de trabajadores empleados está en re­
lación a la riqueza de la empresa. Pero tal proposición no tiene visos de pro­
babilidad. A medida que se cultivan las artes y se extiende la civilización, la
proporción entre el capital fijo y el circulante es cada vez mayor. El monto de
capital fijo utilizado en la producción de una pieza de muselina británica es
por lo menos den, quizá mil veces superior al utilizado en una pieza similar
de muselina india.[15]

Y finalmente, tenemos esta profunda observación:

[La diferenda entre el predo de la maquinaria y el precio de la mano de obra


reemplazada por dicha maquinada es] lo que determina el costo, para el ca­
pitalista, de fabricación de una mercancía y, mediante la presión de la com-
petenda, influye en su accionar. De ahí la invención, hoy en día, de máqui­
nas en Inglaterra que se utilizan únicamente en Norteamérica; así como en
los siglos dieciséis o diecisiete se inventaban máquinas en Alemania que só­
lo se usaba en Holanda, y así como muchos de los inventos franceses del siglo
dieciocho se explotaban solamente en Inglaterra. En países más antiguos, la
máquina, al ser empleada en algunas ramas de la industria, crea tal redun­
dancia de trabajo en otras ramas, que en estas últimas la caída de los sala­
rios por debajo del valor de la mano de obra impide el uso de la maquinaria,
y desde el punto de vista del capitalista, cuya ganancia proviene, no de una
disminución del trabajo empleado sino de lo que paga por dicho trabajo, la
convierte en algo superfluo y a menudo imposible de usar.[16]

No cabe duda de que Marx, en estos pasajes, deja implícito que el ca­
pitalista tiene una “elección de técnicas” y que efectúa esa elección basán­
dose en los precios relativos. ¿Por qué, entonces, tantos autores — entre
los que me incluyo— [17] afirmaron sin mayor evidencia ni argumento
que Marx negaba la posibilidad de la elección tecnológica? Creo que exis­
ten tres razones principales.
En primer lugar, la bibliografía ignora absolutamente la distinción
entre técnica y tecnologfa.[18] Dado que Marx niega explícitamente la po­
sibilidad de elección y reemplazo intertécnicas, resulta perfectamente na­
tural inferir que niega la posibilidad de todo tipo de elección. De hecho,
parecería que entre los hombres que escriben sobre la tecnología, Marx
está entre los pocos que han visto la necesidad de una estructura en tres
hileras de tecnología, a pesar de que confundió la cuestión al negar la elec­
ción intertécnicas. Sin embargo, sí reconoció la variación intratécnicas,
cuando argumentó que una técnica dada no consiste en una sola práctica
operada en diversos múltiplos dependiendo del nivel de output, sino que
involucra un cambio de práctica cuando se incrementa la escala de opera­
ción. Y, como acabo de argumentar, decididamente reconoció que existen
elecciones intertécnicas que deben realizarse.
La segunda razón por la cual muchos escritores han atribuido a Marx
una teoría de los coeficientes fijos de producción, excluyendo todo tipo de
elección técnica, es que sin un supuesto de ese tipo, la teoría laboral del
valor— en una de las tantas interpretaciones de esa frase— [19] pierde vi­
gencia. Marx estaba fuertemente comprometido con el principio de que
los valores laborales tienen prioridad ante los precios, en el sentido de que

147
es necesario conocer los valores a fin de determinar los precios, pero no vi­
ceversa. Puede demostrarse que la primera parte de esta afirmación es
inequívocamente falsa, en cualquier supuesto acerca de la tecnología.[20]
Sin embargo, la parte “pero no viceversa” de la afirmación es verdadera en
un modelo con coeficientes fijos, pero no funciona en un modelo con cam­
bio tecnológico. Esto es así debido a que las elecciones entre tecnologías
eficientes sólo pueden realizarse sobre la base de los precios factores, lo
cual significa que primero se deben determinar las tecnologías y los pre­
cios en forma simultánea, y sólo después se podrá estar en condiciones de
deducirlos valores laborales de las tecnologías. Por otra parte, pueden exis­
tir múltiples equilibrios de precios compatibles con los datos tecnológicos
dados y con el paquete de salario real y mercancía dado, y cada uno de es­
tos equilibrios puede dar lugar a un juego distinto de valores laborales pa­
ra las mercancías. [21] Existen, por lo tanto, fuertes presiones teóricas
dentro del sistema marxista en la búsqueda de un supuesto de coeficien­
tes fijos.
La tercera razón tiene que ver con la resistencia de muchos marxistas
a apelar a explicaciones de elección racional. Existe una creencia muy di­
vulgada, si bien difusa, respecto de que tales explicaciones incluyen un
elemento subjetivo que resulta incompatible con el materialismo marxis-
ta.[22] Creo que no hay tal incompatibilidad; y aunque la hubiere, tanto
peor para el marxismo. No hay necesidad de discutir el problema muy en
profundidad, dado que Marx, en su propia práctica, muestra que no es de
ningún modo contrario a la explicación de elección racional en la econo­
mía. La teoría laboral del valor tiene como postulado fundamental la
ecualización de las tasas de rentabilidad en todos los sectores, lo cual su­
cede solamente debido a que los capitalistas mueven el capital hacia la in­
dustria que en un momento determinado tiene la tasa más alta de renta­
b ilid a d .^ ] Esto, con seguridad, es un comportamiento optimizador, no
satisfactorio. Ni es compulsivo el comportamiento del capitalista, en el
sentido de que el comportamiento de consumo de los obreros a comienzos
del capitalismo puede decirse que fue compulsivo. Si la limitación presu­
puestaria y la limitación en calorías juntas son lo suficientemente fuertes
como para reducir el conjunto posible de opciones a un único paquete de
consumo, entonces toda conversación acerca de una elección racional re­
sulta redundante y fácilmente ideológica. Pero los empresarios capitalis­
tas sí tenían verdaderas posibilidades de elección, con respecto al nivel
del output y a la combinación de inputs.

b. La velocidad y dirección del cambio tecnológico

Me referiré ahora a los “micromotivos y macrocomportamiento” invo­


lucrados en la teoría marxista del cambio tecnológico bajo el capitalismo.
Al igual que en capítulos anteriores, nos interesa la velocidad y la direc­
ción del cambio tecnológico.
La clásica explicación marxista de la velocidad de innovación es muy
simple: los capitalistas innovan porque están forzados a ello por la compe­

148
tencia, y pueden innovar porque pueden girar sobre un capital de inven­
tos, es decir, sobre la ciencia. Puesto que Marx tiene poco que decir sobre
la ciencia,[24] sólo abordaré el primer tema. El capitalismo es un sistema
dinámico, en el sentido de que los empresarios tienden a reinvertir parte
de sus ganancias en nueva producción. Esto no surge como consecuencia
de la propiedad privada en los medios de producción y del trabajo asala­
riado, puesto que el capitalista podría perfectamente utilizar sus ganan­
cias para acumularlas o para un consumo suntuoso. Sin embargo, Marx
postula que esto no será así. Puede considerarse este postulado como psi­
cológico o institucional, dependiendo del período que se esté analizando.
En una etapa inicial, debe de haber existido algún motor psicológico que
haya vuelto al empresario sediento de cantidades crecientes de superávit,
pero posteriormente no tuvo más opción que reinvertir para poder sobre­
vivir en la competencia. (Esta distinción sólo la hace en forma explícita
Weber,[25] pero creo que también tiene sentido para lo que Marx dice so­
bre temas similares.)
En una etapa más temprana del capitalismo, la reinversión podía
ocurrir sin un cambio tecnológico, siempre que hubiera sectores precapi­
talistas en los que invertir y expandirse. Sin embargo, una vez que el mo­
do capitalista de producción penetra la economía en su totalidad —y sin
consideración de las empresas imperialistas y colonialistas— la reinver­
sión no puede llevarse a cabo en forma indefinida en base a una tecnología
constante. Leyendo un poco a Schumpeter en Marx, podemos observar
que esto es así porque la demanda de los bienes de consumo existentes en
última instancia se satura, al menos con los precios vigentes. Asimismo,
manteniéndonos más apegados a Marx, en última instancia se desarrolla­
rá una escasez de trabajo, al menos si (y mientras que) la tasa de creci­
miento de la fuerza laboral se encuentre por debajo de la tasa de reinver­
sión. En consecuencia, la saturación de productos en el mercado y la
presión en el mercado laboral obligarán al capitalista a innovar, tanto pa­
ra poder vender sus productos a un precio razonable como para bajar sus
costos. Es posible observar la innovación de productos así como también
la innovación de los procesos, dado que la saturación puede surgir tanto
por la producción de nuevos tipos de mercancía como por la producción
más barata de las anteriores. Repito que hay muy poco en Marx acerca de
que la innovación sea inducida poruñ a saturación en la demanda, pero se
ajusta bien a la historia que él cuenta. Por el contrario, es posible que
Marx sí viera que el alza de los salarios lleva a innovar, aunque tendre­
mos que analizar con mayor detenimiento su argumentación.
Existe, entonces, una presión inexorable hacia la innovación. La cues­
tión para el capitalista individual y para el sistema capitalista es la si­
guiente: innovar o perecer. El capitalista individual confronta una situa­
ción en la cual todos los demás innovan, y por lo tanto está condenado si él
no lo hace. El sistema confronta una situación en la cual si hay poca inno­
vación, la saturación de la demanda y los salarios crecientes comprimirán
la tasa de rentabilidad por debajo del mínimo que los capitalistas están
dispuestos a aceptar. Como veremos más adelante, Marx argumentaba
que aun con innovación — y debido a ella— la tasa de rentabilidad tende­

149
rá a caer. El sistema, de hecho, está condenado si innova y condenado si no
lo hace. Posponiendo este tema por el momento, permítaseme observar
que no es la necesidad de innovación del sistema lo que obliga al capitalis­
ta individual a innovar. Suponer esto significaría caer víctimas del pensa­
miento teleológico y de la explicación funcional. El empresario individual
invierte e innova porque resulta racional para optimizar las ganancias o
necesario para la supervivencia.
Estos son argumentos muy generales y amplios, que no nos dicen
mucho de la velocidad del cambio tecnológico que efectivamente se obser­
vará. Sin embargo, Marx ofrece un importante argumento analítico que
pesa en forma directa sobre la velocidad del cambio tecnológico bajo el ca­
pitalismo, en comparación con el que podría observarse en una sociedad
comunista. En un pasaje citado anteriormente, Marx afirma que la ga­
nancia capitalista proviene “no de la disminución del trabajo empleado,
sino del trabajo por el que se ha pagado” . Y añade en una nota a pie de pá­
gina; “Por lo tanto, en una sociedad comunista se daría un alcance muy
distinto al empleo de la máquina del que se le da en una sociedad burgue­
sa” .[26] La cuestión es que en ciertos casos las nuevas tecnologías que se­
rían superiores desde el punto de vista de la minimización del trabajo no
lo son desde el punto de vista de la optimización de las ganancias. Para un
análisis más detallado de la relación entre cambio tecnológico “viable” o
reductor de costos y “progresivo” o reductor de trabajo, el lector deberá re­
ferirse al libro reciente de John Roemer.[27] Aquí ilustraré la idea me­
diante un simple ejemplo, que también será útil para explicar algunos de
los aspectos de la “controversia de capitales” mencionada en capítulos an­
teriores.
Supongamos que tenemos una economía que produce un solo bien (de
consumo) final. Esto puede hacerse utilizando la Práctica I o Práctica II,
cada una de las cuales involucra un tipo particular de bien (de capital) in­
termedio. Escribamos para la Práctica I las ecuaciones que determinan la
relación de precios y la tasa de rentabilidad, suponiendo que conocemos
los coeficientes tecnológicos y el salario real. A fin de producir un unidad
del bien de capital necesitaremos an unidades del bien de capital y a12
unidades de trabajo. A fin de producir una unidad del bien de consumo ne­
cesitaremos a,, unidades de capital y a^ unidades de trabfyo. Fijamos el
precio del bien de capital en un valor equivalente a 1 por convención, da­
do que solamente nos interesan los precios relativos. El salario real (en
unidades de bienes de consumo) es w, la tasa de rentabilidad es r, y el pre­
cio del bien de consumo es p. Suponemos — contrariamente a Marx, pero
perdiendo poco del carácter general para este objetivo— que el capitalista
no calcula las ganancias por adelantado para los salarios. Podemos esta­
blecer las siguientes condiciones de equilibrio;

a1, (1+r) + at2.w.p = 1


a2J (1+r) + a^xv.p = p

Cada ecuación dice que los salarios + el capital + la ganancia sobre el


capital debe ser igual al precio. De estas ecuaciones podemos determinar

150
r y p en términos de los coeficientes tecnológicos. En particular, podemos
obtener una expresión analítica explícita de r como fiinción de w. En un
sistema de coordenadas, midiendo w en el eje horizontal y r en el eje ver­
tical, esta relación dará un gráfico de curva descendente, que puede ser o
no una línea recta (La importancia de esto se aclarará posteriormente.)
En la figura 5 he dibujado dos de estas curvas, dándoles forma de líneas
rectas para mayor simplicidad. Ante cualquier tasa de salarios por deba­
jo de w„, la Práctica I será la más redituable y será elegida por cualquier
empresario para optimizar la tasa de rentabilidad sobre el capital. Ante
salarios por encima de w0, la Práctica II será preferible. Obsérvese ahora
que en términos de minimizar el trabajo, la Práctica II es sin lugar a du-

Figura 5

das superior. Esto es así porque la distancia OA (y la respectiva OB) puede


interpretarse como la cantidad de producción por obrero cuando se utiliza
la Práctica I (y la II, respectivamente): en cualquier punto del eje horizon­
tal la ganancia es cero porque todo el producto neto se va en salarios. Da­
do que la Práctica II permite un mayor output por obrero, también tiene
un menor tiempo de trabajo por unidad de output y en ese sentido es más
"progresiva” que la Práctica I. Sin perjuicio de ello, con salarios bajos, el
capitalista que busque optimizar ganancias preferirá la Práctica I (aun­
que sea socialmente inferior).
Como breve paréntesis, cabe señalar que la linealidad de las curvas
w-r son condición suficiente para que la noción de capital agregado tenga

151
sentido en este simple modelo. Si por lo menos una de las curvas es defor­
ma no lineal, podrá haber múltiples puntos de intersección entre curvas,
de modo que una práctica pueda ser acrecentadora de ganancias con sala­
rios bajos, la otra pueda serlo con niveles de salarios intermedios y la pri­
mera, nuevamente con salarios altos. Esto, a su vez, es incompatible con
la noción neoclásica de que una práctica determinada corresponde a un
único punto en un isocuanto que es convexo respecto del origen (como en
las figura 1 y 2 del capitulo 4 anterior). Como se mencionó anteriormente,
no queda claro con qué frecuencia ocurrirá dicho “recambio* en los casos
empíricos, pero evidentemente no puede uno estar satisfecho esperando
que no se produzca.
Volviendo al tema principal, Marx efectivamente estaba en lo correc­
to al pensar que el comunismo, quedando las demás cosas iguales, sería
superior al capitalismo al introducir la máquina para ahorrar el trabajo
humano monótono. Esto, sin embargo, no resuelve la cuestión Schumpe-
teriana respecto de si las demás cosas en efecto serán iguales. Podría re­
sultar que esta suboptimización dinámica del capitalismo (sumada a la
suboptimización estática introducida por el sistema de patentes) no pue­
da eliminarse sin reducir fatalmente la motivación para innovar. La su­
perioridad del capitalismo con respecto a la búsqueda de nuevas técnicas
podría más que compensar la inferioridad con respecto a la selección de
innovaciones socialmente útiles. Sin embargo, M arx consideraba que el
comunismo sería superior en ambos aspectos. Como se explica más deta­
lladamente en el apéndice 2 más adelante, consideraba que la intensidad
del esfuerzo innovador sería considerablemente mayor bajo el comunismo
que bajo el capitalismo.
Lo que antecede fue argumentado sobre la base de una tasa salarial
determinada y constante. Para algunos salarios, por ejemplo, salarios su­
periores a w0 en la figura 5, los empresarios capitalistas rechazarán las
innovaciones progresivas porque no resultan viables, es decir, no reducen
los costos. Una argumentación ligeramente distinta puede plantearse si
suponemos que algunas innovaciones ocasionarán un cambio en la tasa
salarial y que los capitalistas podrán evaluarlas anticipando este cambio.
Debemos recordar que las innovaciones deben estar “corporizadas” en las
herramientas, maquinarias y diseños de fábricas y que estos últimos, a su
vez, pueden dar forma e influir sobre la conciencia y combatividad de la
clase obrera. Si una innovación dada es viable según la tasa salarial ante­
rior a la innovación, pero no según la tasa salarial que se obtendrá una
vez introducida la maquinaria que la corporiza, cualquier capitalista inte­
ligente se abstendrá de adoptarla. A la inversa, existe la posibilidad lógi­
ca de que un capitalista pueda introducir tecnologías que ex ante resulten
no viables, si ex post inmoviliza la lucha salarial de los obreros. Estas hi­
pótesis conforman el núcleo del “enfoque por proceso laboral” del cambio
tecnológico. En comparación con las teorías analizadas en capítulos ante­
riores, implican un cambio radical de perspectiva. La fuerza laboral no só­
lo está considerada como un “factor de producción” cuyo precio puede es­
tar sujeto a fluctuaciones, sino como una clase cohibida que frustra y se
opone activamente a la obtención del superávit. El capitalista también

152
aparece con un rol diferente. Lo hemos visto sucesivamente como la racio­
nal máquina de calcular de la economía neoclásica, como el “libre Prome­
teo” de Schumpeter y sus seguidores,[28] como el conformista que innova
sólo cuando se ve obligado por las circunstancias, y como el chambón mio­
pe que progresa sólo a través del “ensayo y error”. Ahora parecería que el
empresario se enfrenta no sólo a las fuerzas de la naturaleza y las igual­
mente impersonales fuerzas del mercado, sino que también tiene que tra­
tar en forma directa con los hombres, con quienes se mezcla en un juego
de conflictos opuestos y cooperación.[29]
El origen de esta opinión podrá hallarse en estos párrafos:

En Inglaterra las huelgas han dado lugar normalmente a la invención y apli­


cación de nuevas máquinas. Las máquinas fueron, puede decirse, el arma
empleada por los capitalistas para sofocar la rebelión del trabajador especia­
lizado. La selfactina automática, la mayor invención de la industria moder­
na, dejó fuera de acción a los hilanderos que se encontraban en rebelión. Si
las combinaciones y las huelgas no tenían otro efecto más que el de hacer
que los esfuerzos de los genios mecánicos reaccionaran en contra de ellos, to­
davía estarían ejerciendo una influencia inmensa sobre el desarrollo de la
industria.[30]
Pero la máquina actúa no sólo como un competidor que obtiene lo mejor del
trabajador y se encuentra permanentemente a punto de colocarlo en situa­
ción de superfluo. Es también un poder que se le enfrenta y como tal el capi­
tal lo proclama desde las alturas y como tal hace uso de él. Es el arma más
poderosa para reprimir huelgas, esas periódicas rebeliones de la clase traba­
jadora contra la autocracia del capital. De acuerdo con Gaskell, la máquina
de vapor fue desde los comienzos un antagonista del poder humano, un anta­
gonista que permitió al capitalista oprimir los reclamos de los obreros, quie­
nes amenazaban con una crisis al reciente sistema de fábricas. Sería posible
escribir toda una historia sobre los inventos hechos desde 1830 con el único
fin de ofrecer al capital armas contra las rebeliones de la clase trabajadora.
Entre ellos se destaca en importancia la selfactina automática, porque abrió
una nueva época en el sistema automático.[31]

Esta línea de argumentación ha sido extensamente desarrollada du­


rante la última década. La obra de Harry Braverman, Labor and Mono-
poly Capital, constituye una obra no analítica de mucha influencia.[32]
Más recientemente, las publicaciones Monthly Review (1976), Politics
and Society (1978) y Cambridge Journal o f Economice (1976) han dedica­
do números especiales a este problema. Limitaré mi análisis, sin embar­
go, a tres estudios teóricos efectuados por Amid Bhaduri, Stephen Mar-
glin y John Roemer.
La obra de Bhaduri sobre la agricultura en el subcontinente indio
muestra cómo los terratenientes pueden resistirse a una innovación apa­
rentemente redituable que podría debilitar su dominio extraeconómico
sobre los arrendatarios.[33J En esta economía feudal de aparceros, los in­
gresos de los terratenientes provienen de dos lugares: su participación en
las cosechas y el interés sobre los préstamos por consumo otorgados a los
arrendatarios. La tasa de interés es generalmente muy alta, dado que los
préstamos se otorgan con un arroz valuado con los altos precios precose­

153
cha y se pagan con un arroz valuado con los bajos precios postcosecha. El
efecto de una innovación determinada sobre los ingresos del terratenien­
te tendrá, por lo tanto, dos componentes. En primer lugar, el incremento
en la productividad aumentará el monto de la participación que corres­
ponde al terrateniente. En segundo lugar, no obstante, también aumenta­
rá el monto de la participación del arrendatario, y le permitirá reducir y
quizás eliminar del todo su deuda con el terrateniente, reduciendo así los
intereses que recibe este último. Queda implícito, por lo tanto, que el
terrateniente sólo aceptará los cambios tecnológicos que no reduzcan la
suma total de sus ingresos, es decir, cuyo efecto neto sobre sus ingresos
resulte positivo. Bhaduri también argumenta, sin embargo, que el terra­
teniente se resistirá a cualquier innovación que permita al arrendatario
liberarse de su obligación de deuda, aun cuando esto incremente el monto
de la participación del terrateniente hasta tal punto que el efecto neto so­
bre sus ingresos resulte positivo. Esto es así debido a que la obligación de
deuda es una forma de mantener el porcentaje de participación del arren­
datario en niveles bajos y de hecho constituye una condición esencial para
mantener el poder social del terrateniente. En otras palabras, el terrate­
niente no está solamente interesado en el efecto neto que las innovaciones
tienen sobre sus ingresos, sino también en el efecto a largo plazo.
Más cerca de la propia argumentación de M arx encontramos un ar­
tículo escrito por Stephen Marglin, subtitulado “Los orígenes y funciones
de la jerarquía en la producción capitalista”. La frase “orígenes y funcio­
nes” indica el carácter ambiguo de la obra de Marglin, oscilando entre una
explicación intencional y una funcional de una manera que nuncá queda
del todo clara. Su idea es que la división del trabajo, característica de los
comienzos del capitalismo y el sistema fabril del capitalismo ya maduro
no se introdujeron por su mayor eficiencia tecnológica. Más bien, la divi­
sión del trabajo se introdujo para privar a los obreros del control sobre el
producto de su trabajo, y luego el sistema fabril los privó también del con­
trol sobre el proceso del trabajo. La “función social” de la jerarquía inhe­
rente a la fabricación manual y mecanizada no es la eficiencia tecnológica
sino la acumulación de capital. Se introducen nuevos métodos porque op­
timizan las ganancias, no porque sean tecnológicamente superiores. Es
cierto que el sistema fabril, una vez introducido, resultó ser un vehículo
para la innovación, pero no fue introducido por esta razón ni era en forma
alguna indispensable (en términos tecnológicos) para la innovación.
El artículo de Marglin es conceptualmente sagaz y ofrece cierta evi­
dencia histórica de interés. Sin embargo, en mi opinión, es seriamente
confuso a nivel de las explicaciones. Considérese en primer lugar su opi­
nión acerca de que la división del trabajo fue un ejemplo de “dividir para
reinar”. No queda del todo claro si realmente no tiene en cuenta el efecto
“tertius gaudens” que se menciona brevemente en el capítulo 2, es decir, la
posibilidad del capitalista de explotar un estado de aislamiento entre los
obreros que no tuvo que crear en primer lugar. De hecho, Marglin explica
muy bien por qué el obrero en forma individual no podía integrar su pro­
pio trabajo: no tenía el capital suficiente “para desperdiciar por los erro­
res inherentes al proceso de aprendizaje”.[34] Marglin puede estar en lo

154
cierto cuando argumenta que no existían obstáculos tecnológicos para el
obrero individual que realizaba en serie las operaciones que la fabricación
capitalista realiza en paralelo, pero esto no demuestra que el objetivo o la
función de la empresa capitalista fuera crear un obstáculo institucional.
Tampoco resulta fácil ver cómo podría haberse logrado esto.
Por otra parte, Marglin confunde al lector eligiendo referencias para
comparar que son a veces reales y a veces contrafácticas. Su objetivo ma­
nifiesto es explicar el aumento de la fabricación a mano y a máquina por
medio de su eficiencia de explotación relegando las mejoras tecnológicas a
un segundo plano, y así revirtiendo el tradicional orden de prioridades.
Esta argumentación lógicamente requiere ejemplos confirmativos del
siguiente tipo: la institución A triunfa sobre la institución B porque es
mejor para explotar a los obreros, sin ninguna suporioridad tecnológica
concomitante. En el caso de la transición al sistema fabril, Marglin ofrece
un ejemplo de este tipo, cuando señala el éxito de la fábrica Arkwright en
comparación con la empresa Wyatt-Paul, tecnológicamente equivalente,
que no pudo “sojuzgar la mala disposición de los trabajadores”.[35] Al
analizar la introducción de la división del trabajo en la fabricación, Mar­
glin no ofrece tales ejemplos. Aquí sólo señala la equivalencia tecnológica
de un sistema irreal de fabricación que está bajo la propiedad y el control
de los obreros. Evidentemente esto es irrelevante a los fines explicativos.
Para ellos, el hecho central es que la división capitalista del trabajo fue
más eficiente que el sistema reemplazado, no que fue más explotador que
el sistema irreal. Este último hecho habría sido relevante si el capitalismo
hubiera sido instrumental al evitar que el sistema irreal se convirtiera en
real, pero, como se explicó anteriormente, Marglin no ofrece ninguna base
para esta opinión.
Finalmente, Marglin tiene una actitud un tanto arrogante ante la evi­
dencia que se necesitaría para demostrar que la alienación de los trabaja­
dores ante el trabajo y el producto es una consecuencia del sistema capita­
lista, que también explica el crecimiento de ese sistema. A diferencia de
otros escritores de esta escuela, Marglin confronta explícitamente el pro­
blema de la evidencia:

Una firme evidencia de que la consigna “dividir para reinar” y no la eficien­


cia se encuentra en la raíz de la división capitalista del trabajo, naturalmen­
te, no es fácil de obtener. No es posible realmente esperar que el capitalista
ni nadie con un interés en mantener la jerarquía y la autoridad proclame pú­
blicamente que la producción fue organizada para explotar al obrero. Y el
obrero que fue lo suficientemente agudo para percibir esto, en las sociedades
relativamente móviles en las que la revolución industrial sentó primero sus
raíces, pudo ingresar en las filas de los explotadores.[36]
En otras palabras, queda poca evidencia porque en aquel momento no
hubo nadie que entendiera lo que estaba sucediendo y que tuviera interés
en denunciarlo. Un obrero lo suficientemente astuto como para reconocer
que estaba siendo explotado — por ser tan astuto— se convertiría en un
explotador y por lo tanto seguramente no se quejaría del sistema. Tampo­
co se quejarían aquellos que ya eran explotadores desde un comienzo. Es­

155
to, en mi opinión, es un perfecto ejemplo de las estrategias inmunizantes
que han desprestigiado a las ciencias sociales marxistes en forma casi
universal. No estoy diciendo que Marglin esté equivocado. Sólo estoy obje­
tando el uso de esta afirmación no respaldada como una excusa para dis­
pensar de evidencias sobre los mecanismos y las intenciones. Para ser jus­
tos, cabe agregar que Marglin claramente está preocupado por brindar
pruebas o “ejemplos”. Sin embargo, considero que su actitud ante tal evi­
dencia es sistemáticamente ambigua, debido a una actitud semiiunciona-
lista y semiconspirativa que le permite explicar los fenómenos en térmi­
nos de sus consecuencias sin rebajarse a especificar un mecanismo.
John Roemer trató de incorporar el enfoque del proceso laboral a un
modelo formal de una economía capitalista. En mi opinión no lo logra
aunque resulta interesante. Roemer en primer lugar define la noción de
solución reproducible para una economía capitalista, en donde los traba­
jadores tienen una determinada suma de subsistencia y los capitalistas
optimizan las ganancias, frente a un “conjunto de producción” que permi­
te la elección de tecnologías. En una solución reproducible, el output neto
debería al menos reemplazar el consumo total de los obreros; los outputs
intermedios y los consumos de los trabajadores deben obtenerse del stock
en curso y los precios son tales que permiten que los mercados del input se
aclaren. Luego prueba una versión generalizada de lo que Morishima ha
denominado el “teorema marxiano fundamental”. Dados los supuestos
tecnológicos y de conducta que brevemente se indican más arriba, las si­
guientes afirmaciones son todas equivalentes:

1) Existe un conjunto de actividades productivas que — dada la su­


ma salarial— rinden una tasa positiva de explotación.
2) Existe una solución reproducible que rinde ganancias totales po­
sitivas.
3) Todas las soluciones reproducibles rinden ganancias totales po­
sitivas.
4) Todas las soluciones reproducibles rinden tasas positivas de ex-
plotación.[37]
Luego, Roemer trata de extender este modelo permitiendo que el con­
sumo de los obreros esté determinado socialmente, es decir, que sea un
elemento endógeno del modelo. Postula que el consumo de los obreros es
una función continua de la tecnología elegida por los capitalistas. La ar­
gumentación de esta función es un conjunto de n vectores cada uno de los
cuales representa los inputs y outputs de una actividad productiva en par­
ticular. En otras palabras, la suma salarial (común) consumida por los
obreros es una función continua de la estructura tecnológica de la econo­
mía. Dado este supuesto, Roemer prueba primero la existencia de solucio­
nes reproducibles con salarios endógenos y luego, de una forma más débil
del teorema marxiano fundamental. El interés principal se encuentra en
el debilitamiento del teorema ante los nuevos supuestos. Roemer ofrece
un ejemplo para demostrar que las soluciones reproducibles con ganan­
cias positivas y con cero ganancias pueden coexistir; por ejemplo, “puede

156
haber distintos equilibrios para la economía en donde el equilibrio relati­
vo de las fuerzas de clases es distino, debido al efecto que tiene la elección
de la tecnología sobre la organización de los obreros”.[38] Otro ejemplo de­
muestra que:

Es posible para loe capitalistas elegir tecnologías en las cuales existe explo­
tación, pero si insisten en optimizar las ganancias con determinados precios,
deberán elegir tecnologías que alteren el equilibrio de las fuerzas de clases
hasta tal punto que los requisitos de subsistencia sean demasiado grandes
para su capacidad reproductiva. La explotación es posible si los capitalistas
se limitan a las tecnologías subóptimas; pero si los capitalistas eligen las tec­
nologías optimizadoras de ganancias, el salario de subsistencia se elevará,
eliminando las ganancias.[39]

Evidentemente éstas son posibilidades interesantes, si bien algo dis­


tantes de las verdaderas economías capitalistas. En particular, el hecho
de que las ganancias de cada capitalista dependan de la tecnología elegi­
da por todos hace que sea difícil ver cómo — en ausencia de una improba­
ble forma colectiva de acción— los capitalistas podrían limitarse a tecno­
logías subóptimas a fin de optimizar las ganancias. Esta, sin embargo, no
es mi principal objeción a este modelo. Sí encuentro extraño que la comba­
tividad de la clase trabajadora tenga que depender de los coeficientes in-
put-output, y aun más extraño que varíe continuamente con estos coefi­
cientes, como es necesario para el cumplimiento del teorema. Es verdad,
la conciencia de la clase trabajadora está moldeada en parte por la estruc­
tura del proceso laboral. También es cierto que los procesos laborales con
distintas estructuras tendrán habitualmente distintos coeficientes de in-
put-output. Pero no hay razón para creer que el impacto del proceso labo­
ral sobre la conciencia de la clase esté planeado por los coeficientes input-
output. Y, según puedo entender, esto sería necesario para que tenga sen­
tido la suposición de continuidad. Si bien no puedo ofrecer una refutación
muy rigurosa de la opinión de Roemer acerca de que la suposición de con­
tinuidad no es muy severa “si se considera el proceso social que sustenta
[el supuesto de los salarios endógenos]”,[40] creo firmemente que la con­
ciencia de clase está moldeada por rasgos cualitativos del proceso laboral
que no pueden (al presente) ser aprehendidos en términos cuantitativos.
Me referiré ahora a la dirección del cambio tecnológico bajo el capita­
lismo. Podría parecer que el enfoque del proceso laboral sería también
pertinente en este tema, al postular una conexión entre la combatitividad
de la clase trabajadora, los salarios altos y las innovaciones tendientes a
ahorrar trabajo. Marx, en un pasaje citado anteriormente, manifiesta de
hecho que las máquinas fueron “el arma utilizada por los capitalistas pa­
ra sofocar la rebelión del trabajo especializado”. Si bien este mecanismo
efectivamente funciona, no creo que esté presente en foma universal ni
predominante. La mecanización, de hecho, puede ir junto con menos obre­
ros, más especializados, los cuales son también más indisciplinados e in­
gobernables. En los comienzos de la industrialización, ciertas innovacio­
nes tendientes a ahorrar trabajo quizás implicaron una menor necesidad
de trabajo especializado, pero no hay razón para pensar que esto fue siem­

157
pre así. Dadas dos innovaciones plausibles que son igualmente reducto-
ras de costos según la relación factor-precio previa a la innovación, no hay
motivos para pensar que la que tiene una propensión hacia el ahorro de
trabajo también ocasione en el micronivel un cambio en las tuerzas de cla­
ses de modo tal de producir una tasa salarial más baja que la otra; ni se
puede adoptar una tendencia en la dirección opuesta. Una vez más, consi­
dero que los factores cualitativos son demasiado sutiles para ser moldea­
dos de un modo simple y cuantitativo.
Marx efectivamente creía que las innovaciones tendientes a ahorrar
trabajo, en forma de “composición orgánica creciente de capital”, domina­
ban el desarrollo del capitalismo y —como se explica más adelante— en
última instancia llevarían a su destrucción. Es verdad, Marx sabía muy
bien que el cambio tecnológico no siempre ahorraba trabajo. Hay un inte­
resante capítulo en El Capital III acerca de “La economía en el empleo del
capital constante” que explica por qué las economías de escala intratecno-
lógicas pueden ahorrar capital. Por el otro lado, no creo que Marx mencio­
nara en ningún momento el cambio de tecnologías tendientes a ahorrar
capital. No es necesario recurrir a ejemplos recientes tales como los explo­
sivos o la radio para ver ejemplos de innovaciones que ahorran capital en
este sentido más tuerte. Marx tenía ejemplos ante su vista,[41] pero no los
vio. Los espectaculares aumentos de productividad, asociados con los
cambios de tecnologías — en contraste con los cambios dentro de ellas—
eran todos, en su opinión, ahorrativos de trabajo.
Sin embargo, resulta difícil reconstruir, sobre la base de los escritos
de Marx, una argumentación para la tendencia hacia el ahorro de trabajo.
Resulta tentador leer en Marx una argumentación hicksiana para el pre­
dominio de las innovaciones tendientes a ahorrar trabajo, como lo hacen
Maurice Dobb (haciendo referencia explícita a Hicks) y Paul Sweezy.[42]
Sweezy justifica su interpretación citando un pasaje de El Capital I en
donde Marx, efectivamente, explica la mecanización como inducida por la
agricultura y no por la industria. Sí constituye una evidencia para la opi­
nión de Sweezy, pero a mi modo de ver queda superada por el hecho de
que en los capítulos cruciales de El Capital III acerca de la tasa decrecien­
te de ganancias no hay ningún indicio sobre una conexión entre el alza de
los salarios y la mecanización.
En estos capítulos Marx parece estar fascinado por el hecho de que las
innovaciones simplemente tienen que ahorrar trabajo, dado que ¿de qué
otra forma puede un número levemente creciente de trabajadores poner
en funcionamiento una masa rápidamente creciente de materia prima y
crear una masa rápidamente creciente de productos? La siguiente es una
tentativa de reconstrucción de su razonamiento.[44] 1) El crecimiento
económico implica o es sinónimo de un mayor output por obrero. 2) Si se
debe producir más por obrero, entonces cada obrero debe manejar más
materia prima. 3) A fin de poder manejar más materia prima, el obrero
necesita la ayuda de la máquina. 4) Dado que el capital constante consis­
te fundamentalmente en materia prima y maquinaria, se deduce que la
cantidad de capital constante por obrero debe aumentar. Las premisas 2)
y 3) parecen ser obligatorias, pero de hecho no lo son. Entrañan una visión

158
estrecha del cambio tecnológico que excluye las espectaculares innovacio­
nes ahorrativas de capital como los explosivos, que permiten al obrero
manejar muchísima más materia prima utilizando muchísimo menos ca­
pital. Deduzco que Marx no tiene argumentos válidas para el predominio
de las innovaciones tendientes a ahorrar trabajo. En el capítulo 4 se de­
mostró que la argumentación hicksiana, si pudiera imputarse con buenos
resultados a Marx, es nula, y la argumentación que se desarrolla más
arriba se basa fundamentalmente en concepciones preteóricas.

c. La tasa decreciente de rentabilidad

La teoría de la tasa decreciente de rentabilidad en Marx es un tanto


periférica al objeto de la presente obra, la cual trata más bien acerca de
las consecuencias y no de las causas del cambio tecnológico. No obstante,
se incluye un breve análisis para demostrar en qué sentido Marx creía
que el cambio tecnológico traería aparejada la caída del capitalismo.Esto
nos permitirá en el siguiente apartado comparar la teoría de la tasa
decreciente de rentabilidad con la teoría más general según la cual todas
las modalidades de la producción sufren altibajos como función del cam­
bio tecnológico. Dado que el lector puede referirse al análiss más ex­
haustivo de John Roemer,[45] me limitaré a unos breves comentarios ge­
nerales.
Todos los economistas clásicos consideraban que existía una tenden­
cia decreciente para la tasa de rentabilidad. Marx, partiendo de sus
conclusiones, las argumentó de una manera totalmente distinta. Los pri­
meros localizaban la fuente de la tasa decreciente de rentabilidad en las
utilidades decrecientes de la agricultura. Más obreros requieren más co­
mida, de lo cual sólo puede disponerse con menos tierra fértil o a través de
un trabajo más intensivo en una determinada tierra, dando como resul­
tado en ambos casos precios más altos en los alimentos, salarios más ele­
vados y ganancias decrecientes. Marx, sin embargo, situó la fuente de la
tasa decreciente de rentabilidad en la industria dentro de la misma in­
dustria. En El Capital III, el apartado referente a la tasa decreciente de
rentabilidad antecede al análisis de la renta de la tierra, mientras que
Ricardo y Malthus situaron el análisis de la agricultura antes del de la
rentabilidad en sus principales obras. Marx señaló que sus antecesores
explicaron la tasa decreciente de rentabilidad apelando a la química
orgánica, mientras que él buscó la explicación en las contradicciones del
capitalismo como modo de producción.[46] También, mientras que los
economistas clásicos vieron al cambio tecnológico como una fuerza que
contrarrestaba la tendencia decreciente de la tasa de rentabilidad, Marx
argumentó que la caída ocurría como resultado del cambio tecnológico
tendiente a ahorrar trabajo. Hoy está bastante claro que ellos estaban en
lo correcto y que Marx estaba equivocado, pero queda por ver por qué lle­
gó a estas opiniones contrarias a la intuición.
Marx dio por sentado que la tasa promedio de rentabilidad (en toda la
economía) era

159
S
r=
c +v
en donde S es el valor-superávit total obtenido en la economía, C es el
valor del capital constante y V, el valor del capital variable. (Valor aquí
significa el tiempo de trabajo necesario para producir las diversas mercan­
cías.) Este supuesto no está justificado, debido al denominado “problema
de transformación”, es decir, el hecho de que los precios habitualmente no
son proporcionales a los valores. Para mayor simplicidad, sin embargo, no
tendré en cuenta esta dificultad y aceptaré la fórmula de Marx para la
tasa de rentabilidad.[47] También supondré que el capital constante se
utiliza totalmente durante el proceso de producción, es decir, que todo
consiste en capital circulante. Contrariamente a una reciente argumenta­
ción, esta simpliñcación no se diferencia cualitativamente de las conclu­
siones del análisis.[48] Si en la fórmula de la tasa de rentabilidad dividi­
mos todo por V, podemos representar la tasa de rentabilidad así:

S/V
r=
C/V + 1

Aquí el numerador S/V es la tasa de valor-superávit o la tasa de explota­


ción. C/V en el denominador es la composición orgánica del capital, como
expresión del monto del capital empleado por unidad de capital variable.
A diferencia del concepto de “intensidad del capital”, no se trata de una
relación puramente tecnológica, dado que puede ser modificada por un
cambio en los salarios solamente. Sin embargo, si mantenemos constante
la tasa salarial, la composición orgánica del capital reflejará relaciones
puramente tecnológicas.
La argumentación de Marx es la siguiente: en el curso del desarrollo
capitalista, predominan las innovaciones tendientes a ahorrar trabajo,
las que llevan a un incremento de la cantidad de máquinas (y otros capi­
tales constantes) utilizados por cada obrero y por lo tanto a una creciente
composición orgánica del capital. Si suponemos una tasa constante del
valor-superávit, esto llevará a una caída en la tasa de rentabilidad. Si, por
otra parte, asignamos a Marx la argumentación hicksiana acerca del pre­
dominio de inventos tendientes a ahorrar trabajo, habremos completado
el círculo. Inicialmente existe una presión sobre el mercado laboral que
trae aparejados salarios más altos y ganancias decrecientes. Un empresa­
rio racional, según argumentó (equivocadamente) Hicks, reaccionará en­
tonces con una tendencia hacia el ahorro de trabajo en su búsqueda de in­
novaciones. Y ciertamente esto sería una buena idea para el empresario
individual si fuera el único que la tuviera. Pero cuando todos los capitalis­
tas la tienen al mismo tiempo, la consecuencia colectiva es precisamente
opuesta a lo que deseaban y buscaban individualmente. Cuando todas las
empresas ahorran trabajo, el monto total de trabajo vivo empleado en la

160
economía debe caer. Pero en esa dirección se llega al desastre, dado que el
trabajo vivo es la única fuente del valor-superávit y por lo tanto de las ga­
nancias. Una caída inicial en la tasa de rentabilidad llevará a las perso­
nas a tomar medidas cuya consecuencia colectiva será acelerar la caída en
la tasa de rentabilidad.
Esta atractiva argumentación lamentablemente no tiene ninguna va­
lidez. Básicamente falla debido a que Marx sobredimensiona el aspecto
relativo al ahorro de trabajo de las innovaciones y menosprecia el hecho
de que ellas también incrementan la productividad. Este error se hace
evidente de dos maneras distintas, correspondientes en forma respectiva
al numerador y al denominador en la fórmula de la tasa de rentabilidad.
Primero, el cambio tecnológico lleva a un abaratamiento de los bienes de
consumo. Esto es compatible con una tasa constante de valor-superávit
sólo si suponemos un incremento en los salarios reales. Pero ésta es una
suposición extraña, al menos dentro del marco hicksiano, dado que “el
efecto neto que se produciría si todos los capitalistas actuaran de este mo­
do... sería la creación de desempleo, el cual a su vez actúa sobre el nivel
salariar.[49] Independientemente de esta argumentación hicksiana, una
tasa constante del valor-superávit en condiciones de una productividad
creciente resulta difícil de conciliar con la opinión de Marx acerca de que
el ingreso de los obreros estaba cayendo, si bien no en términos absolutos,
al menos con respecto a los otros ingresos.[50]
Segundo, el cambio tecnológico también llevará a un abaratamiento
de los bienes de capital, ocasionando así una caída en el valor del capital
constante C y por lo tanto, en la relación C/V. Para poner esto en forma
más clara, podemos considerar la siguiente situación. Inicialmente ocurre
un cambio tecnológico en todas las industrias, que ahorra trabajo cuando
se evalúan los bienes de capital con los valores (o precios) previos a la in­
novación. Podemos ver esto como un incremento del “número de máqui­
nas por obrero”, lo cual es una forma cruda pero útil de visualizar el cam­
bio. Las innovaciones llevarán a nuevos coeficientes deoutput-inputy por
lo tanto a nuevos valores (y precios) de equilibrio. Resulta entonces lógica­
mente posible que las nuevas tecnologías sean ahorrativas de capital en
todas las industrias donde los bienes de capital se evalúan con los nuevos
valores (o precios).(51) Esto ocurrirá si el incremento de productividad es
tan importante que la caída del valor (o precio) de cada máquina sobrepa­
sa de lejos el incremento en el número de máquinas por obrero. Resulta
claro que Marx creía en el predominio de los inventos ahorrativos de tra­
bajo en el sentido ex ante, pero no reconoció que esta tendencia no necesa­
riamente se traslada a la situación ex post.
No estoy diciendo que esta situación deba ocurrir, sino que puede ocu­
rrir. Para refutar la teoría de que la tasa de rentabilidad debe caer, sólo es
necesario demostrar la posibilidad de una instancia — compatible con to­
dos los supuestos de Marx— en donde esto no sucede. Y es inútil afirmar
que la ley de la tasa decreciente de rentabilidad debía interpretarse como
una “ley de tendencias”, que puede ser alterada por “fuerzas neutralizan­
tes” tales como el abaratamiento de los elementos del capital constante, el
comercio exterior, etc. Como observó Mark Blaug, hay un uso correcto y

161
uno incorrecto de la noción de “leyes de tendencias” en la economía clási-
ca.[52] Según la interpretación correcta, la ley de tendencias es una ley
que rige bajo ciertas condiciones ideales. La ley de la caída de los cuerpos
es una ley de tendencias en este sentido, porque supone que no hay resis­
tencia del aire. Del mismo modo, es posible abstraer el comercio exterior
al analizar la tendencia de la tasa de rentabilidad y posiblemente se lle­
gue a una ley válida de tendencias en este sentido. Sin embargo, la noción
está incorrectamente utilizada cuando se deja de lado el abaratamiento
de los elementos del capital constante, dado que esta “tendencia neutrali­
zante” surge del mismo proceso dado que también genera la “tendencia
principal”. Queremos saber acerca del efecto neto del cambio tecnológico
sobre la tasa de rentabilidad, y la descomposición de esto en una tenden­
cia y una contratendencia resulta artificial y de poco interés. Concluyo
que la noción de una ley de tendencias en este último e incorrecto sentido
pertenece al arsenal de estratagemas inmunizantes del marxismo junto
con frases tales como “autonomía relativa” y “determinación a largo pla­
zo” o a la argumentación sostenida por Marglin para explicar la poca evi­
dencia de su teoría.

d. El desarrollo de las fuerzas productivas

En el apéndice 2 analizo con cierta profundidad la teoría de Marx de


las fuerzas productivas y las relaciones de producción. Aquí sólo deseo
destacar algunos temas explicativos y limitados que surgen de la teoría.
En particular, quiero demostrar cómo G. A. Cohén, al resolver un proble­
ma de larga data en la interpretación del materialismo histórico, también
lo volvió vulnerable de una nueva manera.
Marx estaba interesado en dos teorías — aparentemente incompati­
bles— acerca de la relación entre las fuerzas productivas y las relaciones
de producción. Por un lado, consideraba que las fuerzas productivas “de­
terminan” o “condicionan” las relaciones de producción. Por el otro lado,
afirmó reiteradamente que las relaciones de producción tienen un efecto
decisivo sobre las fuerzas, las que son sucesivamente “formas de desarro­
llo” y “trabas” para el cambio tecnológico. El misterio es cómo la entidad A
puede “determinar” o “tener primacía sobre” la entidad B cuando al mis­
mo tiempo B se supone que ejerce una influencia crucial sobre A. (El pro­
blema surge también cuando por A tomamos las relaciones de producción
y por B la superestructura política y legal.)[53]
Los marxistas han tendido a evadir esta cuestión. Algunos hablaron
vagamente sóbrela “determinación a largo plazo”, otros de hecho abando­
naron la teoría refiriéndose a la “interacción dialéctica” entre las fuerzas
y las relaciones de producción. [54] G. A. Cohén demostró, sin embargo,
que es posible reconciliar estas dos tesis explicando las relaciones de pro­
ducción en términos de sus efectos sobre las fuerzas de producción.[55]
Las relaciones de producción en cualquier momento dado son lo que son
gracias a su capacidad para promover el desarrollo de las fuerzas produc­
tivas, y cambian cuando ya no poseen más esta capacidad. Por lo tanto las

162
relaciones de producción en cualquier momento dado tienen una primacía
causal sobre las fuerzas productivas, y estas últimas, una primacía expli­
cativa sobre las primeras.
Exegéticamente, considero que esta argumentación tiene sentido. La
misión histórica del capitalismo, según Marx, era la de desarrollar las
fuerzas productivas; está allí porque las desarrolla y desaparecerá cuan­
do ya no lo haga (en forma óptima). Lo mismo vale, al menos en principio,
para los modos precapitalistas de producción. A la exégesis de Cohén se
podría agregar, sin embargo, la argumentación ofrecida por Philippe van
Parijs.(56] Van Paríjs señala que las fuerzas de producción están doble­
mente involucradas en la explicación de las relaciones de producción. 1) El
nivel de las fuerzas productivas es el que determina qué relaciones de pro­
ducción son óptimas. 2) Las relaciones de producción son lo que son por­
que resultan óptimas para el desarrollo de las fuerzas productivas. Según
la lógica, éstas son opiniones contradictorias; si se afirma una no es posi­
ble afirmar la otra. Una teoría que incluya la primera opinión, pero no la
segunda sostendría que las fuerzas de producción son lo que son porque
resultan óptimas para algo que no sea el desarrollo de las fuerzas produc­
tivas, pero que el nivel de las fuerzas productivas es lo que determina qué
relaciones son óptimas para ese propósito. Una teoría que incluya la se­
gunda opinión, pero no la primera, sostendría que las relaciones son lo
que son debido al impacto que tienen sobre las fuerzas, pero que hay algo
más que determina qué relaciones son óptimas en ese sentido. Van Parijs
sugiere que ese “algo más” en el primer caso podría ser la represión del
pueblo, y en el segundo caso, la localización dentro de la dimensión del
centro-periferia. Es evidente que Marx se interesó tanto en 1 como en 2, y
que su argumentación incluye, por lo tanto, un elemento causal y uno te-
leológico. En lo que sigue, sin embargo, abordaré solamente esto último,
es decir, la relación 2.
La cuestión es, entonces, si Marx estaba en lo correcto al considerar
que las relaciones de producción podían explicarse en términos de sus
efectos sobre las fuerzas productivas. Cohén propone justificar su explica­
ción mediante una ley de consecuencia, de modo tal que cuando un nuevo
conjunto de relaciones produzca un desarrollo acelerado de las fuerzas,
aparezca un nuevo conjunto en la escena histórica.(57] Pero se aclara en
el Apéndice 2 que el número de ejemplos que respalda esa ley es penosa­
mente b^jo, quizá reduciéndose sólo a uno. El capitalismo sí produjo una
espectacular revolución en el progreso tecnológico, pero sería aventurado
usar este caso como única evidencia para la ley general que se pretende
explicar. Además, por supuesto, están los problemas generales relaciona­
dos con la explicación funcional de Cohén. Dichos problemas fueron anali­
zados en el capítulo 2 que antecede y no repetiré aquí mis objeciones.
Una alternativa sería probar que Marx tenía razón al señalar el me­
canismo específico mediante el cual las fuerzas productivas “eligen” las
relaciones más capaces para lograr su desarrollo. Cohén bosqueja breve­
mente un posible mecanismo,[58] pero la argumentación es evidentemen­
te insatisfactoria.[59] Una propuesta más plausible sería la siguiente. El
surgimiento de nuevas relaciones de producción puede ser en gran me-

163
dida accidental, es decir, el resultado de una compleja y oscura lucha de
clases que no resulta fácil de incluir dentro de un esquema general. El
surgimiento de las relaciones capitalistas en la agricultura inglesa —en
contraste con la aparición de un campesinado libre en Francia— consti­
tuye un ejemplo.[60] Para explicar este desarrollo divergente debemos
apelar a minuciosos detalles de siglos de luchas entre clases. No hay un
esquema general capaz de explicar el surgimiento de las relaciones capi­
talistas en Inglaterra a través de una “necesidad” para el desarrollo de las
fuerzas productivas. Una vez que estas relaciones emergieron, sin embar­
go, en seguida se volvieron dominantes también en otros países, debido a
su simple superioridad económica y tecnológica. Es posible explicar fun­
cionalmente la difusión de las nuevas relaciones productivas, pero no su
surgimiento. En el apéndice 2 se ofrece una argumentación similar pero
más hipotética para el surgimiento y difusión del comunismo.
Esta argumentación, de ser aceptada, sirve como base a una débil ex­
plicación funcional de las relaciones de producción. Podría fortalecerse si
se pudiera demostrar que en el curso del desarrollo precapitalista, las re­
laciones capitalistas de producción tuvieron que surgir de alguna parte,
en algún momento, así como en la teoría de la evolución de las especies, se
debe suponer que en algún momento la mutación se produce en algún or­
ganismo. Con este nuevo supuesto, podría argumentarse no sólo que el ca­
pitalismo existe porque es mejor que los arreglos anteriores para promo­
ver el desarrollo de las fuerzas productivas, sino también que los arreglos
anteriores tuvieron que desaparecer porque ya no eran óptimos. Pero no
logro ver cómo podría demostrarse la inevitabilidad de la “mutación capi­
talista”. Esto significa que la explicación que aquí se ofi-ece difiere de la
ofrecida por Cohén en su libro, en dos aspectos. Primero, la superioridad
del capitalismo explica su predominio, no su aparición. Segundo, el predo­
minio del capitalismo no es una fase necesaria en la historia del mundo.
Finalizo con un enigma sin resolver. Parecería haber en Marx dos teo­
rías para la caída del capitalismo. Por un lado, está la teoría de la tasa de­
creciente de rentabilidad, en la que se manifiesta que el capitalismo desa­
parecerá porque las innovaciones ahorrativas de trabajo detendrán la
acumulación al reducir la fuente del valor-superávit y de las ganancias.
Por el otro lado, está la teoría de las fuerzas productivas y las relaciones
de producción, en la que se manifiesta que el capitalismo — al igual que
cualquier otro modo de producción— desaparecerá cuando ya no resulte
óptimo para el desarrollo de las fuerzas productivas. Ambas teorías ape­
lan al cambio tecnológico de maneras cruciales si bien muy distintas. A
menos que uno esté dispuesto a argumentar que la caída del capitalismo
según Marx estaba sobredeterminada, en el sentido de que dos causas
distintas y suficientes estaban actuando, esta doble explicación apunta a
una seria incoherencia en el pensamiento de Marx.

164
Apéndice 1
Riesgo, incertidumbre
y energía nuclear

L Introducción

El objetivo principal de este trabajo es aplicar la teoría de las decisio­


nes para aclarar la estructura de la elección entre los modos alternativos
de producción de energía que la mayoría de las sociedades occidentales
enfrentan en la actualidad.il] Un segundo objetivo es utilizar el problema
energético como una introducción ilustrativa de la teoría de las decisiones
para los lectores que no están familiarizados con dicha disciplina. El aná­
lisis es normativo en toda su extensión, excepto en el apartado final en el
que analizo algunas de las razones por las que los verdaderos procesos de
decisiones pueden no conformar lo que veo como el procedimiento ra­
cional.
No intento responder a la pregunta fundamental: ¿qué sucederá si
elegimos una u otra de las formas de energía propuestas? En lugar de ello
afirmo que para partes importantes del tema energético esta pregunta no
puede responderse: y que esta imposibilidad es el resultado que debe ser la
base para la elección. Los conceptos operativos aquí son los de riesgo e in­
certidumbre, dos formas de ignorancia que difieren profundamente en sus
inferencias para la acción. Las decisiones b^jo riesgo están presentes
cuando podemos asignar probabilidades numéricas a las diversas res­
puestas a la pregunta “¿Qué sucederá?”. Las decisiones bajo incertidum­
bre implican que podemos a lo sumo enumerar las respuestas posibles,[2]
no calcular sus probabilidades. A esta distinción analítica corresponde
una distinción entre dos criterios para la elección racional, que pueden
expresarse aproximadamente como “maximizar la utilidad esperada” y
“maximizar la utilidad mínima”. Digo que por lo menos hay un tema en la
elección de la energía — la proliferación de las armas nucleares— que re­
duce el asunto a uno de decisión bajo incertidumbre, con el imperativo in­
cluido en él de actuar como si lo peor que pudiera suceder, sucederá.

n . Teoría de las decisiones

La teoría de las decisiones trata el problema de elegir un curso de ac­


ción entre varios posibles. La rama normativa de la teoría, de la que aquí

165
más me ocuparé, trata el modo racional de hacer dicha elección. [3] La ra­
ma empírica estudia cómo se toman las verdaderas decisiones.[4] Otra
subdivisión, partiendo de la primera distinción, es entre la elección indi­
vidual y la colectiva. Dentro de la teoría de la elección individual racional
se hacen algunas otras distinciones con respecto al grado de certeza co­
rrespondiente a las variables de la elección.

IA. La teoría de las decisiones bajo certeza. Esta está representada


por la teoría de la elección del consumidor y de la elección del productor en
su concepción clásica. Los supuestos son que quien toma las decisiones
tiene 1) información perfecta, 2) metas coherentes y 3) conjuntos de opor­
tunidades “de buen comportamiento”.[5] Entonces es posible deducir sin
ambigüedad un curso de acción, que es lo racional que hay que hacer. Si
se elimina el supuesto 3) significa que puede haber varias alternativas
igualmente y máximamente buenas, o (en un caso más molesto) que no
haya un curso óptimo de acción. Si se elimina el supuesto 2) es imposible
comparar las alternativas y elegir a fortiori la mejor de entre ellas. La eli­
minación del supuesto 1) puede realizarse de tres modos diferentes, que
se analizan más adelante en IB, 1C y ID. Un ejemplo simple de decisión
bajo certeza es el ingeniero que calcula la trayectoria más corta para un
cohete a la luna.

IB. La teoría de las decisiones bajo riesgo. Aquí se supone que la infor­
mación es imperfecta, pero cuantificable, en el sentido de que para cada
curso de acción hay una distribución de probabilidades conocida para el
conjunto de resultados. Un ejemplo simple es el granjero que elige una
combinación de cultivos para la cosecha del año próximo teniendo en
cuenta las probabilidades conocidas para cada clase de clima y las propie­
dades conocidas de cada cultivo en cada clase de clima.
Este ejemplo también sirve para mencionar una falacia que debe evi­
tarse al analizar los criterios racionales para la toma de decisiones bajo
riesgo. Si el granjero solamente se ocupa de cultivos de pago al contado,
sería tentador aconsejarle que elija la combinación de cultivos con el ma­
yor valor de mercado esperado. Sin embargo, éste sería un mal consejo
pues el granjero puede estar sujeto a una aversión al riesgo que hace que
sea racional que considere la dispersión en torno del valor promedio (o es­
perado) y no sólo en torno del valor mismo (Roumasset 1976). Véase tam­
bién el apartado XIII más adelante.

IC. La teoría de las decisiones bajo incertidumbre. Esta es una con-


ceptualización más revolucionaria de la ignorancia. Se supone que el ac­
tor conoce las salidas posibles de cualquier curso de acción, pero que no
puede asignarles ninguna probabilidad, o ningún rango de probabilida­
des. Esto origina dos preguntas relacionadas que se analizan más adelan­
te en el apartado X. 1) ¿Cómo distinguiremos los resultados abstracta­
mente posibles de los “realmente posibles” sin apelar a algún concepto de
probabilidad cuantitativa? 2) ¿Por qué no hemos de explotar el conoci­
miento utilizado para definir el conjunto de resultados para evaluar su

166
probabilidad? Los criterios para la elección racional bajo incertidumbre
son bastante complicados en el caso general,[6] pero son bastante simples
en el caso especial en que todas las alternativas tienen la misma “mejor
consecuencia”. En dicho caso sólo tenemos que comparar las “peores con­
secuencias” y elegir la alternativa que tenga la mejor peor consecuencia
(el criterio del maximín). Más adelante afirmo que este caso se da en el
problema de la energía.

ID. La teoría de los juegos (la teoría de las decisiones interdependien­


tes). En los casos precedentes el medio del actor se supone conocido (aun­
que sea posiblemente desconocido) independientemente de la decisión
que deba tomarse. Las variables ambientales “tienen” algunos valores,
sin considerar el estado de nuestro conocimiento sobre ellos. Son paráme­
tros para el problema de la decisión, de allí que se utilice el término “racio­
nalidad paramétrica” en tales casos. Si el medio está formado por otros
actores que tratan de decidir racionalmente, esto ya no es válido. Enton­
ces para el actor individual sería irracional considerarse como una varia­
ble, y a los demás como parámetros. En lugar de ello, debe considerar el
problema como uno de toma de decisiones interdependientes donde todos
los valores de las variables se determinan simultáneamente. Esta “racio­
nalidad estratégica” es analizada por la teoría de los juegos. La estructura
básica de la teoría puede resumirse diciendo que es un esquema concep­
tual que nos permite entender las interacciones sociales donde 1) la re­
compensa de cada uno dependa de la de todos, 2) la recompensa de cada
uno dependa de la elección de todos y 3) la elección de cada uno dependa
de la elección de todos.[7] Como hay poco campo para la teoría de los jue­
gos aplicada al problema de la energía,[8] no describiré aquí los criterios
de decisión bastante complicados que se han propuesto para los actores
estratégicamente racionales.[9]

2. Teoría de la elección colectiva. En esta rama de la teoría de las deci­


siones la perspectiva es completamente diferente. El problema es el si­
guiente: dado un conjunto de clasificaciones individuales de un conjunto
de alternativas, ¿cómo se llega a la clasificación social? En la filosofía po­
lítica tradicional se han impuesto ciertas demandas importantes en el
proceso de sumar las clasificaciones individuales como también en el de la
clasificación social. Para ser preciso, se ha requerido 1) que el procedi­
miento de la suma sea democrático y 2) que el resultado del proceso sea
justo. Además algunas veces se requirió 3) que las preferencias individua­
les fueran racionales, en el sentido de no ser desviadas por motivaciones
egoístas estrechas. En la teoría de la elección colectiva solamente se man­
tiene la condición 1), y además se ha requerido 4) que el proceso de suma
sea racional, en el sentido de ser internamente coherente y eficiente, y 5)
que el resultado también sea racional en el sentido de coherencia Ínter-
nal 10] El principal resultado del trabajo de los últimos 25 años puede re­
sumirse diciendo que los requisitos de un proceso racional, un resultado
racional y un proceso democrático son más que suficientes para determi­
nar la clasificación social, de modo que no queda lugar para consideracio­

167
nes de justicia. Más que suficientes en el sentido de que los tres conjuntos
de condiciones, correctamente especificados, no pueden brindar satisfac­
ción simultáneamente (Kelly 1978). Una salida ha sido reintroducir cier­
ta variedad de la condición 3) citada más arriba, aunque debe hacerse
mucho más en esta dirección.[11] Otra salida ha sido debilitar la condi­
ción de la democracia, o más precisamente abandonar la condición “un
hombre, un voto”. Esto puede hacerse de varios modos, cada uno de los
cuales corresponde a un concepto particular de justicia social.[12] La teo­
ría de la elección colectiva puede aplicarse provechosamente al tema nu­
clear, pero no analizaré aquí esta posibilidad.

n i. La naturaleza de la elección energética

Suponiendo (como se analiza en el apartado siguiente) que las socie­


dades occidentales necesitarán cada vez mayor cantidad de energía, las
principales formas de satisfacer las necesidades futuras son la energía de
fisión, la energía fósil y la energía hidroeléctrica, individualmente o com­
binadas. Las dudas concernientes al sol, al viento y al agua son demasia­
do grandes como para que sean más que interesantes opciones laterales.
La energía de fusión, que durante mucho tiempo se pensó que era la for­
ma energética del futuro, se ha convertido en una explotación lenta y pro­
bablemente no sea mucho más barata que las alternativas (Holdren 1978,
Parkins 1978). Por lo tanto la restricción a la fisión, los fósiles y la hidro-
electricidad parece estar justificada. Entonces el problema es: ¿cuál com­
binación de las tres formas de energía debe elegirse? Me referiré a cual­
quiera de dichas combinaciones como un vector energético.
En algunos estudios se supone que el proceso de las decisiones debe
ser secuencial: primero decidimos cuánta energía debe producirse y luego
elegimos un vector conveniente. Esto es obviamente falso. Las dos eleccio­
nes deben ser simultáneas porque algunas formas de producción energé­
tica pueden ser tan costosas o peligrosas que debemos evitar un consumo
total de energía tan grande que sean requeridas.
La elección de un vector de energía puede hacerse dentro de supues­
tos más o menos estrechos acerca de “todo lo demás”. El método más res­
trictivo es congelar la estructura social, incluyendo la distribución de
ingresos, los patrones de consumo (vivienda, automóviles), la centraliza­
ción, etc. Dentro de este marco dado entonces podemos preguntar qué vec­
tor energético da el mejor resultado, en cuanto a costos y beneficios. Esto
da el vector como un máximo parcial. Un método un poco más amplio es
permitir pequeñas variaciones y ajustes en las variables que se mantuvie­
ron constantes en el primer procedimiento, de manera de obtener el vec­
tor como un máximo local. El método más general es permitir una varia­
ción amplia y simultánea en todas las variables de modo de alcanzar el
máximo global.
Al utilizar técnicas como “ingeniería social gradual” (Popper 1957) o
“planeamiento increm entar (véase van Gunsteren 1976, cap. 2), no hay
garantías de que los máximos alcanzados sean globables ni que estén en

168
algún lugar cerca del máximo global. La política miope mediante la cual
en cualquier momento se sube por un gradiente hacia el máximo más cer­
cano puede resultar desastrosa con el tiempo (Elster 1979, cap. 1). Sin
embargo, hay varias razones poderosas para no experimentar con alter­
nativas que están muy distantes del estado actual. Primero, el conoci­
miento imperfecto que —bajo condiciones de aversión al riesgo— lleva a
un enfoque cauteloso (apartado XIII). Segundo, las irreversibilidades que
originan cautela aun en ausencia de aversión al riesgo (apartado XIV).
Tercero, el cambio endógeno de las preferencias (von Weizsácker 1971,
Elster 1979, cap. II. 6) que nos haría desconfiar de nuestra evaluación de
estados futuros que nunca hemos vivido. Cuarto, los problemas del perío­
do de transición: tanto los males inherentes a los disturbios y los trastor­
nos sociales, como la inestabilidad política que pueda sucederse. Las pro­
puestas drásticas pueden ser políticamente imposibles (Elster 1978a,
cap. 3). Para estar seguros, habría que ser m uy cauteloso al introducir
restricciones políticas en un modelo que debe servir como base para una
decisión política.[14] Si el analista debe ser útil a los políticos, no debe en-
dogenizar sus decisiones (pero véase Lindbeck 1976). Por lo tanto, en el si­
guiente apartado analizo brevemente algunas propuestas que parecen
políticamente imposibles, por lo menos hasta que alguien rompa el círcu­
lo encantado de la política rutinaria y redibuje el mapa de lo posible (Els­
ter 1978a, págs. 50-1).
Dos observaciones finales corresponden a la importancia del espacio y
tiempo en la estructuración del proceso de elección de energía. Hay tres
niveles espaciales: el local, el nacional y el internacional. Los conflictos de
intereses son posibles entre el primero y el segundo y entre el segundo y el
tercero. Hasta el punto en que hay una tendencia hacia los derechos
comunitarios del veto a proyectos energéticos, tenemos el “dilema popu­
lista” analizado en la nota 13. Una dificultad más obvia es el problema del
jinete solitario que surge si cada comunidad local quiere recibir los bene­
ficios de la producción energética (es decir, que quiere la energía) sin los
inconvenientes que surgen de aceptar la planta en su territorio. Si cada
comunidad espera que alguna otra tome la carga, se producirá muy poca
energía en relación con las necesidades nacionales. Por otro lado, las ne­
cesidades nacionales pueden constituir una producción excesiva en rela­
ción con las necesidades de la comunidad internacional. La nación indivi­
dualmente será muy poco perjudicada por su propia contribución a la con­
taminación y la transformación perjudicial de la atmósfera, aunque el re­
sultado colectivo de dicha conducta por parte de todas las naciones sea co­
lectivamente desastroso. Sería agradable si estos dos conflictos se anula­
ran entre sí, de modo que el egoísmo comunitario fuera sustituido por la
solidaridad internacional. (Elster 1978, págs. 129-30, tiene un análisis de
un caso similar de dos situaciones del Dilema del Prisionero que se anu­
lan en sus efectos.) Sin embargo, esto solamente se dará si son las mismas
formas energéticas las que producen los inconvenientes locales e interna­
cionales, y no hay razón para pensar que eso sea generalmente cierto.
La dimensión temporal es la que distingue a la elección energética de
la mayoría o de todas las demás elecciones políticas. No se me ocurre nin­

169
gún otro problema (civil) en el que el horizonte temporal pertinente sea
tan extremadamente amplio. Los desechos nucleares seguirán siendo pe­
ligrosos durante mucho tiempo. El plutonio en las plantas nucleares
siempre será accesible para la construcción de armas nucleares. Debido a
que las sociedades modernas han roto deliberadamente el vínculo entre la
adaptación reproductiva y la adaptación ecológica (Elster 1979, cap. 1),
los defectos genéticos pueden perpetuarse hasta el fin de los tiempos.[15]
La fundamental importancia de la incertidumbre en la elección energéti­
ca se debe a su dimensión temporal. Cuanto más aplicamos nuestras teo­
rías hacia el futuro, menos proporcionan valores numéricos.

IV. La necesidad de energía

Llevaré a cabo el análisis sobre el supuesto realista de que habrá un


gran aumento en la necesidad de energía. Sin embargo, debe decirse que
este supuesto puede cuestionarse en dos aspectos. Primero, se ha dicho
que es posible tener crecimiento económico sin aumento del consumo de
energía. Hay un acuerdo general de que esto es válido a corto plazo y algu­
nos autores han afirmado que esto también es válido en el mediano plazo
para el cual se toman las decisiones actuales. Un estudio estadounidense
realizado por el Panel de Demanda y Conservación del Comité de Siste­
mas de Energía Nucleares y Alternativos (1978) llegó a la conclusión de
que es posible duplicar el producto bruto interno desde la actualidad has­
ta el año 2010 sin crecimiento alguno en el consumo de energía. Sin em­
bargo, debe observarse que para las naciones que no obtienen la mayor
parte de la energía de plantas hidroeléctricas este resultado es menos
alentador de lo que podría pensarse. Para dichas naciones el aumento del
consumo energético no significa que puedan prescindir de nuevas fuentes
de energía a medida que las anteriores se agotan. Por ejemplo, puede sur­
gir el problema de si continuar utilizando el combustible fósil cada vez
más costoso o si cambiar a la energía nuclear.
Segundo y más fundamentalmente, se ha dicho que deberíamos cam­
b ia r e una economía de crecimiento cero. Por supuesto, incluso en dicho
caso se aplicarían las observaciones del final del párrafo precedente, pero
el problema sería menos serio si se pudiera fijar un aumento de consumo
energético cero o incluso negativo. Esta conclusión se ve reforzada por la
observación de que el aumento cero en la producción de mercadería y ser­
vicios puede darse junto con un aumento positivo de los niveles de bienes­
tar. Así como es posible disociar el aumento energético del crecimiento del
producto bruto interno, es posible disociar el crecimiento del producto
bruto interno del aumento del bienestar. Esta última separación podría
conseguirse mediante la abolición de los bienes posicionales (Hirsch 1976)
que son tan importantes en las economías modernas. Si todos están
motivados por el deseo de estar a la cabeza de los demás, entonces todos
tendrán que correr tan rápido como puedan para permanecer en el mismo
lugar. Sin cambiar las preferencias, los niveles de bienestar podrían ele­
varse si todos estuvieran de acuerdo en abstenerse de este rumbo (Haa-

170
velmo, 1970). En contraste, la mayoría de las propuestas para distinguir
entre “real” y “falso”, o entre “necesidades sociales” y “naturales”, signifi­
can que las preferencias deben cambiarse, lo que inmediatamente convo­
ca al fantasma del patemalismo. No deben confundirse las necesidades
que son sociales en su objeto (bienes posicionales) con las necesidades que
son sociales en su origen (Cohén 1978, pág. 103).
No es inconcebible que algún político imaginativo encuentre un modo
de abolir la raza de los bienes posicionales, pero mientras tanto es impor­
tante analizar qué debe hacerse antes de la abolición. La inevitable pro­
puesta de que dichos análisis reducirán el incentivo para la abolición tie­
ne cierta importancia, pero no puede ser decisiva. Volveré con el problema
en el apartado X más adelante.

V. Pronóstico del cambio tecnológico

Cualquier elección puede conceptualizarse como dos procesos filtros


sucesivos. El primero es la definición del conjunto factible, es decir, el con­
junto de todas las alternativas que satisfacen los límites estructurales.
Tales límites pueden ser autoimpuestos (Elster 1979, cap. I) o ser “dados”
en cierto sentido. El segundo filtro entonces separa al miembro del con­
junto factible que será realizado. El énfasis principal en este estudio está
puesto sobre la elección racional como filtro secundario; aquí analizo bre­
vemente la primera etapa del proceso.
Con frecuencia se ven como dados tres límites: el clima, los recursos y
la tecnología. Esto es un poco engañoso. De hecho, el clima interactúa con
el consumo de energía, ya que ambos son una determinante de la necesidad
de energía de calefacción y en parte son una consecuencia del uso energé­
tico (mediante la liberación de C 0 2). Los recursos se dan en cierto sentido
absoluto, pero no en el sentido más interesante de recursos disponibles, ya
que la disponibilidad depende de la tecnología de extracción. A su vez, la
tecnología, no se da, sino que está sujeta al cambio constante. El verdade­
ro tema es si podemos predecir o controlar la velocidad, la naturaleza y di­
rección del cambio tecnológico (Rosenberg 1976, David 1975, Nelson y
Winter 1976).
No me ocuparé aquí de los importantes problemas de este tema, sim­
plemente haré las siguientes observaciones. Primero, incluso si acepta­
mos que los detalles del cambio no pueden predecirse ni controlarse, es
posible considerar el hecho general de que las técnicas cambiarán. Puede
ser inseguro comprometer grandes cantidades de capital cuando sabemos
que habrá nuevos métodos disponibles. Volveré sobre esto en el apartado
XTV. Segundo, si creemos que la predicción y el control son posible’s, debe­
mos mantener esta creencia de un modo coherente. Por ejemplo, no hay
que ser agnóstico en el asunto de desarrollar métodos más seguros para la
eliminación de los desechos ni ser optimista en el asunto del desarrollo de
tecnología de bája energía; por supuesto tampoco hay que tener el conjun­
to opuesto de actitudes. Tercero, el primer argumento quita algo al segun­
do, por lo menos en lo que respecta a los opositores a la energía atómica.

171
Hay una asimetría entre quienes proponen y quienes se oponen porque
seguirá siendo posible cambiar la idea que se tiene y optar por la energía
atómica si no se desarrollan las tecnologías livianas, mientras que la
adopción de la energía atómica puede ser irreversible en un mayor grado.

VI. El modelo de riesgo para la elección de la energía

Una vez eliminados estos primeros obstáculos, llego al núcleo del pro­
blema. Primero permítaseme decir que podemos comparar vectores ener­
géticos (en realidad solamente compararé las formas puras de energía)
considerando los inconvenientes que traen aparejados, porque los benefi­
cios económicos son aproximadamente del mismo orden. Si nunca suce­
dieran accidentes y no hubiera consecuencias ambientales, ni tampoco
problemas de terrorismo, sabotaje o proliferación de armas, entonces la
energía de fisión, la energía fósil y la hidroeléctrica tendrían costos de ins­
talación y mantenimiento de aproximadamente la misma magnitud. (No
es fundamental para mi argumento que sean idénticos, sino sólo que la di­
ferencia entre los beneficios sea sustancialmente menor que la diferencia
entre los peligros y riesgos.) Solamente con el advenimiento de la energía
de fusión, concebida tradicionalmente y no muy realísticamente, habría
una alternativa con costos significativamente menores. La siguiente es
una lista de los peligros e inconvenientes de los diversos modos de produc­
ción de energía:

-P eligros asociados al normal funcionamiento de las plantas de ener­


gía. Para la eneigía atómica esto significa la liberación de material ra­
diactivo y posiblemente también de gases nobles en la atmósfera. Para la
energía fósil significa la liberación de S 0 2y C 0 2 en la atmósfera; también
radiación aérea hasta el punto en que pueda ser mayor que la de una cen­
tral atómica (McBride y otros 1978).
-Accidentes. Para las centrales nucleares significa accidentes en los
reactores por fundición del núcleo. Para la hidroelectricidad significa acci­
dentes en las represas que suceden con una frecuencia sorprendentemen­
te alta (Mark y Stuart-Alexander 1977).
-Destrucción del paisaje natural, especialmente con construcciones
hidroeléctricas.
-L o s peligros asociados a la eliminación de los desechos nucleares.
-E l peligro de sabotaje en centrales atómicas o represas.
-E l peligro de robo de plutonio para fabricar armas nucleares.
-E l peligro de proliferación de armas nucleares cuando las nuevas
naciones tienen centrales de energía atómica; el plutonio de las cuales
puede utilizarse para la fabricación de armas. Aunque estos países pudieran
fabricar bombas fuera de sus programas de energía atómica, éstos “pue­
den contribuir directamente a un proceso de ‘proliferación latente’ me­
diante el cual los países se acercan inexorablemente a una capacidad ar­
mamentista sin tener que declarar o decidir con anticipación sus verdade­
ras intenciones” (Feiveson y otros 1979, pág. 330).

172
Para evaluar y comparar estos peligros muchos escritores (por ejem­
plo el informe Rasmussen) utilizan un modelo de riesgo simple, con la si­
guiente estructura. Suponemos que debemos elegir entre las formas ener­
géticas E,, Ej..., En, que producen energía todas al mismo costo si no se
consideran los peligros mencionados anteriormente. También suponemos
que la forma energética E¡ incluye los peligros Fü, Fj2..., Fjm, y que la pro-
babilidadde que se produzca el peligro F.. es Py. Finalmente suponemos que
Fy, si ocurre, tiene consecuencias negativas Sy. Entonces definimos el
riesgo del peligro como R ^P y-Sy, y el riesgo total de Ef como
R.=Ril+Rj2+...R.ni. Entonces elegimos la forma energética con el menor
riesgo.
El Instituto de Investigaciones Stanford (1976) utiliza un sofisticado
modelo que considera el hecho de que las probabilidades P~ no están
dadas, sino que son funciones de la cantidad de dinero b utilizado para
la prevención y el control: Pjj=Gy(b). Continuando con este argumento
también podemos suponer que el peijuicio & producido por F„ es una fun­
ción de la cantidad de dinero c utilizado para la protección: Sy=h^(c). Para
b y c dados, los costos totales son entonces (b+c+Gy(b).Hy(c)). Eligiendo b
y c tales que minimizan esta expresión, obtenemos el riesgo real R{j. Este
método es claramente superior al modelo de riesgo simple, suponiendo,
por supuesto, que los costos de prevención, control y protección están defi­
nidos con bastante amplitud. Si se desea establecer un sistema de control
eficiente para protegerse contra el sabotaje y el robo, entonces los costos
deben incluir no solamente los sueldos de los guardias, etc., sino también
los efectos indeseables de vivir y trabajar en un medio controlado. Por
ejemplo, si los trabajadores en las centrales atómicas están sujetos a mé­
todos persecutorios de supervisión, la compensación por ello debería agre­
garse a sus salarios (si no está ya contemplada en ellos); análogamente
para personas que viven en los alrededores de dichas centrales, por lo me­
nos si vivían allí antes de la construcción de la planta. No sólo puede pro­
ducirse estrés por la omnipresencia de guardias, etc., sino quizás aun más
por la necesidad de tener a mano los diversos medios que pueden reducir
el riesgo una vez que se ha producido un accidente. No es irracional sentir
ansiedad debido a la necesidad de protegerse de un hecho que casi segura­
mente no ocurrirá.
Sin embargo, hasta el modelo sofisticado es demasiado simple. No
considera tres importantes elementos de la situación: incertidumbre,
aversión al riesgo e irreversibilidad. El resto del estudio analiza estos ele­
mentos. Debido a que el supuesto básico de los modelos de riesgo es que
siempre es posible llegar a un cálculo numérico para la probabilidad de
ocurrencia de los hechos peligrosos mencionados, y que es racional utili­
zar estas probabilidades como base para la evaluación del riesgo, comien­
zo con un análisis de la probabilidad. Aquí distingo entre probabilidad ob­
jetiva, teórica y subjetiva. Esta terminología es hasta cierto punto enga­
ñosa. En el sentido básico estoy de acuerdo con la escuela de probabilida­
des de Finetti-Savage en que todas las probabilidades son subjetivas, es
decir, que se relacionan con nuestro conocimiento del mundo y no con el
mundo mismo. (En este contexto podemos ignorar tranquilamente los he­

173
chos “objetivamente aleatorios” de la mecánica cuántica.) A pesar de ello,
es posible distinguir entre diferentes tipos de fuentes para el conocimiento
probabilístico: frecuencias objetivas, cálculos teóricos y calibraciones sub­
jetivas. Entonces, mi pregunta es si estas fuentes son igualmente confia­
bles.

V il. Probabilidades objetivas

Las probabilidades objetivas derivan de la consideración de la fre­


cuencia observada de determinados hechos en el pasado. Si al tirar una
moneda 1000 veces salió cara 603 veces y ceca 397 veces, entonces pode­
mos predecir con cierta confianza un 60% de probabilidades para que sal­
ga cara la próxima vez. Los análisis de “árbol de defectos” de la probabili­
dad de accidentes en reactores utilizan probabilidades objetivas de este
tipo. Para cada parte del esquema hay una probabilidad conocida de rup­
tura, basada en el análisis de la frecuencia. Suponiendo que estas proba­
bilidades sean independientes entre sí, entonces es posible calcular la
probabilidad de ruptura simultánea en tantas partes como resulte de un
accidente en el reactor. Por el contrario, puede planificarse el esquema
con tanta redundancia que la probabilidad de las rupturas simultáneas
puede hacerse tan pequeña como se quiera.
Si el supuesto de independencia no es válido, tenemos las fallas de
“modo común” que han planteado serios problemas a los investigadores
de probabilidades de fundición. Un importante caso compete al error hu­
mano. La probabilidad de que un técnico se olvide de encender el botón A
no es independiente de la probabilidad de que se olvide de accionar el B.
Además de la no independencia también podemos esperar encontrar efec­
tos posteriores, en el sentido de que un error cometido cambia la probabi­
lidad de que la persona involucrada haga más errores (Feller 1968, pág.
119 y sigs.). Estos dos problemas hacen que sea bastante improbable que
los análisis de frecuencia en accidentes nucleares puedan alcanzar algu­
na vez una gran exactitud. Sin embargo, esto no significa que estemos en
el reino de la incertidumbre. Como se explica más adelante en el apartado
XI, las situaciones que presentan tanto riesgo como incertidumbre pue­
den reducirse al riesgo si ambos interactúan multiplicativamente y no
aditivamente. Probablemente éste sea el caso en el problema del reactor.

VIII. Probabilidades teóricas

Las probabilidades teóricas derivan de una teoría científica. Para pre­


decir el clima mañana (22 de febrero) podemos mirar el clima del 22 de fe­
brero de una cantidad de años precedentes y hacer nuestras predicciones
en base a la frecuencia. Sin embargo, existe un método mejor: mirar el cli­
ma del 20, 21, etc., de febrero del mismo año y utilizar estos datos como
inputs para una teoría científica que predice el clima con más exactitud.
(Casualmente este ejemplo muestra que la distinción entre probabilida­

174
des teóricas y objetivas no es de las difíciles y rápidas, pues incluso el mé­
todo objetivo requiere una teoría del movimiento de los planetas que nos
indica tomar el promedio de todos los 22 de febrero y no de todos los días
nada más.) Por supuesto, una teoría meteorológica debe estar confirmada
por el análisis de las frecuencias de las observaciones, pero sigue siendo
superior a la mera extrapolación de las observaciones anteriores.
Las probabilidades teóricas son importantes en muchos aspectos de la
elección de la energía. Para evaluar la probabilidad de cáncer producido
por el plutonio (Hohenemser y otros 1977, págs. 31-2) o de los cambios de
la temperatura en la atmósfera por la continua liberación de C 0 2 (Sie-
genthaler y Oeschger 1978), debe apelarse a un gran cuerpo de teoría
controvertida. Controvertida es la palabra clave en este contexto. Si hay
varias teorías que compiten en el campo, ¿cuál o cuáles deben utilizarse
para evaluar el riesgo? Primero supongamos que en cierto modo es posible
asignar probabilidades a la verdad de las teorías, de manera que la teoría
A tiene un 70% de probabilidades de ser correcta, la teoría B un 25% y la
teoría C un 5%. Entonces una primera reacción sería guiarse por la teoría
A y utilizar las probabilidades derivadas de ella para la evaluación del
riesgo. Pensándolo un poco esto es claramente incorrecto. Si la teoría B o
incluso la C predijera que si emprendemos un curso de acción determina­
do es muy probable que algo desastroso ocurra, mientras que la teoría A
asigna una ínfima probabilidad a este hecho, entonces sería irracional no
tener en cuenta a la teoría menos probable. Es verdad que para la inves­
tigación pura el científico debería apostar todo su dinero a un solo caballo,
es decir, la teoría más probable o la teoría con el porcentaje actual más al­
to de resolución de problemas (Laudan 1977), pero en la investigación
aplicada (y cuando se financia la investigación pura) hay que distribuir
las apuestas en forma más pareja.
Si las teorías se evalúan probabilísticamente (como se analizó en
Hesse 1974), debe hacerse dentro de alguna clase de marco bayesiano.
Aquí primero asignamos probabilidades previas a la teoría, calculamos la
probabilidad de las observaciones, dada la teoría, y luego utilizamos el
teorema de Bayes para encontrar la probabilidad de la teoría, dadas las
observaciones. El eslabón débil es aquí la probabilidad previa asignada a
la teoría. Arreglar esto mediante el principio de la razón insuficiente es
evidentemente incorrecto pues, en primer lugar, éste da resultados dife­
rentes según cómo individualicemos las teorías y, en segundo lugar, es in­
compatible con el hecho de que tenemos realmente gran cantidad de cono­
cimiento — de hecho, un exceso de razones— importante para la evalua­
ción de las teorías. Una teoría debe 1) encajar con nuestras opiniones me­
tafísicas generales, como los principios de determinismo, causalidad lo­
cal, continuidad, etc.; 2) ser compatible con las teorías de las disciplinas
adyacentes o análogas; y 3) tener las propiedades de simplicidad y cohe­
rencia. El problema es cómo integrar todo este conocimiento y todos estos
requisitos en una evaluación general de la teoría. Debe utilizarse alguna
clase de probabilidad subjetiva, un concepto que se analiza en el siguien­
te apartado. Como adelanto, las probabilidades subjetivas con frecuencia
no son confiables y no deberían utilizarse como base para actuar. En el ca­

175
so especial de asignar probabilidades a las teorías, creo que si debe uti­
lizarse el método subjetivo, hay que aplicarlo directamente a las probabi­
lidades posteriores y no utilizar el método indirecto propuesto por los
bayesianos. Para el científico práctico a quien se apelaría, sería un proce­
dimiento muy extraño el de asignar probabilidades a teorías antes de la
observación. El único modo de aprovechar su juicio científico sería incluir
los datos entre el material utilizado para la evaluación. (Por supuesto las
probabilidades así obtenidas deben utilizarse como probabilidades pre­
vias cuando suijan nuevos datos.)
Desafortunadamente, hay enormes problemas para evaluar la con­
fiabilidad de dichas evaluaciones probabilísticas de las teorías. Cuanto
mejor conoce un científico el campo considerado, más probablemente se
identificará con una de las teorías en competencia. Esta identificación es
tanto una condición para un trabajo provechoso como una fuente de ten­
dencia en la evaluación. El espectador imparcial e informado no existe en
ciencias.[16] Por esta razón el mejor procedimiento frecuentemente pare­
cería ser renunciar a una clasificación de las teorías, o por lo menos de
aquellas que pasan determinadas pruebas operacionales para la mínima
plausibilidad. Esto significa que en nuestra elección entre las teorías es­
tamos en una situación de incertidumbre, incluso si cada una de las teo­
rías nos coloca en una situación de riesgo. En lo que sé, este problema no
se ha tratado en la bibliografía y es difícil decir cuál es el procedimiento
racional en tales casos.[17]
En realidad la situación puede ser aun más complicada. Dagfinn
Fállesdal (1979) indicó que cuanto mayor la cantidad de teorías en compe­
tencia, mayor la probabilidad de que sean todas falsas. Si tenemos varias
teorías que utilizan clases bastante diferentes de supuestos, esto se ha
considerado como una señal de que el objeto de dichas teorías es parte del
universo que simplemente no entendemos muy bien. Entonces puede ser
racional suponer que algo aun peor puede pasar que lo que predicen cual­
quiera de estas teorías, o que la probabilidad de que lo peor sucederá es
aun mayor que lo que cualquiera de ellas implica.

IX. Probabilidades subjetivas

Muchos de los problemas importantes para la elección de energía no


se prestan a un análisis en términos de probabilidades objetivas o teóri­
cas. La probabilidad del intento de robo o sabotaje es uno de dichos pro­
blemas; la probabilidad de que un gobierno en algún momento futuro uti­
lice plutonio de sus centrales atómicas para construir armas atómicas es
otro. Sin embargo, ha habido intentos (Instituto de Investigaciones Stan-
ford 1976) de cuantificar estas probabilidades, supuestamente en base a
las probabilidades subjetivas. El fundamento detrás del uso de probabili­
dades subjetivas — pálpitos coherentes— es el siguiente. Probablemente
nunca sea el caso de que estemos en un estado de completa ignorancia con
respecto a un problema dado. Si podemos establecer cuál es el problema,
debemos saber algo acerca de él. Incluso para los problemas más esotéri-

176
eos (¿hay vida en otros planetas?) tenemos mucha información de algún
modo importante. Aunque este conjunto de informaciones no esté incor­
porado a una teoría, está allí, y no sería racional actuar como si no estu­
viera. ¿Qué sería más irracional que actuar como si fuéramos ignorantes
cuando en realidad no lo somos?
El argumento es convincente, pero ilógico. Presupone que de algún
modo podemos integrar nuestros diversos fragmentos de conocimiento y
llegar a una conclusión estable e intersubjetivamente válida. El papel de
una teoría científica es precisamente efectuar dicha integración, pero en
ausencia de una teoría a todo lo que podemos apelar es &\juicio, sin duda
una cualidad escurridiza. Hasta cierto punto podemos contar con encon­
trar esta cualidad en personas que no habrían sobrevivido sin ella, como
los políticos o empresarios exitosos (Elster 1979, cap. III. 4), pero no hay
razón para esperar lo mismo de científicos o burócratas, en quienes su­
puestamente recaería la función de cuantificar las probabilidades consi­
deradas. Hay demasiados mecanismos conocidos que distorsionan nues­
tro juicio, desde el pensamiento intencional hasta las rígidas estructuras
cognitivas, como para que podamos adjudicar mucho peso a las magnitu­
des numéricas que pueden obtenerse a través del método estándar de pe­
dir a los individuos que elijan entre opciones hipotéticas. (Véase Tversky
y Kahneman 1974, Janis y Mann 1977, y Slovic y otros 1977.) Es decir,
que debemos resistir el mencionado paso de “es” a “debería”. A partir del
hecho de que siempre es posible obtener estas probabilidades subjetivas,
no debemos concluir que hay que actuar racionalmente sobre ellas. Sin
duda se podría obtener de un científico político la probabilidad subjetiva
que le adjudica a la predicción de que en el año 3000 Noruega será una de­
mocracia y no una dictadura, pero ¿alguien contemplaría la posibilidad de
actuar en base a esta magnitud numérica?

X. E l m o d e lo d e in ce r tid u m b re p a ra la e le c c ió n d e e n e rg ía

Mientras la elección de energía plantee temas que no pueden anali­


zarse en términos de probabilidades objetivas o teóricas, estamos en un
estado de incertidumbre, a no ser que estemos en la feliz situación de po­
der confiar en el juicio subjetivo de personas de probada confiabilidad. Y
mientras estemos en un estado de incertidumbre, es racional actuar como
si lo peor que pudiera suceder, sucederá. (Recuérdese que este simple cri­
terio solamente es válido cuando todas las alternativas tienen las mismas
mejores consecuencias, de modo que sólo es importante lo peor.) ¿Qué
significa esto en el contexto de la elección de energía? Entre los peligros
enumerados en el apartado V, las incertidumbres son importantes en
muchos, en realidad en la mayoría. Sin embargo, como se verá en el si­
guiente apartado, en muchos de estos problemas el riesgo oculta la incer­
tidumbre. Las verdaderas incertidumbres permanecen en dos casos: la
proliferación de armas nucleares y el calentamiento de la atmósfera por
la liberación de C 0 2 por las plantas fósiles. No tenemos teorías sobre el
primer problema; acerca del segundo, demasiadas.

177
En este punto es necesario distinguir entre diferentes clases de toma­
dores de decisiones. Si la elección de energía surge en un país que ya ha
adquirido armas nucleares, el argumento de la proliferación de armas nu­
cleares no tiene peso. Y si la nación-Estado debe tomar decisiones en base
a las consecuencias esperadas solamente para dicho Estado, el tema del
C 0 2 es irrelevante, ya que ningún país — o solamente uno muy grande—
puede resultar muy perjudicado por las consecuencias para la atmósfera
de sus propias plantas fósiles. Para que el tema del C 0 2 sea importante,
la nación-Estado debe o actuar en términos de consideraciones morales
como el imperativo categórico, o ser tan grande que pueda sentir el impac­
to de sus propias acciones, o dejar la decisión en manos de algún organis­
mo internacional.
Sobre la base del puro interés en sí misma, reforzado por el razona­
miento moral, una nación que aún no ha adquirido armas nucleares debe­
ría abstenerse de la energía atómica, para no entregar a las generaciones
venideras un potencial para comenzar o precipitar una guerra nuclear.
Como nadie puede decir con seguridad qué probabilidades hay, por ejem­
plo, de que Noruega dentro de mil años tenga un gobierno que podría ver­
se tentado por dicho potencial, hay que actuar como si fuera seguro que el
potencial será explotado, y esto significa que no debería ser creado. En ba­
se al razonamiento moral (para las grandes naciones reforzado por el in­
terés en sí mismas) un país no debería extender su uso de la energía fósil.
Para los países con una tercera opción, la extensión de la energía hidroe­
léctrica, éstas son conclusiones aceptables. Para la mayoría de las nacio­
nes que no pueden elegir esta salida, hay una elección entre (en el mejor
de los casos) crecimiento nulo, energía de fisión y energía fósil. El prime­
ro fue descartado por conjetura, la segunda por interés propio, la tercera
por moralidad. Algo tiene que dar. En el apartado XV se plantea el proble­
ma empírico: ¿qué tiene probabilidades de ser sacrificado: el crecimiento,
el interés propio o la moralidad? Hasta el punto en que se puede decir al­
go acerca de lo que debería sacrificarse, admito que la energía fósil es me­
nos perjudicial que la atómica. Si hay un aumento gradual del calor en la
atmósfera, entonces en algún momento futuro habrá una presión política
que hará que la primera opción — crecimiento nulo— sea políticamente
posible o incluso políticamente necesaria, aunque no es el caso actual­
mente. Es políticamente posible optar por una acción que será el mejor
curso de acción políticamente posible en alguna fecha futura (Elster
1978a, póg. 52). Por otro lado, con la energía nuclear tal cambio de posi­
ción es imposible: si alguna vez comienza una guerra nuclear, será dema­
siado tarde para hacer algo. Admito libremente que hay algo raro en mi
defensa de la energía fósil y que mi argumento realmente conduce a la
conclusión del no crecimiento. Sin embargo, aquí nos ocupamos de los se­
gundos mejores argumentos, como sucede frecuentemente en política. En
este caso particular la segunda mejor propuesta puede justificarse me­
diante las mejores consideraciones como acabo de explicar. Esto debería
ir en cierto modo hacia lograr que el argumento sea más aceptable para
los grupos que de otro modo lo caracterizarían como “vendiendo al sis­
tem a”.

178
Antes de abandonar el tema de la incertidumbre, debo responder una
pregunta que se planteó en el apartado II. Si un hecho es incierto, en el
sentido técnico de la palabra utilizado aquí, ¿cómo sabemos que es real­
mente posible? No queremos incluir en la lista de consecuencias toda cla­
se de hechos abstractamente posibles, como la invasión extraterrestre
como resultado de la radiactividad emitida desde centrales nucleares y
detectada en Alfa Centauro, pero ¿cómo podemos distinguir entre lo
abstractamente posible y lo realmente posible? Propongo el siguiente cri­
terio. Como enuncié anteriormente, la incertidumbre no implica total ig­
norancia. Por el contrario, con frecuencia tenemos grandes cantidades de
información que de alguna manera es importante para el hecho conside­
rado, siendo la dificultad la de evaluar el efecto neto de todo este conoci­
miento. En teoría económica antes del advenimiento de los modelos mate­
máticos éste era frecuentemente el caso. Un economista podía decir con
confianza que las barreras tarifarias conducirían a un aumento de empleo,
otro que reduciría el empleo y ambos podían tener razón en el sentido de
poder justificar sus afirmaciones mediante una teoría parcial, describien­
do un mecanismo parcial en el mundo real. Por otro lado, no pudieron lle­
gar a un acuerdo, pues no contaban con las herramientas matemáticas
que hicieran posible determinar el resultado neto de los mecanismos
opuestos. A partir del análisis de sistemas (Forrester 1971, págs. 109-10)
se sabe que dichos efectos netos a largo plazo son frecuentemente con­
traintuitivos, confirmando lo que dije anteriormente con respecto a las ob­
jeciones a las probabilidades subjetivas en tales casos. Sin embargo, las
teorías parciales sí tienen un uso: pueden circunscribir lo realmente posi­
ble de lo abstractamente posible. Cualquier consecuencia predicha por
una teoría parcial que es válida ceteris paribus es una consecuencia “real­
mente posible”. Para decir cuán probable es dicha consecuencia, también
necesitaríamos tener una teoría general de lo que sucede cuando los cete-
ra no son paria .

XI. Mezcla de riesgo e incertidumbre

Me he referido a los problemas que surgen cuando una situación tiene


elementos tanto de riesgo como de incertidumbre. Uno de estos problemas
ha quedado sin resolver: ¿cómo actuar cuando no estamos seguros con
respecto al correcto análisis de riesgo de la situación? Este es un problema
difícil porque la incertidumbre y el riesgo aquí están ordenados jerár­
quicamente. Los problemas son más fáciles de tratar cuando la incerti­
dumbre y el riesgo coexisten en el mismo nivel. Si por simplicidad nos
limitamos a interacciones aditivas y multiplicativas entre los elementos
del problema, entonces la incertidumbre domina al riesgo en las interac­
ciones aditivas, mientras que es del otro modo en las interacciones multi­
plicativas. Permítaseme explicar estas afirmaciones a través de algunos
ejemplos.
En las interacciones aditivas la incertidumbre domina al riesgo. La
energía nuclear tiene el riesgo del accidente y la consecuencia incierta de

179
la proliferación de armas nucleares. No importa cuán pequeño hagamos
al primero mientras la segunda esté presente. Una gran cantidad + una
pequeña cantidad sigue siendo una gran cantidad. Sin embargo, una can­
tidad grande multiplicada por una pequeña puede ser una cantidad pe­
queña, especialmente si podemos hacer el multiplicador pequeño tan
pequeño como queramos. Tomemos el caso del uso exitoso de plutonio ro­
bado para fabricar armas nucleares, como analizó el Instituto de Investi­
gaciones de Stanford (1976). La probabilidad de este hecho es el producto
de tres probabilidades: (la probabilidad de que se intentará cometer el ro­
bo) x (la probabilidad de que el robo tendrá éxito si se intenta perpetrarlo)
x (la probabilidad de que se logrará la fabricación de la bomba, dado el in­
tento de éxito). Aquí el primer y el tercer hecho están rodeados de incerti­
dumbre, pero el segundo tiene una probabilidad cuantiñcable que depen­
derá de las medidas de seguridad que se tomen. (Esta afirmación se sepa­
ra, quizá sin justificación, de la posibilidad de que los ladrones tengan
ayudantes adentro que pudieran convertir a dichas medidas en tan inúti­
les como la línea Maginot.) Esto significa que la probabilidad del hecho en
su totalidad no es mayor que la probabilidad del segundo hecho, que pue­
de evaluarse y hasta controlarse.
La misma situación parece darse en el problema de los desechos nu­
cleares:

Debido a que no podemos probar que no hay riesgo de entrada de aguaen es­
tas formaciones, haremos la suposición conservadora de que se producirá fi­
nalmente flujo de aguas subterráneas. Determinaremos si hay parámetros
de control que todavía puedan asegurar el confinamiento y si hay consecuen­
cias para el medio. Creemos que es más importante hacer estas clases de
cálculoal estudiar un depósito que tratar de evaluar coeficientes de probabi­
lidades para la aparición de aguas subterráneas (de Marsily y otros 1977,
pág. 521; véase también Kubo y Rose 1973, pág. 1207).

XIL Actuar como si fuera a suceder lo peor

El criterio de maximización para tomar decisiones bajo incertidum­


bre, para ser utilizado cuando todas las alternativas tienen las mismas
mejores consecuencias, nos dice que comparemos las consecuencias peo­
res y luego elijamos la alternativa con las mejores peores consecuencias.
He dicho que la energía atómica tiene la peor peor consecuencia: una gue­
rra nuclear mundial; que la energía fósil tiene una peor consecuencia un
poco mejor: el calentamiento reversible (o por lo menos evitable) de la at­
mósfera; mientras que la mejor peor consecuencia pertenece a una opción
que actualmente parece políticamente imposible, la economía de no creci­
miento.
Comparar las consecuencias peores de este modo puede parafrasear­
se como actuar como si fuera a suceder lo peor. Este principio también
puede defenderse en casos de riesgo y no de incertidumbre, es decir, si al­
gunas de las consecuencias son infinitamente peores que las demás. Si la
extinción del hombre se evalúa en menos infinito, entonces cubre a todos

180
los desastres de dimensiones finitas. Por supuesto, debemos tener cierta
probabilidad precisa adjudicada a este hecho: no es suficiente la mera po­
sibilidad lógica. Sin embargo, no importa si esta probabilidad es extrema­
damente pequeña pues una cantidad infinita multiplicada por cualquier
cantidad positiva sigue siendo infinita. Esta es la postura de Pascal al re­
vés. La debilidad de este argumento es que puede resultar que la mayoría
de las acciones tengan tales desastres totales asociadas a ellas, como una
probabilidad extremadamente lejana pero cuantificable. Por lo tanto,
creo que hay que ser muy cuidadoso al argumentar según lo dicho. El ar­
gumento de incertidumbre para el principio de actuar como si fuera a su­
ceder lo peor es mucho más sólido.
Algunos autores (por ejemplo, la Comisión Sueca de Energía 1978)
proponen el siguiente criterio: actuar de modo de evitar una probabilidad
demasiado grande de desastre. Para ser precisos, indican que si hay una
probabilidad > a de un desastre > (3, entonces no debe emprenderse este
curso de acción. Algunas veces esto se caracteriza como una variedad del
criterio de maximización, pero evidentemente no lo es. Es una versión
operacional del criterio de utilidad esperada que puede ser útil en aplica­
ciones concretas, pero es demasiado pragmático como para tener un gran
peso teórico.

X m . Aversión al riesgo

El apartado precedente concluye mi argumento para el modelo de in­


certidumbre en oposición al modelo de riesgo. Sin embargo, hay dos pro­
blemas más con los modelos simples y sofisticados de riesgo del apartado
VI que son independientes del tema de la incertidumbre. El primero se re­
fiere a la aversión al riesgo, el hecho de que no podemos igualar automá­
ticamente un peligro S, que se calcula ocurre con una probabilidad P, con
un peligro S2 con probabilidad P, aunque PjS, = P ^ . Para decirlo de mo­
do más concreto, una probabilidad de uno en un millón de un millón de
muertes y una probabilidad de uno en mil de mil muertes no son necesa­
riamente equivalentes. La teoría de la aversión al riesgo para los indivi­
duos está muy desarrollada,[18] pero no es necesariamente pertinente
para las elecciones sociales. Permítaseme señalar brevemente una razón
por la que la sociedad preferiría una gran probabilidad de un pequeño ac­
cidente a una pequeña probabilidad de un gran accidente y una razón pa­
ra tener la preferencia opuesta, suponiendo que los riesgos, según se defi­
nieron anteriormente, sean idénticos.
La muerte de un individuo es una tragedia para aquella persona, pa­
ra sus amigos y familiares y para la sociedad como un todo. El primer ele­
mento se cancela en esta comparación, pero los dos últimos apuntan en
direcciones opuestas. La muerte de una persona es una tragedia para la
sociedad porque, o en la medida en que, es portador de habilidades especí­
ficas o de tradiciones específicas. No es muy probable que un solo indivi­
duo sea irreemplazable, pero es muy probable que la destrucción de toda
una comunidad signifique la pérdida de una parte de la herencia nacional.

181
Por lo tanto, ésta es una razón para preferir la gran probabilidad de un
pequeño accidente. Por otro lado, la cantidad de familiares y amigos que
están acongojados será menor en un gran accidente, pues en este caso las
probabilidades son que muchos de estos individuos perezcan al mismo
tiempo. Esto proporciona una razón para la preferencia opuesta. Creo que
el primer argumento — dar preferencia a grandes probabilidades de pe­
queños accidentes— domina cuando los pequeños accidentes se tornan re­
lativamente grandes, pues entonces el segundo argumento no distinguirá
muy bien entre ambos casos. Es decir, que podemos preferir una probabi­
lidad de uno en mil para la muerte de mil personas tanto a cierta muerte
de un individuo como a una probabilidad de uno en un millón para la
muerte de un millón de personas. Este es una razonamiento espantoso,
pero son asuntos espantosos.

XTV. Irreversibilidad

Claude Henry (1974) ha demostrado que incluso con neutralidad de


riesgo, los modelos de riesgo pueden no ser adecuados para el análisis. El
valor esperado puede no ser el mejor maximando cuando hay irreversibi­
lidades, como frecuentemente ocurre en la elección de energía. La razón
de esto se mencionó brevemente en el apartado V y ahora se explicará con
mayor detalle. Supongamos que tenemos que elegir entre dos alternati­
vas: tomar una decisión irreversible y posponer la decisión. Suponemos
que, dada la información actual, la primera alternativa tiene el mayor va­
lor esperado. Por otro lado tenemos información (bastante general) de que
obtendremos más información específica pertinente a la decisión. (Por su­
puesto, no sabemos qué información obtendremos pues si lo supiéramos
ya la tendríamos.) Si en un fecha posterior tenemos razones aun mejores
para tomar la decisión,' no habremos perdido demasiado en posponerla,
pues una decisión de posponer generalmente puede revertirse. Si, por
otro lado, la información posterior proporciona argumentos contra la deci­
sión, entonces sería mejor si no la hubiéramos tomado. Por supuesto, este
argumento no debe estirarse demasiado pues entonces nunca se tomarían
decisiones irreversibles. El argumento sólo tiene sentido dentro de cierto
marco teórico que especifica la estructura de la información esperada. A
pesar de ello, es intuitivamente obvio que el punto es importante. (Obsér­
vese que también está relacionado con el problema analizado en el último
párrafo del apartado VIII.)
En el debate de la energía el problema de la irreversibilidad se plan­
teó especialmente en conexión con la eliminación de los desechos nuclea­
res. Aquí las técnicas irreversibles fueron consideradas en parte como
una solución al problema de un futuro irresponsable y en parte como
generadoras ellas mismas del problema del compromiso prematuro anali­
zado anteriormente (Kubo y Rose 1973, Rochlin 1977). Los efectos am­
bientales del C 0 2 también se analizaron bajo dicho título. Sin embargo,
distingamos entre dos formas de irreversibilidad. Para este propósito es
útil tener el concepto de una frontera, el valor de alguna variable por so­

182
bre la cual hay efectos ambientales o sociales desastrosos. Entonces la
irreversibilidad fuerte se da si 1) solamente se puede saber dónde está la
frontera golpéandola y 2) es imposible alejarse de ella una vez que se la ha
tocado. La irreversibüidad débil se obtiene cuando se satisface la condi­
ción 2), pero no la 1). La primera condición es una condición de incerti­
dumbre muy fuerte, al decir que no sólo somos ignorantes ahora acerca de
cuánto nos podemos alejar, sino que seguiremos estándolo hasta que
hayamos llegado demasiado lejos. “Nunca se sabe qué es suficiente si no
se sabe qué es más que suficiente” (Blake, “ Proverbs o f Hell”). Puede ser
que los efectos del C 0 2 sean débilmente irreversibles (Siegenthaler y
Oeschger 1978, pág. 394), pero no parecen ser fuertemente irreversibles.
En contraste, una guerra atómica es fuertemente irreversible. La realiza­
ción de la condición 2) es obvia. Con respecto a la condición 1), la historia
nos dice que la práctica de llevar las cosas al borde de una guerra y la pro­
vocación difieren principalmente luego del hecho.

XV. La política y la teoría de las decisiones

Concluyo con algunas observaciones acerca de la relación entre los as­


pectos normativos y empíricos de la elección de energía. Sobre este tema
solamente puedo ofrecer dos observaciones bastante triviales, basadas en
las pruebas casuales y no en la investigación sistemática. La primera es
que los ingenieros y economistas parecen pensar de modo bastante dife­
rente acerca de estos problemas. El ingeniero tiende a pensar en términos
de riesgo y de probabilidades cuantificadas, mientras que el economista
por su entrenamiento es más abierto a la posibilidad de una verdadera in­
certidumbre. Por lo tanto propongo la siguiente como hipótesis de trabajo:
cuanto más prominentes sean los ingenieros en el proceso de la decisión,
hay más probabilidades de que se adopten modelos de riesgo y más resis­
tencia habrá a los argumentos basados en la incertidumbre. Para el inge­
niero la incertidumbre es un desafío para conseguir más conocimiento. En
sí ésta es una buena actitud, pero no lo es si cierra los ojos frente a la po­
sibilidad de que haya algunos temas donde es inherentemente imposible
obtener más información.
La segunda observación se refiere a la razón por la cual los políticos
puedan no ser influidos por consideraciones como las que se han hecho
aquí. Pedirle a un político que dé gran peso al bienestar de generaciones
venideras y/o al bienestar de otros países es en realidad como pedirle que
se suicide. Los temas más importantes en lo referido a la energía nuclear
conciernen al futuro lejano, quizá muy lejano. El problema más importan­
te acerca de la energía fósil se relaciona con el impacto sobre otros países
de la liberación de C 0 2 en la atmósfera. Por otro lado, el efecto ambiental
de la construcción de represas para energía hidroeléctrica es inmediata­
mente visible aquí y ahora. En Noruega tenemos la paradoja de que las
presiones políticas de los grupos ecológicos y defensores del ambiente, que
actúan a través de las organizaciones juveniles de todos los partidos polí­
ticos, pueden llevamos a abstenernos de extender el sistema de energía

183
hidroeléctrica, aunque sea muy superior a las otras alternativas según los
sistemas de valores de estos mismos grupos. Esto es así porque la destruc­
ción directa del medio tiende a movilizar a más personas que las acciones
que tienen consecuencias más remotas en el tiempo o en el espacio.
Permítaseme agregar, de modo provisional, que la moralidad resulta
ser más fuerte que el interés propio a largo plazo. La moralidad tiene al­
gunos defensores actuales, como el sistema de organizaciones internacio­
nales, mientras que los voceros de las generaciones venideras son pocos y
están lejos. Mientras esto sea verdad, esperaría que se elija la energía nu­
clear frente a la fósil, aunque lo contrario parezca una elección más racio­
nal. Sin embargo, creo que la opción fósil es una posibilidad política ge-
nuina.

184
A p é n d ice 2
La contradicción entre las fuerzas
y las relaciones de producción
Con una Nota matemática, por Aanund Hylland*

1. Introducción

En este apéndice ofrezco lo que considero una nueva interpretación de


la teoría de Karl Marx sobre la relación entre las fuerzas productivas y las
relaciones de producción en el capitalismo. El análisis pretende ser exegé-
ticamente fiel; de hecho, considero que permite reconciliar textos que se­
gún la interpretación estándar parecerían contradecirse mutuamente.
También espero que sea de interés en sí mismo. En particular, ofrece un
marco conceptual para las cuestiones empíricas y de bienestar teórico re­
lacionadas con la transición del capitalismo al comunismo.
En el apartado 2 cito algunos de los textos importantes que tienen que
ver con el problema y explico en forma intuitiva la dificultad que confron­
ta el intérprete. En el apartado 3 planteo el modelo que especifica la inter­
pretación. El apartado 4 presenta algunos comentarios sobre el modelo, y
en particular sobre el problema para encontrar el punto de transición óp­
timo entre el capitalismo y el comunismo. La Nota Matemática contiene
las pruebas de algunas aseveraciones hechas en los apartados 3 y 4.

2. Marx y la cuestión de las fuerzas productivas y las relaciones


de producción

Pocos negarán que el materialismo histórico se encuentra en el cora­


zón del marxismo ni que la relación entre las fuerzas productivas y las re­
laciones de producción se encuentra en el corazón del materialismo histó­
rico. Podría esperarse, entonces, que Marx hubiera explicado en detalle y
con cierta precisión qué significan estos conceptos y cómo se relacionan
entre sí. Al menos cabría esperar que tales desarrollos aparecieran en el

* Agradezco a G. A. Cohén, Leif Johanaen y Gunnar Opeide por aua comentarios sobre
una versión anterior de este artículo. También deseo destacar que la contribución de Aanund
Hylland va mucho más allá de la Nota Matemática. Sobre la base de mi anterior esquema so­
bre el sistema de axiomas, demostró cómo podía simplificarse y cómo podían derivarse los teo­
remas (de los cuales es plenamente responsable). También efectuó valiosos comentarios so­
bre las partes no matemáticas.

185
caso especial del modo capitalista de producción, el caso de lejos más in­
tensamente estudiado por Marx. Como todos los lectores de Marx saben,
no era tal su costumbre. El significado de todos los términos y de la teoría
que los relaciona entre sí debe reconstruirse de entre los textos disemina­
dos, escritos a lo largo de unos 30 años. El texto básico sobre nuestro pro­
blema se encuentra en el Prólogo a la Crítica de la economía política:

En la producción social de sus vidas, los hombres contraen relaciones defini­


das que son indispensables e independientes de su voluntad, relaciones de
producción que corresponden a una etapa definida en el desarrollo de sus
fuerzas productivas materiales... En una determinada etapa de su desarro­
llo, las fuerzas productivas materiales de una sociedad entran en conflicto
con las relaciones de producción existentes o —lo que no es más que una ex­
presión legal de la misma cosa— con las relaciones de la propiedad dentro de
las cuales han estado trabajando hasta el momento. De ser formas de desa­
rrollo de las fuerzas productivas estas relaciones se transforman en sus pro­
pias trabas (Marx 1859).
Aquí hay cuatro términos clave que deben ser interpretados: “fuerzas
de producción”, “relaciones de producción”, “correspondencia” y “contra­
dicción”. El pasaje afirma que dentro de cada modo de producción pueden
distinguirse dos etapas. En una etapa inicial hay correspondencia entre
las fuerzas productivas y las relaciones de producción, y en una etapa pos­
terior es una relación de contradicción. Nada se dice respecto del mecanis­
mo que hace que de correspondencia se cambie a contradicción. La precisa
naturaleza de este mecanismo en el caso del capitalismo constituye el te­
ma del presente trabajo. Antes de abordar dicho tema, sin embargo, es ne­
cesario comprender los términos pertinentes.
Para un análisis minucioso de las “fuerzas productivas” y de las “rela­
ciones de producción”, remitiré al lector a Cohén (1978). Estipularé sin
mayor análisis que las relaciones de producción se definen en términos de
la propiedad de los medios de producción, incluyendo la mano de obra in­
volucrada. Cabe decir, sin embargo, algo más acerca de las fuerzas pro­
ductivas. Daré por sentado que son esencialmente idénticas a la tecnolo­
gía dada, incluyendo las habilidades laborales y el conocimiento científico
asociado con ella. Pero Marx utiliza los términos “Produktivkraft” y “Pro-
duktivkrafte” en forma ambigua, destacando algunas veces la productivi­
dad abstracta corporizada por la tecnología y otras veces la corporización
físicamente concreta. Al referirse al “desarrollo” de las fuerzas producti­
vas, Marx ciertamente se refiere al aspecto cuantitativo y abstracto. Pero
las tecnologías también sufren “ cambios” y exhiben “diferencias” que pue­
den ser descritas en términos puramente cualitativos. Y parecería que
Marx y sus intérpretes a veces se refieren a los aspectos cualitativos de la
tecnología al analizar el problema de la correspondencia-contradicción.
Los términos gemelos “correspondencia” y “contradicción” aparecen a
partir de La ideología alemana en adelante básicamente en los mismos
contextos y, por lo tanto, caba presumir, básicamente en el mismo senti­
do. Este sentido, sin embargo, resulta ser muy elusivo. La principal difi­
cultad es la siguiente. El texto de 1859 que se cita más arriba realiza una

186
serie de afirmaciones generales que pretenden ser válidas para todos los
modos de producción, desde el asiático hasta el capitalismo inclusive. Por
el otro lado, estas afirmaciones, en su interpretación más natural (o al
menos más estándar), parecerían estar en contradicción, de diferentes
modos, tanto con las afirmaciones de Marx acerca de las formas precapi­
talistas de producción como con su explicación del capitalismo. Demostra­
ré que la primera incompatibilidad es real. En el análisis de Marx sobre
las sociedades precapitalistas parecería no haber lugar para el cambio de
correspondencia hacia contradicción que se sostiene en la teoría general.
Por el contrario, considero que la interpretación es capaz de eliminar la
segunda incompatibilidad.
Permítaseme primero presentar lo que he denominado la interpreta­
ción más natural o estándar del Prólogo. Consiste en que en toda forma de
producción existe inicialmente una alta tasa de progreso tecnológico, que
finalmente decrece hasta llegar al estancamiento. El lector puede visuali­
zar el proceso como la familiar curva logística, y el cambio desde corres­
pondencia a contradicción puede entonces identificarse como el punto en
el cual la tasa de progreso tecnológico comienza a caer. Pero estos detalles
no son realmente importantes. Lo que es importante es el crecimiento
inicial y el estancamiento final dentro de cada modo de producción. La in­
terpretación estándar afirma entonces que las relaciones de producción
varían cuando y debido a que se implanta el estancamiento y que son
reemplazadas por un nuevo conjunto de relaciones que permiten nueva­
mente el progreso tecnológico. Para ejemplos de esta interpretación, el
lector deberá remitirse a Plamenatz (1954, pág. 20, pág. 28), Kolakowski
(1978, vol. I, pág. 375) y Cohén (1978, pág. 173, proposición (4)). Conside­
ro que esta interpretación es errónea, pero no sería honesto de mi parte
dejar de mencionar la base textual en el Prólogo: “Ninguna formación so­
cial sucumbe antes de que se desarrollen todas las fuerzas productivas
para las cuales tiene espacio”. Creo que esta simple oración no puede te­
ner prioridad sobre todos los demás textos, que se mencionarán más ade­
lante, que afirman que el capitalismo va a sucumbir antes que se desarro­
llen todas las fuerzas productivas para las cuales tiene espacio.
Una característica importante de la interpretación estándar es que
afirma que la noción de correspondencia es de tipo dinámica, es decir, que
implica un desarrollo tecnológico. De hecho es un requisito lógico de la teo­
ría que la noción de correspondencia tenga este carácter dinámico, por lo
menos si la contradicción tiene que surgir en forma endógena de la corres­
pondencia. Y este énfasis en el cambio endógeno resulta, según creo, cen­
tral para el materialismo histórico. Para poder ver la importancia de esta
definición dinámica, considérense dos definiciones alternativas — y nada
raras— para la correspondencia como noción puramente estática. Pri­
mero, existe la tentación de ver la contradicción entre las fuerzas pro­
ductivas y las relaciones de producción como el uso subóptimo de las
primeras, con lo cual se implica que la correspondencia consiste en el uso
óptimo. Pero el uso óptimo es una noción estática que no puede de nin­
guna manera engendrar su contrario. Si en algún momento las relaciones
de producción son tales que permiten el uso óptimo de la tecnología exis­

187
tente, entonces esto no tiene implicancias más allá de ese momento. Se­
gundo, existe la tentación de explicar la correspondencia en términos del
carácter cualitativo de las fuerzas productivas, como cuando se argumenta
que la necesidad de irrigación puede explicar las relaciones de producción
independientemente del nivel de productividad. Puede ser cierto que la
irrigación requiera la coordinación y centralización de algunas decisiones
económicas, pero una vez más queda oscuro de qué manera esta corres­
pondencia podría contener la semilla de su propia destrucción. Por el con­
trario, si la correspondencia implica un cambio de tecnología, podemos en­
tonces percibir la posibilidad de que ello destruya la correspondencia.
El segundo rasgo crucial de la interpretación estándar es que afirma
que la noción de contradicción es de tipo estático, implicando que el cam­
bio se ha detenido. Si bien mantengo el primer rasgo de la interpretación
estándar, rechazo el segundo, como se explica a continuación.
La interpretación estándar, entonces, sostiene el crecimiento seguido
por el estancamiento dentro de cada modo de producción. Esto se contra­
dice con la afirmación de Marx respecto de que las formas de producción
precapitalistas mostraban un estancamiento ininterrumpido; y también
con su opinión acerca de que el capitalismo muestra un crecimiento inin­
terrumpido (y de hecho en aceleración). La primera contradicción debe
atribuirse a Marx y no a la interpretación estándar. La segunda, sin em­
bargo, puede eliminarse si se mejora la interpretación estándar.
En el Manifiesto comunista Marx escribe que “la burguesía no puede
existir sin revolucionar continuamente los instrumentos de la producción,
y por ende las relaciones de producción y las relaciones sociales. La
conservación, en forma inalterada, de las viejas formas de producción
constituía, por el contrario, la primera condición de existencia de todas
las anteriores clases industriales” . Este pasaje también se cita en El Ca­
pital, en una nota a pie de página correspondiente a una oración que ex­
presa que “todos los modos anteriores de producción eran esencialmente
conservadores” (Marx 1867, pág. 486). De hecho, Marx creía que las for­
mas precapitalistas de producción requerían para su perpetuación un
conjunto inalterable de fuerzas productivas, y que se despedazaban cuan­
do las fuerzas productivas se desarrollaban más allá del pequeño espacio
compatible con las relaciones de producción existentes. En otras pala­
bras, aquí correspondencia significa estancamiento tecnológico, y contra­
dicción significa cambio tecnológico, exactamente lo opuesto de lo que
afirma el Prólogo de 1859 acerca de la interpretación estándar que acabo
de desarrollar. El significativo texto extraído de los Grundisse en donde
Marx expone su opinión sobre las formas precapitalistas de producción
merece ser citado en su totalidad:

A pesar de estar limitado por su propia naturaleza, el capital lucha hacia el


desarrollo universal de las fuerzas de producción, y así se convierte en la
presuposición de un nuevo modo de producción, que se fundamenta no en el
desarrollo de las fuerzas de producción con el fin de reproducir o al menos
expandir una condición determinada, sino donde el desarrollo universal,
progresivo, libre y sin obstrucciones de las fuerzas de producción es en sí
mismo la presuposición de la sociedad y por lo tanto de su reproducción; en

188
donde el avance más allá del punto de partida es la única presuposición. Es­
ta tendencia —que posee el capital, pero que al mismo tiempo, dado que el
capital es una forma limitada de producción, lo contradice y por lo tanto lo
lleva a la disolución— distingue al capital de todas las formas anteriores de
producción, y al mismo tiempo contiene este elemento: que el capital se sitúa
como un simple punto de transición. Todas las formas anteriores de sociedad
zozobraron debido al desarrollo de la riqueza o, lo que es igual, debido a las
fuerzas sociales de producción. (Marx T857, pág. 540.)
Marx contrasta aquí el desarrollo de las fuerzas productivas bajo el
capitalismo con su desarrollo tanto en la sociedad precapitalista como en
la sociedad comunista más alta. Me referiré ahora a la segunda de estas
comparaciones. En la frase en bastardilla (y en la cual he corregido un
error fatal de la traducción de Nicolaus) Marx dice que las formas preca­
pitalistas de producción fracasaron porque fueron incapaces de absorber
el cambio tecnológico y luego cita la destrucción del feudalismo mediante
la pólvora y la imprenta (entre otras cosas) como ejemplo. Creo que es im­
posible compatibilizar esto con la interpretación estándar del Prólogo. En
particular, no puedo aceptar la reciente propuesta de Cohén (1978, págs.
169 y sigs.) acerca de que el conservatismo de las formas anteriores de
producción pueden compatibilizarse con el Prólogo mediante una diferen­
ciación entre los dos sentidos del término “formas del desarrollo”. Cohén
dice que las relaciones de producción pueden ser vistas como formas me­
diante las cuales las fuerzas productivas se desarrollan o como formas
dentro de las cuales se desarrollan. Las relaciones precapitalistas de pro­
ducción no eran formas de desarrollo en el primer sentido, es decir, no
ofrecían ningún estímulo directo para el crecimiento de las fuerzas pro­
ductivas. Pero, argumenta Cohén, eran formas de desarrollo en el segun­
do sentido, de modo que ningún otro conjunto de relaciones podría haber
hecho que las fuerzas productivas crezcan más rápidamente en esa etapa
de su desarrollo. Esta diferenciación se explica mediante una analogía
con la monarquía constitucional, la cual puede promover indirectamente
el desarrollo de la democracia en una sociedad, aun cuando su intención
directa es la de oponérsele. Ahora bien, esta argumentación adolece de
dos defectos. Primero, es incompatible con lo que dice Cohén (1978, pág.
292) acerca de la forma mediante la cual las fuerzas productivas “eligen”
las relaciones de producción, que es a través de la clase que mejor puede
garantizar una producción estable y próspera. Este mecanismo presupo­
ne el primer sentido del término “formas de desarrollo”. Segundo, la ar­
gumentación de Cohén es incompatible con el texto extraído de los Grun-
disse que se cita más arriba. En él Marx dice que las relaciones precapita­
listas fueron destruidas cuando y a raíz de que el crecimiento de las fuer­
zas productivas fue demasiado rápido, y esto no tiene sentido dentro de la
opinión de Cohén. Según esa opinión, las relaciones de producción en las
sociedades precapitalistas cambian cuando ya no resultan óptimas para
el desarrollo de las fuerzas productivas, y esto no es compatible con la opi­
nión que sostiene que las relaciones cambian cuando y a raíz de que las
fuerzas productivas se desarrollan demasiado.
Me referiré ahora al desarrollo de las fuerzas productivas bajo el

189
capitalismo. Antes de entrar en el análisis exegético, permítaseme obser­
var cómo en este caso existe un mecanismo que podría sostener la inter­
pretación estándar, con un inicial crecimiento endógeno que produce el es­
tancamiento subsiguiente. Considérese la siguiente argumentación en
cuatro etapas: 1) Las condiciones de una competencia perfecta que prevale­
cían en los comienzos del capitalismo promovieron una alta tasa de pro­
greso tecnológico. 2) Por ser el cambio tecnológico típicamente ahorrativo
de trabajo, este desarrollo produjo importantes economías de escala. 3)
Las economías de escala llevaron a oligopolios y a una competencia im­
perfecta. 4) La competencia imperfecta implica una menor tasa de cambio
tecnológico. De estas cuatro, sólo 3) puede ser aceptada sin limitaciones,
dado que no es posible tener simultáneamente economías de escala, em­
presarios que optimicen ganancias y una competencia perfecta. Las afir­
maciones 1) y 4) están parcialmente ratificadas por Arrow (1971), pero
con reservas respecto de la mayor capacidad de los oligopolios para inter­
nalizar los efectos de las innovaciones no patentables. La afirmación 2),
por supuesto, es muy discutible. No obstante, considero que éste es el tipo
de mecanismo que uno buscaría si la interpretación estándar fuera co­
rrecta. No tiene sentido apelar al inútil, ineficiente y destructivo uso de la
tecnología, dado que uso y desarrollo son dos nociones bastante distintas.
De hecho, los economistas desde Schumpeter hasta Arrow han argumen­
tado que la optimización dinámica del capitalismo en el desarrollo de las
fuerzas productivas depende en parte de su suboptimización estática
cuando se las utiliza en forma eficiente. El sistema de patentes es un
ejemplo muy conocido. En otras palabras, no se puede explicar la corres­
pondencia como un desarrollo óptimo y la contradicción como un uso su­
bóptimo de las fuerzas productivas.
Pero creo que la interpretación estándar es errónea, de modo que no
hay necesidad de buscar mecanismos como el que se esboza más arriba.
No existe, por lo que yo sé, ningún pasaje en El Capital ni en ningún otro
lado en donde Marx afirme que la tasa de progreso tecnológico está
declinando bajo el capitalismo. Tampoco sé, es cierto, de ninguna afirma­
ción directa en el sentido contrario. Sin embargo, existen afirmaciones
que en forma conjunta implican que la tasa de cambio tecnológico está cre­
ciendo. Primero, Marx afirma que en el curso del desarrollo capitalista “la
rapidez del cambio en la composición orgánica del capital, y en su forma
tecnológica, aumenta” (Marx 1867, pág. 631). Segundo, “el nivel de la pro­
ductividad alcanzado se manifiesta en la preponderancia relativa del ca­
pital constante por sobre el capital variable” (Marx 1894, pág. 759). Por
cierto, éste no es más que uno de los tantos pasajes en donde Marx nos di­
ce que el incremento en la productividad del trabajo puede medirse
mediante el incremento en la composición orgánica del capital, como
puede verificarse si se observa el índice de Marx (1863), vol. III, pág. 636,
bajo “Zusammensetzung des Kapitals, wiederspiegelt den Stand derArbeits-
produktivitat”. Tomadas todas juntas, estas afirmaciones implican una
creciente tasa de cambio tecnológico bajo el capitalismo.
Otros pasajes sugieren la misma conclusión. Así, en su análisis de la
tasa decreciente de rentabilidad, Marx (1894, pág. 249) destaca el “desa­

190
rrollo de las fuerzas productivas del trabajo a expensas de las fuerzas pro­
ductivas ya creadas”. (Por cierto, se han propuesto modelos en donde la
tasa de crecimiento disminuye debido a que los capitalistas permanente­
mente subestiman la tasa de progreso tecnológico, y entonces son llevados
a arrumbar las nuevas maquinarias mucho antes del tiempo previsto.
Véase Roemer (1981, págs. 123-4) para breves comentarios acerca de es­
tos modelos.) En forma más general, a diferencia de muchos economistas
de su tiempo que vieron el progreso tecnológico principalmente como una
fuerza que contrarrestaría la caída de la tasa de rentabilidad, Marx lo vio
como el principal mecanismo por el cual se produjo esa caída. La contra­
dicción del capitalismo es, para Marx, que el cambio tecnológico, si bien
fue introducido para detener la caída de la tasa de rentabilidad, sólo con­
tribuye a acelerarla (Elster 1978a, págs. 113 y sigs.). Es cierto que en su
análisis sobre la tasa decreciente de rentabilidad Marx no dice que la ta­
sa de cambio tecnológico esté aumentando, pero el tenor general de su
análisis es decididamente incompatible con la idea de un estancamiento
tecnológico que provoca la caída del capitalismo. Volveré a referirme más
adelante a la relación entre la “contradicción” involucrada en la tasa
decreciente de rentabilidad y la “contradicción” entre las fuerzas produc­
tivas y las relaciones de producción. La referencia que se hizo en este
párrafo a la tasa decreciente de rentabilidad fue solamente con el fin de
sustentar el punto de vista exegético respecto de que Marx no veía al cam­
bio tecnológico bajo el capitalismo como origen de un estancamiento.
Recordemos ahora lo que Marx dice en el pasaje extraído de los Grun-
disse que se cita más arriba, con respecto a la futura sociedad en la que “el
desarrollo universal, progresivo, sin obstrucciones y libre de las fuerzas
de producción es en sí mismo la presuposición de la sociedad y por lo tan­
to de su reproducción”. Detrás de esta afirmación, y de muchas otras del
mismo tenor, está la imagen del hombre elaborada en los Manuscritos
económicos y filosóficos de 1844. De acuerdo con esta opinión, la actividad
innovativa y creativa es natural en el hombre, y surge del interior de su
ser. Contrariamente al enfoque habitual de la economía política, el pro­
blema no es el de crear incentivos para innovar, sino de retirar los obs­
táculos para la natural actitud innovativa del individuo “en quien su pro­
pia realización existe como una necesidad interna” (Marx 1844, pág. 304).
Los incentivos especiales son necesarios sólo en condiciones de escasez y
pobreza, en donde las necesidades del individuo están torcidas y blo­
queadas. En las etapas iniciales del capitalismo existía ciertamente mu­
cha escasez y pobreza, lo cual era inevitable, dado que las condiciones m a­
teriales para un alto nivel de satisfacción de carencias aún no se habían
creado. En estas condiciones, por ejemplo, el sistema de patentes fue el
mejor arreglo y el más progresista, aun cuando subordinó el progreso a
las ganancias. Este sistema, sin embargo, creó ineludiblemente las
condiciones para su propia defunción. En fases posteriores del capitalis­
mo todavía existe mucha pobreza, pero eso es evitable. Dada la tecnología
desarrollada por el mismo capitalismo, resulta materialmente factible
instalar un régimen en el cual el nivel de satisfacción de carencias sea tan

191
alto que la innovación como actividad espontánea suija por sí misma, con
una tasa muy superior a todo lo que se ha visto antes.
Esto, creo, constituye la esencia de la “contradicción entre las fuerzas
productivas y las relaciones de producción” en el capitalismo. Las rela­
ciones de producción capitalistas tienden a convertirse en superfluas, al
crear fuerzas productivas que requieren nuevas relaciones para su desa­
rrollo óptimo. Esta interpretación se ajusta tanto al Prólogo de 1859 como
a la afirmación de una tasa constante e incluso creciente de progreso tec­
nológico en el capitalismo. Resulta bastante posible que el progreso tecno­
lógico durante la última etapa del capitalismo sea a la vez creciente y más
baja de lo que hubiera sido en un régimen socialista que se iniciara con el
mismo nivel tecnológico. Esta idea se hace precisa en el modelo que se pre­
senta en el siguiente apartado. Aquí sólo pediré al lector que se refiera al
texto de 1859, que con toda probabilidad ya ha estudiado sin ver realmen­
te lo que afirma. El lector verá entonces que de ningún modo asevera que
el progreso tecnológico en la última etapa sea más lento de lo que fue en la
etapa inicial. La base de la comparación puede igualmente ser de tipo con-
trafáctico, es decir, la tasa de crecimiento que se hubiera obtenido en un
medio institucional distinto, dado el mismo nivel tecnológico inicial.

3. La interpretación

Aquí supongo que “desarrollo de las fuerzas de producción” significa


progreso tecnológico, medido según la tasa de crecimiento de la producti­
vidad. El nivel de tecnología en el tiempo t durante el desarrollo real o hi­
potético del capitalismo se anota f (t). Para cada s, el nivel de tecnología
que se habría obtenido en el tiempo t si la sociedad hubiera pasado por
una revolución comunista en el momento s, se anota f (t). Es decir, que la
función f( traza el perfil del progreso técnico en una economía comunista
contrafáctica que comienza en s. El punto en el tiempo en que empieza
nuestra descripción de la economía puede fijarse arbitrariamente igual a
cero. (Este momento puede ser, por ejemplo, el año 1750.) Entonces los
elementos f (t) y fB(t) están definidos para valores no negativos de s y t. Por
supuesto, f (t) está definida solamente para t > s.
No he aefinido el concepto “nivel de tecnología” con precisión. Tengo
en mente algo como producción agregada per cápita, ignorando los proble­
mas de calcular dicha suma. Esto implica que el crecimiento de la produc­
tividad se mide en términos absolutos. Alternativamente, las funciones f
y f podrían medir el logaritmo de la producción per cápita; esto corres­
ponde a considerar el crecimiento relativo. El siguiente análisis es inde­
pendiente de la definición exacta de f (t) y f (t), aunque por supuesto la in­
terpretación de algunos de los axiomas y resultados puede depender de
esta definición.
Luego enuncio los axiomas y los comento brevemente.
I. La función f es continua. En otras palabras, supongo que las fuer­
zas productivas bajo el capitalismo se desarrollan suavemente; nunca

192
hay un salto repentino en el nivel de tecnología, ni hacia arriba ni hacia
abajo.
II. a) Para todo t y todo At > 0, f(t+At) > f(t).
II. b) Para todo t, t’ y At con t > t’ y At > 0,
f(t+At) - f(t) > fU’+ A t) - f(t’).
La parte a) es el axioma del progreso tecnológico continuo bajo el capi­
talismo, es decir, un postulado de que nunca se produce el estancamiento.
La parte b) es el axioma de la tasa creciente del cambio tecnológico. (Si f
es dos veces diferenciable, f(t) mide la tasa de cambio en el nivel de tecno­
logía en el tiempo t, y f ”(t) mide la tasa del cambio en la tasa del cambio.
En este caso, el Axioma II es equivalente a f (t) > 0 y f ” (t) > 0 para todo t.
Para nuestro propósito no hay razón para suponer la diferenciabilidad.)
III. Para cada s, f es continua. Esto corresponde al Axioma I, excepto
que ahora consideramos el desarrollo bajo el comunismo. Mientras que el
Axioma III dice que f,(t), para un s fijo, es continuo en t, también podemos
formular el siguiente postulado:
III’. Para cada t, f (t) es una función continua de s. El significado es el
siguiente: sea t un punto del tiempo en el futuro y consideremos los nive­
les hipotéticos de tecnología bajo el comunismo para diferentes momentos
s de la revolución. Como s varía, el axioma requiere que f (t) varíe suave­
mente y no haga saltos repentinos. La mayoría de los resultados pueden
demostrarse sin apelar al axioma; cada vez que se lo utiliza, se señala es­
te hecho.
IV. Para todo s, f (s) = f (s). Este también es una clase de supuesto de
continuidad. Requiere que la economía comunista comience en el mismo
nivel de tecnología que la economía capitalista a la que reemplaza. Si se
considera a la tecnología como conocimiento tecnológico, este supuesto
parece plausible; lo es menos si se considera a la tecnología como bienes
capitales que representan dicho conocimiento. No analizaré aquí las va­
riantes del axioma que tomaría en cuenta la posibilidad de una derrota
inicial debida a sabotaje, destrucción de maquinaria e interrupción de la
producción.
V. Para todo s, s’, t, t’ y At con t > s, t’ > s’ y At > 0:
Si f (t) = f,.(t’), entonces f,(t+ At) = f ,(t’+ At).
Este es un requisito de coherencia. Debe ser poco importante para el
futuro crecimiento de una economía comunista si su estado actual se logró
mediante el capitalismo o el comunismo originado en el capitalismo en al­
gún momento del pasado. En otras palabras, si dos economías comunistas
hipotéticas se encuentran en el mismo nivel en t y t’ respectivamente, en­
tonces siguen cursos idénticos a partir de esos momentos en adelante.
Pueden plantearse objeciones a esta idea. ¿El hombre socialista, cuando
surge del capitalismo, no mostraría “huellas de histéresis” (Georgescu-
Roegen 1971, pág. 126) de su pasado? Como sabrán los lectores de la Crí­
tica del programa de Gotha, la pregunta es extremadamente importante,
pero para no sobrecargar el modelo no la tendré en cuenta aquí.
VI. Existe un instante s y un número A tales que, para todo t > s, f,(t)
< A. Este es el supuesto de la necesidad inicial del capitalismo. El Axioma
II implica que f (t) finalmente alcanzará cualquier nivel. Por lo tanto, si

193
hay un instante s tal que una economía comunista que comienza en s
siempre estará acotada desde arriba, entonces la revolución no ocurrirá
en s.
VII. Existe un instante s tal que, para todo t > s, f (t) > f (t). Este es el
supuesto de la superioridad final del comunismo. Si la revolución comu­
nista se produce en una fecha suficientemente tarde, a partir de dicha fe­
cha en adelante el nivel de tecnología será coherentemente mayor de lo
que hubiera sido bajo el capitalismo. Este axioma incorpora la idea de que
cuando el capitalismo ha creado las condiciones que permiten la satisfac­
ción universal de la necesidad, entonces también estarán presentes las
condiciones para la innovación creativa espontánea.
De estos axiomas, el II se deduce del texto que será interpretado. Los
Axiomas I y III son supuestos técnicos bastante indiscutibles. Los Axio­
mas IV y V son supuestos simplificadores que nos permiten ignorar algu­
nas complejidades de las revoluciones de la vida real, tal como una derro­
ta inicial o “la tradición de todas las generaciones desaparecidas [que] pe­
sa como una pesadilla sobre los cerebros de los vivos” (Marx 1852, pág.
103). Los axiomas fundamentales desde un punto de vista sustancial son
el VI y el VII. El Axioma VII puede debilitarse de un modo obvio; esto se
analiza en el siguiente apartado.
En la Nota Matemática, apartado A .l se demuestra que el axioma no
es válido.

4. Análisis del modelo

El principal interés del modelo, dejando de lado la precisión exegéti-


ca, es permitir un marco para el análisis de la transición del capitalismo
al comunismo. Primero analizaré los aspectos normativos o de bienestar
teóricos de este tema: suponiendo que ocurrirá una revolución si existe la
necesidad de ella, ¿cuándo debe ocurrir? ¿Cuál es el punto de transición
óptimo? También planteo el interrogante analítico y estratégico de si es
probable que una revolución ocurra cuando es necesaria.
Hay una cantidad de posibles puntos de transición, cada uno de los
cuales corresponde a un criterio particular de bienestar. El primero es:

Cr La transición debe ocurrir en el momento más temprano posible


en el que una economía comunista que comienza podría hacer un pro­
greso tecnológico ilimitado.
Para simplificar el análisis que sigue, definimos un conjunto I con s e l
si y sólo si para todo A existe un t tal que ft(t) > A. Es decir, que I es el con­
junto de puntos en el tiempo en los cuales una revolución llevará a un pro­
greso tecnológico ilimitado bajo el comunismo. El criterio C. dice que la
transición debe ocurrir en el momento más temprano de I. El conjunto I
tiene una estructura simple: existe un instante Sx tal que ningún punto
antes de S} y todos los puntos después de Sj pertenecen a I. De hecho, po­
demos decir algo más. El siguiente teorema se demuestra en la Nota Ma­
temática, apartado A.2:

194
Teorema 1. Existe un instante S, con las siguientes propiedades:
ai Si s < S,, entonces s « I y fs(t) < f (S,) para todo t > s
b) Si s > entonces s e I y f es una función estrictamente creciente
c) Si el Axioma III’ es válido, entonces S.e I y f8 (t) = f(S.) para todo
t>Sr 1
En términos informales, el teorema dice que si la revolución ocurre
antes de S,, la economía comunista no hará un progreso ilimitado; en par­
ticular nunca excederá el nivel tecnológico alcanzado bajo el capitalismo
en el instante S,. Si la revolución ocurre después de S,, la economía comu­
nista hará un progreso ininterrumpido e ilimitado. Bajo el supuesto adi­
cional de continuidad III’, también sabemos el resultado de una revolu­
ción exactamente en el instante S,. Conducirá a un estancamiento com­
pleto y duradero; la economía comunista ni crecerá ni se reducirá.
Casualmente, existe una dificultad para aplicar C.. Si S, no pertenece
a I (como nos dice el Teorema 1 c) que sin duda no lo nará si es válido el
Axioma III’), la frase “en el momento más temprano posible” no está de­
finida. Esto puede resolverse estipulando que el punto de transición sea
S, + d, donde d es alguna constante arbitrariamente elegida. De aquí en
adelante ignoraremos este problema. Entonces S, es el punto de transi­
ción definido por C r
El próximo criterio a analizar es:

C2. La transición debe ocurrir en el momento más temprano posible


en el que la economía comunista que se origina finalmente aventajará
al capitalismo, aunque inicialmente quede detrás de él.
Según los criterios que se analizan más adelante, la transición no de­
be ocurrir hasta que el comunismo pueda ser instantáneamente superior,
pero según C2 es suficiente la superioridad final. Según C, no hay necesi­
dad de alcanzar alguna vez la superioridad; es suficiente con que cual­
quier nivel alcanzable por el capitalismo también pueda — aunque sea
con mucho retraso— ser alcanzado por el comunismo. La elección entre C,
y C2 se reduce a esto: ¿debe el comunismo competir con el capitalismo (C2)
o simplemente debe contentarse con seguir su camino, aunque sea lenta­
mente (Cj)? La elección entre C3 (o el muy relacionado C5) y C2 será ésta:
¿las condiciones materiales para el comunismo deben ser desarrolladas
por el capitalismo si es el modo más rápido, o hay que preferir el desarro­
llo más lento mediante el cual el comunismo crea las bases para su propia
prosperidad?
Entonces definimos el conjunto J mediante la condición S e J si y sólo
si f,(t) f(t) para todo t > s. La definición está muy relacionada con el Axio­
ma VII; el axioma simplemente dice que J no es vacío. El siguiente crite­
rio dice:

C3. La transición ocurrirá en el momento más temprano posible en J.


Sea S3 el momento de transición definido por C3. En términos forma­
les S3 = ínf J. (Véase el análisis anterior de la dificultad para hablar sobre

195
“el momento más temprano posible” satisfaciendo una condición determi­
nada.) El siguiente teorema está demostrado en la Nota Matemática,
apartado A. 3:

Teorema 2. Supongamos que s e J. Para cualquier s’ > s y todo t > s’,


f(t ) > f,(t ).

La implicación es la siguiente. Una economía comunista que comien­


za en algún momento en J no sólo es firmemente superior al capitalismo
continuado (como lo requiere la definición de J), sino también firmemente
superior a cualquier economía comunista que comienza en un momento
superior. En otras palabras, si s e J, no existe ninguna razón, desde un
punto de vista del bienestar teórico, para posponer la revolución después
de s. C3 es el criterio más conservador que consideraremos.
Si s e J y s’ > s, podemos esperar que s’ e J. En el ejemplo del apartado
A .l, sin duda éste es el caso. Pero no se deduce de los axiomas. De hecho,
la siguiente posibilidad es coherente con los axiomas como lo demuestra
un ejemplo en el apartado A. 3:

Existen s y s’ con s e J y s ’ > s tales que, para todo s” > s’ y todo t > s”,
f,.(t) < ÍU).

Aunque s satisface el criterio C3, puede existir un momento s’ poste­


rior a s tal que una economía comunista que comienza en o después de s’
seguirá siempre siendo inferior al capitalismo. La revolución debería ha­
ber ocurrido en s, pero si se posterga hasta s’ (por cualquier razón), es me­
jor cancelarla por completo. Esta posibilidad no es la que mejor coincide
con la teoría que estoy tratando de interpretar; véanse los comentarios
del Axioma VII. Por supuesto, es posible introducir axiomas extras que la
descartarían, pero no he encontrado ningún postulado natural que sirva a
este propósito. Sin embargo, recordemos que la posibilidad recién descrita
no es una consecuencia de los axiomas, aunque sea coherente con ellos.
El ejemplo demuestra que es coherente con el modelo suponer tanto
un límite superior como uno inferior para el momento en que puede ocu­
rrir con éxito una revolución comunista. Esto en sí no parece irrazonable.
De hecho se podría razonar del siguiente modo: “La revolución no debe
ocurrir ni muy temprano ni demasiado tarde; hay una corriente en los
asuntos de los h ombres y hay que hacer el intento exactamente en el mo­
mento correcto (o dentro del intervalo correcto) para que tenga éxito”.
Ahora esto puede ser cierto, pero no demuestra que el ejemplo considera­
do sea coherente con las intuiciones detrás del modelo. El término “de éxi­
to”, aplicado a la revolución, es ambiguo. Puede significar “de éxito en el
establecimiento de relaciones de producción comunistas”, o “de éxito en el
establecimiento de un progreso tecnológico que supere instantánea o fi­
nalmente al capitalismo”. El argumento ni demasiado temprano ni dema­
siado tarde se aplica al éxito en el primero. Pero dado el éxito en el primer
sentido, no se aplica al éxito en el segundo. No hay razones fundamenta­
les por las cuales posponer la revolución produzca una pérdida irrecupe-

196
rabie en el bienestar, aunque el Teorema 2 diga que debe esperarse cierta
pérdida. Y entonces el hecho de que los axiomas permitan un límite supe­
rior para el momento en que el comunismo puede comenzar y ser superior
al capitalismo demuestra que no captan completamente nuestras intui­
ciones. Más adelante vuelvo sobre la relación entre los dos significados
del “éxito”. Ahora analizaré algunas variantes del Axioma VII:

Existe un momento s tal que 1) para todo t > s, f (t) > f (t), VII’.
y 2) existe un t s tal que f,(t) > f (t).
VII”. Existe un momento s tal que, para todo t > s, f (t) > f (t).

Podemos definir conjuntos J ’ y J”, criterios C4 y Cs y momentos de


transición S4 y Ss, correspondientes a VII’ y VII”. Las definiciones forma­
les no están dadas, ya que son obvias en vista del análisis de VII, J, C3 y
S3. Evidentemente J_ J’ _ J” que implica S3 > S4> S5. En la Nota Matemá­
tica, apartado A. 4 se demuestra lo siguiente:

Teorema 3. S4 = S5

El teorema se demuestra suponiendo que el Axioma VII es válido,


aunque en realidad es suficiente con el Axioma VII’. Pero si solamente es
válido el VII”, es posible que J ’ sea vacío mientras que J ” no lo es, en cuyo
caso el Teorema 3 es falso. Entonces tendríamos f (t) = f (t) para todo s y t
con 15 s > Ss; es decir que después de Ss, una revoíución no tiene efecto en
el nivel de la tecnología. Esto es difícilmente coherente con la teoría que
estoy interpretando; por lo tanto lo descarto quedándome con el Axioma
VII.
El Teorema 3 demuestra que VII’ y VII” sólo definen un criterio nue­
vo, que puede formularse en palabras así:

C5. La transición debe ocurrir en el momento más temprano posible


en el que haya una economía comunista comenzando que nunca resul­
ta inferior al capitalismo.

¿Podrían coincidir todos los criterios? Si se impone el supuesto de con­


tinuidad III’, no lo harán. Se demuestra en la Nota Matemática, apartado
A. 4:

Teorema 4. Supongamos que III’ es válido. Entonces S, < S5.

La elección entre C3 y Cs se reduce a esto: ¿el nivel tecnológico del co­


munismo es un argumento para producir dicho sistema, o solamente una
condición para hacerlo? Según C5, la eficiencia tecnológica superior no es
la razón para provocar el comunismo, pero a pesar de ello, este criterio ha­
ce que la eficiencia sea importante para más que C,. Es más difícil compa­
rar C2 y Cs. En un sentido Cs insiste más en la eficiencia, ya que dice que
el comunismo debe ser no inferior desde el comienzo mismo, pero en otro
sentido, y quizá más importante, C2 implica un acento más fuerte sobre la

197
eficiencia, ya que dice que el comunismo debe ser finalmente superior. C,
dice que la inferioridad en cualquier momento es un argumento contra el
comunismo, C, que la superioridad ñnal es un argumento a favor de él. Y
por supuesto, C3implica un mayor acento sobre la eficiencia que C2 o C5.
Creo que C, da muy poca importancia a la eficiencia tecnológica. Se­
gún C, cualquier retraso para elevar los niveles de vida debería estar jus­
tificado, mientras podamos estar seguros de que finalmente ellos también
serán elevados. En el otro extremo del espectro, C, sin duda da demasiada
importancia a la eficiencia. Creo que es también el caso para CE, pues hay
que estar preparados para aceptar por lo menos algún tiempo durante el
cual el comunismo sea inferior al capitalismo antes de superarlo (y hay
que estar preparados para hacerlo independientemente de los problemas
que se suponen fuera de existencia en los Axiomas IV y V). Sin embargo,
esto no significa que acepto C?, pues si el método indirecto de superar al
capitalismo lleva demasiado tiempo, no sería ético imponer este sacrificio
solare una gran cantidad de generaciones. Estas observaciones señalan
una debilidad obvia en el modelo: su carácter excesivamente ordinal. Pa­
ra un análisis adecuado del problema querríamos saber cuánto mejor fun­
ciona un modo de producción que otro en un momento dado, o cuánto
tiempo le lleva a un modo superar al otro. Sin embargo, creo que puede ob­
tenerse cierto conocimiento sobre la naturaleza del problema a partir de
un modelo puramente ordinal, como en los otros casos.
Ahora analizaré el realismo del modelo. No analizaré el realismo del
supuesto básico VII, derivado de la teoría filosófica de Marx. Sin embargo,
debe decirse que la falla obvia de los verdaderos países comunistas en su­
perar al capitalismo, o incluso en evitar ser desplazados, no es pertinente
aquí. En el modelo esto puede interpretarse simplemente diciendo que la
revolución en estos países ocurrió demasiado temprano, según uno o más
(posiblemente todos) de los criterios anteriores. Tampoco analizo las
pruebas que harían falta para formar algún concepto de la forma de las
funciones f y f . Finalmente, tampoco entro en un análisis de los supuestos
simplificadores IV y V. En lugar de ello quiero concentrarme en el realis­
mo político del modelo. ¿Es probable que esta “contradicción entre fuerzas
y relaciones de producción” produjera una revolución política?
Para ver el problema en su contexto correcto, observemos que la teo­
ría de la contradicción entre fuerzas capitalistas y relaciones de produc­
ción es sólo una de las varias teorías de las crisis capitalistas propuestas
por Marx. Sobre todo, está la teoría de la tasa decreciente de ganancias;
hay elementos protokeynesianos de una teoría del sobreahorro; y vagas
nociones acerca de las crisis de la desproporción, superproducción, y de­
más. Para evaluar estas teorías obsérvese que además de la validez empí­
rica y la coherencia lógica, una teoría marxista de las crisis debe tener
tres características principales. 1) Debe ser dialéctica, en el sentido que
ya he analizado (Elster 1978a, cap. 5). 2) Debe ser materialista, en el sen­
tido de apelar a cambios irreversibles. 3) Debe explicar cómo las crisis
proporcionan una motivación para la acción revolucionaria. Es claro que
todas las teorías que hacen depender las crisis de que el cambio tecnológi­
co satisfaga la segunda condición. Una crisis de demanda de la variedad

198
keynesiana no es irreversible; el multiplicador funciona en ambas direc­
ciones y la intervención gubernamental puede restaurar el equilibrio del
pleno empleo. (Esto no quiere decir que la resolución de la crisis puede no
tener algunas consecuencias difíciles de revertir, tal como el estableci­
miento de una maquinaria para la intervención gubernamental.) En con­
traste, la caída en la tasa ganancial, según Marx, es irreversible porque
está vinculada con el progreso tecnológico que no puede deshacerse una
vez que ha sucedido. El hecho de que la teoría de la tasa ganancial decre­
ciente está atravesada por agujeros lógicos (Elster 1978a, págs. 113 y
sigs.) no afecta a este punto metodológico. Tampoco se aparta de la ejem­
plar estructura dialéctica de la teoría. La caída en la tasa ganancial se
produce por las acciones mismas iniciadas para contrarrestarla; estas ac­
ciones son individualmente racionales para los empresarios, pero colecti­
vamente desastrosas. Casualmente, esto también es cierto en las teorías
keynesianas. Finalmente, tanto la teoría de la tasa ganancial decreciente
como la keynesiana están vinculadas con la acción, pero sólo la primera
con la acción revolucionaria, debido a la naturaleza irreversible de la con­
tradicción.
¿Qué ocurre con la contradicción entre las tuerzas productivas y las
relaciones de producción, vista a la luz de estos anhelos? Como ya se ob­
servara, sin duda la teoría es materialista. Quizá no sea dialéctica en el
sentido estricto propuesto por Elster (1978a), pero sí en el sentido más dé­
bil de un sistema que por su solo éxito debilita su propia existencia. Sin
embargo, la gran debilidad de la teoría es que es muy difícil de vincular a
la acción. La naturaleza contrafáctica de la línea de base para evaluar el
desempeño capitalista hace a la teoría demasiado abstracta como para
que sirva de base para la acción. Si se pudiera señalar el desempeño decli­
nante en el tiempo, esto sería un incentivo para cambiar el sistema, pero
hemos visto que según Marx lo contrario es cierto. Si se pudiera comparar
el sistema capitalista existente en un país con un sistema comunista exis­
tente en otro, entonces el desempeño superior del segundo motivaría un
cambio de régimen en el primero, pero este argumento podría no ser váli­
do para que el primer país haga la transición. Aquí el problema es similar
al que se encuentra en el estudio comparativo de la industrialización. Po­
demos ser capaces de explicar la industrialización de Alemania, Francia o
Rusia apelando a la brecha entre el desempeño real y el potencial (Ger-
schenkron 1966, pág. 8), pero esto es solamente porque el potencial se rea­
lizó en otro lugar, por ejemplo, en Inglaterra. Sería absurdo explicar la in­
dustrialización de Inglaterra de esta manera.
Permítaseme avanzar un poco en esta propuesta. La idea es que la su­
perioridad del comunismo explicaría la revolución comunista en todos los
países menos en el primero en que ocurrió. Aquí la explicación debe ser di­
ferente y no nos concierne en este caso. Entonces la aparición del comu­
nismo en el escenario histórico del mundo podría ser más o menos acci­
dental, pero su expansión subsiguiente tendría fundamentos racionales.
Por ejemplo, esto haría este argumento compatible con la teoría ofrecida
en Cohén (1978). Pero una presuposición obvia de esto es que la re­
volución no debería ocurrir demasiado temprano en el primer país. In­

199
cluso si desechamos el concepto de que la revolución ocurriría en el primer
país porque el comunismo sería más eficiente, es esencial que ocurra en
un momento en que el comunismo sería más eficiente, porque de otro mo­
do no habrá un éxito que inspire a los siguientes. “Pero las sociedades no
son tan racionales para construir de modo que las fechas de la dictadura
proletaria lleguen exactamente en el momento en que las condiciones eco­
nómicas y culturales están maduras para el socialismo” (Trotsky 1977,
pág. 334). A la luz de la experiencia histórica podemos avanzar aun más y
afirmar — según el mismo Trotsky— que las revoluciones comunistas in­
variablemente ocurren en países retrasados industrialmente, que no sólo
no superan al capitalismo, sino que son sobrepasados por él. (Es cierto que
esta superación inicial puede deberse a los problemas que hemos analiza­
do en conexión con los anteriores Axiomas IV y V, pero la experiencia so­
viética indica una lección diferente.)
La trágica consecuencia de esta línea argumental es la siguiente. Pa­
ra que la revolución comunista resulte victoriosa, es decir, que cree rela­
ciones comunistas de producción, debe ocurrir tan temprano en el proceso
de industrialización que no pueda tener éxito en el sentido de crear una
tasa de progreso tecnológico que cumpla uno de los criterios C„ a C5 (y po­
siblemente ni siquiera el C,). En el desarrollo de una sociedad hay un pe­
ríodo durante el cual está políticamente madura para el comunismo y un
período durante el cual está económicamente madura, y ambos períodos
no parecen tener partes superpuestas. Por lo menos éste parecería ser un
argumento plausible para los países que no pueden mirar a un ejemplo
exitoso para imitar. El argumento puede quebrarse simplemente demos­
trando que no hay otro camino hacia el comunismo que un cambio abrup­
to y total en las relaciones económicas, tarea que aquí no puedo realizar.
Hasta ahora he argumentado en base al supuesto de que las compara­
ciones con sistemas hipotéticamente superiores no son políticamente muy
eficaces. El Partido Conservador Noruego en 1961 comprensiblemente tu­
vo poco éxito cuando en la oposición adoptó el lema que los conservadores
británicos (y luego los socialdemócratas daneses) utilizaron en el poder.
“Hagamos los buenos tiempos mejores”. Las crisis internas o los ejemplos
externos pueden ser suficientes para destituir un gobierno, pero no una
posibilidad abstracta de un modo superior de hacer las cosas. Sin embar­
go, imaginemos que tales abstracciones tengan un poder motivador. Aun
quedaría el siguiente problema. Aunque la clase obrera de un país dado se
diera cuenta de la superioridad inherente del comunismo como se afirma
en el Axioma VII, sería demasiado esperar que también aceptara la nece­
sidad inicial de capitalismo como dice el Axioma VI. Una impaciencia na­
tural fácilmente provocaría una transición prematura, violando uno o
más (posiblemente todos) de los criterios de transición. Y aunque se con­
venciera a los obreros de apoyar al capitalismo para el período requerido,
el mejor para ser destruido más tarde, se podría preguntar si la clase ca­
pitalista estaría ansiosa por recibir apoyo sobre estas bases. El argumen­
to menchevique de ayudar al capitalismo a llegar al poder tiene a su favor
el argumento económico que hemos estado estudiando. También puede
respaldarse con algunas observaciones acerca del “comunismo crudo” en

200
Los manuscritos económicos y filosóficos (Marx 1844, págs. 294 y sigs.).
Pero desde el punto de vista estratégico y político está inevitablemente
fuera de la realidad. La lucha de clases no se alinea fácilmente para coin­
cidir con las “misiones históricas” asignadas a las diferentes clases por las
fuerzas productivas.
Pero, surgirá la pregunta, ¿qué ocurre si el conocimiento de la supe­
rioridad final del comunismo surge en un momento en que el capitalismo
ya no es necesario? Sin duda esto es lo que Marx tenía en mente. Y puede
haber tenido razón, pero a pesar de ello se equivocó en el supuesto implí­
cito de que el conocimiento surgiría en un país donde el capitalismo ya no
sería necesario. Como explica Knei-Paz (1977), el logro deTrotsky fue de­
mostrar que la conciencia revolucionaria más avanzada entre los obreros
va de la mano con el carácter de retroceso de las relaciones capitalistas en
un país. Los que llegan tarde al proceso de industrialización tienen una
pequeña proporción de la fuerza laboral en la industria, pero los obreros
que allí hay están concentrados en unas pocas fábricas grandes que repre­
sentan las técnicas más avanzadas de la producción en masa. Marx cono­
cía esta complicada relación entre el centro y la periferia del capitalismo
(Marx 1845, 74-5, 1850, págs. 134-5), pero no sacó las conclusiones com­
pletas de este conocimiento. Es decir, que no se dio cuenta de que para una
revolución comunista exitosa las condiciones deben reunirse en un país.
No es suficiente con que un país alcance un nivel económico que sea tan
suficiente para que el comunismo sea económicamente viable en aquel
país como para que la revolución comunista sea políticamente viable en
otro.

901
Nota matemática
por Aanund Hylland

A. 1. Consistencia de los axiomas

Probamos que el sistema de axiomas es consistente presentando un


ejemplo de funciones fy fs que satisfacen los Axiomas I-VII. En el ejemplo,
el Axioma III’ también vale. Desafortunadamente, la construcción de la
función fs es un poco complicada. Debemos considerar varios casos, se­
gún el valor de s. Iré haciendo comentarios sobre la definición a medida
que avanzo.

a) f (t) = t2, para todo t > 0.


b) Sea s que satisface 0 < s < 1 y definimos
g (s) = s + —
1 —s

Para estos valores de s, fBserá una función no creciente. Hasta el tiem­


po t = g(s), fg(t) será estrictamente decreciente en t, en dicho instante al­
canzará el nivel 0 y permanecerá allí para siempre. (Por ejemplo, aquí 0
puede representar el nivel tecnológico de una sociedad no industrializada
precapitalista.) La función g es creciente, g(0) = 0 y g(s) tiende al infinito
cuando s tiende a 1 desde valores inferiores.
Para s y t con 0 < s < l y s < t < g(s), encontraremos el número s’ que
satisface

g (s’) - s’ = g (s) - 1

Cálculos directos demuestran que s’ es único y que está dado por

s' = 1————
Í -----
l + g (s )-t
E s fácil ver que s’ e s una función decreciente d e t . Para todos los valo­
res posibles de t, tenemos 0 < s’ < s, mientras que t = s da s’ = s y t = g (s) da
s’ = 0. Para que se satisfagan los Axiomas IV y V, definimos

f(t) = fXs’) = f ( s ’) = s’2

Para t > g (s), dejamos

f,(t) = 0

203
Cada función f es continua. Para cualquier número fijo t > 1, si s tien­
de a 1 desde valores inferiores, entonces s’ tiende a 1, y f (t) también.

c) fj(t) = 1, para todo t > 1.


d) Entonces sea s tal que satisface 1 < s á 2, y definimos

h (s) = s - 1 + —
s —1
Para los valores de s que se consideran ahora, f será una función es­
trictamente creciente que crece sin límites. Pero para s < 2, el crecimien­
to de f,(t) quedará retrasado en relación con el crecimiento de fit), por lo
menos para los valores de t inmediatamente superiores a s. En particular,
solamente en el tiempo t = h(s) f,(t) alcanzará el valor fi2) = 4. La función
h es decreciente; satisface h(2) = 2 y h(s) > 2 para 1 < s < 2, y h(s) tiende al
infinito cuando s tiende a 1 desde valores superiores.
Para s y t con l < s < 2 y s < t < h(s), encontraremos el número s’ que
satisface

h(s’) - s’ = h(s) - 1

Este número es único y está dado por

s■= 1
i + --------------
1
l + h(s)-t
Aquí s’ es una función creciente d e t , t = s d a s ’ = s , t = h(s) da s’ = 2, y
s < s' < 2 para todos los valores posibles de t. Entonces definimos

f (t) = f í s ’) = s’2

Para t > h(s), definimos

f (t) = 4.(t - h(s) + l ) 2

Estrictamente hablando, tenemos dos definiciones de f,(t) para


t = h(s), pero ambas dan f(h (s)) = 4. Ahora es fácil ver que cada fun­
ción fwes continua. Si s tiende a 1 desde valores superiores, entonces s’ y
f (t) tienden a 1; esto vale para cualquier t > 1.

e) Si fijamos s = 2 en las definiciones anteriores, obtenemos h(2) = 2


y fj(t) = (2t - 2)2, para todo t > 2.
Esto da f2(2) = 4 = f (2), como requiere el Axioma IV. Además, f2(t) > ftt)
para todo t > 2.
Por los axiomas IV y V, ft está ahora determinada para cualquier s > 2.
Para cualquier s así, existe un único número t’ tal que f(s) = f (s) = f2(t’).
Encontramos t’ explícitamente:

204
Para t > s > 2, ahora el Axioma V da

f.(t) = f.(s + (t - s)) = f2(t’ + (t - s)) = f2(t + 1 - s/2) = (2t - s)2

Esto completa la construcción de f y f,. Aplicando los comentarios ya


hechos, no es difícil demostrar que los Axiomas I-VII y III’ quedan satisfe­
chos.
Las diferentes entidades definidas en el texto tienen estos valores:

I = (1, oo)
J = J’ = J ” = [2,
S1 = S2 = 1
S3 - S4 - Ss - 2

Los criterios C, y C2 no se satisfacen en el tiempo 1, pero se mantienen


válidos en cualquier momento posterior. Por lo tanto, estos criterios re­
quieren que la transición ocurra en el tiempo 1 + d para algún número pe­
queño y positivo d. Por otro lado, los criterios C3 Cs se satisfacen en el
tiempo 2 (y en cualquier momento posterior); y entonces estos criterios
pueden aplicarse directamente.

A. 2. Teorema 1

Para demostrar el Teorema 1, investigamos las propiedades del con­


junto I. Primero demostramos lo siguiente:

(*) Si s > s’ y s’ e I, entonces s e l .

Sean s y s ’ tales que satisfacen la premisa de (*). Por los Axiomas II a)


y IV, f Xs’) < f,(s). Podemos elegir A = f (s) en la definición de I y concluir
que existe un t tal que f^Xt) > f (s). Como f . es una función continua (Axio­
ma III) existe un t’ tal que f j t ’) = ff(s). La continuidad también implica
que está acotada por [s’, t’]; sea Ao una cota superior para la función en
este intervalo. Entonces sea A cualquier número dado. Por definición de I
existe un t” tal que f^Xt”) > máx (Ao, A). La construcción de Ao da t” > t’.
Como f i t ’) = f (s), el Axioma V implica que f ,(t”) = f (s + t” -° t’), que da
f,(s + 1” - 1’) > A.
El número A era arbitrario, entonces, s e I y (*) ha sido demostrado.
El Axioma VI inmediatamente implica que existe un número s con s e
I. Por (*) no podemos tener s’ e I para cualquier s’ < s, por lo tanto es una
cota inferior para I. El Axioma II puede utilizarse para demostrar que f
crece sin cota. Para ser precisos, puede demostrarse lo siguiente: para
cualquier A existe un t tal que, para todo t’ > t, fU’) > A. Este enunciado
implica que cualquier s que satisface el Axioma VII debe pertenecer a I.
Entonces I es un conjunto no vacío que tiene una cota inferior. Por lo tan­
to, I tiene un ínfimo único o la mayor cota inferior. Sea S, el ínfimo de I.

205
Entonces demostramos el Teorema 1 b). Sea un s > S,. Debe existir un
s’ que satisface s’ e I y s’ < s; de lo contrario s sería una cota inferior para
I, contradiciendo la definición de S,. Entonces (*) implica que s e l . Supon­
gamos que f, no es una función estrictamente creciente. Es decir que exis­
ten t y t’ tales que s < t < t’ y f,(t) > f (t1). Consideramos dos casos: 1) para
todo t” > t’, f (t”) < f (t). La fiinción continua ft tiene un máximo en el con­
junto compacto [s, t j. Sea A mayor que su máximo. Entonces el valor de f
es menor que A en todas partes, contradiciendo el hecho de que s e l . Por
lo tanto el caso es imposible. 2) Existe un t” > t’ con ft(t”) > f (t). Como f,(t’)
< ft(t) y f es continua, debe existir un t " con t’ < t” < t” y f (t*) = f t(t). Pode­
mos aplicar el Axioma V con s = s’ para concluir que f (t”* + At) = ft(t + At)
para todo At £ 0. Si t, y tj satisfacen t, > t y - 1, = t1” - 1, podemos fijar At
= t, - 1 y concluir que f,(t,) = f ( t j. Es decir que luego de im tiempo t, f, es
una función periódica con período tm- t . Entonces, después de un tiempo t
no puede tomar otros valores que los obtenidos en el intervalo [t, t’”]. Pero
la fiinción continua ft tiene un máximo en el intervalo compacto [s, t”’],
que entonces debe ser un máximo global para la función. Como antes, la
existencia de tal máximo contradice s e I. El supuesto de que f no es es­
trictamente creciente ha llevado a una contradicción. Queda demostrado
el Teorema 1 b).
Volviendo al Teorema 1 a), sea un s < S,. La definición de S, inmedia­
tamente da que s e l . Supongamos que fa(t) > fiS,) para algún t > s. Ya he­
mos visto que f crece sin cota. Como f también es continua, existe un s’ con
ÍIs’) - f (t). El Axioma II a) da s’ > S, y el Axioma IV da f ,(s’) = f,(t). Por el
teorema 1 b), que se demostró antes, f^, es una función estrictamente cre­
ciente y no acotada. El Axioma V implica que lo mismo debe valer para f
a partir del tiempo t. De aquí que s e l , contradiciendo un enunciado an­
terior y completando la demostración del Teorema 1 a).
Para demostrar el Teorema 1 c), suponemos que el Axioma III’ vale.
Para t = Sv el Axioma IV da fs,(t) = f(S,). Entonces elegimos cualquier
t > St y consideramos fa(t) para s á t. Para St < s á t, el Teorema 1 b), el A-
xioma IV y el Axioma II a) dan fg(t) > f (s) = fls) > f (S,). Como f ( t ) es
continua en s, esto implica que fa,(t) > fiS^). Para s < S,, el Teorema 1 a)
da f'(t) < f(Sj) y la suposición de continuidad implica que f.(t ) = f(S,).
Eligiendo A > f(S ,) en la definición de I, tenemos S, € I. Queda demostrado.

A. 3. El conjunto J

En este apartado, primero demostraremos el Teorema 2. Luego dare­


mos un ejemplo en el que existen dos puntos del tiempo s y s’ tales que s < s’,
el criterio C3 se c mple en s, pero ninguno de los criterios C2- C 5 se cum­
plen en o después de s’.
Al analizar el conjunto I en el Apartado A. 2, observamos que cualquier
s que satisface el Axioma VII pertenece a I; es decir que J C I. Sean s, s’ y t
que satisfacen s < s ’ ¿ t y s e J. Entonces s e I y la demostración del Teore­
ma 1 b) muestra que fa es una función estrictamente creciente. El Axioma
IV, el Axioma II a) y la definición de J implican que f((s) = fís) < fl$’) < f,(s’).

206
Utilizando la continuidad f , vemos que existe un t’ con s < t’ < s’

>> ii
fi(t’) = f (s’). Entonces los Axiomas IV y V dan f (t’) = f í s ’) y f (t’ + t - s’)
f,.(t). Como f es creciente y t’ + 1 - s’ < t, esto da i,(t) > f ,(t), que es la conclu­
sión del Teorema 2.
Entonces queremos construir un ejemplo en el que valga lo siguiente:

Existen s y s’ con s e J y s’ > s tales que, para todo s” ¿ s’ y para todo


t > s”, f,.(t) < Kt).

Basaremos la construcción en el ejemplo dado en el Apartado A .l. Pa­


ra s á 4, definimos f,(t) del mismo modo que en aquel apartado. Recorda­
mos la definición que se aplica cuando 2 < s 5 4:

f.(t) = ( 2 t - s ) 2

Para s > 4, definimos

f 8(t}= ( 2 t —3 - - ) 2
s
Esta es una función continua en t También es continua en s para todo s > 4.
(Tenemos dos definiciones de f4(t), pero coinciden fácilmente.) Sin mucha
dificultad, podemos demostrar que el Axioma V vale. El Axioma IV re­
quiere los siguientes valores de f:

f(t) = t2 para 0 < t < 4,


f ( t) = ( 2 1—3 ——) para t > 4
t

La función fes continua para todo t ¿ 0 y diferenciable excepto en t = 4.


La derivada es creciente y hace un salto hacia arriba en t = 4. Esto es su­
ficiente para concluir que los Axiomas I y II son válidos. Los Axiomas III-
VI y III’ están incluidos por comentarios hechos anteriormente en el
Apartado A.L Finalmente, f2(t) > f (t) para todo t > 2, estableciendo el
Axioma VII.
Los diversos elementos definidos en el texto principal pueden tener
los siguientes valores:

I = (1, °°)
J = «T = J” = (2, 3]
Sl = l
S, = 3/2
S2 = S4 = Ss = 2

Ahora elegimos s = 2 y s’ = 4. Las definiciones inmediatamente dan


f,.(t) < ftt) para todo s” y t con s’ < s” < t. Los criterios C2- Cs no se cumplen
en o después del tiempo 4. Por lo tanto, el ejemplo satisface la condición
que motivó su construcción.

907
A. 4. La relación entre los diferentes criterios

Los Teoremas 3 y 4 contienen enunciados acerca de la relación entre


los diferentes criterios. En este apartado lo demostraremos.
Por definición, S4 = ín f J’ y S, = ínf J”. Como J” C J’, esto da S4 5 S5. Si
el Teorema 3 es falso, entonces, debe ser S4 > S5. Entonces debe existir un
s que satisface s e J” y s < S4. Este s pertenece a J” y no a J’, lo que impli­
ca que f ( t) = fít) para todo t > s. Elegimos cualquier s' > s. Por el Axioma IV
y el enunciado recién hecho, tenemos f (s’) = f ,(s’). Entonces el Axioma V
implica que ft(t) = f,,(t) para todo 1 5 s\ La observación previa dará f ,(t) =
F (t) para todo t > s', lo que significa que s’ no pertenece a tP. Como s’ era un
número arbitrario con s’ ¿ s, y como s < S. = inf J’, esto implica que J’ es
vacío. A su vez, esto contradice el Axioma Vil (o Axioma VII’) y completa
la demostración del Teorema 3.
Para demostrar el Teorema 4, suponemos que el Axioma III’ vale.
Elegimos un número t tal que t > Sj y t > S5. Para cualquier s con s e J” y
s < t, tenemos f (t) > fit). Por la definición de S5, hay valores de s que
pertenecen a J” y están arbitrariamente cerca de y por arriba de S5.
Como f (t) > f(t) vale para estos s, la suposición de continuidad III’ da f(t)
> fCt). La elección de t y el Axioma II a) entonces implican f s, ( t ) > f ( S J).Si
S5 < S,, esto contradice el Teorema la); si S, = S5, contradice el Teorema 1
c). La única posibilidad restante es la conclusión del Teorema 4.

208
Notas
Notas de la introducción a la primera parte
[1] Está aceptado generalmente que en ciencia no hay lenguaje de observa­
ción “teórico-neutrar. Al ocuparse de derivar consecuencias observacionales de
una teoría que será testeada, siempre hay que dar por sentada la validez de las
demás teorías que entran en la construcción del lenguaje de observación. El con­
cepto aparentemente simple de la lectura de temperaturas encarna una gran can­
tidad de supuestos teóricos. Pero, en general, esto es una dificultad global, no lo­
cal, en el sentido de que rara vez una teoría debe ser recordada en la construcción
de los datos utilizados para testear dicha teoría. Tratamos de construir experi­
mentos y observaciones de modo que no tengamos que presuponer la validez de la
teoría para testearla. Sin embargo, en algunas ciencias sociales esto puede no ser
posible. Por ejemplo, en lingQística loe datos son nuestras intuiciones sobre la
gramaticalidad, que pueden cambiar como resultado de cambios en la temía que
nos hacen descubrir contradicciones y conexiones entre loe datos que antes desco­
nocíamos, obligando a una revisión de la intuición. Existe una posibilidad concre­
ta de que dos lingüistas, que trabajan sobre el mismo conjunto inicial de “intuicio­
nes no elaboradas”, vayan en dos direcciones teóricas diferentes y terminen con
diferentes “intuiciones refinadas”, que corresponden perfectamente a sus teorías.
[2] El argumento para esta idea se describe brevemente en Elster (1987a),
pág. 63, nota 8.
[3] Elster (1978a, cap. 5) intenta explicar la estructura de las contradiccio­
nes sociales. En el lenguaje del capítulo 3 más adelante, incluyen la contrafina­
lidad, la suboptimalidad y los juegos sin soluciones no cooperativas.
[4] Habermas(1978).
[5] Véase la exposición de las ideas de Peirce en Wiener (1949), págs. 85 y
sigs. Para un análisis de la idea contraria —que el desarrollo del universo no tie­
ne un estado absorbente— en Descartes, véase Elster (1975), págs. 63-6.
[6] Von Wright (1971, cap. 1) tiene un buen relato de las tradiciones de Gali-
leo y Aristóteles en el estudio de la conducta humana. Para las teorías físicas sub­
yacentes, véase Dijksterhuis (1961).
[7] Feynman (1965, vol. I, 26.3) compara la conducta de la luz que pasa de
un medio a otro a la de una persona en tierra que desea ayudar a una niña que se
está ahogando cerca en el mar. Si la línea entre él y la niña no es perpendicular a
la costa, no debería correr y luego nadar en línea recta hacia la niña, sino —si
quiere llegar a ella lo más pronto posible— seguir una línea quebrada que corres­
ponde a la que sigue la luz.
[8] Samuelson (1971).
[9] Véase Guéroult (1967) y Elster (1975, cap. 5) para algunos aspectos de fí­
sica teleológica en el siglo XVn.
[10] Los casos sobresalientes de maximización “como si” en ciencia son, qui­
zá, los siguientes: a) Los enunciados variacionales de las teorías físicas. Estoe tie­

209
nen la característica de que, aunque todo proceso puede describirse como si se es­
tuviera maxirmzando algo, no hay una función objetiva única que se esté maximi-
zando en todos los procesos físicos, b) La adaptación funcional en biología. Aquí
hay un solo maximando en todos los casos, es decir, la capacidad reproductiva.
Sin embargo, el hecho de que ésta está restringida solamente a máximos locales
(cap. 2) demuestra que no hay razón para explicarla en términos de intenciones
maximizantes, que no están restringidas de ese modo (cap. 3). c) La maximización
de la utilidad en economía. Esta es una elección meramente taquigráfica según
las preferencias coherentes, completas y continuas (Elster 1983, cap. 1. 2). El ca­
rácter artificial o conceptual de la maximización de las utilidades puede verse de
diversas maneras. Primero, hay algunas preferencias racionales que no pueden
representarse mediante una función de utilidad; segundo, aunque las preferen­
cias puedan representarse de ese modo, la representación no es única; y tercero,
la idea de la maximización deliberada de las utilidades es en cierto modo absurda
ya que las utilidades, como el placer o la felicidad, tienen la propiedad de ser esen­
cialmente un subproducto (Elster 1983, cap. 2). Sería posible e interesante rees-
cribir la historia de la ciencia en términos del concepto antropomórfico de maxi­
mización y considerar el progreso científico como una mayor comprensión de que
la idea es puramente la de conveniencia en la mayoría de los casos.
[11] Contrariamente a lo que propone van Parijs (1981, §14).
[12] Véase Williams (1966) para una vigorosa crítica de esta falacia.
[13] Williams (1966, pág. 209) denuncia la idea de que “cuando se ha demos­
trado que cierto proceso biológico produce un beneficio, se ha demostrado la fun­
ción o por lo menos una función del proceso”. Sus ejemplos incluyen principal­
mente beneficios a nivel grupal. Y no es fácil construir ejemplos de la falacia en el
nivel del organismo individual. Se podría considerar el caso de la pleiotropía y su­
poner que un gen tiene dos expresiones fenotípicas, siendo ambas beneficiosas,
pero una más que la otra. Entonces es tentador decir que la expresión menos be­
neficiosa no explica por qué está allí el gen, ya que estaría allí incluso en un me­
dio en el que dicha consecuencia del gen fuera en cierto modo peijudicial. Pero es
probablemente más plausible referirse a esto como un ejemplo de sobredetermi­
nación funcional, análogo al conocido caso de la sobredeterminación causal. Véase
Oster y Wilson (1978, pág. 314) para comentarios.
[14] Véase también pág. 68 más adelante.
[15] Davidson (1980), caps. 1, 11,13.
[16] Davidson (1980), págs. 253-4.
[17] Esta analogía tiene una semejanza de familia con la utilizada por David­
son (1980), págs. 249-50.
[18] Weintraub (1979) tiene un buen estudio de este tema.
[19] Suppes (1970), pág. 91.
[20] Hicks (1979, cap. 7) tiene un buen análisis sobre este punto.

Notas del capítulo 1


[1] Beauchamp y Rosenberg (1981), pág. 279.
[2] Ibíd., pág. 93.
[3] Hempel (1965), págs. 335 y sigs.
[4] Beauchamp y Rosenberg (1981), pág. 304.
[5] Lewis (1973a).
[6] Debo este último modo de dividir en etapas el problema a G. A. Cohén.
Obsérvese que el fenómeno de causación precedente difiere de la de la sobredeter­
minación causal, en la que cada una de las dos causas que actúan realmente es

210
suficiente para el efecto, como cuando una persona recibe simultáneamente dos
balas en el corazón.
[7] Thorpe (1980, pág. 68) indica esta distinción.
[8] La situación puede compararse a los casos en que un proceso real en
tiempo discreto está matemáticamente representado en tiempo continuo, que pa­
ra los propósitos computacionales se representa entonces en un tiempo discreto
que no tiene una relación significativa con el proceso discreto original (Bellman,
1961, págs. 67-8).
[9] Elster (1975, págs. 163 y sigs.) cita y analiza los textos pertinentes.
[10] Suppes (1970), pág. 31.
[11] /¿id,pág. 32.
[12] Véase Elster (1976) para un análisis más completo.
[13] McFarland (1970), pág. 473.
[14] Sin embargo, véase la nota 49 del capítulo 2 para el análisis de la idea de
que un fenómeno puede explicarse a través de su tendencia o disposición a produ­
cir ciertas consecuencias. Y esto podría ser válido aunque las consecuencias estén
en cierto modo impedidas de ocurrir.
[15] Georgescu-Roegen (1971), pág. 124, citando a David Bohm y a de Bro-
glie.
[16] Este término (introducido por C. H. Waddington) es el análogo diná­
mico del concepto más conocido de homeostasis. Así como éste puede ejemplifi­
carse mediante la idea de una pelota que rueda en un bol, el primero puede
entenderse imaginando una pelota que rueda en un valle con pendiente hacia el
océano. Si la pelota es desviada de su curso en el piso del valle y se la hace rodar
hada arriba, entonces tarde o temprano volverá al piso y seguirá el curso que hu­
biera seguido en ausencia del desudo, a no ser que el golpe fuera tan fuerte que la
enviara al próximo valle y la hiciera seguir un curso diferente. La última parte
deja claro que la homeorhesis, como la homeostasis, es un concepto de estabilidad
local.
[17] Rader (1971). Como muchos primeros intentos, éste tiene el defecto de
excesiva generalidad, que puede deberse a su esterilidad en originar más investi­
gación.
[18] Lo siguiente hace uso de Elster (1976).
[19] Véase en particular Georgescu-Roegen (1971). Puede tener razón en in­
sistir en el carácter histórico único de las ciencias sodales, pero debe estar equi­
vocado cuando indica que esto conduce a la histéresis en un sentido real. El carác­
ter histórico de las dendas sociales puede querer dedr que los procesos históricos
frecuentemente son irreversibles, pero esta característica a lo sumo puede distin­
guirlos de loe p n » a o s físicos, no de la evolución biológica. O puede significar que
loe fenómenos sociales con frecuencia son no repetibles, por ejemplo, porque tie­
nen un carácter caótico y abierto que está indisodablemente vinculado con su ca­
rácter de “primeros”. En la sociedad el pasado sobrevive en el presente a través de
los recuerdos del pasado, a diferenria de la evoludón biológica, que no puede
aprender de loe errores pasados ni mantener vivo el conocimiento pasado simple­
mente porque pueda resultar útil.
[20] Véase Padulo y Arbib (1974) para un análisis profundo.
[21] Para tres evaluadones muy diferentes, véanse Harcourt (1973), Blaug
(1974) y Bliss (1975). Como me refiero nuevamente a esta controversia en la
introduedón a la segunda parte y en el capítulo 7, debería establecer brevemente
mi propia evaluación (no muy competente) del tema. Primero, me parece que la
controversia en un sentido ya ha terminado: los economistas neoclásicos per­
dieron. Sin embargo, en segundo lugar, nadie sabe todavía cuán importante
resultará ser este problema en pura teoría para las aplicadones. Y tercero, como

211
dijera Blaug (1974, pág. 82), puede ser más lo que une a Paul Samuelson con Joan
Robinson de lo que los separa. En particular, en comparación con los modelos de
desequilibrio del cambio tecnológico analizados en el capítulo 5 y en el capítulo 6,
las teorías neoclásicas y neorricardianas pueden ser de la misma especie.
[22] “El papel ideológico del ‘valor del capital’ es el de romper el verdadero
vínculo directo entre el patrón temporal del trabajo y el patrón temporal del out-
put en el que puede resolverse cualquier tecnología, y el de establecer en su lugar
una relación entre el output actual y el trabajo actual. Con este propósito se nece­
sita el actual ‘valor del stock de capital’; una reconstrucción conceptual mítica en
la que el pasado y el futuro de la economía se observan con telescopio desde el pre­
sente' (Ñutí, 1970, pág. 54). Esto debe estar equivocado. El “valor del stock de ca­
pital” puede servir al propósito indicado por Nuti; y si se lo elige para dicho propó­
sito puede estar elegido por razones ideológicas. Pero el mismo propósito puede
también satisfacerse, de un modo bastante respetable y no ideológico, mediante
un coryunto desagregado de bienes de capital actuales. Y de hecho, como se afir­
ma en el texto, debe ser una representación superior a la propuesta por Nuti en la
oración inicial del pasaje citado.
[23] Hicks (1979, cap. 2) basa todo su análisis de causación sobre la supuesta
implicación contrafáctica. Véase en particular el enunciado de la pág. 14: “Si pue­
de construirse no A, y con no A, B no hubiera sucedido, diré que A pasa la prueba',
siempre que A y B existan, A demuestra ser una causa separable de B”.
[24] Goldman (1972).
[25] Creo que éste es el concepto general y premarxista de la explotación, co­
mo puede confirmarse consultando el OED, Littré y Duden.
[26] Roemer (1982).
[27] Por ejemplo, considérese la relación entre loe discapacitados permanen­
tes y loe sanoe que les pagan beneficioe para el bienestar.
[28] Stalnaker (1968), Lewis (1973b).
[29] Mackie (1962), Beauchamp y Rosenberg (1981), págs. 146 y sigs.; tam­
bién Elster (1978a), pág. 181 y sigs.
[30] Esto ya fue reconocido por Max Weber (1968), pág. 276.
[31] Elster (1978a), págs. 181 y sigs. Véanse también las objeciones formula­
das por Barry (1980) y Lukes (1980), con las respuestas en Elster (1980a, b).
[32] Fogel (1964), analizado más extensamente en Elster (1978a), págs. 204 y
sigs.
[33] Podemos observar aquí una interesante característica del enfoque de Fo­
gel. Como su meta es demostrar una tesis y no llegar al mejor cálculo, puede sor­
tear mediante trucos algunos problemas difíciles suponiendo coherentemente que
los dados están cargados contra él, es decir, haciendo de Abogado del Diablo. Si su
tesis se fundamenta en los supuestos más desfavorables (quizá tan desfavorables
que no pueden ser todos ciertos), entonces sin duda también es válido en base a
supuestos más realistas, cualesquiera resulten ser éstos.
[34] Reimpresocomo capítulo 6 en David (1975). La crítica tiene el apoyo de la
teoría de David del cambio tecnológico, analizada más adelante en el capítulo 6.
[35] Elster (1978a, págs. 201 y sigs.) tiene un análisis de este problema en
particular; véase también Kula (1970), pág. 28.
[36] Elster ( 1980a, b) tiene un argumento más elaborado al respecto.
[37] “Hay una magnificencia en esta generalización que recuerda a la juven­
tud de la filosofía. La justicia es un cubo perfecto, dijo el sabio de la antigüedad; y
la conducta racional es una función homogénea, agrega el sabio moderno” (Y. C.
Edgeworth, citado de Baumol, 1977, pág. 578, n. 11).
[38] Elster (1978a, pág. 87 y sigs.) propone un análisis de la falacia de la com­
posición incluida en este enfoque. Véase también Elster ( 1978b, c).

212
[39] Marx (1894), capítulo 48; véase también la cita de N. Nuti en la nota 22
más arriba.
[40] Elster (1978a, pág. 192 y siga.) analiza el problema de las alternativas
históricas al imperialismo como un ejemplo de esta dificultad.
[41] Russel(1941).
[42] Esta es la ilusión de que nadie habría tomado el lugar de loe dueños de
esclavos si no hubieran existido. Para un brillante análisis, veáse Veyne (1976),
págs. 148 y siga.
[43] Para otro ejemplo de este problema, véase el argumento en Rawls (1971,
págs. 177 y sigs. y págs. 496 y siga.) al efecto de que loe menos privilegiados en
una sociedad que hace que los que están en la peor situación estén lo mejor posi­
ble deberían sentir que son bien tratados. Si, de hecho, cualquier intento por me­
jorar la situación de los peores la empeorara, aparecería la conclusión. Pero aquí
hay una ambigüedad fundamental, ya que el grupo en peor situación según un
arreglo social no tiene por qué ser el mismo que el peor según otro sistema, y en­
tonces un grupo dado en mala situación puede beneficiarse con el cambio aunque
el grupo que surja como el peor sea peor que el primero. Esta dificultad en la posi­
ción de Rawls me fue señalada por G. A. Cohén.
[44] Aquí me baso en un trabajo no publicado de Trond Petersen.
[45] Tocqueville (1969), págs. 596-7.
[46] Ibíd.,pág. 723.
[47] Ibld., pág. 507.
[48] /¿id., pág. 224.
[49] Ibíd., pág. 738.
[50] Tocqueville (1953), pág. 343.
[51] Aquí hay algunos ejemplos, con las páginas correspondientes a Tocquevi­
lle (1969). El proceso de democratización y el estado de democracia inducen, res­
pectivamente, al dogmatismo y a la duda (pág. 187); hostilidad e indiferencia
(pág. 509); criterios morales flojos y estrictos (pág. 599); ambiciones elevadas y
moderadas (pág. 629); la ruina y la prosperidad de la industria (pág. 637).
[52] Aron (1967), pág. 292, Lévi-Strauss (1960), pág. 94; también Leach
(1964), págs. xi y sigs.
[53] Hempel (1965), págs. 380-1.
[54] Véase Boudon (1977, cap. IV) para una aplicacióndeesta idea a la elec­
ción de carrera.
[55] Ca8tellan(1971), pág. 51.
[56] Hempel (1965), págs. 381 y sigs.
[57] /¿>£d., págs. 394 y sigs. El ejemplo utilizado en el texto está extraído de
Davidson (1980), pág. 37.
[58] Hempel (1965), págs. 396, comenta sobre un ejemplo meteorológico si­
milar.
[59] Blau y Duncan (1967), págs. 174-5.
[60] Simón (1971).

•Notas del capítulo 2


[1] Lo siguiente se basa especialmente en Elster (1979, cap. 1. 2).
[2] Frazzetta (1975), pág. 152.
[3] Schumpeter (1934), pág. 54.
[4] Monod (1970).
[5] Frazzetta (1975), pág. 20.
[6] Robinson (1956), pág. 20.

213
[7] Elster (1979, cap. 2), tiene un profundo análisis del precompromiso. Véa­
se también Thaler y Shefrin (1981).
[8] Leigh (1971), Parte I; Frazzetta (1975), cap. 5 y passim.
[9] Cody (1974), Rapoport y Tumer (1977), Oster y Wilson (1978), cap. 8.
[10] Levins (1968) muestra cómo los organismos desarrollan estrategias para
soportar los cambios estacionales y otros habituales en el medio.
[11] Para extensiones al caso de individuos, véanse Sen (1967) y Taylor (1976).
[12] Williams (1966), págs. 212 y sigs.
[13] Para estudios véanse Wilson (1975), cap. 4 y Dawkins (1976).
[14] Ghiselin (1974) es un ataque frontal a este concepto.
[15] Este es un tema importante en Dawkins (1976).
[16] Elster (1979), cap. 1. 5.
[17] De hecho, ésta file la versión de la teodicea propuesta por Malebranche;
véase Elster (1975), cap. 5.
[18] Estudios de Stark (1962) y Schlanger (1971).
[19] Quizá se podría distinguir entre las versiones conservadora, la extremis­
ta y la marxista del funcionalismo a través de la siguiente división esquemática.
Observemos el producto neto total de la sociedad como dividido en un excedente
que va a las clases dirigentes y un componente de subsistencia para el resto de la
sociedad. El funcionalismo conservador explica todos los arreglos sociales en tér­
minos de maximizar el producto total (North y Thomas 1973, Posner 1977); el
funcionalismo marxista supone que el efecto es maximizar el primer componente;
y el funcionalismo extremista que el efecto es minimizar el segundo componente.
Para asegurarse, los sociólogos extremistas (Foucault 1975, Bourdieu 1979) no se
ocupan de la división del producto económico, pero en su trabajo hay mucho más
énfasis sobre las víctimas de la opresión que sobre los beneficiarios, y algunas ve­
ces se tiene la impresión de que en realidad no hay beneficiarios. Como la vida so­
cial no es un juego de suma nula, la minimización del bienestar de los menos pri­
vilegiados puede no ser lo mismo que maximizar el de los más privilegiados.
[20] Merton (1957), págs. 30 y sigs.
[21] Cohén (1982) afirma, convincentemente, que este paradigma está menos
íntimamente relacionado con la explicación evolucionista en biología que lo que
afirmé en Elster (1979). Indica, además, que “las explicaciones de las consecuen­
cias de Cohén” pueden ser mejores interpretaciones del concepto intuitivo de la
explicación funcional que las “vueltas de Elster”. Pero mi explicación no es para
capturar la “intuición” generalmente, sino para hacer explícitos los paradigmas
utilizados por los primeros defensores y practicantes de la sociología funcionalista.
[22] De estos criterios, del 1 al 4 son enfatizados por Merton (1957), mientras
que el criterio 5 está enunciado más explícitamente por Stinchcombe (1968).
[23] Véase el cap. 6 para un análisis más detallado de tales teorías y para un
argumento de que los “modelos evolucionistas” en economía no pueden ser imita­
ciones literales de la teoría biológica de la evolución.
[24] Hardin (1980).
[25] Van Parijs (1981), pág. 101.
[26] Véase el cap. 6 para la explicación filtro del cambio tecnológico hallado
en el trabajo de Eilert Sundt. Véase también Elster (1979), pág. 30.
[27] Coser (1971), pág. 60.
[28] Marx (1894), págs. 600-1.
[29] Esta idea está en el centro de la escuela de “lógica del capital” del mar­
xismo, estudiada por Jessop (1977) y en la introducción editorial de Holloway y
Picciotta(1978).
[30] Para un argumento más completo, véase Elster (1982).
[31] Se llega a esta conclusión en Bowles y Gintis (1977) y Roemer (1979).

214
[32] Simmel(1908>, págs. 76y sigs.
[33] Las explicaciones filtro, basadas en el mecanismo de selección delibera­
da entre opciones aleatorias, forman un subconjunto de la clase general de expli­
caciones intencionales, y se podría decir que tienen una estructura intencional
más débil que otros miembros de dicha clase. En particular, la selección intencio­
nal no siempre conduce al óptimo global si aquella opción no aparece en el meca­
nismo aleatorio, o si aparece tan tarde en el curso que el selector elige una opción
inferior que bloquea el desarrollo ulterior. Sin embargo, un selector intencional
tiene la capacidad de esperar o de seguir estrategias indirectas, y así no está limi­
tado a máximos locales en todos los casos, contrariamente a lo que indica van Pa-
rys (1981), pág. 56. Así podría ser legítimo explicar los fenómenos en términos de
consecuencias positivas a largo plazo si hay un actor intencional que revisa todas
las opciones producidas por el mecanismo aleatorio.
[34] Un ejemplo clásico de este argumento es El 18 Brumario de Marx; una
versión moderna se encuentra en O’Connor (1973), pág. 70.
[35] Así Leibniz estaba perfectamente autorizado, dada su postura teológica,
a explicar la historia mundial como un ejemplo de “reculer pour mieux sauter”
(Leibniz 1875-90, voL III, págs. 346, 578; vol. VII, pág. 568). Pero sin un creador
divino y guía, no se puede explicar coherentemente, como lo hicieron Hegel y
Marx, el proceso histórico de alienación a través de sus consecuencias beneficio­
sas para el alcance de una unidad más elevada.
[36] En particular, así es como parece entenderlo Stinchcombe (1974). Cohén
(1978, pág. 258, nota 2) piensa de otro modo, pero el contexto es el de un caso de
un disparo (el experimento Hawthome) en el que realmente es imposible pensar
que el explanan» puede suceder al explanandum (cap. 1). Sin embargo, otro de los
ejemplos de Merton se refiere a las actividades como el consumo conspicuo y aquí
es mucho más plausible ver su uso del término “función” como explicativo.
[37] Stinchcombe (1974); véase también Stinchcombe (1980).
[38] Este ejemplo y la conclusión escéptica que implica me fueron señalados
por Philippe van Parijs.
[39] Para el problema correspondiente acerca de la tendencia genética y la
evolución “no darwiniana” en biología, véase Kimura(1979).
[40] Para un brillante estudio del tradicionalismo, véase Levenson (1968),
vol. I, págs. 26 y sigs.
[41] Este ejemplo se analiza en Stinchcombe (1968), págs. 82-3 y en Stinch­
combe (1980).
[42] El mecanismo podría basarse en la imitación intencional de un modelo
constante o la superioridad de la práctica a todas las alternativas cercanas.
[43] Leach (1964).
[44] Véase el argumento relacionado con respecto a la causación del equili­
brio en el cap. 1.
[45] Cohén (1978,1982).
[46] Tocqueville (1969), pág. 605.
[47] Veyne(1976), págs. 292-3. Para un análisis del funcionalismo ocasional
en el sobresaliente trabqjo de Veyne, véase Elster (1980d).
[48] Véase Cohén (1978), págs. 259 y sigs. para un enunciado más preciso.
[49] Cohén (1982) dice que los giros de retroalimentación no son fundamenta­
les para el mecanismo causal en virtud de lo cual una explicación funcional, si es
válida, es válida. Dice que, por el contrario, una ley consecutiva de la forma espe­
cificada más arriba tiene un poder explicativo porque (o si) A tiene una propen­
sión o disposición a producir B. Sería un hecho disposicional acerca de las jirafas
en una temprana etapa de su evolución que, si debían desarrollar cuellos más lar­
gos, se acentuara su aptitud. Para ser precisos, es una característica dispoeicional

215
del medio de las jirafas que, si las jirafas debían desarrollar cuellos más largos en
aquel medio, su aptitud aumentara. Más aun, el medio provoca que los cuellos se
alarguen en virtud de esta característica disposicional. Contra esto tiendo a estar
de acuerdo con Rubén (1980) en que un medio constante no puede actuar como
causa, excepto en el sentido de la causación simultánea analizada ya en el cap. 1.
Sin embargo, el tema necesita más aclaración.
[50] Festinger (1957, 1964), citado en Veyne (1976), pág. 311 y pássirn.
[51] En un trabajo inédito sobre la filosofía de Hempel de la explicación cien­
tífica.
[52] Véase la nota 11 de la introducción a la primera parte.

Notas del capítulo 3

[1] Von Wright (1971) presenta un reciente enunciado de la tradicional dis­


tinción entre Erklaren y Verstehen, que corresponden aproximadamente a la ex­
plicación causal y a la intencional respectivamente. Hay dos razones para no uti­
lizar esta terminología. Primero, es inconveniente ya que indica —contrariamen­
te al uso común— que no podemos decir que explicamos algo cuando lo entende­
mos o viceversa. Segundo, y mucho más importante, realmente necesitamos una
tricotomía y no una dicotomía. La explicación funcional también nos permite en­
contrar un significado en la clase de entes que explica, aunque sea un significado
menos legítimo que en la conducta intencional. Con la dicotomía de comprensión
versus explicación, podemos decir sin ambigüedad que un acto consciente e inten­
cional está cubierto por la primera y una convulsión por la segunda, pero no sa­
bríamos cómo clasificar la conducta refleja como la de cerrar los ojos frente a la
intensa luz del sol.
[2] Para el uso del término “causa” en este aspecto, véanse los comentarios
sobre la relación entre la explicación causal y la explicación intencional en la in­
troducción a la primera parte.
[3] Davidson (1980), cap. 4.
[4] Jacob (1970), pág. 313.
[5] Crook (1980), págs. 124 y sigs. Para un estudio de la gratificación diferi­
da, véase Ainslie (1975).
[6] Elster (1979, cap. 2) y Ainslie (1980) son estudios de este tema.
[7] Elster (1979), pág. 13 y sigs. Si es correcta, esta observación implicaría
que la intencionalidad y el lenguaje no son tan inseparables como dicen filósofos
tan diferentes como Davidson y Gadamer.
[8] Kolm (1980, págs. 317-18) esboza un modelo formal de esta idea.
[9] Véase Veyne (1976), pág. 40 para una observación similar.
[10] Elster (1983, cap. 5) tiene un análisis de este concepto.
[11] Davidson (1980, cap. 2) y Rorty (1980) son buenas explicaciones de este
fenómeno.
[12] Debo esta inteligente frase a Amos Tversky.
[13] Segré (1980), pág. 171.
[14] Para una exposición más completa de este criterio (debida a Jaakko Hin-
tikka), véase Elster ( 1978a), págs. 81 y sigs.
[15] Elster (1983, cap. 3) ofrece un estudio de estos fenómenos.
[16] Simón (1954,1978); véase también el capítulo 6 más adelante.
[17] Von Weizsácker (1965).
[18] Heal (1973, cap. 13) tiene un útil análisis de la existencia de los planes
óptimos.

216
[19] Hammond y Mirrlees (1973) introdujeron este concepto.
[20] Latsis (1976).
[21] El caso principal en el que no es posible representar preferencias me­
diante una función de utilidades de valores reales es cuando incluyen una jerar­
quía de valores, como en las llamadas “preferencias lexicográficas’ (Elster 1979,
cap. 3. 2). O, para decirlo de otro modo, las preferencias pueden representarse así
si hay intercambios entre todos los objetos sobre los cuales están definidas, de
manera que menos de un objeto siempre pueda ser compensado por más de otro,
con el agente permaneciendo en el mismo nivel de utilidad.
[22] Para exposiciones más complicadas, véanse Luce y Raiffa (1957), Har-
sanyi (1977) y Owen (1968).
[23] Véanse especialmente Roemer (1982) y Howe y Roemer (1981) para los
usos normativos de la teoría de los juegos cooperativos para n-personas.
[24] El ejemplo del paradigma es la prueba de Haraanyi de que la “solución
del regateo' para juegos sin una solución no cooperativa también satisface los cri­
terios de optimización establecidos por Nash, y sin duda es la única salida que lo
hace. Véanse Luce y Raiffa (1957, cap. 6) para una sencilla exposición y Harsanyi
(1977) para la explicación completa.
[25] Esta es también la idea de Popkin (1979) que refuta exitosamente el lla­
mado enfoque de “economía moral' para la vida campesina.
[26] Sen (1967). Para análisis comparativos del Dilema de los Prisioneros, el
Juego del Compromiso y la “Gallina', véanse Elster (1981b), Kolm (1981) y van
der Veen (1981).
[27] La frase fue tomada de Taylor (1971), el contexto de la misma es un ar­
gumento destinado a demostrar que la solidaridad y el consenso no pueden expli­
carse mediante el individualismo metodológico. Parafrasear el argumento en tér­
minos de la teoría de los juegos demuestra que en realidad implica la conclusión
opuesta (Elster 1982).
[28] Más generalmente, podemos preguntar acerca de la probabilidad de que
la solución se concrete cuando no está formada por estrategias dominantes, caso
que también abarca a todos los juegos que tienen soluciones en estrategias mix­
tas. Para el último problema, véase Elster ( 1978a), pág. 126.
[29] Schelling (1978) ha construido un marco así y lo ha aplicado a una varie­
dad de casos.
[30] También hay una tercera posibilidad, que puede realizarse con bastante
frecuencia: el resultado es Pareto-subóptimo porque hay varios óptimos colec­
tivos, cada uno de los cuales incluye ventajas específicas para algunos actores,
por encima de las ventajas generales que resultan para todos los actores. Es decir
que cualquier óptimo sería considerado como injusto por algún grupo que sea lo
suficientemente poderoso como para bloquearlo. La estructura estratégica detrás
de este caso puede estar representada por el juego frecuentemente llamado “La
Batalla de los Sexos' (Luce y Raiffa 1957, págs. 90 y sigs.) en el que ambos sexos
prefieren estar juntos y no solos, aunque uno prefiera que estén juntos en un
restaurante y el otro que estén juntos en un cine. Algunas inferencias para políti­
ca se describen en Schotter (1981), pág. 26 y sigs., pág. 43 y sigs.
[31] Elster (1982) tiene una exposición más completa.
[32] Véase Rapoport (1966), págs. 137 y sigs.
[33] Schelling (1963) está en el origen de este concepto.
[34] Pen (1959, pág. 91 y sigs.) argumenta en contra de la tendencia a creer
que el resultado del regateo es objetivamente indeterminado. Un ejemplo de esta
tendencia se encuentra en Marx (1894), pág. 364.
[35] Estas observaciones siguen a Barry (1978).
[36] Elster (1979, págs. 22-3) tiene un ulterior análisis y más referencias.

217
[37] Maynard-Smith (1973). La presente exposición sigue a Dawkins (1976).
[38] Sin embargo, tanto Maynard-Smith (1974) como Dawkins (1976) afir­
man que el modelo puede entenderse como un polimorfismo estable y en términos
de estrategias mixtas.
[39] Elster (1979, cap. 3) tiene un análisis más completo de estas anomalías
de la teoría de la elección racional.
[40] Este modo de expresar la paradoja de la contrafinalidad muestra
claramente el vínculo con los primeros trabajos de Sartre (Sartre 1943), donde
decía que los hombres luchan por ser simultáneamente en-sai y pour-soi, o tien­
den a tratar a los demás como si tuvieran simultáneamente ambas formas de ser.
“Tratar de relajarse” incluye tratar de ser tanto un objeto como una conciencia;
ordenarle a otra persona que sea agradecida es pedirle que asuma estos modos
contradictorios (Elster 1983, cap. 2). En las contradicciones sociales del tipo
analizado en el texto, las actitudes incoherentes que se encuentran en estas
contradicciones psicológicas están, por así decirlo, distribuidas entre varias per­
sonas.
[41] Sartre (1960).
[42] Elster (1978a, cap. 5) tiene una explicación más completa de las contra­
dicciones sociales y su papel en la teoría social.
[43] Elster (1978a, págs. 111 y sigs.) tiene una exposición un poco más
completa.
[44] Para este concepto, véanse March (1978), Elster (1979, cap. 20), Ainslie
(1980), Schelling (1980) y Thaler y Shefirin (1981).
[45] Para algunas dudas sobre esto, véanse Frankfurt (1971)y Elster (1979,
cap. 2.9).
[46] Con respecto al problema de decidir creer, véanse Williams (1973), Win-
ters (1979) y Elster (1979, cap. 2. 3).
[47] Elster (1983), cap. 4.
[48] Utilizo el término “impulso” para marcar una lucha o tendencia no cons­
ciente, tal como escalar por un gradiente de placer mencionado anteriormente.
En este caso, algunas veces podemos ser incapaces de decidir si tratamos con un
impulso o con una metapreferencia, es decir, si los desee» están moldeados cau­
salmente o intencionalmente. En otros casos casi no tenemos dudas, como cuando
nos enfirentamos con “preferencias contraadaptivas”, ejemplificadas en una per­
sona que siempre que está en París prefiere estar en Londres y viceversa. Es difí­
cil ver a alguien moldearse deliberadamente como para preferir siempre el fruto
prohibido o pensar que el césped es siempre más verde en el jardín del vecino,
aunque todos conocemos personas que están dominadas por este impulso per­
verso.
[49] Tversky y Kahneman (1981).
[50] Nisbett y Roas (1980), pág. 146.

Notas de la introducción a la segunda parte


[1] Así Roemer (1981) utiliza ampliamente el marco de la teoría del equili­
brio general que ha sido muy asociada con la economía neoclásica. Lo que distin­
gue a la teoría económica manrista son los problemas que surgen y los supuestos
formulados, no las técnicas utilizadas para derivar respuestas a los problemas a
partir de los supuestos. Por lo menos éste es el estado que debería darse y que el
trabajo de Roemer no menciona mucho.
[2] Rosenberg ( 1976a), parte 3, tiene análisis completos sobre este problema.
[3] Debo este modo de considerar la tecnología a Per Schreiner.

218
Notas del capítulo 4
[1] En el marco más abstracto utilizado por la teoría del equilibrio general,
las posibilidades de producción están conceptualizadas como un conjunto de pro­
ducción, que puede ser cualquier conjunto de n múltiplos de mercancías (inclu­
yendo la mano de obra) que tienen componentes positivos o negativos y satisfacen
ciertos postulados, de los cuales el más importante es “no se puede obtener algo
por nada”. Para una exposición, véase Takayama (1974), págs. 45 y sigs. Aunque
este enfoque es conceptualmente superior, no parece prestarse al análisis del
cambio tecnológico.
[2] El papel de la producción conjunta en la teoría económica es doble. Pri­
mero, hay algunos procesos que en un sentido perfectamente directo tienen más
de una clase de output, como cuando las ovejas proporcionan lana y carne. Segun­
do, podemos concebir el uso del capital fijo como una clase de producción conjun­
ta, en la que las máquinas viejas pero útiles se consideran como un output del
proceso de producción, junto con el o los principales outputs. Sin duda la produc­
ción conjunta es pertinente a la teoría del cambio tecnológico (Schefold 1980), pe­
ro el espacio y la competencia limitan este análisis al caso del output único.
[3] Mi referencia en toda la teoría neoclásica estática es Ferguson (1969).
[4] Salter(1960), pág. 30.
[5] Salter (1960), págs. 33, 40.
[6] Hicks (1932), pág. 125. Este pasaje se utiliza como epígrafe en Binswan-
ger, Ruttan y otros (1978), que es la defensa reciente más sostenida de la idea de
Hicks.
[7] Salter (1960), págs. 33-4.
[8] Elster (1960), págs. 118 y sigs.
[9] Harsanyi (1977), págs. 278 y sigs. Véase también Elster (1979), págs.
120- 1.
[10] Stinchcombe (1968, pág. 157) tiene observaciones sagaces sobre la zona
de indiferencia. Véanse también los comentarios en el cap. 3 sobre la tarea del li­
derazgo para lograr la solución de un juego de compromiso.
[11] Fellner (1961).
[12] Kennedy (1964).
[13] Ahmad (1966).
[14] Ferguson (1969), pág. 349.
[15] Sin duda, ésta es la objeción fundamental planteada por Nordhaus (1973)
al modelo de Kennedy.
[16] Von Weizsácker (1973), pág. 109.
[17] Finley (1965) y Genovese (1965) presentan este argumento con respecto
a la esclavitud antigua y a la estadounidense, respectivamente.
[18] North y Thomas (1973), pág. 62 y passim.
[19] Elster (1975, cap. 3) tiene un análisis más completo, con particular énfa­
sis en los fines del siglo xvu. En particular, Leibniz se muestra profundamente
preocupado por estos temas y llega bastante cerca de entender la necesidad de un
sistema de patentes.
[20] Baumol (1965) da un buen análisis del Estado en esta perspectiva.
[21] En esta obra no analizo las posibles causas sociales o económicas del pro­
greso científico, excepto en algunas breves observaciones hacia el final del cap. 7.
Elster (1975), cap. 1, ofrece algunas ideas tentativas.
[22] Schmookler (1966) es la teoría moderna más conocida de la innovación
inducida por la demanda. Rosenberg (1976a) ofrece buenas observaciones sobre la
relación entre la demanda del mercado de innovación y la oferta científica de in­
ventos.

219
[23] Rosenberg (1976b) tiene un interesante análisis de este fenómeno, que
ha adquirido recientemente gran importancia con el desarrollo de las generacio­
nes de computadores cada vez más rápidas y más baratas.
[24] Nordhaus (1969). Trabajos posteriores (por ejemplo Kamien y Schwartz
1974) también consideran la competencia entre las empresas por las patentes.
[25] Dasgupta y Stiglitz (1980a), pág. 276. Los autores confirman teórica­
mente la correlación schumpeteriana entre la intensidad de la investigación y la
concentración industrial, pero advierten acerca de interpretarla causalmente.
[26] Loury (1979).
[27] Loury (1979) observa que el modelo utilizado por Kamien y Schwartz
(1976) falla en este aspecto, tratando a la conducta rival como exógena. Quizá se
podría cuestionar que la conducta idéntica en equilibrio sea una limitación para
la solución, pero de todos modos es lo que se supone en general.
[28] Dasgupta y Stiglitz (1980b).
[29] Para observaciones similares en el caso del equilibrio biológico, véase
Elster (1979), págs. 26 y sigs. Sin embargo, los problemas económicos y biológicos
difieren del siguiente modo. En el caso biológico lo que debe evitarse es suponer
que la solución se obtendrá en casos en que no consiste en estrategias dominan­
tes. En el caso económico hay que evitar el supuesto de que se llegará a cierto
equilibrio en los juegos sin una solución.

Notas del capítulo 5


[1] Ejemplos de esta evasividad se encuentran en varios pasajes citados
aquí. Quizá, la cumbre de la ambigüedad sea el siguiente pasaje: “Las cosas eco­
nómicas y sociales se mueven por su propio impulso y las situaciones que se suce­
den obligan a los individuos y a los grupos a comportarse en determinadas formas
sea lo que fuere que quieren hacer, sin duda no destruyendo su propia libertad de
elección, sino moldeando las mentalidades que eligen y reduciendo la lista de po­
sibilidades de las cuales elegir” (Schumpeter 1961, págs. 139-40). Primero, si las
situaciones modelan a las mentalidades que eligen, ¿cuál es el objeto de decir “sea
lo que fuere que quieren hacer”? Y segundo, ¿en qué se diferencia “reduciendo la
lista de posibilidades” de “destruyendo la libertad de elección”? Quizá puedan res­
ponderse estas preguntas, pero ninguna de las respuestas se encuentra en Schum­
peter.
[2] Informado por Raymond Aron.
[3] Leontief (1968), pág. 98.
[4] Para una comparación entre Weber y Schumpeter, véase Macdonald
(1971). Para una comparación entre Marx y Schumpeter, véase Elliot (1980).
[5] Tinbergen (1951), págs. 59-60.
[6] Para un análisis de este tema, véase Goodwin (1955); véase también
Smithies (1951).
[7] Schumpeter (1939), pág. 44.
[8] Machlup (1951), pág. 100.
[9] Schumpeter (1934), pág. 64, nota 1.
[10] Ib(d., pág. 80.
[\\]lb(d., pág. 81, nota 1.
[12] /feítf., pág. 91.
[13] Elvin (1973). Su argumento está más desarrollado en Tang (1973).
[14] Citado de Tang (1979), pág. 5.
[15] Elvin (1973), pág. 298.
[16\IbCd., págs. 314-5.

220
[17] Ib(d., pág. 314.
[18] Por ejemplo, ésta seria la idea de North y Thomas (1973).
[19] Schumpeter (1934), pág. 66.
[20] Schumpeter (1939), pág. 223.
[21] Ibid., pág. 284.
[22] Véase Kanbur (1980) para un análisis crítico de esta idea.
[23] Ocasionalmente Schumpeter utiliza el término “innovación inducida”,
pero entonces sólo para el enjambre de innovaciones secundarias que siguen a
la innovación primaria. Menciona al pasar que “la mayoría de las innovaciones
no sólo ahorran mano de obra, sino que inducen a adaptaciones que también
ahorran mano de obra” (Schumpeter 1939, pág. 574), pero no ofrece un argu­
mento o una explicación de este supuesto hecho. Como se observara en Binswan-
ger, Ruttan y otros (1978, pág. 118), no parece haber “bibliografía alguna que
analice si el tamaño y el poder del mercado podrían influir en la tendencia.(a dife­
rencia de la velocidad) del cambio tecnológico”, que presumiblemente es lo que
tendría que hacer una teoría shcumpeteriana del cambio tecnológico con una ten­
dencia.
[24] Schumpeter (1934), págs. 93-4.
[25] Schumpeter menciona solamente que el éxito material está vinculado
con el segundo motivo, pero seguramente también puede proporcionar una vara
para la satisfacción del tercero.
[26] Schumpeter (1951), págs. 36, 84, 130, 144-5.
[27] Ib(d., pág. 36.
[28] Macdonald (1971, pág. 78) adjudica a Marx la idea de que el empresario
está “motivado por la simple codicia” de tipo hedonista. Elliott (1980, pág. 49) se­
ñala correctamente que Marx al igual que Schumpeter creía que el empresario te­
nía motivos puramente hedonistas.
[29] Macdonald (1971), pág. 79.
[30] Schumpeter (1961), pág. 137.
[31] “[Mi] experiencia es al efecto de que el empresario medio siempre espera
contra la esperanza, siempre cree que ve la recuperación 'a la vuelta de la esqui­
na’, siempre trata de prepararse para ello, y que está obligado a retroceder cada
vez por el duro hecho objetivo que trata tenazmente de ignorar durante el mayor
tiempo posible. La historia de la reciente crisis mundial casi podría escribirse en
términos de infructuosos intentos de hacer frente a la comente, convencidos,
alentados en este caso por todos los profetas, de que el negocio sería Intenso’ en
pocos meses. Esto no significa que los empresarios siempre sean optimistas. Por
el contrario” (Schumpeter, 1939, pág. 141).
[32] Schumpeter (1934), pág. 85. Véanse los comentarios en Kanbur (1980).
[33] Schumpeter (1961), págs. 73-4.
[34] Hirschman (1967).
[35] Nisbett y Rosa (1980), pág. 271.
[36] Sin embargo, suponiendo la falsedad de la “hipótesis de Ortega” de que
los científicos de segunda clase no contribuyen en nada al progreso en ciencia.
Véase el análisis de esta hipótesis en Colé y Colé (1973), cap. 8.
[37] Goodwin (1955), Frisch (1933).
[38] Usher (1951), pág. 126.
[39] Schumpeter (1939), pág. 73.
[40] Ib(d., 273.
[41]lbíd., 768. Véase también Schumpeter (1961), cap. 10, para una crítica
de la teoría de “las oportunidades de inversión que desaparecen”.
[42] Schumpeter (1939), pág. 109.
[43] Ibid., pág. 203.

221
[44\Ibíd., pág. 102. Véase también Hegel (1970), vol. XII, págs. 75-6 para
una distinción similar entre el cambio orgánico y el social.
[45] Schumpeter (1939), pág. 134.
[46] Ibtd., pág. 145.
[47] Ibíd., pág. 534; véanse también los comentarios en Tínbergen (1951).
[48] Schumpeter (1939), pág. 151.
[49] Ibíd., pág. 155.
[50] Kaldor (1954), especialmente págs. 68-9.
[51] Schumpeter (1939), pág. 155.
[52] Nelson y Winter (1982).
[53] Sin embargo, el término “independiente” puede ser inapropiado si, como
se indicó en el cap. 4, la estructura del mercado y la innovación se determinan si­
multáneamente.
[54] Kamien y Shwartz (1975).
[55] Schumpeter (1961), pág. 83.
[56] Leibniz (1875-90), vol. VI, pág. 237.
[57] Schumpeter (1939), pág. 496 nota 1. Más tarde {ibíd., pág. 516) Schum­
peter hace un comentario similar acerca de la incidencia de la innovación en el
empleo: ya que al ahorrar ampliamente mano de obra, la innovación tiende a re­
ducir el empleo en el corto plazo y a crearlo en el largo plazo.
[58] Arrow (1971), pág. 149.
[59] Schumpeter (1939), pág. 445-6, 775.
[60] Ibíd., pág. 419.
[61] Ibíd., pág. 496.
[62] Ibíd., págs. 96, 145.
[63] Masón (1951), pág. 92.
[64] Schumpeter (1939), pág. 109.
[65] Schumpeter (1961), pág. 134.
[66] Schumpeter (1939), pág. 108.
[67] Schumpeter (1961), pág. 242. Esta idea también la adjudica a la teoría
clásica de la democracia, a la que la suya propia es una alternativa. Sin embargo,
descuida totalmente que en otra doctrina clásica la democracia se consideraba co­
mo un fin en sí mismo, y el análisis político como la buena vida para el hombre.
[68] Schumpeter (1961), pág. 269.
[69] /bí<¿., pág. 288.
[70] Ibíd., pág. 289.
[71] Ibíd., pág. 287. Véase también la típica teoría schumpeteriana del “ciclo
comercial político” (Nordhaus 1975).
[72] Ibíd., pág. 279.
[73] ibíd., pág. 283.
[74] Ibíd., pág. 282.
[75] Véase el cap. 2, especialmente la nota 33.
[76] Schumpeter (1961), pág. 263.
[77] Downs (1957) supone en todo el trabajo que las preferencias racionales
en interés propio de los votantes se dan independientemente de —y de hecho mol­
dean los esfuerzos de— los partidos políticos.
[78] Lively (1975), pág. 38.
[79] Schumpeter (1939), pág. 73.
[80] Ibíd., (1961), págs. 258, 263.
[81] Ibíd., págs. 259 y sigs.
[82] Ibíd., pág. 261, especialmente la nota 9.

222
Notas del capítulo 6
[1] Beck (1980), póg. 13. Deñne el uso de herramientas como “el uso ex­
terno de un objeto ambiental no incorporado para modificar más eficientemente
la forma, posición o condición de otro objeto, otro organismo o al usuario
mismo cuando éste tiene o lleva la herramienta durante o justo antes de su uso
y es responsable de la orientación correcta y eficaz de la herramienta” (ibíd.,
pág. 10).
[2] Ibíd.., pág. 122. De estas funciones, las dos primeras se unen en el “forra­
je extraíble para los alimentos embutidos” que parece ser especialmente impor­
tante desde un punto de vista ecológico y evolucionista.
[3] Ibíd., pág. 105.
[4] Ibíd., pág. 106.
[5] Ibíd., pág. 108.
[6] Ibíd., pág. 218.
[7] Ibíd., pág. 243-4.
[8] Ibíd., pág. 218.
[9] Ibíd., págs. 203 y sigs.
[19] Ibíd., pág. 55.
[11] Ibíd., pág. 87.
[12] Ibíd., pág. 28.
[13] Ibíd., pág. 162.
[14] Ibíd., págs. 18-9.
[15] Ibíd., pág. 195.
[16] Fagen (1981), pág. 455.
[17] Beck (1980), pág. 196.
[18] Fagen (1981), pág. 456.
[19] Ibíd., pág. 451.
[20] Ibíd., págs. 464-5.
[21] Véanse el cap. 2 y van Parijs (1981), págs. 79-80.
[22] Para la distinción entre las reducciones de un paso y de dos, véase tam­
bién Elster (1979), cap. I.
[23] Los trabajos de Sundt en inglés son Sundt (1980).
[24] Sundt (1862), pág. 205.
[25] Ibíd., págs. 211-2.
[26] Agradezco a Philippe van Parijs por mostrarme esta ambigüedad; véase
también van Parijs (1981), págs. 187 y sigs.
[27] Kaldor (1954), pág. 53.
[28] Nordhaus y Tobin( 1972), pág. 2, cita de Nelson y Winter (1975), pág. 889.
[29] Nelson y Winter (1978), pág. 526.
[30] Hay referencias fuertes y explícitas a Schumpeter en Nelson y Winter
(1975, 1977a, 1977b, 1978, 1982).
[31] Winter (1964,1975,1980).
[32] Winter (1964), págs. 262-4.
[33] Winter (1980), pág. 16. Se encuentran enunciados similares en Nelson
(1980).
[34] Winter (1980), pág. 18.
[35] Winter (1971).
[36] Nelson y Winter (1975).
[37] Nelson, Winter y Schuette (1976).
[38] Solow (1957).
[39] Nelson, Winter y Schuette (1976), pág. 110.
[40] Ibíd.

223
[41] En el modelo, R es dividendos requeridos. El fundamento del enunciado
en el texto es el siguiente: “El curso con el mayor valor de R tenderá a tener un
stock de capital agregado menor porque la inversión está determinada por las ga­
nancias netas de los dividendos requeridos. La demanda de mano de obra y por lo
tanto los salarios serán más bajos en el curso de R alto. Así, las pruebas de renta­
bilidad de técnicas alternativas favorecerán a las técnicas de mayor intensividad
de mano de obra en el curso de alto R” (Nelson, Winter y Schuette 1976, pág. 101).
[42] Ib(d., pág. 112.
[43] Nelson y Winter ( 1977a, 1978,1982).
[44] Nelson y Winter (1982) representa esta distinción.
[45] Estrictamente hablando, es una medida válida solamente si se permite
que las empresas se extingan, como no ocurre en los modelos de Nelson-Winter.
Nelson y Winter (1978) demuestran cómo es posible convertir una verdadera po­
blación de empresas en una de empresas de igual tamaño con el mismo “índice de
concentración”. Así, una población real de 32 empresas puede tener el mismo gra­
do de concentración que una industria de 14 empresas de igual tamaño.
[46] Nelson y Winter (1982), pág. 126.
[47] Ibíd., págs. 128 y sigs.
[48] Ibíd., pág. 126.
[49] Nelson y Winter (1977), pág. 88 y sigs. Este es sólo uno de los tres proble­
mas interrelacionados que surgen en este modelo, los otros dos son que hay una
conexión débil entre el rendimiento de la productividad y los gastos en investiga­
ción, pero una conexión mucho más fuerte entre el rendimiento de la productivi­
dad y la cantidad de empresas (contrariamente a la hipótesis schumpeteriana,
que dice que el impacto de la cantidad de empresas en la productividad funciona a
través de los gastos en investigación), y que tanto el nivel de gastos en investiga­
ción como sus réditos son más elevados en las industrias medianas (“el problema
del máximo interno”).
[50] Nelson y Winter (1977), pág. 89.
[51] Nelson y Winter (1978), pág. 525.
[52] Véase especialmente Winter (1964, 1971, 1975). En el último de estos
artículos Winter enumera loe siguientes problemas de las teorías de selección
natural de la empresa. 1) ¿Qué son los genes? Una teoría de la selección natural
debe estar complementada por una teoría genética que pueda explicar la trans­
misión de los patrones de conducta en el tiempo. 2) Acciones versus reglas de ac­
ción. El medio económico no actúa sobre las reglas de conducta, sino directamente
sobre la conducta. 3) Entrada, salida y dinámica. Las condiciones de entrada y
salida pueden estar especificadas de modo que permitan la persistencia indefini­
da de loe patrones de conducta subóptimoe. 4) Políticas de inversión. Las empre­
sas que se comportan óptimamente adquirirán recursos “con los cuales expandir­
se” (Friedman 1953), pero dichas empresas realmente deben expandirse si está
amenazada la supervivencia de los no optimizad ores. 5) Dependencia de escala.
Surge la pregunta de si una empresa optimizante que expande sus operaciones es
todavía una empresa optimizante. 6) Dependencia del tiempo. Es difícil para los
modelos de selección natural tener en cuenta la optimización intertemporal, ya
que un concurso evolucionista entre reglas dependientes del tiempo es algo pe­
culiar.
[53] Nelson y Winter (1975), pág. 472.
[54] Ibíd., pág. 469.
[55] Nelson, Winter y Schuette (1976), pág. 104, nota 18.
[56] Nelson y Winter (1977), pág. 95.
[57] David (1975), pág. 76.
[58] Arrow (1962), pág. 156.

224
[59] Rosenberg (1976a).
[60] David (1975), pág, 64.
[61] Para enunciados típicos de esta clase, véanse Nelson (1980), pág. 64, y
Rosenberg (1976a), pág. 64.
[62] Para un estudio de este problema, véase Elster (1979), cap. 3. 6.
[63] Habakkuk (1962).
[64] David (1975), págs. 81 y sigs.
[65] Las siguientes citas de David son extraídas de la pág. 76 de su libro.

Notas del capítulo 7


[1] Marx (1867), pág. 326. Marx cita a Franklin y no debe considerarse in­
mediatamente que la frase represente su propia opinión.
[2] Marx (1867), pág. 180.
[3] Marx parece estar comprometido con las proposiciones: 1) que las re­
laciones capitalistas de producción deben explicarse a través del aumento en la
productividad que provocan y 2) que no tendrían aumento de la productividad si
no estuvieran acompañadas por una gran cantidad de sufrimiento. De esto se de­
duce que el sufrimiento puede explicarse como un subproducto causal de un ele­
mento que se explica teleológicamente. El fenómeno es conocido en biología, don­
de se lo denomina pleiotropía, permitiendo una explicación funcional indirecta de
los fenómenos sin función. Sin embargo, en algunos contextos se tiene la impre­
sión de que Marx también adjudica una importancia teleológica directa a los su­
frimientos del proletariado, ya que sin ellos no estaría motivado a abolir el capita­
lismo.
[4] Marx (1857), pág. 240. La frase se cita en su contexto en el apéndice 2
más adelante.
[5] Marx, como los demás economistas clásicos, reconoció que la producción
agrícola se llevaba a cabo con coeficientes variables de producción, permitiendo
una sustitución suave.
[6] Esta comprensión de Marx se encuentra en Maarek (1975), págs. 42-3;
Samuelson (1957), aunque con algunas dudas; Marishima (1973), pág. 12, aunque
no está claro si esto pretende ser una exégesis; Brody (1974), pág. 18, con una ra­
ra defensa de la factibilidad económica de coeficientes fijos; Blaug (1978), pág.
293. Hjalmarsson (1975) dice que Marx afirmaba que los coeficientes se fijaban ex
poet, pero la variable ex ante, como en el modelo de “arcilla” de Johansen (1959).
En mi opinión los textos citados por Hjalmarsson son compatibles con esta inter­
pretación, pero no la requieren.
[7] Lo siguiente fue tomado de Ferguson (1969), cap. 2. Sin embargo, él no
considera la idea de imponer la condición 2) sin la condición 3). De hecho, dada la
condición 2), la condición 3) parece ser bastante improbable: si los coeficientes de­
penden del nivel de output, se esperaría que cambien tanto en términos relativos
como absolutos.
[8] Marx (1884), pág. 27.
[9] Marx (1867), pág. 346.
[10] Ibíd., pág. 380.
[11] Marx (1894), pág. 145.
[12] Ibíd., pág. 79.
[13] Ibíd., pág. 82.
[14] Marx (1867), págs. 393-4. Aquí también cita a Ricardo al efecto de que
“La maquinaria... frecuentemente puede no utilizarse hasta que la mano de obra
(quiere decirlos salarios) se eleva”.

225
[15] /6í<¿, pág. 631.
[16] Ibid., pág. 393.
[17] Elster ( 1978b). Estoy en deuda con Robert van der Veen por haberme se­
ñalado las implicancias de los textos mencionados en las anteriores notas 14-16.
[ 18] Con frecuencia se reconoce al pasar que la producción permite varias cla­
ses de sustitución. Por ejemplo, alrededor de cada punto en el isocuanto unidad se
puede dibujar un isocuanto local de mayor curvatura, siendo el isocuanto unidad
la envoltura exterior de todos estos isocuantos locales. Podemos pensar que los
isocuantos locales representan las posibilidades de sustitución ex post, y que el
isocuanto unidad completo representa el mayor alcance para la variación que es
posible en la etapa del tablero de dibujo. Sin embargo, no está claro si esta repre­
sentación corresponde a la distinción entre la elección intratécnica e intertécnica,
y en todo caso no tiene un lugar central en la bibliografía.
[19] Para otras interpretaciones, véase Elster (1978b).
[20] El punto, enunciado sencillamente, es que dadas las posibilidades tecno­
lógicas y el haz de salarios, podemos derivar los precios y la tasa de ganancias di­
rectamente, sin utilizar los valores de la mano de obra como un paso intermedio.
Véase nuevamente Elster ( 1978b).
[21] Roemer (1981), pág. 203; también Roemer (1982).
[22] Por ejemplo, véase Shaikh (1978) y las vigorosas refutaciones de Steed-
man (1980) y van Parijs (1980).
[23] Roemer (1981), cap. 3, tiene un completo análisis.
[24] Rosenberg (1976a, cap. 7) tiene un útil estudio de los obiter dicta de
Marx sobre ciencias en su relación con el crecimiento económico. Surge claramen­
te que Marx no ofrece argumentos específicos para la idea de que la ciencia está
moldeada endógenamente por factores económicos, aunque está comprometido
cón dicha idea, ya que creía que la ciencia es una parte cada vez más importante
de las fuerzas productivas y que la tarea de las relaciones de producción es desa­
rrollar las fuerzas productivas.
[25] Weber (1920), pág. 203.
[26] Marx (1867), pág. 393.
[27] Roemer (1981), cap. 4.
[28] V éase el tí hilo de Landes (1969).
[29] Elster (1982) argumenta en favor de un enfoque de la teoría délos juegos
para la relación mano de obra-capital.
[30] Marx (1847), pág. 207. Marx se sorprendió tanto con la selfactina que ac­
tuaba por sí misma que algunas veces la utilizó como símbolo para el capital mis­
mo “¿fas Kapital ala aelfoctor” (Marx 1861-3, págs. 1605-1620).
[31] Marx (1867), págs. 435-6. Lazonick (1979) demuestra que el tema en rea­
lidad era más complicado.
[32] Braverman (1974).
[33] Bhaduri (1973).
[34] Marglin (1976), pág. 22.
[35] Andrew Ure, citado en Marglin (1976), pág. 30.
[36] Marglin (1976), pág. 21-2.
[37] Roemer (1981), pág. 48. Este es un teorema de Marx fundamental
porque demuestra que la existencia de ganancias positivas presupone la explo­
tación.
[38] Roemer (1981), pág. 58.
[39] Ibld., pág. 58.
[40] Ibld., pág. 54. Permítaseme hacer una cruda analogía para llegar al pun­
to. Personas diferentes generalmente educarán a sus hijos de modo diferente. Ge­

226
neralmente también serán diferentes cuando sean descritas por un vector de can­
tidades medibles, como el peso, la altura, la presión sanguínea, etc. Sin embargo,
no hay razón para creer que sus métodos para criar a los hijos varíen continuada-
mente con este vector, aunque sí sería formalmente posible establecer una función
que vincule a la educación con el vector. La carga de la demostración recae sobre
Roemer para demostrar que su caso no es un ejemplo de la misma falacia.
[41] Blaug (1968, pág. 236) cita varios ejemplos de las innovaciones para aho­
rrar capital durante la Revolución Industrial.
[42] Dobb (1940), pág. 125; Sweezy (1942), pág. 88.
[43] Marx (1867), pág. 638.
[44] Marx (1894, pág. 212) indica firmemente el argumento descrito en lo que
sigue.
[45] Roemer (1981), caps. 4-5.
[46] Marx (1857), pág. 754.
[47] En el análisis de la fig. 5 queda claro cómo derivar la tasa de ganancias
de un modo correcto.
[48] Shaikh (1978), refutado en Roemer (1981), cap. 5.
[49] Sweezy (1942), pág. 88.
[50] Rowthorn (1980, cap. 7) tiene un completo análisis de este tema.
[51] Elster (1978a, pág. 117) tiene un ejemplo numérico que muestra esta po­
sibilidad.
[52] Blaug ( 1980a), pág. 66 y sigs. y Blaug (1980b), págs. 41 y sigs.
[53] Cohén (1978), cap. 8.
[54] Kolakowski (1978) tiene un completo estudio de estas variedades epicí-
clicas del materialismo histórico.
[55] Este es el argumento central en Cohén (1978).
[56] Van Parijs (1981).
[57] Véase el cap. 2 para el concepto de la explicación de consecuencias.
[58] Cohén (1978), págs. 272-3.
[59] Elster (1981b) esboza algunas objeciones, reconocidas por Cohén (1982).
[60] Brenner (1976).

Notas del apéndice 1


E ste trabajo se origina en el trabajo realizado para la Comisión Sueca de
Energía. He recibido consejos y críticas de Dag Prawitz, Paul Hofset, Gunnar
Hals, Dagfinn Fpllesdal, Per Schreiner, Steinar Stram y Jan Daderlein. También
resultaron mejoras a partir del análisis en una reunión del Grupo de Trabajo so­
bre Racionalidad en la Maison des Sciences de l’Homme, París, 4 y 5 de diciembre
de 1978.

[1] Para un no especialista es imposible dominar la bibliografía técnica so­


bre el tema energético. Como resultará evidente de las referencias, mi conoci­
miento sobre estos asuntos deriva de Science, que he leído sistemáticamente du­
rante aproximadamente loe últimos seis años. Solamente espero no haber dejado
de lado demasiados puntoe importantes ni haber tomado mis referencias de tra­
bajos que representan opiniones superficiales.
[2] Goodin (1978) hace una distinción entre la incertidumbre modesta y la
incertidumbre profunda, la primera está íntimamente ligada a lo que aquí deno­
mino riesgo y la segunda surge porque no estamos seguros acerca del conjunto de
resultados posibles. Estoy de acuerdo en que la incertidumbre profunda es un fe-

227
nómeno muy difundido; de hecho, está tan difundido que se anula en la compara­
ción entre las alternativas. Por lo tanto, no creo que Goodin esté justificado en la
gran importancia que le adjudica a este fenómeno. De todos modos, es incoheren­
te apelar, como lo hace Goodin, al criterio de Arrow-Hurwicz u otros criterios para
las decisiones b^jo incertidumbre, ya que estos criterios suponen todos que el con­
junto de resultados está bien definido de manera que se puede elegir el peor, el
mejor, etcétera.
[3] Trabajos importantes son: Luce y Raiffa (1957), Raiffa (1968), Keeney y
Raiffa (1976). Véase también Hooker y otros (comps.) 1978. Un estudio de la teo­
ría estándar de las decisiones btyo certeza es Intriligator (1971).
[4] Trabajos importantes son Janis y Mann (1977), Állison (1971), Steinbru-
ner (1974), Cyerty March (1963). El trabajo de Herbert Simón y siguiéndolo, Ja­
mes March y Sidney Winter, no encaja fácilmente en la distinción normativoem-
pírica; véase Elster (1979), caps. 2. 4. y 3. 5.
[5] Si el conjunto de alternativas es “demasiado grande”, puede no haber
una mejor alternativa. También puede suceder que el conjunto de oportunidades
contenga alternativas cada vez mejores convergentes hacia un límite que no es
miembro del conjunto. Para un ejemplo simple (Heal 1973, cap. 13), consideremos
una economía que trata de encontrar la tasa de ahorro que maximice el consumo
en tiempo infinito. Para cualquier tasa de ahorro por debajo del 100% siempre es
posible encontrar otra que dé más consumo, pero el ahorro del 100% obviamente
da consumo cero.
[6] Arrow y Hurwicz (1972); véase también Luce y Raiffa (1957), cap. 13. En
el caso general sólo se puede afirmar que el que toma decisiones enfrentando la
incertidumbre racionalmente solamente puede considerar las mejores y las peo­
res consecuencias, pero hay muchos modos de combinar estos extremos en una re­
gla de decisiones. Se puede mirar solamente un extremo; o solamente al otro; o te­
ner uno lexicográficamente antes que el otro; o considerar una combinación equi­
librada.
[7] El enunciado 1) refleja el hecho de que los actores sociales con frecuencia
están motivados por las recompensas que acumulan los demás, sea mediante la
envidia o el altruismo. El enunciado 2) refleja una condición general de interde­
pendencia que caracteriza a toda conducta social, y el enunciado 3) el aspecto más
particular acentuado por la teoría de los juegos.
[8] Por supuesto se pueden considerar los juegos estratégicos entre terro­
ristas y guardias, pero el problema energético no tiene características especiales
que diferencien a estos juegos de otros juegos militares. También me refiero en el
texto al Dilema del Prisionero, que surge en este problema como en la mayoría de
los demás. Quizá, se podría utilizar la teoría de los juegos para explotar el proble­
ma del secreto máximo de las medidas de protección: demasiado secreto reduce el
efecto disuasivo, mientras que muy poco secreto reduce la eficiencia.
[9] Debe mencionarse un punto. El uso del criterio de maximización (actuar
como si fuera a suceder lo peor) propuesto aquí no está relacionado con el uso del
criterio de maximización como solución para los juegos de suma cero. El uso del
criterio en tales juegos depende de estar seguros de que el oponente también lo
hará, que es exactamente lo opuesto a tomar decisiones bajo incertidumbre. Lo
último es un “juego contra la naturaleza”, no contra un otro estratégico.
[10] Para los lectores familiarizados con la bibliografía formal sobre elec­
ciones colectivas, esta exposición de los conceptos básicos puede parecer des­
conocida. Permítaseme indicar brevemente, entonces, los vínculos entre las
condiciones l)-5) en el texto y las condiciones habituales de los teoremas de impo­
sibilidad:

228
PROCESO RESU LTAD O

CONDICIONES Dominio irrestricto Clasificación


FORMALES DE Pareto-optimalidad completa
RACIONALIDAD Falta de importancia de Clasificación
alternativas i ndepen- transitiva
dientes
CONDICIONES Democracia: Justicia:
IMPORTANTES No dictadura Utilitarismo
Liberalismo Igualitarismo
No manipulabilidad Rawls,
Ordinalismo (una per­ etcétera.
sona, un voto)

[11] Sen (1967) propone esto como una solución al “dilema liberal”: aunque
las personas tengan preferencias “entremetidas” con respecto a la conducta de los
demás en privado, podrían decidir no dejar que dichas preferencias cuenten en la
elección social.
[12] Permitiendo comparaciones ordinales interpersonales de bienestar se
obtiene la teoría rawlsiana; permitiendo comparaciones cardinales interpersona­
les se obtiene la teoría utilitaria. Véase d’Aspremont y Gevers (1977).
[13] En particular creo que este tema brinda un ejemplo más interesante del
dilema liberal (Sen, 1970, cap. 6) que los ejemplos bastante abstractos o forzados
frecuentemente utilizados para ilustrar el dilema. Imaginemos dos comunidades
A y B y tres alternativas: situar una planta de energía atómica en A, situarla en
B y abstenemos de construir la planta. Al mencionar estas alternativas a, b y c
respectivamente, podemos imaginar la siguiente constelación de preferencias: A
prefiere b a o (teme a la emisión de radiactividad y la posibilidad de accidentes) y
a c (necesita la energía). B prefiere c a b (una oposición de principios a la cons­
trucción de plantas nucleares) y b a a (necesita los empleos que generará la plan­
ta). Si reemplazamos el principio liberal por un “principio populista”, diciendo
que cada comunidad debe tener derecho de veto sobre la situación de la planta en
la comunidad, obtenemos la paradoja de Sen. Socialmente se prefiere b a o (tanto
A como B tienen esta preferencia), socialmente se prefiere a a c (por el veto de A),
y socialmente se prefiere c a b (por el veto de B).
[14] Así Harvey Brooks, en sus “Comentarios” en el Instituto de Investigacio­
nes de Stanford (1976) escribe que “El mayor costo social de una planta nuclear
puede estar asociado a las reacciones políticas frente a un accidente o a un hecho
de sabotaje... Debido a la mayor sensibilidad del público a accidentes catastróficos
en comparación con las muertes estadísticas, habría que calcular los posibles cos­
tos de un cierre o de un cierre parcial de los reactores nucleares durante un largo
período luego de un accidente en un reactor”. Este argumento puede interpretar­
se de dos maneras, dependiendo de si se atribuye al público en general o a los po­
líticos. Para una opinión pública sería bastante extraño incluir su propio futuro y
las reacciones injustificadas entre los costos de la energía atómica, aunque dicha
protección previsora contra uno mismo no sea desconocida desde otros dominios
(Elster 1979, cap. 2). Por supuesto, los políticos podrían incluir racionalmente es­
te elemento en sus deliberaciones, pero entonces tendrían que ir contra las prefe­
rencias exan te del electorado, que no sería un procedimiento muy democrático, ya

229
sea dictado por paternalismo o por el interés propio de los políticos. Un problema
similar (“sinergismo político” según el término de Brooke) surge en la evaluación
del público del peligro de radiación luego de un accidente. Si, por ejemplo, la can­
tidad de muertes por cáncer aumenta del 5% al 6% luego de un accidente, enton­
ces —dependiendo del clima psicológico general— o todos los que mueren de cán­
cer podrían imputar su enfermedad al accidente o nadie lo hace.
[15] Hohenemser y otros (1977) señalan este problema y plantean la pregun­
ta (que responden negativamente) de si las futuras muertes deberían descontarse
a una magnitud actual. Si esto no se hace, entonces la cantidad de muertes retra­
sadas por un accidente en un solo reactor podrían acercarse al infinito.
[16] Lehrer (1978) propone un método para sumar opiniones en tales casos.
Aquí se le pide a cada experto no sólo que evalúe las teorías, sino que también
evalúe a los demás evaluadores, y la evaluación total entonces puede determinar­
se por un procedimiento de repetición conveniente. Queda por demostrar si el
científico se comporta de un modo tal que convierte esto en una herramienta útil
para el propósito actual; por ejemplo, si está obligado a sostener que alguien a
quien evalúa elevadamente como evaluador de teorías también debería ser eva­
luado elevadamente como evaluador de evaluadores.
[17] El argumento estándar (nota 6) de utilizar una combinación de criterios
de maximín y maximax parecería poder aplicarse, pero ¿qué significa en este con­
texto? ¿Deberíamos, para cualquier consecuencia dada, asignarle la mayor de las
probabilidades que le adjudican cualquiera de las teorías en competencia? ¿O la
menor? ¿O una combinación equilibrada? ¿Y qué sucede si la suma de las probabi­
lidades así definidas excede el 100%?
[18] Diamond y Rotschild (comps. 1978) dan buena información. A pesar del
título, es un libro acerca del riesgo, no sobre la incertidumbre como se utiliza aquí
el término. Este hecho expresa la tendencia dominante ahora en muchos círculos
de que la teoría de las decisiones de Bayes y el análisis de riesgo pueden aplicarse
universalmente, y que no hay tal coea como decisión bajo incertidumbre. Por lo
tanto sólo es justo señalar que este trabajo representa un enfoque que le resulta­
rá anticuado a muchos —quizá la mayoría— de los economistas y filósofos. Por
otro lado, los psicólogos tal vez sean más receptivos a mi argumento.

230
Referencias bibliográficas

Ahmed, A. (1966): “On the theory of induced innovation”, Economic Journal, 76,
págs. 344-57.
Ainslie, G. (1975): “Specious reward”, Psychological Bulletin, 82, págs. 463-96.
Ainslie, G. (1980): *A behavioural understanding of the defence mechanism”. (Mi-
meografiado.)
Allison, G. (1971): The Essence o f Decisión, Boston, Little, Brown.
Aron, R. (1967): Les Étapes de la Pensée Sociologique, París, Gallimard.
Arrow, K. (1962): “The economic implications of leaming by doing”, Review o f
Economic Studies, 29, págs. 155-73.
Arrow, K. (1963): Social Choice and Individual Valúes, 2* ed., Nueva York, Wiley.
Arrow, K. (1971): Essays in the Theory ofRisk-M aking, Amsterdam.
Arrow, K. y Hurwicz, L. (1972): “An optimality criterion for decision-making under
uncertainty”en C. F. Cárter y J. L. Ford(comps.): Uncertainty andExpectation
in Económica, Clifton, N. J., Kelley.
d’Aspremont, C. and Gevers, L. (1977): “Equity and the informational basis of
collective chotee”, Review o f Economic Studies, 44, págs. 199-209.
Barry, B. (1978) “Comment”, en S. Benn y otros, Political Participation, Canberra:
Australian National University Press.
Barry, B . (1980): “Superflox” (revisión de Elster 1978a), Political Studies, 28, págs.
136-43.
Baumol, W. (1965): Welfare Economics and the Theory o f the State, 2* ed., Londres,
Bell.
Baumol, W. (1977): Economic Theory and Operations Analysis, 4* ed., Englewood
ClifFs, N. J., Prentice Hall.
Beauchamp, T. L. y Rosenberg, A. (1981): Hume and the Problem o f Causation,
Oxford, Oxford University Press.
Beck, B. (1980): Animal Tool Behavior, Nueva York, Garland.
Bellman, R. (1961): Adaptive Control Processes, Princeton, Princeton University
Press.
Bhaduri, A. (1973): “A study in agricultura! backwardness under semi-feudalism”,
Economic Journal, 83, págs. 120-37.
Binswanger, H. P., Ruttan, V. W. y otros (1978): Induced Innovation, Baltimore,
Johns Hopkins University Press.
Blau, P. y Duncan, O. D. (1967): The American Occupational Structure, Nueva
York, Wiley.
Blaug, M. (1968): “Technical change and Marxian economice*, en D. Horowitz
(comp.), Marx and Modern Economics, págs. 227-43, Londres, MacCHbbon y
Kee.
Blaug, M. (1974): The Cambridge Revolution: Succes orFailure?, Londres, Institute
of Economic Affairs.
Blaug, M. (1978): Economic Theory in Retrospect, 3* ed., Cambridge, Cambridge
University Press.

231
Blaug, M. (1980a): The Methodology o f Economice, Cambridge, Cambridge Uni-
versity Press.
Blaug, M .(1980b):A MethodologicalAppraisal ofMarxian Economice, Amsterdam.
Bliss, C. J. (1975): Capital Theory and the Distribution o fincóm e, Amsterdam.
Boudon, R. (1973): Mathematical Structurea ofSocialMobility, Amsterdam, Elsevier.
Boudon, R. (1974): Education, Opportunity and Social Inequality, Nueva York,
Wiley.
Boudon, R. (1977): Effets Pervers et Ordre Social, París, Presses Universitaires de
France.
Bourdieu, P. (1979): La Distinction, París, Editions de Minuit.
Bowles, S. y Gintis, H. (1977): "The Mandan theory of valué and heterogeneous
labour’ , Cambridge Journal o f Económica 1.
Braverman, H. (1974): Labour and Monopcly Capital, Nueva York, Monthly
Review Press.
Brenner (1976): “Agrarian class structure and economic development in pre­
industrial Europe", Past and Present, 70, págs. 30-74.
Brody, A. (1974): PHces, Proportions and Planning, Amsterdam, Elsevier.
Castellan, G. (1971): Physical Chemistry, 2* ed., Reading, Masa., Addison-Wesley.
Cody, M. L. (1974): 'Optimization in ecology*, Science, 183, págs. 1156-64.
Cohén, G. A. (1978): Karl Marx’8 Theory ofH istory: A Defence, Oxford, Oxford
University Press.
Cohén, G. A. (1982): “Functional explanation, consequence explanation, and
Mandsm*, Inquiry, 25, págs. 27-56.
Colé, J. y Colé, S. (1973): Social Stratification in Science, Chicago, University of
Chicago Press.
Coser, L. (1971): “Social conflict and the theory of social change", en C. G. Smith
(comp.), Conflict Resolution: Contributione o fth e Behavioral Sciences, Notre
Dame, Ind., University o f Notre Dame Press.
Crook, J. H. (1980): The Evolution o f Human Consciousness, Oxford, Oxford Univer­
sity Press.
Cyert, R. M. y March, J. (1963): A Behavioral Theory ofth e Firm, Englewood ClifFs,
N. J., Fren tice Hall.
Dasgupta, P. y Stiglitz, J. (1980a): “Industrial structure and the nature o f inno-
vative activity”, Economic Journal, 90, págs. 266-93.
Dasgupta, P. y Stiglitz, J. ( 1980b): “Uncertainty, industrial structure, and thespeed
of R & D”, Bell Journal o f Económica, 11, págs. 1-28.
David, P. (1975): Technical Choice, Innovation and Economic Growth, Cambridge,
Cambridge University Press.
Davidson, D.(1980):E88ay8onActiona andEvents, Oxford, Oxford University Press.
Dawkins, R. (1976): The Selfisk Gene, Nueva York, Oxford University Press.
Demand and Conservatíon Panel o f the Committee on Nuclear and Altemative
Energy Systems (1978): “US energy demand: some low energy futures”, Scien­
ce, 200, págs. 142-52.
Diamond, P. y Rotschild, M. (comps.) (1978): Uncertainty in Economice, Nueva
York, Academic Press.
Dijksterhuis, E. J. (1961): The Mechanization ofth e World Picture, Oxford, Oxford
University Press.
Dobb, M. (1940): Political Economyand Capitalism, 2* ed., Londres, Routledge and
Kegan Paul.
Downs, A. (1957): An Economic Theory o f Democracy, Nueva York, Harper.
Elliot, J. (1980): “Marx and Schumpeter on capitalism’s Creative destruction”,
Quarterly Journal o f Económica, 95, págs. 45-68.

232
Elster, J. (1975): Leibniz et la Formation de l’Esprit Capitaliste, París, Aubier-
Montaigne.
Elster, J. (1976): ‘ Anote on hysteresis in the social Sciences* Synthese, 33, págs.
371-91.
Elster, J. (1978a): Logic and Society, Chichester, Wiley.
Elster, J. (1978b): “The labortheory o f valué*, Marxist Perspectives, 1 (3), págs. 70-
101.
Elster, J. (1978c): ‘ Exploring explotation*, Journal ofPeace Research, 15, págs. 3-
17.
Elster, J. (1979): Ulysses and the Sirenes, Cambridge, Cambridge University Press.
Elster, J. (1980a): “The treatment o f Counterfactuals: reply to Barry”, Political
Studies, 28, págs. 143-7.
Elster, J. (1980b): “Reply to Comments*, Inquiry, 23, págs. 213-32.
Elster, J. (1980c): ‘ Cohén on Marx’s theory of history”, Political Studies, 28, págs.
121-8.
Elster, J. ( 1980d): ‘ Un historien devant l’irrationel: lecture de Paul Veyne*, Social
Science Information, 19, págs. 773-804.
Elster, J. (1981a): ‘ Un mándeme anglais", Annales: Economice, Sociétés, Civili-
sations, 36, págs. 745-57.
Elster, J. (1981b): ‘ Introduction* a Kolm (1981) y van der Veen (1981), Social
Science Information», 20, págs. 287-92.
Elster, J. (1982): “Marxism, fíinctionalism and game theory*, Theory and Society,
11, pága 453-582.
Elster, J. (1983): Sour Grupee, Cambridge, Cambridge University Press.
Elvin, M. (1973): Paítem e o f Chínese Past, Stanford, Stanford University Press.
Fagen, R. (1981): Anim al Play Behauior, Oxford, Oxford University Press.
Feiveson, H., von Hippel, F. y Williams, R. (1979): “Fission power: an evolutionary
strategy”, Science, 293, págs. 330-7.
Feller, W. (1968): An Introduction to Probability Theory and ite Applications, vol.
I, 3* ed., Nueva York, Wiley.
Fellner, W. (1961): *Two propositions in the theory o f induced innovations*, Eco-
nomic Journal, 71, págs. 305-8.
Ferguson, F. E. (1969): The Neodaaeical Theory o f Production and Distribution,
Cambridge, Cambridge University Press.
Festinger,L. (1957):A Theory ofCogniti veDieso nance, Stanford, Stanford University
Press.
Festinger, L. (1964):Canflict, DeásionandDiesonance, Stanford, Stanford University
Press.
Feynman, R. (1965): The Feynman Lectores on Physics, Reading, Mass., Addi son-
Wesley.
Finley, M. I. (1965): “Technical Innovation and economic progresa in the andent
world”, Economic History Review, 2* Serie, 18, págs. 29-45.
Follesdal, D. (1979): “Some ethical aspects of recombinant DNA-research”, Social
Science Information, 18, págs. 401-20.
Fogel, R. (1964): Railroada and American Economic Growth, Baltimore, Johns
Hopkdns Press.
Forrester, J. (1971): Urban Dynamics, Cambridge, Masa., M.I.T. Press.
Foucault, M. (1975): Surveiller et Punir, Paiís, Gallimard.
Frankfurt, H. (1971): “Freedom o f will and the concept o f a person*, Journal o f
Philosophy, 68, págs. 5-20.
Frazzetta, T. H. (1975): ComplexAdaptations inEvolvingPopulatione, Sunderland,
Mass., Sinauer.

233
Friedman, M. (1953): “The methodology of poeitive economice”, en su Estay* in
Po8Ítive Economic8, Chicago, Chicago University Press.
Frisch, R. (1933): “Propagation problema and impulse problema in dynamic
economice”, en R. A. Gordony L. R. Klein (comps.), Readings in Business Cycles,
Londres, George Alien y Unwin, 1966.
Genovese, E. (1965): The PoUtical Economy o fSlavery, Nueva York, Pantheon.
Georgescu-Roegen, N. (1971): The Entropy Law and the Economic Process,
Cambridge, Mass., Harvard University Press.
Gerschenkron, A. (1966): Economic Backwardness in Historical Perspective,
Cambridge, Mass., Harvard University Press.
Ghiselin, M. (1974): The Economy ofNature and theEvolutionofSex, Berkeley y Los
Angeles, University o f California Press.
Goldman, A. (1972): “Toward a theory of social power”. Philosophical Studies, 23,
págs. 221-68.
Goodwin, R. (1955): “A model o f cyclical growth”, en R. A. Gordon y L. R. Klein
(comps.), Readings in Business Cycles, Londres, Alien and Unwin, 1966.
Goodwin, R. (1978): “Uncertainty as an excuse for cheatingourchildren: the case
of nuclear waste”, PoUcy Sciences, 10, págs. 25-43.
Guéroult, M. (1967):Leibniz, DynamiqueetMétaphysique, París, Aubier-Montaigne.
Gunsteren, H. van (1976): The Quest for Control, Chichester, Wiley.
Haavelmo, T. (1970): “Some observations of welfare and economic growth” en W. A.
Eltis, M. ScottyN.Wolfe(comps.),Induction, GrowthandTmdecEssays inHo-
nour ofS ir Roy Harrod, Oxford, Oxford University Press.
Habakkuk, H. J. (1962): American and British Technology in the Nineteenth
Century, Cambridge, Cambridge University Press.
Habermas, J. (1978): Knoutledge and Human lnterests, Londres, Heinemann.
Hammond, P. y Mirrlees, J. (1973): “Agreeable plans”, en J. Mirrlees y N. H. Stems
(comps.), Modela o f Economic Growth, Londres, Macmillan.
Harcourt, G. C. (1973): Some Cambridge Controveraies in the Theory o f Capital,
Cambridge, Cambridge University Press.
Hardin, R. (1980): “Rationality, irrationality and functional explanation”, Social
Science Information, 19, págs. 775-82.
Harsanyi, J. (1977): Rational Behavior and Bargaining Equilibrium in Games and
Social Situations, Cambridge, Cambridge University Press.
Heal, G. (1973): TheTheoryofEconom ic Planning, Amsterdam.
Hegel, G. W. F. (1970): Werke in 20 Bánden, Francfort a. M.: Suhrkamp.
Hempel, C. (1965): Aspecta ofScientific Explanation, Nueva York, Free Press.
Henry, C. (1974): “Investment decisions under uncertainty: the ‘irreversibility
effect’ ”. American Economic-Review, 64, págs. 1006-12.
Hesse, M. (1974): The Structure ofScientific Inference, Londres, Macmillan.
Hicks, J. (1932): The Theory o fW ages, Londres, Macmillan.
Hicks, J. (1979): Causality in Económica, Oxford, Blackwell.
Hirsch, F . (1976): Social Limita to Growth, Cambridge, Mass., Harvard University
Press.
Hirschman, A. (1967): DevelopmentProjecta Obaerved, Washington, The Brookings
Institution.
Hjalmarsson, L. (1975): “Marx and putty-clay”, Memorándum del Departamento de
Economía, Universidad de Gotemburgo (Suecia).
Hoehenemser, C., Kasperson, R. y Kates, R. (1977): “The distrust of nuclear power”,
Science, 196, págs. 25-34.
Holdren, J. (1978): “Fusión energy in context: its fitness for the long term”, Science,
200, págs. 168-80.

234
Holloway, J. y Picciotta, S. (comps.) (1978): State and Capital, Londres, Edward
Amold.
Hooker, C. A., Leach, J. J. y McClennen, E. F. (comps.) (1978): Foundations and
Applications o f Decisión Theory, vol. 1: Theoretical Foundations, Dordrecht,
Reidel.
Howe, R. E. y Roemer, J. E. (1981): “Rawlsian justice as the core o f a game”,
American Economic Review, 71, págs. 880-95.
Intriligator, M. (1971): Mathematical Optimization and Economic Theory, Engle-
wood Cliff8, N. J., Prentice Hall.
Jacob, F. (1970): La Logiquedu Vivant, París, Gallimard.
Janis, 1. y Mann, L. (1977): Decisión Making, Nueva York, Free Press.
Jessop, B. (1977): “Recent theories o f the capitalist State”, Cambridge Journal o f
Economice, 1, págs. 353-74.
Johansen, L. (1959): “Substitution versus fixed production coefiicients in the theory
ofeconomic growth", Econometrica, 27, págs. 157-76.
Kaldor, N. (1954): “The relation o f economic growth and cydical fluctuations”,
Economic Journal, 64, págs. 53-71.
Kamien, M. y Schwartz, N. (1974): “Patent life and R & D rivalry”, American
Economic Review, págs. 183-7.
Kamien, M. y Schwartz, N. (1975): “Market structure and innovation: a survey”,
Journal ofEconomic Lite roture, 13, págs. 1-37.
Kamien, M. y Schwartz, N. (1976): “On the degree or rivalry for maximun innova-
tive activity”, Quarterly Journal o f Economice, 90, págs. 245-60.
Kanbur, S. M. (1980): “A note on risk taking, entrepreneurship and Schumpeter”,
History o f Political Economy, 12, págs. 489-98.
Keeney, R. L. y Raiffa, H. (1976): Decisions with Múltiple Objectives, Nueva York,
Wiley.
Kelly, J. (1978)-.Arrow Impossibility Theorems. Nueva York, Academic Press.
Kennedy, C. (1964): “Induced bias in innovation and the theory o f distribution”,
Economic Journal, 74, págs. 541-7.
Knei-Paz, B. (1977): The SÍocial and Political Thought o f León Trotsky, Oxford,
Oxford University Press.
Kimura, M. (1979): *The moleculartheory of neutral evo\\ition” ,ScientificAmerican,
241 (5).
Kolakowski, L. (1978): Main Cúrrente o f Marxism, vols. I-III, Oxford, Oxford
University Press.
Kolm, S. -C. (1979): “La philoeophie bouddhiste et les ‘hommes économiques’ ”,
Social Science Information, 18, págs. 489-588.
Kolm, S. -C. (1980y. “Psychanalyee et théorie des choix” , Social Science Information,
19, págs. 269-340.
Kolm, S.-C. (1981): “Altruismes et efficacités: le sophisme de Rousseau”, Social
Science Information, 20, págs. 293-344.
Kubo, A. S. y Rose, D. J. (1973): “The disposal o f nuclear waste”, Science, 182, págs.
1205-11.
Kula W. (1970): Thmtrie Economique du Systéme Féodal, París, Flammarion.
Landes, D. (1969): The Unbound Prometheus, Cambridge, Cambridge University
Press.
Latsis, S. (1976): “Aresearch programme i n economics”, S. Latsis (comp.), Methods
and Appraisal in Economics, Cambridge, Cambridge University Press.
Laudan, L. (1977): Progress and its Problema, Berkeley y Los Angeles, University
o f California Press.
Lazonick, W. (1979): “Industrial relations and technical change: the case o f the
selfacting mulé”, Cambridge Journal o f Economics, 3, págs. 231-62.

235
Leach, E. (1964): Political Systems o f Highland Burma, 2* ed., Londres, Bell.
Lehrer, K. (1978): “Consensúe and comparison: a theory o f social rationality”, en C.
A. Hooker, J. J. Leach y E. F. McClennen (comps.), Foundations and Applica­
tions o f Decisión Theory, vol. I, Dordrecht, Reídel.
Leibniz, G. W. (1875-90): Die philosophische Schriften, comp. Gerhardt, 7 vols.,
Berlín, Weidmannsche Burchhandlung.
Leigh, E. G. (1971): Adaptation and Diversity, San Francisco, Freeman y Cooper.
Leontíef, W. (1968): “The signifícance of Marxian economics for present-day
economic theory”, en D, Horowitz (comp.), M arx and Modem Economics,
Londres, MacGibbon y Kee.
Levenson, J. (1968): Confucian China and its M odem Fate, Berkeley y Los Angeles,
University of California Press.
Lévi-Strauss, C. (1960): La Pensée Sauvage, París, Pión.
Levins, R. (1968): Evolution in Changing Environments, Princeton, Prínceton
University Press.
Lewis, D. ( 1973a): “Causation”, en E. Sosa (comp.), Causation and Counterfactuals,
Oxford, Oxford University Press.
Lewis, D. (1973b): Counterfactuals, Oxford, Blackwell.
Lindbeck, A. (1976): “Stabilization policy in open economies with endogenous
politicians”, American Economic Review: Paper8 and Proceedings, 66, págs.
1-19.
Lively, J. (1975): Democracy, Oxford, Blackwell.
Loury, G. (1979): “Market atructureandinnovatioT\”,QuarterlyJoumalofEconomic8,
93, págs. 395-410.
Luce, R. D. y Raiffa, H. (1957): Clames and Decisions, Nueva York, Wiley.
Lukes, S. (1980): “Elster on counterfactuals”, Inquiry, 23, págs. 145-56.
Maarek, G. (1975): Introduction au Capital de Karl Marx, París, Calmann-Levy.
McBride, J. P. y otros (1978): “Radiological impact o f airbome efíluents ofcoal and
nuclear planta”, Science, 202, págs. 1045-50.
Macdonald, R. (1971): “Schumpeter and Max Weber: central visions and social
theories”, en O. Kilby (comp-), Entrepreneurship and Economic Development,
Nueva York, Free Press.
McFarland, D. (1970): “Intragenerational social mobility as a Markov process”,
American Sociological Review, 35, págs. 463-76.
Machlup, F. (1951): “Schumpeter’s economic Methodology”, enS. E. Harria (comp.),
Schumpeter, Social Scientist, Cambridge, Masa., Harvard University Press.
Mackie, J. L. (1962): “Counterfactuals and causal laws”, en R. Butler (comp.),
Analytical Philosophy, 1* serie, Oxford, Blackwell.
March, J. (1978): Bounded rationality, ambiguity and the engineering o f choice”,
B ell Journal o f Economics, 9, págs. 587-608.
Marglin, S. (1976): “Whatdobossesdo?”, en A.Gorz(comp-), The División ofLabour,
Londres, Longman.
Mark, R. K. y Stuart-Alexander, D. E. (1977): “Disasters as a necessary part of
costbenefít analysis”, Science, 197, págs. 1160-2.
Marsily, G. de y otros (1977): “Nuclear waste disposal: can the geologist guarantee
isolatáon?”, Science, 197, págs. 519-27.
Marx, K. (1844): Economic and Philosophical Manuscripts o f 1844, en Marx y
Engels, Collected Works, Londres, Lawrence y Wishart, vol. III.
Marx, K. (1845): The Germán Ideology, en Marx y Engels, Collected Works, Londres,
Lawrence y Wishart, vol. VI.
Marx, K. (1847): The Paverty o f Philosophy, en Marx y Engels, Collected Works,
Londres, Lawrence y Wishart, vol. VII.

236
Marx, K. (1850): The Clase Struggles in France, en Marx y Engels, Collected Works,
Londres, Lawrence y Wishart, vol. X.
Marx, K. (1852): The Eighteenth Brumaire ofL ou is Napoleón, en Marx y Engels,
Collected Works, Londres, Lawrence y Wishart, vol. XI.
Marx, K. (1853): “Russian policy against Turkey. • Chartism”, en Marx y Engels,
Collected Works, Londres, Lawrence y Wishart, vol. XII.
Marx, K. (1857): Grundrisse, tr. Nicolaus, Harmondsworth: Pelican.
Marx, K. (1859): Kritik der politischen Ókonomie, en Marx-Engels Werke, Berlín,
Dietz, vol. XIII.
Marx, K. (1861-63): Zur Kritik der politischen Ókonomie, en Marx-Engels Gesamt-
ausgabe, Zweite Abteilung, vol. III, Berlín, Dietz.
Marx, K. (1867): Capital 1, Nueva York, International Publishers.
Marx, K. (1884): Capital II, Nueva York, International Publishers.
Marx, K. (1894): Capital III, Nueva York, International Publishers.
Masón, E. S. (1951): “Schumpeter on monopoly and the large firm” , en S. Harris
(comp.),Schumpeter, Social Scientist, Cambridge, Mass., Harvard University
Press.
Maynard-Smith, J. (1973): “The logic of anima] conflict”, Nature, 246, págs. 15-18.
Maynard-Smith, J. (1974): “The theory o f games and the evolution o f anima]
conflict”, Journal o f Theoretical Biology, 47, págs. 209-21.
Merton, R. (1957): Social Theory and Social Structure, Glencoe, 111., The Pree Press.
Monod, J. (1970): Le Hasard et la Nécessité, París, Seuil.
Morishima, M. (1973): Marx’s Económica, Cambridge, Cambridge University Press.
Nelson, R. (1980): “Productdon sets, technological knowledge andR &D: fragile and
overworked constructs for analysis o f productivity* American Economic Re-
view: Papera and Proceedings, 70, págs. 62-7.
Nelson, R. y Winter, S. (1975): “Factor price changes and factor substitution in an
evolutionary model”, Bell Journal o f Económica, 6, págs. 466-86.
Nelson, R. y Winter, S. (1977a): “Dynamic competition and technical pregresa”, en
B. Balassa y R. Nelson (comps.), Economic Progresa, Privóte Valúes and Public
Potícy; Essays in Honor ofW illiam Fellner, Amsterdam.
Nelson, R. y Winter, S. (1977b): “Simulatdon o f Schumpeterian competition”,
American Economic Reuiew: Papera and Proceedings, 67, págs. 271-6.
Nelson, R. y Winter, S. (1978): “Forcee generatdngandlimitdng competition under
Schumpeterian conditjons”, Bell Journal o f Economice, 9, págs. 524-48.
Nelson, R. y Winter, S. (1982); "The Schumpeterian trade-offrevisited*, American
Economic Review, 72, págs. 114-32.
Nelson, R. y Winter, S. y Schuette, H. (1976): “Technical change in an evolutdonaiy
model*, Quarterly Journal o f Económica, 90, págs. 90-118.
Nisbett, R. y Roes, L. (1980): Human Inference: Strategies and Shortcomings o f
Social Judgement, Englewood Cliffs, N. J., Prentdce Hall.
Nordhaus, W. (1969): Invention, Growth and Welfare: A Theoretical Treatment o f
Technological Change, Cambridge, Mass., M. I T . Press.
Nordhaus, W. (1973): “Some sceptdcal thoughts on the theory of induced innova-
tdons”, Quarterly Journal o f Economice, 87, págs. 208-19.
Nordhaus, W. (1975): "The politdcal business eyele*, Review o f Economic Studies, 42,
págs. 169-90.
Nordhaus, W. y Tobin, J. (1972): “Ib growth obsoleto?”, en R. Gordon (comp.),
Economic Research: Retrospect and Prospect, Economic Growth, Nueva York,
National Bureau of Economic Research.
North, D. y Thornas, R. (1973): The Rise o f the Western World, Cambridge,
Cambridge University Press.

237
Nuti, D. M. (1970): “Capitalism, socialism and steady growth”, Economic Journal,
80, págs. 32-57.
O’Connor, J. (1973): The Fiscal Crisis oftheS tate, Nueva York, St. Martin’s Press.
Olson, M. (1965): The Logic o f Collective Action, Cambridge, Mass., Harvard
University Press.
Oster, G. P. y Wilson, E. O. (1978): Coste and Ecology in the Social Insects,
Princeton, Princeton University Press.
Owen, G. (1968): Game Theory, Filadelfia, Saunders.
Padulo, L. y Arbib, M. (1974): System Theory, Filadelfia, Saunders.
Parijs, P. van (1980): “The falling-rate-of-profit theory o f crisis: a rational recons-
truction by way o f obituary”, Review o f Radical Political Economice, 12, págs.
1-16.
Parijs, P. van (1981): Evolutionary Explanation in the Social Sciences, Totowa, N.
J., Rowmand y Littlefield.
Parkins, W. E. (1978); “Engineering limitations o f fusión power plants”, Science,
199, págs. 1403-8.
Pen, J. (1959): The Wage Rate under Collective Bargaining, Cambridge, Mass.,
Harvard University Press.
Plamenatz, J. (1954): Germán Marxism and Russian Communism, Londres,
Longman.
Popkin, S. (1979): The Rational Peasant, Berkeleyy Los Angeles, University o f Cali­
fornia Press.
Popper, K. (1957): The Poverty o f Historicism, Londres, Routledge y Kegan Paul.
Posner, R. (1977): Economic Analysis o f the Law, 2* ed., Boston, Little, Brown.
Rader, T. (1971): The Economice o f Feudalism, Nueva York, Gordon y Breach.
RaifFa, H. (1968): Decisión Theory, Reading, Mass., Addison-Wesley.
Rapoport, A. (1966): Two-Person Game Theory, Ann Arbor, University o f Michigan
Press.
Rapport, D. J. y Tumer, J. E. (1977): “Economic models in ecology”, Science, 195,
págs. 367-73.
Rawls, J. (1971): A Theory ofJustice, Cambridge, Mass., Harvard University Press.
Robinson, J. (1956): The Accumulation o f Capital, Londres, Macmillan.
Rochlin, G. I. (1977): “Nuclear waste dispoeal”, Science, 295, págs. 23-31.
Roemer, J. (1979): “Divide and conquer: microfbundations of a Mandan theory of
wage dÍ8crimination”, Bell Journal ofEeonom ics, 10, págs. 695-705.
Roemer, J.( 1961): AnalyticalFoundationsofMandan Economic Theory, Cambridge,
Cambridge University Press.
Roemer, J. (1982): A General Theory o f Exploitation and Clase, Cambridge, Mass.,
Harvard University Press.
Rorty, A. (1980): “Akrasia and conflict”, Inquiry, 23, págs. 193-212.
Rosenberg, N. (1976a): Perspectives on Technology, Cambridge, Cambridge Univer­
sity Press.
Rosenberg, N. (1976b): “On technological expectations”, Economic Journal, 86,
págs. 525-35.
Roumasset, J. (1976): Rice and Risk, Amsterdam.
Rowthom, B. (1980): Capitalism, Conflict and Inflation, Londres, Lawrence y
Wishart.
Rubén, D.-H. (1980): Revisión de Cohén (1978) en British Journal o f Political
Science, 11, págs. 227-34.
Russel, R. (1941): “The effects o f slavery upon nonslaveholders in the ante-bellum
South”, reeditado en H. D. Woodman (comp.), Slavery and the Southern
Economy, Nueva York, Pantheon 1966.

238
Salter, W. G. (1960): Productivity and Technical Change, Cambridge,Cambridge
University Press.
Samuelson, P. (1957): “Wages and interest: A modero dissection o f Mandan
economic models”, American Economic Review, 48, págs. 884-910.
Samuelson, P. (1971): “Máximum principies in analytical económica”, en Les Prix
Nobel en 1970, Estocolmo, Norstedt.
Sartre, J.-P. (1943): L'Étre et le Néant, París, Gallimard.
Sartre, J.-P. (1960): Critique de la Raison Dialectique, París, Gallimard.
Sehefold, B. (1980): “Fixed capital as a jdnt product and the analysis of accumula-
tion with different forma of technical progress”, en L. Pasinetti (comp.), Essays
on the Theory o f Joint Production, Nueva York, Columbia University Press.
Schelling, T. S. (1963): TheStrategyofC onflict, Cambridge, Masa., Harvard
University Press.
Schelling, T. S. (1978): Micromotives and Macrobehavior, Nueva York, Norton.
Schelling, T. S. (1980): “The intímate contest for self-command”, The Public
Interest, 60, págs. 94-118.
Schlanger, J. (1971): Les Métaphores de TOrganisme, París, Vrin.
Schmookler, J .(1966): lnoentionsand Economic Growth, Cambridge, Mass., Harvard
University Press.
Schotter, A. (1981): The Economy Theory o f Social Institutions, Cambridge,
Cambridge University Press.
Schumpeter, J. (1934): The Theory o f Economic Development, Cambridge, Mass.,
Harvard University Press.
Schumpeter, J. (1939): Business Cycles, Nueva York, McGraw-Hill.
Schumpeter, J. (1951): Imperialism and Social Classes, Nueva York, Kelley.
Schumpeter, J. (1961): Capitalism, Socialism and Democracy, Londres, George
Alien y Unwin.
Segré, E. (1980): From X-Rays to Quarks, San Francisco, Freeman.
Sen, A. K. (1967): “Isolation assurance and the rate of discount”, Quarterly Journal
ofEconom ics, 80, págs. 112-24.
Sen, A. K. (1970): Collective Choice and Social Welfare, San Francisco, Holden-Day.
Sen, A. K. (1970): “Liberty, unanimity and rights”, Económica, 43, págs. 217-45.
Shaikh, A. (1978): “Folitical economy and capitalism: Notes on Dobb’s theory of
crisis’’, Cambridge Journal o f Economics, 2, págs. 233-51.
Siegenthaler, U. y Oeschger, H. (1978): “Predicting future atmospheric carbón
diaxide levels”, Science, 199, págs. 388-95.
Simmel, G. (1908): Soziologie, Berlín, Duncker y Humblot.
Simón, H. (1954): “A behavioral theory of rational choice”. Quarterly Journal o f
Economics, 69, págs. 99-118.
Simón, H. (1971): “Spurious correlations: A causal model”, en H. Blalock (comp.),
Causal Models in the Social Sciences, Londres, Macmillan.
Simón, H. (1978): “On how to decide what to do”, Bell Journal ofEconomics, 9, págs.
494-507.
Slovic, P., Fischhoff, B. y Lichtenstein, S. (1977): “Cognitive processes and social
risk-taking”, en H. Jungermann y G. de Zeeu w (comps.), Decision-making and
Change in Human Affhirs, Oordrecht, Reidel.
Smithies, A. (1951): “Schumpeter and Keynes”, en S. Harris (comp.), Schumpeter,
Social Scientist, Cambridge, Mass., Harvard University Press.
Solow, R. (1957): “Technical change and the aggregate production function”, Review
ofEconomics and Statistics, 39, págs. 312-20.
Stalnaker, R. (1968): “A theory of conditionals”, en N. Rescher (comp.), Studies in
Logical Theory, Oxford, Blackwell.

239
Stanford Research Institute (1976): “The economic and social costa of coal and
nuclear electric generation”, Stanford, California.
Stark, W. (1962): The Fundamental Forma o f Social Thought, Londres, Routledge
y Kegan Paul.
Steedman, I. (1980): “A note on the ‘choice o f technique’ under capitalism”,
Cambridge Journal o f Economice, 4, págs. 61-64.
Steinbruner, J. D. (1974): TheCybernetic Theory ofDecisión, Princeton, Princeton
University Press.
Stinchcombe, A. (1968): Constructing Social Theories, Nueva York, Harcourt, Brace
y World.
Stinchcombe, A. (1974): “Merton’s theory of social structure”, en L. Coser (comp.),
The Idea o f Social Structure: Papers in Honor ofR obert Merton, Nueva York,
Harcourt, Brace, Jovanovich.
Stinchcombe, A. (1980). “Is the Prisoner’s Dilemma all of sociology?”, Inquiry, 23,
págs. 187-92.
Sundt, E. (1862): “Nordlandsbaden”, en Verker i Utvalg, vol. VII, Oslo, Gyldendal,
1967.
Sundt, E. (1980): On Marriage in Norway, Cambridge, Cambridge University
Press.
Suppes, P. (1970): A Probabilistic Theory ofCausality, Amsterdam.
Swedish Energy Commission (1978): Miljóeffekter och Risker vid Utnyttjande av
Energi, Estocolmo, Liber Forlag.
Sweezy, P. (1942): The Theory ofCapitalist Development, Londres, Dennis Dobson.
Takayama, A. (1974): Mathematical Economice, Hinsdale, DI., Dryden Press.
Tang, A. (1979): “China’s agricultural legacy”, Economic Development and Cultural
Change, 28, págs. 1-22.
Taylor, C. (1971): “Interpretation and the Sciences ofman”, ReviewofMetaphysics,
25, págs. 3-51.
Taylor, M. (1976): Anarchy and Cooperation, Chichester, Wiley.
Thaler, R. H. y Shefrin, H. M. (1981): “An economic theory o f self-control”, Journal
ofPolitical Economy, 89, págs. 392-406.
Thorpe, J. (1980): Free WiU, Londres, Routledge y Kegan Paul.
Tinbergen, J. (1951): “Schumpeter and quantitative research in economice”, en S.
Harris (comp.), Schumpeter, Social Scientist, Cambridge, Mass., Harvard
University Press.
Tocqueville, A. (1953): L’Ancien Régime et la Révolution, vol. II, París, Gallimard
(edición de las obras completas).
Tocqueville, A. (1969): Democracy in America, NuevaYork, Anchor Books.
Trotsky, L. (1977): H istoryofthe Russian Révolution, Londres, Pluto Press.
Tversky, A. y Kahneman, D. (1974): “Judgement under uncertainty”, Science, 185,
págs. 1124-30.
Tversky, A. y Kahneman, D. (1981): “The fram ingof decisions and the rationality
of choice”, Science, 211, págs. 453-58.
Usher, A. P. (1951): “Historical implications of theory of economic development”, en
Schumpeter, Social Scientist. Cambridge, Mass., Harvard University Press.
Veen, R. van der (1981): “Meta-rankings and social optimality", Social Science
Information, 20, págs. 345-74.
Veyne, P. (1976): Le Pain et le Cirque, París, Seuil.
Weber, M. (1920): “Die protestantische Ethik under der Geist des Kapitalismus”, en
Gesammelte Aufsatze zur Religionssoziologie, vol. I, Tubinga, Mohr.
Weber, M. (1968): “Objektive Móglichkeit un adáquate Verursachung in der
historischen Kausalbetrachtung”, en Gesammelte Aufsatze zur Wissenschafts-
lehre, Tubinga, Mohr.

240
Weintraub, E. (1979): Microfoundationa, Cambridge, Cambridge University Press.
Weizsácker, C. C. von (1965): “Existence of optímal programmes of accumulation for
an infinite time horizon”, Review o f Economic Studies, 32.
Weizsácker, C. C. von (1971): “Notes on endogenous change o f taste”, Journal o f
Economic Theory, 3, págs. 345-72.
Weizsácker, C. C. von (1973): “Notes on enck>genous growth of productivity”, en J.
A. Mirrlees y N. N. Stem (comps.), Modela o f Economic Growth, Londres,
Macmillan.
Wiener, P. (1949): Evolution and the Founders o f Pragmatism, Cambridge, Mass.,
Harvard University Press.
Williams, G. C. (1966): Adaptation and Natural Selection, Princeton, Princeton
University Press.
Williams, B. A. O. (1973): “Decidingto believe”, en Problema o f the Self, Cambridge,
Cambridge University Press.
Wilson, E. O. (1975): Sociobiology, Cambridge, Mass., Harvard University Press.
Winter, S. (1964): “Economic ‘natural selection’ and the theory of the firm”, Yole
Economic Eaaaya, 4, págs. 225-72.
Winter, S. (1971): “Satisficing, selection and the innovating remnant”, Quarterly
Journal o f Económica, 85, págs. 237-61.
Winter, S. (1975): “Optimization and evolution”, enR. H. Day y T. Groves (comps.),
Adaptive Economic Modela, Nueva York, Academic Press.
Winter, S. (1980): “An essay on the theory of production”. Actas del Centennial
Symposium de la Universidad de Michigan, Departamento de Economía.
Winter, B. (1979): “Willing to believe”, Journal ofPhiloaophy, 76, págs. 243-56.
Wright, G. H, von (1971): Explanotion and Underatanding, Ithaca, N. Y., Comell
University Press.

241
Indice de nombres propios
Ahmed, A., 96 Gal íleo, 22
Arkwright, Richard, 155 Georgescu-Roegen, N., 141, 193
Aron, Raymond, 54 Gerschenkron, A., 199
Arrow, Kenneth J., 113, 135,190 Goldman, Alvin, 36-37
Goodwin, R. M., 110, 132
Barton, John, 146 Gunsteren, H. van, 168
Beauchamp, Tom L., 28
Beck, Beryamin, 119-21 Haavelmo, T., 170-71
Bhaduri, Amid, 153 Habakkuk, H. J., 138
Blake, William, 26,183 Habermas, Jürgen, 20
Blaug, Mark, 161 Hardin, Russell, 55
Bohr, Niels, 68-69 Harsanyi, John, 95
Braverman, Harry, 153 Hegel, G. W. F., 29, 68, 111
Hempel, Cari, 29, 32, 44,46, 63
Cohén, G. A., 58, 61-64, 162-64, 171, Henry, Claude, 182
185-187, 189, 199 Hesse, M., 175
Coser, Lewis, 56 Hicks, John, 93-94, 158-61
Hirsch, F., 170
Darwin, Charles, 54, 62-63,123 Hirschman, Albert, 108
Dasgupta, Partha, 100 Hohenemser, C., 175
David, Paul, 39, 86, 135-41,171 Holdren, J., 168
Davidson, Donald, 25-26 Horndal, 135
Descartes, René, 30-31 Hume, David, 28, 33
Dobb, Maurice, 158
Downs, A., 103 Jacob, Franfois, 66
Janis, I., 177
Elster, Jon, 169-71, 177-78, 191, 198-
99 Kahneman, D., 79, 177
Elvin, Mark, 105-6 Kaldor, N., 112
Kelly, J., 168
Fagen, Robert, 119-22 Kennedy, Charles, 96-97, 135,139
Feiveson, H., 172 Keynes, J. M., 102, 104, 198-99
Feller, W., 174 Knei-Paz, B., 201
Fellner, William, 95-96, 135 Kolakowski, L., 187
Festinger, L., 63 Kubo, A. S , 180-182
Fellesdal, D., 176
Fogel, Robert, 39-40, 138 Lamarck, J., 62
Forrester, J., 179 Leach, Edmund, 60
Frisch, Ragnar, 110, 132 Leibniz, G. W., 31, 53, 113

243
Leontief, Wassily, 88, 103 Rosenberg, Alexander, 28
Lewis, David, 29 Rosenberg, Nathan, 136, 171
Lindbeck, A., 169 Roumasset, J., 166
Loury, Glenn, 100-1
Lyttleton, Humphrey, 13 Salter, W. E. G., 92, 94
Sartre, J.-P., 77
McBride, J. P., 172 Savage, L. J., 79
Machlup, Fritz, 104 Schuette, H., 129, 133-34
Malinowski, Bronislaw, 54 Schumpeter,Joseph, 14,49,85-86,103-
Malthus, Thomas Robert, 159 18, 125, 132, 152,190
Mann, L., 177 Siegenthaler, U., 175,183
Marglin, Stephen, 153-56, 162 Simmel, G., 57
Mark, R. K., 172 Simón, Herbert A., 47,63,86,126,132
Marsily, G. de, 180 Skinner, B. F., 56
Marx, Karl, 13-14, 56-57, 86, 88, 103, Slovic, P., 177
107, 115, 142-64, 185/91, 198-99, Smith, Adam, 99
201 Solow, Robert, 129
Merton, Robert, 54-55, 58 Stiglitz, Joseph, 100
Monod, Jacques, 49 Stinchcombe, Arthur, 55, 58, 60,134
Morishima, M., 156 Stuart-Alexander, D. E., 172
Sundt, Eilert, 86,123-25
Nelson, Richard, 86,118,123,125-35, Sweezy, Paul, 158
140-41, 171
Newton, Isaac, 30 Tawney, R. H., 105
Thompson, d’Arcy Wentworth, 50
Oeschger, H., 175, 183 Tinbergen, Jan, 112
Tocqueville, Alexis de, 42-44, 61-62,
Parijs, Philippe van, 163 113,134-35
Parkins, W. E., 168 Trotsky, Leo, 200-1
Pascal, Blaise, 181 Tversky, A., 79,177
Peirce, C. S., 21
Plamenatz, J., 187 Usher, A. P., 110
Popper, K., 168
Veyne, Paul, 61-63
Ricardo, David, 159
Robbins, Lionel, 103 Weber, Max, 103, 149
Rochlin, G. I., 182 Weizacker, C. C. von, 169
Roemer, John, 37, 150, 153, 156-57, Winter, Sidney, 86, 118, 123, 125-35,
159,191 140,171
Rose, D. J., 180, 182

244
Sociología
Serie C L A 'D E 'M A

Jon Elster
E l cambio tecnológico
Kl estudio del cambio tecnológico se adapta especialmente bien al análisis
epistemológico. Como está situado en la intersección de la ciencia social y
las ciencias naturales ... cubre el vacío que media entre la ciencia pura y los
asuntos cotidianos,
Kl cambio técnico, la fabricación y modificación de herramientas, ha
desempeñado un papel importante en la evolución de la vida inteligente
sobre la Tierra, comparable al del lenguaje. Durante el transcurso de la
historia humana, las instituciones sociales surgieron y desaparecieron en
gran medida como respuestas a cambios en la tecnología productiva y
destructiva.
í,a obra expone en primer lugar las principales variantes de la explica­
ción científica y analiza a continuación algunas de las teorías más impor­
tantes sobre el cambio tecnológico. Se lo puede entender como actividad
racional dirigida a una meta y elección de la mejor innovación entre un
conjunto de cambios posibles, o bien como proceso de ensayo y error, es
decir, como suma acumulativa de ciertas modificaciones accidentales del
proceso de producción. (De la«lntroducción»de |on Elster).
Hlster muestra cómo estas concepciones opuestas han determinado las
más importantes teorías neoclásicas, evolucionistas y marxistas, entre
otras.

Jon Elster es catedrático de Ciencias Políticas de la Universidad de


Chicago y director del Instituto de Investigación social de Oslo. Es autor
de numerosas obras, de las cuales Gedisa ha publicado: E l cemento de la
sociedad, Tuercas y tornillos, Juicios salomónicos, I /n d c a y sociedad. Justicia local.

Psicología política, «E gonom ics» y lu í ética de las decisiones médicas (en colabora­

ción con N. Herpin y otros).

3 02 3 5 0

También podría gustarte