Conexionismo Raja Vicente

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 13

Conexionismo

Vicente Raja
 1. Breve Historia
 2. Principios básicos
 3. ¿Cómo funciona una red conexionista?
o 3.1 La activación de los nodos
o 3.2 El algoritmo de retropropagación
 4. Algunos problemas del conexionismo
 5. Conexionismo hoy
 Referencias
 Lecturas Recomendadas

El conexionismo es una teoría sobre la arquitectura cognitiva—la forma de


entender la estructura y el funcionamiento de los sistemas cognitivos—que
apareció en los años 80. En cierto modo, el conexionismo supuso un desafío
para la teoría dominante en las ciencias cognitivas y la inteligencia artificial de
la época y ofreció nuevas herramientas para entender la forma en la que los
procesos cognitivos (p.ej., percepción, atención, memoria, lenguaje) pueden
estar implementados o pueden emerger de sistemas neuronales.

         Los debates propiciados por la aparición del conexionismo siguen vigentes
en la ciencia cognitiva contemporánea y en su filosofía. Además, la investigación
más puntera en modelos de redes neuronales mantiene su inspiración en
propuestas conexionistas y comparte muchos de sus principios básicos. El
conexionismo es, por tanto, una teoría que ayuda a comprender tanto el
desarrollo histórico de las ciencias cognitivas como su estado actual.

1. Breve Historia
Desde la revolución cognitiva a finales de los años 50 (Miller, 2003), tanto las
ciencias cognitivas como la investigación en inteligencia artificial han estado
dominadas por un paradigma basado en principios representacionalistas y
computacionales que ha venido a ser llamado cognitivismo (Garnham, 2009).
El cognitivismo se fundamenta en la metáfora computacional: el sistema mente-
cerebro es una computadora. Más concretamente, la mente es el software que
funciona sobre el hardware cerebral (Thagard, 2005).

Entre otros factores, el cognitivismo encontró su éxito gracias a que la metáfora


computacional permitía el estudio de la mente desde coordenadas puramente
físicas. Los estados mentales, antaño restringidos a la esfera privada que no era
accesible desde los métodos de la ciencia contemporánea, podían ahora ser
entendidos como estados de un sistema computacional mediante el uso de
herramientas formales (Anderson, 1983, 2007; Newell, 1990; Russell y Norvig,
2003). Además, la metáfora computacional resolvía el problema mente-cerebro:
los estados mentales son estados semánticos que se procesan en términos
puramente sintácticos (formales) en los mecanismos cerebrales. De este modo,
al igual que no hay problemas para reconciliar software y hardware en una
computadora, no los hay para reconciliar mente y cerebro.

El cognitivismo enfrentaba y enfrenta serios problemas tanto teóricos como


empíricos (McCarthy y Hayes, 1969; Searle, 1980). Sin embargo, pronto se
convirtió en el paradigma dominante en las ciencias cognitivas. Una de las
consecuencias de este hecho es que los detalles de implementación de los
procesos cognitivos quedaron relativamente relegados en la investigación
cognitiva. Las computadoras se pueden entender como sistemas formales que
pueden implementarse físicamente de formas muy diversas. Del mismo modo,
si el sistema mente-cerebro es una computadora, puede ser estudiado en
términos formales y el hecho de que su implementación sea una compleja red
neuronal no es, en principio, central para la explicación—la idea general tras
esta afirmación se ha llamado realización múltiple en algunos círculos
filosóficos (Polger y Shapiro, 2016): si la metáfora computacional típica del
cognitivismo es cierta, entonces la mente es múltiplemente realizable y esto
conlleva que la implementación de los estados mentales no es central para la
explicación de la naturaleza de estos estados. En otras palabras, las
computadoras son independientes de su medio de implementación y, por tanto,
el sistema mente-cerebro también lo es.

A pesar de la poca atención que el cognitivismo, en general, presta a la


implementación de los estados cognitivos, esta no ha sido la actitud general a lo
largo de la historia de la psicología y de las ciencias cognitivas. Ya desde los años
40, arquitecturas que, hasta cierto punto, imitaban la estructura de red del
cerebro se empezaron a desarrollar—por ejemplo, las pequeñas redes
desarrolladas por McCulloch y Pitts (1943) o el pandemonium (Selfridge, 1959).
Sin embargo, en pleno dominio cognitivista, no es hasta los años 80 que ideas
sobre la relevancia de la implementación de los procesos cognitivos vuelven a la
palestra, a través, por ejemplo, de los modelos de memoria asociativa en
paralelo (Hinton y Anderson, 1981) o el propio conexionismo (Rumelhart y
McClelland, 1986). Estos modelos buscaban desarrollar arquitecturas cognitivas
inspiradas en redes neuronales biológicas que pudiesen dar cuenta de diversos
procesos cognitivos.  En este sentido, se convirtieron en desafíos e incluso
alternativas al cognitivismo en tanto que perseguían la explicación de los
mismos fenómenos desde asunciones teóricas distintas en lo que tiene que ver
con su implementación o con las nociones de computación y representación, por
ejemplo. De todas ellas, el conexionismo es la más rica y compleja. Y, sin duda,
la que ha tenido una mayor influencia en la ciencia cognitiva.

2. Principios básicos
El elemento fundamental para entender el lugar del conexionismo en la ciencia
cognitiva, así como sus principios básicos, es que es una arquitectura cognitiva
que, como el cognitivismo, es computacional. Las redes conexionistas están
vagamente inspiradas en las redes neuronales de los cerebros biológicos. En las
redes conexionistas, las unidades que imitan las neuronas implementan algún
tipo de función computacional. Así, estas redes se pueden entender como un
sistema computacional en paralelo, es decir, en el que las unidades de
computación actúan simultáneamente.
Con esta idea en mente, las redes conexionistas son modelos computacionales
que se basan de una forma abstracta en lo que sabemos sobre el cerebro y las
redes neuronales que lo constituyen. Se cree que el cerebro humano contiene
entre 1010 y 1011 neuronas y cada una de ellas puede llegar a tener 105 conexiones
con otras neuronas. Estas conexiones pueden ser excitatorias, las que fomentan
la actividad de otras neuronas, o inhibitorias, las que frenan o bloquean la
actividad de otras neuronas. Además, el aprendizaje de nuevas habilidades y
contenidos se basa en la modificación de estas conexiones, usualmente
entendida como el refuerzo o la debilitación de sus sinapsis.

Dados estos hechos sobre el cerebro humano, las redes conexionistas consisten
en un número de elementos simples, llamados unidades o nodos, que actúan de
manera similar a las neuronas biológicas y que están conectados a través de
unas conexiones que les permiten transmitir señales simples. Estas conexiones,
que pretenden ser análogas a las sinapsis y que pueden ser tanto excitatorias
como inhibitorias, tienen un peso que determina la forma en la que el nodo
conectado a uno de sus extremos puede influenciar al nodo conectado en el otro
extremo. Los nodos (o unidades) están normalmente organizados en capas. Una
capa de entrada, que lleva la información del exterior al sistema, una capa de
salida que devuelve el resultado del procesamiento de la información y una o
varias capas escondidas (que no están siempre presentes en las redes
conexionistas), que se sitúan entre las capas de entrada y salida y que no tienen
contacto con el entorno del sistema (Figura 1). En los modelos más básicos de
redes conexionistas, las capas se conectan unidireccionalmente y las conexiones
van de la capa de entrada a la de salida pasando por la capa escondida. En otros
modelos mas avanzados, que incluyen retroalimentación, por ejemplo, las
conexiones entre nodos pueden ser cíclicas o de otro tipo.
Figura 1. Ejemplo de red conexionista de tres capas (entrada, escondida y
salida). Los nodos y las conexiones, junto con la dirección de procesamiento,
están indicados.
En general, los nodos y las conexiones en redes conexionistas tienen habilidades
muy limitadas. A través de sus conexiones de salida, los nodos solamente
transmiten valores números que son una función de los valores numéricos que
reciben a través de sus conexiones de entrada (o que reciben del entorno, en el
caso de los nodos de la capa de entrada). Usualmente, cada nodo toma un grupo
de valores de entrada y los transforma, mediante un proceso computacional, en
un único valor de salida que es transmitido a los nodos de la siguiente capa.
Estas transformaciones están normalmente limitadas a operaciones
matemáticas muy simples, como diversos tipos de suma (para una explicación
técnica de los aspectos básicos de las redes conexionistas, ver Rumelhart y
McClelland, 1986, p. 45 y siguientes).

3. ¿Cómo funciona una red conexionista?


Teniendo en cuenta que tanto nodos como conexiones tienen un
funcionamiento simple y limitado, la pregunta es: ¿Qué hacen las redes
conexionistas para conseguir llevar a cabo procesos complejos? La respuesta ya
ha sido anticipada: procesamiento paralelo. Los procesos computacionales
llevados a cabo por la red conexionista ocurren en paralelo a lo largo de los
nodos en lugar de ocurrir en serie, como es el caso en la computación
tradicional. En este sentido, los nodos mismos, como unidades
computacionales, no son individualmente responsables de solucionar un
problema, sino que lo solucionan de forma colectiva.

De forma general, la información que llega a la red conexionista es distribuida


por toda la red. En este sentido, las redes conexionistas instancian lo que se
puede llamar representaciones distribuidas: patrones de activación simultánea
de todos los nodos de la red. Así, por ejemplo, un patrón de activación en
particular a través de los 15 nodos de la red conexionista de la Figura 1 puede ser
la representación de “cebra”, mientras que otro patrón de activación a través de
los mismos nodos puede ser la representación de “jirafa”. Por lo tanto, una red
conexionista podría ser capaz de producir la palabra “cebra”, cuando la
información de entrada fuese una fotografía de una cebra, alcanzando el patrón
de activación de “cebra” en sus nodos y, de la misma forma, producir la palabra
“jirafa”, cuando la información de entrada fuese la fotografía de una jirafa,
alcanzando el patrón de activación de “jirafa” en sus nodos. Este ejemplo nos
lleva a los dos aspectos fundamentales del funcionamiento de una red
conexionista: la activación de los nodos y el algoritmo de retropropagación.

3.1 La activación de los nodos

Los nodos en una red conexionista implementan una función de


transferencia que determina la forma en la que el valor de cada nodo se
actualiza en función de la información de entrada que recibe desde el entorno
(en el caso de los nodos de la capa de entrada) o desde los nodos de otra capa
(en el caso de los nodos de la capa escondida y de la de salida). Normalmente, la
función de transferencia trata computacionalmente la información que recibe y
la aplica a una función de activación que es la que determina el valor de salida
que va a entregar a la siguiente capa de la red (Figura 2).
Figura 2. Diagrama de un nodo o unidad de una red conexionista. (A) Diagrama
de un nodo o unidad con todos sus componentes. Las entradas al nodo (E) que
son resultado de la información entrante desde el entorno en el caso de la capa
de entrada y de las activaciones de los nodos de las capas previas en el caso
de la capa escondida y la capa de salida. (B) Ejemplos de diferentes funciones
de activación: umbral, lineal, gaussiana y sigmoidal. La diferencia entre ellas es
que el cambio en las entradas (eje X de las gráficas) afecta de forma distinta la
activación de salida del nodo. Por ejemplo, en la activación lineal, los primeros
valores de activación de entrada no cambian la activación de salida. Después,
hay un grupo de valores que incrementan la activación de salida de forma
lineal. Al final, el grupo de valores altos de activaciones de entrada vuelve a no
provocar cambios en la activación de salida del nodo.
Un tipo de procesamiento habitual en la función de transferencia de un nodo
dado es la multiplicación de las activaciones que recibe desde los nodos de la
capa previa por los pesos de las conexiones por las que esas activaciones llegan
(este proceso es a veces referido como función de entrada de red), para después
sumar los resultados de esas multiplicaciones y enviarlas a la función de
activación (Figura 2A). La función de activación, entonces, aplica algún tipo de
computación a esa entrada, y de esa computación depende el perfil de activación
del nodo (Figura 2B). Por ejemplo, la función de activación puede requerir un
nivel de entrada mínimo para entonces provocar un aumento súbito en la
activación del nodo y así enviar esa activación hacia la siguiente capa de la red.
Esta función de activación se puede entender como un umbral de activación. En
otros nodos, la función de activación puede simplemente requerir un valor
específico de entrada para provocar la máxima activación del nodo y enviarla
hacia la siguiente capa de la red. Esta función de activación se puede entender
como una activación gaussiana.

3.2 El algoritmo de retropropagación


En las redes conexionistas, la activación de cualquier nodo depende de las
activaciones de entrada que recibe desde las capas previas o desde el entorno de
la red. Las funciones de transferencia de los nodos—que comprenden la función
de entrada de red y la función de activación—suelen ser fijas y no cambian
durante el funcionamiento de la red. Sin embargo, las conexiones entre nodos sí
que pueden cambiar su peso y, por tanto, influir en la información que llega a
los nodos. En este sentido, la clave de la evolución y el aprendizaje en las redes
conexionistas tiene que ver con los cambios que se producen en los pesos de las
conexiones entre nodos. La forma en la que estos cambios se producen suele
estar basada en algoritmos de retropropagación.

El primer algoritmo de retro-propagación (“backpropagation” en inglés) en el


contexto de redes conexionistas fue introducido por Rumelhart, Hinton y
Williams (1986). Diferentes métodos de retropropagación se venían
desarrollando desde los años 60 (Bryson, 1961; Kelley, 1960). Entre ellos, el
conocido como regla delta ganó relevancia y, a mitad de los años 80, los
mencionados fundadores del conexionismo generalizaron la regla delta para su
propio modelo de red conexionista. Fundamentalmente, lo que la regla delta y
los algoritmos de retroprogramación llevan a cabo es un cambio de los pesos de
las conexiones entre los nodos usando como referencia la diferencia entre los
resultados de las operaciones de la red y los resultados esperados si la red
tuviese un comportamiento exitoso. La regla delta simple usa una tasa
de error basada en esta diferencia para llevar a cabo los cambios en los pesos de
las conexiones entre nodos. Por su parte, la regla delta generalizada lleva a cabo
un proceso similar, pero tiene en cuenta las contribuciones de los nodos al error
total y la forma en la que tal error se distribuye a través de las diferentes capas
de la red. En este sentido, la señal de error se retropropaga a través de las capas
de la red y guía las modificaciones de los pesos de sus conexiones.

Los principios básicos de la regla delta y de su generalización como algoritmo de


retropropagación son el refuerzo sináptico y el aprendizaje supervisado. Por un
lado, Donald Hebb (1949) demostró que las conexiones sinápticas entre
neuronas en cerebros biológicos se refuerzan cuando las neuronas conectadas
están activas simultáneamente. Se cree que este fenómeno es uno de los
mecanismos fundamentales del aprendizaje y, en este sentido, inspira la idea del
cambio de pesos de las conexiones entre nodos de las redes conexionistas como
fundamento de los procesos de aprendizaje que en ellas se dan. Por otro lado, el
aprendizaje supervisado es una forma básica de aprendizaje tanto en humanos
como en animales. Madres y padres corrigen a sus hijas e hijos, profesoras y
profesores a sus alumnas y alumnos, etc. Cuando un aprendiz comete un error,
quien se encarga de la supervisión hace ese error explícito e intenta provocar un
cambio en el aprendiz para que el error no se produzca y la tarea sea exitosa. En
los algoritmos de retro-propagación, la tasa de error calculada al comparar los
resultados obtenidos a los resultados esperados en la actividad de la red
conexionista, cumple el papel de supervisión en su proceso de aprendizaje. En
este sentido, el funcionamiento de las redes conexionistas, tanto al nivel nodos y
conexiones individuales como a nivel general en términos de actividad y
aprendizaje, está inspirado en aspectos conocidos de los sistemas cognitivos
biológicos.
4. Algunos problemas del conexionismo
La viabilidad del conexionismo como paradigma para el desarrollo de la
inteligencia artificial y, en general, como paradigma de las ciencias cognitivas ha
sido puesta en cuestión desde diversas perspectivas. Por un lado, el hecho de
que el conexionismo ponga en juego la idea de representaciones distribuidas—o,
incluso, la eliminación del concepto de representación (Churchland, 1989)—ha
sido visto como un problema para dar cuenta de uno de los aspectos esenciales
de la psicología popular: la idea de que estados mentales funcionalmente
discretos y semánticamente interpretables tienen poderes causales (Ramsey,
Stich y Garon, 1990). La funcionalidad de una red conexionista está basada en la
distribución de los pesos de las conexiones entre sus nodos tal que una sola
distribución puede hacer que la red exhiba la funcionalidad deseada (p.ej.,
categorización o aprendizaje del tiempo pasado). En este sentido, los estados de
las redes conexionistas no son funcionalmente discretos ni semánticamente
interpretables, con lo que una de las intuiciones fundamentales de la psicología
popular es abandonada.

Por otro lado, y sobre todo en los albores del conexionismo como paradigma, las
redes conexionistas fueron puestas en cuestión en base a consideraciones
biológicas. En particular, la plausibilidad biológica de las redes conexionistas
fue altamente cuestionada. En estas redes, los nodos tenían un comportamiento
similar, las capas de nodos eran capas discretas, y el flujo de información era
unidireccional, por ejemplo. Ninguna de estas tres características da cuenta de
las propiedades anatómicas y funcionales de los cerebros. Por tanto, las redes
conexionistas eran consideradas poco realistas. Este hecho, entre otros, fue el
que llevó a la evolución de las diversas generaciones de redes conexionistas que
han surgido en las ultimas décadas y que se acercan más a una situación de
realismo biológico.

Más allá de cuestiones de compatibilidad con la psicología popular o con la


biología cerebral, el gran reto teórico que el conexionismo ha tenido que
enfrentar es el reto de la sistematicidad propuesto por Jerry Fodor y Zenon
Pylyshyn (1988). El reto de la sistematicidad se enmarca en el debate entre
conexionismo y cognitivismo. El conexionismo se presenta como una alternativa
al cognitivismo y, por ello, debe dar cuenta de los mismos fenómenos. O, al
menos, esta es la idea de algunos defensores del cognitivismo, como lo eran
Fodor y Pylyshyn. Para ellos, las redes conexionistas no pueden dar cuenta del
pensamiento humano porque el pensamiento humano es sistemático y las redes
conexionistas no lo son. Y, más aún, si las redes conexionistas pudiesen dar
cuenta de la sistematicidad del pensamiento humano, se convertirían en meros
modelos de implementación del cognitivismo.

La sistematicidad se fundamenta en otra propiedad: la composicionalidad. Un


sistema es composicional cuando está constituido por elementos atómicos que
pueden combinarse siguiendo unas determinadas reglas. Por ejemplo, la lengua
castellana es composicional. La frase “Juan quiere a Lola” esta constituida por
tres partes: “Juan”, “quiere a”, y “Lola”. Y el significado de la frase depende de
las partes que la componen y la sintaxis del castellano. Algunos sistemas
composicionales son también sistemáticos, es decir, son capaces de producir
cualquier combinación legal de los átomos que los constituyen. De nuevo, el
lenguaje castellano es sistemático: al igual que puede producir “Juan quiere a
Lola”, puede producir “Lola quiere a Juan”.

De acuerdo con Fodor y Pylyshyn, el pensamiento humano es composicional y


sistemático: está constituido por representaciones/conceptos y es capaz de
producir cualquier combinación legal de ellos. Sin embargo, las redes
conexionistas no son sistemáticas porque no son composicionales. Las
representaciones distribuidas típicas de las redes conexionistas no son
atómicas: la representación “Lola quiere a Juan” consiste en un patrón
especifico de activaciones de todas las unidades de la red. Esta representación
no puede cambiar a “Juan quiere a Lola” sin cambiar el patrón de activación
de toda la red. En este sentido, no hay elementos atómicos que constituyan el
sistema composicional, por lo que las redes conexionistas no son
composicionales. Y al no ser composicionales, no pueden ser sistemáticas.

Los defensores del conexionismo han respondido al reto de la sistematicidad de


muy diversas maneras (Calvo y Symons, 2014). Por un lado, los hay que han
intentado argumentar que las redes conexionistas pueden ser sistemáticas. Por
ejemplo, Smolensky (1987, 1988) defiende que la sistematicidad se puede basar
en una noción de composicionalidad débil en la que los estados de una red
conexionista se pueden entender como vectores definidos por las matrices de los
pesos de las conexiones de la red y los componentes de esos estados (p.ej.,
“Juan” en “Juan quiere a Lola”) como los vectores individuales que componen el
vector de la red. Estos vectores se pueden combinar siguiendo ciertas normas y
dependiendo del contexto. En este sentido, la combinación de vectores
individuales da cuenta de la composicionalidad sin necesidad de apelar a
estados funcionalmente discretos y, por tanto, las redes conexionistas pueden
ser sistemáticas.

Por otro lado, los hay que argumentan que el pensamiento humano no es
sistemático y que, por tanto, las redes conexionistas no necesitan serlo. Este es
el caso de Chemero (2014), que analiza la noción de sistematicidad usada por
Fodor y Pylyshyn y que concluye que no hay sustento empírico para ella tras un
recorrido por los usos de la palabra “sistematicidad” en las ciencias cognitivas.
En este sentido, el reto de la sistematicidad es un argumento hegeliano: un
argumento basado en pura especulación, pero sin respaldo en la ciencia
cognitiva. Chemero (2009) considera que los argumentos hegelianos son poco
convincentes, lo que va en contra del reto de la sistematicidad. A pesar de ello,
es un hecho constatable que el reto de la sistematicidad sigue vigente en las
disputas teóricas respecto al conexionismo.

5. Conexionismo hoy
Las redes conexionistas han sido aplicadas a tareas cognitivas muy diversas,
tales como tareas lingüísticas, de percepción, o de toma de decisiones. Con su
éxito, el conexionismo ha demostrado que ciertas asunciones del cognitivismo
no son necesarias para comprender y explicar la forma en la que los sistemas
cognitivos funcionan—por ejemplo, las redes conexionistas no precisan de una
descripción formal o de reglas explícitas de procesamiento computacional. Este
hecho diferenciador ha provocado un amplio desarrollo del paradigma
conexionista desde que apareció en los años 80 y, hoy en día, podemos hablar
de una segunda, una tercera, e incluso una cuarta generación del conexionismo
(las generaciones son también conocidas como “olas del conexionismo”).

Un importante ejemplo de las redes conexionistas de segunda generación es el


predictor de oraciones de Elman (1990). La mayor novedad de este predictor de
segunda generación con respecto a las redes conexionistas de primera
generación es que está basado en una red recurrente. Las redes recurrentes se
distinguen por incluir una capa de nodos de contexto que actúan como una
forma de memoria (Figura 3). Normalmente, la capa de contexto copia los
estados de la capa escondida y los reintroduce en esa capa en el siguiente ciclo
de activación. En este sentido, las redes recurrentes explotan las propiedades
temporales de la actividad de las redes conexionistas para así proporcionar a la
red mayor capacidad de procesamiento.

Figura 3. Ejemplo de red conexionista recurrente. Es una red conexionista


estándar a la que se añade una capa extra, o capa de contexto. La capa
escondida se copia en cada ciclo (flechas discontinuas azules). En el siguiente
ciclo la capa de contexto es, junto a la capa de entrada, la que alimenta a la
capa escondida.
La tercera generación de conexionismo, el conexionismo dinámico (McClelland
et al., 2010), introduce en las redes conexionistas algunas características que
aumentan su plausibilidad biológica. Por ejemplo, permitiendo diferencias entre
los nodos para usar algunos de ellos con propósitos especiales, incluyendo una
conectividad más compleja, retardos, procesamiento en tiempo continuo,
entradas analógicas, ruido, etc. Y la cuarta generación, más actual si cabe, es la
que introduce principios del procesamiento predictivo (Friston, 2010) en la
arquitectura conexionista, permitiendo el procesamiento bidireccional basado
en probabilidad bayesiana. En estas redes, el aprendizaje se consigue mediante
la combinación de flujos informativos bidireccionales—esto es, de la capa de
entrada a la de salida y viceversa.

El conexionismo, por tanto, sigue siendo un paradigma relevante dentro de las


ciencias cognitivas y sigue proponiendo alternativas a los modelos clásicos tanto
en psicología y neurociencia cognitiva como en inteligencia artificial. Además, es
de esperar que el avance en el conocimiento de los sistemas neuronales
biológicos repercuta en los modelos conexionistas y que estos sean cada vez más
refinados y puedan seguir contribuyendo al avance del conocimiento de los
procesos cognitivos.

Vicente Raja
(Rotman Institute of Philosophy,
Western University)

Referencias
 Anderson, J. R. (1983): The Architecture of Cognition, Cambridge, Mass.,
Harvard University Press.
 ———— (2007): How Can the Human Mind Occur in the Physical
Universe?, Oxford, Oxford University Press.
 Bryson, A. E. (1961): “A gradient method for optimizing multi-stage allocation
processes”, en Proceedings of the Harvard University Symposium on Digital
Computers and their Applications, Cambridge, Mass., Harvard University.
 Calvo, P. y J. Symons (2014): The Architecture of Cognition, Cambridge, Mass.,
MIT Press.
 Chemero, A. (2009): Radical Embodied Cognitive Science, Cambridge, Mass.,
MIT Press.
 ———— (2014): “Systematicity and interaction dominance”, en Calvo, P. y J.
Symons, eds., The Architecture of Cognition, Cambridge, Mass., MIT Press, pp.
353-369.
 Churchland, P. M. (1989): A Neurocomputational Perspective: The Nature of
Mind and the Structure of Science, Cambridge, Mass., MIT Press.
 Elman, J. (1990): “Finding structure in time”, Cognitive Science, 14(2), pp. 179-
211.
 Fodor, J. y Z. Pylyshyn (1988): “Connectionism and cognitive architecture: A
critical analysis”, Cognition, 28, pp. 3-71.
 Friston, K. (2010): “The free-energy principle: A unified brain theory?”, Nature
Reviews Neuroscience, 11(2), pp. 127-138.
 Garnham, A. (2009): “Cognitivism”, en Symons, J. y P. Calvo, eds., The
Routledge Companion to Philosophy of Psychology, Nueva York, Routledge, pp.
99-110.
 Hebb, D.O. (1949): The Organization of Behavior, Nueva York, Wiley.
 Hinton, G. y J. Anderson (1981): Parallel Models of Associative Memory,
Hillsdale, Lawrence Erlbaum Assoc.
 Kelley, H. J. (1960): “Gradient theory of optimal flight paths”, ARS Journal,
30(10), pp. 947-954.
 McCarthy, J. y P. Hayes (1969): “Some philosophical problems from the
standpoint of artificial intelligence”, en Meltzer, B. y D. Michie, eds., Machine
Intelligence 4, Edimburgo, Escocia, Edinburgh University Press, pp. 463-502.
 McClelland, J. L., M. M. Botvinick, D. C. Noelle, D. C. Plaut, T. T. Rogers, M. S.
Seidenberg y L. B. Smith (2010): “Letting structure emerge: Connectionist and
dynamical systems approaches to cognition”, TRENDS in Cognitive Sciences,
14(8), pp. 348-356.
 McCulloch, W. y W. Pitts. (1943): “A logical calculus of the ideas immanent in
nervous activity”, Bulletin of Mathematical Biophysics, 5, pp. 115-133.
 Miller, G. A. (2003): “The cognitive revolution: A historical
perspective”, TRENDS in Cognitive Sciences, 7(3), pp. 141-144.
 Newell, A. (1990): Unified Theories of Cognition, Cambridge, Mass., Harvard
University Press.
 Polger, T. y L. Shaprio (2016): The Multiple Realization Book, Oxford, Oxford
University Press.
 Ramsey, W., S. Stich y J. Garon (1990): “Connectionism, eliminativism and the
future of folk psychology”, Philosophical Perspectives, 4, pp. 499-533.
 Rumelhart, D. E., G. E. Hinton y R. J. Williams (1986): “Learning internal
representations by error propagation”, en Rumelhart, D. E. y J. L. McClelland,
eds., Parallel Distributed Processing: Explorations in the Microstructure of
Cognition. Vol. 1, Foundations, pp. 318-362, Cambridge, Mass., MIT Press.
 Rumelhart, D. E., J. L. McClelland y PDP Research Group (1986): Parallel
Distributed Processing, 1, 2, Cambridge, Mass., MIT Press.
 Russell, S. J. y P. Norvig (2003): Artificial Intelligence: A Modern Approach,
Upper Saddle River, Prentice Hall.
 Searle, J. (1980): “Minds, brains, and programs”, Behavioral and Brain
Sciences, 3, pp. 417-457.
 Selfridge, O. G. (1959): “Pandemonium: A paradigm for learning”, en Blake, D.
V. y A. M. Uttley, eds., Proceedings of the Symposium on Mechanisation of
Thought Processes, pp. 511-529, Londres.
 Smolensky, P. (1987): “The constituent structure of mental states: A reply to
Fodor and Pylyshyn”, Southern Journal of Philosophy, 25, pp.137-460.
 ———— (1988): “On the proper treatment of connectionism”, Behavioral and
Brain Sciences, 2, pp. l-23.
 Thagard, P. (2005): Mind: Introduction to Cognitive Science, Cambridge,
Mass., MIT Press.

Lecturas Recomendadas
 Bechtel, W. y A. Abrahamsen (2002): Connectionism and the Mind: An
Introduction to Parallel Processing in Networks 2ª ed., Cambridge, Mass., Basil
Blackwell.
 Bishop, C. M. (1995): Neural Networks for Pattern Recognition, Oxford, Reino
Unido, Oxford University Press.
 Campanario, J. M. (2004): “El enfoque conexionista en psicología cognitiva y
algunas aplicaciones sencillas en didáctica de las ciencias”, Enseñanza de las
Ciencias, 22(1), pp. 93-104.
 Clark, A. (1993): Associative Engines: Connectionism, Concepts and
Representational Change, Oxford, Oxford University Press.
 Clark, A. (2014): Mindware: An Introduction to the Philosophy of the Cognitive
Science, 2ª ed., Oxford, Oxford University Press.
 Haykin, S. (1994): Neural Networks: A Comprehensive Foundation, Upper
Saddle River, Nueva Jersey, Prentice Hall.
 McClelland, J. L. y D. E. Rumelhart (1989): Explorations in Parallel
Distributed Processing: A Handbook of Models, Programs, and Exercises,
Cambridge, Mass., MIT Press.
 Pineda, D. (2012): La Mente Humana: Introducción a la Filosofía de la
Psicología, Madrid, España, Ediciones Cátedra.
 Pons Parra, R. M. y J. M. Serrano Gonzalez-Tejero (2011): “Conexionismo e
Instrucción”, Educación y Humanismo, 13(21), pp. 51-82.

Cómo citar esta entrada


Raja, Vicente (2019): “Conexionismo”,  Enciclopedia de la Sociedad Española
de Filosofía Analítica (URL: http://www.sefaweb.es/conexionismo/).

También podría gustarte