Ciências Cognitivas - Histórico, Dificuldades e Sucessos - Adriana Benevides Soares
Ciências Cognitivas - Histórico, Dificuldades e Sucessos - Adriana Benevides Soares
Ciências Cognitivas - Histórico, Dificuldades e Sucessos - Adriana Benevides Soares
Resumo
As Ciências Cognitivas são um campo de reflexões contemporâneas que se interroga sobre o
funcionamento do pensamento. Examina-se a natureza do conhecimento, seus componentes, seu
desenvolvimento e sua utilização. A área das Ciências Cognitivas inclui diversas disciplinas,
principalmente a Psicologia Cognitiva, a Inteligência Artificial e a Lingüística ainda não exixtindo
concenso sobre métodos comuns. Adota-se a perspectiva de que o pensamento é uma manipulção das
representações internas do mundo externo enfatizando-se principalmente as representações internas
denominadas de modelos mentais, o que distingue esta abordagem claramente da abordagem behaviorista.
Tendem a privilegiar os processos racionais e os estudos interdisciplinares. Sendo assim, apresentaremos
neste trabalho uma perspectiva histórica de sua criação e desenvolvimento assim como também
caracterizaremos as disciplinas integrantes deste domínio de estudos apresentado as principais críticas que
tem sido feitas ao seu escopo e perspectivas atuais.
Palavras Chaves
1
1. Introdução
Nas últimas décadas temos assistido ao progressivo aumento do interesse dos cientistas de
diversas áreas por questões cognitivas, ou seja, questões relativas à natureza do conhecimento
humano: o que ele é, de onde ele vem e como se dá a sua representação em nossas mentes?
Tendo em vista tal interesse, nos propomos a levantar os pontos principais das ciências
cognitivas. Para isto, primeiramente abordaremos o nascimento das Ciências Cognitivas, onde
forneceremos uma rápida visão histórica deste empreendimento, que culminará numa visão mais
atual do campo. A seguir, procederemos aos pressupostos básicos das Ciências Cognitivas. Nesta
etapa, explicaremos pontos fundamentais ao campo como, por exemplo, a idéia de representação,
o computador e a interdisciplinaridade. Analisaremos também as seis disciplinas integrantes das
Ciências Cognitivas (Filosofia, Psicologia, Inteligência Artificial, Lingüística, Neurociência e
Antropologia) e seus respectivos projetos de pesquisa.
Feito isto, teremos fornecido aos leitores uma visão geral do projeto inicial das Ciências
Cognitivas. Entretanto, como todo empreendimento científico, este também recebe fortes críticas,
que duvidam de sua validade ou que discordam de algum de seus pressupostos básicos. Tais
críticas são demasiadamente importantes, pois nos permitem refletir sobre possíveis falhas no
projeto inicial das Ciências Cognitivas. Elas referem-se à idéia de representação, central no
empreendimento cognitivista, ao problema da consciência, da intencionalidade e às pretensões da
Inteligência Artificial forte.
Após a seção das grandes críticas ao campo, passaremos a uma seção igualmente
importante que discute a questão da interdisciplinaridade. Assim, abordaremos o método
científico utilizado no campo, bem como a possibilidade de haver uma só ciência cognitiva
integrada. Exemplificando a tentativa da união de esforços das diversas disciplinas cognitivistas
numa só direção, vamos expor alguns estudos integrados na área da percepção, da imagética
mental, da categorização e da racionalidade.
2
A seguir, procederemos a última seção deste artigo que abordará as novas tendências nas
Ciências Cognitivas. Estas novas abordagens surgiram a partir das críticas ao projeto inicial das
Ciências Cognitivas. Por se oporem a pontos importantes do chamado Cognitivismo estas
tendências propuseram uma nova visão da cognição humana e se uma delas se mostrar mais
indicada para explicar os processos cognitivos acabará por transformar radicalmente nosso
conhecimento atual acerca da cognição. Estas novas tendências são o Conexionismo, a Vida
Artificial, a Nova Robótica e a Enação.
Por fim, tentaremos concluir este trabalho fornecendo ao leitor algumas impressões
próprias sobre as Ciências Cognitivas: seus avanços, seus problemas, suas perspectivas de
sucesso. O futuro das Ciências Cognitivas depende em parte de um mínimo de consenso entre
seus cientistas. Contudo, seja como for, esta tentativa de desvendar os mistérios da cognição
humana tem se mostrado cada vez mais suscetível a contribuições diversas de todas as áreas
interessadas no conhecimento e, por não se fechar em sua própria especificidade, tende a crescer.
3
Com o passar do tempo, os pensadores ocidentais deram continuidade à especulação sobre
o conhecimento. Como exemplo podemos citar Aristóteles, Descartes, Kant e outros que lidavam
com questões teóricas e empíricas sobre o conhecimento. Atualmente, tais questões são de
interesse dos cientistas cognitivos, que assim como os gregos, se propõem a entender o que
significa conhecer algo, a entender também o que é conhecido e como o indivíduo conhece.
Pode-se dizer que o Simpósio Hixon, em 1948, foi um marco importante para as Ciências
Cognitivas. Este congresso reuniu grandes cientistas de várias disciplinas para discutirem sobre
os “Mecanismos Cerebrais do Pensamento”. Um dos palestrantes que mais se destacou foi o
psicólogo Karl Lashley ao falar sobre “O Problema da Ordem Serial no Comportamento”.
Trabalhando na época do Behaviorismo, Lashley criticava os pressupostos behavioristas, uma vez
que o estudo científico da mente estava sendo dificultado.
4
Lashley, entretanto, se opunha a isto, pois defendia a idéia de que os processos mentais,
na verdade, ditam um comportamento complexo e não seqüências de estímulos ambientais como
defendiam os behavioristas. Lashley também discordava da idéia de um sistema nervoso estático,
como mostrava o conceito de arco-reflexo. Na realidade, as evidências mostravam um sistema
nervoso dinâmico composto de sistemas interativos.
Por tudo o que disse e da forma como desafiou o conhecimento aceito até então, Lashley
conseguiu o apoio dos seus colegas de congresso. Pode-se dizer que este foi um dos primeiros
passos para uma nova abordagem sobre as questões do conhecimento.
5
da teoria da informação de Claude Shannon (1938) aplicado à linguagem natural. O próprio
Miller (1956) também apresentou um artigo que atribuía à memória de curto prazo uma
capacidade de aproximadamente (+ ou -) 7 itens.
No início dos anos 70, a Fundação Sloan entra em cena e investe nas Ciências Cognitivas,
pois via nela um campo promissor. Uma reação negativa às atividades financiadas pela Fundação
veio a partir de um relatório solicitado por ela. Neste relatório foi elaborada uma figura, um
hexágono, simbolizando a integração entre os seis campos das Ciências Cognitivas. Linhas cheias
(indicando maior interação entre estas disciplinas) ou tracejadas (indicando interações mais fracas
entre estas disciplinas) foram utilizadas para indicar as conexões entre os campos. A reação foi
negativa, uma vez que cada defensor de sua disciplina se sentiu diminuído em sua importância.
Figura 1
6
Em vista disto, uma nova versão da inter-relação das disciplinas componentes das
Ciências Cognitivas foi proposta em 1986. Desta vez, o hexágono proposto era bem mais
detalhado e completo.
Epistemologia
(e)
Psicologia Lingüística
(d
(c) )
(b)
Ciências da Ciências Sociais
Computaçã
o (a)
Neurobiologia
(a) Cibernética
(b) Neurolingüística
Figura 2 (c) Neuropsicologia
(d) Lingüística
Computacional
7
(e) Psicolingüística
Ainda assim, verificou-se que o empreendimento cognitivista era bem mais completo do
que o demonstrado no hexágono. Desta forma, foi proposto um prisma, preocupado não em
esgotar a complexidade deste campo de pesquisa, mas em esboçar as relações interdisciplinares,
ressaltando sobretudo campos de atuação (simbólico e sub-simbólico) ao invés de disciplinas.
Lingüística
1
CONHECIMENTO
I
A
Psicologi
a
Cognitiva COGNIÇÃO
Informátic
a
SÍMBOLO
S
Lingüística
2 SINAIS
(Fonética)
Tratamento
do Sinal
Neurobiologia
Eletônic
a
Figura 3
Estas três principais abordagens podem ser apresentadas em forma de mapa polar. Neste
mapa, vemos as ciências da cognição, que têm no centro o paradigma cognitivista, a proposta da
enação na periferia, e, entre ambos, o campo intermediário das idéias conexionistas. O nome dos
8
investigadores representativos aparece em cada região ao longo do raio correspondente à sua
disciplina. A seta indica o local que representa a posição de Varela.
Holland Winograd
Flores
neurociências Grossberg Smolenski
Lakoff
lingüística
Hinton Ballard
Marr Feldman
Freeman Poggio Searle
Arbi
Abeles Simon
b McCarthy Newell
Llina
s
Hubel
Wiesel Chomsk
y
John Barlow
Foldo
r
Neisser
Pylyshyn Hofstaedter
Rummelhar
d
Denne
COGNOTIVISMO t Maturan
Rosc McClelland a
h
Dreyfus
Piage Johnson
t
EMERGÊNCIA epistemologi
psicologia Rorty a
cognitiva
ENACÇÃO
Figura 4
A seguir, vamos examinar os cinco pressupostos básicos das Ciências Cognitivas (estes
pressupostos nos remetem à abordagem chamada de cognitivismo por Varela, referindo-se ao que
há de mais prototípico e estabelecido com algum grau de consenso no empreendimento
cognitivista). As representações, os computadores, a desenfatização dos aspectos emocionais, a
interdisciplinaridade e a tradição filosófica são os alicerces sobre os quais as pesquisas
cognitivistas têm se realizado.
9
2.2. Os Pressupostos Básicos das Ciências Cognitivas
Podemos levantar cinco pressupostos básicos que tentam delimitar a natureza das Ciências
Cognitivas: as representações; os computadores (estes dois, pressupostos centrais); a
desenfatização da emoção, do contexto, da cultura e da história; a crença em estudos
interdisciplinares, e as raízes em problemas filosóficos clássicos.
2.2.1. As Representações
Desta forma, podemos entender melhor o conceito de representação, uma vez que o
problema de como chegar a um lugar novo seria um estímulo, o mapa mental faria parte dos
processos mentais que realizamos utilizando representações até que obtivéssemos a resposta, ou
seja, o trajeto que deveríamos percorrer. O nível representacional, portanto, refere-se aos
10
símbolos, imagens, esquemas, idéias (etc.) que utilizamos em nossas atividades cognitivas
diárias. Este nível representacional, entretanto, nada tem a ver com o nível neurológico, cultural
ou fenomenológico de análise do pensamento. Por postular um nível de análise separado, as
Ciências Cognitivas, como vimos, sofreram inúmeras críticas, sendo o nível representacional um
elemento carente de consenso e aceitação.
Pode-se dizer que o despertar para a noção de representação não é recente. Descartes já se
interessava por imagens, pois achava que elas seriam o primeiro meio de pensamento. Outros
pesquisadores, ao longo do tempo, também se dedicaram a estudos nesta área. Contudo, na área
behaviorista, como vimos, a idéia de representação caiu em desuso, pois, segundo eles, o que
ocorria entre o estímulo e a resposta não interessava, era uma caixa preta. A pesquisa sobre as
representações só foi retomada com o advento da abordagem do processamento da informação,
que sustenta que a ação do sujeito está determinada por suas representações e não pelo ambiente
que o cerca, como diziam os behavioristas.
Existem diferentes tipos de representação que estarão permeando nossa exposição a partir
de agora, por isso, pensamos ser útil uma rápida explicação sobre os tipos de representação
existentes. Há dois tipos de representação: as representações externas e as representações
internas. As representações externas são aquelas representações que utilizamos para caracterizar
o mundo em que vivemos. São representações úteis para o dia-a-dia, como um mapa de uma
cidade, por exemplo, pois o mapa representa as ruas, as praças, as características da cidade a qual
foi elaborado para representar. Há duas classes de representações externas: as representações
externas lingüísticas e as representações externas pictóricas. As primeiras dependem de palavras
ou de outras anotações escritas. As segundas valem-se de diagramas ou de figuras.
11
A fim de explicar as diferenças entre estas duas classes de representações externas
imaginemos que devemos pensar na arrumação de mesas num salão de festas para determinado
evento social. Podemos utilizar um diagrama que represente o salão e a disposição das mesas
neste ou podemos apenas especificar por escrito a disposição destas mesas: cinco mesas ficarão
no centro do salão, dez mesas na ala esquerda, mais dez na ala direita e cinco mesas mais ao
fundo. No caso do diagrama utilizamos uma representação externa pictórica e no caso da
anotação escrita utilizamos a representação externa lingüística. Em ambos os casos as
representações apenas representam alguns aspectos do mundo, não contendo detalhes precisos
como a cor dos enfeites sobre a mesa ou a distância exata entre cada mesa. Nos dois exemplos
temos uma idéia geral de algo no mundo que estamos representando.
Podemos dizer que o diagrama da disposição das mesas num salão de festas é muito mais
capaz de captar a arrumação desejada, uma vez que podemos ter uma idéia da posição espacial
das mesas em relação ao espaço total disponível na sala. Já a descrição lingüística não pode nos
oferecer esta “prévia” da arrumação. Por exemplo, quando arrumamos a disposição das mesas
através do diagrama, as mesas já estão no lugar adequado segundo a nossa vontade. A
representação externa lingüística teria que incluir mais sentenças para representar a disposição
exata das mesas, como: as cinco mesas do centro do salão deverão estar duas lado a lado, uma à
frente destas duas, estando mais ao meio e as outras duas na frente desta última, mas na mesma
direção das duas primeiras. Como podemos perceber, as representações externas pictóricas
parecem ser mais práticas.
As representações externas são ditas analógicas, pois sua estrutura assemelha-se àquela do
mundo, ou seja, no nosso exemplo às mesas que devemos arrumar já existem, já estão no salão,
são reais. Já o sinal lingüístico não possui tal propriedade analógica, pois a relação entre o sinal
lingüístico e o que ele representa é arbitrária. Por exemplo, não há relação inerente entre o objeto
mesa e as letras “m-e-s-a”.
12
Passemos agora ao outro tipo de representação: as representações internas. Analogamente,
as representações internas, assim como as externas, também representam algum aspecto do
mundo externo ou interno a nós. Além disso, as duas classes de representações externas
encontram paralelo nas duas classes de representações mentais. As representações externas
pictóricas encontram paralelo nas representações mentais analógicas (referentes a imagens
visuais, auditivas, olfativas, tácteis ou cinéticas) e as representações externas lingüísticas
encontram paralelo nas representações mentais proposicionais (representações semelhantes à
linguagem que captam as idéias da mente).
Como características destas duas classes de representações mentais internas podemos citar
o fato de ambas lidarem com símbolos, sejam analógicos ou proposicionais. Como as
representações mentais analógicas referem-se a imagens, elas não são individuais, não possuem
regras claras de combinação, podem representar implicitamente os fatos do mundo e são
concretas, pois estão sempre ligadas a uma modalidade específica dos sentidos. Já as
representações proposicionais são individuais, explícitas, combinam-se de acordo com regras e
são abstratas. O conteúdo ideacional representado não é restrito a uma só língua nem a uma só
modalidade dos sentidos. Por isso diz-se que estas representações são mentalizações universais.
Constituem, assim, um código básico com o qual todas as atividades cognitivas propostas são
realizadas.
13
Estas duas classes de representações mentais internas são controversas. Alguns
pesquisadores sustentam que haveria apenas uma classe de representação mental, a proposicional,
pois as imagens poderiam ser reduzidas a representações proposicionais. Não nos ocuparemos
com este debate agora. Voltaremos a ele mais à frente, quando estivermos discutindo em detalhes
a imagética mental.
2.2.2. Computadores
14
humana e o funcionamento de um computador. Ou seja, adota-se os programas de computador
como metáfora do funcionamento cognitivo humano.
Esta metáfora computacional possui duas versões: uma fraca e outra forte. A fraca, não
sustenta uma equivalência funcional entre homem e computador, enquanto que a versão forte
defende esta equivalência entre o sistema cognitivo humano e o funcionamento do computador.
Por ser este um ponto importante para a Inteligência Artificial, ele será retomado mais adiante,
quando abordaremos detalhadamente as disciplinas componentes das Ciências Cognitivas. Serão
expostos também o processo de criação do computador e a história da Inteligência Artificial. O
que desejamos enfatizar aqui é a importância do computador para as Ciências Cognitivas, uma
vez que seja na versão fraca ou forte da metáfora computacional, o computador tornou-se um
instrumento precioso do qual as Ciências Cognitivas não podem mais prescindir.
Podemos até dizer que foi a invenção dos computadores nos anos 30 e 40 que
impulsionou a pesquisa cognitiva. Sua importância reside, então, no fato de o computador servir
de modelo do pensamento humano, além de ser um instrumento valioso no dia a dia dos cientistas
cognitivistas. Utilizando o computador, os cientistas analisam os dados obtidos em suas
experiências e tentam simular processos cognitivos nele.
O computador tornou-se tão importante para as Ciências Cognitivas que muitos dos seus
participantes concordam que a Inteligência Artificial é a sua ciência principal. Apesar das
inúmeras críticas a sua utilização, o computador mostrou-se útil na tentativa de se criar um
modelo da cognição humana. Examinaremos estas críticas mais adiante quando discutiremos as
pretensões da Inteligência Artificial.
15
Portanto, “a cognição consiste em agir na base de representações que têm uma realidade
física sob forma de código simbólico num cérebro ou numa máquina” (Varela, sem data). Em
suma, define-se a cognição como sendo o tratamento da informação, isto é, a manipulação de
símbolos a partir de regras. Além disso, este programa sustenta também que a cognição pode
funcionar através de algum dispositivo capaz de representar e manipular elementos físicos, que
seriam identificados como símbolos. Somente os atributos físicos dos símbolos são levados em
conta pelo sistema, não seu sentido. Tal sistema cognitivo dá mostras de êxito se os símbolos
representarem corretamente os aspectos do mundo real. Assim, o tratamento da informação
conseguiria dar uma solução adequada aos problemas a que foram submetidos o sistema
cognitivo.
Em suma, o paradigma computacional adotado pelas Ciências Cognitivas foi um dos seus
grandes marcos na tentativa de desvendar os mistérios da cognição humana, na medida em que se
mostrou uma alternativa válida, deixando para trás o comportamentalismo estrito do
behaviorismo sem incorrer na vaguidade do introspeccionismo de outras épocas.
Um outro aspecto das Ciências Cognitivas que recebe fortes críticas é o da desenfatização
da emoção, do contexto, da cultura, e da história. Para os cientistas da área, considerar estes
fatores tornaria o empreendimento cognitivista impraticável, uma vez que impossibilitaria a
generalização pretendida. O objetivo é primeiro conseguir representar o pensamento humano,
para então chegar à individualidade.
16
2.2.4. Raízes nos problemas filosóficos clássicos
O último aspecto refere-se às raízes das Ciências Cognitivas nos problemas filosóficos
clássicos. Para Gardner, seria impossível pensar nas Ciências Cognitivas sem nos remetermos a
tais problemas, uma vez que as questões levantadas desde os gregos servem de ponto de partida
às investigações da área. Porém, muitos cientistas cognitivistas não pensam assim e a
participação da filosofia nas Ciências Cognitivas ainda é discutível.
2.2.5. Interdisciplinaridade
Podemos dizer que são seis disciplinas componentes das Ciências Cognitivas: a Filosofia,
a Psicologia, a Inteligência Artificial, a Lingüística, a Antropologia e a Neurociência. Cada uma
delas contribuiu ao estudo do conhecimento com seus métodos e objetos de estudo, nos
fornecendo diferentes visões de um mesmo fenômeno. Na próxima seção, procedemos a um
exame rápido destas disciplinas, abordando um pouco de seu processo histórico, de suas
conquistas e de suas implicações na investigação do conhecimento.
17
2.3. As Disciplinas Integrantes e seus Projetos de Pesquisa
2.3.1. A Filosofia
Por privilegiar a mente em sua filosofia, Descartes acabou por desprezar os sentidos.
Assim como Platão, ele sustentava a existência de idéias inatas e que a mente, por ser uma
entidade raciocinadora ativa, seria o árbitro da verdade. A experiência externa não deveria ser
levada em conta, pois eram os sentidos os responsáveis pelo erro e inconstância humanos. O
conhecimento, portanto, só poderia ser alcançado através da reflexão que a mente executa acerca
de suas próprias idéias.
Esta concepção, chamada racionalista, recebeu fortes críticas dos empiristas, aqueles que
não aceitavam que o conhecimento pudesse vir da introspecção (da busca na mente). Ao
contrário, sustentaram que a experiência sensorial seria a única confiável. Assim, o conhecimento
seria alcançado através da experiência dos objetos do mundo exterior. Em suma, o homem não
nascia com idéias inatas, ao contrário, ao nascer era uma tábua rasa, que através da experiência
chegaria ao conhecimento gradativo do mundo. Para estes, os empiristas, a sensação seria a fonte
18
de conhecimentos. Filósofos, tais como Locke, Berkeley e Hume, dedicaram-se a provar os
equívocos dos racionalistas, estabelecendo um dos debates mais conhecidos da história da
ciência.
Em fins dos anos 40, três importantes cientistas se levantaram contra as idéias concebidas
por Descartes e apoiadas pelos lógico-empiristas. São eles: Gilbert Ryle, Ludwing Wittgenstein e
J. L. Austin. Ryle, em seu livro “The Concept of Mind (1949), opõe-se ao mentalismo de
Descartes. Para ele, falar em mente é um erro categórico, pois não existe um lugar chamado "a
mente" com suas próprias localizações, eventos e assim por diante. Já Wittgeinstein, depositara
na linguagem a possibilidade de resolver os enigmas filosóficos. Para ele, mais importante que
estudar como as operações mentais “funcionam”, seria estudar os usos variados da linguagem e
suas relações com o comportamento e experiência. Para Austin, o erro dos lógicos empiristas
estava em considerar uma sentença por seu valor nominal e não levar em conta a intenção de
quem a proferiu, o contexto.
Na verdade o que Austin, Ryle e Wittgeinstein objetivavam era chamar atenção para o
fato de que a filosofia não era uma “super disciplina” que podia aventurar-se sobre todos os
campos do conhecimento. Os filósofos não possuíam meios de atacar todas as questões e por isso,
deviam limitar-se a ajudar a esclarecer alguns métodos obscuros de discussão.
19
Entretanto, para W. Quine apesar da controvérsia acerca do status da filosofia, ainda há
um papel legítimo para a epistemologia, o de estudar o sujeito humano físico, bem como as
relações estabelecidas entre os “inputs” fornecidos a este sujeito experimentalmente e a resposta
dada por ele, a descrição do mundo externo em sua visão (output). De agora em diante, segundo
Quine, não poderíamos mais tentar exaustivamente deduzir a ciência de dados sensoriais e sim,
realizar pesquisas onde os sujeitos experimentais são a chave para se descobrir como
compreendemos nossas experiências.
Já Richard Rorty, em seu livro “Philosophy and the Mirror of Nature” (1979), é muito
mais radical a propor a desconstrução ou reconstrução do pensamento filosófico ocidental.
Segundo ele, a insistência filosófica de explicar a validade daquilo em que acreditamos pelo
exame da relação entre idéias e os seus objetos é infrutífera, pois esta validade é alcançada no
processo social, na medida em que conseguimos convencer os outros de nossas crenças. Sendo
assim, se a validade de nossas crenças é alcançada na sociedade e não em processos mentais
isolados, Rorty não vê sentido no estudo da representação mental. Sobre as Ciências Cognitivas,
Rorty diz que é necessário fugir de questões filosóficas insolúveis e vê viabilidade em se estudar
as razões pelas quais experienciamos e processamos o mundo, mas não é otimista quanto aos
resultados destes estudos.
20
das ciências físicas-padrão. Para isto, a inteligência artificial traz um auxílio, na medida em que
constrói um sistema conhecedor, que responde à questão de como o conhecimento é possível.
Enfim, as contribuições de Putnam e Dennett foram significativas para a filosofia e serviam de
auxílio para as Ciências Cognitivas, na medida em que tentavam responder questões relativas à
mente e ao corpo.
Jerry Fodor é aquele que pode melhor ser considerado um cognitivista completo. Sendo
um simpatizante da tradição cartesiana, Fodor concebia a existência de estados mentais e de
idéias inatas, opondo-se radicalmente à tradição empirista. Seu objetivo é exatamente invadir o
espaço mental para compreender como e por que fazemos nossas afirmações. Fodor opõe-se à
visão cartesiana no tocante ao dualismo mente e matéria. Como Putnam, acredita que a
constituição psicológica dos indivíduos depende de seu “software”, podendo ter o computador
crenças como nós as temos. Em relação às Ciências Cognitivas, vê a representação mental como
constituinte das atividades cognitivas. Como um funcionalista, defende a ligação entre mente e
computador como sendo mais íntima do que a relação mente e cérebro.
Outra questão relevante à filosofia atual é o seu mérito enquanto disciplina relevante em si
e ao empreendimento cognitivo. Alguns são críticos acerca da importância da filosofia, chegando
até ao ponto extremo de prever o fim da disciplina da filosofia, como sustentam os pesquisadores
da Inteligência Artificial, por exemplo. Segundo estes, o advento das explicações computacionais
do conhecimento fará com que não haja mais a necessidade de análises filosóficas.
21
Para Gardner (1996), isto não procede. A filosofia possui seu papel de disciplina
fundamental à investigação social do conhecimento garantido. É ela que define as questões
cognitivas relevantes e garante a integração das disciplinas componentes do empreendimento
cognitivo. Sendo assim, se estiver a par das descobertas científicas, a filosofia poderá auxiliar o
trabalho científico, ajudando a interpretar e estabelecer os limites (especialmente através de sua
vertente da Ética) dos avanços conquistados.
2.3.2. A Psicologia
A segunda linha de pesquisa crucial é a de Broadbent (1954) e Cherry (1953). Estes são os
responsáveis por dar origem à modelização dos processos humanos de pensamento. Na verdade,
foi Broadbent o primeiro psicólogo a descrever o funcionamento cognitivo com um diagrama de
fluxo. Neste diagrama, a informação era capturada pelos sentidos e colocada em um
armazenamento de curto prazo. Em seguida, a informação passa por um filtro seletivo que
bloqueia as informações indesejadas, e entra num sistema perceptivo de capacidade limitada. Daí,
a informação entra na memória de longo prazo e torna-se parte do conhecimento ativo.
A última linha é a de Jerome Bruner. Em seu livro “Study of Thinking” (1956), Bruner
aborda assuntos como classificação, categorização ou aquisição de conceitos. Seja qual for o
nome dado, Bruner está interessado em saber como uma pessoa, diante de um conjunto de
22
elementos, passa a agrupá-los em categorias confiáveis. Estes três notáveis cientistas – Bruner,
Broadbent e Miller – cada qual em uma perspectiva do estudo da cognição, têm o mérito de se
oporem ao behaviorismo, não aceitando o ostracismo em que os problemas mentais se
encontravam. Eles deram, então, um considerável impulso à Psicologia e colocaram em pauta
qual deveria ser o programa da Psicologia Cognitiva face às novas descobertas provenientes de
seus estudos.
O grande responsável pelo status de psicologia científica, com seus métodos, programas e
instituições, dado à psicologia no século XIX foi Wilhelm Wundt. Este tratou de diferenciar a
psicologia da física e da fisiologia. Wundt acreditava que a introspecção era essencial para
entendermos mais sobre estes processos mentais humanos. Pode-se dizer que a psicologia
wundtiana aparece como uma espécie de química mental, concentrada em descobrir elementos
puros do pensamento, que juntos formam a atividade mental.
Um outro opositor de peso aos programas de Wundt foi o psicólogo William James
(1890). Descrente quanto a ênfase dada à introspecção, que segundo ele era totalmente
inconclusiva, James tentou entender as várias funções executadas pela atividade mental, ao invés
de priorizar os conteúdos da vida mental e a sua estruturação. Assim sendo, James funda o
movimento denominado funcionalismo, muito mais interessado em investigar as operações das
atividades mentais do que suas estruturas.
O funcionalismo, no entanto, foi logo substituído por um movimento muito mais sedutor
aos psicólogos da época, o behaviorismo. Seu fundador, o psicólogo John Watson, em, 1913
propôs o verdadeiro tema da psicologia, a saber: o exame do comportamento objetivo e
23
observável através da compreensão dos reflexos que ocorrem na parte superior do sistema
nervoso. Watson desprezou a introspecção porque não estava interessado na mente humana e sim
na previsão e controle do comportamento explícito.
Uma outra escola importante na história da psicologia é a Gestalt (escola que mais possui
ligação com a orientação cognitiva de hoje). O fundador deste movimento foi Marx Wertheimer,
que em 1912 publicou um artigo sobre a percepção visual do movimento. Auxiliado por Köhler e
Koffka, Wertheimer opõe-se à análise atomística anterior, puramente molecular, e demonstra que
a percepção do movimento não é a soma de diferentes sensações elementares. Para ele, é a
organização do todo que determina a forma pela qual as partes são vistas, e não o contrário, o
que, portanto, não conduz a uma visão atomística dos fenômenos estudados.
Outro que se opôs ao behaviorismo, preocupando-se com questões cognitivas, foi Jean
Piaget (1970). Estudando o curso do desenvolvimento do pensamento da criança em vários
domínios, Piaget pensa ter esclarecido as estruturas básicas do pensamento que caracterizam
crianças de diferentes idades ou estágios de desenvolvimento, e pensa, também, ter sugerido os
mecanismos que permitem a uma criança fazer a transição para estágios mais elevados de
desenvolvimento. Atualmente, porém, as sustentações de Piaget são muito atacadas. Pode-se
dizer que sua maior contribuição à psicologia foi o estudo do desenvolvimento cognitivo
humano, o que influenciou os rumos dos estudos psicológicos outrora voltados ao behaviorismo.
24
Muitos estudiosos da cognição humana foram importantes no processo pelo qual o
behaviorismo foi sendo aos poucos desacreditado. Porém, o que realmente consolidou a virada
para a cognição foi o advento dos computadores, pois estes eram capazes de exibir
comportamento de solução de problemas e o surgimento da teoria da informação, uma vez que
esta forneceu uma base objetiva sobre a qual se podia determinar os componentes da linguagem
ou dos conceitos.
Em 1968, foi proposto por Atkinson e Shiffrin o famoso modelo modal. Este modelo de
memória é composto por três armazenamentos. No primeiro, há o armazenamento imediato de
um estímulo dentro do sistema sensorial adequado para este estímulo. No armazenamento a curto
prazo, as informações vindas da instância anterior ficam por um curto período de tempo. Pode-se
dizer que sua capacidade de armazenamento é de aproximadamente sete itens de informação. As
informações significativas ou muito repetidas passam ao armazenamento de longo prazo, onde
podem ficar permanentemente. Aqui, não há limites em sua capacidade. Uma informação pode
ser esquecida por um erro no armazenamento ou na busca. Esta abordagem foi submetida a
exames críticos, que fizeram com que esta abordagem modal fosse aos poucos abandonada em
detrimento de outras linhas de estudo.
25
mental (representação visual ou auditiva) como uma capacidade humana e desafia a crença
existente na psicologia cognitiva de apenas um modo de representação específico. Se a
comprovação da existência de mais de um modo de representação se der, com certeza a
psicologia se encontrará numa situação difícil, pois poderá haver duas ou muitas outras formas de
representação desconhecidas.
Enfim, todas as discussões psicológicas marcantes dos últimos tempos não estão aqui, o
exposto foi apenas uma pequena amostra. Com os avanços da psicologia, porém, os diversos
campos isolaram-se em suas pesquisas. Foi de Anderson (1983) a tentativa de lançar construtos
unificadores para a psicologia cognitiva. Anderson, um psicólogo com raízes na Inteligência
Artificial, desenvolveu o sistema ACT (Controle Adaptativo do Pensamento), um modelo geral
da arquitetura da cognição, que descreve o fluxo da informação dentro do sistema cognitivo. Há
um sistema de produção, acionado quando um nó da rede recebe ativação suficiente, o que
provoca uma ação (produção). Há a memória de trabalho, com a qual o sistema trabalha no
momento, a memória declarativa, que contém proposições, e a memória de produção, que
envolve as ações executadas pelo sistema, além de uma série de outros mecanismos.
Apesar de trabalhos importantes em diversas áreas, ainda não temos respostas definitivas
para muitos impasses da psicologia cognitiva. Daí decorre a necessidade de pesquisas e métodos
psicológicos eficientes para a resolução destas questões. Daí decorre, também, a necessidade da
interdisciplinaridade ao pensarmos nas Ciências Cognitivas, que necessitará da psicologia
cognitiva, da Inteligência Artificial e dos demais campos interessados nas questões do
conhecimento, de modo que os estudos unificados facilitem as investigações. Quanto à psicologia
como um todo, ela se manterá útil para questões que já vem ajudando a resolver e às demais que
virão com os progressos científicos iminentes. Na verdade, para uma disciplina que intensificou
seus esforços apenas há dois séculos (pós-Kant), a psicologia avançou impressionantemente na
compreensão do homem, de outras questões importantes e foi ela também a responsável pela
revolução cognitiva, que possibilitou o aparecimento das Ciências Cognitivas interessadas
exclusivamente na cognição humana.
26
2.3.3. A Inteligência Artificial
Uma outra disciplina componente das Ciências Cognitivas é a Inteligência Artificial (IA).
Em 1956, no campus do Dartmouth College, New Hampshire, dez jovens acadêmicos
interessados em lógica e matemática reuniram-se, a fim de discutir a produção de programas
computacionais capazes de pensar inteligentemente. Dentre eles, destacaram-se John McCarty,
Marvin Minsky, Hobert Simon e Allen Newell. Este encontro é considerado um marco para as
Ciências Cognitivas e especialmente para a IA porque consolidou-se a partir dele a disposição de
colocar em prática as especulações da geração mais velha (Wiener, von Neumam, McCulloch e
Turing), que previu os avanços, mas não conseguiu explorá-los.
Deve-se ressaltar que este desejo de obtermos uma inteligência artificial não é
contemporâneo, mas inicia-se com Descartes e seu interesse por autômatos que pudessem simular
o corpo humano. Já no século XIX, Babbage destacou-se pela invenção da sua máquina
diferencial, que podia em princípio tabular qualquer tipo de função e jogar xadrez, baseando-se
27
nas tabelas de diferenças dos quadrados dos números. E Boole se propôs a entender as leis
básicas do pensamento e fundamentá-las sobre princípios da lógica, que eram expressos como 1
(tudo ou verdadeiro) ou 0 (nada ou falso). Estas expressões lógicas influenciaram Whitehead e
Russell, que objetivavam demonstrar que as raízes da matemática residem nas leis básicas da
lógica. Pode-se dizer que estas contribuições foram importantes, na medida em que foram sendo
incorporadas aos trabalhos posteriores, aonde chegou-se aos programas ditos inteligentes.
Claude Shannon é um exemplo disso, pois em sua obra “Simbolic Analisys of Relay and
Switching Circuits” (1938) estava contida a idéia de Boole do sistema verdadeiro/falso. Shannon
lançou os fundamentos para a construção de máquinas que executassem operações de lógica
verdade.
Newell e Simon, com a ajuda de Cliff Shaw, criaram o Logic Theorist (LT), um programa
capaz de provar teoremas retirados dos “Principia” de Whitehead e Russell (1910-1913). Eles
criaram uma linguagem de processamento da informação a fim de resolver o problema de
adequação da linguagem do programador e da máquina. O programa apresentou mínima margem
de erro ao ser posto em prática. Seus autores insistiram que não estavam apenas demonstrando o
pensamento de um tipo genérico, mas aquele no qual os humanos se envolvem. Segundo eles, o
programa funcionava por procedimentos análogos aos empregados por solucionadores de
problemas humanos.
28
Com isso, Newell e Simon demonstraram que o computador podia desempenhar um
comportamento inteligente e que os procedimentos de resolução de problemas entre máquinas e
humanos são semelhantes. Eles foram ainda mais longe criando o Solucionador Geral de
Problemas, um programa onde os métodos podiam ser utilizados na resolução de quaisquer tipos
de problemas, imitando os processos humanos para a resolução de problemas. Este programa
funcionava pela análise de meios e fins, ou seja, a procura de métodos para reduzir a diferença
entre o lugar onde se está do lugar onde se quer chegar. Por fim, o Solucionador Geral de
Problemas foi deixado de lado por não conseguir resolver a generalidade de problemas que se
propunha. Porém, ele teve um papel importante, pois foi o primeiro a simular um espectro do
comportamento simbólico humano.
29
Já em torno de 1970, Terry Winograd criou SHRDLU, a fim de fazer com que houvesse
compreensão por parte deste programa. SHRDLU, então, era menos do que um solucionador
geral de problemas, era um especialista, que atuava num domínio extremamente limitado, mas
que demonstrava compreender as instruções dadas. Este programa atuava num domínio fictício
de blocos que podiam ser empilhados e amontoados de diversas maneiras. Um dos sinais da
compreensão de SHRDLU é o seu pedido de esclarecimento em caso de instruções ambíguas.
Apesar de suas limitações, SHRDLU foi um importante marco na história da IA por introduzir a
compreensão nos programas.
Nesta época ainda foram lançadas muitas críticas contra a IA. Hubert Dreyfus criticou
duramente a IA. Em seu livro, “What computers can’t do: A critique of Artificial Reason”
(1972), Dreyfus enfatiza as diferenças fundamentais entre seres humanos e computadores,
residindo aí os insucessos da IA, uma vez que não se pode descrever todo o comportamento
humano através de regras lógicas formais. O computador jamais poderá, segundo ele, assemelhar-
se ao homem, pois o comportamento deste é indeterminado, “a vida é o que os humanos fazem
dela e nada mais”.
Talvez a crítica mais dura feita à IA seja de Berkeley John Searle (1980). Para ele, a IA
fraca que utilizava o computador como ferramenta no estudo da mente era totalmente válida.
Porém, a IA forte que concebia o computador adequadamente programado como uma mente era o
alvo das críticas de Searle. E para demonstrá-las, ele utiliza o argumento do “quarto chinês”.
Neste quarto um indivíduo permanece trancado e recebe um grande conjunto de escrita chinesa, a
qual não compreende. Em seguida, recebe um segundo grupo de caracteres chineses juntamente
com uma série de regras para comparar com o primeiro. Por estarem na língua natal do indivíduo,
as regras lhe ensinam a correlacionar uma série de símbolos formais com outra série. Fazendo as
associações, ele consegue fornecer o conjunto certo de caracteres quando recebe um conjunto
inicial. O indivíduo recebe, também, perguntas na sua língua natal.
Searle argumenta que com a prática, este indivíduo será tão capaz de responder às
perguntas quanto um nativo da língua, mesmo sem falar uma palavra desta. Seu desempenho será
30
igual nas respostas às perguntas da língua desconhecida e às da sua própria língua. Porém, no
caso da língua desconhecida o indivíduo apenas manipula símbolos formais não interpretados
para responder às perguntas, diferentemente do que ocorre com sua língua natal. Ou seja, este
indivíduo estaria se comportando como um computador, que apenas executa operações
computacionais sobre elementos formalmente específicos. O computador, portanto, é uma
máquina para operações formais, sem conhecimento semântico, sem conhecimento do mundo
real, sem intenções a alcançar através de suas respostas. Diferentemente do ser humano, o
computador é capaz de compreender e por isso a IA forte está condenada ao fracasso.
Para Searle, ainda que se chegue perto do funcionamento do cérebro no computador, isto
não seria suficiente para produzir compreensão. Esta seria uma propriedade que provém somente
de um tipo de máquina como o cérebro humano, que é capaz de executar certos processos, tais
como ter e realizar intenções. Esta noção de intencionalidade de Searle foi bastante questionada.
Segundo Gardner (1996), toda a noção do cérebro como um sistema causal que exibe
intencionalidade é obscura e difícil de entender, e muito mais de ser exposta friamente como um
programa computacional. Este debate sobre a intencionalidade nos sistemas computacionais é de
suma importância às Ciências Cognitivas e por isso voltaremos a ele mais adiante, quando
estivermos analisando especificamente os problemas do projeto inicial das Ciências Cognitivas.
Enfim, ao encerrarmos esta breve reflexão sobre a IA, não podemos deixar de mencionar
uma tendência que aos poucos vem se confirmando: a fusão da psicologia cognitiva com a IA, a
fim de serem os componentes centrais das Ciências Cognitivas. Entretanto, estas duas disciplinas
não podem constituir sozinhas o campo das Ciências Cognitivas. A interdisciplinaridade ainda é
fundamental para o progresso do campo.
2.3.4. A Lingüística
Uma outra disciplina integrante das Ciências Cognitivas é a Lingüística, que tem como
maior representante Noam Chomsky. Em sua monografia de 1957, Syntatic Structures, Chomsky
propôs o entendimento do sistema lingüístico e a exposição das conclusões obtidas através de um
31
sistema formal, que conteria regras que explicassem a produção de qualquer sentença gramatical
correta, uma vez que estas regras não nos levariam à produção de sentenças incorretas ou
agramaticais.
A gramática estrutural também foi analisada por Chomsky, onde foi constatado que a
ênfase na forma em que as frases são construídas não pode captar as regularidades importantes de
uma língua, como por exemplo a ambigüidade, que não pode ser explicada na análise de frases
pela gramática estrutural. Esta gramática também não oferece mecanismos para a combinação de
sentenças. Por exemplo: “O circo está em Campos” e “O parque está em Campos” não unem-se
em “O circo e o parque estão em Campos”. Em suma, esta gramática não é impraticável, porém é
antieconômica e complexa, tornando-se, assim, desinteressante o seu uso.
32
de regras pelas quais as sentenças podem ser relacionadas umas às outras e onde uma sentença
pode ser convertida ou transformada em outra. Ou seja, a partir de regras estruturalistas gera-se
sentenças-núcleos, que são asserções declarativas ativas curtas, por exemplo “A menina pegou a
flor”. A partir de uma setença-núcleo as outras sentenças gramaticais da língua podem ser
geradas por meio da transformação destas sentenças-núcleo. A transformação permite a
conversão de uma seqüência lingüística em outra. Por exemplo, a conversão de uma sentença
ativa em uma passiva, ou a conversão de uma expressão positiva em uma negativa ou
interrogativa. A transformação pode ainda por em evidência as ligações entre sentenças,
explicitar as diferenças entre arranjos sintáticos semelhantes e entre frases ambíguas.
Pode-se dizer que o primeiro lingüista da época moderna foi Ferdinand Saussure (1959),
que propôs que os estudos lingüísticos voltassem sua atenção às línguas de seu próprio tempo
(lingüística sincrônica), em vez de estudarem as línguas através da história (lingüística
diacrônica). Para ele, o lingüista deve concentrar-se no estudo da língua de cada comunidade, ou
seja, estudar as regularidades do léxico, da gramática e da fonologia, que um membro da
comunidade absorve ao ser criado nela.
Nos EUA, a lingüística não foi a mesma após a influência de Leonard Bloonfield. Seu
trabalho caracteriza-se por uma oposição: de um lado desenvolver métodos e notações para o
33
estudo de línguas desconhecidas, encontrando a melhor forma de descrever seus padrões sonoros
e regularidades gramaticais. De fato, a identificação de estruturas constituintes como um meio de
análise sintática veio do importante trabalho de Bloomfield.
A gramática gerativa de Chomsky (como ficou conhecida a sua gramática) vem mudando
desde o final dos anos 60. Houve a limitação do objeto de estudo através do abandono das
tentativas de sistematização da semântica. Somente a resolução das questões da sintaxe tornou-se
o foco de seus estudos. Na abordagem atual, ele dedica-se à busca da Gramática Universal (GU),
onde a linguagem é governada por um pequeno conjunto de princípios universais, que têm
poucos parâmetros. Através de uma visão biológica, a linguagem também é vista como um
sistema que desenvolve-se dentro de uma série delimitada de maneiras. Os tipos de informação
encontrados pelo organismo no curso particular de seu desenvolvimento produzem uma
gramática central. Sendo assim, as semelhanças entre todas as línguas devem-se à gramática
universal, enquanto que as diferenças entre as línguas particulares devem-se às variações no
estabelecimento de parâmetros.
34
Em relação à lingüística como disciplina componente das Ciências Cognitivas, pode-se
dizer que a multidisciplinaridade é a melhor tática para atacarmos os mistérios da linguagem. A
ciência cognitiva possui os métodos e os modelos para nos ajudar nesta investigação. O
computador, por exemplo, pode ser um poderoso aliado. Sendo assim, Chomsky é considerado
um exemplo para a ciência cognitiva porque foi ele quem moldou métodos rigorosos de análise,
especialmente da sintaxe que foi seu alvo de estudo.
2.3.5. A Antropologia
Uma das figuras que se destacaram na história deste campo foi Lucien Lévy-Bruhl e sua
análise da mente do homem primitivo. Bruhl opõe-se à concepção evolucionista adotada por seus
colegas, que concebia a sociedade ocidental como o estágio mais avançado do raciocínio, e os
primitivos como o resto do mundo que não se enquadrasse aos padrões ocidentais sendo,
portanto, inferiores. Bruhl defende que não há qualquer diferença entre os povos primitivos e
civilizados no que diz respeito a maneira de pensar e conclui que a estrutura fundamental da
mente humana é a mesma em toda parte.
35
amplamente entre estes. Na verdade, não há seres humanos melhores ou piores que os outros,
sendo o racismo totalmente injustificável.
Boas também exerceu influência sobre a antropologia estrutural inaugurada por Claude
Lévi-Strauss (1963), que dedicou-se a descobrir a natureza da mente humana através do estudo
das maneiras pelas quais os sujeitos classificam objetos e das maneiras pelas quais entendem os
mitos. Sobre a classificação, concebe que a atividade de classificar é a característica principal de
todas as mentes humanas, sejam primitivas ou civilizadas. Sobre os mitos, propôs uma
abordagem metodológica para o estudo estrutural do mito, dividindo-o em partes componentes e
em seguida, agrupando todas as partes que se referissem ao mesmo tema. Não é fácil explicar a
estrutura de um mito, contudo pode-se dizer que a intenção de Lévi-Strauss ao fragmentar um
mito e depois rearranjar suas partes é obter uma explicação dos temas propostos nos mitos, bem
como das mensagens implícitas neles.
Quanto a sua colaboração para as Ciências Cognitivas, pode-se dizer que ele introduziu
questões de cognição no centro das discussões antropológicas, além de ter proposto tipos de
relações sistemáticas que podem vigorar em campos diversos como o parentesco, a classificação
e a mitologia. Utilizou também as abordagens mais rigorosas da lingüística nos principais
domínios da antropologia.
36
Estudos antropológicos importantes com inspiração psicológica foram determinantes para
que certas verdades fossem estabelecidas. Michael Cole e seus colegas (1974) concluíram,
através de experiências testando as habilidades de raciocínio de indivíduos não-ocidentais e
ocidentais, que as operações fundamentais do pensamento são as mesmas em todos os lugares,
sendo os processos de pensamento utilizados de formas diferentes em cada cultura.
Diferentemente da hipótese Whorf-Sapir, Eleanor Rosch demonstrou que a língua não afeta os
processos psicológicos básicos. Estes trabalhos, entre outros, foram importantes na medida em
que demonstraram que os sujeitos de todas as partes do mundo pensam e processam informações
semelhantemente. Porém, este universalismo não torna desnecessário o estudo meticuloso das
culturas individuais. Ao contrário, os antropólogos devem registrar e explicar as enormes
diferenças no comportamento, nos padrões de pensamento e nos seus diferentes usos nas diversas
culturas. Para isto, é indispensável que os estudos de caso continuem sendo realizados com
cuidado.
2.3.6. A Neurociência
A última disciplina integrante das Ciências Cognitivas é a Neurociência. Um dos objetivos desta
disciplina é encontrar a base neural específica do comportamento particular. E foi a esse objetivo
que Karl Lashley (1929), um proeminente neuropsicólogo americano da primeira metade do
século XX, dedicou-se. Influenciado pelo neuroanatomista Shephard Franz, Lashley estudou a
possibilidade de se atribuir comportamentos específicos a regiões específicas do cérebro.
Utilizando a técnica de ablação (destruição de certas áreas específicas do sistema nervoso através
de uma lesão cirúrgica), Lashley podia determinar quais comportamentos eram afetados pela
lesão e assim, inferir que funções são típicas desta região do cérebro afetado. Suas conclusões
37
eram claras. Ele não concordava com a questão da localização, pois para ele a crença de que o
comportamento específico reside em localizações neurais específicas era falsa, e ainda discordava
do reducionismo da época, que explicava o comportamento apenas em termos de princípios
neurais.
Diante deste impasse entre duas posições antagônicas, o melhor meio de se obter
progressos neste campo seria uma tentativa de fusão entre estes dois pontos de vista distintos, o
localizacionismo e o holismo. Foi justamente isto que Donald Hebb (1949) fez. Segundo ele,
quando se analisa o começo da vida, percebe-se um certo localizacionismo, uma vez que as
percepções simples dependem de conjuntos específicos de células. Com o passar do tempo,
durante o desenvolvimento, reuniões de células e seqüências de fases mais complexas são
formadas, que são capazes de participar de vários tipos de comportamento. Durante o
desenvolvimento, Hebb enfatiza o ponto de vista holista. Na verdade, não podemos reduzir as
38
explicações de Hebb a uma marcha da localização ao holismo, pois se analisarmos outros
aspectos, a seqüência pode ser inversa. Sua grande contribuição foi adotar uma postura
intermediária entre a localização e o holismo.
Foi através dos pesquisadores David Hubel e Torsten Wiesel (1979), no final dos anos 50,
que chegamos à grande parte dos conhecimentos atuais sobre localização. Ganhadores do Prêmio
Nobel de Medicina por este trabalho, Hubel e Wiesel documentaram dois fenômenos
importantes: que células específicas do córtex visual respondem a formas específicas de
informação do ambiente e que certas experiências iniciais são cruciais para o desenvolvimento do
sistema nervoso.
Roger Sperry (1974) dividiu com Hubel e Wiesel o Prêmio Nobel de Medicina em 1981
devido a sua documentação do funcionamento dos dois hemisférios. Sperry realizou uma
cirurgia, onde as duas metades do cérebro de indivíduos sofrendo de epilepsia intratável foram
desligadas. Desta forma, ele pôde estudar as duas metades do cérebro separadamente. Em seus
testes, Sperry verificou que o hemisfério esquerdo é o dominante para linguagem e outras funções
conceituais e classificatórias, e o hemisfério direito é o responsável por funções espaciais e para
outras formas refinadas de discriminação, o que não deixa de ser um ponto de vista
localizacionista, porém, Sperry também levantou as evidências holistas. Para ele, o hemisfério
direito de pessoas destras se mostrou muito mais capaz de exibir um funcionamento lingüístico
do que se pensava. Além disso, quanto mais jovens fossem os pacientes operados, maiores eram
as chances destes revelarem capacidade bem desenvolvidas em ambos os hemisférios.
Com isto, Sperry indicou que há uma nítida plasticidade no sistema nervoso imaturo. Ou
seja, quanto mais cedo ocorrer o trauma, maior a probabilidade de que a pessoa se mostre capaz
de realizar a função desejada, independentemente do local da lesão. Sabe-se que mesmo que o
indivíduo perca todo o hemisfério esquerdo, no primeiro ou segundo ano de vida, ainda assim
aprenderá a linguagem. Porém, se o dano ocorresse após a adolescência, a recuperação da
linguagem seria bem menor.
39
Deve-se considerar também que o fato de sofrer uma lesão no cérebro quando se é mais
jovem, explorando a plasticidade deste estágio de desenvolvimento para se recuperar, não é
decisivo. Às vezes, uma lesão na infância não manifesta nenhum déficit de curto prazo, mas de
longo prazo seu efeito é sentido. Além disso, quando uma área de cérebro assume uma função
adicional por causa de uma lesão, seu desempenho pode não ser satisfatório.
A neurociência, então, pode ser vista como uma espécie de fronteira inferior das Ciências
Cognitivas. Quando tratarem de fenômenos que não se referirem ao nível representacional, os
neurocientistas não estarão no campo cognitivo. Porém, quando estiverem atuando em domínios
formais mais complexos de atividade mental deverão recorrer às questões representacionais e às
demais disciplinas cognitivas, a fim de que juntos possam achar respostas para as diversas
questões que povoam a mente dos nossos cientistas cognitivistas atuais. A interdisciplinaridade é
o melhor começo para encontrarmos as soluções tanto desejadas.
40
Outro meio de resolvermos os problemas do empreendimento cognitivista é atentarmos às
críticas que este vem recebendo. Sendo assim, procederemos com o exame de alguns pontos
acerca das questões controversas dentro das Ciências Cognitivas.
3. As Grandes Críticas
Seguimos, então, com uma discussão sobre representação mental. Como sabemos, este é
um pressuposto básico das Ciências Cognitivas muito criticado atualmente. Em seguida,
observaremos alguns pontos importantes sobre a consciência e seu lugar neste empreendimento,
assim como o problema da intencionalidade. E por fim, examinaremos as pretensões da
Inteligência Artificial, em relação à idéia sustentada de que as máquinas podem realmente
“pensar” e “entender”.
3.1.1.A Representação
Como sabemos, o conceito de representação refere-se “aos estados mentais que contém
em si mesmos o objeto a que se referem, quer esse objeto esteja diante de mim, quer não, e é isso
que os dota daquilo que chamamos de “intencionalidade” ” (Abrantes, 1994). Desta forma, em
sua noção forte, existe um mundo predeterminado que só pode ser entendido com o auxílio das
41
representações mentais, que se encarregariam de ser o elo entre o mundo exterior e a nossa
atividade cognitiva.
Esta concepção de representação mental não ficou imune às críticas. Destacaremos aqui
algumas delas. Primeiramente, podemos citar a crítica filosófica à noção de representação
empregada para explicar a cognição. Esta noção de representação sustentada pela Inteligência
Artificial simbólica (leia-se cognitivismo) é herança cartesiana. Descartes já postulava a
caracterização da mente como algo separado do mundo. A função da representação, então, seria
justamente recuperar este mundo do qual a mente está separada. Mas para isto, a representação
também não poderia estar no mundo. Para ser um espelho dele, ela deveria estar ausente. A
mente, então, seria imaterial e conteria representações voláteis. O mental era encarado como uma
espécie de "fantasma da máquina", algo que não se pode ver ou tocar, mas que seria responsável
pela consciência e pelo significado (intencionalidade) que as representações viessem a ter.
Uma outra crítica à questão da representação vem de Francisco Varela. Segundo este
autor, não há porque sustentar a existência de um mundo predeterminado. Ao contrário, somos
nós que criamos o mundo em nossa interação cotidiana. A ação, portanto, precederia o próprio
aparecimento da representação. Não estamos fora do mundo, mas nele. Por isso, não precisamos
de representação, pois é a nossa ação que nos faz entender o mundo, na medida em que o
conhecimento advém do fato de estarmos num mundo inseparável de nosso corpo, de nossa
linguagem e de nossa história social.
Tomemos como exemplo o caso da visão. Segundo Varela (sem data), diante da pergunta:
o que apareceu primeiro, o mundo ou a imagem?, a resposta não precisaria recorrer a aspectos
42
representacionais do mundo, uma vez que mundo e imagem se definem mutuamente. Sendo
assim, é a atividade cotidiana da vida que vai modelando nosso mundo, tendo em vista a
perspectiva perceptiva, determinada, então, por aspectos internos e externos ao mesmo tempo.
Em suma, nosso mundo vai surgindo, não está pronto, dado, não está predefinido e nem poderia,
pois é a interação humana que modela o mundo. Varela, portanto, opõe-se ao caráter passivo da
representação de um mundo predefinido, onde só nos resta reconstituir propriedades predefinidas.
Esta crítica, efetuada por Varela, vem da Escola Chilena, que a partir dela lança uma nova
proposta às Ciências Cognitivas: a da enação. Esta nova abordagem será analisada em detalhes a
seguir.
Uma outra crítica à representação mental vem de Rodney Brooks (1991). Segundo este
autor, o cognitivismo errou ao utilizar a estratégia top-down (de cima para baixo) na investigação
do conhecimento. Ou seja, sustentava-se uma equiparação entre representação e cognição, entre
pensamento simbólico e inteligência. Partindo desta idéia, houve uma concentração de esforços
nas atividades humanas superiores para, então, passarmos à tentativa de simular as atividades
mais básicas.
Brooks opõe-se à estratégia top-down, pois, segundo ele, não podemos equiparar cognição
e inteligência à representação e ao pensamento simbólico. Além disso, esta estratégia não se
mostra eficaz na simulação das atividades mais básicas. Na verdade, para produzirmos
comportamentos inteligentes não precisamos de representações. Por isso, a simulação da
inteligência deve partir das atividades mais básicas, aquelas que não necessitam de
representações. Brooks lança, portanto, a idéia de que a cognição seria um fenômeno tardio na
ordem vital, mas não essencial para que haja inteligência. Sua estratégia é botton-up (de baixo
para cima), pois a simulação do comportamento inteligente partiria de atividades menos
complexas. A cognição, afinal, teria início na interação organismo-meio ambiente e não com a
representação mental. Estas idéias de Brooks darão início à Nova Robótica, uma nova
abordagem dentro das Ciências Cognitivas.
43
Em suma, como veremos mais adiante quando analisarmos as novas tendências das
Ciências Cognitivas, a idéia de representação como sustenta o cognitivismo vem perdendo força.
Ou ela é completamente eliminada das novas propostas ou, então, é reformulada. O
conexionismo, por exemplo, concebe a idéia de representação como a ação de estabelecer
relações entre as unidades da rede conexionista. Tais relações podem ser expressas na forma de
um conjunto de equações. Percebe-se que no conexionismo o ato de representar nada tem a ver
com um nível abstrato ou simbólico. Ao contrário, a representação depende do hardware que a
produz.
Por fim, abordaremos agora a Hipótese Dinâmica sustentada por Von Gelder (19XX), na
qual o conceito tradicional de representação também encontra restrições. Segundo este autor,
recentemente temos acompanhado o aumento do interesse dos cientistas cognitivistas pelos
sistemas dinâmicos em detrimento da hipótese computacional tradicional, baseada nos
computadores digitais. Esta nova abordagem sustenta que os agentes cognitivos são sistemas
dinâmicos e com isto, a visão clássica de representação é modificada.
Em poucas palavras, a hipótese dinâmica, defendida por Von Gelder, é uma alternativa
empírica à hipótese computacional, hipótese esta que sustenta que os computadores digitais
podem ser vistos como agentes cognitivos, uma vez que, segundo Newell e Simon (1976), um
sistema simbólico físico possui o significado necessário para a ação inteligente. Os sistemas
digitais, portanto, são capazes de realizar computações (grosso modo, transformações de questões
44
em respostas, de inputs em outputs) sobre representações por meio de algoritmos, ou seja,
seqüências finitas de operações básicas realizadas arbitrariamente, sistematicamente, como uma
espécie de “receita”, que constituem manipulações sobre as representações do sistema.
45
Enfim, de maneira geral, o conceito de representação tal como foi apresentado no início
do trabalho mostrou-se problemático, tendendo a ser substituído ou reformulado por novas
abordagens. Entretanto, este não foi o único problema do projeto inicial das Ciências Cognitivas.
A questão da consciência também mostrou-se um problema aos sistemas cognitivistas. Vamos
abordar este ponto a seguir.
3.1.2. A Consciência
Uma definição precisa do que seria a consciência parece ainda longe de poder ser dada.
Entretanto, devemos recorrer ao nosso próprio senso comum nesta tentativa. Pode-se dizer, então,
que ser consciente é ser consciente de algo, como uma sensação ou uma paisagem ou um som
musical. Pode-se estar consciente de um sentimento. Pode-se ter consciência da lembrança de
uma experiência passada, de uma nova idéia surgida. Pode-se ainda ter a intenção consciente de
falar ou agir de determinada maneira. Em nossos sonhos, temos uma certa consciência e ao
despertarmos também estamos conscientes. Quando estamos conscientes, estamos cientes de
algo. A consciência parece mais ser uma questão de grau do que de existência. Existem, portanto,
graus diferentes de consciência.
46
precisamos estar conscientes para apresentarmos comportamento inteligente. A possibilidade de
se construir máquinas "inteligentes" sem consciência não é por ele refutada, porém Penrose não
acredita numa inteligência adequadamente simulada por meios algorítmicos.
Há razões para se acreditar numa vantagem seletiva como efeito ativo da existência da
consciência. Sabe-se que o cérebro não está diretamente ligado à consciência. Ele é capaz de
realizar operações complexas sem nenhuma intervenção da consciência. Sendo assim,
poderíamos nos perguntar por que a seleção natural permitiria o desenvolvimento de seres
conscientes quando poderia ter privilegiado apenas áreas como o cerebelo, que tornariam os seres
submetidos a mecanismos de direção inconscientes. A presença de seres com cérebros
conscientes indica que por certo deve haver alguma vantagem seletiva na existência da
consciência.
De fato, podemos sustentar que até mesmo a atividade inconsciente (que parece ser
realizada pelo cerebelo) foi em algum momento consciente, pois quando aprendemos algo,
primeiramente precisamos de nossa consciência até que a ação, uma vez aprendida, possa ser
realizada inconscientemente. Assim, a consciência seria necessária à formação de novos
julgamentos e à formulação de regras que ainda não possuímos. Seria necessária também ao bom
senso, ao entendimento, à avaliação artística. A atividade mental consciente não seria
algorítmica, ao passo que a inconsciente seria. Nesta, a consciência não seria necessária porque
estaríamos falando em processos automáticos, programados; no seguimento de regras sem pensar.
47
A intuição matemática, portanto, nos fornece uma boa prova da natureza não-algorítmica
da consciência. Uma vez provado o caráter não-algorítmico da consciência em se tratando da
formação de juízos matemáticos, com seus cálculos e a sua prova rigorosa tão imprescindíveis,
poderemos pensar que este caráter não-algorítmico da consciência se estende as demais áreas
(não matemáticas) mais gerais. Há fortes razões para se acreditar que a verdade matemática é
algo simples, algo que podemos “ver” a cada raciocínio, pois um cálculo complicado pode ser
reduzido a um princípio matemático simples. Por isso, um algoritmo não é capaz de expressar por
si a verdade matemática. Esta necessidade de “ver” a verdade matemática é uma clara implicação
de que é a consciência que está envolvida neste processo, permitindo a verificação da validade do
raciocínio matemático, através de seu caráter não-algorítmico.
E quanto aos “insights” que temos, ou seja, aqueles súbitos esclarecimentos que nos vêm
sobre determinado assunto? Serão eles produtos de nossa consciência ou do inconsciente? Uma
característica deste fenômeno é que a solução para o problema que tanto buscávamos vem a nossa
consciência inesperadamente após um longo período de árduo trabalho consciente anterior em
prol da solução. Portanto, pode-se dizer que estes lampejos de inspiração sejam produto
aparentemente do inconsciente e quando chegam à consciência são expostos à prova: se não
parecem verdade, serão logo rejeitados; se parecem, serão exploradas pela consciência. Neste
processo, nosso senso estético seria responsável por não deixar que idéias não pertinentes e não
atrativas venham a ter algum nível permanente de consciência. Resta dizer que o inconsciente e a
consciência são interdependentes. Se novas idéias fossem levantadas pelo inconsciente e não
houvesse um processo de julgamento, de nada nos adiantaria tais idéias. Do mesmo modo, sem
um eficiente processo de levantamento de idéias, não produziríamos nada novo. Estas duas
instâncias, então, trabalham juntas na formação de novos julgamentos.
48
Sabendo disto, podemos concluir que uma considerável parte do nosso pensamento consciente
não envolve a verbalização, o que torna mais difícil acreditarmos num caráter algorítmico do
pensamento.
Se admitirmos que o pensamento pode ser não-verbalizável, não há razão para não
desconfiarmos da possibilidade dos animais serem conscientes. Sabe-se que seu aparato vocal
não é adequado à fala, como o dos humanos. Entretanto, se parte do pensamento consciente pode
ser não-verbalizável, por que não admitir que os animais sejam dotados de consciência? Além
disso, já foi observado que os chimpanzés são capazes de possuir "insights" perfeitos e
indicativos de consciência, uma vez que atribuímos aos humanos que possuem um "insight" o
caráter de ser consciente.
49
mesmo o cérebro tendo percebido este estímulo e sendo capaz de responder a ele prontamente. O
que se percebe com estes dois experimentos é uma nítida defasagem da atividade ativa e passiva
da consciência, que juntas nos tiram dois segundos em relação ao tempo real dos acontecimentos.
3.1.3. A Intencionalidade
50
defender seu ponto de vista, Searle elaborou o argumento do Quarto Chinês já apresentado aqui
anteriormente, quando nos referimos à disciplina Inteligência Artificial.
Segundo Searle, o falante trancado no quarto sem nenhum conhecimento em chinês pode
ser comparado ao programa de Shank. Ambos operam por decomposição e composição de
palavras com base num script, que para a máquina seria a pequena história e para o falante o
conjunto de regras que recebe para responder as questões em chinês. Nos dois casos, as regras de
transformação são complexas, simulando os processos mentais humanos para a resolução do
problema. Programa e falante manipulam corretamente as regras de transformação e através da
análise de seus outputs poderíamos pensar que ambos compreenderam suas atividades, pois
emitiram respostas coerentes.
51
mentais, o que faz com que o código lingüístico transforme-se num conjunto de signos que possui
um significado. Percebe-se, portanto, que a intencionalidade intrínseca é essencial para que o
sistema simbólico apresente uma dimensão semântica, indispensável para que haja compreensão.
Em suma, o que Searle sustenta é que por não possuírem intencionalidade intrínseca os sistemas
simbólicos apenas associam cegamente os signos que manipulam, mas não estão de posse do seus
significado, o que impossibilita a verdadeira compreensão, seja de textos, seja do código
lingüístico.
Realmente, o simples ato de seguir regras e de gerar um “output” correto não implica em
compreensão. Este se constituiu num sério problema à pretensão da Inteligência Artificial forte,
que sustentava que um computador adequadamente programado seria uma mente. Pode-se
52
acrescentar ainda que o argumento do Quarto Chinês veio para explicitar a invalidade do Teste de
Turing, uma vez que o sistema (programa computacional “inteligente”) poderia até passar no
teste, mas isto nada provaria se ele realmente compreendeu alguma coisa. São estas questões que
examinaremos mais detalhadamente no item a seguir.
A comprovação de que uma máquina poderia pensar era um passo fundamental à IA forte,
uma vez que se isto ocorresse estaria provado que para explicarmos a capacidade humana de
pensamento nada mais seria necessário do que a postulação de princípios mecanicistas de
estruturação e operação.
53
as duas execuções? Poderíamos dizer que o aparelho de CD por reproduzir tão perfeitamente a
música é capaz de tocá-la como a orquestra o faz? Por certo, não.
Entretanto, foi algo muito semelhante a este exemplo que fez com que muitos afirmassem
que máquinas poderiam pensar. Estamos falando do Teste de Turing (1963), que muito se
assemelha ao exemplo do CD. Quando perguntado se as máquinas podem pensar, Turing
sustentou que esta pergunta não poderia ser respondida com exatidão, a menos que a
substituíssemos por "Com que freqüência as pessoas poderiam ser capazes de distinguir entre o
"output" conversacional de um computador e o de um ser humano?" (Teste de Turing). Mesmo
tendo se esquivado da questão de se uma máquina pode pensar, seu objetivo era provar que uma
máquina que passasse no teste poderia de fato pensar.
Mas mesmo que 70% ou até mesmo 90% das pessoas testadas conseguissem distinguir a
diferença entre a máquina e o homem, isto seria a prova final de que uma máquina possa pensar?
Ou representaria apenas que 70% ou 90% das pessoas testadas não conseguiram diferenciar o
"output", e apenas isso? Como podemos supor que ao termos uma máquina que realiza o que nos
seres humanos diz-se inteligente, esta máquina, por executar o mesmo, é também inteligente? A
máquina capaz de passar no Teste de Turing será capaz somente de simular o desempenho
conversacional humano. Isto não significa que ela entenda o que está dizendo numa conversa.
54
Na verdade, o objetivo dos cientistas que se opõem a isto não é proibir que vocábulos
ordinários sejam utilizados para se referirem às máquinas. O que os preocupa é que termos como
“pensamento” e “entendimento” são usados pelos pesquisadores da IA forte na mais pura
significação destas palavras. Ou seja, eles sustentam que as máquinas podem realmente pensar e
entender tal como fazemos. A intenção da Inteligência Artificial forte é justamente contradizer
nossa crença de que as capacidades de pensar e entender são exclusivas dos seres humanos. Para
a IA o desafio maior é provar que as máquinas podem realmente pensar e entender como nós
fazemos. Se os cientistas atribuíssem termos técnicos aos termos ordinários, com significados
diferentes dos que conhecemos, suas pretensões de criar máquinas que realmente pensam e
entendem estariam comprometidas.
55
ao curso da conversação mais do que às regras sintáticas. Apesar deste reconhecimento
necessário, a IA ainda comete exageros, como no caso de suas “máquinas que conversam".
Aqueles que se dedicam à análise da conversação sustentam que não há diferença entre o
uso de regras por parte dos seres humanos e por parte do processamento computacional. Contudo,
poderíamos dizer que um computador ao produzir um “output” perfeitamente ajustado às regras
conversacionais estaria legitimamente reconhecendo as exigências impostas pelo mecanismo de
revezamento de turnos de fala existente ou, ainda, a legitimidade do direito de falar distribuída
pelas regras? Por certo que não. Ao conversarmos, agimos em conformidade com as normas
sociais, entendemos que quando o outro fala precisamos calar para ouvi-lo e entendê-lo. Além
disso, não seguimos seqüências algorítmicas de conduta conversacional. Ao contrário, vamos
moldando nossa conversa de acordo com as múltiplas variáveis contextuais. Enfim, o fato do
computador responder corretamente a uma pergunta numa conversa não significa que ele tenha
entendido a pergunta feita nem que esteja plenamente convicto acerca da resposta dada; significa
simplesmente que ele está conectado a um banco de dados que lhe permitiu, por meio de sua
programação, gerar a resposta certa.
Tudo isto nos remete também a uma questão antiga já abordada aqui anteriormente. A IA
poderia muito bem admitir a imensa diferença entre o comportamento humano e o processamento
computacional, inclusive no âmbito conversacional e ficar satisfeita em utilizar sua tecnologia
avançada para apenas dedicar-se à construção de simuladores conversacionais, inspirados na
conversação humana. Mas isto não acontece. A IA não atribui a dispositivos dialógicos a idéia de
56
que sistemas que agem meramente como se estivessem seguindo regras. Ao contrário, a IA quer
mesmo desafiar a singularidade humana, inclusive no âmbito conversacional.
Não defende-se aqui uma postura hierárquica entre o homem e a máquina. Só objetiva-se
deixar bem claro que as realizações da IA são importantes, mas são trabalhos técnicos que podem
nos iludir a repensarmos a estrutura de nossas distinções conceituais mais profundas do que é
uma máquina e do que é um ser humano. Pode-se dizer que a programação de dispositivos
dialógicos de acordo com "as regras de conversação" nada provam com relação à questão de se as
máquinas "seguem regras".
Portanto, não há uma oposição cega aos avanços da análise da conversação no que diz
respeito ao desenvolvimento de sistemas simuladores da conversação humana. Mas não se pode
concordar com a visão limitada da IA forte em relação à natureza da linguagem, que seria uma
produção mecânica de proferimentos, dissociada da vida. A conversação exige mais do que
habilidades lingüísticas, mais do que um simples "seguir regras". Conclui-se, portanto, que ainda
há um imenso abismo entre as pretensões da IA forte e suas conquistas de fato.
Como veremos mais adiante, novas propostas vindas da IA forte em sua forma da Nova
Robótica, por exemplo, são ainda mais grandiosas do que as vistas aqui. Entretanto, pode-se
argumentar analogamente que suas intenções ainda estão muito longe de desafiar nossas
concepções atuais das atividades humanas.
57
4. A Questão da Interdisciplinaridade
Como vimos, pode-se dizer que as Ciências Cognitivas são compostas por seis disciplinas
(Filosofia, Psicologia, Inteligência Artificial, Lingüística, Neurologia e Antropologia), que devem
unir esforços num empreendimento interdisciplinar de investigação do conhecimento. A questão
da interdisciplinaridade nos leva a uma nova questão: a do método interdisciplinar. Vejamos
agora algumas considerações sobre o método interdisciplinar nas Ciências Cognitivas atualmente.
Não está presente na visão tradicional, a distinção clara entre observação e avaliação.
Além disso, também não notamos uma preocupação no que diz respeito às modalidades do
conhecimento ou com a análise qualitativa das informações que são coletadas e produzidas. O
observador ainda possui um papel passivo, devendo revestir-se de uma pretensa “neutralidade” ao
lidar com sua pesquisa.
Enfim, esta visão tradicional acerca do método científico está voltada à observação e à
comprovação, deixando aspectos importantes, que deveriam ser levados em conta, fora da análise
58
científica, como podemos exemplificar nos referindo aos problemas específicos da metodologia
da criação, que foram desprezados por esta abordagem, mas que são importantes para as ciências
do artificial, do design e para a tecnologia.
Na pesquisa cognitiva lidamos, como dissemos, com várias disciplinas que já possuem
seus objetivos de investigação, utilizando-se, portanto, de seus próprios métodos para alcançar
estes objetivos. Além disso, a postulação de um método único baseado na observação e na
comprovação não parece dar conta desta pluralidade dos objetivos de cada campo do saber, sendo
estritamente limitado para isto.
59
ciências sociais e nas ciências da criação que utilizam-se de processos argumentativos dentro de
seu discurso que não podem ser aplicados à generalização indutiva.
Até aqui temos nos referido ao empreendimento cognitivista como Ciências Cognitivas,
expressando o conjunto das seis disciplinas que contribuem para a tentativa de solucionar os
problemas relativos ao conhecimento. Assim, a Filosofia, a Psicologia, a Inteligência Artificial, a
Lingüística, a Neurociência e a Antropologia contribuem às Ciências Cognitivas com seus
60
próprios objetos de estudo, métodos de investigação, conceitos elaborados, ou seja, todo um
arcabouço teórico referente a um conhecimento próprio. Sendo assim, o termo Ciências
Cognitivas refere-se a uma convergência entre os cientistas destas disciplinas, que limitando-se à
área de atuação de sua própria disciplina, dedicam-se à pesquisa de temas relacionados à
cognição humana.
Entretanto, alguns cientistas sugerem que as Ciências Cognitivas dêem lugar à ciência
cognitiva. Ou seja, que os cientistas deixassem os limites de suas disciplinas e se unissem num
esforço conjunto de explorar melhor os conteúdos cognitivos específicos. Assim, as seis
disciplinas componentes das Ciências Cognitivas se uniriam formando a Ciência Cognitiva,
interessada em dedicar-se somente a desvendar as questões da cognição humana. Na verdade, isto
ainda está longe de se concretizar. O que temos hoje é uma crescente conscientização dos
cientistas destas seis áreas em atentar ao problema do conhecimento. O surgimento de uma
ciência cognitiva integrada esbarra no estabelecimento e consolidação de um método e de
questões conceituais próprias, o que ainda não aconteceu.
Portanto, quando nos referimos aqui à ciência cognitiva, o fazemos com a intenção de
mencionar um domínio integrado, que mesmo que ainda não esteja consolidado na forma de uma
disciplina, já é realidade na investigação dos processos superiores da existência humana.
61
Uma prova desta tentativa de integração pode ser dada ao nos referirmos a quatro
domínios do conhecimento que vêm tendo sua análise efetuada por um trabalho conjunto de cientistas
das várias disciplinas componentes do empreendimento cognitivista. Estes quatro domínios são: a
percepção, a imagética mental, a categorização e a racionalidade. Estes quatro esforços
interdisciplinares serão analisados a seguir.
5.1. A Percepção
Marr não concordava com o reducionismo neurológico que tratava a percepção apenas
pelo estudo do cérebro. Para ele, era necessário obter uma teoria que considerasse os problemas
reais envolvidos na percepção de objetos, bem como as possíveis soluções a este problema e sua
verificação em mecanismos específicos, que vão dos computadores ao cérebro. Seu programa,
então, abordava a percepção visual e estudava o sistema de conhecimento em geral. Optava pela
descrição simbólica da visão, deixando a percepção direta de lado e entrando, assim, no campo
das Ciências Cognitivas.
62
O programa estabelecido por Marr não deixou de receber críticas. Por exemplo, faltam
evidências neurológicas que corroborem seu modelo. Entretanto, sua maior contribuição foi
estimular a interdisciplinaridade em estudos sobre percepção visual.
Esta posição de Gibson não se adequava nem um pouco a uma visão cognitiva da
percepção. Uma forte linha de crítica a Gibson é a de Fodor e Pylyshyn. No artigo “How direct is
visual perception: some reflections on Gibson’s ‘Ecological Approach” (1981), eles lançam a
visão de sistema. Segundo esta visão, Gibson errou por não perceber que os indivíduos são
capazes de agir apropriadamente num determinado ambiente devido à capacidade que possuem
de fazer inferências sobre o que vêem e por possuírem crenças e estados intencionais dirigidos as
suas percepções. Para eles, não há informação neutra disponível àquele que percebe. Não há
como estudar a percepção sem considerar a importância das representações e da intencionalidade.
Não considerar estes aspectos foi, segundo Fodor e Pylyshyn, o erro de Gibson.
63
de conhecimento do mundo real e sugere que fenômenos gestálticos emergem da cooperação de
várias redes neurais.
Enfim, seja a visão gibsoniana ou a do sistema que revele melhor preparo para resolver os
problemas da percepção visual, o empreendimento cognitivo não está em dúvida, pois mesmo
que possamos explicar a percepção necessitando muito pouco de nosso conhecimento sobre o
mundo externo, o reconhecimento é ainda uma questão eminentemente cognitiva, necessitando,
portanto, de incursões na área das Ciências Cognitivas.
Esta questão é profundamente intrigante, pois são experiências, que por mais que sejam
significativas a um indivíduo, não estão disponíveis a outros indivíduos. Stephen Kosslyn (1980)
e sua equipe, através de uma série de experimentos engenhosos, conseguiram delinear
importantes propriedades do sistema imagético. Além disso, sustentavam a existência de uma
forma quase pictórica de representação mental chamada imagética. E esta forma de representação
mental seria tão importante quanto a proposicional.
Muitos psicólogos, porém, não aceitaram a introdução da imagética como uma forma de
representação mental. Kosslyn não se intimidou. Sustentava que as imagens possuem uma
representação superficial, que é a entidade quase pictórica da memória ativa acompanhada pela
experiência subjetiva de ter uma imagem. Seu modelo refere-se ainda a um mostrador de raios
catódicos, técnicas para formar uma imagem no mostrador e técnicas para interpretar e
transformar a informação de um mostrador deste tipo.
64
Como já foi dito, as suposições de Kosslyn receberam fortes críticas, porém a mais
significativa foi a de Pylyshyn (1984), pois os demais críticos, atacavam apenas alguns pontos do
modelo apresentado por ele, enquanto que Pylyshyn opôs-se até mesmo à existência da
imagética. Segundo ele, a cognição é computação, pois a mente calcula de modo literal. Portanto,
distingue duas explicações para o comportamento de um sistema, uma recorrendo a propriedades
externas (propriedades do mundo externo que o sistema deve representar) e outra a propriedades
intrínsecas (processos que refletem a operação de leis naturais). Para explicar melhor esta última
propriedade, Pylyshyn introduziu o termo arquitetura funcional, que refere-se a mecanismos
básicos de processamento da informação do sistema para o qual uma explicação não
representacional é suficiente.
Neste debate pode-se argumentar que Kosslyn tem a seu favor as evidências
experimentais, uma vez que Pylyshyn não conseguiu dar exemplos de processos insensíveis a
fenômenos intencionais, o que corroboraria a impenetrabilidade cognitiva.
5.3. A Categorização
Esta visão clássica sofreu forte abalo com os argumentos e dados empíricos de vários
trabalhos. Um trabalho que serviu para combater a visão clássica veio dos estudos das cores. Este
é um campo interessante de estudos porque pela física o espectro da cor é contínuo. Por isso, não
há como saber onde termina uma cor e onde começa a outra. Conclui-se, então, que o modo pelo
qual as várias culturas denominam suas cores é produto de convenções culturais.
65
Em 1970, Eleanor Rosch começou a estudar os danis da Nova Guiné, que possuíam
apenas dois termos para cor: mola (para tonalidades claras e quentes) e mili (para as escuras e
frias). Numa tarefa de nomeação de cores, ficou claro que na extremidade da curva de cores todos
concordavam na nomeação das cores mili e mola. Porém, o meio desta curva não era consensual
entre eles, pois a fronteira entre as duas cores diferia de pessoa para pessoa.
Num teste de reconhecimento, Rosch percebeu uma evidência clara contra a hipótese
clássica de Whorf: o reconhecimento de tonalidades adjacentes era igualmente eficaz, mesmo que
estas tonalidades estivessem em lados diferentes de uma linha de linguagem. Tal evidência foi
prejudicial à hipótese clássica da formação de conceitos, pois Rosch colocava que, na verdade, a
maneira pela qual nos lembramos das cores reflete mais a organização de nosso sistema nervoso
do que a estrutura de léxicos utilizada por cada cultura.
Deste modo, Rosch (1973) combate fortemente a visão clássica da categorização, pois
esta não abarca os objetos naturais (aves, por exemplo) e o domínio de inúmeros objetos. Porém,
Sharon Armstrong, Lila Gleitman e Henry Gleitman (1983) questionam se a visão natural de
Rosch pode substituir a visão clássica. Eles descobriram que a categoria número ímpar também
requer dos sujeitos um protótipo (possivelmente o número 13), assim como uma categoria
natural. Para estes autores, então, Rosch não consegue distinguir um conceito classicamente
definido de um natural. Na verdade, certos aspectos da cognição humana não são explicados por
Rosch, mas a sua visão natural descreve mais veridicamente como os indivíduos formam e
utilizam categorias.
66
Uma crítica mais forte à questão clássica de conceitos partiu dos filósofos Kripke (1972) e
Putnam (1975), que adotaram uma visão da nomeação e da classificação mais realista do que a
clássica. Segundo estes, há uma estrutura real no mundo e grande parte de nossa bagagem
conceitual está preparada para captar esta estrutura. Eles não consideram adequado definir alguns
conceitos em termos de uma lista de atributos criteriais. Nesta visão, a categoria é organizada em
torno de estereótipos que nos permitem reconhecer os componentes de uma dada categoria.
Assim, se analisamos duas laranjas, sabemos que suas estruturas são as mesmas, mesmo que as
duas não sejam exatamente iguais, pois todos os exemplares da mesma espécie natural possuem
uma propriedade estrutural em comum.
Porém, não foi fácil convencer os afastados dos embates filosóficos sobre
conceitualização que deveríamos deixar de lado listas de condições necessárias e suficientes `a
categorização (visão clássica) para aceitar objetos de espécies naturais ou definições ostensivas (o
ouro é o que é). Os familiarizados com o mundo filosófico, entretanto, acharam arriscado jogar
diversos elementos dentro da mesma categoria por causa de entidades estruturais parecidas.
67
5. 4. A Racionalidade
O último tema a ser tratado refere-se à racionalidade. Desde os gregos, o homem já era
definido como um ser racional, ou seja, ele é capaz de adotar uma forma de pensamento, que
obedece a regras e nos faz chegar a conclusões válidas ou inválidas. Portanto, se chegamos a
conclusões válidas é porque somos racionais e o caminho percorrido para isto é o que chamamos
de lógica.
As Ciências Cognitivas devem muito à lógica, pois seus primeiros cientistas adotaram um
modelo racionalista, investigando problemas lógicos. Porém, estudos cruciais de cientistas como
Johnson-Laird (1983), Daniel Kahneman e Amos Tversky (1983) indicam que muitas vezes
abandonamos a racionalidade e não invocamos nenhum cálculo lógico quando raciocinamos.
Realizando uma série de experimentos como estes, Johnson-Laird conclui que não
precisamos da lógica para raciocinarmos. O cientista cognitivo deve deter-se, portanto, na
racionalidade e também no erro humano. Sua análise sobre os problemas da lógica estende-se
também ao silogismo por ser este utilizado amplamente em nosso cotidiano.
Johnson-Laird observa que a maioria dos sujeitos tem problemas com os silogismos e não
conseguem chegar a possíveis conclusões. No nosso exemplo, concluir que os artistas são felizes
não seria tão fácil aos sujeitos. As explicações acerca dos silogismos são insatisfatórias. “Ou os
teóricos conseguem explicar os erros dedutivos, mas não conseguem explicar a racionalidade que
é exibida pelos sujeitos, ou explicam a habilidade dos sujeitos para raciocinar adequadamente em
condições ideais, mas não conseguem esclarecer os tipos de erro cometidos por sujeitos
humanos” (Gardner, 1996).
A fim de resolver este impasse, Johnson-Laird introduz a noção de modelo mental. Assim,
68
o sujeito deve criar suas representações acerca das premissas lidas. Ao representar a primeira
premissa, eles criam o modelo mental desta. Ao representarem a segunda premissa, adicionam
esta informação ao modelo mental da primeira premissa. Em seguida, estas figuras mentais
criadas são testadas, a fim de gerar a conclusão do silogismo.
69
Tversky e Kahneman concluíram que a representatividade parece ser mais levada em
conta pelos sujeitos do que a probabilidade, ou seja, diante de informações que os sujeitos julgam
representativas, há o desprezo pelo conhecimento prévio que possuem sobre probabilidade.
Assim, a representatividade da situação da pessoa que perde o avião por cinco minutos fala mais
alto do que o conhecimento prévio que os sujeitos possuem de que, na realidade, os dois
perderam seus vôos.
Desta forma, podemos perceber que ao raciocinarmos não obedecemos a uma lógica
coerente ou às leis da probabilidade. O que Tversky e Kahneman questionam é se ao
raciocinarem, sem levar em conta os princípios estatísticos ou as regras de dedução, os sujeitos
estariam errando ou se estariam procedendo validamente de acordo com sua experiência humana.
Outros filósofos, como Cherniak (1983) e Kyburg (1983), não desprezam a questão da
racionalidade e acreditam que os esforços conjuntos dos pesquisadores empíricos e dos analistas
filosóficos sejam o melhor meio de explicarmos uma nova versão da racionalidade, livre dos
pressupostos lógicos clássicos.
Chegamos ao fim da discussão acerca dos quatro esforços contemporâneos, que são
exemplares da tentativa de haver um só ciência cognitiva integrada. Nestes exemplos, é bom
lembrar, percebemos o quanto a interdisciplinaridade vem ajudando a solucionar questões
epistemológicas clássicas. Antes do advento da ciência cognitiva, por exemplo, achava-se que os
seres humanos formavam conceitos do tipo clássico e raciocinavam logicamente. Hoje, porém, os
cientistas cognitivistas, como vimos, avançaram muito nestas questões.
70
constitui um programa de pesquisa mais ou menos aceito e que traz verdadeiras inovações no
estudo do conhecimento, como veremos logo a seguir.
6. As Novas Tendências
6.1. O Conexionismo
Segundo von Neumann (1958), nestas redes de neurônios formais, um bit de informação
(a escolha entre 0 e 1) ou está ativado (1) ou não (0). A ativação de mais da metade dos neurônios
da rede define a escolha entre 0 e 1. Agindo assim von Neumann mostrou que redes redundantes
(nas quais utiliza-se muitos neurônios para se fazer o trabalho de apenas um, deixando de lado a
concepção tudo (1) ou nada (0) de um único neurônio formal, ligado ou desligado, sustentada por
McCulloch e Pitts, ao funcionarem desta nova maneira, seriam capazes de realizar cálculos
71
aritméticos confiáveis. Desta forma, percebemos que von Neumann aperfeiçoa o trabalho de
McCulloch e Pitts.
Ainda devemos mencionar o Percéptron de Frank Rosenblatt (1962), elaborado dez anos
após a publicação de McCulloch e Pitts, procurou provar que as redes neuronais destes últimos
autores podiam ser treinadas para que classificassem determinados modelos como parecidos ou
diferentes entre si. Tais redes receberam o nome de Percéptron. Aqui está, portanto, um breve
apanhado do que deveria ser o conexionismo.
72
Para os partidários desta posição, as redes conexionistas, como os sistemas técnicos e
computacionais, não se pretendem modelos de sistemas neurais, ou seja, não há concentração na
modelização neural, mas sim na modelização de processos cognitivos inspirada nos neurônios.
De acordo com esta nova teoria, podemos dizer que a principal função das redes
conexionistas é discriminar figuras, discriminação esta realizada computacionalmente. De
maneira geral, outras realizações cognitivas que não podem ser decompostas em problemas de
detecção de figuras não são abarcadas pela computação conexionista real, ainda que existam
tentativas de superação deste limite.
73
voltassem sua atenção à capacidade de auto-organização dos constituintes cerebrais, o que com
certeza não era explicitado no cognitivismo, uma vez que tal capacidade de auto-organização não
encontra espaço na lógica cognitivista.
A necessidade de atentar à auto-organização deve-se, principalmente, a duas
características do programa cognitivista: as regras seqüenciais do tratamento simbólico da
informação e a localização do tratamento simbólico. A primeira falha impôs limites radicais às
operações do sistema, especialmente quando havia grande número de operações seqüenciais. A
segunda, se explica pela alta dificuldade do sistema ao perder uma parte dos símbolos ou regras
durante a sua operação. Em contrapartida, se pensarmos num funcionamento distribuído, esta
perda não seria tão sentida, uma vez que haveria uma maior equipotencionalidade no
processamento do sistema.
Como vimos, para dar uma resposta a estes problemas temos a abordagem conexionista.
Segundo ela, o cérebro seria formado por um conjunto de constituintes simples e não inteligentes,
que semelhantemente aos neurônios, podem exprimir propriedades globais se estiverem ligados
entre si. É nesta ligação que reside um ponto importante do conexionismo, pois se dois neurônios
tentarem ativar-se em simultâneo, sua união é reforçada e em caso contrário, é diminuída.
Portanto, a configuração das ligações entre os constituintes do sistema torna-se inseparável das
transformações que sofrem durante o processamento. A ação, então, tem lugar ao nível da
conexão entre os neurônios.
74
Sendo assim, os neurocientistas utilizaram-se do programa conexionista, percebendo que
os neurônios devem ser investigados como constituintes de vastos conjuntos que atuam por
ocasião das interações cooperativas. "O cérebro é, portanto, um sistema altamente cooperativo: a
densa rede de interconexões entre elementos constituintes implica que tudo o que nela acontece,
será eventualmente uma função de todos os constituintes" (Varela, sem data).
Um último aspecto que deve ser abordado a respeito do programa conexionista refere-se à
questão dos símbolos. Se no cognitivismo os símbolos constituem um dos pilares do programa,
no conexionismo, a computação simbólica é substituída por operações numéricas. Assim, os
símbolos dão lugar a complexos esquemas de atividades entre os múltiplos elementos que
constituem a rede.
75
conexionista o sentido não está preso no interior de símbolos, mas depende do estado global do
sistema e está ligado à atividade geral de um domínio.
Os cognitivistas porém não concordam com esta tentativa de se ter uma abordagem mista,
uma vez que ela só se adequaria aos processos de baixos nível. Entretanto, os processos de alto
nível (faculdade de analisar frases, por exemplo) requerem um nível simbólico independente.
Naturalmente, o cognitivismo sentiu-se ameaçado enquanto programa já estabelecido. Porém,
sabe-se que somente a lógica dedutiva não é capaz de ser o paradigma do pensamento, uma vez
que, como vimos quando abordamos o problema da racionalidade, em muitos momentos de nossa
vida desprezamos a lógica formal para agirmos de acordo com nossas intuições individuais. Além
disso, em muitas situações a computação simbólica mostra-se muito limitada, explicitando a
necessidade de uma ajuda externa, o que seria conseguido através da abordagem mista. Esta seria
a maneira natural de conseguirmos maiores êxitos no âmbito das Ciências Cognitivas.
76
6.2. Vida Artificial
Estas são as idéias norteadoras de um novo programa de pesquisa: Vida Artificial. Esta
abordagem sustenta que em vez de tentarmos gerar uma descrição do cérebro instantaneamente,
devemos reproduzir o curso da evolução, onde do simples pode-se chegar ao mais complexo.
Para isto, deve-se construir máquinas autômatas, ou seja, máquinas capazes de gerar cópias de si
mesmas, de se auto-reproduzir. A evolução se encarregaria de fazer com que fôssemos da
máquina mais simples até aquelas mais complexas com maior capacidade computacional.
O primeiro a sustentar as idéias defendidas pela vida artificial foi von Neumann há
aproximadamente 40 anos atrás. Ele projetou um "organismo" que se reproduzia tal como um ser
vivo. A vida, segundo von Neumann, pode ser entendida como a transmissão de informação
realizada por um sistema dinâmico, capaz de se reproduzir, gerando um descendente ainda mais
complexo do que ele. Os seres vivos, portanto, eram os melhores modelos de inspiração para a
construção de sistemas artificiais cada vez mais potentes. O "organismo" de von Neumann, ao se
reproduzir, transmitia ao seu descendente uma cópia das informações que possui, garantindo que
77
este novo "organismo" também esteja apto a reproduzir-se, dando continuidade ao seu ciclo
reprodutivo. "Pela reprodução e mutação torna-se possível que os descendentes do autômata
sejam mais complexos e exibam maior capacidade computacional que seus genitores" (Teixeira,
1998). Portanto, a evolução garante um incremento gradual de complexidade às futuras
"gerações".
78
Atualmente, podemos encontrar algoritmos genéticos presentes nas tarefas de otimização,
na programação automática, no aprendizado automático e nos robôs, nos modelos econômicos,
nos modelos de sistema imunológico, nos modelos de sistemas sociais, etc. Esta larga utilização
dos algoritmos genéticos constituiu uma nova disciplina dentro das Ciências Cognitivas, a
computação evolutiva.
Afinal, pode-se dizer que a abordagem da Vida Artificial ainda não institucionalizou-se
realmente no âmbito acadêmico. Esta abordagem ainda não é plenamente conhecida pelos
biólogos, sendo examinada mais de perto pelos cientistas da computação e pelos físicos.
Entretanto, tendo em vista sua proposta e seus êxitos já alcançados, esta situação de coadjuvante
tende a mudar.
A seguir examinaremos a abordagem da Nova Robótica, uma nova proposta que nasce
dentro da Inteligência Artificial, mas opondo-se a sua concepção simbólica. Como veremos, os
argumentos e as pretensões desta nova abordagem elaborada por Rodney Brooks (1991),
desafiam toda a história evolutiva do homem.
6. 3. A Nova Robótica
79
A Nova Robótica se propõe a construir um agente autônomo, um robô móvel que deverá
interagir com seu meio ambiente, levando-se em conta fatores perceptivos e locomotivos.
O robô idealizado por Brooks possui camadas que executam atividades e são totalmente
independentes entre si. Quando há o adicionamento de mais uma camada ao robô, esta funciona
independentemente das demais e a camada anterior não terá conhecimento deste acréscimo.
Percebe-se, portanto, que há uma competição entre os comportamentos produzidos, uma vez que
não há um controle central para dar direção ao robô. Sendo assim, existe a arquitetura de
subsunção responsável por resolver os conflitos entre os comportamentos divergentes. Através
deste mecanismo, há a inibição de um comportamento em detrimento de outro. Por exemplo, se
um robô estiver indo para frente em direção à sua presa e se deparar com um obstáculo, o
comportamento “levantar a perna” inibirá o de “ir para frente”, o que possibilitará a transposição
do obstáculo. Esta composição do robô de Brooks permite uma verdadeira interação com o meio,
uma vez que ele reage a este meio sem possuir programações prévias para isto.
80
COG é constituído por um conjunto de sensores e de atuadores, responsáveis por simular
aspectos sensório-motores do corpo humano. Ele aprende nas interações com humanos e com o
meio. Além disso, COG será uma criança que terá a sua “infância artificial”. Possuirá um
mecanismo de reconhecimento facial, que lhe permitirá reconhecer sua “mãe” (a ser escolhida
entre as componentes da equipe). O que COG aprender com a experiência será previamente
programado como inato numa nova versão: COG-2 e assim sucessivamente. Assim, em alguns
anos os robôs COG terão percorrido os milhões de anos de evolução do ser humano.
A última das abordagens recentes nas Ciências Cognitivas a ser enfocada aqui é a Escola
Chilena e a sua proposta da enação. Aqui, também encontraremos fortes críticas ao cognitivismo
e ao conexionismo, bem como o convite de concebermos a cognição de uma nova maneira.
6. 4. A Enação
81
Desta forma, nesta abordagem a noção de representação não é mais aceita, uma vez que
não vivemos num mundo predefinido que pode ser facilmente representado. Se não acreditamos
na predeterminação do mundo, também não podemos acreditar em sua representação. Assim, o
conceito de representação dá lugar ao de ação. E no momento que esta abordagem desacredita o
conceito de representação, se constitui na crítica mais radical aos fundamentos das Ciências
Cognitivas.
Segundo o cognitivismo, há duas noções de representação: uma forte e uma fraca. Como
vimos, na noção fraca, a representação seria vista como uma interpretação do estado do mundo,
referindo-se somente a um caráter pragmático de utilização.
82
Já a noção forte, concebe que os sistemas cognitivos agem a partir de representações
internas. Assim, existe um mundo predeterminado e para explicar as relações entre este mundo e
nossa atividade cognitiva deve haver representações mentais no interior do sistema cognitivo.
Em suma, de acordo com a abordagem da enação a cognição seria uma ação produtiva
que faz-emergir o mundo e funcionaria através de uma rede de elementos interconectados. O
sistema cognitivo daria mostras de sucesso se se unisse a um mundo de significados preexistentes
em desenvolvimento ou se constituísse um mundo novo, assim como ocorre na evolução.
Assim, não se concebe mais a inteligência como a capacidade de resolver problemas, mas
como a habilidade de entrar num mundo já existente. Resta dizer que esta abordagem é ainda
pouco utilizada como uma alternativa à representação no estudo dos processos cognitivos.
Entretanto, vem crescendo o número de adeptos de todas as áreas a esta nova proposta. Contudo,
à enação ainda resta um lugar periférico dentro das Ciências Cognitivas.
83
7. Referências Bibliográficas
PAIVIO, A. (1966) – Latency of Verbal Associations and Imagery to Nouns Stimuli as a Function of
Abstractness and Generality, Canadian Journal of Psychology, 20, 378 – 387.
84