Ciências Cognitivas - Histórico, Dificuldades e Sucessos - Adriana Benevides Soares

Fazer download em pdf ou txt
Fazer download em pdf ou txt
Você está na página 1de 84

Ciências Cognitivas: histórico, dificuldades e sucessos

Adriana BENEVIDES SOARES


Pósgraduação IM/NCE/UFRJ
Mestrado em Psicologia – U.G.F.
Rua Manuel Vitorino 625 20748–900
Piedade Rio RJ
T: 55 21 22748407 F: 55 21 22748409
[email protected]

Resumo
As Ciências Cognitivas são um campo de reflexões contemporâneas que se interroga sobre o
funcionamento do pensamento. Examina-se a natureza do conhecimento, seus componentes, seu
desenvolvimento e sua utilização. A área das Ciências Cognitivas inclui diversas disciplinas,
principalmente a Psicologia Cognitiva, a Inteligência Artificial e a Lingüística ainda não exixtindo
concenso sobre métodos comuns. Adota-se a perspectiva de que o pensamento é uma manipulção das
representações internas do mundo externo enfatizando-se principalmente as representações internas
denominadas de modelos mentais, o que distingue esta abordagem claramente da abordagem behaviorista.
Tendem a privilegiar os processos racionais e os estudos interdisciplinares. Sendo assim, apresentaremos
neste trabalho uma perspectiva histórica de sua criação e desenvolvimento assim como também
caracterizaremos as disciplinas integrantes deste domínio de estudos apresentado as principais críticas que
tem sido feitas ao seu escopo e perspectivas atuais.

Palavras Chaves

Modelização, Representação do Conhecimento, Aquisição do Conhecimento.

1
1. Introdução

Nas últimas décadas temos assistido ao progressivo aumento do interesse dos cientistas de
diversas áreas por questões cognitivas, ou seja, questões relativas à natureza do conhecimento
humano: o que ele é, de onde ele vem e como se dá a sua representação em nossas mentes?
Tendo em vista tal interesse, nos propomos a levantar os pontos principais das ciências
cognitivas. Para isto, primeiramente abordaremos o nascimento das Ciências Cognitivas, onde
forneceremos uma rápida visão histórica deste empreendimento, que culminará numa visão mais
atual do campo. A seguir, procederemos aos pressupostos básicos das Ciências Cognitivas. Nesta
etapa, explicaremos pontos fundamentais ao campo como, por exemplo, a idéia de representação,
o computador e a interdisciplinaridade. Analisaremos também as seis disciplinas integrantes das
Ciências Cognitivas (Filosofia, Psicologia, Inteligência Artificial, Lingüística, Neurociência e
Antropologia) e seus respectivos projetos de pesquisa.

Feito isto, teremos fornecido aos leitores uma visão geral do projeto inicial das Ciências
Cognitivas. Entretanto, como todo empreendimento científico, este também recebe fortes críticas,
que duvidam de sua validade ou que discordam de algum de seus pressupostos básicos. Tais
críticas são demasiadamente importantes, pois nos permitem refletir sobre possíveis falhas no
projeto inicial das Ciências Cognitivas. Elas referem-se à idéia de representação, central no
empreendimento cognitivista, ao problema da consciência, da intencionalidade e às pretensões da
Inteligência Artificial forte.

Após a seção das grandes críticas ao campo, passaremos a uma seção igualmente
importante que discute a questão da interdisciplinaridade. Assim, abordaremos o método
científico utilizado no campo, bem como a possibilidade de haver uma só ciência cognitiva
integrada. Exemplificando a tentativa da união de esforços das diversas disciplinas cognitivistas
numa só direção, vamos expor alguns estudos integrados na área da percepção, da imagética
mental, da categorização e da racionalidade.

2
A seguir, procederemos a última seção deste artigo que abordará as novas tendências nas
Ciências Cognitivas. Estas novas abordagens surgiram a partir das críticas ao projeto inicial das
Ciências Cognitivas. Por se oporem a pontos importantes do chamado Cognitivismo estas
tendências propuseram uma nova visão da cognição humana e se uma delas se mostrar mais
indicada para explicar os processos cognitivos acabará por transformar radicalmente nosso
conhecimento atual acerca da cognição. Estas novas tendências são o Conexionismo, a Vida
Artificial, a Nova Robótica e a Enação.

Por fim, tentaremos concluir este trabalho fornecendo ao leitor algumas impressões
próprias sobre as Ciências Cognitivas: seus avanços, seus problemas, suas perspectivas de
sucesso. O futuro das Ciências Cognitivas depende em parte de um mínimo de consenso entre
seus cientistas. Contudo, seja como for, esta tentativa de desvendar os mistérios da cognição
humana tem se mostrado cada vez mais suscetível a contribuições diversas de todas as áreas
interessadas no conhecimento e, por não se fechar em sua própria especificidade, tende a crescer.

2. O Projeto Inicial das Ciências Cognitivas

2.1. O Nascimento das Ciências Cognitivas

A história das Ciências Cognitivas começa na Antigüidade Grega, onde já havia a


preocupação com a natureza do conhecimento. Num diálogo platônico, o Mênon, Sócrates
apresenta problemas geométricos a um jovem escravo e com a progressiva dificuldade dos
problemas, o rapaz se mostra confuso. Porém, através de perguntas e respostas, Sócrates
consegue extrair do jovem a resposta correta, mostrando-lhe que o conhecimento geométrico
esteve todo tempo ao seu alcance. Percebe-se, através deste exemplo, que questões sobre o
conhecimento humano, tais como: de onde ele vem, em que ele consiste e como ele é
representado na mente humana, já eram alvo de interesse para os gregos.

3
Com o passar do tempo, os pensadores ocidentais deram continuidade à especulação sobre
o conhecimento. Como exemplo podemos citar Aristóteles, Descartes, Kant e outros que lidavam
com questões teóricas e empíricas sobre o conhecimento. Atualmente, tais questões são de
interesse dos cientistas cognitivos, que assim como os gregos, se propõem a entender o que
significa conhecer algo, a entender também o que é conhecido e como o indivíduo conhece.

Na verdade, o que diferencia as questões meramente especulativas dos filósofos gregos


dos gradativos avanços dos cientistas cognitivos é a utilização de métodos empíricos nas questões
do conhecimento humano. A utilização do computador tem sido de fundamental importância para
que os modelos propostos sejam validados.

Pode-se dizer que o Simpósio Hixon, em 1948, foi um marco importante para as Ciências
Cognitivas. Este congresso reuniu grandes cientistas de várias disciplinas para discutirem sobre
os “Mecanismos Cerebrais do Pensamento”. Um dos palestrantes que mais se destacou foi o
psicólogo Karl Lashley ao falar sobre “O Problema da Ordem Serial no Comportamento”.
Trabalhando na época do Behaviorismo, Lashley criticava os pressupostos behavioristas, uma vez
que o estudo científico da mente estava sendo dificultado.

Para os behavioristas, a introspecção deveria ser abolida pelos pesquisadores interessados


numa ciência do comportamento. O método utilizado deveria ser público, de observação e não
mais subjetivo. O objeto de estudo seria o comportamento.

O behaviorismo atribuía ao ambiente o controle total da conduta dos indivíduos. Ou seja,


o princípio motor da conduta está fora do organismo, no ambiente que o cerca. Assim, não havia
lugar para o “mental” nesta nova abordagem, pois os processos mentais seriam ineficazes na
explicação do comportamento, uma vez que sua explicação estaria no ambiente externo. Em
suma, os processos mentais não controlariam a conduta dos indivíduos, mas sim o ambiente
externo a estes.

4
Lashley, entretanto, se opunha a isto, pois defendia a idéia de que os processos mentais,
na verdade, ditam um comportamento complexo e não seqüências de estímulos ambientais como
defendiam os behavioristas. Lashley também discordava da idéia de um sistema nervoso estático,
como mostrava o conceito de arco-reflexo. Na realidade, as evidências mostravam um sistema
nervoso dinâmico composto de sistemas interativos.

Por tudo o que disse e da forma como desafiou o conhecimento aceito até então, Lashley
conseguiu o apoio dos seus colegas de congresso. Pode-se dizer que este foi um dos primeiros
passos para uma nova abordagem sobre as questões do conhecimento.

Contudo, apesar dos calorosos ataques de Lashley ao behaviorismo (pelas insuficientes


respostas às questões da mente humana), a questão do método trazida pelos behavioristas não
pôde ser desprezada. Porém, o restante de sua doutrina “linha dura” mostrou-se inapropriada para
desvendar os mistérios da mente humana.

Em fins da década de 40 muitos encontros se produziam e nomes importantes como


Simon, McCulloch, Shannon, Wiener, von Neumann, entre outros, empenhavam-se em suas
questões acerca da cognição humana. Alguns destes estudiosos entenderam que seus esforços
podiam formar um novo campo do conhecimento científico, porém para que isto se efetivasse
concretamente, era necessário que houvesse consultas, encontros entre os estudiosos, a fim de
aproximá-los e uni-los num esforço comum de investigar os processos cognitivos.

Encontros como o Simpósio de Hixon, as conferências Macy, Ratio Club e Society of


Fellows foram marcos importantes às Ciências Cognitivas em formação. Na verdade, pode-se
estabelecer um consenso acerca da data de reconhecimento das Ciências Cognitivas. Pode-se
dizer que foi durante o Simpósio sobre Teoria da Informação, realizado em Massachussetts de 10
a 12 de setembro de 1956, que esta nova área foi reconhecida. Para o psicólogo George Miller,
dois artigos apresentados durante o simpósio foram particularmente importantes: o de Allen
Newell e Hebert Simon, onde desenvolviam uma “Máquina de Teoria Lógica” e o de Noam
Chomsky, onde discorda do emprego de um modelo de produção de linguagem derivado da visão

5
da teoria da informação de Claude Shannon (1938) aplicado à linguagem natural. O próprio
Miller (1956) também apresentou um artigo que atribuía à memória de curto prazo uma
capacidade de aproximadamente (+ ou -) 7 itens.

Já nos anos 60, fontes governamentais e privadas começaram a investir significativamente


no campo cognitivista, o que impulsionou os estudos nesta área. Em 1960, por exemplo, foi
criado o Centro de Estudos Cognitivos em Harvard. Tal centro permaneceu como referência da
área por vários anos.

No início dos anos 70, a Fundação Sloan entra em cena e investe nas Ciências Cognitivas,
pois via nela um campo promissor. Uma reação negativa às atividades financiadas pela Fundação
veio a partir de um relatório solicitado por ela. Neste relatório foi elaborada uma figura, um
hexágono, simbolizando a integração entre os seis campos das Ciências Cognitivas. Linhas cheias
(indicando maior interação entre estas disciplinas) ou tracejadas (indicando interações mais fracas
entre estas disciplinas) foram utilizadas para indicar as conexões entre os campos. A reação foi
negativa, uma vez que cada defensor de sua disciplina se sentiu diminuído em sua importância.
Figura 1

6
Em vista disto, uma nova versão da inter-relação das disciplinas componentes das
Ciências Cognitivas foi proposta em 1986. Desta vez, o hexágono proposto era bem mais
detalhado e completo.

Epistemologia

(e)
Psicologia Lingüística
(d
(c) )
(b)
Ciências da Ciências Sociais
Computaçã
o (a)

Neurobiologia

(a) Cibernética
(b) Neurolingüística
Figura 2 (c) Neuropsicologia
(d) Lingüística
Computacional
7
(e) Psicolingüística
Ainda assim, verificou-se que o empreendimento cognitivista era bem mais completo do
que o demonstrado no hexágono. Desta forma, foi proposto um prisma, preocupado não em
esgotar a complexidade deste campo de pesquisa, mas em esboçar as relações interdisciplinares,
ressaltando sobretudo campos de atuação (simbólico e sub-simbólico) ao invés de disciplinas.

Lingüística
1
CONHECIMENTO
I
A
Psicologi
a
Cognitiva COGNIÇÃO

Informátic
a

SÍMBOLO
S

Lingüística
2 SINAIS
(Fonética)

Tratamento
do Sinal

Neurobiologia

Eletônic
a

Figura 3

Segundo Varela (sem data), as tendências recentes do empreendimento cognitivista


apontam para a integração das abordagens que serão detalhadas mais adiante. São elas: o
cognitivismo (abordagem apoiada na idéia da representação simbólica), o conexionismo (também
chamado de abordagem da emergência) e a enação (abordagem sustentada pela Escola Chilena).

Estas três principais abordagens podem ser apresentadas em forma de mapa polar. Neste
mapa, vemos as ciências da cognição, que têm no centro o paradigma cognitivista, a proposta da
enação na periferia, e, entre ambos, o campo intermediário das idéias conexionistas. O nome dos

8
investigadores representativos aparece em cada região ao longo do raio correspondente à sua
disciplina. A seta indica o local que representa a posição de Varela.

Holland Winograd
Flores
neurociências Grossberg Smolenski
Lakoff
lingüística
Hinton Ballard

Marr Feldman
Freeman Poggio Searle

Arbi
Abeles Simon
b McCarthy Newell

Llina
s
Hubel
Wiesel Chomsk
y
John Barlow
Foldo
r
Neisser
Pylyshyn Hofstaedter

Rummelhar
d
Denne
COGNOTIVISMO t Maturan
Rosc McClelland a
h
Dreyfus
Piage Johnson
t

EMERGÊNCIA epistemologi
psicologia Rorty a
cognitiva
ENACÇÃO

Figura 4

A seguir, vamos examinar os cinco pressupostos básicos das Ciências Cognitivas (estes
pressupostos nos remetem à abordagem chamada de cognitivismo por Varela, referindo-se ao que
há de mais prototípico e estabelecido com algum grau de consenso no empreendimento
cognitivista). As representações, os computadores, a desenfatização dos aspectos emocionais, a
interdisciplinaridade e a tradição filosófica são os alicerces sobre os quais as pesquisas
cognitivistas têm se realizado.

9
2.2. Os Pressupostos Básicos das Ciências Cognitivas

Podemos levantar cinco pressupostos básicos que tentam delimitar a natureza das Ciências
Cognitivas: as representações; os computadores (estes dois, pressupostos centrais); a
desenfatização da emoção, do contexto, da cultura e da história; a crença em estudos
interdisciplinares, e as raízes em problemas filosóficos clássicos.

2.2.1. As Representações

As Ciências Cognitivas possuem como um de seus alicerces cruciais as representações


mentais. Mas o que é representação? “uma representação é uma notação ou sinal ou conjunto de
símbolos que re-presenta algo para nós, ela representa alguma coisa na ausência desta coisa;
normalmente, esta coisa é um aspecto do mundo externo ou de nossa imaginação (isto é, nosso
próprio mundo externo)” (Eysenck & Keane, 1994). É um nível de análise separado adotado
pelas Ciências Cognitivas, que pode ser situado entre o input e o output, ou seja, entre o estímulo
e a resposta. Para um cientista cognitivo, então, interessa descrever a atividade cognitiva humana
em termos de representações mentais, como o símbolo, a imagem, a idéia, etc.

Temos um exemplo de formação de representação mental quando somos desafiados a


resolver um problema comum de nosso cotidiano: como chegar a um determinado lugar que
nunca fomos antes. Por certo, elaboraremos um mapa mental (com o esquema das ruas que
devemos percorrer, as imagens das redondezas do lugar, as idéias de como chegar mais rápido
através de possíveis atalhos, etc.), que utilizando-se de nossos conhecimentos prévios sobre os
arredores do local desejado, nos ajudará a encontrar o melhor meio de chegarmos ao nosso
destino.

Desta forma, podemos entender melhor o conceito de representação, uma vez que o
problema de como chegar a um lugar novo seria um estímulo, o mapa mental faria parte dos
processos mentais que realizamos utilizando representações até que obtivéssemos a resposta, ou
seja, o trajeto que deveríamos percorrer. O nível representacional, portanto, refere-se aos

10
símbolos, imagens, esquemas, idéias (etc.) que utilizamos em nossas atividades cognitivas
diárias. Este nível representacional, entretanto, nada tem a ver com o nível neurológico, cultural
ou fenomenológico de análise do pensamento. Por postular um nível de análise separado, as
Ciências Cognitivas, como vimos, sofreram inúmeras críticas, sendo o nível representacional um
elemento carente de consenso e aceitação.

Pode-se dizer que o despertar para a noção de representação não é recente. Descartes já se
interessava por imagens, pois achava que elas seriam o primeiro meio de pensamento. Outros
pesquisadores, ao longo do tempo, também se dedicaram a estudos nesta área. Contudo, na área
behaviorista, como vimos, a idéia de representação caiu em desuso, pois, segundo eles, o que
ocorria entre o estímulo e a resposta não interessava, era uma caixa preta. A pesquisa sobre as
representações só foi retomada com o advento da abordagem do processamento da informação,
que sustenta que a ação do sujeito está determinada por suas representações e não pelo ambiente
que o cerca, como diziam os behavioristas.

Em suma, se o behaviorismo não aceitou a representação mental, preferindo falar em


estruturas neurológicas ou sobre comportamento manifesto, os cognitivistas sustentaram a idéia
de que mesmo que os processos mentais sejam representados no sistema nervoso central, há
possibilidades de se explorar as questões referentes à ciência cognitiva sem a necessidade de
conhecimentos profundos acerca da ciência do cérebro.

Existem diferentes tipos de representação que estarão permeando nossa exposição a partir
de agora, por isso, pensamos ser útil uma rápida explicação sobre os tipos de representação
existentes. Há dois tipos de representação: as representações externas e as representações
internas. As representações externas são aquelas representações que utilizamos para caracterizar
o mundo em que vivemos. São representações úteis para o dia-a-dia, como um mapa de uma
cidade, por exemplo, pois o mapa representa as ruas, as praças, as características da cidade a qual
foi elaborado para representar. Há duas classes de representações externas: as representações
externas lingüísticas e as representações externas pictóricas. As primeiras dependem de palavras
ou de outras anotações escritas. As segundas valem-se de diagramas ou de figuras.

11
A fim de explicar as diferenças entre estas duas classes de representações externas
imaginemos que devemos pensar na arrumação de mesas num salão de festas para determinado
evento social. Podemos utilizar um diagrama que represente o salão e a disposição das mesas
neste ou podemos apenas especificar por escrito a disposição destas mesas: cinco mesas ficarão
no centro do salão, dez mesas na ala esquerda, mais dez na ala direita e cinco mesas mais ao
fundo. No caso do diagrama utilizamos uma representação externa pictórica e no caso da
anotação escrita utilizamos a representação externa lingüística. Em ambos os casos as
representações apenas representam alguns aspectos do mundo, não contendo detalhes precisos
como a cor dos enfeites sobre a mesa ou a distância exata entre cada mesa. Nos dois exemplos
temos uma idéia geral de algo no mundo que estamos representando.

Podemos dizer que o diagrama da disposição das mesas num salão de festas é muito mais
capaz de captar a arrumação desejada, uma vez que podemos ter uma idéia da posição espacial
das mesas em relação ao espaço total disponível na sala. Já a descrição lingüística não pode nos
oferecer esta “prévia” da arrumação. Por exemplo, quando arrumamos a disposição das mesas
através do diagrama, as mesas já estão no lugar adequado segundo a nossa vontade. A
representação externa lingüística teria que incluir mais sentenças para representar a disposição
exata das mesas, como: as cinco mesas do centro do salão deverão estar duas lado a lado, uma à
frente destas duas, estando mais ao meio e as outras duas na frente desta última, mas na mesma
direção das duas primeiras. Como podemos perceber, as representações externas pictóricas
parecem ser mais práticas.

As representações externas são ditas analógicas, pois sua estrutura assemelha-se àquela do
mundo, ou seja, no nosso exemplo às mesas que devemos arrumar já existem, já estão no salão,
são reais. Já o sinal lingüístico não possui tal propriedade analógica, pois a relação entre o sinal
lingüístico e o que ele representa é arbitrária. Por exemplo, não há relação inerente entre o objeto
mesa e as letras “m-e-s-a”.

12
Passemos agora ao outro tipo de representação: as representações internas. Analogamente,
as representações internas, assim como as externas, também representam algum aspecto do
mundo externo ou interno a nós. Além disso, as duas classes de representações externas
encontram paralelo nas duas classes de representações mentais. As representações externas
pictóricas encontram paralelo nas representações mentais analógicas (referentes a imagens
visuais, auditivas, olfativas, tácteis ou cinéticas) e as representações externas lingüísticas
encontram paralelo nas representações mentais proposicionais (representações semelhantes à
linguagem que captam as idéias da mente).

Como características destas duas classes de representações mentais internas podemos citar
o fato de ambas lidarem com símbolos, sejam analógicos ou proposicionais. Como as
representações mentais analógicas referem-se a imagens, elas não são individuais, não possuem
regras claras de combinação, podem representar implicitamente os fatos do mundo e são
concretas, pois estão sempre ligadas a uma modalidade específica dos sentidos. Já as
representações proposicionais são individuais, explícitas, combinam-se de acordo com regras e
são abstratas. O conteúdo ideacional representado não é restrito a uma só língua nem a uma só
modalidade dos sentidos. Por isso diz-se que estas representações são mentalizações universais.
Constituem, assim, um código básico com o qual todas as atividades cognitivas propostas são
realizadas.

Imaginemos a situação na qual um gato está debaixo da cama. Se quisermos representar


esta proposição utilizaremos a seguinte notação: DEBAIXO (GATO, CAMA). As representações
internas proposicionais não lidam com palavras, mas com o conteúdo ideacional desta relação.
Portanto, debaixo é chamado de predicado e indica a relação existente entre o gato e a cama,
importando o conteúdo ideacional da palavra debaixo. Gato e cama são as entidades conceituais
ligadas pelo conteúdo ideacional da palavra debaixo. Assim acontece com todas as proposições
possíveis. Esta relação estabelecida pelos conteúdos ideacionais de nossa mente é realizada em
todas as partes do mundo em nossas atividades cognitivas diárias.

13
Estas duas classes de representações mentais internas são controversas. Alguns
pesquisadores sustentam que haveria apenas uma classe de representação mental, a proposicional,
pois as imagens poderiam ser reduzidas a representações proposicionais. Não nos ocuparemos
com este debate agora. Voltaremos a ele mais à frente, quando estivermos discutindo em detalhes
a imagética mental.

O empreendimento cognitivista também sustenta a existência de duas noções diferentes de


representação mental: uma forte e outra fraca. Na noção fraca, a representação seria vista como
uma interpretação do estado do mundo. As palavras, por exemplo, escritas num papel
representam frases. Não há referências à aquisição deste significado. Esta noção fraca de
representação refere-se somente a um caráter pragmático de utilização.

Já a noção forte concebe que os sistemas cognitivos agem a partir de representações


internas. Assim, existe um mundo predeterminado e para explicar as relações entre este mundo
devem haver representações mentais no interior do sistema cognitivo. A representação, portanto,
seria um processo passivo na medida em que apenas reconstitui propriedades predefinidas.

Este conceito de representação é um pressuposto fundamental das Ciências Cognitivas,


que muito vem sendo discutido e questionado. Abordagens recentes duvidam de sua validade e
chegam a propor sua eliminação, como veremos mais adiante. Muitas críticas vêm sendo
atribuídas à idéia de representação, o que também examinaremos mais à frente.

2.2.2. Computadores

Como vimos, foi com o advento da abordagem do processamento da informação que o


behaviorismo perdeu força e deixou de dominar o cenário científico. E foi justamente o
surgimento do computador que fez com que houvesse esta “revolução” paradigmática na
investigação do conhecimento. O processamento da informação baseia-se na concepção do ser
humano como um verdadeiro processador de informação, numa clara analogia entre a mente

14
humana e o funcionamento de um computador. Ou seja, adota-se os programas de computador
como metáfora do funcionamento cognitivo humano.

Esta metáfora computacional possui duas versões: uma fraca e outra forte. A fraca, não
sustenta uma equivalência funcional entre homem e computador, enquanto que a versão forte
defende esta equivalência entre o sistema cognitivo humano e o funcionamento do computador.
Por ser este um ponto importante para a Inteligência Artificial, ele será retomado mais adiante,
quando abordaremos detalhadamente as disciplinas componentes das Ciências Cognitivas. Serão
expostos também o processo de criação do computador e a história da Inteligência Artificial. O
que desejamos enfatizar aqui é a importância do computador para as Ciências Cognitivas, uma
vez que seja na versão fraca ou forte da metáfora computacional, o computador tornou-se um
instrumento precioso do qual as Ciências Cognitivas não podem mais prescindir.

Podemos até dizer que foi a invenção dos computadores nos anos 30 e 40 que
impulsionou a pesquisa cognitiva. Sua importância reside, então, no fato de o computador servir
de modelo do pensamento humano, além de ser um instrumento valioso no dia a dia dos cientistas
cognitivistas. Utilizando o computador, os cientistas analisam os dados obtidos em suas
experiências e tentam simular processos cognitivos nele.

O computador tornou-se tão importante para as Ciências Cognitivas que muitos dos seus
participantes concordam que a Inteligência Artificial é a sua ciência principal. Apesar das
inúmeras críticas a sua utilização, o computador mostrou-se útil na tentativa de se criar um
modelo da cognição humana. Examinaremos estas críticas mais adiante quando discutiremos as
pretensões da Inteligência Artificial.

A idéia agora era que a inteligência humana poderia se aproximar da operacionalização do


computador, ou seja, “a cognição poderia ser definida pela computação (processamento de dados)
de representações simbólicas” (Varela, sem data). O tratamento computacional, então, seria uma
operação efetuada por símbolos (elementos que representam aquilo a que correspondem),
exatamente como o processamento humano.

15
Portanto, “a cognição consiste em agir na base de representações que têm uma realidade
física sob forma de código simbólico num cérebro ou numa máquina” (Varela, sem data). Em
suma, define-se a cognição como sendo o tratamento da informação, isto é, a manipulação de
símbolos a partir de regras. Além disso, este programa sustenta também que a cognição pode
funcionar através de algum dispositivo capaz de representar e manipular elementos físicos, que
seriam identificados como símbolos. Somente os atributos físicos dos símbolos são levados em
conta pelo sistema, não seu sentido. Tal sistema cognitivo dá mostras de êxito se os símbolos
representarem corretamente os aspectos do mundo real. Assim, o tratamento da informação
conseguiria dar uma solução adequada aos problemas a que foram submetidos o sistema
cognitivo.

Em suma, o paradigma computacional adotado pelas Ciências Cognitivas foi um dos seus
grandes marcos na tentativa de desvendar os mistérios da cognição humana, na medida em que se
mostrou uma alternativa válida, deixando para trás o comportamentalismo estrito do
behaviorismo sem incorrer na vaguidade do introspeccionismo de outras épocas.

2.2.3. Desenfatização dos aspectos emocionais

Um outro aspecto das Ciências Cognitivas que recebe fortes críticas é o da desenfatização
da emoção, do contexto, da cultura, e da história. Para os cientistas da área, considerar estes
fatores tornaria o empreendimento cognitivista impraticável, uma vez que impossibilitaria a
generalização pretendida. O objetivo é primeiro conseguir representar o pensamento humano,
para então chegar à individualidade.

Os críticos porém questionam a superficialidade do trabalho, que não considera os


aspectos fundamentais da existência humana. Para estes, a investigação cognitiva deveria contar
desde o início com a inclusão destes aspectos citados, a fim de se chegar ao real modelo do
pensamento e do comportamento.

16
2.2.4. Raízes nos problemas filosóficos clássicos

O último aspecto refere-se às raízes das Ciências Cognitivas nos problemas filosóficos
clássicos. Para Gardner, seria impossível pensar nas Ciências Cognitivas sem nos remetermos a
tais problemas, uma vez que as questões levantadas desde os gregos servem de ponto de partida
às investigações da área. Porém, muitos cientistas cognitivistas não pensam assim e a
participação da filosofia nas Ciências Cognitivas ainda é discutível.

2.2.5. Interdisciplinaridade

A crença em estudos interdisciplinares é um outro aspecto do cognitivismo. Todos


parecem concordar que a fusão de todas as disciplinas interessadas na investigação do
conhecimento numa ciência cognitiva parece estar longe. Porém, para as Ciências Cognitivas é
fundamental que seus cientistas possam estar trabalhando juntos. Especialistas de diferentes áreas
colaborando uns com os outros possuem maiores chances de obterem sucesso em suas pesquisas,
contribuindo assim significativamente para esta nova área.

Podemos dizer que são seis disciplinas componentes das Ciências Cognitivas: a Filosofia,
a Psicologia, a Inteligência Artificial, a Lingüística, a Antropologia e a Neurociência. Cada uma
delas contribuiu ao estudo do conhecimento com seus métodos e objetos de estudo, nos
fornecendo diferentes visões de um mesmo fenômeno. Na próxima seção, procedemos a um
exame rápido destas disciplinas, abordando um pouco de seu processo histórico, de suas
conquistas e de suas implicações na investigação do conhecimento.

17
2.3. As Disciplinas Integrantes e seus Projetos de Pesquisa

2.3.1. A Filosofia

Como já foi mencionado, os filósofos podem ser considerados os primeiros cientistas


cognitivos, pois já se preocupavam com a representação e com questões ainda em voga nas
Ciências Cognitivas hoje. Na realidade, foram os filósofos que forneceram a agenda inicial, a
lista de questões e tópicos debatidos pelos “cognitivistas” ao longo dos tempos.

Um destes filósofos pioneiros na investigação das questões relativas ao conhecimento foi


René Descartes. Sua filosofia possuía como peça central a mente. Esta ficaria separada do corpo,
operando independentemente dele. O corpo, então, seria um autômato, que pode ser entendido
numa analogia com as máquinas feitas pelo homem, pois o corpo é divisível em partes e a
remoção de alguns de seus elementos não o alteraria em sua essência. Desta forma, Descartes
estabelece o que ficou conhecido como dualismo cartesiano, pois sustenta a existência de duas
existências distintas, uma mente racional e um corpo mecânico, que comporiam o ser humano.

Por privilegiar a mente em sua filosofia, Descartes acabou por desprezar os sentidos.
Assim como Platão, ele sustentava a existência de idéias inatas e que a mente, por ser uma
entidade raciocinadora ativa, seria o árbitro da verdade. A experiência externa não deveria ser
levada em conta, pois eram os sentidos os responsáveis pelo erro e inconstância humanos. O
conhecimento, portanto, só poderia ser alcançado através da reflexão que a mente executa acerca
de suas próprias idéias.

Esta concepção, chamada racionalista, recebeu fortes críticas dos empiristas, aqueles que
não aceitavam que o conhecimento pudesse vir da introspecção (da busca na mente). Ao
contrário, sustentaram que a experiência sensorial seria a única confiável. Assim, o conhecimento
seria alcançado através da experiência dos objetos do mundo exterior. Em suma, o homem não
nascia com idéias inatas, ao contrário, ao nascer era uma tábua rasa, que através da experiência
chegaria ao conhecimento gradativo do mundo. Para estes, os empiristas, a sensação seria a fonte

18
de conhecimentos. Filósofos, tais como Locke, Berkeley e Hume, dedicaram-se a provar os
equívocos dos racionalistas, estabelecendo um dos debates mais conhecidos da história da
ciência.

Diante do impasse estabelecido entre os racionalistas e os empiristas, encontra-se o


estudioso alemão Immanuel Kant, que procurava sintetizar essas duas posições antagônicas. Em
seus estudos, Kant admitia a necessidade do mundo sensorial concreto, externo ao indivíduo de
onde o conhecimento se origina. Tal mundo sensorial é por nós percebido através das sensações,
causadas por objetos específicos e que dependem, para serem percebidos, de nosso aparato
subjetivo. Kant destaca, então, a existência das “categorias de pensamento” necessárias a nossa
compreensão do mundo. Tais categorias seriam conceitos elementares que possibilitam a
compreensão humana, ou seja, através deles podemos ver o significado de nossas experiências.

Em fins dos anos 40, três importantes cientistas se levantaram contra as idéias concebidas
por Descartes e apoiadas pelos lógico-empiristas. São eles: Gilbert Ryle, Ludwing Wittgenstein e
J. L. Austin. Ryle, em seu livro “The Concept of Mind (1949), opõe-se ao mentalismo de
Descartes. Para ele, falar em mente é um erro categórico, pois não existe um lugar chamado "a
mente" com suas próprias localizações, eventos e assim por diante. Já Wittgeinstein, depositara
na linguagem a possibilidade de resolver os enigmas filosóficos. Para ele, mais importante que
estudar como as operações mentais “funcionam”, seria estudar os usos variados da linguagem e
suas relações com o comportamento e experiência. Para Austin, o erro dos lógicos empiristas
estava em considerar uma sentença por seu valor nominal e não levar em conta a intenção de
quem a proferiu, o contexto.

Na verdade o que Austin, Ryle e Wittgeinstein objetivavam era chamar atenção para o
fato de que a filosofia não era uma “super disciplina” que podia aventurar-se sobre todos os
campos do conhecimento. Os filósofos não possuíam meios de atacar todas as questões e por isso,
deviam limitar-se a ajudar a esclarecer alguns métodos obscuros de discussão.

19
Entretanto, para W. Quine apesar da controvérsia acerca do status da filosofia, ainda há
um papel legítimo para a epistemologia, o de estudar o sujeito humano físico, bem como as
relações estabelecidas entre os “inputs” fornecidos a este sujeito experimentalmente e a resposta
dada por ele, a descrição do mundo externo em sua visão (output). De agora em diante, segundo
Quine, não poderíamos mais tentar exaustivamente deduzir a ciência de dados sensoriais e sim,
realizar pesquisas onde os sujeitos experimentais são a chave para se descobrir como
compreendemos nossas experiências.

Já Richard Rorty, em seu livro “Philosophy and the Mirror of Nature” (1979), é muito
mais radical a propor a desconstrução ou reconstrução do pensamento filosófico ocidental.
Segundo ele, a insistência filosófica de explicar a validade daquilo em que acreditamos pelo
exame da relação entre idéias e os seus objetos é infrutífera, pois esta validade é alcançada no
processo social, na medida em que conseguimos convencer os outros de nossas crenças. Sendo
assim, se a validade de nossas crenças é alcançada na sociedade e não em processos mentais
isolados, Rorty não vê sentido no estudo da representação mental. Sobre as Ciências Cognitivas,
Rorty diz que é necessário fugir de questões filosóficas insolúveis e vê viabilidade em se estudar
as razões pelas quais experienciamos e processamos o mundo, mas não é otimista quanto aos
resultados destes estudos.

Já Putnam, sustenta que a invenção de máquinas computadoras foi um acontecimento


importante para a filosofia da mente porque conduziu à idéia de organização funcional. Com isto,
tornou-se cada vez mais evidente que tanto os seres humanos quanto as máquinas poderiam ser
capazes de realizar os processos, aos quais denominamos pensamento, bastando que as máquinas
possuíssem programas (softwares) para tal.

Nascia, então, o funcionalismo, destinado a tratar do problema mente-corpo. Daniel


Dennett dá uma contribuição importante ao introduzir a noção de sistema intencional,
objetivando descrever os fenômenos mentais. Para ele, ao lidarmos com um computador,
atribuímos a este razão e intencionalidade, tratando-o como se fosse um ser humano inteligente.
Os sistemas intencionais funcionam como ponte entre o nosso mundo e o mundo não intencional

20
das ciências físicas-padrão. Para isto, a inteligência artificial traz um auxílio, na medida em que
constrói um sistema conhecedor, que responde à questão de como o conhecimento é possível.
Enfim, as contribuições de Putnam e Dennett foram significativas para a filosofia e serviam de
auxílio para as Ciências Cognitivas, na medida em que tentavam responder questões relativas à
mente e ao corpo.

Jerry Fodor é aquele que pode melhor ser considerado um cognitivista completo. Sendo
um simpatizante da tradição cartesiana, Fodor concebia a existência de estados mentais e de
idéias inatas, opondo-se radicalmente à tradição empirista. Seu objetivo é exatamente invadir o
espaço mental para compreender como e por que fazemos nossas afirmações. Fodor opõe-se à
visão cartesiana no tocante ao dualismo mente e matéria. Como Putnam, acredita que a
constituição psicológica dos indivíduos depende de seu “software”, podendo ter o computador
crenças como nós as temos. Em relação às Ciências Cognitivas, vê a representação mental como
constituinte das atividades cognitivas. Como um funcionalista, defende a ligação entre mente e
computador como sendo mais íntima do que a relação mente e cérebro.

Conclui-se, após percorrermos este breve histórico do pensamento filosófico, que a


disciplina muito contribuiu para os avanços conquistados pela humanidade. As questões que
estabeleceu foram tão oportunas que sua validade é constatada ainda hoje, quando muitos
pesquisadores ainda tentam resolvê-las. Quanto ao clássico debate entre empiristas e
racionalistas, pode-se dizer que hoje as Ciências Cognitivas tendem a adotar uma postura mais
racionalista em relação ao conhecimento, ou seja, acredita-se num sujeito conhecedor que adquire
conhecimento através da estruturação cognitiva prévia. A filosofia atual, portanto, tende à
posição racionalista.

Outra questão relevante à filosofia atual é o seu mérito enquanto disciplina relevante em si
e ao empreendimento cognitivo. Alguns são críticos acerca da importância da filosofia, chegando
até ao ponto extremo de prever o fim da disciplina da filosofia, como sustentam os pesquisadores
da Inteligência Artificial, por exemplo. Segundo estes, o advento das explicações computacionais
do conhecimento fará com que não haja mais a necessidade de análises filosóficas.

21
Para Gardner (1996), isto não procede. A filosofia possui seu papel de disciplina
fundamental à investigação social do conhecimento garantido. É ela que define as questões
cognitivas relevantes e garante a integração das disciplinas componentes do empreendimento
cognitivo. Sendo assim, se estiver a par das descobertas científicas, a filosofia poderá auxiliar o
trabalho científico, ajudando a interpretar e estabelecer os limites (especialmente através de sua
vertente da Ética) dos avanços conquistados.

2.3.2. A Psicologia

Passemos, agora, à análise da psicologia como disciplina integrante das Ciências


Cognitivas. Porém, antes de iniciarmos esta análise, é interessante salientarmos os fatos mais
significativos desta disciplina, fazendo um breve histórico da psicologia. Podemos começar tal
estudo partindo de três linhas cruciais de pesquisa dos anos 50. A primeira de George Miller, que
em 1956 publica o artigo “O Mágico Número Sete, mais ou menos dois: algumas limitações de
nossa capacidade de processar informações”. Neste artigo Miller sustenta que o número sete
indica limitações genuínas das capacidades humanas de processamento de informação. Ou seja,
abaixo desse número, os indivíduos conseguem facilmente processar informações e acima dele,
haveria tendência ao fracasso no processamento.

A segunda linha de pesquisa crucial é a de Broadbent (1954) e Cherry (1953). Estes são os
responsáveis por dar origem à modelização dos processos humanos de pensamento. Na verdade,
foi Broadbent o primeiro psicólogo a descrever o funcionamento cognitivo com um diagrama de
fluxo. Neste diagrama, a informação era capturada pelos sentidos e colocada em um
armazenamento de curto prazo. Em seguida, a informação passa por um filtro seletivo que
bloqueia as informações indesejadas, e entra num sistema perceptivo de capacidade limitada. Daí,
a informação entra na memória de longo prazo e torna-se parte do conhecimento ativo.

A última linha é a de Jerome Bruner. Em seu livro “Study of Thinking” (1956), Bruner
aborda assuntos como classificação, categorização ou aquisição de conceitos. Seja qual for o
nome dado, Bruner está interessado em saber como uma pessoa, diante de um conjunto de

22
elementos, passa a agrupá-los em categorias confiáveis. Estes três notáveis cientistas – Bruner,
Broadbent e Miller – cada qual em uma perspectiva do estudo da cognição, têm o mérito de se
oporem ao behaviorismo, não aceitando o ostracismo em que os problemas mentais se
encontravam. Eles deram, então, um considerável impulso à Psicologia e colocaram em pauta
qual deveria ser o programa da Psicologia Cognitiva face às novas descobertas provenientes de
seus estudos.

O grande responsável pelo status de psicologia científica, com seus métodos, programas e
instituições, dado à psicologia no século XIX foi Wilhelm Wundt. Este tratou de diferenciar a
psicologia da física e da fisiologia. Wundt acreditava que a introspecção era essencial para
entendermos mais sobre estes processos mentais humanos. Pode-se dizer que a psicologia
wundtiana aparece como uma espécie de química mental, concentrada em descobrir elementos
puros do pensamento, que juntos formam a atividade mental.

Um colega de Wundt, Herman Ebbinghaus (1913), não concordou com a visão de


psicologia voltada à introspecção como única fonte de informações e propôs métodos de análise
estatística, o que realmente tornou a psicologia mais produtiva. Medindo sua habilidade para
aprender sílabas sem sentido, Ebbinghaus prioriza a habilidade de um indivíduo numa tarefa,
estudando e medindo os seus desempenhos e não, suas introspecções acerca do teste.

Um outro opositor de peso aos programas de Wundt foi o psicólogo William James
(1890). Descrente quanto a ênfase dada à introspecção, que segundo ele era totalmente
inconclusiva, James tentou entender as várias funções executadas pela atividade mental, ao invés
de priorizar os conteúdos da vida mental e a sua estruturação. Assim sendo, James funda o
movimento denominado funcionalismo, muito mais interessado em investigar as operações das
atividades mentais do que suas estruturas.

O funcionalismo, no entanto, foi logo substituído por um movimento muito mais sedutor
aos psicólogos da época, o behaviorismo. Seu fundador, o psicólogo John Watson, em, 1913
propôs o verdadeiro tema da psicologia, a saber: o exame do comportamento objetivo e

23
observável através da compreensão dos reflexos que ocorrem na parte superior do sistema
nervoso. Watson desprezou a introspecção porque não estava interessado na mente humana e sim
na previsão e controle do comportamento explícito.

A psicologia dos anos 20 aos 50 foi essencialmente behaviorista. Watson treinou os


principais psicólogos da geração seguinte. Nomes como Skinner, Spence e Thorndike foram
importantes contribuintes às idéias behavioristas. Por não considerar grande parte da importância
do comportamento humano, em meados dos anos 50, o behaviorismo enfraquece sua
abrangência, passando a possuir valor histórico. Uma vantagem pode ser vista na trajetória
behaviorista, a introdução de métodos experimentais objetivos em oposição à introspecção, que
pouco acrescentou à psicologia. A revolução cognitiva iniciada por Miller e Bruner fez com que
as idéias behavioristas fossem esquecidas.

Uma outra escola importante na história da psicologia é a Gestalt (escola que mais possui
ligação com a orientação cognitiva de hoje). O fundador deste movimento foi Marx Wertheimer,
que em 1912 publicou um artigo sobre a percepção visual do movimento. Auxiliado por Köhler e
Koffka, Wertheimer opõe-se à análise atomística anterior, puramente molecular, e demonstra que
a percepção do movimento não é a soma de diferentes sensações elementares. Para ele, é a
organização do todo que determina a forma pela qual as partes são vistas, e não o contrário, o
que, portanto, não conduz a uma visão atomística dos fenômenos estudados.

Outro que se opôs ao behaviorismo, preocupando-se com questões cognitivas, foi Jean
Piaget (1970). Estudando o curso do desenvolvimento do pensamento da criança em vários
domínios, Piaget pensa ter esclarecido as estruturas básicas do pensamento que caracterizam
crianças de diferentes idades ou estágios de desenvolvimento, e pensa, também, ter sugerido os
mecanismos que permitem a uma criança fazer a transição para estágios mais elevados de
desenvolvimento. Atualmente, porém, as sustentações de Piaget são muito atacadas. Pode-se
dizer que sua maior contribuição à psicologia foi o estudo do desenvolvimento cognitivo
humano, o que influenciou os rumos dos estudos psicológicos outrora voltados ao behaviorismo.

24
Muitos estudiosos da cognição humana foram importantes no processo pelo qual o
behaviorismo foi sendo aos poucos desacreditado. Porém, o que realmente consolidou a virada
para a cognição foi o advento dos computadores, pois estes eram capazes de exibir
comportamento de solução de problemas e o surgimento da teoria da informação, uma vez que
esta forneceu uma base objetiva sobre a qual se podia determinar os componentes da linguagem
ou dos conceitos.

Nos Estados Unidos, por exemplo, com o “renascimento” da psicologia cognitiva,


Sperling em 1960 concluiu, através de seus experimentos, que a informação apresentada ao olho
é mantida em uma memória sensorial, onde rapidamente se deteriora. Mas se a informação puder
ser acessada imediatamente, uma entrada duas vezes maior de informação será documentada.
Com esta inferência, Sperling chama atenção para a estrutura do primeiro sistema de
processamento de informação.

Em 1968, foi proposto por Atkinson e Shiffrin o famoso modelo modal. Este modelo de
memória é composto por três armazenamentos. No primeiro, há o armazenamento imediato de
um estímulo dentro do sistema sensorial adequado para este estímulo. No armazenamento a curto
prazo, as informações vindas da instância anterior ficam por um curto período de tempo. Pode-se
dizer que sua capacidade de armazenamento é de aproximadamente sete itens de informação. As
informações significativas ou muito repetidas passam ao armazenamento de longo prazo, onde
podem ficar permanentemente. Aqui, não há limites em sua capacidade. Uma informação pode
ser esquecida por um erro no armazenamento ou na busca. Esta abordagem foi submetida a
exames críticos, que fizeram com que esta abordagem modal fosse aos poucos abandonada em
detrimento de outras linhas de estudo.

Quanto à representação mental (tema crucial para as Ciências Cognitivas), a psicologia


encontrou em Shepard (1970) uma controvérsia. Para este, os cientistas cognitivos erraram em
postular que a representação proposicional seria a “língua franca” dos sistemas cognitivos. Pois é
certo que os computadores só podem transmitir informações numa única forma simbólica, mas
isso não quer dizer que os humanos também estejam limitados a isto. Shepard crê na imagética

25
mental (representação visual ou auditiva) como uma capacidade humana e desafia a crença
existente na psicologia cognitiva de apenas um modo de representação específico. Se a
comprovação da existência de mais de um modo de representação se der, com certeza a
psicologia se encontrará numa situação difícil, pois poderá haver duas ou muitas outras formas de
representação desconhecidas.

Enfim, todas as discussões psicológicas marcantes dos últimos tempos não estão aqui, o
exposto foi apenas uma pequena amostra. Com os avanços da psicologia, porém, os diversos
campos isolaram-se em suas pesquisas. Foi de Anderson (1983) a tentativa de lançar construtos
unificadores para a psicologia cognitiva. Anderson, um psicólogo com raízes na Inteligência
Artificial, desenvolveu o sistema ACT (Controle Adaptativo do Pensamento), um modelo geral
da arquitetura da cognição, que descreve o fluxo da informação dentro do sistema cognitivo. Há
um sistema de produção, acionado quando um nó da rede recebe ativação suficiente, o que
provoca uma ação (produção). Há a memória de trabalho, com a qual o sistema trabalha no
momento, a memória declarativa, que contém proposições, e a memória de produção, que
envolve as ações executadas pelo sistema, além de uma série de outros mecanismos.

Apesar de trabalhos importantes em diversas áreas, ainda não temos respostas definitivas
para muitos impasses da psicologia cognitiva. Daí decorre a necessidade de pesquisas e métodos
psicológicos eficientes para a resolução destas questões. Daí decorre, também, a necessidade da
interdisciplinaridade ao pensarmos nas Ciências Cognitivas, que necessitará da psicologia
cognitiva, da Inteligência Artificial e dos demais campos interessados nas questões do
conhecimento, de modo que os estudos unificados facilitem as investigações. Quanto à psicologia
como um todo, ela se manterá útil para questões que já vem ajudando a resolver e às demais que
virão com os progressos científicos iminentes. Na verdade, para uma disciplina que intensificou
seus esforços apenas há dois séculos (pós-Kant), a psicologia avançou impressionantemente na
compreensão do homem, de outras questões importantes e foi ela também a responsável pela
revolução cognitiva, que possibilitou o aparecimento das Ciências Cognitivas interessadas
exclusivamente na cognição humana.

26
2.3.3. A Inteligência Artificial

Uma outra disciplina componente das Ciências Cognitivas é a Inteligência Artificial (IA).
Em 1956, no campus do Dartmouth College, New Hampshire, dez jovens acadêmicos
interessados em lógica e matemática reuniram-se, a fim de discutir a produção de programas
computacionais capazes de pensar inteligentemente. Dentre eles, destacaram-se John McCarty,
Marvin Minsky, Hobert Simon e Allen Newell. Este encontro é considerado um marco para as
Ciências Cognitivas e especialmente para a IA porque consolidou-se a partir dele a disposição de
colocar em prática as especulações da geração mais velha (Wiener, von Neumam, McCulloch e
Turing), que previu os avanços, mas não conseguiu explorá-los.

Os cientistas da IA discordam sobre muitas questões, sendo o nível de consenso um


problema sério para este campo. Uma das discussões gira em torno da IA forte em oposição à IA
fraca. Na visão fraca, a criação de programas inteligentes é simplesmente um meio de testar
teorias sobre como executamos operações cognitivas. Já a visão da IA forte concebe um
computador adequadamente programado como uma mente, que compreende e tem outros estados
cognitivos. Os programas não são, portanto, apenas um meio de se testar teorias. Na verdade, as
explicações já estão neles.

Outra discussão importante é aquela travada entre os generalistas e os especialistas. Estes


dedicam-se a problemas que contêm muito conhecimento detalhado sobre um domínio
específico, porém apresentam-se deficientes em sua aplicabilidade. Os generalistas, ao contrário,
constroem programas superabrangentes, aplicáveis a maioria dos problemas. Há ainda uma outra
tensão acerca do status científico desta área, pois muitos céticos, ao analisarem a IA, têm dúvidas
sobre seu status de disciplina científica com uma base teórica.

Deve-se ressaltar que este desejo de obtermos uma inteligência artificial não é
contemporâneo, mas inicia-se com Descartes e seu interesse por autômatos que pudessem simular
o corpo humano. Já no século XIX, Babbage destacou-se pela invenção da sua máquina
diferencial, que podia em princípio tabular qualquer tipo de função e jogar xadrez, baseando-se

27
nas tabelas de diferenças dos quadrados dos números. E Boole se propôs a entender as leis
básicas do pensamento e fundamentá-las sobre princípios da lógica, que eram expressos como 1
(tudo ou verdadeiro) ou 0 (nada ou falso). Estas expressões lógicas influenciaram Whitehead e
Russell, que objetivavam demonstrar que as raízes da matemática residem nas leis básicas da
lógica. Pode-se dizer que estas contribuições foram importantes, na medida em que foram sendo
incorporadas aos trabalhos posteriores, aonde chegou-se aos programas ditos inteligentes.

Claude Shannon é um exemplo disso, pois em sua obra “Simbolic Analisys of Relay and
Switching Circuits” (1938) estava contida a idéia de Boole do sistema verdadeiro/falso. Shannon
lançou os fundamentos para a construção de máquinas que executassem operações de lógica
verdade.

Turing, como já vimos, dedicava-se a questões importantes, começando a pensar sobre a


relação entre pensamento humano e pensamento da máquina. Wiener criava a Cibernética,
investigando mecanismos de feedback na matéria orgânica e em autômatos. Finalmente, von
Neumam desenvolveu a idéia de programa armazenado, onde não havia mais a necessidade de
reprogramar a máquina a cada nova tarefa. As instruções ficariam armazenadas em sua memória
interna. Entretanto, todas estas contribuições vieram a ser efetivadas mais tarde, com os
aperfeiçoamentos de Newell, Simon, Minsky e McCarty.

Newell e Simon, com a ajuda de Cliff Shaw, criaram o Logic Theorist (LT), um programa
capaz de provar teoremas retirados dos “Principia” de Whitehead e Russell (1910-1913). Eles
criaram uma linguagem de processamento da informação a fim de resolver o problema de
adequação da linguagem do programador e da máquina. O programa apresentou mínima margem
de erro ao ser posto em prática. Seus autores insistiram que não estavam apenas demonstrando o
pensamento de um tipo genérico, mas aquele no qual os humanos se envolvem. Segundo eles, o
programa funcionava por procedimentos análogos aos empregados por solucionadores de
problemas humanos.

28
Com isso, Newell e Simon demonstraram que o computador podia desempenhar um
comportamento inteligente e que os procedimentos de resolução de problemas entre máquinas e
humanos são semelhantes. Eles foram ainda mais longe criando o Solucionador Geral de
Problemas, um programa onde os métodos podiam ser utilizados na resolução de quaisquer tipos
de problemas, imitando os processos humanos para a resolução de problemas. Este programa
funcionava pela análise de meios e fins, ou seja, a procura de métodos para reduzir a diferença
entre o lugar onde se está do lugar onde se quer chegar. Por fim, o Solucionador Geral de
Problemas foi deixado de lado por não conseguir resolver a generalidade de problemas que se
propunha. Porém, ele teve um papel importante, pois foi o primeiro a simular um espectro do
comportamento simbólico humano.

Os esforços de Newell e Simon receberam muitas críticas, uma delas é o fato do


Solucionador Geral de Problemas (1972) operar de forma lógica simbólica, o que não
compreende toda a gama de problemas humanos. Enquanto isto, Minsky orientava seus alunos,
chegando a importantes resultados. Um dos seus orientandos, Daniel Bobrow (1968), criou o
programa STUDENT para resolver aqueles tipos de problemas de álgebra presentes nos livros de
matemática do 2° Grau. O programa assumia que toda sentença era uma equação, localizando-a
de acordo com certas palavras-chaves, por exemplo a palavra por significava divisão. Desta
forma, o programa analisava a sintaxe dos problemas. Porém, se uma palavra-chave fosse
empregada com outro sentido, a resolução do problema estaria comprometida.

Já McCarty concebeu a LISP (1962) (processamento de listas), uma linguagem de


computador muito utilizada na IA. Como Newell e Simon, McCarty também dedicou-se à
produção de uma linguagem onde os pesquisadores pudessem pensar facilmente sobre a solução
de problemas e que imitasse os procedimentos humanos. A LISP atendeu tão bem aos
programadores que continua sendo usada até hoje. McCarty ainda é responsável por um sistema
de crenças e pela visão de que todo conhecimento pode ser concebido em termos puramente
lógicos, o que não atraiu muitos seguidores.

29
Já em torno de 1970, Terry Winograd criou SHRDLU, a fim de fazer com que houvesse
compreensão por parte deste programa. SHRDLU, então, era menos do que um solucionador
geral de problemas, era um especialista, que atuava num domínio extremamente limitado, mas
que demonstrava compreender as instruções dadas. Este programa atuava num domínio fictício
de blocos que podiam ser empilhados e amontoados de diversas maneiras. Um dos sinais da
compreensão de SHRDLU é o seu pedido de esclarecimento em caso de instruções ambíguas.
Apesar de suas limitações, SHRDLU foi um importante marco na história da IA por introduzir a
compreensão nos programas.

Nesta época ainda foram lançadas muitas críticas contra a IA. Hubert Dreyfus criticou
duramente a IA. Em seu livro, “What computers can’t do: A critique of Artificial Reason”
(1972), Dreyfus enfatiza as diferenças fundamentais entre seres humanos e computadores,
residindo aí os insucessos da IA, uma vez que não se pode descrever todo o comportamento
humano através de regras lógicas formais. O computador jamais poderá, segundo ele, assemelhar-
se ao homem, pois o comportamento deste é indeterminado, “a vida é o que os humanos fazem
dela e nada mais”.

Talvez a crítica mais dura feita à IA seja de Berkeley John Searle (1980). Para ele, a IA
fraca que utilizava o computador como ferramenta no estudo da mente era totalmente válida.
Porém, a IA forte que concebia o computador adequadamente programado como uma mente era o
alvo das críticas de Searle. E para demonstrá-las, ele utiliza o argumento do “quarto chinês”.
Neste quarto um indivíduo permanece trancado e recebe um grande conjunto de escrita chinesa, a
qual não compreende. Em seguida, recebe um segundo grupo de caracteres chineses juntamente
com uma série de regras para comparar com o primeiro. Por estarem na língua natal do indivíduo,
as regras lhe ensinam a correlacionar uma série de símbolos formais com outra série. Fazendo as
associações, ele consegue fornecer o conjunto certo de caracteres quando recebe um conjunto
inicial. O indivíduo recebe, também, perguntas na sua língua natal.

Searle argumenta que com a prática, este indivíduo será tão capaz de responder às
perguntas quanto um nativo da língua, mesmo sem falar uma palavra desta. Seu desempenho será

30
igual nas respostas às perguntas da língua desconhecida e às da sua própria língua. Porém, no
caso da língua desconhecida o indivíduo apenas manipula símbolos formais não interpretados
para responder às perguntas, diferentemente do que ocorre com sua língua natal. Ou seja, este
indivíduo estaria se comportando como um computador, que apenas executa operações
computacionais sobre elementos formalmente específicos. O computador, portanto, é uma
máquina para operações formais, sem conhecimento semântico, sem conhecimento do mundo
real, sem intenções a alcançar através de suas respostas. Diferentemente do ser humano, o
computador é capaz de compreender e por isso a IA forte está condenada ao fracasso.

Para Searle, ainda que se chegue perto do funcionamento do cérebro no computador, isto
não seria suficiente para produzir compreensão. Esta seria uma propriedade que provém somente
de um tipo de máquina como o cérebro humano, que é capaz de executar certos processos, tais
como ter e realizar intenções. Esta noção de intencionalidade de Searle foi bastante questionada.
Segundo Gardner (1996), toda a noção do cérebro como um sistema causal que exibe
intencionalidade é obscura e difícil de entender, e muito mais de ser exposta friamente como um
programa computacional. Este debate sobre a intencionalidade nos sistemas computacionais é de
suma importância às Ciências Cognitivas e por isso voltaremos a ele mais adiante, quando
estivermos analisando especificamente os problemas do projeto inicial das Ciências Cognitivas.

Enfim, ao encerrarmos esta breve reflexão sobre a IA, não podemos deixar de mencionar
uma tendência que aos poucos vem se confirmando: a fusão da psicologia cognitiva com a IA, a
fim de serem os componentes centrais das Ciências Cognitivas. Entretanto, estas duas disciplinas
não podem constituir sozinhas o campo das Ciências Cognitivas. A interdisciplinaridade ainda é
fundamental para o progresso do campo.

2.3.4. A Lingüística

Uma outra disciplina integrante das Ciências Cognitivas é a Lingüística, que tem como
maior representante Noam Chomsky. Em sua monografia de 1957, Syntatic Structures, Chomsky
propôs o entendimento do sistema lingüístico e a exposição das conclusões obtidas através de um

31
sistema formal, que conteria regras que explicassem a produção de qualquer sentença gramatical
correta, uma vez que estas regras não nos levariam à produção de sentenças incorretas ou
agramaticais.

O programa de Chomsky baseia-se em dois pressupostos fundamentais: o da autonomia


da sintaxe da língua em relação aos outros aspectos da língua, que para ele deve ser examinada
independentemente para que possamos entender as leis que a determinam, e o outro pressuposto
da autonomia da disciplina da lingüística em relação a outras áreas das Ciências Cognitivas, pois
para ele se a lingüística estivesse atrelada ao estudo de outras áreas cognitivas, pouco progresso
seria alcançado.

Chomsky tratou de demonstrar que as gramáticas existentes falhavam em explicar


sentenças aceitáveis. A primeira delas analisada por ele é a gramática de estado finito, onde
constatou a incapacidade desta em gerar sentenças, onde haja proposições encaixadas. Por
exemplo, na frase “O rapaz que denunciou o esquema vai fazer a denúncia amanhã”, a gramática
de estado finito não pode ligar “o rapaz” a “vai fazer a ...” por causa da oração interveniente “que
denunciou o esquema”. Este tipo de gramática também não pode lidar com inclusões de
elementos nas orações, o que apesar de ser complicado para se entender, é perfeitamente
aceitável em termos gramaticais.

A gramática estrutural também foi analisada por Chomsky, onde foi constatado que a
ênfase na forma em que as frases são construídas não pode captar as regularidades importantes de
uma língua, como por exemplo a ambigüidade, que não pode ser explicada na análise de frases
pela gramática estrutural. Esta gramática também não oferece mecanismos para a combinação de
sentenças. Por exemplo: “O circo está em Campos” e “O parque está em Campos” não unem-se
em “O circo e o parque estão em Campos”. Em suma, esta gramática não é impraticável, porém é
antieconômica e complexa, tornando-se, assim, desinteressante o seu uso.

Tendo em vista estes dois exemplos de gramáticas inapropriadas, Chomsky, inspirado em


seu professor Harris (1952), propôs a gramática transformacional. Nesta gramática há uma série

32
de regras pelas quais as sentenças podem ser relacionadas umas às outras e onde uma sentença
pode ser convertida ou transformada em outra. Ou seja, a partir de regras estruturalistas gera-se
sentenças-núcleos, que são asserções declarativas ativas curtas, por exemplo “A menina pegou a
flor”. A partir de uma setença-núcleo as outras sentenças gramaticais da língua podem ser
geradas por meio da transformação destas sentenças-núcleo. A transformação permite a
conversão de uma seqüência lingüística em outra. Por exemplo, a conversão de uma sentença
ativa em uma passiva, ou a conversão de uma expressão positiva em uma negativa ou
interrogativa. A transformação pode ainda por em evidência as ligações entre sentenças,
explicitar as diferenças entre arranjos sintáticos semelhantes e entre frases ambíguas.

Para ele, que se mostrou um cognitivista experiente, a linguagem proporcionava o melhor


modelo de como conceitualizar e estudar os processos do pensamento. A mente em sua visão, era
uma série de módulos mentais com certa independência entre si, que interagiam com outros
órgãos (este era o conceito de molaridade de Chomsky). Ele também concebia o mentalismo, ou
seja, estruturas abstratas que existiam na mente, que tornam possível o conhecimento; e o
nativismo, onde argumentava que a maioria de nossos conhecimentos é inato, universal, sem
necessitarmos de quem nos ensine tais conhecimentos. É em virtude de nossa humanidade que já
nascemos com eles. Atualmente, poucos estudiosos seguem as visões lingüísticas particulares de
Chomsky. Porém, sua influência foi tão intensa que mesmo hoje os lingüistas permanecem
inspirados em seu exemplo.

Pode-se dizer que o primeiro lingüista da época moderna foi Ferdinand Saussure (1959),
que propôs que os estudos lingüísticos voltassem sua atenção às línguas de seu próprio tempo
(lingüística sincrônica), em vez de estudarem as línguas através da história (lingüística
diacrônica). Para ele, o lingüista deve concentrar-se no estudo da língua de cada comunidade, ou
seja, estudar as regularidades do léxico, da gramática e da fonologia, que um membro da
comunidade absorve ao ser criado nela.

Nos EUA, a lingüística não foi a mesma após a influência de Leonard Bloonfield. Seu
trabalho caracteriza-se por uma oposição: de um lado desenvolver métodos e notações para o

33
estudo de línguas desconhecidas, encontrando a melhor forma de descrever seus padrões sonoros
e regularidades gramaticais. De fato, a identificação de estruturas constituintes como um meio de
análise sintática veio do importante trabalho de Bloomfield.

Edward Sapir, entretanto, opõe-se a Bloomfield, pois não desviava-se do significado em


suas análises lingüísticas e o considerava o componente essencial da linguagem. E chegou a
propor que os próprios processos de pensamento são estruturados pelas propriedades particulares
da língua que o indivíduo fala. Benjamin Whorf (1956), aluno de Sapir (1921), corroborou as
idéias do mestre propondo que até as noções mais básicas dos seres humanos são derivadas da
língua.

A gramática gerativa de Chomsky (como ficou conhecida a sua gramática) vem mudando
desde o final dos anos 60. Houve a limitação do objeto de estudo através do abandono das
tentativas de sistematização da semântica. Somente a resolução das questões da sintaxe tornou-se
o foco de seus estudos. Na abordagem atual, ele dedica-se à busca da Gramática Universal (GU),
onde a linguagem é governada por um pequeno conjunto de princípios universais, que têm
poucos parâmetros. Através de uma visão biológica, a linguagem também é vista como um
sistema que desenvolve-se dentro de uma série delimitada de maneiras. Os tipos de informação
encontrados pelo organismo no curso particular de seu desenvolvimento produzem uma
gramática central. Sendo assim, as semelhanças entre todas as línguas devem-se à gramática
universal, enquanto que as diferenças entre as línguas particulares devem-se às variações no
estabelecimento de parâmetros.

Em suma, pode-se dizer que a disciplina da lingüística foi extremamente influenciada


pelas teorias chomskianas. Sua maneira de formular questões teve significativo efeito sobre o
trabalho dos cientistas cognitivos e até mesmo sobre o trabalho daqueles que eram contrários as
suas idéias. Quanto à questão da sintaxe com autonomia diante das outras áreas da linguagem
sustentada por Chomsky, atualmente prefere-se abordar a sintaxe conjuntamente com os demais
aspectos da linguagem, a fim de que o progresso nesta área seja significativo.

34
Em relação à lingüística como disciplina componente das Ciências Cognitivas, pode-se
dizer que a multidisciplinaridade é a melhor tática para atacarmos os mistérios da linguagem. A
ciência cognitiva possui os métodos e os modelos para nos ajudar nesta investigação. O
computador, por exemplo, pode ser um poderoso aliado. Sendo assim, Chomsky é considerado
um exemplo para a ciência cognitiva porque foi ele quem moldou métodos rigorosos de análise,
especialmente da sintaxe que foi seu alvo de estudo.

2.3.5. A Antropologia

Uma das figuras que se destacaram na história deste campo foi Lucien Lévy-Bruhl e sua
análise da mente do homem primitivo. Bruhl opõe-se à concepção evolucionista adotada por seus
colegas, que concebia a sociedade ocidental como o estágio mais avançado do raciocínio, e os
primitivos como o resto do mundo que não se enquadrasse aos padrões ocidentais sendo,
portanto, inferiores. Bruhl defende que não há qualquer diferença entre os povos primitivos e
civilizados no que diz respeito a maneira de pensar e conclui que a estrutura fundamental da
mente humana é a mesma em toda parte.

Costuma-se creditar o início do estudo científico da sociedade e da cultura a Edward


Tylor. Em seu livro, Primitive Culture (1871), Tylor sustenta que a cultura e as religiões humanas
são produto de uma evolução natural das capacidades mentais humanas e criou a definição da
cultura usada até hoje, que refere-se àquele todo complexo que inclui conhecimento, crença e
qualquer outra aptidão adquirida pelo homem como membro da sociedade.

Nos Estados Unidos, Franz Boas também influenciou os rumos antropológicos.


Dedicando-se a estudar os nativos, Boas opõe-se à noção de evolução linear da cultura. Para ele,
cada cultura deveria ser estudada em termos de suas próprias práticas e não em função de outras
culturas mais ou menos avançadas, como os evolucionistas faziam. Além disso, Boas uniu a
Antropologia à Lingüística no estudo meticuloso dos diversos idiomas, desenvolvendo métodos
para a notação de línguas. Sua maior contribuição à antropologia foi ter creditado o mesmo
potencial cognitivo aos indivíduos primitivos e modernos, desconfiando da dicotomia defendida

35
amplamente entre estes. Na verdade, não há seres humanos melhores ou piores que os outros,
sendo o racismo totalmente injustificável.

Boas também exerceu influência sobre a antropologia estrutural inaugurada por Claude
Lévi-Strauss (1963), que dedicou-se a descobrir a natureza da mente humana através do estudo
das maneiras pelas quais os sujeitos classificam objetos e das maneiras pelas quais entendem os
mitos. Sobre a classificação, concebe que a atividade de classificar é a característica principal de
todas as mentes humanas, sejam primitivas ou civilizadas. Sobre os mitos, propôs uma
abordagem metodológica para o estudo estrutural do mito, dividindo-o em partes componentes e
em seguida, agrupando todas as partes que se referissem ao mesmo tema. Não é fácil explicar a
estrutura de um mito, contudo pode-se dizer que a intenção de Lévi-Strauss ao fragmentar um
mito e depois rearranjar suas partes é obter uma explicação dos temas propostos nos mitos, bem
como das mensagens implícitas neles.

Quanto a sua colaboração para as Ciências Cognitivas, pode-se dizer que ele introduziu
questões de cognição no centro das discussões antropológicas, além de ter proposto tipos de
relações sistemáticas que podem vigorar em campos diversos como o parentesco, a classificação
e a mitologia. Utilizou também as abordagens mais rigorosas da lingüística nos principais
domínios da antropologia.

O trabalho de Lévi-Strauss sofreu numerosas críticas por importar métodos da cibernética,


da teoria da informação e da lingüística. Talvez as críticas mais contundentes tenham sido as de
Clifford Geertz (1973). Para ele, Lévi-Strauss errou ao concluir prematuramente que pode-se
fazer uma analogia entre os processos humanos de pensamento e as operações de um computador
tradicional. O trabalho do antropólogo deve abranger o estudo detalhado de um dado grupo social
em seu ambiente cultural. Geertz critica, portanto, a abordagem mecanicista de Lévi-Strauss que
não leva em conta fatores essenciais no estudo de uma cultura, como os fatores históricos,
afetivos e emocionais.

36
Estudos antropológicos importantes com inspiração psicológica foram determinantes para
que certas verdades fossem estabelecidas. Michael Cole e seus colegas (1974) concluíram,
através de experiências testando as habilidades de raciocínio de indivíduos não-ocidentais e
ocidentais, que as operações fundamentais do pensamento são as mesmas em todos os lugares,
sendo os processos de pensamento utilizados de formas diferentes em cada cultura.
Diferentemente da hipótese Whorf-Sapir, Eleanor Rosch demonstrou que a língua não afeta os
processos psicológicos básicos. Estes trabalhos, entre outros, foram importantes na medida em
que demonstraram que os sujeitos de todas as partes do mundo pensam e processam informações
semelhantemente. Porém, este universalismo não torna desnecessário o estudo meticuloso das
culturas individuais. Ao contrário, os antropólogos devem registrar e explicar as enormes
diferenças no comportamento, nos padrões de pensamento e nos seus diferentes usos nas diversas
culturas. Para isto, é indispensável que os estudos de caso continuem sendo realizados com
cuidado.

Para as Ciências Cognitivas, a antropologia permanece importante na medida em que


confere uma preocupação contextual, cultural aos estudos cognitivos das representações mentais,
que tendem a ser específicos. Desta forma, o cientista cognitivo pode apoiar-se nos estudos
antropológicos sobre o pensamento humano para que a modelização deste não seja algo
mecanicista, mas leve em conta os aspectos contextuais inseridos no processo mental.

2.3.6. A Neurociência

A última disciplina integrante das Ciências Cognitivas é a Neurociência. Um dos objetivos desta
disciplina é encontrar a base neural específica do comportamento particular. E foi a esse objetivo
que Karl Lashley (1929), um proeminente neuropsicólogo americano da primeira metade do
século XX, dedicou-se. Influenciado pelo neuroanatomista Shephard Franz, Lashley estudou a
possibilidade de se atribuir comportamentos específicos a regiões específicas do cérebro.
Utilizando a técnica de ablação (destruição de certas áreas específicas do sistema nervoso através
de uma lesão cirúrgica), Lashley podia determinar quais comportamentos eram afetados pela
lesão e assim, inferir que funções são típicas desta região do cérebro afetado. Suas conclusões

37
eram claras. Ele não concordava com a questão da localização, pois para ele a crença de que o
comportamento específico reside em localizações neurais específicas era falsa, e ainda discordava
do reducionismo da época, que explicava o comportamento apenas em termos de princípios
neurais.

Em pleno domínio behaviorista, Lashley estava dizendo à comunidade científica que o


modelo estímulo-resposta por eles utilizado, como o arco-reflexo, não conseguia explicar o
comportamento. Este modelo mecanicista não podia explicar todos os comportamentos, sendo
necessário recorrer a formas de representação mais abstratas. Lashley já chamava a atenção para
a importância do mentalismo, abrindo caminho para a revolução, que posteriormente derrubaria a
hegemonia behaviorista. Atualmente, a neurociência aceita poucas de suas afirmações como
válidas. O sistema nervoso mostrou-se muito mais específico e menos equipotencial do que ele
sustentava. Porém seu tipo de trabalho questionador ainda influencia muitos neurocientistas
interessados em questões cognitivas e comportamentais.

A questão da especificidade das funções é um clássico debate da história científica.


Lashley foi um importante representante dos “holistas”, ou seja, aqueles neurologistas que
concebiam o cérebro como um órgão único altamente integrado, envolvido como um todo em
todas as atividades intelectuais e não suscetível de comportamentos específicos por lesões
discretas. Para estes, opositores radicais do localizacionismo, a perda do pensamento abstrato e
de outras funções era conseqüência do tamanho da lesão e não do local desta.

Diante deste impasse entre duas posições antagônicas, o melhor meio de se obter
progressos neste campo seria uma tentativa de fusão entre estes dois pontos de vista distintos, o
localizacionismo e o holismo. Foi justamente isto que Donald Hebb (1949) fez. Segundo ele,
quando se analisa o começo da vida, percebe-se um certo localizacionismo, uma vez que as
percepções simples dependem de conjuntos específicos de células. Com o passar do tempo,
durante o desenvolvimento, reuniões de células e seqüências de fases mais complexas são
formadas, que são capazes de participar de vários tipos de comportamento. Durante o
desenvolvimento, Hebb enfatiza o ponto de vista holista. Na verdade, não podemos reduzir as

38
explicações de Hebb a uma marcha da localização ao holismo, pois se analisarmos outros
aspectos, a seqüência pode ser inversa. Sua grande contribuição foi adotar uma postura
intermediária entre a localização e o holismo.

Foi através dos pesquisadores David Hubel e Torsten Wiesel (1979), no final dos anos 50,
que chegamos à grande parte dos conhecimentos atuais sobre localização. Ganhadores do Prêmio
Nobel de Medicina por este trabalho, Hubel e Wiesel documentaram dois fenômenos
importantes: que células específicas do córtex visual respondem a formas específicas de
informação do ambiente e que certas experiências iniciais são cruciais para o desenvolvimento do
sistema nervoso.

Roger Sperry (1974) dividiu com Hubel e Wiesel o Prêmio Nobel de Medicina em 1981
devido a sua documentação do funcionamento dos dois hemisférios. Sperry realizou uma
cirurgia, onde as duas metades do cérebro de indivíduos sofrendo de epilepsia intratável foram
desligadas. Desta forma, ele pôde estudar as duas metades do cérebro separadamente. Em seus
testes, Sperry verificou que o hemisfério esquerdo é o dominante para linguagem e outras funções
conceituais e classificatórias, e o hemisfério direito é o responsável por funções espaciais e para
outras formas refinadas de discriminação, o que não deixa de ser um ponto de vista
localizacionista, porém, Sperry também levantou as evidências holistas. Para ele, o hemisfério
direito de pessoas destras se mostrou muito mais capaz de exibir um funcionamento lingüístico
do que se pensava. Além disso, quanto mais jovens fossem os pacientes operados, maiores eram
as chances destes revelarem capacidade bem desenvolvidas em ambos os hemisférios.

Com isto, Sperry indicou que há uma nítida plasticidade no sistema nervoso imaturo. Ou
seja, quanto mais cedo ocorrer o trauma, maior a probabilidade de que a pessoa se mostre capaz
de realizar a função desejada, independentemente do local da lesão. Sabe-se que mesmo que o
indivíduo perca todo o hemisfério esquerdo, no primeiro ou segundo ano de vida, ainda assim
aprenderá a linguagem. Porém, se o dano ocorresse após a adolescência, a recuperação da
linguagem seria bem menor.

39
Deve-se considerar também que o fato de sofrer uma lesão no cérebro quando se é mais
jovem, explorando a plasticidade deste estágio de desenvolvimento para se recuperar, não é
decisivo. Às vezes, uma lesão na infância não manifesta nenhum déficit de curto prazo, mas de
longo prazo seu efeito é sentido. Além disso, quando uma área de cérebro assume uma função
adicional por causa de uma lesão, seu desempenho pode não ser satisfatório.

Atualmente, o debate entre holistas e localizacionistas não é tão intenso. Os


neurocientistas voltaram-se ao estudo minucioso de sistemas específicos em organismos
específicos. O conhecimento acerca destes sistemas contribuirá às discussões mais gerais da base
neural da cognição.

Em suma, no que tange à questão da neurociência como disciplina componente das


Ciências Cognitivas são vários os rumos desta discussão. Por ser esta disciplina muito semelhante
às ciências naturais e sua intenção de explicar fenômenos no nível mais elementar possível, há
muito reducionismo entre os cientistas, ou seja, a realização de experimentos neurocientistas é
válida por si só, não necessitando de incursões em outras áreas disciplinares. Isto não se sustenta,
pois não se pode ter uma teoria adequada sobre nada que o cérebro faz se não temos uma teoria
adequada sobre esta atividade em si. Conhecer todas as conexões cerebrais envolvidas na
formação de conceitos não nos garantirá a compreensão sobre o que é um conceito.

A neurociência, então, pode ser vista como uma espécie de fronteira inferior das Ciências
Cognitivas. Quando tratarem de fenômenos que não se referirem ao nível representacional, os
neurocientistas não estarão no campo cognitivo. Porém, quando estiverem atuando em domínios
formais mais complexos de atividade mental deverão recorrer às questões representacionais e às
demais disciplinas cognitivas, a fim de que juntos possam achar respostas para as diversas
questões que povoam a mente dos nossos cientistas cognitivistas atuais. A interdisciplinaridade é
o melhor começo para encontrarmos as soluções tanto desejadas.

40
Outro meio de resolvermos os problemas do empreendimento cognitivista é atentarmos às
críticas que este vem recebendo. Sendo assim, procederemos com o exame de alguns pontos
acerca das questões controversas dentro das Ciências Cognitivas.

3. As Grandes Críticas

O empreendimento cognitivista não está imune às críticas. Como vimos no início da


exposição, os pressupostos básicos das Ciências Cognitivas foram contestados, como o conceito
de representação mental e a questão do computador. Além disto, outros temas envolvidos neste
estudo também são seriamente criticados, como a questão da consciência e da intencionalidade.
Faz-se necessário, portanto, o aprofundamento destas questões, que nos fornecerá as linhas gerais
do debate atual acerca dos pontos controversos desta ciência.

Seguimos, então, com uma discussão sobre representação mental. Como sabemos, este é
um pressuposto básico das Ciências Cognitivas muito criticado atualmente. Em seguida,
observaremos alguns pontos importantes sobre a consciência e seu lugar neste empreendimento,
assim como o problema da intencionalidade. E por fim, examinaremos as pretensões da
Inteligência Artificial, em relação à idéia sustentada de que as máquinas podem realmente
“pensar” e “entender”.

3.1. A Representação, a Consciência, a Intencionalidade e as Pretensões da


Inteligência Artificial

3.1.1.A Representação

Como sabemos, o conceito de representação refere-se “aos estados mentais que contém
em si mesmos o objeto a que se referem, quer esse objeto esteja diante de mim, quer não, e é isso
que os dota daquilo que chamamos de “intencionalidade” ” (Abrantes, 1994). Desta forma, em
sua noção forte, existe um mundo predeterminado que só pode ser entendido com o auxílio das

41
representações mentais, que se encarregariam de ser o elo entre o mundo exterior e a nossa
atividade cognitiva.

Esta concepção de representação mental não ficou imune às críticas. Destacaremos aqui
algumas delas. Primeiramente, podemos citar a crítica filosófica à noção de representação
empregada para explicar a cognição. Esta noção de representação sustentada pela Inteligência
Artificial simbólica (leia-se cognitivismo) é herança cartesiana. Descartes já postulava a
caracterização da mente como algo separado do mundo. A função da representação, então, seria
justamente recuperar este mundo do qual a mente está separada. Mas para isto, a representação
também não poderia estar no mundo. Para ser um espelho dele, ela deveria estar ausente. A
mente, então, seria imaterial e conteria representações voláteis. O mental era encarado como uma
espécie de "fantasma da máquina", algo que não se pode ver ou tocar, mas que seria responsável
pela consciência e pelo significado (intencionalidade) que as representações viessem a ter.

Da mesma forma, a concepção atual de representação esbarra no problema da


intencionalidade: por mais que as máquinas façam, elas nunca serão conscientes do que fazem e
por isso seus estados mentais não possuem intencionalidade. Este é um problema crucial para a
computação simbólica, pois por mais complexa que seja a manipulação simbólica, os símbolos
não se referem a algo no mundo, não possuem intencionalidade.

Uma outra crítica à questão da representação vem de Francisco Varela. Segundo este
autor, não há porque sustentar a existência de um mundo predeterminado. Ao contrário, somos
nós que criamos o mundo em nossa interação cotidiana. A ação, portanto, precederia o próprio
aparecimento da representação. Não estamos fora do mundo, mas nele. Por isso, não precisamos
de representação, pois é a nossa ação que nos faz entender o mundo, na medida em que o
conhecimento advém do fato de estarmos num mundo inseparável de nosso corpo, de nossa
linguagem e de nossa história social.

Tomemos como exemplo o caso da visão. Segundo Varela (sem data), diante da pergunta:
o que apareceu primeiro, o mundo ou a imagem?, a resposta não precisaria recorrer a aspectos

42
representacionais do mundo, uma vez que mundo e imagem se definem mutuamente. Sendo
assim, é a atividade cotidiana da vida que vai modelando nosso mundo, tendo em vista a
perspectiva perceptiva, determinada, então, por aspectos internos e externos ao mesmo tempo.
Em suma, nosso mundo vai surgindo, não está pronto, dado, não está predefinido e nem poderia,
pois é a interação humana que modela o mundo. Varela, portanto, opõe-se ao caráter passivo da
representação de um mundo predefinido, onde só nos resta reconstituir propriedades predefinidas.
Esta crítica, efetuada por Varela, vem da Escola Chilena, que a partir dela lança uma nova
proposta às Ciências Cognitivas: a da enação. Esta nova abordagem será analisada em detalhes a
seguir.

Uma outra crítica à representação mental vem de Rodney Brooks (1991). Segundo este
autor, o cognitivismo errou ao utilizar a estratégia top-down (de cima para baixo) na investigação
do conhecimento. Ou seja, sustentava-se uma equiparação entre representação e cognição, entre
pensamento simbólico e inteligência. Partindo desta idéia, houve uma concentração de esforços
nas atividades humanas superiores para, então, passarmos à tentativa de simular as atividades
mais básicas.

Brooks opõe-se à estratégia top-down, pois, segundo ele, não podemos equiparar cognição
e inteligência à representação e ao pensamento simbólico. Além disso, esta estratégia não se
mostra eficaz na simulação das atividades mais básicas. Na verdade, para produzirmos
comportamentos inteligentes não precisamos de representações. Por isso, a simulação da
inteligência deve partir das atividades mais básicas, aquelas que não necessitam de
representações. Brooks lança, portanto, a idéia de que a cognição seria um fenômeno tardio na
ordem vital, mas não essencial para que haja inteligência. Sua estratégia é botton-up (de baixo
para cima), pois a simulação do comportamento inteligente partiria de atividades menos
complexas. A cognição, afinal, teria início na interação organismo-meio ambiente e não com a
representação mental. Estas idéias de Brooks darão início à Nova Robótica, uma nova
abordagem dentro das Ciências Cognitivas.

43
Em suma, como veremos mais adiante quando analisarmos as novas tendências das
Ciências Cognitivas, a idéia de representação como sustenta o cognitivismo vem perdendo força.
Ou ela é completamente eliminada das novas propostas ou, então, é reformulada. O
conexionismo, por exemplo, concebe a idéia de representação como a ação de estabelecer
relações entre as unidades da rede conexionista. Tais relações podem ser expressas na forma de
um conjunto de equações. Percebe-se que no conexionismo o ato de representar nada tem a ver
com um nível abstrato ou simbólico. Ao contrário, a representação depende do hardware que a
produz.

Sendo assim, há dois tipos de representação no conexionismo: as representações locais e


as distribuídas. No primeiro tipo, as unidades têm interpretações bem definidas, como por
exemplo, uma determinada unidade que é ativada somente pelo input “cor verde”, ou seja, tal
unidade pode ser interpretada como significando “verde”. No segundo tipo, há várias unidades
cruciais e a interpretação somente ocorre se atentamos ao seu conjunto. Por exemplo, uma
unidade pode fazer parte de diversas representações. Assim, a ativação pode se dar quando o
verde está presente, mas também quando o amarelo está. O conexionismo também será abordado
em mais detalhes mais adiante.

Por fim, abordaremos agora a Hipótese Dinâmica sustentada por Von Gelder (19XX), na
qual o conceito tradicional de representação também encontra restrições. Segundo este autor,
recentemente temos acompanhado o aumento do interesse dos cientistas cognitivistas pelos
sistemas dinâmicos em detrimento da hipótese computacional tradicional, baseada nos
computadores digitais. Esta nova abordagem sustenta que os agentes cognitivos são sistemas
dinâmicos e com isto, a visão clássica de representação é modificada.

Em poucas palavras, a hipótese dinâmica, defendida por Von Gelder, é uma alternativa
empírica à hipótese computacional, hipótese esta que sustenta que os computadores digitais
podem ser vistos como agentes cognitivos, uma vez que, segundo Newell e Simon (1976), um
sistema simbólico físico possui o significado necessário para a ação inteligente. Os sistemas
digitais, portanto, são capazes de realizar computações (grosso modo, transformações de questões

44
em respostas, de inputs em outputs) sobre representações por meio de algoritmos, ou seja,
seqüências finitas de operações básicas realizadas arbitrariamente, sistematicamente, como uma
espécie de “receita”, que constituem manipulações sobre as representações do sistema.

Ao contrário, a hipótese dinâmica baseia-se na afirmação de que os agentes cognitivos são


sistemas dinâmicos. Estes sistemas são formados por variáveis numéricas, sendo dotados,
portanto, de propriedades quantitativas. Dizemos que um sistema é quantitativo quando há nele
distâncias em seu estado ou tempo, distâncias estas que influem em seu comportamento. Um
exemplo de sistema dinâmico é a rede conexionista, que será abordada em detalhes quando nos
referirmos ao programa de pesquisa conexionista.

Há dois componentes principais na hipótese dinâmica: a hipótese da natureza e a hipótese


do conhecimento. A primeira sustenta que os agentes cognitivos são dinâmicos e a segunda
sustenta que os agentes cognitivos podem ser entendidos dinamicamente. Quanto à questão da
representação, podemos dizer que enquanto a hipótese computacional atribui às representações
internas a capacidade do sistema de exibir performances cognitivas satisfatórias, a hipótese
dinâmica concebe as representações de forma distinta, sendo apenas mais uma entidade que
aparece nesta teoria. Com as promissoras perspectivas de aumento da capacidade matemática nos
modelos dinâmicos, é de se esperar o surgimento de formas exóticas de representação, bem
diferentes das da antiga abordagem.

Na verdade, os sistemas dinâmicos não são essencialmente representacionais. Muitos


cientistas desta abordagem chegam mesmo a considerar a idéia de representação como um
impedimento aos sistemas dinâmicos, pois a única razão de se postular a necessidade de
representações para que houvesse atividade cognitiva foi a incapacidade de se demonstrar um
sistema não representacional que exibisse performances cognitivas satisfatórias. Com o advento
dos sistemas dinâmicos, tais sistemas não representacionais podem vir a ser modelados e
construídos, sem que haja necessidade da intervenção representacional no processamento
cognitivo. Contudo, esta nova abordagem vem sendo criticada justamente por não esclarecer
exatamente como isto seria possível.

45
Enfim, de maneira geral, o conceito de representação tal como foi apresentado no início
do trabalho mostrou-se problemático, tendendo a ser substituído ou reformulado por novas
abordagens. Entretanto, este não foi o único problema do projeto inicial das Ciências Cognitivas.
A questão da consciência também mostrou-se um problema aos sistemas cognitivistas. Vamos
abordar este ponto a seguir.

3.1.2. A Consciência

Um dos problemas relevantes do projeto inicial das Ciências Cognitivas é a questão da


consciência. Os sistemas simbólicos supostamente encarados como “mentes” não se mostraram
capazes de simular a consciência, uma vez que eles não refletem sobre suas próprias atividades,
não têm noção de sua existência. Entretanto, para a abordarmos melhor o problema da
consciência nas máquinas, precisamos primeiramente entender melhor o papel da consciência. O
que significa estar consciente? Será que apenas o homem é capaz de apresentar consciência?
Estas são algumas perguntas que Penrose (1997) tentou responder. É preciso saber se a mente
consciente funciona como um computador, pois só isto facultaria sua reprodução na máquina.

Uma definição precisa do que seria a consciência parece ainda longe de poder ser dada.
Entretanto, devemos recorrer ao nosso próprio senso comum nesta tentativa. Pode-se dizer, então,
que ser consciente é ser consciente de algo, como uma sensação ou uma paisagem ou um som
musical. Pode-se estar consciente de um sentimento. Pode-se ter consciência da lembrança de
uma experiência passada, de uma nova idéia surgida. Pode-se ainda ter a intenção consciente de
falar ou agir de determinada maneira. Em nossos sonhos, temos uma certa consciência e ao
despertarmos também estamos conscientes. Quando estamos conscientes, estamos cientes de
algo. A consciência parece mais ser uma questão de grau do que de existência. Existem, portanto,
graus diferentes de consciência.

A questão da inteligência também se faz importante neste âmbito. O cognitivismo se


ocupa com a questão da inteligência, deixando de lado a questão "nebulosa" da consciência.
Entretanto, segundo Penrose, a inteligência parece ser dependente da consciência, uma vez que

46
precisamos estar conscientes para apresentarmos comportamento inteligente. A possibilidade de
se construir máquinas "inteligentes" sem consciência não é por ele refutada, porém Penrose não
acredita numa inteligência adequadamente simulada por meios algorítmicos.

Há razões para se acreditar numa vantagem seletiva como efeito ativo da existência da
consciência. Sabe-se que o cérebro não está diretamente ligado à consciência. Ele é capaz de
realizar operações complexas sem nenhuma intervenção da consciência. Sendo assim,
poderíamos nos perguntar por que a seleção natural permitiria o desenvolvimento de seres
conscientes quando poderia ter privilegiado apenas áreas como o cerebelo, que tornariam os seres
submetidos a mecanismos de direção inconscientes. A presença de seres com cérebros
conscientes indica que por certo deve haver alguma vantagem seletiva na existência da
consciência.

De fato, podemos sustentar que até mesmo a atividade inconsciente (que parece ser
realizada pelo cerebelo) foi em algum momento consciente, pois quando aprendemos algo,
primeiramente precisamos de nossa consciência até que a ação, uma vez aprendida, possa ser
realizada inconscientemente. Assim, a consciência seria necessária à formação de novos
julgamentos e à formulação de regras que ainda não possuímos. Seria necessária também ao bom
senso, ao entendimento, à avaliação artística. A atividade mental consciente não seria
algorítmica, ao passo que a inconsciente seria. Nesta, a consciência não seria necessária porque
estaríamos falando em processos automáticos, programados; no seguimento de regras sem pensar.

Utilizando um exemplo matemático, podemos dizer que quando realizamos um cálculo,


não confiamos nos algoritmos que possuímos sem dispensarmos atenção conscientes a eles. Por
exemplo, podemos estar treinados a fazer contas de multiplicação. Entretanto, sempre conferimos
com cuidado os resultados, muitas vezes refazendo a conta se o resultado nos parecer estranho.
Ou seja, mesmo quando já possuímos regras algorítmicas, aparentemente ditadas pelo cerebelo,
que nos informam como fazer algo, volta e meia precisamos da nossa consciência para
verificarmos a verdade e a adequação destas regras às atividades por nós desempenhadas.

47
A intuição matemática, portanto, nos fornece uma boa prova da natureza não-algorítmica
da consciência. Uma vez provado o caráter não-algorítmico da consciência em se tratando da
formação de juízos matemáticos, com seus cálculos e a sua prova rigorosa tão imprescindíveis,
poderemos pensar que este caráter não-algorítmico da consciência se estende as demais áreas
(não matemáticas) mais gerais. Há fortes razões para se acreditar que a verdade matemática é
algo simples, algo que podemos “ver” a cada raciocínio, pois um cálculo complicado pode ser
reduzido a um princípio matemático simples. Por isso, um algoritmo não é capaz de expressar por
si a verdade matemática. Esta necessidade de “ver” a verdade matemática é uma clara implicação
de que é a consciência que está envolvida neste processo, permitindo a verificação da validade do
raciocínio matemático, através de seu caráter não-algorítmico.

E quanto aos “insights” que temos, ou seja, aqueles súbitos esclarecimentos que nos vêm
sobre determinado assunto? Serão eles produtos de nossa consciência ou do inconsciente? Uma
característica deste fenômeno é que a solução para o problema que tanto buscávamos vem a nossa
consciência inesperadamente após um longo período de árduo trabalho consciente anterior em
prol da solução. Portanto, pode-se dizer que estes lampejos de inspiração sejam produto
aparentemente do inconsciente e quando chegam à consciência são expostos à prova: se não
parecem verdade, serão logo rejeitados; se parecem, serão exploradas pela consciência. Neste
processo, nosso senso estético seria responsável por não deixar que idéias não pertinentes e não
atrativas venham a ter algum nível permanente de consciência. Resta dizer que o inconsciente e a
consciência são interdependentes. Se novas idéias fossem levantadas pelo inconsciente e não
houvesse um processo de julgamento, de nada nos adiantaria tais idéias. Do mesmo modo, sem
um eficiente processo de levantamento de idéias, não produziríamos nada novo. Estas duas
instâncias, então, trabalham juntas na formação de novos julgamentos.

Podemos dizer também que o pensamento criativo não é verbalizável como


freqüentemente se pensa. Quando pensamos, portanto, não o fazemos em termos de palavras, mas
sim de imagens visuais e de conceitos não-verbais. O raciocínio matemático, por exemplo, parece
não envolver as palavras. Parte disto se deve à dificuldade de se traduzir em palavras os conceitos
necessários. Já o pensamento filosófico, parece ser muito mais verbalizável do que o matemático.

48
Sabendo disto, podemos concluir que uma considerável parte do nosso pensamento consciente
não envolve a verbalização, o que torna mais difícil acreditarmos num caráter algorítmico do
pensamento.

Se admitirmos que o pensamento pode ser não-verbalizável, não há razão para não
desconfiarmos da possibilidade dos animais serem conscientes. Sabe-se que seu aparato vocal
não é adequado à fala, como o dos humanos. Entretanto, se parte do pensamento consciente pode
ser não-verbalizável, por que não admitir que os animais sejam dotados de consciência? Além
disso, já foi observado que os chimpanzés são capazes de possuir "insights" perfeitos e
indicativos de consciência, uma vez que atribuímos aos humanos que possuem um "insight" o
caráter de ser consciente.

Quanto à questão da ação consciente, podemos dizer que há um livre-arbítrio inerente à


atividade consciente. Tal afirmação contrapõe-se ao determinismo da física, que sustenta uma
previsibilidade irrevogável para as ações de um sistema, uma vez conhecidos seus fundamentos.
Seu comportamento já estaria pré-determinado pelas leis físicas. Isto implica em dizer que
haveria um elemento algorítmico guiando nosso procedimento. Entretanto, parece ser mais
correto pensarmos que o futuro não seria computável a partir do presente, embora pudesse ser até
determinado por ele. Ou seja, há uma previsibilidade, mas não uma fórmula algorítmica que
garanta 100% de acerto para as previsões feitas.

Em relação ainda ao livre-arbítrio, podemos descrever um experimento muito interessante


para o assunto tratado aqui. Colocando-se eletrodos nos crânios de voluntários, pedia-se a eles
que pressionassem o polegar quando quisessem, a fim de que a atividade consciente fosse
monitorada. O que se percebeu com este experimento foi o fato de que o processo de decisão
consciente leva um segundo para se transformar em ação. Ou seja, há ativação consciente de
decisão de se flexionar o dedo e após um segundo este será flexionado. Em contraposição a isto,
sabe-se que a contração do dedo em reação a um sinal externo é quase que instantânea.
Analogamente, um outro experimento mostrou que quando um estímulo era aplicado à pele dos
voluntários, era necessário um segundo para que eles tivessem consciência deste estímulo,

49
mesmo o cérebro tendo percebido este estímulo e sendo capaz de responder a ele prontamente. O
que se percebe com estes dois experimentos é uma nítida defasagem da atividade ativa e passiva
da consciência, que juntas nos tiram dois segundos em relação ao tempo real dos acontecimentos.

Até aqui levantamos algumas características do pensamento consciente, visando defender


a seguinte afirmação: a mente consciente não funciona como um computador, apesar de que
sabemos ser boa parte da atividade mental, de alguma forma, algorítmica. Procurou-se defender
aqui este ponto de vista. Talvez nem mesmo a mais complexa computação seja capaz de evocar a
consciência. Para que fosse possível solucionar estas questões, deveríamos elaborar uma teoria da
consciência, o que seria complicado se contarmos com a ajuda do computador, uma vez que o
problema da consciência seria tratado por uma entidade que nem possui consciência de si mesma.

Portanto, a questão da consciência se constitui em mais um problema ao projeto inicial


das Ciências Cognitivas. Verificou-se que a computação não foi capaz de evocar a consciência
nem tão pouco a intencionalidade, características presentes em nossos estados mentais. A
intencionalidade será o próximo aspecto problemático do projeto inicial das Ciências Cognitivas
a ser analisado.

3.1.3. A Intencionalidade

Como sabemos, o projeto inicial das Ciências Cognitivas apoiou-se na metáfora


computacional, que em seu sentido forte sustentava uma equivalência funcional entre o sistema
cognitivo humano e a máquina. Deste modo, um computador adequadamente programado
poderia ser encarado como uma mente capaz de reproduzir estados mentais. Entretanto, John
Searle (1980) discordou desta idéia, sustentando que não há um equivalente mecânico para o
fenômeno cognitivo conhecido como compreensão.

Searle analisou um programa de compreensão de histórias curtas criado por R. Shank, em


1977. Este programa era capaz de responder corretamente a questões referentes à história contada
no texto. Desta forma, Shank sustentou que o programa realmente compreendia o texto. Para

50
defender seu ponto de vista, Searle elaborou o argumento do Quarto Chinês já apresentado aqui
anteriormente, quando nos referimos à disciplina Inteligência Artificial.

Segundo Searle, o falante trancado no quarto sem nenhum conhecimento em chinês pode
ser comparado ao programa de Shank. Ambos operam por decomposição e composição de
palavras com base num script, que para a máquina seria a pequena história e para o falante o
conjunto de regras que recebe para responder as questões em chinês. Nos dois casos, as regras de
transformação são complexas, simulando os processos mentais humanos para a resolução do
problema. Programa e falante manipulam corretamente as regras de transformação e através da
análise de seus outputs poderíamos pensar que ambos compreenderam suas atividades, pois
emitiram respostas coerentes.

Contudo, ambos, programa e falante, manipulam símbolos que não compreendem. Os


símbolos não têm significado para ambos. “A manipulação de símbolos formais, por si só não
tem intencionalidade, não é sequer manipulação de símbolos, uma vez que esses símbolos não
simbolizam nada. Eles têm apenas sintaxe, mas não semântica” (Searle, 1980). Faltava a estes
programas que almejavam apresentar algum grau de compreensão o que Searle denominou de
intencionalidade intrínseca.

Para explicarmos o conceito de intencionalidade intrínseca, devemos nos certificar de que


a noção de intencionalidade tenha ficado clara. Segundo Searle, a intencionalidade é a habilidade
que os seres vivos possuem, na qual seus estados mentais relacionam-se com as “coisas” ao seu
redor. Ou seja, a intenção está sempre ligada a um estado psicológico: tenho a intenção de fazer
algo, tenho desejo de alguma coisa, etc. Além disso, podemos dizer que a intencionalidade dos
estados mentais é algo intrínseco aos próprios estados mentais. Sua base é biológica e, por isso,
só os seres vivos são capazes de demonstrar a habilidade relacional com o seu entorno, formando,
assim, representações.

O conceito de intencionalidade intrínseca refere-se a uma forma derivada de


intencionalidade, que baseia-se na relação das representações lingüísticas com os estados

51
mentais, o que faz com que o código lingüístico transforme-se num conjunto de signos que possui
um significado. Percebe-se, portanto, que a intencionalidade intrínseca é essencial para que o
sistema simbólico apresente uma dimensão semântica, indispensável para que haja compreensão.
Em suma, o que Searle sustenta é que por não possuírem intencionalidade intrínseca os sistemas
simbólicos apenas associam cegamente os signos que manipulam, mas não estão de posse do seus
significado, o que impossibilita a verdadeira compreensão, seja de textos, seja do código
lingüístico.

Searle recebeu muitas críticas direcionadas ao seu argumento do Quarto Chinês.


Destacaremos aqui a que ficou conhecida como o “argumento dos sistemas”, elaborada por
Willian Poundstone, em 1991. Segundo este autor, o falante trancado no quarto podia não saber
nada de chinês, entretanto não podemos afirmar que o sistema como um todo (falante, mais o
quarto fechado, mais as regras em português, etc.) não entenda chinês. O que Poundstone
sustenta é que o falante pode ser comparado a uma pequena parte de nosso cérebro, não a nossa
mente (que seria o sistema como um todo). No entanto, o processo de compreensão não está
localizado numa parte específica de nosso cérebro. Sendo assim, não poderíamos sustentar que
não há compreensão por parte do programa, pois se o analisarmos como um todo, como um
sistema, veremos que a compreensão é possível.

O contra-argumento de Searle foi simples. Mesmo que a compreensão fosse produto do


sistema como um todo, se subtrairmos todas as partes deste sistema (quarto, papel, lápis, etc.) de
modo que só reste o falante, será que ele compreenderia o chinês? Por certo que não. Outros
contra-argumentos foram lançados e obtiveram respostas de Searle. Como este tornou-se um
debate filosófico, é difícil elegermos um ganhador. Entretanto, devemos lembrar que toda esta
questão refere-se ao projeto inicial das Ciências Cognitivas, que sustentava um modelo
computacional da mente baseado nas idéias de algoritmo e de representação simbólica.

Realmente, o simples ato de seguir regras e de gerar um “output” correto não implica em
compreensão. Este se constituiu num sério problema à pretensão da Inteligência Artificial forte,
que sustentava que um computador adequadamente programado seria uma mente. Pode-se

52
acrescentar ainda que o argumento do Quarto Chinês veio para explicitar a invalidade do Teste de
Turing, uma vez que o sistema (programa computacional “inteligente”) poderia até passar no
teste, mas isto nada provaria se ele realmente compreendeu alguma coisa. São estas questões que
examinaremos mais detalhadamente no item a seguir.

3.1.4. As Pretensões da Inteligência Artificial Forte

Como vimos anteriormente, a Inteligência Artificial (IA) sustenta uma metáfora


computacional, na qual em seu sentido fraco o computador seria um instrumento auxiliador no
estudo da mente e em seu sentido forte, o computador seria uma mente. Para este último ramo, as
atividades mentais humanas poderiam ser igualadas às atividades do computador porque ambas
seguem algoritmos para sua realização. Portanto, mente e computador operariam seguindo
seqüências de passos bem determinados, o que facultaria a simulação computacional dos
processos mentais.

Para um melhor entendimento das pretensões da IA forte, examinaremos rapidamente


seus objetivos e realizações à luz das críticas encontradas no livro “Computadores, Mentes e
Conduta” de autoria de Button & all (1998). Estas críticas são formuladas principalmente em
torno de duas questões: Um computador pode pensar? E ainda: Um computador pode falar?
Vamos agora analisar a primeira delas.

A comprovação de que uma máquina poderia pensar era um passo fundamental à IA forte,
uma vez que se isto ocorresse estaria provado que para explicarmos a capacidade humana de
pensamento nada mais seria necessário do que a postulação de princípios mecanicistas de
estruturação e operação.

A fim de nos aprofundarmos nesta questão, imaginemos que um aparelho de CD esteja


tocando uma música e numa sala de concertos, ao lado, uma orquestra esteja tocando a mesma
música. Alguém passa e, sem saber o que está acontecendo, é incapaz de dizer que há alguma
diferença entre as duas melodias. Poderíamos, então, concluir que não há diferença alguma entre

53
as duas execuções? Poderíamos dizer que o aparelho de CD por reproduzir tão perfeitamente a
música é capaz de tocá-la como a orquestra o faz? Por certo, não.

Entretanto, foi algo muito semelhante a este exemplo que fez com que muitos afirmassem
que máquinas poderiam pensar. Estamos falando do Teste de Turing (1963), que muito se
assemelha ao exemplo do CD. Quando perguntado se as máquinas podem pensar, Turing
sustentou que esta pergunta não poderia ser respondida com exatidão, a menos que a
substituíssemos por "Com que freqüência as pessoas poderiam ser capazes de distinguir entre o
"output" conversacional de um computador e o de um ser humano?" (Teste de Turing). Mesmo
tendo se esquivado da questão de se uma máquina pode pensar, seu objetivo era provar que uma
máquina que passasse no teste poderia de fato pensar.

Mas mesmo que 70% ou até mesmo 90% das pessoas testadas conseguissem distinguir a
diferença entre a máquina e o homem, isto seria a prova final de que uma máquina possa pensar?
Ou representaria apenas que 70% ou 90% das pessoas testadas não conseguiram diferenciar o
"output", e apenas isso? Como podemos supor que ao termos uma máquina que realiza o que nos
seres humanos diz-se inteligente, esta máquina, por executar o mesmo, é também inteligente? A
máquina capaz de passar no Teste de Turing será capaz somente de simular o desempenho
conversacional humano. Isto não significa que ela entenda o que está dizendo numa conversa.

Para entendermos melhor esta questão, faz-se necessário mencionar a questão da


linguagem ordinária que se opõe à linguagem técnica (vocabulário científico). Por exemplo,
dizemos que “crença”, “entendimento” e “pensamento” são vocábulos ordinários. Ao passo que
“fóton”, “organela” e “hemoglobina” são vocábulos científicos. Desejamos chamar a atenção
aqui não para a existência e uso dos vocábulos técnicos, pois sabemos ser estes necessários de
acordo com as necessidades científicas. O que gostaríamos de salientar é o fato que vem
ocorrendo entre os cientistas computacionais em relação aos vocábulos ordinários. Estes
cientistas vêm se apropriando de termos como “pensantes” e “entendimento” ao sustentarem que
as máquinas que venham a passar no teste de Turing são “máquinas pensantes” que possuem
“entendimento”.

54
Na verdade, o objetivo dos cientistas que se opõem a isto não é proibir que vocábulos
ordinários sejam utilizados para se referirem às máquinas. O que os preocupa é que termos como
“pensamento” e “entendimento” são usados pelos pesquisadores da IA forte na mais pura
significação destas palavras. Ou seja, eles sustentam que as máquinas podem realmente pensar e
entender tal como fazemos. A intenção da Inteligência Artificial forte é justamente contradizer
nossa crença de que as capacidades de pensar e entender são exclusivas dos seres humanos. Para
a IA o desafio maior é provar que as máquinas podem realmente pensar e entender como nós
fazemos. Se os cientistas atribuíssem termos técnicos aos termos ordinários, com significados
diferentes dos que conhecemos, suas pretensões de criar máquinas que realmente pensam e
entendem estariam comprometidas.

Voltemos ao exemplo inicial do CD e da orquestra. Apesar de alguém, desavisado do que


está acontecendo, sustentar que a qualidade da música é a mesma, nós sabemos que há uma
diferença profunda entre a interpretação da orquestra e a reprodução do CD, mesmo em se
tratando da mesma música. Recorremos, então, à linguagem ordinária que diz que do fato de que
alguém possa admitir que não pode dizer que exista uma diferença entre as duas coisas, não se
pode dizer que não haja uma diferença. Assim, a incapacidade dos indivíduos ao apontarem a
diferença do "output" da máquina e do "output" humano, não implica que não haja diferença
entre eles, apenas que não há uma diferença que os indivíduos possam distinguir.

Analogamente, ao nos referirmos à questão do computador ser capaz de falar, devemos


logo diferenciar as questões de engenharia envolvidas no desenvolvimento de dispositivos
analógicos da suposição de que realmente uma máquina possa falar, como nós falamos. A
suposição de que se instruirmos (programarmos) o computador com as regras da conversação ele
se mostrará tão capaz como nós de seguir regras está sujeita a muitas críticas.

Concentremo-nos, então, no problema de gerar linguagem natural. O grande objetivo de


todo o processamento da linguagem natural é desenvolver uma máquina dialógica ou
conversacional. Objetiva-se produzir um dispositivo dialógico semelhante ao humano. Atenta-se

55
ao curso da conversação mais do que às regras sintáticas. Apesar deste reconhecimento
necessário, a IA ainda comete exageros, como no caso de suas “máquinas que conversam".

Na tentativa de criar "máquinas que conversam", os cientistas da IA logo perceberam que


sistemas de pergunta/resposta seriam insuficientes ao desenvolvimento de máquinas dialógicas
por não se basearem num entendimento correto da conversação como sendo um fenômeno
lingüístico. Para criar "máquinas que conversam de verdade", verificou-se ser necessário analisar
as estruturas e os mecanismos envolvidos na conversação, ou seja, deve-se atentar aos diálogos
reais dos seres humanos no seu dia-a-dia.

Aqueles que se dedicam à análise da conversação sustentam que não há diferença entre o
uso de regras por parte dos seres humanos e por parte do processamento computacional. Contudo,
poderíamos dizer que um computador ao produzir um “output” perfeitamente ajustado às regras
conversacionais estaria legitimamente reconhecendo as exigências impostas pelo mecanismo de
revezamento de turnos de fala existente ou, ainda, a legitimidade do direito de falar distribuída
pelas regras? Por certo que não. Ao conversarmos, agimos em conformidade com as normas
sociais, entendemos que quando o outro fala precisamos calar para ouvi-lo e entendê-lo. Além
disso, não seguimos seqüências algorítmicas de conduta conversacional. Ao contrário, vamos
moldando nossa conversa de acordo com as múltiplas variáveis contextuais. Enfim, o fato do
computador responder corretamente a uma pergunta numa conversa não significa que ele tenha
entendido a pergunta feita nem que esteja plenamente convicto acerca da resposta dada; significa
simplesmente que ele está conectado a um banco de dados que lhe permitiu, por meio de sua
programação, gerar a resposta certa.

Tudo isto nos remete também a uma questão antiga já abordada aqui anteriormente. A IA
poderia muito bem admitir a imensa diferença entre o comportamento humano e o processamento
computacional, inclusive no âmbito conversacional e ficar satisfeita em utilizar sua tecnologia
avançada para apenas dedicar-se à construção de simuladores conversacionais, inspirados na
conversação humana. Mas isto não acontece. A IA não atribui a dispositivos dialógicos a idéia de

56
que sistemas que agem meramente como se estivessem seguindo regras. Ao contrário, a IA quer
mesmo desafiar a singularidade humana, inclusive no âmbito conversacional.

Não defende-se aqui uma postura hierárquica entre o homem e a máquina. Só objetiva-se
deixar bem claro que as realizações da IA são importantes, mas são trabalhos técnicos que podem
nos iludir a repensarmos a estrutura de nossas distinções conceituais mais profundas do que é
uma máquina e do que é um ser humano. Pode-se dizer que a programação de dispositivos
dialógicos de acordo com "as regras de conversação" nada provam com relação à questão de se as
máquinas "seguem regras".

Não nos parece possível formalizar a conversação humana. As regras conversacionais


conseguidas pela lingüística computacional dissociam os turnos da fala das atividades sociais.
Assim, só são conseguidas abstrações que são incapazes de explicar o plano de turnos de fala tal
como eles aparecem na conversação humana. Desta forma, o estudo da conversação humana não
ajudou a IA a elaborar uma máquina que converse, mas serviu para deixar bem claro o equívoco
de se sustentar que um computador possa vir a conversar.

Portanto, não há uma oposição cega aos avanços da análise da conversação no que diz
respeito ao desenvolvimento de sistemas simuladores da conversação humana. Mas não se pode
concordar com a visão limitada da IA forte em relação à natureza da linguagem, que seria uma
produção mecânica de proferimentos, dissociada da vida. A conversação exige mais do que
habilidades lingüísticas, mais do que um simples "seguir regras". Conclui-se, portanto, que ainda
há um imenso abismo entre as pretensões da IA forte e suas conquistas de fato.

Como veremos mais adiante, novas propostas vindas da IA forte em sua forma da Nova
Robótica, por exemplo, são ainda mais grandiosas do que as vistas aqui. Entretanto, pode-se
argumentar analogamente que suas intenções ainda estão muito longe de desafiar nossas
concepções atuais das atividades humanas.

57
4. A Questão da Interdisciplinaridade

Como vimos, pode-se dizer que as Ciências Cognitivas são compostas por seis disciplinas
(Filosofia, Psicologia, Inteligência Artificial, Lingüística, Neurologia e Antropologia), que devem
unir esforços num empreendimento interdisciplinar de investigação do conhecimento. A questão
da interdisciplinaridade nos leva a uma nova questão: a do método interdisciplinar. Vejamos
agora algumas considerações sobre o método interdisciplinar nas Ciências Cognitivas atualmente.

4.1. O Método Interdisciplinar

Podemos identificar no âmbito da pesquisa cognitiva a existência de duas alternativas


metodológicas, que se diferenciam, constituindo, assim, um ponto crucial para os investigadores
da área: deve-se conceber os métodos de investigação da pesquisa cognitivista desde uma
perspectiva da homogeneidade ou da diversidade?

De acordo com a visão tradicional positivista, devemos acreditar na homogeneidade dos


métodos de investigação, uma vez que um mesmo e único método se aplicaria igualmente a todas
as ciências. Sendo assim, este método único é rígido em relação à objetividade das observações, à
testabilidade das hipóteses e à comprovação do conhecimento elaborado. As observações e
experimentam contam com instrumentos de observação, técnicas de medição, procedimentos de
análise de dados quantitativos e generalização indutiva.

Não está presente na visão tradicional, a distinção clara entre observação e avaliação.
Além disso, também não notamos uma preocupação no que diz respeito às modalidades do
conhecimento ou com a análise qualitativa das informações que são coletadas e produzidas. O
observador ainda possui um papel passivo, devendo revestir-se de uma pretensa “neutralidade” ao
lidar com sua pesquisa.

Enfim, esta visão tradicional acerca do método científico está voltada à observação e à
comprovação, deixando aspectos importantes, que deveriam ser levados em conta, fora da análise

58
científica, como podemos exemplificar nos referindo aos problemas específicos da metodologia
da criação, que foram desprezados por esta abordagem, mas que são importantes para as ciências
do artificial, do design e para a tecnologia.

Se opondo à visão tradicional, que sustenta a homogeneidade do método de investigação,


há uma visão alternativa que defende a diversidade metodológica como sendo o melhor caminho
para abordarmos as questões do conhecimento. Segundo esta visão, podemos manter no plano
filosófico o ideal de unidade do conhecimento sem que, para isto, tenhamos que estabelecer um
método único de investigação.

Na pesquisa cognitiva lidamos, como dissemos, com várias disciplinas que já possuem
seus objetivos de investigação, utilizando-se, portanto, de seus próprios métodos para alcançar
estes objetivos. Além disso, a postulação de um método único baseado na observação e na
comprovação não parece dar conta desta pluralidade dos objetivos de cada campo do saber, sendo
estritamente limitado para isto.

Não se intenciona eliminar a observação do método de investigação, mas apenas lembrar


que ela é importante, mas que não pode responder a todas as dúvidas ou fornecer todas as
explicações necessárias. É contra um empirismo exacerbado que esta visão alternativa se levanta,
sustentando um racionalismo brando, que recupera o papel ativo e preponderante de nossas
capacidades mentais na formação das representações cognitivas que possuímos.

Quanto ao caráter estritamente quantitativo do tratamento da informação adotado na visão


tradicional, argumenta-se aqui a necessidade de haver também uma análise qualitativa, uma vez
que o quantitativo não opõe-se ao qualitativo. Ao lidarmos com um conceito, por exemplo, além
de lidarmos com os agregados de dados empíricos relacionados a ele, lidamos também com a
teoria a qual pertence aquele conceito, que deve ser entendida para que se tenha a real
compreensão do conceito. A generalização por indução também não pode ser tomada com regra,
pois há muitos caminhos diferentes deste para a formulação do conhecimento, principalmente nas

59
ciências sociais e nas ciências da criação que utilizam-se de processos argumentativos dentro de
seu discurso que não podem ser aplicados à generalização indutiva.

A visão alternativa, portanto, sustenta a “independência” dos objetivos em relação às


várias disciplinas e levanta a importância de três objetivos em especial: a observação que deve
prestigiar o conhecimento metodológico da visão tradicional, porém atribuindo ao observador um
papel ativo, no qual priorize sua intuição, que certamente será influenciada por fatores culturais,
políticos e ideológicos. Desta forma, percebe-se que a pretensa “neutralidade” está longe de ser
real, pois o pesquisador não é um ser neutro. O segundo objetivo é a projeção, importantíssima,
pois lida com a intencionalidade da pesquisa e com a direção dos meios para que sejam
alcançados seus fins. O terceiro objetivo é a avaliação. Diferentemente da visão tradicional, não
há uma diferenciação entre observação e avaliação. A avaliação é um processo que necessita de
normas para que sejam alcançados seus objetivos.

Em suma, esta concepção da diversidade metodológica parece ser a mais indicada à


pesquisa científica e, portanto, às Ciências Cognitivas. A concepção tradicional mostrou-se muito
limitada em suas análises, sendo insuficiente para lidar com as questões metodológicas de
investigação.

Um outro ponto que devemos mencionar a respeito da interdisciplinaridade nas Ciências


Cognitivas é o questionamento atual se haveria uma só ciência cognitiva integrada, dona de um
método de investigação próprio e de um conjunto de conceitos pertinentes, que assegurariam o
status de disciplina constituída. Vamos discutir esta possibilidade a seguir.

4. 2. Ciências Cognitivas ou uma Ciência Cognitiva integrada?

Até aqui temos nos referido ao empreendimento cognitivista como Ciências Cognitivas,
expressando o conjunto das seis disciplinas que contribuem para a tentativa de solucionar os
problemas relativos ao conhecimento. Assim, a Filosofia, a Psicologia, a Inteligência Artificial, a
Lingüística, a Neurociência e a Antropologia contribuem às Ciências Cognitivas com seus

60
próprios objetos de estudo, métodos de investigação, conceitos elaborados, ou seja, todo um
arcabouço teórico referente a um conhecimento próprio. Sendo assim, o termo Ciências
Cognitivas refere-se a uma convergência entre os cientistas destas disciplinas, que limitando-se à
área de atuação de sua própria disciplina, dedicam-se à pesquisa de temas relacionados à
cognição humana.

Entretanto, alguns cientistas sugerem que as Ciências Cognitivas dêem lugar à ciência
cognitiva. Ou seja, que os cientistas deixassem os limites de suas disciplinas e se unissem num
esforço conjunto de explorar melhor os conteúdos cognitivos específicos. Assim, as seis
disciplinas componentes das Ciências Cognitivas se uniriam formando a Ciência Cognitiva,
interessada em dedicar-se somente a desvendar as questões da cognição humana. Na verdade, isto
ainda está longe de se concretizar. O que temos hoje é uma crescente conscientização dos
cientistas destas seis áreas em atentar ao problema do conhecimento. O surgimento de uma
ciência cognitiva integrada esbarra no estabelecimento e consolidação de um método e de
questões conceituais próprias, o que ainda não aconteceu.

Entretanto, é importante que os cientistas comecem a se agrupar pelo domínio cognitivo


central a que se dedicam, sejam eles domínios mais amplos, como a linguagem, por exemplo, ou
subdomínios, como o processamento sintático. Assim, tais domínios e subdomínios seriam
estudados pelas disciplinas, sem que houvesse divisões, limites neste estudo. Sendo assim, a
questão que fica não refere-se a um possível desaparecimento de alguma disciplina e sim, a
necessidade de estudarmos um domínio de forma a abarcarmos todas as suas perspectivas
científicas significativas, o que envolve a investigação do mesmo fenômeno de vários ângulos
diferentes, e isto só será possível através da interdisciplinaridade.

Portanto, quando nos referimos aqui à ciência cognitiva, o fazemos com a intenção de
mencionar um domínio integrado, que mesmo que ainda não esteja consolidado na forma de uma
disciplina, já é realidade na investigação dos processos superiores da existência humana.

61
Uma prova desta tentativa de integração pode ser dada ao nos referirmos a quatro
domínios do conhecimento que vêm tendo sua análise efetuada por um trabalho conjunto de cientistas
das várias disciplinas componentes do empreendimento cognitivista. Estes quatro domínios são: a
percepção, a imagética mental, a categorização e a racionalidade. Estes quatro esforços
interdisciplinares serão analisados a seguir.

5. As Perspectivas de um Campo Integrado

A interdisciplinaridade não é uma realidade consolidada dentro das Ciências Cognitivas,


pois, como vimos, as muitas críticas acerca dos seus conceitos básicos ainda dividem seus
pesquisadores. Entretanto, já há alguns frutos colhidos por aqueles que acreditaram numa
perspectiva integrada na abordagem do conhecimento. Há progressos na área de percepção,
imagética mental, categorização e racionalidade. Em seguida, temos uma rápida passagem pela
investigação do conhecimento, a partir destas áreas, sob o viés da interdisciplinaridade.

5.1. A Percepção

A interdisciplinaridade foi um importante aliado no estudo da percepção, pois foi através


de dados disponíveis da psicologia da percepção, neurociência e inteligência artificial que uma
explicação razoável das fases iniciais da percepção foi possível. Para tal, as contribuições de
David Marr (1969) foram decisivas.

Marr não concordava com o reducionismo neurológico que tratava a percepção apenas
pelo estudo do cérebro. Para ele, era necessário obter uma teoria que considerasse os problemas
reais envolvidos na percepção de objetos, bem como as possíveis soluções a este problema e sua
verificação em mecanismos específicos, que vão dos computadores ao cérebro. Seu programa,
então, abordava a percepção visual e estudava o sistema de conhecimento em geral. Optava pela
descrição simbólica da visão, deixando a percepção direta de lado e entrando, assim, no campo
das Ciências Cognitivas.

62
O programa estabelecido por Marr não deixou de receber críticas. Por exemplo, faltam
evidências neurológicas que corroborem seu modelo. Entretanto, sua maior contribuição foi
estimular a interdisciplinaridade em estudos sobre percepção visual.

Uma linha de trabalho completamente diferente da de Marr é a de James Gibson (1979).


Segundo ele, a informação está disponível a nós e é apenas “apanhada” sem que haja qualquer
processamento, necessidade de conhecimentos prévios, modelos mentais ou esquemas
interpretativos. Via à física ligada à biologia como sendo fundamental ao estudo da percepção e
chegou a desenvolver a noção de possibilidades, onde prevê possíveis ocorrências de atividades
se um determinado organismo encontrar uma determinada entidade. Por este conceito, ele
sustenta que não há necessidade de esforço mental ou crenças, pois o significado dos objetos
reside na possibilidade de os utilizarmos ou não, numa visão claramente mecanicista.

Esta posição de Gibson não se adequava nem um pouco a uma visão cognitiva da
percepção. Uma forte linha de crítica a Gibson é a de Fodor e Pylyshyn. No artigo “How direct is
visual perception: some reflections on Gibson’s ‘Ecological Approach” (1981), eles lançam a
visão de sistema. Segundo esta visão, Gibson errou por não perceber que os indivíduos são
capazes de agir apropriadamente num determinado ambiente devido à capacidade que possuem
de fazer inferências sobre o que vêem e por possuírem crenças e estados intencionais dirigidos as
suas percepções. Para eles, não há informação neutra disponível àquele que percebe. Não há
como estudar a percepção sem considerar a importância das representações e da intencionalidade.
Não considerar estes aspectos foi, segundo Fodor e Pylyshyn, o erro de Gibson.

Duas tendências recentes tentam conciliar a perspectiva ecológica de Gibson e a do


Sistema. Uma delas é a de Uric Neisser (1976), que sustenta a necessidade de estudar a percepção
à medida que ela se desenrola quando um organismo está seguindo seu caminho, conciliando,
assim, o olhar naturalista e o cognitivista no estudo da percepção. A outra tendência, inspirada
em Marr, investiga sistemas de processamento visual que têm por modelo o sistema nervoso dos
primatas. Esta nova abordagem parece corroborar a visão de Gibson, na medida em que é fiel à
mecânica do cérebro, rejeita a manipulação complexa de símbolos, importa grandes quantidades

63
de conhecimento do mundo real e sugere que fenômenos gestálticos emergem da cooperação de
várias redes neurais.

Enfim, seja a visão gibsoniana ou a do sistema que revele melhor preparo para resolver os
problemas da percepção visual, o empreendimento cognitivo não está em dúvida, pois mesmo
que possamos explicar a percepção necessitando muito pouco de nosso conhecimento sobre o
mundo externo, o reconhecimento é ainda uma questão eminentemente cognitiva, necessitando,
portanto, de incursões na área das Ciências Cognitivas.

5.2. A Imagética Mental

Esta questão é profundamente intrigante, pois são experiências, que por mais que sejam
significativas a um indivíduo, não estão disponíveis a outros indivíduos. Stephen Kosslyn (1980)
e sua equipe, através de uma série de experimentos engenhosos, conseguiram delinear
importantes propriedades do sistema imagético. Além disso, sustentavam a existência de uma
forma quase pictórica de representação mental chamada imagética. E esta forma de representação
mental seria tão importante quanto a proposicional.

Muitos psicólogos, porém, não aceitaram a introdução da imagética como uma forma de
representação mental. Kosslyn não se intimidou. Sustentava que as imagens possuem uma
representação superficial, que é a entidade quase pictórica da memória ativa acompanhada pela
experiência subjetiva de ter uma imagem. Seu modelo refere-se ainda a um mostrador de raios
catódicos, técnicas para formar uma imagem no mostrador e técnicas para interpretar e
transformar a informação de um mostrador deste tipo.

Nota-se que a simulação computacional é um fator de extrema importância no modelo de


Kosslyn, na medida em que é através dela que ocorre a constante revisão do modelo,
possibilitando as mudanças necessárias neste. Deve-se a ele a transformação do estudo da
imagética num ponto importante da ciência cognitiva, bem como o esclarecimento de elementos
conceituais expressivos desta nova forma de representação mental.

64
Como já foi dito, as suposições de Kosslyn receberam fortes críticas, porém a mais
significativa foi a de Pylyshyn (1984), pois os demais críticos, atacavam apenas alguns pontos do
modelo apresentado por ele, enquanto que Pylyshyn opôs-se até mesmo à existência da
imagética. Segundo ele, a cognição é computação, pois a mente calcula de modo literal. Portanto,
distingue duas explicações para o comportamento de um sistema, uma recorrendo a propriedades
externas (propriedades do mundo externo que o sistema deve representar) e outra a propriedades
intrínsecas (processos que refletem a operação de leis naturais). Para explicar melhor esta última
propriedade, Pylyshyn introduziu o termo arquitetura funcional, que refere-se a mecanismos
básicos de processamento da informação do sistema para o qual uma explicação não
representacional é suficiente.

Neste debate pode-se argumentar que Kosslyn tem a seu favor as evidências
experimentais, uma vez que Pylyshyn não conseguiu dar exemplos de processos insensíveis a
fenômenos intencionais, o que corroboraria a impenetrabilidade cognitiva.

5.3. A Categorização

Desde os gregos já havia a crença na possibilidade de classificarmos em grupos comuns,


objetos comuns encontrados em nosso mundo. De acordo com a visão clássica da categorização
(categorias, conceitos e classificações serão abordados aqui como sinônimos), as categorias são
arbitrárias. Elas são definidas por nossa cultura, que nos ensina como agrupar os itens de modo a
formar as muitas categorias existentes em cada cultura.

Esta visão clássica sofreu forte abalo com os argumentos e dados empíricos de vários
trabalhos. Um trabalho que serviu para combater a visão clássica veio dos estudos das cores. Este
é um campo interessante de estudos porque pela física o espectro da cor é contínuo. Por isso, não
há como saber onde termina uma cor e onde começa a outra. Conclui-se, então, que o modo pelo
qual as várias culturas denominam suas cores é produto de convenções culturais.

65
Em 1970, Eleanor Rosch começou a estudar os danis da Nova Guiné, que possuíam
apenas dois termos para cor: mola (para tonalidades claras e quentes) e mili (para as escuras e
frias). Numa tarefa de nomeação de cores, ficou claro que na extremidade da curva de cores todos
concordavam na nomeação das cores mili e mola. Porém, o meio desta curva não era consensual
entre eles, pois a fronteira entre as duas cores diferia de pessoa para pessoa.

Num teste de reconhecimento, Rosch percebeu uma evidência clara contra a hipótese
clássica de Whorf: o reconhecimento de tonalidades adjacentes era igualmente eficaz, mesmo que
estas tonalidades estivessem em lados diferentes de uma linha de linguagem. Tal evidência foi
prejudicial à hipótese clássica da formação de conceitos, pois Rosch colocava que, na verdade, a
maneira pela qual nos lembramos das cores reflete mais a organização de nosso sistema nervoso
do que a estrutura de léxicos utilizada por cada cultura.

Segundo Roch, o que é comum a todas as categorias é a existência de um protótipo, ou


seja, um exemplo representativo de uma classe que compartilha do maior número de
características com os outros membros da categoria, enquanto compartilha de poucas
características com elementos provenientes de fora da classe. Um pardal, por exemplo, é uma ave
mais prototípica do que um pingüim, ou seja, é mais facilmente reconhecido como uma ave do
que como pertencente a uma outra categoria.

Deste modo, Rosch (1973) combate fortemente a visão clássica da categorização, pois
esta não abarca os objetos naturais (aves, por exemplo) e o domínio de inúmeros objetos. Porém,
Sharon Armstrong, Lila Gleitman e Henry Gleitman (1983) questionam se a visão natural de
Rosch pode substituir a visão clássica. Eles descobriram que a categoria número ímpar também
requer dos sujeitos um protótipo (possivelmente o número 13), assim como uma categoria
natural. Para estes autores, então, Rosch não consegue distinguir um conceito classicamente
definido de um natural. Na verdade, certos aspectos da cognição humana não são explicados por
Rosch, mas a sua visão natural descreve mais veridicamente como os indivíduos formam e
utilizam categorias.

66
Uma crítica mais forte à questão clássica de conceitos partiu dos filósofos Kripke (1972) e
Putnam (1975), que adotaram uma visão da nomeação e da classificação mais realista do que a
clássica. Segundo estes, há uma estrutura real no mundo e grande parte de nossa bagagem
conceitual está preparada para captar esta estrutura. Eles não consideram adequado definir alguns
conceitos em termos de uma lista de atributos criteriais. Nesta visão, a categoria é organizada em
torno de estereótipos que nos permitem reconhecer os componentes de uma dada categoria.
Assim, se analisamos duas laranjas, sabemos que suas estruturas são as mesmas, mesmo que as
duas não sejam exatamente iguais, pois todos os exemplares da mesma espécie natural possuem
uma propriedade estrutural em comum.

Porém, não foi fácil convencer os afastados dos embates filosóficos sobre
conceitualização que deveríamos deixar de lado listas de condições necessárias e suficientes `a
categorização (visão clássica) para aceitar objetos de espécies naturais ou definições ostensivas (o
ouro é o que é). Os familiarizados com o mundo filosófico, entretanto, acharam arriscado jogar
diversos elementos dentro da mesma categoria por causa de entidades estruturais parecidas.

No entanto, os vários campos (psicologia, filosofia e antropologia) reconheceram que a


categorização é algo baseado em informações do mundo natural e não algo artificial. Elas
possuem uma estrutura interna, que baseia-se em protótipos (Rosch) ou estereótipos (Kripke e
Putnam), e os demais componentes são definidos como sendo pertencentes à categoria de acordo
com sua afinidade com o protótipo. Enfim, a abordagem natural fez uma crítica construtiva à
visão clássica, porém ainda encontra sérias dificuldades ao lidar com conceitos mais complexos,
como os abstratos e os que tem a ver com preocupações próprias dos sujeitos.

Enfim, ainda não possuímos uma explicação conclusiva acerca da conceitualização. O


sucesso neste campo dependerá da adequação dos princípios desenvolvidos para explicar dos
conceitos simples aos conceitos mais complexos. Este é um desafio que as Ciências Cognitivas
devem enfrentar por meio da interdisciplinaridade.

67
5. 4. A Racionalidade

O último tema a ser tratado refere-se à racionalidade. Desde os gregos, o homem já era
definido como um ser racional, ou seja, ele é capaz de adotar uma forma de pensamento, que
obedece a regras e nos faz chegar a conclusões válidas ou inválidas. Portanto, se chegamos a
conclusões válidas é porque somos racionais e o caminho percorrido para isto é o que chamamos
de lógica.

As Ciências Cognitivas devem muito à lógica, pois seus primeiros cientistas adotaram um
modelo racionalista, investigando problemas lógicos. Porém, estudos cruciais de cientistas como
Johnson-Laird (1983), Daniel Kahneman e Amos Tversky (1983) indicam que muitas vezes
abandonamos a racionalidade e não invocamos nenhum cálculo lógico quando raciocinamos.

Realizando uma série de experimentos como estes, Johnson-Laird conclui que não
precisamos da lógica para raciocinarmos. O cientista cognitivo deve deter-se, portanto, na
racionalidade e também no erro humano. Sua análise sobre os problemas da lógica estende-se
também ao silogismo por ser este utilizado amplamente em nosso cotidiano.

Observe o exemplo: Todos os artistas são extrovertidos.


Todos os extrovertidos são felizes.

Johnson-Laird observa que a maioria dos sujeitos tem problemas com os silogismos e não
conseguem chegar a possíveis conclusões. No nosso exemplo, concluir que os artistas são felizes
não seria tão fácil aos sujeitos. As explicações acerca dos silogismos são insatisfatórias. “Ou os
teóricos conseguem explicar os erros dedutivos, mas não conseguem explicar a racionalidade que
é exibida pelos sujeitos, ou explicam a habilidade dos sujeitos para raciocinar adequadamente em
condições ideais, mas não conseguem esclarecer os tipos de erro cometidos por sujeitos
humanos” (Gardner, 1996).

A fim de resolver este impasse, Johnson-Laird introduz a noção de modelo mental. Assim,

68
o sujeito deve criar suas representações acerca das premissas lidas. Ao representar a primeira
premissa, eles criam o modelo mental desta. Ao representarem a segunda premissa, adicionam
esta informação ao modelo mental da primeira premissa. Em seguida, estas figuras mentais
criadas são testadas, a fim de gerar a conclusão do silogismo.

Esta contribuição de Johnson-Laird aplica-se às Ciências Cognitivas porque apesar de


basear-se na psicologia familiarizada com a lógica, sua teoria foi implementada num programa
computacional. Segundo ele, as etapas de seu programa constituem um procedimento efetivo
porque nos conduzem a uma conclusão apropriada. Devemos buscar tais procedimentos
específicos nas Ciências Cognitivas, a fim de que sejam executados não só nas máquinas
impecáveis (computadores), mas também nos seres humanos (seres imperfeitos). Sua teoria de
fato conseguiu ser compatível aos tipos de erro por nós cometidos e a um conjunto válido de
deduções.

Conclui-se pelo exposto sobre as contribuições de Johnson-Laird, que os seres humanos


não raciocinam como a lógica clássica sugeria. Ao contrário, adotam uma forma de raciocínio
que prioriza a familiaridade com os conteúdos do problema a ser resolvido e que baseia-se na
construção de modelos mentais para representar as informações consideradas relevantes a uma
dada situação.

Outros cientistas também criticaram a racionalidade. Tversky e Kahneman, em 1970,


decidiram estudar os tipos de heurística e estratégia que utilizamos nos raciocínios de cada dia.
Eles utilizam vários experimentos onde ao responderem os sujeitos despreza a racionalidade. Por
exemplo, duas pessoas chegam meia hora atrasadas ao aeroporto e perdem seus vôos. Porém uma
delas perdeu seu vôo por cinco minutos, pois houve um atraso na decolagem de seu avião,
enquanto que o vôo da outra pessoa partiu pontualmente. Apesar das condições de ambas as
pessoas serem idênticas (perderam seus vôos), os sujeitos tendem a declarar que a pessoa que
perdeu o vôo por cinco minutos é a mais prejudicada.

69
Tversky e Kahneman concluíram que a representatividade parece ser mais levada em
conta pelos sujeitos do que a probabilidade, ou seja, diante de informações que os sujeitos julgam
representativas, há o desprezo pelo conhecimento prévio que possuem sobre probabilidade.
Assim, a representatividade da situação da pessoa que perde o avião por cinco minutos fala mais
alto do que o conhecimento prévio que os sujeitos possuem de que, na realidade, os dois
perderam seus vôos.

Desta forma, podemos perceber que ao raciocinarmos não obedecemos a uma lógica
coerente ou às leis da probabilidade. O que Tversky e Kahneman questionam é se ao
raciocinarem, sem levar em conta os princípios estatísticos ou as regras de dedução, os sujeitos
estariam errando ou se estariam procedendo validamente de acordo com sua experiência humana.

Outros filósofos, como Cherniak (1983) e Kyburg (1983), não desprezam a questão da
racionalidade e acreditam que os esforços conjuntos dos pesquisadores empíricos e dos analistas
filosóficos sejam o melhor meio de explicarmos uma nova versão da racionalidade, livre dos
pressupostos lógicos clássicos.

Chegamos ao fim da discussão acerca dos quatro esforços contemporâneos, que são
exemplares da tentativa de haver um só ciência cognitiva integrada. Nestes exemplos, é bom
lembrar, percebemos o quanto a interdisciplinaridade vem ajudando a solucionar questões
epistemológicas clássicas. Antes do advento da ciência cognitiva, por exemplo, achava-se que os
seres humanos formavam conceitos do tipo clássico e raciocinavam logicamente. Hoje, porém, os
cientistas cognitivistas, como vimos, avançaram muito nestas questões.

De fato, os avanços trouxeram também novas contribuições, novas propostas. Podemos


até mesmo dizer que o empreendimento cognitivo não está estático, mas transformando-se e
adequando-se a novas idéias, surgidas de questionamentos quanto aos seus pressupostos
fundacionais. Sendo assim, vamos examinar agora as novas tendências nas Ciências Cognitivas,
aquelas que podem até mesmo revolucionar nossa concepção da cognição humana. São elas: o
Conexionismo, a Vida Artificial, a Nova Robótica e a proposta da Enação. O conexionismo já

70
constitui um programa de pesquisa mais ou menos aceito e que traz verdadeiras inovações no
estudo do conhecimento, como veremos logo a seguir.

6. As Novas Tendências

6.1. O Conexionismo

As Ciências Cognitivas realmente foram impulsionadas pelo aparecimento de modos de


processamento de distribuição paralela (modelos conexionistas), pois tais modelos poderiam ser
melhores modelos para a nossa visão da natureza da mente e de sua relação com o cérebro.

A primeira contribuição do conexionismo foi dada em 1943 por Warren McCulloch e


Walter Pitts, ao publicarem a comunicação “Um cálculo lógico das idéias imanentes à atividade
nervosa”. Neste trabalho “matemático”, eles mostraram que todos os processos que podem ser
descritos através de um número finito de expressões simbólicas (aritmética simples, classificar,
armazenar, etc.) podem ser incorporados em redes de “neurônios formais”. Aplicando este
conceito de neurônios formais em termos computacionais, podia-se dizer que os neurônios
podiam ser pensados como unidades lógicas binárias limiares. Ou seja, as características
operacionais de neurônios formais interconectados podem captar (representar formalmente)
aspectos das relações lógicas proposicionais. Assim, teoricamente as redes neurais podem ser
pensadas como sendo circuitos lógicos de engenharia computacional.

Segundo von Neumann (1958), nestas redes de neurônios formais, um bit de informação
(a escolha entre 0 e 1) ou está ativado (1) ou não (0). A ativação de mais da metade dos neurônios
da rede define a escolha entre 0 e 1. Agindo assim von Neumann mostrou que redes redundantes
(nas quais utiliza-se muitos neurônios para se fazer o trabalho de apenas um, deixando de lado a
concepção tudo (1) ou nada (0) de um único neurônio formal, ligado ou desligado, sustentada por
McCulloch e Pitts, ao funcionarem desta nova maneira, seriam capazes de realizar cálculos

71
aritméticos confiáveis. Desta forma, percebemos que von Neumann aperfeiçoa o trabalho de
McCulloch e Pitts.

As contribuições destes três cientistas também foram de interesse para a neurobiologia.


Donald Hebb sustentou em 1949 que o cérebro estaria em transformação enquanto um indivíduo
estiver aprendendo e que estas transformações gerariam grupos de células. Já Ramon e Cajal
(1972), sustentaram que a ativação repetida de um neurônio por outro, por meio do contato
sináptico, poderia aumentar a sua condutibilidade. Estas contribuições, dentre outras, foram
importantes para que o córtex fosse visto como um sistema representacional distribuído de
processamento da informação.

Ainda devemos mencionar o Percéptron de Frank Rosenblatt (1962), elaborado dez anos
após a publicação de McCulloch e Pitts, procurou provar que as redes neuronais destes últimos
autores podiam ser treinadas para que classificassem determinados modelos como parecidos ou
diferentes entre si. Tais redes receberam o nome de Percéptron. Aqui está, portanto, um breve
apanhado do que deveria ser o conexionismo.

Entretanto, estes trabalhos sofreram críticas, especialmente o Percéptron que, segundo os


pesquisadores da Inteligência Artificial do MIT, Minsk e Papert (1968), era incapaz de distinguir
entre figuras tão simples, como T e C. Além disso, Minsk e Papert sustentaram que a explosão
combinatorial na quantidade de tempo necessária para o Percéptron aprender a solucionar alguns
problemas o tornava inviável. E em se tratando de certos programas específicos, o Percéptron
falhava. A operação lógica “ou exclusivo” (XOR), por exemplo, o Percéptron não foi capaz de
resolver. Estas e outras objeções técnicas fizeram com que a pesquisa fosse perdendo apoio. Os
críticos da abordagem conexionista conseguiram mostrar as insuficiências deste programa de
pesquisa na simulação de atividades mentais. O conexionismo antigo, então, entrou num estágio
de “hibernação”, uma vez que no final dos anos 80 com o trabalho de Rumelhart e McCleland
(1986), o conexionismo voltou à atividade total, com uma moderna teoria sendo esboçada por
seus adeptos.

72
Para os partidários desta posição, as redes conexionistas, como os sistemas técnicos e
computacionais, não se pretendem modelos de sistemas neurais, ou seja, não há concentração na
modelização neural, mas sim na modelização de processos cognitivos inspirada nos neurônios.
De acordo com esta nova teoria, podemos dizer que a principal função das redes
conexionistas é discriminar figuras, discriminação esta realizada computacionalmente. De
maneira geral, outras realizações cognitivas que não podem ser decompostas em problemas de
detecção de figuras não são abarcadas pela computação conexionista real, ainda que existam
tentativas de superação deste limite.

A “aprendizagem” numa rede conexionista ocorre da seguinte maneira: atribui-se à rede


pesos de conexão aleatórios. Apresenta-se uma figura de “input” ao sistema, que gera uma figura
de “output” que é comparada à figura-alvo desejada. Se o alvo e as figuras de “output” reais
diferirem, os pesos de conexão são ajustados, de acordo com uma fórmula matemática ou
algoritmo, para reduzir a diferença entre eles. As mudanças de peso necessárias para corrigir os
erros de “output” são “retropropagadas” pela rede até que as unidades de “output” mostrem o
“output” correto.

No entanto, a capacidade de reconhecimento demonstrada pelos sistemas conexionistas


não foi equivalente às capacidades humanas de reconhecer fenômenos em ambientes naturais.
Segundo Dreyfus (1972), os sistemas conexionistas estão fatalmente restritos a uma classe pré-
definida de respostas apropriadas embutida na rede pelo projetista. Sendo assim, o desempenho
do sistema é apropriado apenas para um determinado contexto, não possuindo o senso comum
necessário à adaptação frente a novos contextos.

Em suma, o conexionismo pretende, através da modelização conexionista, contribuir para


um melhor entendimento das relações cérebro-comportamento ou cérebro-“mente”, uma vez que
a abordagem cognitivista centrada na representação simbólica (chamada de cognitivismo)
apresenta falhas. O consenso estabelecido de que o cérebro funcionaria a partir de interconexões
maciças, num esquema distribuído, de tal forma que a configuração das ligações entre conjuntos
de neurônios pudesse se modificar ao longo da experiência, fez com que os pesquisadores

73
voltassem sua atenção à capacidade de auto-organização dos constituintes cerebrais, o que com
certeza não era explicitado no cognitivismo, uma vez que tal capacidade de auto-organização não
encontra espaço na lógica cognitivista.
A necessidade de atentar à auto-organização deve-se, principalmente, a duas
características do programa cognitivista: as regras seqüenciais do tratamento simbólico da
informação e a localização do tratamento simbólico. A primeira falha impôs limites radicais às
operações do sistema, especialmente quando havia grande número de operações seqüenciais. A
segunda, se explica pela alta dificuldade do sistema ao perder uma parte dos símbolos ou regras
durante a sua operação. Em contrapartida, se pensarmos num funcionamento distribuído, esta
perda não seria tão sentida, uma vez que haveria uma maior equipotencionalidade no
processamento do sistema.

Como vimos, para dar uma resposta a estes problemas temos a abordagem conexionista.
Segundo ela, o cérebro seria formado por um conjunto de constituintes simples e não inteligentes,
que semelhantemente aos neurônios, podem exprimir propriedades globais se estiverem ligados
entre si. É nesta ligação que reside um ponto importante do conexionismo, pois se dois neurônios
tentarem ativar-se em simultâneo, sua união é reforçada e em caso contrário, é diminuída.
Portanto, a configuração das ligações entre os constituintes do sistema torna-se inseparável das
transformações que sofrem durante o processamento. A ação, então, tem lugar ao nível da
conexão entre os neurônios.

Aqui não há mais a necessidade de símbolos ou regras para o sistema cognitivo. Os


constituintes simples estão ligados entre si de forma dinâmica, atingindo o nível de cooperação
global quando os estados dos neurônios atingirem um estado satisfatório, que emergiria
espontaneamente. Esta tendência ao funcionamento global, em detrimento do local, é uma das
características da auto-organização, que hoje é mais conhecida como propriedades emergentes.
Vale ressaltar que a emergência dos esquemas globais não ocorre apenas nos sistemas neuronais.
Qualquer agregado de conexões suficientemente denso apresenta tais propriedades, o que
aproximaria fenômenos naturais e cognitivos, uma vez que as mesmas propriedades emergentes
são constatadas em ambos os fenômenos.

74
Sendo assim, os neurocientistas utilizaram-se do programa conexionista, percebendo que
os neurônios devem ser investigados como constituintes de vastos conjuntos que atuam por
ocasião das interações cooperativas. "O cérebro é, portanto, um sistema altamente cooperativo: a
densa rede de interconexões entre elementos constituintes implica que tudo o que nela acontece,
será eventualmente uma função de todos os constituintes" (Varela, sem data).

Em suma, o programa conexionista define a cognição como sendo a emergência de


estados globais numa rede de componentes simples. A cognição funciona através de regras locais
que gerem as operações individuais e através de regras de mudança que gerem as ligações entre
os elementos. Por fim, de acordo com o conexionismo, podemos saber se o sistema cognitivo está
realmente obtendo êxito em seu funcionamento se as propriedades emergentes forem
identificáveis a uma faculdade cognitiva, ou seja, se houver uma solução correta para uma tarefa
solicitada ao sistema.

Um último aspecto que deve ser abordado a respeito do programa conexionista refere-se à
questão dos símbolos. Se no cognitivismo os símbolos constituem um dos pilares do programa,
no conexionismo, a computação simbólica é substituída por operações numéricas. Assim, os
símbolos dão lugar a complexos esquemas de atividades entre os múltiplos elementos que
constituem a rede.

O cognitivismo utiliza os símbolos, a fim de possuir um nível semântico ou de


representação de natureza física. Assim, os símbolos são ao mesmo tempo significantes e
materiais e, portanto, o computador é uma máquina que respeita o sentido dos símbolos,
manipulando-lhes apenas em sua forma física. Porém, o cognitivismo não conseguiu responder à
questão que se estabeleceu: como adquiriam os símbolos o seu sentido? Em universos muito
reduzidos, o significado dos símbolos é conhecido, como por exemplo, quando um computador é
programado, pois o programador conhece os símbolos e seu significado. Fora disto, os símbolos
só possuem sua forma, sendo desprovidos de sentido. Como resposta a tal problema, no programa

75
conexionista o sentido não está preso no interior de símbolos, mas depende do estado global do
sistema e está ligado à atividade geral de um domínio.

O conexionismo também é chamado de paradigma sub-simbólico, uma vez que o estado


global do sistema cognitivo emerge de uma rede de entidades que têm uma resolução mais
perfeita que os símbolos, do paradigma simbólico. Deste modo, resta-nos o problema de tentar
conciliar a emergência sub-simbólica e a computação simbólica. Isto seria possível, pois estas
abordagens são complementares e podem ligar-se de forma mista. Sendo assim, a relação entre as
duas abordagens seria de inclusão, na qual os símbolos seriam uma descrição das propriedades de
um sistema distribuído subjacente classificado ao mais alto nível. “Os símbolos não são
considerados pelo seu valor nominal, mas sim como macrodescrições aproximativas de operações
cujos princípios regentes pertencem ao nível subsimbólico” (Varela, sem data).

Os cognitivistas porém não concordam com esta tentativa de se ter uma abordagem mista,
uma vez que ela só se adequaria aos processos de baixos nível. Entretanto, os processos de alto
nível (faculdade de analisar frases, por exemplo) requerem um nível simbólico independente.
Naturalmente, o cognitivismo sentiu-se ameaçado enquanto programa já estabelecido. Porém,
sabe-se que somente a lógica dedutiva não é capaz de ser o paradigma do pensamento, uma vez
que, como vimos quando abordamos o problema da racionalidade, em muitos momentos de nossa
vida desprezamos a lógica formal para agirmos de acordo com nossas intuições individuais. Além
disso, em muitas situações a computação simbólica mostra-se muito limitada, explicitando a
necessidade de uma ajuda externa, o que seria conseguido através da abordagem mista. Esta seria
a maneira natural de conseguirmos maiores êxitos no âmbito das Ciências Cognitivas.

Se o conexionismo encontra equívocos no cognitivismo, há também quem encontre falhas


em seu programa de pesquisa. Passemos agora a uma nova abordagem dentro das Ciências
Cognitivas, que tenta fornecer respostas às falhas que encontra na concepção sustentada pela
Inteligência Artificial simbólica (também chamada cognitivismo) e pelo conexionismo: a Vida
Artificial.

76
6.2. Vida Artificial

Uma forte crítica à Inteligência Artificial simbólica e ao conexionismo é a ausência de


ligação com o meio ambiente, ao ignorarem os fatores fundamentais da cognição, como a
percepção e a locomoção. Em face deste problema, alguns pesquisadores voltaram sua atenção ao
fato de que alguns comportamentos de seres vivos sugeriam que seu sistema nervoso teria grande
capacidade computacional, apesar de sua simplicidade. Alguns destes comportamentos
observados são: o cão que abocanha no ar uma bola, a rã que projeta sua língua para capturar um
inseto, um kingfisher que captura o peixe dentro da água etc.

Estes comportamentos são notadamente complexos se levarmos em conta as limitações do


sistema nervoso destes animais. Fica claro que estes comportamentos tão rápidos e precisos
requerem uma grande capacidade computacional. Portanto, poderia estar em sua estrutura
biológica a explicação desta capacidade de se contornar os problemas da complexidade
computacional.

Estas são as idéias norteadoras de um novo programa de pesquisa: Vida Artificial. Esta
abordagem sustenta que em vez de tentarmos gerar uma descrição do cérebro instantaneamente,
devemos reproduzir o curso da evolução, onde do simples pode-se chegar ao mais complexo.
Para isto, deve-se construir máquinas autômatas, ou seja, máquinas capazes de gerar cópias de si
mesmas, de se auto-reproduzir. A evolução se encarregaria de fazer com que fôssemos da
máquina mais simples até aquelas mais complexas com maior capacidade computacional.

O primeiro a sustentar as idéias defendidas pela vida artificial foi von Neumann há
aproximadamente 40 anos atrás. Ele projetou um "organismo" que se reproduzia tal como um ser
vivo. A vida, segundo von Neumann, pode ser entendida como a transmissão de informação
realizada por um sistema dinâmico, capaz de se reproduzir, gerando um descendente ainda mais
complexo do que ele. Os seres vivos, portanto, eram os melhores modelos de inspiração para a
construção de sistemas artificiais cada vez mais potentes. O "organismo" de von Neumann, ao se
reproduzir, transmitia ao seu descendente uma cópia das informações que possui, garantindo que

77
este novo "organismo" também esteja apto a reproduzir-se, dando continuidade ao seu ciclo
reprodutivo. "Pela reprodução e mutação torna-se possível que os descendentes do autômata
sejam mais complexos e exibam maior capacidade computacional que seus genitores" (Teixeira,
1998). Portanto, a evolução garante um incremento gradual de complexidade às futuras
"gerações".

Podemos destacar alguns programas da abordagem da vida artificial que alcançaram


êxitos, dentre eles: o ArtAnt de Robert Collins ("organismos" em evolução competem pela
sobrevivência e aprendem a encontrar alimentos e a evitar conflitos), o programa de Dan Hillis
que usava processos darwinianos para melhorar a capacidade de resolução de problemas de um
programa e o programa de Craig Reynolds, onde seus "pássaros" (boids) deveriam obedecer às
seguintes regras: manter uma certa distância dos demais, voar na mesma velocidade que os
demais e voar em direção ao maior número de "pássaros". Reynolds percebeu a tendência de seus
boids a formarem bandos numa nítida demonstração de semelhança com o comportamento
humano. A maioria destes programas encontra-se descrita na obra de Walnum (1983).

Os modelos de sistemas evolucionários apareceram na década de 50 e 60 e foram


precursores dos algoritmos genéticos. Segundo John Holland (1975), seu inventor oficial, o
algoritmo genético seria uma abstração da evolução biológica. Seria um método para se passar de
uma população de “cromossomos” (cadeias de bits que seriam “organismos” ou possíveis
soluções para um dado problema) para uma nova população. Para isto, usa-se seleção natural e
operadores genéticos (cruzamento, mutação e inversão).

Geralmente, um algoritmo genético apresenta-se assim:


1º passo: começar com uma população de cromossomos gerada ao acaso;
2º passo: calcular a adaptabilidade de cada cromossomo na população;
3º passo: aplicar seleção natural e operadores genéticos, a fim de criar uma nova
população;
4º passo: voltar ao 2º passo.

78
Atualmente, podemos encontrar algoritmos genéticos presentes nas tarefas de otimização,
na programação automática, no aprendizado automático e nos robôs, nos modelos econômicos,
nos modelos de sistema imunológico, nos modelos de sistemas sociais, etc. Esta larga utilização
dos algoritmos genéticos constituiu uma nova disciplina dentro das Ciências Cognitivas, a
computação evolutiva.

Afinal, pode-se dizer que a abordagem da Vida Artificial ainda não institucionalizou-se
realmente no âmbito acadêmico. Esta abordagem ainda não é plenamente conhecida pelos
biólogos, sendo examinada mais de perto pelos cientistas da computação e pelos físicos.
Entretanto, tendo em vista sua proposta e seus êxitos já alcançados, esta situação de coadjuvante
tende a mudar.

A seguir examinaremos a abordagem da Nova Robótica, uma nova proposta que nasce
dentro da Inteligência Artificial, mas opondo-se a sua concepção simbólica. Como veremos, os
argumentos e as pretensões desta nova abordagem elaborada por Rodney Brooks (1991),
desafiam toda a história evolutiva do homem.

6. 3. A Nova Robótica

A abordagem da Nova Robótica foi desenvolvida fundamentalmente por Rodney Brooks


(1991), do Laboratório de Inteligência Artificial do MIT, na década de 80. A Nova Robótica
opõe-se à Inteligência Artificial simbólica e sua estratégia top-down, que equipara cognição e
representação, inteligência e pensamento simbólico, e que parte da tentativa de simular as
atividades cognitivas superiores (top) até chegar à simulação das atividades mais básicas (down).
A nova abordagem sustenta que para se produzir comportamento inteligente não é necessário
manipular um conjunto de regras ou manipulações explícitas. Basta que se priorize os
comportamentos simples que não requerem a existência prévia de representações (estratégia
bottom-up). Afinal, Brooks argumenta em seu artigo “Elephants do not play chess” (1990), que o
fato do elefante não estar apto a tarefas cognitivas superiores, como um jogo de xadrez, não
implica em ausência de inteligência.

79
A Nova Robótica se propõe a construir um agente autônomo, um robô móvel que deverá
interagir com seu meio ambiente, levando-se em conta fatores perceptivos e locomotivos.

São quatro os conceitos fundamentais desta abordagem: situação física, corporeidade,


inteligência e emergência. Os robôs da nova abordagem estão situados no mundo, ou seja, estão
conectados com o meio ambiente, com o mundo real e concreto, sem a necessidade de haver
representação do mundo para guiar o comportamento dos robôs. Além disso, os robôs possuem
um corpo, uma vez que a experimentação das diversas sensações é importantíssima à simulação
da inteligência, pois esta surge de fato da interação organismo-mundo. A inteligência simbólica
não é desconsiderada, mas surge mais tarde. Em primeiro lugar, há uma inteligência “bruta” que
vem da ação e da percepção. Sendo assim, podemos dizer que a inteligência emerge desta
interação com o meio e por isso, não pode ser pré-programada. Os comportamentos inteligentes
mais sofisticados surgem naturalmente do mais simples, que são muitos e variados.

O robô idealizado por Brooks possui camadas que executam atividades e são totalmente
independentes entre si. Quando há o adicionamento de mais uma camada ao robô, esta funciona
independentemente das demais e a camada anterior não terá conhecimento deste acréscimo.
Percebe-se, portanto, que há uma competição entre os comportamentos produzidos, uma vez que
não há um controle central para dar direção ao robô. Sendo assim, existe a arquitetura de
subsunção responsável por resolver os conflitos entre os comportamentos divergentes. Através
deste mecanismo, há a inibição de um comportamento em detrimento de outro. Por exemplo, se
um robô estiver indo para frente em direção à sua presa e se deparar com um obstáculo, o
comportamento “levantar a perna” inibirá o de “ir para frente”, o que possibilitará a transposição
do obstáculo. Esta composição do robô de Brooks permite uma verdadeira interação com o meio,
uma vez que ele reage a este meio sem possuir programações prévias para isto.

O Laboratório de Brooks no MIT já construiu agentes autômatos interessantes, como


ALLEN, HERBERT e COG. O projeto mais complexo do laboratório e o mais ambicioso
também é o robô COG, que está sendo idealizado para ser um humanóide completo. Sendo assim,
ele deverá não só simular os pensamentos humanos, mas também os sentimentos.

80
COG é constituído por um conjunto de sensores e de atuadores, responsáveis por simular
aspectos sensório-motores do corpo humano. Ele aprende nas interações com humanos e com o
meio. Além disso, COG será uma criança que terá a sua “infância artificial”. Possuirá um
mecanismo de reconhecimento facial, que lhe permitirá reconhecer sua “mãe” (a ser escolhida
entre as componentes da equipe). O que COG aprender com a experiência será previamente
programado como inato numa nova versão: COG-2 e assim sucessivamente. Assim, em alguns
anos os robôs COG terão percorrido os milhões de anos de evolução do ser humano.

Afinal, é sabido que a abordagem da Nova Robótica, representada pelo trabalho de


Brooks, traz uma proposta inovadora. Se a estratégia bottom-up for mesmo a mais indicada na
análise da cognição, muitos dos fundamentos teóricos das Ciências Cognitivas deverão ser
revistos, principalmente a clara diferenciação que existe hoje entre cognição e mundo.

A última das abordagens recentes nas Ciências Cognitivas a ser enfocada aqui é a Escola
Chilena e a sua proposta da enação. Aqui, também encontraremos fortes críticas ao cognitivismo
e ao conexionismo, bem como o convite de concebermos a cognição de uma nova maneira.

6. 4. A Enação

A Escola Chilena apoia-se na abordagem da enação (fazer-emergir), que opõe-se a uma


idéia comum a ambos os programas de investigação, esboçados aqui, (o cognitivismo e o
conexionismo) ao sustentar que o critério de avaliação da cognição não pode ser a representação
de um mundo exterior predeterminado, pois a nossa atividade cognitiva quotidiana lida com
questões que surgem a cada momento em nossa vida. Tais questões não estão todas
predeterminadas. Ao contrário, somos nós mesmos, no dia-a-dia, que as fazemos emergir.
Portanto, elas são parte de um contexto situacional e do senso comum que possuímos acerca das
coisas do mundo.

81
Desta forma, nesta abordagem a noção de representação não é mais aceita, uma vez que
não vivemos num mundo predefinido que pode ser facilmente representado. Se não acreditamos
na predeterminação do mundo, também não podemos acreditar em sua representação. Assim, o
conceito de representação dá lugar ao de ação. E no momento que esta abordagem desacredita o
conceito de representação, se constitui na crítica mais radical aos fundamentos das Ciências
Cognitivas.

As Ciências Cognitivas dividiram o mundo em domínios, um certo espaço de problemas,


onde o sistema cognitivo deve atuar (o domínio da linguagem, por exemplo). Assim, em se
tratando de alguns domínios, o do xadrez é um bom exemplo, a abordagem computacional não
encontrou sérias dificuldades ao lidar com os problemas deste domínio específico, uma vez que
seus limites estão claramente definidos. Em outros domínios (o da linguagem, por exemplo), não
existem limites definidos. É o nosso senso comum que deve configurar o mundo de
possibilidades existentes. Sabe-se que no nosso mundo natural, o significado de uma só palavra
pode variar (e muito). Somente um conhecimento profundo da língua nos permite o entendimento
das variações dos significados das palavras.

Tanto o cognitivismo quanto o conexionismo sempre tentaram afastar de suas


investigações o senso comum em prol de uma elucidação ulterior. Entretanto, ele faz parte de
nós, assim como nossa história. Além disso, não podemos sair do mundo em que vivemos para
compará-lo às representações que possui. Somos parte deste mundo. Estamos inseridos no
contexto. Não podemos simplesmente eliminar o senso comum e o contexto das investigações
cognitivas, pois estes elementos constituem a base de nossa cognição criadora. “Estabelecendo
regras para exprimir a atividade mental e símbolos para exprimir as representações, afastamo-nos
precisamente do eixo sobre o qual se assenta a cognição na sua dimensão verdadeiramente viva”
(Varela, sem data), o que só é possível em contextos limitados.

Segundo o cognitivismo, há duas noções de representação: uma forte e uma fraca. Como
vimos, na noção fraca, a representação seria vista como uma interpretação do estado do mundo,
referindo-se somente a um caráter pragmático de utilização.

82
Já a noção forte, concebe que os sistemas cognitivos agem a partir de representações
internas. Assim, existe um mundo predeterminado e para explicar as relações entre este mundo e
nossa atividade cognitiva deve haver representações mentais no interior do sistema cognitivo.

A representação, portanto, seria um processo passivo na medida em que apenas reconstitui


propriedades predefinidas. A enação, ao contrário, sustenta que a atividade cognitiva é ativa, pois
foi o próprio processo contínuo da vida que moldou o nosso mundo através do vaivém entre as
obrigações externas e a atividade gerada interiormente. Ou seja, a resolução dos problemas
colocados ao sistema cognitivo não se dá por meio de representações, mas sim pela enação de
mundos diferentes, baseada no histórico de categorias viáveis. Mais do que a reflexão do mundo,
há a construção do mundo pelo sistema cognitivo.

Em suma, de acordo com a abordagem da enação a cognição seria uma ação produtiva
que faz-emergir o mundo e funcionaria através de uma rede de elementos interconectados. O
sistema cognitivo daria mostras de sucesso se se unisse a um mundo de significados preexistentes
em desenvolvimento ou se constituísse um mundo novo, assim como ocorre na evolução.

Assim, não se concebe mais a inteligência como a capacidade de resolver problemas, mas
como a habilidade de entrar num mundo já existente. Resta dizer que esta abordagem é ainda
pouco utilizada como uma alternativa à representação no estudo dos processos cognitivos.
Entretanto, vem crescendo o número de adeptos de todas as áreas a esta nova proposta. Contudo,
à enação ainda resta um lugar periférico dentro das Ciências Cognitivas.

83
7. Referências Bibliográficas

COLLINS, A. M. E QUILLIAN, M. R. (1969) - Retrieval Time for Semantic Memory, Journal of


Verbal Learning and Verbal Behavior, 8, 240-248.

LE NY, J.-F. (1994) – Les Répresentations Mentales em M. RICHELLE., J. REQUIN e M.


ROBERT., Traité de Psychologie Experimentale, Paris, PUF, 183-223.

PAIVIO, A. (1966) – Latency of Verbal Associations and Imagery to Nouns Stimuli as a Function of
Abstractness and Generality, Canadian Journal of Psychology, 20, 378 – 387.

ROSCH, E. (1973) – Natural Categories, Cognitive Psychology, 4, 328-350.

ROSCH, E. (1978) – Principles of Categorization, em E. ROSCH. e B.B. LOYD (eds.), Cognition


and Categorization, Hillsdale, N.J., Lawrence Erlbaum.

SAUSSURE, F. (1916) – Cours de Linguistique Générale, Paris, P.U.F.

SHEPARD, R. N. e COOPER, I. A (1982) – Mental Images and Their Transformations,


Cambridge, MA, MIT Press.

SHEPARD, R. N. e METZLER, J. (1971) – Mental Rotation of Tree-Dimensional Objects,


Science, 171, 701-703.

84

Você também pode gostar