inteligÊncia artificial e as ciÊncias cognitivas

24
1 PONTIFÍCIA UNIVERSIDADE CATÓLICA DE SÃO PAULO Programa de Pós-Graduação em Comunicação e Semiótica ARTIGO CIENTÍFICO INTELIGÊNCIA ARTIFICIAL E AS CIÊNCIAS COGNITIVAS Sílvio César da Silva Orientador: Prof. Dr. Eugênio Trivinho

Upload: silvio-cesar-da-silva

Post on 01-Jul-2015

634 views

Category:

Documents


5 download

TRANSCRIPT

1

PONTIFÍCIA UNIVERSIDADE CATÓLICA DE SÃO PAULOPrograma de Pós-Graduação em Comunicação e Semiótica

ARTIGO CIENTÍFICO

INTELIGÊNCIA ARTIFICIAL E AS CIÊNCIAS COGNITIVAS

Sílvio César da SilvaOrientador: Prof. Dr. Eugênio Trivinho

2006

2

SÍLVIO CÉSAR DA SILVA

INTELIGÊNCIA ARTIFICIAL E AS CIÊNCIAS COGNITIVAS

Artigo Científico apresentado ao Programa de Estudos de Pós-Graduação em Comunicação e Semiótica como instrumento de avaliação para a disciplina de Ciências Cognitivas ministrada pela Profª. Drª. Christine Greiner.

Área da Concentração: Signo e Significação nas Mídias

Linha de Pesquisa: Sistemas Semióticos em Ambientes Midiáticos

São Paulo2006

3

Inteligência Artificial e as Ciências Cognitivas

ResumoO escopo do presente artigo é discutir a influência das Ciências Cognitivas no desenvolvimento da inteligência artificial através da criação de redes neurais e do estudo da inteligência natural e não-natural que no cérebro humano corresponderá ao hardware computacional, e padrões de pensamento ou solução de estados mentais que poderão ser descritos de forma totalmente independente da constituição específica do sistema nervoso humano. Tais noções esclareceram as implicações epistemológicas das várias demonstrações da Inteligência Artificial.

AbstractThe target of the present paper is to argue the influence of Cognitive Sciences in the development of artificial intelligence through the creation of neural nets and of the study of the natural and not-natural intelligence that in the human brain will correspond to the computational hardware, and standards of thought or solution of mental states that could be described of total independent form of the specific constitution of the human nervous system. Such slight knowledge had clarified the epistemologist implications of the some demonstrations of Artificial Intelligence.

Palavras-chaves: Inteligência Artificial, Ciências Cognitivas, Sociedade da Mente

Key-words: Artificial Intelligence, Cognitive Sciences, Society of the Mind

4

Em meados da década de 50 veremos, através do esforço de vários campos

associados e, principalmente, devido à invenção e disseminação do computador, o

aparecimento da ciência cognitiva, que possibilitará a volta a algumas das questões

clássicas da filosofia e também a conceitualização dos processos mentais de formas novas e

frutíferas. A ciência cognitiva pode ser definida como “um esforço contemporâneo, com

fundamentação empírica, para responder questões epistemológicas de longa data,

principalmente aquelas relativas à natureza do conhecimento, seus componentes, origens,

desenvolvimento e emprego” (Gardner, 1985, p.19).

Essa “nova ciência da mente” será fundada na crença de que é legítimo postular um

nível de análise separado, que pode ser chamado “nível da representação”, necessário para

explicar a variedade do comportamento, da ação e do pensamento humano (idem). Dessa

forma, a atividade cognitiva humana será descrita em termos de símbolos, esquemas,

imagens, idéias, e outras formas de representações mentais.

Durante esse período otimista de formação, a analogia com o sistema humano e os

processos humanos de pensamento foi evidente. O computador, além de funcionar como

uma ferramenta valiosa de trabalho passa a servir como um modelo do pensamento humano

(idem). Tudo isso à luz das idéias, vindas da filosofia clássica, de que a mente é, em alguns

aspectos, semelhantes a uma máquina, de que ela opera sobre o conhecimento codificando

em alguma linguagem interna, e que o pensamento pode ser usado para escolher as ações

que deverão ser executadas. Essas idéias tornam possível a criação da Inteligência Artificial

(IA), a partir da contribuição de áreas como a filosofia, matemática, economia e psicologia,

que terá como objetivo, além de tentar compreender como pensamos, tentar construir

entidades inteligentes (Russell & Norvig, 2003).

O cérebro humano corresponderá ao hardware computacional, e padrões de

pensamento ou solução de problemas (estados mentais) poderão ser descritos de forma

totalmente independente da constituição específica do sistema nervoso humano. Tais

noções esclareceram as implicações epistemológicas das várias demonstrações da IA

(Gardner, 1985).

5

A IA desde sua criação nos anos 50, bem como da ciência cognitiva, terá uma

história de sucesso, otimismo impróprio e, logo após, quedas no entusiasmo e em seu

incentivo financeiro. Também haverá ciclos de introdução de novas abordagens e

aprimoramento, e chegará à década de 1970, marcada pela mudança dos sistemas de

conhecimento generalistas para os especialistas para a compreensão da linguagem e outros

domínios cognitivos (Gardner, 1985). O enorme crescimento das aplicações para a

resolução de problemas reais causou um aumento simultâneo na demanda por esquemas

utilizáveis de representação do conhecimento, seja ele codificado como um conjunto de

fatos ou declarações armazenadas, ou codificado como um conjunto de procedimentos ou

ações a serem executadas (Gardner, 1985; Russell & Norvig, 2003).

Esses esquemas seriam estruturas para representar o conhecimento, nas mentes ou

nas máquinas, abrangendo uma série de conceitos que se inter-relacionam em uma

organização significativa. Os conceitos seriam as unidades fundamentais do conhecimento

simbólico.

Dada a sua concepção funcionalista do mental, segundo a qual o fato de um sistema

físico ter mente consiste na realização por esse sistema físico de uma determinada

organização funcional, Dennett considera que não existe nenhuma diferença essencial entre

a inteligência natural e a inteligência artificial. O campo disciplinar da IA pode por isso

servir como fonte de vários esclarecimentos em filosofia da mente e as experimentações

possíveis em IA via a criação de programas e robôs devem ser consideradas como

contribuições importantes para a compreensão das mentes naturais.

Pondo em prática esta convicção, Dennett tem-se servido ao longo da sua obra de

exemplos de criações da IA para desafiar e ilustrar pontos na teoria da mente. Já o fez com

o General Problem Solver de Newell, Simon e Shaw (um programa capaz do tipo de

raciocínio heurístico chamado análise meios/fins) nos anos 60, continua hoje a fazê-lo com

os robôs móveis autônomos de Rodney Brooks capazes de comportamentos cognitivos no

mundo e mesmo de estratégias de cooperação em grupo, e finalmente, mantendo uma

proximidade prática com o campo, através da sua participação como "filósofo residente" no

6

projeto da criação de Cog, o robot humanóide do Laboratório de Inteligência Artificial do

MIT, dirigido por Rodney Brooks.

Estes programas e robôs são para Dennett experiências mentais reais ou realizadas,

mesmo se são experimentações sobre o "mental-possível" que não simulam ou explicam

imediatamente o "mental-natural". São experiências mentais no duplo sentido de partirem

da imaginação sobre o que poderia acontecer em determinadas circunstâncias e de serem

acerca a mente, e são reais na medida em que conduzem à criação de programas e

máquinas, uma vez que a IA é um campo afim da engenharia.

Mas a IA é para Dennett mais do que uma fonte de exemplos e experiências

mentais. Dennett entende a IA como uma maneira de fazer filosofia, mesmo se não é isso

que estes cientistas pensam que estão a fazer. Essa atividade, fazer filosofia, é entendida

por Dennett à maneira de Kant como uma investigação das condições de possibilidade da

cognição em geral. Isto quer dizer que a epistemologia pura dos filósofos é para Dennett

apenas o caso limite num continuum que envolve também as criações da IA. As questões da

filosofia e da IA são identicamente abstratas e gerais e visam a emergência no mundo físico

de percepção, ação, inteligência e consciência. A IA partilha ainda com a filosofia o

método das experiências mentais. Aliás, segundo Dennett, os métodos da IA são um paraíso

para filósofos, precisamente porque todo o campo consiste em experiências mentais. Esta

afirmação parece falhar o alvo em relação a um domínio de engenharia, no entanto aquilo

que Dennett pretende pôr em relevo é o possível desprendimento da questão do mental em

relação ao mental biologicamente baseado atual: este não tem privilégios por princípio, ou

só os teria como conseqüência de um essencialismo acerca das origens que para Dennett é

indefensável. Os fenômenos mentais biologicamente baseados e atuais situam-se por isso

conjuntamente com outras formas possíveis de mentes num mesmo espaço do design.

Mas estas experiências mentais da IA têm uma vantagem em relação às da filosofia

pura: como são experiências mentais controladas via "próteses" (os computadores) as

hipóteses podem ser refutadas em concreto, no sentido próprio daquilo que acontece numa

experimentação, enquanto que nas experiências mentais dos filósofos nada pode nunca

correr mal, pois não existindo o constrangimento que representa o fato de se ter que

7

construir o modelo que se imagina, não há lugar para as surpresas com que se aprende. A

Inteligência Artificial e Vida Artificial têm, na sua maneira de colocar a questão de Kant,

uma vantagem não apenas em relação à filosofia pura mas também em relação às

investigações cognitivas a que Dennett chama "abstêmias", por exemplo aquelas que são

estritamente neurobiológicas e procedem "neurônio a neurônio". Essa vantagem é a

seguinte: é mais fácil deduzir competências comportamentais dos mecanismos que se

construiu do que elaborar hipóteses acerca de mecanismos internos de caixas negras cujo

comportamento se observou (o que é a posição do cientista "abstêmio", por exemplo do

neurocientista, por comparação com o teórico da IA).

Este louvor das vantagens da passagem à ação que a tentativa de constituição de

uma IA representa por contraposição à investigação de uma inteligência "natural" tem

ligações com uma idéia diretriz de Dennett quanto à investigação da mente: para Dennett as

Ciências Cognitivas enquanto ciências da inteligência "natural" ganharão se se assumirem

como uma prática de Engenharia Invertida (reverse engineering).

Segundo Dennett, as ciências cognitivas, enquanto ciências da mente-cérebro,

investigam soluções de design biológico, soluções já realizadas e freqüentemente

imperfeitas, muito distantes da melhor solução possível, inclusive porque partem da

necessidade de aproveitar o material pré-existente na evolução biológica, nunca partindo

obviamente do zero. Ao sublinhar esta imperfeição e oportunismo das soluções biológicas

de design, Dennett pretende combater aquele que considera ser um defeito característico de

filósofos e outros cientistas cognitivos, a tendência a considerar que, em relação ao estudo

da mente e na exclusão do dualismo, restam a física e a matemática, ocultando a

perspectiva teoricamente menos pura da biologia-como-engenharia (e por isso parente da

IA...) como chave para o estudo da mente.

A maneira de trabalhar da IA é segundo Dennett - e isto é um louvor - ambiciosa e

"saltadora de etapas": é uma abordagem top-down que nos fará avançar mais rapidamente

na compreensão da cognição do que as descrições bottom-up, nomeadamente as

neurobiológicas.

8

Por tudo isto, Dennett nunca deixa de recomendar aos filósofos a familiaridade com

os problemas de implementação relacionados com os seus problemas mais abstratos acerca

da mente. Por exemplo, aconselha sempre a familiaridade com o Jogo da Vida de John

Horton Conway, baseado na teoria dos autômatos celulares e antecessor das investigações

no campo da Vida Artificial, como uma maneira prática de considerar problemas relevantes

para a filosofia da mente como a identidade através do tempo, a causação, os níveis de

explicação. Correlativamente, aos cientistas que trabalham em IA, Dennett recomenda

algumas leituras filosóficas (como Hume, Ryle, Wittgenstein, Millikan...) oferecendo a

possibilidade de pela consciência histórica serem capazes de discernir as más idéias perenes

no tratamento da cognição que certamente os perseguirão.

Como foi dito, a fundamentação da posição de Dennett em relação à IA é o fato de

não admitir a possibilidade de uma distinção de essência entre Inteligência "natural" e

inteligência “não-natural”. Na medida em que a caracterização dos fenômenos mentais é

funcional, a discriminação entre os substratos que os realizam não está justificada. A IA

pode não ser natural por não ser resultado da evolução biológica mas, se a definição de

mental como funcional é legítima, ela é genuína e pode-nos fazer aprender muito sobre os

problemas específicos dos sistemas de representação de conhecimento dos quais a nossa

mente/cérebro é um caso particular.

No entanto para alguém como Fodor, esta fascinação de Dennett pela IA como

"maneira de investigar a mente" está completamente mal dirigida: segundo Fodor, a ciência

da mente deve ser psicologia cognitiva e não IA. A IA é engenharia, construção de

máquinas e como tal tem interesse científico por si, mas não é o bom caminho para o estudo

da mente. Uma coisa é tentar entender o pensamento, outra é construir máquinas

inteligentes: como Fodor diz também não se faz física simulando o universo. Essa seria

uma idéia muito pouco razoável, porque os fenômenos que observamos no mundo são

efeitos de complicadíssimas interações nos mecanismos subjacentes e na prática

impossíveis de reconstituir e isto também se aplica à física da cognição. Fodor pensa que

fazer ciência é simplificar para compreender e não simular, e assim deve fazer-se também a

ciência da mente. Mas Dennett quer andar depressa e a IA parece-lhe o atalho ideal.

9

O diferencial entre as posições de Fodor e Dennett quanto à IA é conduzida à

questão de saber se há ou não casos em que a simulação é replicação. Para quem defende

uma teoria funcionalista da natureza de alguma coisa, nomeadamente do mental, é difícil

resistir à conclusão de que há casos em que a simulação é replicação.

Além do mais é preciso decidir até que escala uma simulação teria que fazer-se para

obter propriedades mentais. No caso de as propriedades mentais serem funcionais e de nível

mais elevado do que a estrutura física da matéria que Fodor considera irreprodutível, a sua

objeção poderia não ser eficaz.

Frames e a representação do conhecimento

Veremos, assim, nos EUA, os pesquisadores interessados em IA adaptarem a noção

de esquemas mentais a vários modelos computadorizados buscando construí-los da maneira

como o conhecimento é representado e usado, como parte de seu interesse geral em

desenvolver modelos computadorizados da inteligência (Sternberg, 1996). Para isso, foi

desenvolvido um grande número de diferentes linguagens de representação e raciocínio,

várias delas, seguindo a idéia de frames (estruturas) e a metáfora da “sociedade da mente”

de Minsky, um importante cientista e pesquisador da Inteligência Artificial do

Massachusetts Institute of Technology (MIT).

Minsky se preocupará em criar uma abordagem que leva à criação de programas

computacionais que têm desempenho mais efetivo e modelam a atividade comportamental

humana mais fielmente. Para isso ele tenta juntar diversas pesquisas de Psicologia e IA

pretendendo ter uma teoria unificada e coerente da efetividade do pensamento do senso

comum. Suas idéias podem ser vistas como reações contra abordagens que deixam de

embutir conhecimento anterior ou expectativas, e também contra abordagens que exibem

conhecimento detalhado de uma área específica, mas não têm absolutamente nenhuma

generalidade ou conexão com qualquer outro domínio (Minsky, 1974 & Gardner, 1985).

10

De acordo com sua teoria quando alguém se depara com uma nova situação (ou cria

um mudança substancial na sua observação do problema presente) ela seleciona de sua

memória uma estrutura denominada Frame.

Uma frame é uma estrutura de dados para representar algum tipo de ambiente ou

uma situação estereotipada, tais como entrar em uma sala-de-estar, ou ir para um festa de

criança. Junto com cada frame estão vários tipos de informação: algumas são sobre como

usar a frame, algumas são sobre o que se espera que aconteça a seguir, e outras são sobre o

que fazer se alguma dessas expectativas não forem confirmadas (Minsky, 1974).

Ou seja, ligada a uma frame para participar de uma aula na faculdade está uma

especificação de como usar essa frame, por exemplo, o que fazer para se preparar para ir à

aula, como se comportar durante a aula. Em segundo lugar, tal frame especifica que,

quando o horário da aula se aproximar, você pode esperar que a maioria dos estudantes

esteja sentada e o professor entre na sala e comece a falar para o grupo de estudantes. Em

terceiro lugar, se o professor não chegar e ninguém aparecer para explicar o atraso do

professor, após um razoável período de tempo, espera-se que os estudantes comecem a

circular e finalmente abandonem a sala de aula, sem terem assistido a uma aula.

Podemos pensar uma frame como uma rede de nós e relações, reunindo fatos sobre

tipos específicos de objetos e eventos, e organizando-os em uma grande hierarquia

taxonômica análoga a uma taxonomia biológica (Russell & Norvig, 2003). Os níveis mais

altos de uma frame são fixos, e representa coisas que são sempre verdadeiras sobre a

suposta situação, por exemplo, durante as aulas, sempre há estudantes que escutam e um

conferencista que fala aos estudantes. Os níveis mais baixos possuem vários terminais -

lugares (slots) que são preenchidos pelos detalhes específicos de uma dada instância, por

exemplo, a aparência do professor, dos estudantes, assim como os estilos e as técnicas

particulares de ensinar.

Frames será uma versão de redes semânticas (relacionada ao significado, conforme

é expresso na linguagem - isto é, em símbolos lingüísticos), ou seja, uma estrutura esperada

de conhecimento sobre um domínio constituído por um núcleo e um conjunto de terminais.

Cada terminal corresponde a algum aspecto do domínio sendo modelado pela estrutura.

11

Nele uma descrição é criada e depois mantida através da substituição de valores previstos

por valores observados. Estas estruturas inter-relacionadas, as chamadas inter-frames,

tornam possível outras formas de representação de conhecimento sobre fatos, analogias, e

outras informações úteis na compreensão (Minsky, 1974). Supõe-se que os indivíduos

possuem muitas centenas de frames organizadores e interpretadores, e que combinações

destes frames serão invocados em qualquer situação razoavelmente complexa (Gardner,

1985).

A Sociedade da Mente

Minsky também apresentou uma concepção intrigante de como a mente funciona,

levando às novas propostas de como programas computacionais deveriam ser elaborados.

Em vez de acreditar em um simples processador geral/central, através do qual toda a

informação deve passar, ou em uma mente organizada e unificada que supervisiona toda

atividade, Minsky julga que a atividade mental é constituída por muitos agentes, cada um

dos quais é um especialista de algum tipo.

A partir de um de seus projetos, desenvolvidos no MIT com S. Papert, a construção

de uma máquina que pudesse ver bem o suficiente para ser capaz usar mãos mecânicas para

resolver problemas do mundo real, Minsky descobre que nenhum método sozinho é capaz

de trabalhar bem (Minsky, 1985, p.324). Por exemplo, o robô raramente distingui a forma

de um objeto usando apenas a visão, ela também precisa explorar outros tipos de

conhecimento sobre quais tipos de objetos servem para ser vistos. Esta experiência lhe

trouxe a idéia que a organização de diferentes tipos de processos interligados seriam

suficientes.

Em seu livro ‘The Society of Mind’ (1985), Minsky tenta explicar como a mente

funciona, mostrando como é possível construir uma mente formada de muitas partes

pequenas, que sozinhas são desprovidas de mentes. Uma de suas idéias é que essas

pequeninas máquinas podem contribuir para teorias sobre como funciona o pensamento. E

12

teorias melhores sobre como o processamento do pensamento, em sua concepção, nos

deixaria mais próximos de criar máquinas que façam tudo que as pessoas fazem.

De acordo com esta visão de “sociedade da mente”, a mente é construída de muitos

pequenos processadores chamados agentes (agents). Estes agentes da mente só podem fazer

coisas simples que não precisam de mente ou pensamento, mas que em sociedades conduz

para a verdadeira inteligência, podendo manejar diferentes tipos de conhecimento

simultaneamente. Cada agente local tem uma função, que é requisitada em certas

circunstâncias, e cada um tem acesso a outros agentes. Os agentes se comunicam emitindo

estimulação e inibição, ou mesmo censurando, e não transmitindo expressões simbólicas.

Mas tentar saber como os agentes são interligados - como grupos de agentes podem

completar as coisas com êxito - não é suficiente. Segundo este esquema, algumas partes da

mente sabem certas coisas (saber como), enquanto outras partes sabem coisas sobre as

anteriores (saber por que). Na verdade, o conhecimento de quais os agentes que podem

saber ou realizar que coisas tornam-se um componente crucial desta nova maneira de

conceber a mente (Minsky 1979, 1982 apud Gardner, 1985).

Minsky exemplifica os processos de representação na inteligência a partir do estudo

de uma criança brincando com blocos de construção. Imaginando que a mente de uma

criança possua um exército de pequenas mentes, os agentes mentais. Um agente chamado

Construtor (Builder) ficaria no controle para fazer torres com os blocos. Como construir

uma torre é um trabalho complicado para um único agente simples, então, o Construtor

pede ajuda de uma série de outros agentes, como iniciar (a construção), adicionar (blocos),

terminar; que por sua vez chamarão outros agentes para ajudar, por exemplo, para adicionar

blocos é necessário achar um bloco, e para isso vê-lo, movê-lo, depois, colocá-lo no lugar,

etc.

Apesar de um adulto achar que construir torres de blocos seja fácil, uma criança

dedica-se algumas semanas para essa tarefa. Isso indica que há um desenvolvimento,

todavia, apesar dos adultos saberem como fazer as coisas, ninguém entende como aprendeu

a fazê-las. Empilhar blocos são habilidades que aprendemos há muito tempo e não podemos

lembrar como aprendemos, essa tarefa fica relegada a um mero senso-comum - entretanto

13

senso-comum não é uma coisa simples, mas uma imensa sociedade de idéias práticas que

com grande dificuldade foram adquiridas de multidões de regras e exceções, disposições e

tendências, balanço e checagens, aprendidas na vida.

Considerações Finais

A ciência cognitiva contemporânea - o representacionismo e a IA desenvolvida pelo

MIT nos anos 70 - herdou os pressupostos da teoria clássica da representação. Este tipo de

ciência cognitiva que em grande parte prevalece até hoje, desenvolveu uma visão da

cognição e do chamado “modelo computacional da mente” onde ambos são definidos como

computações de representações simbólicas, muito próximas da noção de idéia cartesiana, e

por isso mesmo, pressupõem o “fantasma na máquina”, a mesma pressuposição que fazia

com que Descartes reconhecesse as limitações dos autômatos que os impediriam de terem

uma vida mental semelhante a nossa, por mais que a tecnologia pudesse avançar (Teixeira,

2004).

Essas são as principais dificuldades conceituais encontradas nas tentativas de

formulação de modelos cognitivistas da consciência: uma máquina poderia fazer tudo o que

um ser-humano faz, mas nunca poderia adquirir consciência do que está fazendo (Turing,

1950 apud Teixeira, 1995). Na visão do funcionamento mental, defendida por Minsky

(1985 apud Teixeira, 1995), a idéia de consciência apareceria pelo fato de que o sistema

possuiria um módulo superior ou controlador dos outros, que coordenaria as atividades do

sistema como um todo, dando-lhe unidade. Este módulo superior, para efetuar o controle,

teria acesso (externo) aos outros módulos e conteria em si um modelo do sistema - e é este

último aspecto que o equipararia a uma idéia de consciência. Esta concepção da consciência

como módulo controlador enfrenta todas as dificuldades geradas pelo regresso ao infinito,

afinal, o que monitora o módulo controlador? Será que podemos encontrar uma semelhança

de propriedades entre o módulo controlador e aquilo que habitualmente chamamos de

consciência? Este módulo superior seria incognoscível, ultrapassando o escopo da

investigação realizada pela ciência cognitiva (Teixeira, 1995).

14

A idéia de conhecimento como representação dos sistemas especialistas da década

de 70, parece estar na raiz da dificuldade tecnológica aparentemente envolvida na

construção destes sistemas: explosão combinatória, rigidez de estrutura e assim por diante

(Teixeira, 2004). Apenas recentemente os teóricos da IA têm desenvolvido tentativas de

reverter este quadro desanimador oriundo desta má parceria filosófica.

Paradoxalmente, observa-se que enquanto a filosofia neste último século tentou

derrubar a noção de representação e evitar o mentalismo nas suas concepções sobre o

conhecimento, a ciência cognitiva nas últimas décadas tentou se consolidar

fundamentando-se na noção de representação (idem). Para os filósofos esta noção sempre

constituiu um dos aspectos mais problemáticos a serem enfrentados pelas teorias da

cognição. Embora tenha sido numa aliança com a filosofia analítica que a ciência cognitiva

procurou encontrar seus fundamentos e ferramentas conceituais - definições de

conhecimento, representação, inferência, etc. - a própria filosofia analítica, nos últimos

anos, têm colocado em questão suas noções tradicionais de representação e conhecimento.

Ao ignorar a evolução da própria filosofia que lhe serviu de fundamento, a ciência

cognitiva pode comprometer seu futuro como programa de pesquisa. Essa ciência não pode

prescindir de uma noção de representação, mas, para incorporar os resultados da reflexão

filosófica contemporânea, teria de situar-se para além da noção tradicional de representação

(idem). Deixar de conceber a representação como fundamento da cognição e passar a tê-la

como um fenômeno que ocorre no mundo, constituindo parte integrante deste. Nossa

representação do mundo é parte do mundo e não sua condição de possibilidade – isto

parece ser a grande reversão operada pela filosofia contemporânea na sua crítica às teorias

que partem de uma noção tradicional de representação (idem).

A criação da ciência cognitiva apresenta-se, assim, como um estímulo à filosofia,

permitindo definir questões científicas cognitivas fundamentais de uma forma coerente e

assegurar a integração apropriada de trabalhos de campos díspares como uma auxiliar

indispensável para os cientistas empíricos. Mas, pela mesma razão, a filosofia deve sempre

acompanhar as descobertas científicas, para evitar se transformar em uma disciplina estéril,

ou irrelevante para o trabalho científico (Gardner, 1985).

15

Referências Bibliográficas

BAUMGARTNER, PAYR. (1999) Speaking Minds, Princeton University Press

DENNETT, Daniel. (1978) Brainstorms, MIT Press

__________. (1998) Brainchildren, Penguin

__________. (1999) Cog as a Thought Experiment

__________. (2000) Real Patterns

__________. (2001)Things about things

GARDNER, H. (1985) A Nova Ciência da Mente: Uma História da Revolução Cognitiva. São Paulo: Edusp.

HAUGELAND, (1985) Artificial Inteligence, The Very Idea, MIT Press

MINSKY, M. (1974) A Framework for Representing Knowledge. MIT-AI Laboratory, Memo 306, June, 1974. Disponível em: <http://web.media.mit.edu/~minsky/papers/ Frames/frames.html>. Acesso: 1 de maio de 2005.

__________. (1985) The Society of Mind. New York, USA: Touchstone.

RUSSELl, S & NORVIG, P. (2003) Inteligência Artificial. Rio de Janeiro: Elsevier.

STERNBERG, RJ. (1996) Psicologia Cognitiva. Porto Alegre: Artes Médicas Sul.

TEIXEIRA, JF (1995). Cognitivismo e Teorias da Consciência. In: Carvalho, MCM (Org). A filosofia analítica no Brasil. Campinas, SP: Papirus.

__________. (2004). Filosofia e Ciência Cognitiva. Petrópolis, RJ: Vozes.