fundamentos de ia - unidade i.pdf

11

Click here to load reader

Upload: hernane-guedes-jaques

Post on 22-Dec-2015

19 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Fundamentos de IA - Unidade I.pdf

Unidade I – Conceitos, Histórico e Aplicações da Inteligência Artificial

I.1 – A Questão da Inteligência Artificial

Primeiramente, vamos conhecer o significado destas palavras:

Artificial: do latim artificialis, produzido pela arte, não natural ou genuíno, fabricado

pelo homem em oposto ao natural, com o objetivo de simular e ou imitar o natural.

Artefato é o que caracteriza o artificial como objeto (computador é um artefato baseado

em sistemas de símbolos).

Inteligência: do latim intelligentia, significa a faculdade de conhecer, aprender,

conceber e de compreender.

O campo da inteligência artificial (ou IA) tenta entender as entidades inteligentes.

Uma das razões para se estudar IA é porque desejamos aprender sobre nós mesmos.

Mas diferente da filosofia e da psicologia, que são ciências que estudam a inteligência, a

IA não apenas tenta entendê-la como também tenta encontrar maneiras de construir

entidades inteligentes. Uma outra razão para se estudar IA é que estas entidades

inteligentes construídas são muito interessantes e, dependendo do que fazem, podem ser

muito úteis na nossa vida.

A Inteligência Artificial aborda a seguinte questão: Como é possível para um

cérebro pequeno e lento, seja ele biológico ou eletrônico, perceber, entender, prever e

manipular um mundo maior e mais complexo do que ele próprio? Como podemos

construir alguma coisa com estas propriedades? Estas são perguntas difíceis, mas os

pesquisadores de IA têm sólidas evidências de que elas podem ser solucionadas. Daí

você pode perguntar “Por que?” E a resposta é: “Porque basta que eles se olhem no

espelho para verem um exemplo de um sistema inteligente”.

A IA é uma disciplina nova, tem em sua raiz a criação de modelos, linguagens e

programas para jogar xadrez desenvolvidos, especialmente, por Norbert Wiener (1948),

Alan Turing (1951), Claude Shannon (1950), Allen Newell (1955) e Hebert Simon

(1953).

Ela foi formalmente fundada em 1956, por John McCarthy, no encontro que ficou

conhecido por Conferência de Dartmouth. Neste encontro credita-se a John MCCarthy a

criação da expressão Inteligência Artificial. A Conferência de Dartmouth ocorreu em

Hanover, New Hampshire. Teve como principais organizadores: John McCarthy

(Dartmouth College), Marvin Minsky (Harvard University), Nathaniel Rochester (IBM)

e Claude Shannon (Bell Telephone Lab). Estiveram presentes, também, entre outros,

Ray Slomonoff e Oliver Selfridge (MIT), Allen newell e Hebert Simon (Carnegie Tech),

Trenchard More (Princeton).

Dentre os principais tópicos ou temas discutidos destacaram-se: Programação

automática (Rochester), Linguagens (McCarthy), Redes Neurais (Pitts e McCulloch,

Rochester e Holland, Minsky), Teoria de Complexidade (Turing, Shannon e McCarthy),

Aprendizado ou auto-melhora (Arthur Samuel), Aleatoriedade e Conhecimento de

senso-comum. Este encontro tinha por objetivo estudar as bases da conjectura de que

cada aspecto do aprendizado e da inteligência pode, em princípio, ser tão precisamente

descrito que o torne possível de ser simulado por uma máquina.

Page 2: Fundamentos de IA - Unidade I.pdf

Também, podemos destacar dois eventos importantes no surgimento da IA que

ocorreram logo após a Conferência de Dartmouth:

Criação do Laboratório de Inteligência Artificial no MIT, em 1959, por Marvin

Minsky e John McCarthy, Massachusetts.

Simulação de Processos Cognitivos ou Processamento Complexo da Informação,

em 1957, por Allen Newell, Schaw e Hebert Simon em Carnegie-Mellon,

Pittsburgh, Pennsylvania.

Por outro lado, o estudo da inteligência é uma das disciplinas mais antigas,

começou a mais de 2000 anos atrás, quando os filósofos tentavam entender como

podemos ver, aprender e lembrar e a razão que isso poderia, ou deveria, ser feito. Com o

advento do uso dos computadores, na década 60, o computador estabeleceu uma

ferramenta para testar as teorias da inteligência. Muitas teorias falharam nos testes.

Assim, a IA tornou-se bem mais difícil do que foi imaginado anteriormente, mas como

resultado, as idéias modernas são muito mais ricas, engenhosas e interessantes.

Vimos então à motivação para o estudo da Inteligência Artificial, mas o que seria

a IA?

Poderíamos dizer: “é baseada na construção de programas inteligentes”. Então o

que estamos esperando? Vamos escrever um! Mas não é tão simples assim, precisamos

ter um objetivo em mente, saber por que estamos precisando de um sistema inteligente,

qual o seu propósito e quais são as circunstâncias pelas quais devemos passar antes de

atingirmos a meta final.

I.2 – Abordagens da Inteligência Artificial

Podemos considerar quatro tipos de abordagens para o estudo e entendimento da IA

como veremos a seguir.

I.2.1 Agindo como o Humano – Teste de Turing

O Teste de Turing, proposto por Alan Turing (1950), teve como objetivo fornecer uma

definição operacional satisfatória de inteligência.

O teste consistia em um colocar um computador em uma sala A e um humano em

uma sala B. Um entrevistador humano, que não sabe a priori onde está o computador,

deveria fazer perguntas via uma máquina de telégrafos a ambas as salas A e B.

Aprovado: O teste seria aprovado se o entrevistador não conseguisse determinar

em qual sala está o humano e em qual sala está o computador. Se isto ocorresse, o

computador seria considerado inteligente.

Para satisfazer o teste de Turing, o computador deveria possuir as seguintes

capacidades:

Processamento de Linguagem Natural – assim o computador seria capaz

de se comunicar bem em inglês (ou alguma outra linguagem).

Representação de Conhecimento – para armazenar informações antes e

durante a entrevista.

Raciocínio Automático – para usar as informações armazenadas a fim de

responder as questões e também para criar novas conclusões.

Aprendizagem de Máquina – para adaptar a novas circunstâncias e para

detectar e explorar novos padrões.

Page 3: Fundamentos de IA - Unidade I.pdf

A questão de agir como um humano surgiu quando os programas de IA tinham

que interagir com as pessoas. Como exemplo, temos os sistemas especialistas que

precisam explicar como surgiu o seu diagnóstico, e os sistemas de processamento de

linguagem natural que precisam dialogar com o usuário.

O teste de Turing merece créditos por ser um teste que permanece relevante

depois de 50 anos. Ainda assim, os pesquisadores de IA têm dedicado pouco esforço à

aprovação deste teste, acreditando que é mais importante estudar os princípios básicos

da inteligência do que reproduzir um exemplar.

I.2.2 Pensando como o Humano – Modelo Cognitivo

Um programa pensa como pensam os humanos. Para isso, nós precisamos de alguma

maneira determinar como os humanos pensam. É preciso determinar qual o trabalho real

da mente humana.

Como “entrar” na mente:

Introspecção – tentar “captar” nossos próprios pensamentos, à medida que

eles se desenvolvem.

Teoria Cognitiva – experimentos psicológicos.

Uma vez obtida uma “teoria da mente”, é possível expressá-la como um programa

de computador.

Sucesso: O computador se comporta como ser humano.

I.2.3 Pensando Racionalmente – Leis do Pensamento

O filósofo grego Aristóteles foi o primeiro a tentar codificar o “pensamento correto”,

isto é, processo de raciocínio irrefutável – Silogismo (Início da Lógica – leis de

pensamento que supostamente governam a mente):

Sócrates é um homem.

Todos os homens são mortais.

Logo, Sócrates é mortal.

Lógica formal: século XIX / XX notação precisa para declarações sobre todos

os tipos de coisas no mundo e as relações entre elas.

Problema:

Transformar conhecimento informal em conhecimento formal.

Grande diferença entre ser capaz de resolver um problema em princípio e

concluir isto na prática.

I.2.4 Agindo Racionalmente – Agente Racional

Significa: “Agir de maneira a atingir seus objetivos, levando em conta suas crenças”.

Agente – algo que percebe e age.

Agente Racional – é aquele que age para alcançar o melhor resultado ou, quando

há incerteza, o melhor resultado esperado.

Estudo e construção de agentes racionais (engloba o item anterior, pois uma das

formas de agir racionalmente é raciocinar de modo lógico).

Vantagem: mais ameno para o desenvolvimento científico do que as abordagens

baseadas no comportamento ou pensamento humano, uma vez que o padrão de

racionalidade é completamente geral e definido com clareza.

Page 4: Fundamentos de IA - Unidade I.pdf

I.3 Definição da Inteligência Artificial

A IA varia em duas dimensões principais. A primeira preocupa-se com o processo do

pensamento e raciocínio, enquanto que a segunda preocupa-se com o comportamento.

Estas medem o sucesso de acordo com o desempenho humano, o que requer hipóteses e

experimentos. Desta forma, podemos entender o objetivo da IA como:

“Construir programas inteligentes e procurar entender a inteligência e seus

conceitos relacionados, sem necessariamente se ater aos pressupostos biológicos.”

Alguns conceitos mais aceitos sobre a definição de IA existentes na literatura

são:

“Capacidade de desenvolver programas que executem tarefas que são resolvidas

pelo homem com certa facilidade e de maneira melhor.”

“Ciência que visa, através de um conjunto de métodos e técnicas, permitir ao

computador a solução de problemas considerados “inteligentes”.”

“Simulação racional do conhecimento humano em artefato (computador).”

“Utilização apropriada do conhecimento na solução de problemas ou execução

de tarefas.”

I.4 Fundamentos da Inteligência Artificial

Será apresentado um breve histórico das áreas de pensamento científico que

contribuíram com idéias, pontos de vista e técnicas para a IA.

I.4.1 Filosofia

Aristóteles (384-322 AC): formas de raciocínio dedutivo (silogismo).

Leonardo da Vinci (1452-1519): projetou, mas não construiu, uma calculadora

mecânica.

Wilhelm Schickard (1592-1635): construiu a primeira máquina de calcular

conhecida. Embora a mais famosa seja a Pascaline de Blaise Pascal.

René Descartes (1596-1650): apresentou a primeira discussão clara da distinção

entre mente e matéria, e dos problemas que surgem desta distinção.

I.4.2 Matemática (cerca de 800 até a atualidade)

George Boole (1815-1864): definiu os detalhes da lógica proposicional ou lógica

booleana.

Gottlob Frege (1848-1925): estendeu a lógica de Boole para incluir objetos e

relações, criando a lógica de primeira ordem, que é usada como sistema básico de

representação de conhecimento.

Euclides: criou o primeiro algoritmo não-trivial, para calcular o maior denominador

comum (mdc).

Alan Turing (1912-1954): mostrou que existem algumas funções que nenhuma

máquina de Turing pode calcular. Por exemplo, nenhuma máquina pode determinar

se um dado programa retornará uma resposta ou se continuará funcionando para

sempre, dada uma certa entrada.

Page 5: Fundamentos de IA - Unidade I.pdf

Noção de Intratabilidade: um problema é chamado de intratável se o tempo

necessário para resolver instâncias do problema cresce exponencialmente com o

tamanho das instâncias. Assim, até mesmos instâncias moderadamente grandes não

podem ser resolvidas em tempo razoável.

Teoria da NP-Completude: qualquer classe de problemas à qual a classe de

problemas NP-Completos pode ser reduzida, provavelmente, é intratável. Nos

últimos anos, a IA ajudou a explicar porque algumas instâncias de problemas NP-

Completos são difíceis enquanto que outras são fáceis.

Teoria da Probabilidade: foi descrita em termos dos resultados possíveis de jogos de

azar e se transformou em uma parte valiosa de todas as ciências quantitativas,

ajudando a lidar com medidas incertas e teorias incompletas.

I.4.3 Economia (de 1776 até a atualidade)

Tratamento matemático de utilidade: a economia estuda como as pessoas fazem

escolhas que levam a resultados preferenciais.

Teoria de decisão: combina a teoria da probabilidade com a teoria de utilidade e

fornece uma estrutura formal e completa para decisões tomadas sob incerteza.

Satisfação: sustentou a realização de tomadas de decisão “boas o suficiente”, ao

invés de calcular uma decisão ótima, e assim, proporcionava uma descrição melhor

do comportamento humano real.

I.4.4 Neurociência (cerca de 1861 até a atualidade)

Estudo do sistema nervoso – particularmente do cérebro: deseja descobrir o modo

exato como o cérebro habilita o pensamento.

Estudo da afasia (deficiência da fala): revigorou o campo e persuadiu a classe

médica da existência de áreas localizadas no cérebro responsáveis por funções

cognitivas específicas.

Atualmente temos dados sobre o mapeamento entre áreas do cérebro e as partes do

corpo que elas controlam ou recebem entrada sensorial. Mas não compreendemos

como outras áreas do cérebro podem assumir o comando de certas funções quando

uma área é danificada, e, nem como a memória de um indivíduo é armazenada.

I.4.5 Psicologia (de 1879 até a atualidade)

Psicologia Cognitiva: a visão do cérebro como um dispositivo de processamento de

informações. Insistiam que a percepção envolvia uma forma de inferência lógica

inconsciente.

Kenneth Craik (1943): especificou os três passos fundamentais de um agente

baseado no conhecimento:

1. o estímulo deve ser traduzido em uma representação interna

2. a representação é manipulada por processos cognitivos para

derivar novas representações internas e

3. por sua vez, essas representações são de novo traduzidas em ações.

Ciência Cognitiva: teve início em um seminário em setembro de 1956 no MIT (apenas

dois meses após a conferência em que a IA nasceu).

I.4.6 Teoria de Controle e Cibernética (de 1948 até a atualidade)

No final da década de 1940, Wiener, McCulloch, Pitts e Von Neumann,

organizaram uma série de conferências que exploraram os novos modelos

Page 6: Fundamentos de IA - Unidade I.pdf

matemáticos e computacionais da cognição e influenciaram muitos outros

pesquisadores nas ciências do comportamento.

O livro de Wiener, Cybernetics (1943), despertou o público para a possibilidade de

máquinas dotadas de inteligência artificial.

A moderna teoria de controle, em especial o ramo conhecido como controle

estocástico ótimo, tem como objetivo o projeto de sistemas que maximizam uma

função objetivo sobre o tempo. Isso corresponde aproximadamente à nossa visão da

IA: projetar sistemas que se comportem de maneira ótima.

I.4.7 Lingüística (de 1957 até a atualidade)

A Lingüística Moderna e a Inteligência Artificial “nasceram” aproximadamente na

mesma época e cresceram juntas, cruzando-se em um campo híbrido chamado

lingüística computacional ou processamento de linguagem natural.

Grande parte do trabalho em representação do conhecimento (o estudo de como

colocar o conhecimento em uma forma que um computador possa utilizar) estava

vinculado à linguagem e era suprido com informações da pesquisa em lingüística

que, por sua vez, estava conectada a décadas de pesquisa sobre a análise filosófica

da linguagem.

I.5 HISTÓRICO DA INTELIGÊNCIA ARTIFICIAL

I.5.1 A Gestação da Inteligência Artificial (de 1943 até 1955)

McCulloch e Pitts (1943): realizaram o primeiro trabalho reconhecido como IA.

Eles propuseram o modelo de neurônios artificiais em que cada neurônio é

caracterizado como estando no estado ativado (on) ou desativado (off), com a troca

de ativado ocorrendo em resposta à estimulação de um número de neurônios

vizinhos.

Turing (1950): articulou uma visão completa da Inteligência Artificial em seu artigo

“Computing Machinery and Intelligency”, onde apresentou o teste de Turing,

aprendizagem de máquina, algoritmos genéticos e aprendizagem por reforço.

Minsky e Edmonds (1951): construíram o SNARC – o primeiro computador de rede

neural.

I.5.2 O Nascimento da Inteligência Artificial (de 1956)

McCarthy (1956): Conferência de Dartmouth.

Newell e Simon apresentaram o programa de raciocínio Logic Theorist (LT). O LT

conseguiu criar uma prova de teorema mais curta que a presente no livro “Principia

Mathematica” de Russel e Whitehead.

Foi feito um acordo para adotar o nome para a área: Inteligência Artificial,

sugerido por McCarthy.

I.5.3 Entusiasmo Inicial, Grandes Expectativas (de 1952 até 1969)

Os primeiros anos da Inteligência Artificial foram repletos de sucessos, embora de

uma forma limitada.

O sucesso de Newell e Simon prosseguiu com o GPS (Solucionador de Problemas

Gerais) – projetado para imitar protocolos humanos de resolução de problemas,

incorporando a abordagem de “pensar de forma humana”.

Hipótese do sistema de símbolos físicos: qualquer sistema (ser humano ou máquina)

que exibe inteligência deve operar manipulando estruturas de dados compostas por

símbolos.

Page 7: Fundamentos de IA - Unidade I.pdf

McCarthy (1958): contribuiu com três realizações:

1. Definiu a linguagem de alto nível LISP, que acabou por se tornar a

linguagem de programação dominante na IA.

2. Ele e outros pesquisadores do MIT criaram o compartilhamento de

tempo (time sharing) no uso de computadores.

3. Publicou o artigo “Programs with common sense”, onde descreve o

Advice Taker – programa hipotético projetado para usar o conhecimento

com a finalidade de buscar soluções para problemas. O Advice Taker

incorporava os princípios centrais de representação de conhecimento e de

raciocínio: de que é útil ter uma representação formal e explícita do

mundo e do modo como as ações de um agente afetam o mundo, e ser

capaz de manipular essas representações com processos dedutivos.

Redes Adalines – surgiu do aperfeiçoamento dos métodos de aprendizado de Hebb.

Teorema de convergência do Modelo Perceptron.

I.5.4 Uma Dose de Realidade (de 1966 até 1973)

Os primeiros trabalhos previam um progresso muito mais rápido desta área do que

de fato ocorreu. Todos os trabalhos tinham em comum um início pretensioso para,

em seguida, esbarrar em dificuldades intransponíveis.

1. Dificuldade: O problema não era fazer um programa que realizasse certa

tarefa, mas que a realizasse “bem” (racionalmente).

2. Minsky e Papert publicaram o livro Perceptrons (1969), onde provaram

que o Perceptron (forma simples de rede neural) embora pudessem

aprender algumas funções lógicas que eram capazes de representar, não

podiam representar funções não linearmente separáveis. Apesar deste

resultado não se aplicar a redes neurais mais complexas (de várias

camadas), pesquisas relacionadas a redes neurais se reduziram a quase

nada.

I.5.5 O Retorno das Redes Neurais (de 1986 até a atualidade)

A ciência da computação abandonou, em grande parte, o campo de redes neurais no

final dos anos 70. Na metade da década de 80, pelo menos quatro grupos diferentes

de pesquisadores recriaram o algoritmo de aprendizado por retropropagação ou

backpropagation, descoberto em 1986.

As abordagens dos modelos conexionistas e os modelos simbólicos se tornam

complementares e não concorrentes.

I.5.6 A IA se torna uma Ciência (de 1987 até a atualidade)

As redes neurais passaram a ser comparadas a técnicas correspondentes da

estatística, do reconhecimento de padrões e do aprendizado de máquina, podendo ser

utilizada técnica mais promissora em cada aplicação. Como resultado desse

desenvolvimento, aparece a tecnologia de mineração de dados (data mining).

A rede Bayesiana foi criada para permitir a representação eficiente do

conhecimento incerto e o raciocínio rigoroso com a utilização de conhecimentos

envolvendo probabilidade e a teoria da decisão. Este raciocínio probabilístico

domina a pesquisa sobre raciocínio incerto e sistemas especialistas. Esta abordagem

admite o aprendizado a partir de experiências e combina o melhor da IA clássica e

das redes neurais. Isto promoveu a idéia de sistemas especialistas de diagnóstico

Page 8: Fundamentos de IA - Unidade I.pdf

normativo; vários estão presentes no sistema operacional WindowsTM para correção

de problemas.

Houve uma revolução também nos trabalhos dos campos de robótica, visão

computacional e representação de conhecimento.

I.6 Desenvolvimento e Aplicações da Inteligência Artificial

I.6.1 Áreas de Desenvolvimento da Inteligência Artificial

A IA pode ser dividida ou estruturada em cinco grandes grupos principais:

IA simbólica ou cognitiva também denominada GOFAI (good, old-fashioned AI).

Desenvolve-se a partir dos anos 50, altamente predominante nos anos 60 e 70 e início

dos anos 80.

Ciências em comum: Psicologia Cognitiva, Lógica.

Motivação: Evolução do hardware, sistemas especialistas, projeto guerra nas estrelas

(DARPA), projeto japonês de quinta geração.

IA conexionista que trata do estudo das redes neurais artificiais

Desenvolve-se a partir dos anos 50, altamente predominante a partir de meados dos anos

80 e anos 90.

Ciências em comum: Neurociência, Mecânica Estatística.

Motivação: Paralelismo, reconhecimento de padrões, aprendizado supervisionado.

IA distribuída ou cooperativa ou que trata da comunicação e interação entre agentes

Desenvolve-se a partir dos anos 90.

Ciências em comum: Organizações, Biologia, Redes de Computadores.

Motivação: Web, trabalho cooperativo, agentes.

Aprendizagem de Máquinas que trata dos vários paradigmas de aprendizado

Desenvolve-se a partir dos anos 70, altamente predominante nos anos 90 e atuais.

Ciências em comum: Inferência Paramétrica, Aprendizagem Computacional,

Aprendizagem Estatística.

Motivação: Mineração de Dados, aprendizado indutivo, aprendizado a partir dos dados.

Inteligência Computacional que trata do desenvolvimento de técnicas de solução de

problemas e algoritmos que tem alguma analogia com sistemas naturais.

Desenvolve-se a partir dos anos 60, altamente predominantes nos anos 90 e atuais.

Ciências em Comum: Biologia, Ciências Sociais.

Motivação: Teoria da evolução natural de Darwin, organização de colônias, enxames,

sistemas imunológicos.

Em virtude desta abrangência, a área de Inteligência Artificial diversificou-se,

abrindo novas áreas de pesquisa e desenvolvimento. Entre as principais, podemos citar:

Jogos

Solução de problemas

Organização e representação do conhecimento

Prova automática de teoremas

Raciocínio aproximado

Sistemas especialistas

Page 9: Fundamentos de IA - Unidade I.pdf

Planejamento

Processamento de linguagem natural

Programação automática

Reconhecimento de padrões

Aprendizado

Compreensão e Percepção

Robótica

I.6.2 Aplicações da Inteligência Artificial

As áreas de aplicação da IA podem ser dividas inicialmente em três grandes tarefas:

1. Tarefas de senso comum.

2. Tarefas formais.

3. Tarefas de especialistas.

1 - Tarefas de Senso Comum

Percepção:

Fala.

Visão.

Linguagem natural:

Compreensão (diálogo).

Escrita.

Tradução (PLN) e Leitura (OCR).

Raciocínio de senso comum.

Aprendizado Automático.

Categorização ou Reconhecimento de Padrões

Associação de Padrões

2 - Tarefas Formais

Jogos (xadrez, dama, gamão).

Provas de teoremas:

Lógica.

Geometria.

Integração simbólica.

Planejamento:

Robótica.

“Scheduling”.

Otimização combinatória:

Programação discreta.

Caixeiro viajante.

Reconhecimento de padrões (escrita, vozes, expressões faciais).

3 - Tarefas de Especialistas

Medicina:

Diagnóstico e prescrição.

Direito:

Refutação.

Engenharia:

Page 10: Fundamentos de IA - Unidade I.pdf

Prospecção e projeto.

Produção, transporte e logística:

Planejamento e monitoração.

Educação:

Ensino com sistemas tutores inteligentes.

Indústria:

Detecção e controle.

Química:

Análise e projeto (síntese).

Biologia Molecular:

Análise de imagens.

Classificação e Clusterização (dados de microarray).

Análise de Sequências Biológicas (DNA, RNA, Proteínas)

Ciência da Computação:

Interfaces inteligentes

Processadores de rede inteligentes

Programação baseada em agentes

Jogos (simulações, rpg, realidade virtual, estratégia)

Recuperação de informações

I.7 Classificação de Problemas

Os problemas segundo grau de dificuldade e técnica de solução podem ser classificados

da seguinte forma:

Área 1: comportamentos associativos elementares onde o significado e o contexto são

irrelevantes.

Exemplo: jogos associativos (memória) e jogos resolvidos por tentativa e erro.

Existência de pouca complexidade e pouco formalismo.

Técnicas de solução: gabaritos, tabelas decisórias, processamento simbólico, árvore de

decisão, teoria de probabilidade.

Obs.: Não utiliza técnicas de IA.

Área 2: comportamento formais simples onde os significados são conhecidos e

relevantes, mas livres de contexto.

Exemplo: jogos computáveis, processos combinatórios simples (labirintos), prova de

teoremas, reconhecimentos de padrões rígidos, planejamento linear (blocos).

Existência de pouca complexidade.

Técnicas de solução: busca heurística, métodos de raciocínio e árvore de jogos.

Área 3: comportamentos formais complexos onde os significados não são totalmente

conhecidos e as vezes dependentes do contexto.

Exemplo: jogos incomputáveis (xadrez), reconhecimento de padrões complexos,

planejamento não linear, processos combinatórios complexos (caixeiro viajante), prova

de teoremas que exigem intuição, etc.

Técnicas de solução: Lógica não monotônica e temporal. Sistemas de planejamento

não lineares, temporais e com imprecisão.

Arquitetura quadro-negro. Sistema SOAR. Teoria de conjuntos nebulosos para

tratamento de incerteza. Representação do conhecimento: utilização de “frames”,

“scripts”, dependência conceitual e redes semânticas.

Page 11: Fundamentos de IA - Unidade I.pdf

Área 4: comportamentos não formais onde os significados não são totalmente explícitos

e dependentes totalmente do contexto.

Exemplo: jogos mal definidos (charadas, piadas), raciocínio de senso-comum,

compreensão, reconhecimento de configurações muito variadas e complexas,

aprendizado, etc.

Técnicas de solução: associadas ao aprendizado de máquinas.

Alternativa: restrição do problema de modo a enquadrá-lo na área 3.