fundamentos de ia - unidade i.pdf
TRANSCRIPT
Unidade I – Conceitos, Histórico e Aplicações da Inteligência Artificial
I.1 – A Questão da Inteligência Artificial
Primeiramente, vamos conhecer o significado destas palavras:
Artificial: do latim artificialis, produzido pela arte, não natural ou genuíno, fabricado
pelo homem em oposto ao natural, com o objetivo de simular e ou imitar o natural.
Artefato é o que caracteriza o artificial como objeto (computador é um artefato baseado
em sistemas de símbolos).
Inteligência: do latim intelligentia, significa a faculdade de conhecer, aprender,
conceber e de compreender.
O campo da inteligência artificial (ou IA) tenta entender as entidades inteligentes.
Uma das razões para se estudar IA é porque desejamos aprender sobre nós mesmos.
Mas diferente da filosofia e da psicologia, que são ciências que estudam a inteligência, a
IA não apenas tenta entendê-la como também tenta encontrar maneiras de construir
entidades inteligentes. Uma outra razão para se estudar IA é que estas entidades
inteligentes construídas são muito interessantes e, dependendo do que fazem, podem ser
muito úteis na nossa vida.
A Inteligência Artificial aborda a seguinte questão: Como é possível para um
cérebro pequeno e lento, seja ele biológico ou eletrônico, perceber, entender, prever e
manipular um mundo maior e mais complexo do que ele próprio? Como podemos
construir alguma coisa com estas propriedades? Estas são perguntas difíceis, mas os
pesquisadores de IA têm sólidas evidências de que elas podem ser solucionadas. Daí
você pode perguntar “Por que?” E a resposta é: “Porque basta que eles se olhem no
espelho para verem um exemplo de um sistema inteligente”.
A IA é uma disciplina nova, tem em sua raiz a criação de modelos, linguagens e
programas para jogar xadrez desenvolvidos, especialmente, por Norbert Wiener (1948),
Alan Turing (1951), Claude Shannon (1950), Allen Newell (1955) e Hebert Simon
(1953).
Ela foi formalmente fundada em 1956, por John McCarthy, no encontro que ficou
conhecido por Conferência de Dartmouth. Neste encontro credita-se a John MCCarthy a
criação da expressão Inteligência Artificial. A Conferência de Dartmouth ocorreu em
Hanover, New Hampshire. Teve como principais organizadores: John McCarthy
(Dartmouth College), Marvin Minsky (Harvard University), Nathaniel Rochester (IBM)
e Claude Shannon (Bell Telephone Lab). Estiveram presentes, também, entre outros,
Ray Slomonoff e Oliver Selfridge (MIT), Allen newell e Hebert Simon (Carnegie Tech),
Trenchard More (Princeton).
Dentre os principais tópicos ou temas discutidos destacaram-se: Programação
automática (Rochester), Linguagens (McCarthy), Redes Neurais (Pitts e McCulloch,
Rochester e Holland, Minsky), Teoria de Complexidade (Turing, Shannon e McCarthy),
Aprendizado ou auto-melhora (Arthur Samuel), Aleatoriedade e Conhecimento de
senso-comum. Este encontro tinha por objetivo estudar as bases da conjectura de que
cada aspecto do aprendizado e da inteligência pode, em princípio, ser tão precisamente
descrito que o torne possível de ser simulado por uma máquina.
Também, podemos destacar dois eventos importantes no surgimento da IA que
ocorreram logo após a Conferência de Dartmouth:
Criação do Laboratório de Inteligência Artificial no MIT, em 1959, por Marvin
Minsky e John McCarthy, Massachusetts.
Simulação de Processos Cognitivos ou Processamento Complexo da Informação,
em 1957, por Allen Newell, Schaw e Hebert Simon em Carnegie-Mellon,
Pittsburgh, Pennsylvania.
Por outro lado, o estudo da inteligência é uma das disciplinas mais antigas,
começou a mais de 2000 anos atrás, quando os filósofos tentavam entender como
podemos ver, aprender e lembrar e a razão que isso poderia, ou deveria, ser feito. Com o
advento do uso dos computadores, na década 60, o computador estabeleceu uma
ferramenta para testar as teorias da inteligência. Muitas teorias falharam nos testes.
Assim, a IA tornou-se bem mais difícil do que foi imaginado anteriormente, mas como
resultado, as idéias modernas são muito mais ricas, engenhosas e interessantes.
Vimos então à motivação para o estudo da Inteligência Artificial, mas o que seria
a IA?
Poderíamos dizer: “é baseada na construção de programas inteligentes”. Então o
que estamos esperando? Vamos escrever um! Mas não é tão simples assim, precisamos
ter um objetivo em mente, saber por que estamos precisando de um sistema inteligente,
qual o seu propósito e quais são as circunstâncias pelas quais devemos passar antes de
atingirmos a meta final.
I.2 – Abordagens da Inteligência Artificial
Podemos considerar quatro tipos de abordagens para o estudo e entendimento da IA
como veremos a seguir.
I.2.1 Agindo como o Humano – Teste de Turing
O Teste de Turing, proposto por Alan Turing (1950), teve como objetivo fornecer uma
definição operacional satisfatória de inteligência.
O teste consistia em um colocar um computador em uma sala A e um humano em
uma sala B. Um entrevistador humano, que não sabe a priori onde está o computador,
deveria fazer perguntas via uma máquina de telégrafos a ambas as salas A e B.
Aprovado: O teste seria aprovado se o entrevistador não conseguisse determinar
em qual sala está o humano e em qual sala está o computador. Se isto ocorresse, o
computador seria considerado inteligente.
Para satisfazer o teste de Turing, o computador deveria possuir as seguintes
capacidades:
Processamento de Linguagem Natural – assim o computador seria capaz
de se comunicar bem em inglês (ou alguma outra linguagem).
Representação de Conhecimento – para armazenar informações antes e
durante a entrevista.
Raciocínio Automático – para usar as informações armazenadas a fim de
responder as questões e também para criar novas conclusões.
Aprendizagem de Máquina – para adaptar a novas circunstâncias e para
detectar e explorar novos padrões.
A questão de agir como um humano surgiu quando os programas de IA tinham
que interagir com as pessoas. Como exemplo, temos os sistemas especialistas que
precisam explicar como surgiu o seu diagnóstico, e os sistemas de processamento de
linguagem natural que precisam dialogar com o usuário.
O teste de Turing merece créditos por ser um teste que permanece relevante
depois de 50 anos. Ainda assim, os pesquisadores de IA têm dedicado pouco esforço à
aprovação deste teste, acreditando que é mais importante estudar os princípios básicos
da inteligência do que reproduzir um exemplar.
I.2.2 Pensando como o Humano – Modelo Cognitivo
Um programa pensa como pensam os humanos. Para isso, nós precisamos de alguma
maneira determinar como os humanos pensam. É preciso determinar qual o trabalho real
da mente humana.
Como “entrar” na mente:
Introspecção – tentar “captar” nossos próprios pensamentos, à medida que
eles se desenvolvem.
Teoria Cognitiva – experimentos psicológicos.
Uma vez obtida uma “teoria da mente”, é possível expressá-la como um programa
de computador.
Sucesso: O computador se comporta como ser humano.
I.2.3 Pensando Racionalmente – Leis do Pensamento
O filósofo grego Aristóteles foi o primeiro a tentar codificar o “pensamento correto”,
isto é, processo de raciocínio irrefutável – Silogismo (Início da Lógica – leis de
pensamento que supostamente governam a mente):
Sócrates é um homem.
Todos os homens são mortais.
Logo, Sócrates é mortal.
Lógica formal: século XIX / XX notação precisa para declarações sobre todos
os tipos de coisas no mundo e as relações entre elas.
Problema:
Transformar conhecimento informal em conhecimento formal.
Grande diferença entre ser capaz de resolver um problema em princípio e
concluir isto na prática.
I.2.4 Agindo Racionalmente – Agente Racional
Significa: “Agir de maneira a atingir seus objetivos, levando em conta suas crenças”.
Agente – algo que percebe e age.
Agente Racional – é aquele que age para alcançar o melhor resultado ou, quando
há incerteza, o melhor resultado esperado.
Estudo e construção de agentes racionais (engloba o item anterior, pois uma das
formas de agir racionalmente é raciocinar de modo lógico).
Vantagem: mais ameno para o desenvolvimento científico do que as abordagens
baseadas no comportamento ou pensamento humano, uma vez que o padrão de
racionalidade é completamente geral e definido com clareza.
I.3 Definição da Inteligência Artificial
A IA varia em duas dimensões principais. A primeira preocupa-se com o processo do
pensamento e raciocínio, enquanto que a segunda preocupa-se com o comportamento.
Estas medem o sucesso de acordo com o desempenho humano, o que requer hipóteses e
experimentos. Desta forma, podemos entender o objetivo da IA como:
“Construir programas inteligentes e procurar entender a inteligência e seus
conceitos relacionados, sem necessariamente se ater aos pressupostos biológicos.”
Alguns conceitos mais aceitos sobre a definição de IA existentes na literatura
são:
“Capacidade de desenvolver programas que executem tarefas que são resolvidas
pelo homem com certa facilidade e de maneira melhor.”
“Ciência que visa, através de um conjunto de métodos e técnicas, permitir ao
computador a solução de problemas considerados “inteligentes”.”
“Simulação racional do conhecimento humano em artefato (computador).”
“Utilização apropriada do conhecimento na solução de problemas ou execução
de tarefas.”
I.4 Fundamentos da Inteligência Artificial
Será apresentado um breve histórico das áreas de pensamento científico que
contribuíram com idéias, pontos de vista e técnicas para a IA.
I.4.1 Filosofia
Aristóteles (384-322 AC): formas de raciocínio dedutivo (silogismo).
Leonardo da Vinci (1452-1519): projetou, mas não construiu, uma calculadora
mecânica.
Wilhelm Schickard (1592-1635): construiu a primeira máquina de calcular
conhecida. Embora a mais famosa seja a Pascaline de Blaise Pascal.
René Descartes (1596-1650): apresentou a primeira discussão clara da distinção
entre mente e matéria, e dos problemas que surgem desta distinção.
I.4.2 Matemática (cerca de 800 até a atualidade)
George Boole (1815-1864): definiu os detalhes da lógica proposicional ou lógica
booleana.
Gottlob Frege (1848-1925): estendeu a lógica de Boole para incluir objetos e
relações, criando a lógica de primeira ordem, que é usada como sistema básico de
representação de conhecimento.
Euclides: criou o primeiro algoritmo não-trivial, para calcular o maior denominador
comum (mdc).
Alan Turing (1912-1954): mostrou que existem algumas funções que nenhuma
máquina de Turing pode calcular. Por exemplo, nenhuma máquina pode determinar
se um dado programa retornará uma resposta ou se continuará funcionando para
sempre, dada uma certa entrada.
Noção de Intratabilidade: um problema é chamado de intratável se o tempo
necessário para resolver instâncias do problema cresce exponencialmente com o
tamanho das instâncias. Assim, até mesmos instâncias moderadamente grandes não
podem ser resolvidas em tempo razoável.
Teoria da NP-Completude: qualquer classe de problemas à qual a classe de
problemas NP-Completos pode ser reduzida, provavelmente, é intratável. Nos
últimos anos, a IA ajudou a explicar porque algumas instâncias de problemas NP-
Completos são difíceis enquanto que outras são fáceis.
Teoria da Probabilidade: foi descrita em termos dos resultados possíveis de jogos de
azar e se transformou em uma parte valiosa de todas as ciências quantitativas,
ajudando a lidar com medidas incertas e teorias incompletas.
I.4.3 Economia (de 1776 até a atualidade)
Tratamento matemático de utilidade: a economia estuda como as pessoas fazem
escolhas que levam a resultados preferenciais.
Teoria de decisão: combina a teoria da probabilidade com a teoria de utilidade e
fornece uma estrutura formal e completa para decisões tomadas sob incerteza.
Satisfação: sustentou a realização de tomadas de decisão “boas o suficiente”, ao
invés de calcular uma decisão ótima, e assim, proporcionava uma descrição melhor
do comportamento humano real.
I.4.4 Neurociência (cerca de 1861 até a atualidade)
Estudo do sistema nervoso – particularmente do cérebro: deseja descobrir o modo
exato como o cérebro habilita o pensamento.
Estudo da afasia (deficiência da fala): revigorou o campo e persuadiu a classe
médica da existência de áreas localizadas no cérebro responsáveis por funções
cognitivas específicas.
Atualmente temos dados sobre o mapeamento entre áreas do cérebro e as partes do
corpo que elas controlam ou recebem entrada sensorial. Mas não compreendemos
como outras áreas do cérebro podem assumir o comando de certas funções quando
uma área é danificada, e, nem como a memória de um indivíduo é armazenada.
I.4.5 Psicologia (de 1879 até a atualidade)
Psicologia Cognitiva: a visão do cérebro como um dispositivo de processamento de
informações. Insistiam que a percepção envolvia uma forma de inferência lógica
inconsciente.
Kenneth Craik (1943): especificou os três passos fundamentais de um agente
baseado no conhecimento:
1. o estímulo deve ser traduzido em uma representação interna
2. a representação é manipulada por processos cognitivos para
derivar novas representações internas e
3. por sua vez, essas representações são de novo traduzidas em ações.
Ciência Cognitiva: teve início em um seminário em setembro de 1956 no MIT (apenas
dois meses após a conferência em que a IA nasceu).
I.4.6 Teoria de Controle e Cibernética (de 1948 até a atualidade)
No final da década de 1940, Wiener, McCulloch, Pitts e Von Neumann,
organizaram uma série de conferências que exploraram os novos modelos
matemáticos e computacionais da cognição e influenciaram muitos outros
pesquisadores nas ciências do comportamento.
O livro de Wiener, Cybernetics (1943), despertou o público para a possibilidade de
máquinas dotadas de inteligência artificial.
A moderna teoria de controle, em especial o ramo conhecido como controle
estocástico ótimo, tem como objetivo o projeto de sistemas que maximizam uma
função objetivo sobre o tempo. Isso corresponde aproximadamente à nossa visão da
IA: projetar sistemas que se comportem de maneira ótima.
I.4.7 Lingüística (de 1957 até a atualidade)
A Lingüística Moderna e a Inteligência Artificial “nasceram” aproximadamente na
mesma época e cresceram juntas, cruzando-se em um campo híbrido chamado
lingüística computacional ou processamento de linguagem natural.
Grande parte do trabalho em representação do conhecimento (o estudo de como
colocar o conhecimento em uma forma que um computador possa utilizar) estava
vinculado à linguagem e era suprido com informações da pesquisa em lingüística
que, por sua vez, estava conectada a décadas de pesquisa sobre a análise filosófica
da linguagem.
I.5 HISTÓRICO DA INTELIGÊNCIA ARTIFICIAL
I.5.1 A Gestação da Inteligência Artificial (de 1943 até 1955)
McCulloch e Pitts (1943): realizaram o primeiro trabalho reconhecido como IA.
Eles propuseram o modelo de neurônios artificiais em que cada neurônio é
caracterizado como estando no estado ativado (on) ou desativado (off), com a troca
de ativado ocorrendo em resposta à estimulação de um número de neurônios
vizinhos.
Turing (1950): articulou uma visão completa da Inteligência Artificial em seu artigo
“Computing Machinery and Intelligency”, onde apresentou o teste de Turing,
aprendizagem de máquina, algoritmos genéticos e aprendizagem por reforço.
Minsky e Edmonds (1951): construíram o SNARC – o primeiro computador de rede
neural.
I.5.2 O Nascimento da Inteligência Artificial (de 1956)
McCarthy (1956): Conferência de Dartmouth.
Newell e Simon apresentaram o programa de raciocínio Logic Theorist (LT). O LT
conseguiu criar uma prova de teorema mais curta que a presente no livro “Principia
Mathematica” de Russel e Whitehead.
Foi feito um acordo para adotar o nome para a área: Inteligência Artificial,
sugerido por McCarthy.
I.5.3 Entusiasmo Inicial, Grandes Expectativas (de 1952 até 1969)
Os primeiros anos da Inteligência Artificial foram repletos de sucessos, embora de
uma forma limitada.
O sucesso de Newell e Simon prosseguiu com o GPS (Solucionador de Problemas
Gerais) – projetado para imitar protocolos humanos de resolução de problemas,
incorporando a abordagem de “pensar de forma humana”.
Hipótese do sistema de símbolos físicos: qualquer sistema (ser humano ou máquina)
que exibe inteligência deve operar manipulando estruturas de dados compostas por
símbolos.
McCarthy (1958): contribuiu com três realizações:
1. Definiu a linguagem de alto nível LISP, que acabou por se tornar a
linguagem de programação dominante na IA.
2. Ele e outros pesquisadores do MIT criaram o compartilhamento de
tempo (time sharing) no uso de computadores.
3. Publicou o artigo “Programs with common sense”, onde descreve o
Advice Taker – programa hipotético projetado para usar o conhecimento
com a finalidade de buscar soluções para problemas. O Advice Taker
incorporava os princípios centrais de representação de conhecimento e de
raciocínio: de que é útil ter uma representação formal e explícita do
mundo e do modo como as ações de um agente afetam o mundo, e ser
capaz de manipular essas representações com processos dedutivos.
Redes Adalines – surgiu do aperfeiçoamento dos métodos de aprendizado de Hebb.
Teorema de convergência do Modelo Perceptron.
I.5.4 Uma Dose de Realidade (de 1966 até 1973)
Os primeiros trabalhos previam um progresso muito mais rápido desta área do que
de fato ocorreu. Todos os trabalhos tinham em comum um início pretensioso para,
em seguida, esbarrar em dificuldades intransponíveis.
1. Dificuldade: O problema não era fazer um programa que realizasse certa
tarefa, mas que a realizasse “bem” (racionalmente).
2. Minsky e Papert publicaram o livro Perceptrons (1969), onde provaram
que o Perceptron (forma simples de rede neural) embora pudessem
aprender algumas funções lógicas que eram capazes de representar, não
podiam representar funções não linearmente separáveis. Apesar deste
resultado não se aplicar a redes neurais mais complexas (de várias
camadas), pesquisas relacionadas a redes neurais se reduziram a quase
nada.
I.5.5 O Retorno das Redes Neurais (de 1986 até a atualidade)
A ciência da computação abandonou, em grande parte, o campo de redes neurais no
final dos anos 70. Na metade da década de 80, pelo menos quatro grupos diferentes
de pesquisadores recriaram o algoritmo de aprendizado por retropropagação ou
backpropagation, descoberto em 1986.
As abordagens dos modelos conexionistas e os modelos simbólicos se tornam
complementares e não concorrentes.
I.5.6 A IA se torna uma Ciência (de 1987 até a atualidade)
As redes neurais passaram a ser comparadas a técnicas correspondentes da
estatística, do reconhecimento de padrões e do aprendizado de máquina, podendo ser
utilizada técnica mais promissora em cada aplicação. Como resultado desse
desenvolvimento, aparece a tecnologia de mineração de dados (data mining).
A rede Bayesiana foi criada para permitir a representação eficiente do
conhecimento incerto e o raciocínio rigoroso com a utilização de conhecimentos
envolvendo probabilidade e a teoria da decisão. Este raciocínio probabilístico
domina a pesquisa sobre raciocínio incerto e sistemas especialistas. Esta abordagem
admite o aprendizado a partir de experiências e combina o melhor da IA clássica e
das redes neurais. Isto promoveu a idéia de sistemas especialistas de diagnóstico
normativo; vários estão presentes no sistema operacional WindowsTM para correção
de problemas.
Houve uma revolução também nos trabalhos dos campos de robótica, visão
computacional e representação de conhecimento.
I.6 Desenvolvimento e Aplicações da Inteligência Artificial
I.6.1 Áreas de Desenvolvimento da Inteligência Artificial
A IA pode ser dividida ou estruturada em cinco grandes grupos principais:
IA simbólica ou cognitiva também denominada GOFAI (good, old-fashioned AI).
Desenvolve-se a partir dos anos 50, altamente predominante nos anos 60 e 70 e início
dos anos 80.
Ciências em comum: Psicologia Cognitiva, Lógica.
Motivação: Evolução do hardware, sistemas especialistas, projeto guerra nas estrelas
(DARPA), projeto japonês de quinta geração.
IA conexionista que trata do estudo das redes neurais artificiais
Desenvolve-se a partir dos anos 50, altamente predominante a partir de meados dos anos
80 e anos 90.
Ciências em comum: Neurociência, Mecânica Estatística.
Motivação: Paralelismo, reconhecimento de padrões, aprendizado supervisionado.
IA distribuída ou cooperativa ou que trata da comunicação e interação entre agentes
Desenvolve-se a partir dos anos 90.
Ciências em comum: Organizações, Biologia, Redes de Computadores.
Motivação: Web, trabalho cooperativo, agentes.
Aprendizagem de Máquinas que trata dos vários paradigmas de aprendizado
Desenvolve-se a partir dos anos 70, altamente predominante nos anos 90 e atuais.
Ciências em comum: Inferência Paramétrica, Aprendizagem Computacional,
Aprendizagem Estatística.
Motivação: Mineração de Dados, aprendizado indutivo, aprendizado a partir dos dados.
Inteligência Computacional que trata do desenvolvimento de técnicas de solução de
problemas e algoritmos que tem alguma analogia com sistemas naturais.
Desenvolve-se a partir dos anos 60, altamente predominantes nos anos 90 e atuais.
Ciências em Comum: Biologia, Ciências Sociais.
Motivação: Teoria da evolução natural de Darwin, organização de colônias, enxames,
sistemas imunológicos.
Em virtude desta abrangência, a área de Inteligência Artificial diversificou-se,
abrindo novas áreas de pesquisa e desenvolvimento. Entre as principais, podemos citar:
Jogos
Solução de problemas
Organização e representação do conhecimento
Prova automática de teoremas
Raciocínio aproximado
Sistemas especialistas
Planejamento
Processamento de linguagem natural
Programação automática
Reconhecimento de padrões
Aprendizado
Compreensão e Percepção
Robótica
I.6.2 Aplicações da Inteligência Artificial
As áreas de aplicação da IA podem ser dividas inicialmente em três grandes tarefas:
1. Tarefas de senso comum.
2. Tarefas formais.
3. Tarefas de especialistas.
1 - Tarefas de Senso Comum
Percepção:
Fala.
Visão.
Linguagem natural:
Compreensão (diálogo).
Escrita.
Tradução (PLN) e Leitura (OCR).
Raciocínio de senso comum.
Aprendizado Automático.
Categorização ou Reconhecimento de Padrões
Associação de Padrões
2 - Tarefas Formais
Jogos (xadrez, dama, gamão).
Provas de teoremas:
Lógica.
Geometria.
Integração simbólica.
Planejamento:
Robótica.
“Scheduling”.
Otimização combinatória:
Programação discreta.
Caixeiro viajante.
Reconhecimento de padrões (escrita, vozes, expressões faciais).
3 - Tarefas de Especialistas
Medicina:
Diagnóstico e prescrição.
Direito:
Refutação.
Engenharia:
Prospecção e projeto.
Produção, transporte e logística:
Planejamento e monitoração.
Educação:
Ensino com sistemas tutores inteligentes.
Indústria:
Detecção e controle.
Química:
Análise e projeto (síntese).
Biologia Molecular:
Análise de imagens.
Classificação e Clusterização (dados de microarray).
Análise de Sequências Biológicas (DNA, RNA, Proteínas)
Ciência da Computação:
Interfaces inteligentes
Processadores de rede inteligentes
Programação baseada em agentes
Jogos (simulações, rpg, realidade virtual, estratégia)
Recuperação de informações
I.7 Classificação de Problemas
Os problemas segundo grau de dificuldade e técnica de solução podem ser classificados
da seguinte forma:
Área 1: comportamentos associativos elementares onde o significado e o contexto são
irrelevantes.
Exemplo: jogos associativos (memória) e jogos resolvidos por tentativa e erro.
Existência de pouca complexidade e pouco formalismo.
Técnicas de solução: gabaritos, tabelas decisórias, processamento simbólico, árvore de
decisão, teoria de probabilidade.
Obs.: Não utiliza técnicas de IA.
Área 2: comportamento formais simples onde os significados são conhecidos e
relevantes, mas livres de contexto.
Exemplo: jogos computáveis, processos combinatórios simples (labirintos), prova de
teoremas, reconhecimentos de padrões rígidos, planejamento linear (blocos).
Existência de pouca complexidade.
Técnicas de solução: busca heurística, métodos de raciocínio e árvore de jogos.
Área 3: comportamentos formais complexos onde os significados não são totalmente
conhecidos e as vezes dependentes do contexto.
Exemplo: jogos incomputáveis (xadrez), reconhecimento de padrões complexos,
planejamento não linear, processos combinatórios complexos (caixeiro viajante), prova
de teoremas que exigem intuição, etc.
Técnicas de solução: Lógica não monotônica e temporal. Sistemas de planejamento
não lineares, temporais e com imprecisão.
Arquitetura quadro-negro. Sistema SOAR. Teoria de conjuntos nebulosos para
tratamento de incerteza. Representação do conhecimento: utilização de “frames”,
“scripts”, dependência conceitual e redes semânticas.
Área 4: comportamentos não formais onde os significados não são totalmente explícitos
e dependentes totalmente do contexto.
Exemplo: jogos mal definidos (charadas, piadas), raciocínio de senso-comum,
compreensão, reconhecimento de configurações muito variadas e complexas,
aprendizado, etc.
Técnicas de solução: associadas ao aprendizado de máquinas.
Alternativa: restrição do problema de modo a enquadrá-lo na área 3.