agentes baseados em conhecimento

Post on 15-Jan-2016

22 Views

Category:

Documents

0 Downloads

Preview:

Click to see full reader

DESCRIPTION

Agentes Baseados em Conhecimento. Jacques Robin Geber Ramalho CIn-UFPE. Exemplo introdutório: West é criminoso?. West é criminoso ou não? - PowerPoint PPT Presentation

TRANSCRIPT

Agentes Baseados em Conhecimento

Jacques RobinGeber Ramalho

CIn-UFPE

Exemplo introdutório: West é criminoso?

West é criminoso ou não? “A lei americana diz que é proibido vender armas a uma nação hostil. Cuba possui alguns mísseis, e todos eles foram vendidos pelo Capitão West, que é americano”

Como resolver automaticamente este problema de classificação?

Segundo a IA (simbólica), é preciso:Identificar o conhecimento do domínio (modelo do problema)Representá-lo utilizando uma linguagem formal de representaçãoImplementar um mecanismo de inferência para utilizar esse conhecimento

Agente baseado em conhecimento

Ask

Tell

Retract

Am

bie

nte

Sensores

Atuadores

Base deConhecimentoEspecializada

Máquina deInferênciaGenérica

Representação e

Aquisição deConhecimento

Raciocínio Automátic

o

O que é conhecimento?

Dado, informação ou abstração formatado de maneira a permitir raciocínio por um ser humano ou por uma máquina, por exemplo Classes e objetos Formula da lógica Distribuição de probabilidade prévia e condicional de variáveis aleatórias

O que é raciocínio? Mecanismo sistemático para inferir ou derivar novo conhecimento a partir de novas percepções e/ou de conhecimento prévio, por exemplo: Herança de atributos entre classe, sub-classes e objetos Prova de teorema por refutação, resolução e unificação Cálculo de probabilidade posterior de um evento pelo Teorema de Bayes

Exemplo de raciocínio automáticocom conhecimento: West é criminoso?

Sabendo que:

1. É criminoso para um americano vender armas para uma nação hostil aos EUA

2. Nono tem mísseis3. Nono comprou todos seus

mísseis do Capitão West4. O Capitão West é americano5. Nono é uma nação6. Nono “está” inimiga dos EUA7 . Um míssil é um tipo de arma8. A inimizade é uma forma de

hostilidade9. Os EUA são uma nação

Pode se inferir que:0. O Capitão West é criminoso?

Representando esse conhecimento em lógica dos predicados da 1a ordem

( P,W,N american(P) weapon(W) nation(N) hostile(N) sells(P,N,W) criminal(P)) //1

( W owns(nono,W) missile(W)) //2 ( W owns(nono,W) missile(W)

sells(west,nono,W)) //3 american(west) //4 nation(nono) //5 enemy(nono,america) //6 W missile(W) weapon(W) //7 N enemy(N,america) hostile(N) //8

nation(america) //9

Provador de teorema pode ser usado para tentar inferir:

criminoso(west) //0

Revisão de lógica

Refutação: Para provar BC C verdadeiro, provar BC C falso Porque? Por que (BC C) (BC C) (BC C) BC C

Formal normal (implicativa): Para qualquer formula da lógica dos predicados da 1a ordem, existe uma formula com mesmas valores de verdades da forma: X1, ..., Xk P1(...,Xi,...) ... Pm(...,Xj,...) C1(...,Xu,...) ... Cm(...,Xv,...)

Skolemização: substituir variáveis existencialmente quantificadas por constantes ex, x míssil(x) por míssil(m1)

Regra de resolução (implicativa): Caso proposicional: ((A B) (B C)) (A C) A B e B C se resolvam em A C

Caso da 1a ordem: (A B) (C D) (B) = (C) ((A) (D)) onde é o conjunto de substituições de variáveis que unificam B com C A B e C D se resolvam em (A) (D) pela unificação de B com C via

Unificação: conjunto de substituições variável/constante ou variável1/variável2 em 2 termos a unificar para torná-los iguais

Exemplo de raciocínio automáticocom conhecimento: West é

criminoso? Prova por refutação: mostrar que

( P,W,N american(P) weapon(W) nation(N) hostile(N) sells(P,N,W) criminal(P)) //1

( W owns(nono,W) missile(W)) //2 ( W owns(nono,W) missile(W)

sells(west,nono,W)) //3 american(west) //4 nation(nono) //5

enemy(nono,america) //6

W missile(W) weapon(W) //7 N enemy(N,america) hostile(N) //8 nation(america) //9

criminoso(west) //0

é inconsistente.

1o passo: colocar formula em forma normal

(american(P) weapon(W) nation(N) hostile(N) sells(P,N,W) criminal(P)) // 1

T owns(nono,m1) // skolemização 2a T missile(m1) // 2b (owns(nono,W) missile(W)

sells(west,nono,W)) //3 T american(west) //4 T nation(nono) //5 T enemy(nono,america) //6 missile(W) weapon(W) //7 enemy(N,america) hostile(N) //8

T nation(america) //9

criminoso(west) F //0

Exemplo de raciocínio automáticocom conhecimento: West é criminoso?

2o passo: aplicar regra de resolução a pares de clausulas tal que premissa de uma se unifica com conclusão da outra

(american(P) weapon(W) nation(N) hostile(N) sells(P,N,W) criminal(P)) //1 (T owns(nono,m1)) //2a

(T missile(m1)) //2b (owns(nono,W) missile(W) sells(west,nono,W)) //3

(T american(west)) //4 (T nation(nono)) //5 (T enemy(nono,america)) //6 (missile(W) weapon(W)) //7 (enemy(N,america) hostile(N)) //8

(T nation(america)) //9 (criminoso(west) F) //0

1. Resolver 0 com 1 unificando P/west:american(west) weapon(W) nation(N) hostile(N) sells(west,N,W) F //102. Resolver 10 com 4:weapon(W) nation(N) hostile(N) sells(west,N,W) F //113. Resolver 11 com 7: missile(W) nation(N) hostile(N) sells(west,N,W) F //124. Resolver 12 com 2b unificando W/m1:nation(N) hostile(N) sells(west,N,m1) F //135. Resolver 13 com 5 unificando N/nono:hostile(nono) sells(west,nono,m1) F

//146. Resolver 14 com 8 unificando N/nono:enemy(nono,america) sells(west,nono,m1)

F //157. Resolver 15 com 6: sells(west,nono,m1)

F //168. Resolver 16 com 3 unificando W/m1:owns(nono,m1) missile(m1) F //179. Resolver 17 com 2a: missile(m1) F //18

10. Resolver 18 com 2b: F

Tipos de conhecimento

Intencional x Extensional Diagnóstico x Causal Dedutivo x Terminológico Síncrono x Diácrono Certo x Incerto Explicito x Implícito Preciso x VagoPreciso x Vago Declarativo x ProcedimentalDeclarativo x Procedimental De senso comum x EspecialistaDe senso comum x Especialista Do problema x Meta-conhecimento (controle, explicação, Do problema x Meta-conhecimento (controle, explicação,

reuso)reuso)

Conhecimento intencional x extensional

Conhecimento em intenção:Conhecimento em intenção: Geral ao domínio de aplicação e classe de problema Hierarquia de conceitos (classes de fatos)

ex, X, wumpus(X) monstro(X). Restrições de integridades

ex, X,Y wumpus(X) wumpus(Y) X = Y. Regras de funcionamento do domínio

ex, X,Y smelly(X,Y) (loc(wumpus,X+1,Y) loc(wumpus,X-1,Y) loc(wumpus,X,Y+1) loc(wumpus,X,Y-1).

Esquema de BD, classes de programação orientada a objetos Conhecimento em extensão:Conhecimento em extensão:

Particular da instância do problema a resolver Fatos, i.e., proposições sobre instâncias de conceitos ex, loc(wumpus,2,1) loc(wumpus,1,2) loc(wumpus,2,3)

alive(wumpus,4). alive(wumpus,7).

Dados, exemplos, casos, objetos

Conhecimento terminológico x dedutivo

Conhecimento terminológico: Taxonomia de entidades do domínio e seus relacionamentos estáticos Aspectos estruturais e estacionários ex, M, wumpus(M) monster(M). M,T monster(M) alive(M,T) dangerous(M,T).

Conhecimento dedutivo: Regras de funcionamento e restrições de integridade do domínio Aspectos comportamentais e temporais Ligando elementos em várias regiões da taxonomia ex, M,X,Y,T dangerous(M,T) loc(M,X,Y,T) safe(X,Y,T). X,Y,T loc(agent,X,Y,T) orientation(0,T) forward(T) loc(wall,X,Y+1) loc(agent,X,Y+1,T+1).

Conhecimento causal x diagnóstico

Conhecimento causal: prevê resultados de ações e eventos ex, X,Y,T loc(agent,X,Y,T) orientation(0,T) forward(T) loc(wall,X,Y+1) loc(agent,X,Y+1,T+1).

Conhecimento diagnóstico: forma hipóteses sobre causas de efeitos observados ex, X,Y,T smell(stench,X,Y,T) smelly(X,Y). X,Y smelly(X,Y) (loc(wumpus,X+1,Y) loc(wumpus,X-1,Y) loc(wumpus,X,Y+1) loc(wumpus,X,Y-1)).

Conhecimento sincrónico x diacrónico

Conhecimento diacrónico: Regras de previsão das propriedades do ambiente entre dois instantes T e T+1 devidas a ações ou eventos ex, X,Y,T loc(agent,X,Y,T) orientation(0,T) forward(T) loc(wall,X,Y+1) loc(agent,X,Y+1,T+1).

Conhecimento sincrónico: Regras de propagação das conseqüências não observáveis do ambiente a partir das observadas no mesmo instante T ex, M,X,Y,T dangerous(M,T) loc(M,X,Y,T) safe(X,Y,T).

Conhecimento certo x incerto

Conhecimento certo: Epistemologicamente booleano ex, X,Y smelly(X,Y) smelly(X+1,Y-1) smelly(X-1,Y-1)

loc(wumpus,X,Y+1).

Conhecimento incerto: Epistemologicamente probabilista: ex, X,Y smelly(X,Y,1) (loc(wumpus,X+1,Y,0.25) loc(wumpus,X-1,Y,0.25) loc(wumpus,X,Y+1,0.25) loc(wumpus,X,Y-1,0.25)).

Conhecimento explícito x implícito

Conhecimento explícito: Sentenças simbólicas explicitamente armazenadas na base

de conhecimento

Conhecimento implícito: Axiomas que devem ser verificados para que a base de

conhecimento reflete o ambiente modelado Idealmente documentadas, no entanto muitas vezes

presentes apenas na cabeça do engenheiro do conhecimento

Suposições permitindo codificação mais simples e concisa da base de conhecimento

Explicitar conhecimento implícito necessário para tornar BC facilmente extensível

Conhecimento explícito x implícito: exemplo de explicitação de

conhecimento

A codificação see(glitter) pick. Deixa implícito que:

Existe um único agente no ambiente See é uma percepção Pick é uma ação A visão do agente é limitada a caverna no qual se encontra O ouro é o único objeto a brilhar e o único objeto que o

agente pode pegar

Conhecimento explícito x implícito: exemplo de explicitação de

conhecimento

Quando essas suposições não são mais verificadas, a codificação tem que tornar-se mais explícita, ex: A,C,T,X,Y agent(A) loc(C,[(X,Y)]) time(T) in(A,C,T)

horizCoord(X) verticCoord(Y) percept(A,C,T,vision,glitter) O physObj(O) emit(O,glitter) in(O,C,T).

O physObj(O) emit(O,glitter) ouro(O). O ouro(O) treasure(O). A,C,T,X,Y,O agent(A) loc(C,[(X,Y)]) time(T) in(A,C,T)

horizCoord(X) verticCoord(Y) in(O,C,T) treasure(O) chooseAction(A,T+1,pick(O)).

Tipos de raciocínio

Dedução:Dedução: Utilização de conhecimento completo Previsão com conhecimento causal Diagnóstico com conhecimento diagnóstico

Abdução:Abdução: Utilização de conhecimento incompleto Diagnóstico com conhecimento causal Previsão com conhecimento diagnóstico (incomum)

Indução:Indução: Aquisição (aprendizagem) de conhecimento

Analogia:Analogia: Utilização de conhecimento incompleto Previsão, diagnóstico com conhecimento diagnóstico ou causal

Resolução de restrições:Resolução de restrições: Utilização de conhecimento incompleto Previsão com conhecimento causal Diagnóstico com conhecimento diagnóstico

Dedução

Dedução

CPEC CPCI |= NCEE

ConhecimentoPrévio Causalem Intenção

X c(X) e(X)

ConhecimentoPrévio em Extensão:Causas Observadas

c(a), c(b), ...

Novo Conhecimentoem Extensão:

Efeitos Previstose(a), e(b) ...

Dedução

CPDI CPEE |= NCEC

ConhecimentoPrévio Diagnóstico

em IntençãoX e(X) c(X)

ConhecimentoPrévio em Extensão:Efeitos Observados

e(a), e(b), ...

Novo Conhecimentoem Extensão:

Causas c(a), c(b) ...

Dedução: exemplos

A partir de: Conhecimento prévio causalcausal em intenção: X,Y,T loc(agent,X,Y,T) orientation(0,T) forward(T) loc(wall,X+1,Y) loc(agent,X+1,Y,T+1)

Conhecimento prévio em extensão de causas observadas: loc(agent,1,1,1) orientation(0,1) forward(1) loc(wall,2,1)

Deduzir: Novo conhecimento em extensão de efeito previsto:loc(agent,2,1,2).

A partir de: Conhecimento prévio diagnósticodiagnóstico em intenção: X,Y,T loc(agent,X,Y,T) smell(stench,T) smelly(X,Y).

X,Y smelly(X,Y) loc(wumpus,X+1,Y) loc(wumpus,X-1,Y) loc(wumpus,X,Y+1) loc(wumpus,X,Y-1)).

Conhecimento prévio em extensão de efeito observado

smell(stench,3) loc(agent,2,2,3) Deduzir:

Novo conhecimento em extensão de causa hipotética:

loc(wumpus,3,2) loc(wumpus,1,2) loc(wumpus,2,3) loc(wumpus,2,1)).

Abdução

Abdução

CPCI CPEC NCEC |= CPEE

ConhecimentoPrévio Causalem Intenção

X co(X) ca(X) e(X)

ConhecimentoPrévio em Extensão:• Efeitos Observados

e(a), e(b), ...• Causais Observadas

Incompletasco(a), co(b), ...

Novo Conhecimentoem Extensão:

Causas Hipotéticasca(a), ca(b) ...

Viés sobre Hipóteses:

X ca(X)

Abdução: exemplo

A partir de: Conhecimento prévio causalcausal em intenção:

X,Y,T loc(agent,X,Y,T) orientation(0,T) do(forward,T) loc(wall,X+1,Y) loc(agent,X,Y,T+1)

Conhecimento prévio em extensão incompleto de causas: loc(agent,4,1,1) orientation(0,1) do(forward,1)

Conhecimento prévio em extensão de efeitos observados: loc(agent,4,1,2)

Abduzir: Novo conhecimento em extensão de causacausa hipotética:

loc(wall,5,1)

Indução

Novo ConhecimentoCausal Hipotético

em IntençãoX i(X) e(X)

Indução

CPCI NCCI CPEC |= CPEE

ConhecimentoPrévio em Extensão:• Efeitos Observados

e(a), e(b), ...• Causais Observadas

c(a), c(b), ...

Conhecimento PrévioCausal em Intenção

IncompletoX c(X) i(X)

Viés sobre Hipóteses:

X,Y i(X) Y(X)

Indução: exemplo

A partir de: Conhecimento prévio em extensão:

loc(wall,1,1) loc(wall,0,1) loc(wall,1,2) loc(0,2) ... ... loc(wall,4,5) loc(wall,4,4) loc(wall,3,5) loc(wall,3,4) ... ...

Viés sobre hipótese: P1,P2,P3,P4 {>,<,=}, C {, }, Q1,Q2,Q3 {,}: Q1U1,U2,U3,U4 Q2V1,V2,V3,V4 Q3W P1(U,V1) P2(U,V2) P3(U,V3) P4(U,V4) loc(W,U,V)

Induzir: Novo conhecimento em intenção:

X,Y X<1 X>4 Y<1 Y>4 loc(wall,X,Y)

Variação: Conhecimento prévio em intenção:

X,Y,H,W X<1 X>H Y<1 Y>W loc(wall,X,Y)

Indução: exemplo

6 Y

5 P P B B? P

v6 b

P

4 P v4 v5,7 B? f P O

3 P v3 v8,10 v9 f W P

2 P v2 v11 v12,14

v13 b B? P

1 P v1 v16 v15 b B B? P

0 P P B? P P X

0 1 2 3 4 5 6 7

Analogia

Novo Conhecimentoem Extensão:• Efeitos Previstos e(j) = e(i) ...• Causas Hipotéticas c(h) = c(k)...

ConhecimentoPrévio em Extensão:• Causais Observadas c(i), c(j), c(k), ...• Efeitos Observados e(i), e(k), e(h), ...• Similaridade entre Causas s(c(i),c(j))=m, s(c(j),c(k))=n, ...• Similaridade entre Efeitos s(e(i),e(h))=u, s(e(k),e(h))=v, ...

AnalogiaCPEE CPES CPEC | NCEE

CPEC CPES CPEE | NCEC

Regra de inferência:

X,Y,P,Q (P(X) Q(X) P(Y) s(P(X),P(Y)) l) Q(Y)

m ln lu lv l

Analogia: exemplo

A partir de: Conhecimento prévio em extensão: loc(agent,1,1,3) orientation(agent,180,3) do(forward,3) percept([none,none,none,none,bump],4) loc(agent,1,1,5) orientation(agent,90,5) do(forward,5) percept([none,none,none,none,none],6) loc(agent,1,2,7) orientation(agent,180,7) do(forward,7) percept([none,none,none,none,bump],8) loc(agent,1,2,9) orientation(agent,90,9) do(forward,9) percept([none,none,none,none,none],10)

... loc(agent,1,3,11) orientation(agent,180,11) do(forward,11) ?Medidas de similaridades: ssa = % de símbolos em comum entre as partes situação e ação das sentenças, desconsiderando as variáveis temporais spp = % de símbolos em comum entre as partes próxima percepção das sentenças, desconsiderando as variáveis temporais

Inferir por analogia:percept( [none,none,none,none,bump], 12)

Dado que:ssa(sa5,sa1) = 8/9ssa(sa5,sa1) = 8/9ssa(sa5,sa2) = 7/9

ssa(sa5,sa3) = 8/9ssa(sa5,sa3) = 8/9ssa(sa5,sa4) = 7/9

spp(sa1,sa2) = 6/6spp(sa1,sa2) = 6/6

Resolução de Restrições

Resolução de RestriçõesCPI CPE |= NCE CPI CPE |= NCI

ConhecimentoPrévio em Intenção

X,Y,P a(P,[X,Y]) c(X)+c(Y)c(P)

ConhecimentoPrévio

em Extensão: c(q) = 120

c(d) = 90 c(e) = 60 c(f) = 30 c(g) = 60

Novo Conhecimento

em Extensão:

a(q,[d,f]) a(q,[e,g])

Novo Conhecimento

em Intenção:

X,Y {d,e,f,g}

a(q,[X,Y]) c(X)+c(Y) 120

Agente baseado em conhecimentodedutivo ou abdutivo

Am

bie

nte

Sensores

Atuadores

Base de Conhecimento Extensional (BCE): fatos, objetos

formulas lógicas instanciadas

Máquina de inferênciadedutiva ou abdutiva

Base de Conhecimento Intencional (BCI):regras, classes, formulas lógicas

universalmente quantificadas

Ask

Tell RetractAsk

Não Monotônic

a

Agente baseado em resolução de restrições

Am

bie

nte

Sensores

Atuadores

Base de Conhecimento Extensional (BCE):

restrições instanciadas

Máquina de inferênciadedutiva ou abdutiva

Base de Conhecimento Intencional (BCI):restrições

universalmente quantificadas

Tell RetractAsk

Tell RetractAsk

Agente baseado em conhecimento analógico

Am

bie

nte

Sensores

Atuadores

Base de Conhecimento Extensional (BCE): fatos, objetos

formulas lógicas instanciadasestruturados por similaridadesestruturados por similaridades

Máquina de inferênciaanalógica

AskTell Retract

Agentes baseados em conhecimentona tipologia de arquiteturas de agentes

O agente baseado em conhecimento é: Reflexo? Autômato? Cognitivo? Deliberativo? Otimizador? Adaptativo? Híbrido?

Pode ser qualquer um ! Distinções ortogonais

Existe alguma relação entre arquitetura de agente e tipo de raciocínio?

A qual? Agente adaptativo baseado

em conhecimento inclui necessariamente uma máquina de inferência indutiva ou analógica

Lembram do agente deliberativo?

Am

bie

nte

Sensores

Atuadores

Modelo dosambientes(passados)

e atual

Interpretador de percepçõesRegras: percepção(t) modelo(t-1) modelo(t)

Escolhedor de açãoRegras: resultado([ação(t),...,ação(t+n)]) = modelo(t+n) modelo(t+n) objetivo(t) faz(ação(t))

Atualizador do modelo do ambienteRegras: modelo(t) modelo(t)

Atualizador dos objetivosRegras: modelo(t) objetivos(t-1) objetivos(t)

Objetivos

Previsor de ambientes futurosRegras: modelo(t) ação(t) modelo(t+1) e modelo(t) modelo(t+1)

Modelo dosambientes

futuroshipotéticos

E lembram do agente baseado em conhecimento?

Ask

Tell

Retract

Am

bie

nte

Sensores

Atuadores

Base deConhecimentoEspecializada

Máquina deInferênciaGenérica

Como seria então um agente deliberativo baseado em conhecimento?

Am

bie

nte

Sensores

Atuadores

BCE: modelo dos ambientes

passados e atual

BCE: modelo de ambientes

futuros hipotéticos

BCE: Objetivos

BCI: interpretaçãodas percepções

BCI: atualização do modelo do ambiente

BCI: atualizaçãodo objetivos

BCI: predição deambientes futuros

BCI: estratégia deescolha de ações

Máquina deinferência

Arquitetura alternativa

Am

bie

nte

Sensores

Atuadores

BCE: modelo dos ambientes

passados e atual

BCE: modelo de ambientes

futuros hipotéticos

BCE: Objetivos

BCI: interpretaçãodas percepções

BCI: atualização do modelo do ambiente

BCI: atualizaçãodo objetivos

BCI: predição deambientes futuros

BCI: estratégia deescolha de ações

Máquina deinferência 1

Máquina deinferência 2

Máquina deinferência 3

Máquina deinferência 4

Máquina deinferência 5

Como se obtém conhecimento?

Durante desenvolvimento: Conhecimento em intencao e em extensao inicial

Manualmente via codificação direta Semi-automaticamente via interface de aquisição de conhecimento

Semi-automaticamente via aprendizagem de máquina (indução off-line)

Usando metodologias de engenharia de conhecimento

Durante execução: Conhecimento em extensao

Automaticamente via percepção, dedução, abdução ou analogia

Conhecimento em intencao Automaticamente via analogia ou indução on-line (agente aprendiz situado)

Engenharia do conhecimento

MetodologiaMetodologia para desenvolver sistemas baseados em conhecimento e especialmente bases de conhecimento

Orientação a objetoOrientação a objeto (e também métodos formais) em:(e também métodos formais) em: Linguagens de modelagem, programação e representação do conhecimento

Favoreceu interseção e convergência entre engenharia de software e engenharia de conhecimento

Problemática comum:Problemática comum: Robustez, escalabilidade, estendibilidade, reusabilidade, desenvolvimento distribuído, elicitação do conhecimento de especialista do domínio leigo em informática

Desenvolvimento de uma base de conhecimento:Desenvolvimento de uma base de conhecimento: Geralmente em espiral com três níveis principais de captura de conhecimento

Nível do conhecimento, nível da formalização, nível da implementação

Engenharia de uma base de conhecimento

Elicitação do conhecimento

Formalização do conhecimento

Implementação do conhecimento

Nível do conhecimento:• Nos termos do especialista do domínio de aplicação• Linguagem natural, Notações gráficas ad-hoc

Nível semi-formal:• Notação textual estruturada padrão (XML) • Notação gráfica padrão (UML)• Validação com especialista

Nível formal:• Notação sem ambigüidade com semântica definida matematicamente (Lógica, Probabilidades)• Verificação de consistência

Nível da implementação:• Codificação em uma linguagem de programação• Teste de protótipo

Engenharia de uma base de conhecimento

Elicitação do conhecimento

Formalização do conhecimento

Implementação do conhecimento

Nível do conhecimento:• Nos termos do especialista do domínio de aplicação• Linguagem natural, Notações gráficas ad-hoc

Nível semi-formal:• Notação textual estruturada padrão (XML) • Notação gráfica padrão (UML)• Validação com especialista

Nível formal:• Notação sem ambigüidade com semântica definida matematicamente (Lógica, Probabilidades)• Verificação de consistência

Nível da implementação:• Codificação em uma linguagem de programação• Teste de protótipo

Engenharia de uma base de conhecimento

Elicitação do conhecimento

Formalização do conhecimento

Implementação do conhecimento

Nível do conhecimentoNível do conhecimento:• Nos termos do especialista do domínio de aplicação• Linguagem natural, Notações gráficas ad-hoc

Nível semi-formal:• Notação textual estruturada padrão (XML) • Notação gráfica padrão (UML)• Validação com especialista

Nível formal:• Notação sem ambigüidade com semântica definida matematicamente (Lógica, Probabilidades)• Verificação de consistência

Nível da implementação:• Codificação em uma linguagem de programação• Teste de protótipo

• Entrevistas estruturadas com especialista• Preparação de dados

• Ontologias • Linguagens semi-formais derepresentação do conhecimento

• Linguagens formais derepresentação do conhecimento• Aprendizagem de Máquina

• Compiladores• Máquinas de inferências• Aprendizagem de Máquina

Agente indutivo off-line: fase de treinamento

Base de Dados, Exemplos, Casos representativos do ambiente

fatos, objetosformulas lógicas instanciadas

Máquina de inferênciadedutiva e/ou abdutiva

Base de ConhecimentoIntencional (BCI):regras, classes, formulas lógicas

universalmente quantificadas

Máquina de inferênciaindutiva

Ask

Tell

Retract

Formaçãode Hipóteses

Verificaçãode Hipóteses

Ask

Tell

Retract

Ask

Ask

Agente indutivo off-line: fase de utilização

Am

bie

nte

Sensores

Atuadores

Base de Conhecimento Extensional (BCE): fatos, objetos

formulas lógicas instanciadas

Máquina de inferênciadedutiva e/ou abdutiva

Base de Conhecimento Intencional (BCI)construída por induçãoconstruída por indução::

regras, classes, formulas lógicasuniversalmente quantificadas

Ask

AskTell Retract

Agente indutivo situado

Base de ConhecimentoExtensional (BCE):

fatos, objetosformulas lógicas instanciadas

Máquina de inferênciadedutiva e/ou abdutiva

Base de ConhecimentoIntencional (BCI):regras, classes, formulas lógicas

universalmente quantificadas

Máquina de inferênciaindutiva

Ask

Tell

Retract

Formaçãode Hipóteses

Verificaçãode Hipóteses

Ask

Tell

Retract

Am

bie

nte

Sensores

Atuadores

top related