exercicios redes neurais com resposta

6
Exercícios: Redes Neurais Artificiais Questões para pesquisa: 1. (1,0) Classifique a lista de itens abaixo como verdadeiro (V) ou falso (F) e justifique sua resposta: a. Nós usamos apenas 10% do potencial do nosso cérebro. Resposta b. O número de neurônios que temos ao nascermos é o mesmo do número de neurônios ao morrermos. Resposta c. Os neurônios não se reproduzem. Resposta d. Os homens têm mais neurônios que as mulheres. Resposta e. As mulheres possuem uma visão periférica mais ampla que os homens. Resposta Questões teóricas: 1. (1,5) Dado o neurônio de McCulloch & Pitts abaixo, determine valores para seus pesos, w1 e w2, e para o limiar , tal que ele reproduza as portas lógicas AND, OR e NOT. Resposta AND w1 = 1, w2 = 1, θ = 2 f (u) = 1 para u ≥ 2 f (u) = 0 para u < 2 OR w1 = 1, w2 = 1, θ = 1 f (u) = 1 para u ≥ 1 f (u) = 0 para u < 1 NOT w1 = -1, w2 = 0, θ = 0 f (u) = 1 para u ≥ 0 f (u) = 0 para u < 0 14/12/2010 .:LVCoN:. Laboratório Virtual em Comp… natcomp.com.br/…/exercicio_id2.jsp 1/6

Upload: bruno-gomes

Post on 27-Jun-2015

1.482 views

Category:

Documents


7 download

TRANSCRIPT

Page 1: Exercicios Redes Neurais Com Resposta

Exercícios: Redes Neurais Artificiais

Questões para pesquisa:

1. (1,0) Classifique a lista de itens abaixo como verdadeiro (V) ou falso (F) e justifique sua resposta:

a. Nós usamos apenas 10% do potencial do nosso cérebro.

Resposta

b. O número de neurônios que temos ao nascermos é o mesmo do número de neurônios ao morrermos.

Resposta

c. Os neurônios não se reproduzem.

Resposta

d. Os homens têm mais neurônios que as mulheres.

Resposta

e. As mulheres possuem uma visão periférica mais ampla que os homens.

Resposta

Questões teóricas:

1. (1,5) Dado o neurônio de McCulloch & Pitts abaixo, determine valores para seus pesos, w1 e w2, e para olimiar , tal que ele reproduza as portas lógicas AND, OR e NOT.

Resposta

ANDw1 = 1, w2 = 1, θ = 2f(u) = 1 para u ≥ 2f(u) = 0 para u < 2

ORw1 = 1, w2 = 1, θ = 1f(u) = 1 para u ≥ 1f(u) = 0 para u < 1

NOTw1 = -1, w2 = 0, θ = 0f(u) = 1 para u ≥ 0f(u) = 0 para u < 0

14/12/2010 .:LVCoN:. Laboratório Virtual em Comp…

natcomp.com.br/…/exercicio_id2.jsp 1/6

Page 2: Exercicios Redes Neurais Com Resposta

2. (1,0) O neurônio de McCulloch & Pitts pode ser implementado de forma a simular uma porta lógica AND euma porta OR. Dado o neurônio NOT abaixo, conecte alguns neurônios AND, OR e NOT tal que a rederesultante opere como uma porta XOR.

Resposta

3. (1,0) Seja um neurônio genérico sem o bias e com função de ativação do tipo linear, (u) = u. A regra deatualização deste neurônio é do tipo supervisionada e, portanto, leva em consideração o erro entre a saídada rede e a saída desejada. A Eq. (1) apresenta a regra de atualização dos pesos em função do gradientedo erro instantâneo.

onde, w é o vetor de pesos do neurônio, é a taxa de aprendizagem, e / w é vetor gradiente do erro emrelação ao vetor de pesos do neurônio. O erro instantâneo do neurônio é dado pela Eq. (2) abaixo:

onde e(t) é o sinal de erro medido na iteração t. Mostre que a regra resultante de atualização de pesos do neurônio édada pela Eq. (3).

Resposta

e(t) = d(t) - y(t)e(t) = d(t) - xT(t)w(t)

w(t + 1) = w(t) + ae(t)x(t)

4. (1,5) Para a rede competitiva treinada abaixo calcule o neurônio vencedor para cada padrão de entradadado. Onde: m é o número de entradas da rede, o o número de saídas e N o número de amostras (padrões)de treinamento.

14/12/2010 .:LVCoN:. Laboratório Virtual em Comp…

natcomp.com.br/…/exercicio_id2.jsp 2/6

Page 3: Exercicios Redes Neurais Com Resposta

Rede competitiva; matriz de pesos W; matriz de dados de entrada X.

Neurônio vencedor: 1, onde 1 = arg min i ||x - wi||, i.

Métrica de distância: ||x - wi|| = (Distância Euclidiana)

Resposta

Padrão de Entrada x1

Neurônio Vencedor: w1

Padrão de Entrada x2

Neurônio Vencedor: w2

5. (2,0) Dada a rede do tipo perceptron simples (SLP) abaixo, calcule a saída da rede, o erro entre a saídadesejada e a saída da rede, e o ajuste a ser promovido nos pesos da rede na primeira época (iteração) detreinamento. Regras de ajuste de pesos (aprendizagem): ei (t) = di (t) - yi (t),

w(t+1) = w(t) + ei 2 xi,

b(t+1) = b(t) + ei 2.

14/12/2010 .:LVCoN:. Laboratório Virtual em Comp…

natcomp.com.br/…/exercicio_id2.jsp 3/6

Page 4: Exercicios Redes Neurais Com Resposta

Resposta

Apresentação do primeiro padrão de entrada:

Saída da rede

Cálculo do erro

Ajuste dos Pesos

Ajuste dos Bias

14/12/2010 .:LVCoN:. Laboratório Virtual em Comp…

natcomp.com.br/…/exercicio_id2.jsp 4/6

Page 5: Exercicios Redes Neurais Com Resposta

Apresentação do segundo padrão de entrada:

Saída da rede

Cálculo do erro

Ajuste dos Pesos

Ajuste dos Bias

6. (2,0) Para o perceptron de múltiplas camadas (MLP) mostrado na figura abaixo, calcule a saída da redeassumindo neurônios lineares em todas as camadas da rede e proponha uma rede com uma única camada(SLP) equivalente a esta rede MLP. Padrão de entrada: x1 = x2 = 1.

14/12/2010 .:LVCoN:. Laboratório Virtual em Comp…

natcomp.com.br/…/exercicio_id2.jsp 5/6

Page 6: Exercicios Redes Neurais Com Resposta

Resposta Saídas da rede: y = W 3.(W2.(W1.x + b1) + b2) + b3) = [0.5 0.73]TS

Rede equivalente: (possíveis respostas)

a-) b-)

14/12/2010 .:LVCoN:. Laboratório Virtual em Comp…

natcomp.com.br/…/exercicio_id2.jsp 6/6