55492972 00009 fundamentos das redes neurais artificiais paraconsistentes

291
1

Upload: carvalho

Post on 19-Jan-2016

26 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1

Page 2: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2

João Inácio da Silva Filho & Jair Minoro Abe

São Paulo1999

Page 3: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

3

2000, by Editora Arte & Ciência

Direção GeralHenrique Villibor Flory

Editor e Projeto GráficoAroldo José Abreu Pinto / Karel H. Langermans

Editoração EletrônicaAlain Ferreira do Nascimento

CapaKarel H. Langermans

RevisãoLetizia Zini Antunes

Dados Internacionais de Catalogação na Publicação (CIP)(Acácio José Santa Rosa, CRB-8/157)

R484s

Silva Filho, João InácioFundamentos das redes neurais artificiais paraconsistente / João

Inácio da Silva Filho e Jair Minoro Abe - São Paulo: Arte & Ciência, 2000.188 p. il; 21 cm � (Coleção Universidade Aberta)Inclui Apêndice A,B,C,DExercícios no final do capítulos

Referência BibliograficaISBN: 85.7473-042-41.Redes Neurais Artificiais (computação) 2. Sistemas neurais artifici-

ais paraconsisitente . 3. Linguagem de programas de computador. 4.Inte-ligência artificial. 5. Lógica paraconsistete. 6. Neurocomputação. 7.Análise de sistemas. 8. Engenharia de análise de sistemas . I Abe, JairMinoro. II Título

CDD - 001.6006.3

Índice para catálogo sistemático:1. Redes Neurais: Computação 001.6

2.Computação: Informatica: Linguagem de Programação 006.3

3.

Editora Arte & CiênciaRua Treze de Maio, 71 – Bela VistaSão Paulo – SP - CEP 01327-000

Tel/fax: (0XX11) 257-5871Na internet: http://www.arteciencia.com.br

Page 4: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

4

SUMÁRIO

Prefácio, 10

Capítulo 1 – INTRODUÇÃO GERAL, .................................................15

1.1-Introdução...................................................................................................151.2-A Neurocomputação,................................................................................161.3-Aplicando a Lógica Paraconsistente em Redes NeuraisArtificiais, ..........................................................................................................171.4-Noções elementares de redes neurais artificiaisparaconsistentes RNAP’s................................................................................181.5-O código do processamento de sinais, ..................................................201.6-Comparação entre as Redes Neurais Clássicas e a RNAP, ..................221.7-Apresentação do livro, .............................................................................23

Capítulo 2 - A LÓGICA PARACONSISTENTE, ........................................25

2.1-Introdução, ..................................................................................................262.2-A Lógica Clássica, ........................................................................................272.3- Lógica Paraconsistente,................................................................................302.4-A Lógica Paraconsistente Anotada, .............................................................322.4.1-Lógica proposicional paraconsistente anotada (LPA2v),...........................332.5-A Metodologia de Aplicação da Lógica Paraconsistente Anotada, ..............382.6-Representação do reticulado associado a Lógica Paraconsistente Anotada,..402.6.1-Reticulado associado á lógica paraconsistente anotada – LPA1v...............402.6.2-Lógica paraconsistente anotada de anotação com dois valores – LPA2v,...422.7-Aplicações da Lógica Paraconsistente Anotada de anotação com dois valores–LPA2v,...........................................................442.7.1 A Análise Paraconsistente com a LPA2v.....................................45

Page 5: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

5

2.7.2 O grau de Contradição Gct, ...................................................................46

2.7.3 O grau de Certeza Gc,.............................................................................47

2.7.4 Reticulado associado a LPA2v constituído com valores de graus deContradição e graus de Certeza, ....................................................................472.7.5 O algoritmo Para-Analisador, ...............................................................492.7.6 Os Operadores Lógicos da LPA2v, .....................................................552.7.7 O algoritmo Para-Analisador Simplificado, ........................................582.8 A célula artificial paraconsistente básica CAPb, .................................602.9 Considerações finais, ...............................................................................632.10 Exercícios,.................................................................................................64

Capítulo 3 – OS CONCEITOS FUNDAMENTAIS DAS CÉLULASNEURAIS ARTIFICIAIS PARA CONSISTENTES, ....................................67

3.1 Introdução, .................................................................................................673.2 Conceitos Básicos das Células Neurais ArtificiaisParaconsistentes,..............................................................................................683.2.1 O grau de crença resultante m

r, ..........................................................68

3.2.2 A Equação Estrutural Básica (EEB) ,..................................................703.2.3 Grau de indefinição, .............................................................................713.2.4 Fator de tolerância à contradição Ft

ct, ...............................................71

3.2.5 O sinal de resposta à contradição Sct,................................................73

3.2.6 Fator de tolerância à decisão Ftd,........................................................74

3.2.7 Fator de tolerância à certeza Ftc, ........................................................76

3.3 O fator de tolerância à certeza utilizado comocontrole da célula, ............................................................................................773.4 A influência conjunta do fator de tolerância à contradição e do fatorde tolerância à certeza na análise da célula...................................................783.5 O Operador da Negação lógica (Operador Not),....................................803.6 O Operador da complementação lógica (Operador Complemento),...............................................................................81 3.6.1A transformação do grau de descrença em grau de crença,..............823.7 Considerações Finais,................................................................................833.8 Exercícios, ...................................................................................................83

Capítulo 4 – AS CÉLULAS NEURAIS ARTIFICIAISPARACONSISTENTES, .................................................................................85

4.1 Introdução,.................................................................................................854.2 A família de Células Neurais Artificiais Paraconsistentes,...................874.3 Célula Neural Artificial Paraconsistente de conexão analítica –CNAPCa, ...........................................................................................................88 4.3.1 Representação simplificada, ...................................................................91

Page 6: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

6

4.4 Célula Neural Artificial Paraconsistente de conexão lógica simples – CNAPCIs,.............................................................................914.4.1 Representações simplificadas, ..............................................................944.5 Célula Neural Artificial Paraconsistente de conexãológica seletiva – CNAPCIse, ...........................................................................94 4.5.1 Representação simplificada, .................................................................964.5.2 Representação simplificada,...................................................................974.6 Célula Neural Artificial Paraconsistente de passagem– CNAPp, ...........................................................................................................984.6.1 Representação simplificada, ..................................................................994.7 Célula Neural Artificial Paraconsistente de complementação – CNAPco, .........................................................................................................100 4.7.1 Representação simplificada, ..........................................................1024.8 Célula Neural Artificial Paraconsistente de decisão – CNAPd, .........1024.8.1 Representação simplificada, ................................................................1044.9 Célula Neural Artificial Paraconsistente de aprendizagem – CNAPa,.........................................................................................................1054.9.1 O fator de aprendizagem F

A, ................................................................106

4.9.2 Algoritmo de aprendizagem da CNAPa, ............................................1064.9.3 Fator de desaprendizagem F

DA, ...........................................................106

4.9.4 Representação simplificada, .................................................................1064.10 Célula Neural Artificial Paraconsistente de memorização– CNAPm, ........................................................................................................1074.10.1 Representações simplificadas, ..........................................................1104.11 Considerações finais, ............................................................................1114.12 Exercícios, ...............................................................................................112

Capítulo 5 – A CÉLULA NEURAL ARTIFICIALPARACONSISTENTE DE APRENDIZAGEM, .......................................114

5.1 Introdução,................................................................................................1145.2 A Célula Neural Artificial Paraconsistente de aprendizagemCNAPa, .............................................................................................................1165.2.1 Aprendizagem de uma Célula Neural Artificial Paraconsistente,............................................................................................................................1175.2.2 O fator de aprendizagem F

A, .................................................................117

5.2.3 O algoritmo de aprendizagem, ...............................................................5.3 Os processos de aprendizagem e de desaprendizagem de uma Célula Neural ArtificialParaconsistente – CNAP,..............................1235.3 .1 Reconhecimento do padrão a ser aprendido, ................................. 1235.3 .2 O fator de desaprendizagem F

DA, .......................................................124

Page 7: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

7

5.3.3 Confirmação da aprendizagem da proposição negada, ...................1255.4 Estudos do Algoritmo de Aprendizagem e de DesaprendizagemCompleto de uma Célula Neural Artificial Paraconsistente, .....................1255.5 Os resultados práticos no treinamento de uma Célula NeuralArtificial Paraconsistente de aprendizagem - CNAPa, ..............................1285.5.1 Representação simplificada, ................................................................1305.6 Ensaios da Célula Neural Artificial Paraconsistente de aprendizagem - CNAPa com variações nos valores dos fatores de aprendizagem F

A e desaprendizagem F

DA, .................................................131

5.7 Ensaio de uma Célula Neural Artificial Paraconsistente deaprendizagem - CNAPa com aplicações de diversos padrões com diferen-tes valores, ......................................................................................................1335.8 Considerações finais, ..............................................................................1355.9 Exercícios, .................................................................................................135

Capítulo 6 – PARA-PERCEPTRON - NEURÔNIO ARTIFICIAL PARACONSISTENTE, .......................................................137

6.1 Introdução,.................................................................................................1376.2 O Neurônio Biológico, ............................................................................1396.3 O Neurônio Artificial, ..............................................................................1436.4 O Neurônio Artificial Paraconsistente Para-Perceptron, ...................1456.5 Modelos de Para-Perceptrons, .............................................................1556.6 Ensaio de um Para-Perceptron típico, ..................................................1576.7 Considerações finais, ...............................................................................1596.8 Exercícios, ................................................................................................. 159

Capítulo 7 – AS UNIDADES NEURAISARTIFICIAIS PARACONSISTENTES, .......................................................161

7.1 Introdução,.................................................................................................1617.2 As células componentes, ........................................................................1627.2.1 Célula Neural Artificial Paraconsistente de decisão,.........................1637.2.2 Célula Neural Artificial Paraconsistente de conexão analítica, ...........................................................................................1647.2.3 Célula Neural Artificial Paraconsistente de conexãológica simples, ....................................................................................................1657.2.4 Célula Neural Artificial Paraconsistente de conexãológica seletiva, .....................................................................................................1667.2.5 Célula Neural Artificial Paraconsistente de aprendizagem, .............1677.2.6 Célula Neural Artificial Paraconsistente de memorização, ..............168

Page 8: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

8

7.2.7 Célula Neural Artificial Paraconsistente de passagem, ...................1697.2.8 Célula Neural Artificial Paraconsistente de complementação, .........1707.3 As Unidades Neurais Artificiais Paraconsistentes – UNAP’s, ...........1787.3.1 Unidade Neural Artificial Paraconsistente de aprendizagem ememorização de padrões UNAP-amp, ..........................................................1717.3.2 Unidade Neural Artificial Paraconsistente de aprendizagemcom ativação por maximização – UNAP-am, ...............................................1717.3.3 Unidade Neural Artificial Paraconsistente de aprendizagem, controle e memorização de padrões – UNAP-acm, ...................................1727.3.4 Unidade Neural Artificial Paraconsistente de aprendizagemcom análise instantânea – UNAP-AI, ..........................................................1737.3.5 Unidade Neural Artificial Paraconsistente de aprendizagempor igualdade de padrões – UNAPa-PIP, ....................................................1747.3.6 Unidade Neural Artificial Paraconsistente de aprendizagem por repetição de pares de padrões – UNAPa-PRPP, .................................1757.3.7 Unidade Neural Artificial Paraconsistente de extração de máximo – UNAP-Emax, ..................................................................................1767.3.8 Unidade Neural Artificial Paraconsistente de extração demínimo – UNAP-Emin, ...................................................................................1777.3.9 Unidade Neural Artificial Paraconsistente de competição seletiva - UNAP-Cse, .....................................................................................1787.3.10 Unidade Neural Artificial Paraconsistente de ativação de padrão – UNAP-AT, ......................................................................................1797.4 Considerações finais, .............................................................................1807.5 Exercícios, ..................................................................................................181

Capítulo 8 – OS SISTEMAS NEURAIS ARTIFICIAIS PARACONSISTENTES, ..............................................................................183

8.1 Introdução, ................................................................................................1838. 2 Sistema Neural Artificial Paraconsistente de aprendizado condicionado– SNAPac, .......................................................................................................1848. 3 O Aprendizado condicionado, ...............................................................1858. 3.1 As experiências de Pavlov, .................................................................1858. 3.2 As regras de aprendizagem de Hebb, ................................................1868.4 As células componentes do SNAPac, ..................................................1868.4 .1 A célula de aprendizagem,...................................................................1878.4 .2 A célula de conexão analítica, ............................................................1888.4 .3 Célula de decisão, ................................................................................1888.4 .4 Célula de conexão lógica simples, .....................................................1898. 5 A configuração básica do SNAPac, .....................................................189

Page 9: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

9

8. 6 Ensaios com o SNAPac, ........................................................................1968. 6 .1 A importância do SNAPac no processoevolutivo da Neurocomputação, ..................................................................1978. 7 Sistema Neural Artificial Paraconsistente de tratamento de contradições – SNAPtc, ................................................................................1988. 8 As células componentes do SNAPtc,...................................................1998. 9 A configuração básica do SNAPtc, ......................................................1998.10 Ensaios com o SNAPtc,..........................................................................2018.10.1 A importância do SNAPac no processoevolutivo da Neurocomputação, ..................................................................2038.11 Considerações finais,.............................................................................2048.12 Exercícios, ...............................................................................................204

Capítulo 9 – A REDE NEURAL ARTIFICIALPARACONSISTENTE, ..................................................................................207

9.1 Introdução,.................................................................................................2089. 2 A Rede Neural Artificial Paraconsistente e as células neurais componentes, ................................................................................................2099. 3 A arquitetura da Rede Neural Artificial Paraconsistente – RNAP, ..........................................................................................................2129. 4 Descrição do funcionamento da RNAP, ...............................................2149.4.1 Unidade Neural Artificial Paraconsistente de aprendizagem primária e memorização de padrões, ............................................................2159.4.2 Unidade Neural Artificial Paraconsistente de ativação de padrões, ..........................................................................................................2179.4.3 Unidade Neural Artificial Paraconsistente de competição seletiva, ...........................................................................................................2189.4.4 O sistema Neural Artificial Paraconsistente de aquisição de conhecimento, ................................................................................................2199.5 Considerações finais, ..............................................................................2229.6 Exercícios, ...................................................................................................223

Capítulo 10- O SISTEMA DE RACIOCÍNIOLÓGICO PARACONSISTENTE, .................................................................225

10. 1 Introdução,..............................................................................................22510. 2 Sistema Neural Artificial Paraconsistente de raciocínio lógico - SNAPrl, .............................................................................................22810.3 Sistema Neural Artificial Paraconsistente de raciocínio

Page 10: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 0

lógico de minimização – SNAPrlMin

,...............................................................22910. 4 Sistema Neural Artificial Paraconsistente de raciocínio lógico maximização – SNAPrl

Max, ................................................................232

10. 5 Sistema Neural Artificial Paraconsistente de raciocínio lógico OUexclusivo – SNAPr-

EXOR, ................................................................................234

10. 6 Sistema Neural Artificial Paraconsistente de raciocínio lógico com-pleto - SNAPrl

COM, ............................................................................................236

10. 7 Considerações finais,............................................................................23810. 8 Exercícios, ..............................................................................................239

Capítulo11 – CONCLUSÕES, ................................................................... ..241

11. 1 Introdução,..............................................................................................24111. 2 A Lógica Paraconsistente aplicada em Redes Neurais, ...................24211. 3 O código de comunicação na Rede de NeurôniosArtificiais Paraconsistentes, ........................................................................24311. 4 Considerações sobre as Redes Neurais Artificiais Paraconsistentes,...........................................................................................................................24411. 5 Considerações finais, ............................................................................245

Apêndice A,.....................................................................................................247Apêndice B, .....................................................................................................258Apêndice C, .....................................................................................................263Apêndice D, .....................................................................................................268

Referências bibliográficas,.............................................................................284

Page 11: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 2

Tecendo o Amanhã

Um galo sozinho não tece o amanhã:ele precisará sempre de outros galosde um que apanhe esse gritoque elee o lance a outro; de um outro galoque apanhe o grito que um galo antes e o lancea outro; e de outros galosque com muitos outros se cruzem os fios do solde seus gritos de galo, para que a manhã, desdeuma teia tênue, se vá tecendo, entre todos os galos.

E se encorpando em tela, entre todos, seerguendo em tenda, onde entrem todos, seentretendo para todos, no toldo (a manhã)que plana livre de armação.A manhã toldo de um tecido tão aéreoque, tecido, se eleva por si: luz balão.

João Cabral de Melo Neto

Para fazer Ciênciaé preciso fazer da vida um sonho

e de um sonho realidade.

Pierre Curie

Page 12: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 4

PREFÁCIONeste livro apresentamos uma introdução aos fundamentos das Re-

des Neurais Artificiais Paraconsistentes RNAP, visando sua estruturaçãoem linguagem de programação computacional. Os estudos das Redes NeuraisArtificiais são, atualmente, muito difundidos em âmbito mundial sendo ma-téria de interesse inserida em currículos normais de cursos de graduação epós-graduação.

No Brasil, a partir dos anos 70, começaram a aparecer estudos signifi-cativos sobre Redes Neurais Artificiais RNA e, recentemente há uma gran-de demanda no setor de aplicações em Inteligência Artificial, mais especifi-camente nas áreas de Automação e Robótica.

A teoria e a metodologia que apresentamos constitui novidade naárea de Redes Neurais Artificiais, porquanto os conceitos fundamentaisbaseiam-se numa nova classe de lógicas recentemente pesquisadas: as Ló-gicas Paraconsistentes pertencentes ao grupo das Lógicas Não-Clássicas.As idéias desenvolvidas neste trabalho mostram a Lógica Paraconsistentecomo uma eficiente ferramenta na área de Neurocomputação, possibilitan-do a construção de novas Redes Neurais Artificiais extremamente eficazes,capacitando-as a dar respostas satisfatórias a muitas questões concernentesà “modelagem” do cérebro humano. Em conseqüência, a metodologia para aimplementação dos componentes da rede, bem como o tratamento dos con-ceitos basilares envolvidos, apresentam-se de forma um pouco distinta dasconhecidas em estudos e publicações referentes às Redes Neurais Artifici-ais Clássicas.

Tendo isso em mente, procuramos apresentar o conteúdo de formadidática e sistemática, optando por uma apresentação informal com estilocoloquial. No entanto, todos os assuntos são abordados com profundida-de suficiente para serem utilizados em cursos de graduação e de pós-gradu-ação, nas áreas de engenharia, de análises de Sistemas e de programaçãocomputacional, proporcionando ao leitor capacidade para efetuar suas pró-prias investigações. Uma apresentação mais formal está sendo preparada

Page 13: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 5

em outro volume que esperamos vir a lume em breve.O novo tratamento aqui apresentado contém as teorias clássicas das

Redes Neurais Artificiais e proporciona ao leitor os sólidos fundamentospara, utilizando a Lógica Paraconsistente, modelar eficientemente diversasfunções comportamentais do cérebro tais como:

· Memória distribuída· Funcionamento paralelo· Característica de análises emergentes· Aprendizado condicionado· Capacidade de gerar plasticidade

O principal objetivo deste livro é servir de referência para aqueles queiniciam ou querem aperfeiçoar seus conhecimentos nas pesquisas e aplica-ções das Redes Neurais Artificiais e Lógicas Paraconsistentes. Devido aoseu caráter pioneiro, no que trata de aplicações das Lógicas Paraconsistentesem Neurocomputação, esta obra tem todas as condições para transformar-se em um instrumento fundamental para divulgação das pesquisas em Lógi-ca Aplicada.

Esperamos que os assuntos aqui tratados e discutidos venham a daruma real contribuição às futuras pesquisas nas aplicações da área de Inte-ligência Artificial e Neurocomputação. Nossas esperanças são reforçadasatravés dos ensaios apresentados em diversos capítulos deste livro, comos resultados que mostram, de modo muito claro, que as interpretações e osprocedimentos com base em Lógicas Não-Clássicas possibilitam o uso deinovadoras estruturas conexionistas assentadas nas LógicasParaconsistentes para modelagens cada vez mais precisas das funçõesmentais do cérebro.

João Inácio da Silva Filho &

Jair Minoro Abe

Page 14: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 6

CAPÍTULO 1

INTRODUÇÃO GERAL

Neste capítulo, apresentamos uma descrição geral de alguns assun-tos básicos específicos, como Neurocomputação, Lógica Paraconsistentee Redes Neurais Artificiais. Como os temas envolvidos são variados, dadoo caráter multidisciplinar do tema, a finalidade é fornecer ao leitor uma visãogeral das idéias discutidas.

1.1 - Introdução

A célula fundamental do cérebro humano é o neurônio. As últimaspesquisas mostram que a quantidade de neurônios existentes no cérebrohumano fica em torno de 1011. Cada um destes neurônios se comunicacontínua e paralelamente com milhares de outros, processando sinais deinformação e constituindo uma estrutura extremamente complexa.

As pesquisas relacionadas à Inteligência Artificial buscam incessan-temente modelar o comportamento do cérebro, isto porque a obtenção deum modelo matemático que determine o entendimento completo do seufuncionamento daria condições para que todo o processamento de sinaispudesse ser reproduzível por alguma máquina. No entanto, este númeroextraordinário de neurônios interconectados tem um grau de complexidadetamanha que dificulta o encontro de teorias lógico-matemáticas que repre-sente modelos adequados da funcionalidade do cérebro.

Esta forma de utilizar a matemática para descrever o funcionamentocompleto do cérebro é conhecida como descrição mecanicista e tem comocaracterística seguir os procedimentos de uma abordagem top-down, ou

Page 15: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 7

“de cima para baixo”. Na abordagem top-down, inicialmente, considera-se ofuncionamento global e depois segue-se analisando em direção às partes.Este modo de descrição mecanicista resultou na máquina analítica deCharles Babbage e na máquina de Turing o que induziu a se fazer analogiase a considerar a forma computacional de raciocínio igual ao funcionamentodo cérebro. Mas, diferentemente do que se pensava, descobriu-se que acomparação entre o funcionamento do cérebro e do computador traz muitasdivergências.

Verificou-se que o computador projetado com base na máquina deTuring tem os sinais tratados seqüencialmente, portanto, os estados pre-sentes sempre dependem dos estados anteriores e o cérebro humano nãofunciona da mesma maneira. Uma análise mais detalhada demonstra que océrebro humano possui um processamento de sinais mais complexo e muitomais rico nas formas e maneiras de se tomar decisões.

Devido à complexidade do cérebro, vários fatores que determinam oseu funcionamento ainda estão obscuros, mas algumas características jásão conhecidas e podem ser modeladas por Redes Neurais Artificiais RNA.As Redes Neurais Artificiais são modelos mecanicistas que foram criadosutilizando uma abordagem diferente para modelar partes das funções men-tais do cérebro. A abordagem utilizada pelas Redes Neurais Artificiais édenominada de bottom-up, isto é, “de baixo para cima”. Na abordagembottom-up, a análise é feita seguindo das partes para o todo.

Este tipo de abordagem Bottom-up foi iniciada com os trabalhos deWarrem McCulloch, em 1965, que culminou na criação do modelo do neurônioartificial. Na Literatura especializada, o ramo de pesquisa que consideramodelos mecanicistas Bottom-up é conhecido por vários termos:

· Teoria Conexionista ou Coneccionismo.· Teoria das Redes Neurais.· Processamento paralelo e distribuído.· Teoria dos Sistemas adaptativos.

1.2 – A Neurocomputação

Com o advento de computadores com maior capacidade de memória eapresentando processamento de sinais com maior rapidez, abriu-se novaspossibilidades para que as simulações dos modelos matemáticos dosneurônios e das atividades complexas do cérebro criassem uma nova linhade pesquisa chamada de Neurociência Computacional ou Neurocomputação.

Na Neurocomputação, os modelos matemáticos das funções mentaisdo cérebro são transformados em programa computacionais e simuladospor computadores. De uma maneira geral, podemos definir aNeurocomputação como sendo o estudo das propriedades computacionais

Page 16: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 8

do cérebro humano.Os temas tratados na Neurocomputação envolvem, desde a modela-

gem para processamento de sinais de um único neurônio, até o estudo demodelos neurais complexos. Portanto, a Neurocomputação é uma forma deabordagem Bottom-up utilizando técnicas computacionais cuja finalidade éentender o funcionamento do cérebro, modelando-o em vários níveis estru-turais diferentes.

Os procedimentos computacionais da propagação de sinais entre osneurônios e as suas interconexões em redes neurais complexas, que envol-vem a modelagem de grandes partes do sistema nervoso central do serhumano e de outros animais, são os principais temas abordados naNeurocomputação.

1.3 – Aplicando a Lógica Paraconsistente em RedesNeurais Artificiais

As noções que apresentamos nesta obra constituem mais um frutodas pesquisas em aplicações dos sistemas paraconsistentes, mais exata-mente, as Lógicas Paraconsistentes Anotadas aplicadas em Redes NeuraisArtificiais.

As primeiras aplicações dos sistemas paraconsistentes anotados emlinguagem de programação foram efetuadas em [Subrahmanian 87]. Em [Abe92] foram estabelecidos os fundamentos da Lógica Paraconsistente Anota-da e, a partir destes trabalhos pioneiros, posteriormente, várias aplicaçõesem áreas da Inteligência Artificial foram sendo obtidas como pode ser vistoem [Prado 96] e [Ávila96]. Um dos aspectos interessantes que os sistemasanotados apresentados nestes trabalhos chamaram a atenção é o de podermanipular em seu interior contradições (ou inconsistências) de modo não-trivial. Também, verificou-se que tais sistemas contêm a lógica fuzzy. Ossistemas anotados originados destes trabalhos serviram de base para ainterpretação e criação de um algoritmo denominado de Para-Analisador[Da Silva Filho 99]. As idéias que apresentamos aqui baseiam-se no Para-Analisador que serviu para edificarmos um analisador paraconsistente [DaSilva Filho & Abe] que obteve várias aplicações e também no Para-Control[Da Silva Filho & Abe], questões essas que estão ligadas à Robótica1 . Taisidéias inspiraram na confecção de um modelo de Célula Neural ArtificialCNA que verificou-se possuir propriedades interessantes para aplicaçõesem áreas para tratamento do conhecimento incerto de Inteligência Artificial,que são carentes de novas tecnologias. Por exemplo, a CNA é capaz deaceitar sinais contraditórios e combinando-se várias dessas células, po-dem-se armazenar dados em conflito e manipulá-los. Assim, esta nova célu-la difere das células estudadas até então, abrindo-se uma nova abordagem

Page 17: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 9

do estudo e aplicações da Redes Neurais Artificiais através das LógicasParaconsistentes Anotadas.

As Lógicas Paraconsistentes proporcionam um modelamento doneurônio humano que, em certos aspectos, tem características que o apro-ximam mais do raciocínio humano.

1.4 – Noções Elementares de Redes NeuraisArtificiais Paraconsistentes – RNAP’s

Uma Rede Neural Artificial RNA é um modelo mecanicista do cérebroque utiliza o procedimento de representação da análise do tipo bottom-up(parte para o todo).

A Lógica Paraconsistente Anotada - LPA é uma classe de lógica Não-Clássica cuja característica é tratar sinais, conceituando-os de forma dife-rente e livre das rígidas leis binárias da Lógica Clássica. Em uma definiçãomais geral, uma Rede Neural Artificial Paraconsistente (RNAP) é uma estru-tura de características conexionista composta de uma extensa rede de com-ponentes fundamentados na Lógica Paraconsistente Anotada - LPA.

A figura 1.1 mostra como são desenvolvidos os projetos oferecendouma idéia geral dos temas a serem apresentados.

Figura 1.1 – Desenvolvimento do projeto da Rede Neural Artificialparaconsistente.

Page 18: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 0

Para chegarmos à arquitetura da Rede Neural Artificial Paraconsistente-RNAP foram construídas, inicialmente, as Células Neurais ArtificiaisParaconsistentes CNAP’s, que são os componentes principais dos proje-tos aqui apresentados. A partir das CNAP’s são construídos os móduloscompostos de células convenientemente interconectadas, até chegarmos àformação completa da arquitetura da RNAP.

As CNAP’s são convenientemente conectadas formando UnidadesNeurais Artificiais Paraconsistentes UNAP’s que, por sua vez, são agrupa-das formando Sistemas com determinadas funções para o processamento

Page 19: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 1

dos sinais.O resultado deste processo é a obtenção de pequenos módulos ou

ilhas de tratamento de sinais que, de forma emergente, vão habilitar a cons-trução de Redes Neurais Artificiais Paraconsistentes com características defuncionamento que são próprias do cérebro como, capacidade de aprendi-zagem, desaprendizagem, plasticidade, robustez e tolerância a falhas.

Os Sistemas Neurais Artificiais Paraconsistentes SNAP’s a serem apre-sentados são projetados com as células tratando sinais de forma analógica,permitindo-se projetos de software aplicativos em linguagem de programa-ção convencional, sem tornar as implementações demasiadamente comple-xas e inviáveis para as aplicações reais.

Como todos os componentes da RNAP são compostos por células, otratamento de sinais utilizando a Lógica Paraconsistente traz procedimen-tos matemáticos simples e passíveis de aplicações práticas e diretas. Para aimplementação das RNAP’s cada célula é descrita por um algoritmo que vaifacilitar implementações de projetos na forma de linguagem de programa-ção convencional.

Seguindo a forma de análise Bottom-up, que é característica das Re-des Neurais Artificiais, estes componentes são projetados para que elabo-rem as funções que vão modelar comportamentos semelhantes aos apre-sentados pelo cérebro, quando em suas atividades mentais. As várias co-nexões entre os componentes vão dando forma a determinados blocos que,em conjunto, fazem processamento de sinais com funções bem definidas e,por fim, chegam a uma estrutura geral a qual denominamos de Rede NeuralArtificial Paraconsistente RNAP.

A nossa linha procedimental adotada é a apresentação dos funda-mentos que vão possibilitar implementações de Redes Neurais, estruturadasna Lógica Paraconsistente. Os fundamentos apresentados e os conceitosbásicos vão contribuir para que novas pesquisas no campo da criação deprogramas computacionais, simulando Redes Neurais Artificiais, venham aser desenvolvidas. No decorrer dos capítulos, serão estudados e desenvol-vidos projetos de vários componentes criados por meio de conceitos einterpretações da Lógica Paraconsistente.

1.5 – O Código do Processamento de Sinais

Uma Rede Neural Artificial Paraconsistente, assim como as RedesNeurais Artificiais convencionais, une duas principais áreas de pesquisas:a biológica e a computacional.

Encontrar um código que permita traduzir, de forma artificial a troca de

1 O programa do Para-Control elaborado em linguagem de programação C estáapresentado no apêndice D.

Page 20: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 2

informações entre os neurônios biológicos é o grande desafio da área daciência computacional. Não se tem um código eficiente para troca de infor-mações entre células e este é o ponto de maior dificuldade para aimplementação de Redes Neurais Artificiais que possam raciocinar de for-ma parecida com o cérebro.

A Rede Neural Artificial Paraconsistente RNAP utiliza para processaros sinais representativos de informações que trafegam entre as células, umcódigo próprio que é originado da metodologia utilizada para interpretaçãoda Lógica Paraconsistente Anotada.

Os resultados dos estudos que permitiram o equacionamento de valo-res com base na estrutura teórica da Lógica Paraconsistente Anotada [DaSilva Filho 99] originaram uma equação que é utilizada como código para otratamento de sinais de informações na Rede Neural ArtificialParaconsistente.

Este código mostra um nível de eficiência muito alto e é representadopor uma fórmula muito simples. Devido à importância desta fórmula, queequaciona e efetua o processamento de sinais na RNAP sempre dentro deum intervalo real fechado [0,1], a denominamos de Equação Estrutural Bási-ca (EEB).

A EEB é definida por

Na prática, na RNAP, todas as informações são recebidas através desensores que trazem sinais de valores reais entre 0 e 1 para serem conside-rados na forma de graus de credibilidade. A ponderação dos valores e atroca de informações para processamento são feitas pelas inúmeras cone-xões da Rede através da Equação Estrutural Básica EEB.

Na seqüência, veremos a utilização da EEB como a principal equaçãocodificadora, e os sinais de graus de crença são computados e difundidospelas inúmeras ramificações compostas apenas de Células Neurais Artifici-ais Paraconsistentes CNAP’s.

Inicialmente, seguindo os procedimentos de uma abordagem Bottom-up, as Células Neurais Artificiais Paraconsistentes são interconectadas paratrocar informações entre si, formando Unidades Neurais ArtificiaisParaconsistentes UNAP’s que podem ser comparadas aos blocos compo-nentes estruturais da rede de neurônios biológicos do cérebro.

Page 21: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 3

As Unidades Neurais Artificias Paraconsistentes vão compor Siste-mas Neurais de Raciocínio Lógico -SNRL com várias finalidades, onde pormeio de inferências são capazes de modelar as funções mentais do cérebro,inclusive fazendo tratamento de contradições.

Finalmente, os blocos com diversas funções que fazem raciocínio ló-gico, tratamento de sinais e aquisição de conhecimento, são interligadospara que possam trocar informações através da EEB e assim efetuar asanálises em conjunto, apresentando um funcionamento do tipo paralelo edistribuído.

1.6 – Comparação entre as Redes Neurais Clássicase a RNAP

A implementação de Redes Neurais Artificiais Paraconsistentes trazmuitas vantagens em relação às redes neurais clássicas. Enumeramos algu-mas:

a) Uma maior simplicidade no tratamento de sinais.Todas as equações para computação e tratamento dos sinais são sim-

ples, sem nenhuma complexidade matemática que possa inviabilizar proje-tos práticos.

b) Todos os valores analógicos estão inseridos num intervalo conhe-cido.

Na Rede Neural Artificial Paraconsistente todos os valores represen-tativos dos graus de crença são valores reais positivos e variáveis sempreentre 0 e 1.

c) Todos os componentes têm fácil implementações por meio desoftware ou hardware.

Todas as funções podem ser implementadas em linguagemcomputacional convencional (C, C++, Basic, etc.) ou por meio de projetosde circuitos eletrônicos simples.

d) Todos os componentes trazem condições e facilidades de otimizaçãoe controle.

As Células Neurais Artificiais Paraconsistentes permitem controle paraotimização por meio de ajustes de fatores de tolerância e de aprendizagem.

e) Utilização de baixa quantidade de memória.Quando a Rede é completamente treinada o grau de crença resultan-

te é unitário, isto significa que não há necessidade de armazenar pesos e,

Page 22: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 4

com isso economiza-se áreas de memórias.

1.7 – Apresentação do Livro

Apresentaremos os fundamentos para construção de softwareaplicativos de Redes Neurais Artificias Paraconsistentes RNAP em onzecapítulos, sendo o último deles reservado para conclusões.

A seguir apresentamos a síntese dos assuntos tratados na seqüênciados capítulos:

Capítulo 1 - Introdução Geral - Apresentação geral dos conceitosdiscutidos nesta obra.

Capítulo 2 - A Lógica Paraconsistente - Noções fundamentais daestrutura teórica da Lógica Paraconsistente e método de representação einterpretação do reticulado associado à Lógica Paraconsistente Anotada.Todos os métodos apresentados neste capítulo são utilizados paraimplementação dos componentes da Rede Neural Artificial Paraconsistentetratada nos capítulos posteriores.

Capítulo 3 – Os Conceitos Fundamentais das Células Neurais Artifi-ciais Paraconsistentes - Fundamentos para a construção das Células NeuraisParaconsistentes CNAP’s. Discussões e estabelecimentos das regras e de-nominações dos fatores e sinais de controle que irão atuar na análiseparaconsistente.

Capítulo 4 – As Células Neurais Artificiais Paraconsistentes - Umafamília de Células Neurais Paraconsistentes CNAP’s que irão constituir abase das Redes Neurais. Todas as Células Neurais ArtificiaisParaconsistentes componentes da família são projetadas totalmente com ametodologia de aplicações da Lógica Paraconsistente apresentada nos ca-pítulos 2 e 3. As CNAP’s são as unidades fundamentais que comporão asRedes Neurais Artificiais Paraconsistentes.

Capítulo 5 – A Célula Neural Artificial Paraconsistente de Aprendi-zagem - Detalhes da Célula Neural de aprendizagem juntamente com osprocedimentos e algoritmos de aprendizagem. Neste capítulo, são apresen-tados resultados de ensaios efetuados com os algoritmos onde realça aimportância da célula de aprendizagem como componente da Rede NeuralArtificial Paraconsistente.

Capítulo 6 – O Neurônio Artificial Paraconsistente - Para-Perceptron-construção de uma Unidade Neural Artificial Paraconsistente denominada

Page 23: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 5

de Para-Perceptron. Neste capítulo, são apresentados detalhes do Para-Perceptron onde é feito uma comparação, discutindo minuciosamente ofuncionamento do neurônio biológico e as características do Neurônio Ar-tificial Paraconsistente.

Capítulo 7 – As Unidades Neurais Artificiais Paraconsistentes - Pro-jetos de Unidades Neurais Paraconsistentes. As Unidades Neurais Artifici-ais Paraconsistentes têm várias e diferentes caraterísticas que vão determi-nar o equacionamento, direcionamento, aprendizagem e memorização dossinais que trafegam pela RNAP.

Capítulo 8 – Os Sistemas Neurais Artificiais Paraconsistentes -Sistemas Neurais Artificiais Paraconsistentes compostos por várias Unida-des e com diversas finalidades na rede, como aprendizado condicionado etratamento contínuo de contradições.

Capítulo 9 – A Rede Neural Artificial Paraconsistente - Conceitosfundamentais para a implementação da Rede Neural Artificial Paraconsistentee Arquitetura de Redes Neurais Artificiais Paraconsistentes que modela ofuncionamento do cérebro humano. Esta Arquitetura proporciona aplica-ções e implementações de Sistemas baseados no processamento de sinaisfeitos pelo cérebro.

No Capítulo 10 – O Sistema de Raciocínio Lógico Paraconsistente -apresentam-se o Sistema Neural Artificial Paraconsistente de raciocínio ló-gico que possui características para fazer inferências na rede. Neste capítu-lo são apresentados resultados de vários ensaios com o Sistema.

Capítulo 11 – Conclusões - acolhemos as conclusões e os comentári-os sobre as várias possibilidades de implementações práticas dos compo-nentes e configurações apresentados.

Na Referência Bibliográfica, listamos as referências que baseamosnossos estudos. Grande parte delas refere-se às nossas perquirições emLógicas Paraconsistentes, notadamente as Lógicas Paraconsistentes Ano-tadas LPA. Encontra-se também abundante material das aplicações querealizamos ao longo de todos esses anos, constituindo-se numa referênciapara essas investigações.

Page 24: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 6

CAPÍTULO 2

A LÓGICA PARACONSISTENTE

Apresentamos os conceitos básicos da Lógica ParaconsistenteAnotada e a metodologia de aplicações práticas que permitirão osprojetos de implementação em Neurocomputação.

Os sistemas computacionais aplicados em engenharia sãoconstruídos com base na Lógica Convencional Clássica ou LógicaBooleana, onde a descrição do mundo é considerada por estadosbinários o que, às vezes, são insuficientes para retratar algumas situ-ações do mundo real.

A Lógica Paraconsistente é uma Lógica Não-Clássica que nas-ceu da necessidade de se criar análises mais eficientes, com capaci-dade de considerar situações reais que fogem às rígidas leis bináriasda Lógica Clássica.

Os estudos da Lógica Paraconsistente originaram outras clas-ses de Lógicas Não-Clássicas denominadas de LógicasParaconsistentes Anotadas. A Lógica Paraconsistente Anotada deanotação com dois valores – LPA2v é uma classe de LógicaParaconsistente que considera proposições sendo representadas porvalores de anotações. Dos conceitos básicos da LógicaParaconsistente Anotada de anotação com dois valores é criado umalgoritmo denominado de Para-Analisador que permite aplicaçõespráticas em sistemas de análises na forma de programascomputacionais usando linguagem convencional.

Neste capítulo, com a finalidade de criar sistemas de análisespara Neurocomputação, o algoritmo Para-Analisador é representadoatravés de uma configuração denominada de Célula Artificial

Page 25: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 7

Paraconsistente básica - CAPb.A CAPb é o componente inicial que vai estruturar todos os nos-

sos projetos, portanto devido à sua importância, é considerada a Cé-lula matter que vai originar os projetos das Redes Neurais ArtificiaisParaconsistentes.

2.1 - Introdução

Uma das questões mais relevantes que a Inteligência Artificiale a Robótica vêm se deparando, especialmente no que tange a des-crição da porção da realidade e na manipulação de dados obtidos desituações contraditórias ou inconsistentes. Para tentar responder aestas questões, neste capítulo, vamos destacar o uso de linguagensbaseadas nas Lógicas alternativas da Clássica, especialmente asLógicas Paraconsistentes que permitem trabalhar com informaçõescontraditórias, tema este que tem despertado a atenção de muitosespecialistas.

Na descrição do mundo real, é comum o aparecimento de in-consistências e ambigüidades e a lógica clássica utilizando rígidas leisque excluem qualquer valor que não seja binário fica impossibilitadade ser diretamente aplicada frente a estas situações.

A Lógica Clássica utiliza apenas dois estados lógicos: verdadei-ro ou falso. Por exemplo, na proposição “A maçã é vermelha”, numresultado de análise de cromaticidade só vão existir duas únicas situ-ações: ela é vermelha ou é não-vermelha. Mas sabemos que, na re-alidade, existem inúmeros casos em que uma maçã pode ter cor próxi-ma da vermelha ou próxima da cor verde etc.. É por possuir as ca-racterísticas binárias que a Lógica Clássica oferece facilidades emser aplicada em sistemas de computação, mas por outro lado, quandoqueremos descrever o mundo real é justamente esta característicabinária que a torna inadequada para ser aplicada.

As estruturas binárias dos Sistemas de análise clássicos obri-gam que a metodologia empregada para raciocinar deva ser feitacom algumas simplificações que resultam em ineficiência devido àsperdas de informações importantes que poderiam ser levadas emconsideração ou ainda desperdiçando muito o tempo de processamentopara se obter uma conclusão razoável.

Page 26: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 8

Quando os sistemas que utilizam a Lógica Clássica se deparamcom necessidade de descrever e raciocinar sobre algumas situaçõescomuns que retratam a realidade, como as contradições, as ambigüi-dades, as vaguezas e as indeterminações, vão levar um tempo muitolongo para efetuar uma descrição completa trabalhando com apenasdois estados. Em muitos casos, para contornar estas situações ossistemas fazem um resumo grosseiro das mesmas acumulando errose trazendo ineficiência nos resultados.

Em resumo, os sistemas clássicos quando são obrigados a des-crever situações do mundo real, onde as informações são originadasde conhecimento incerto, vão deixar de considerar fatos ou situaçõesde inconsistência que podem conter evidências que influem direta ouindiretamente no resultado da análise e por isso não podem ser des-prezadas.

Com a necessidade de se projetar Sistemas de Controle e Aná-lise mais eficientes, com capacidade de considerar situações reaisque fogem às formas binárias da Lógica Clássica, foram criadas asLógicas alternativas da Clássica denominadas de Lógicas Não-Clás-sicas1 .

As Lógicas Não-Clássicas entre outras coisas estudam formaspara considerar nas análises as situações excluídas da Lógica Clássi-ca, abrangendo todos os estados lógicos existentes que diferem do“Verdadeiro” e do “Falso”.

As Lógicas Não-Clássicas quando utilizadas como base estru-tural dos projetos de sistemas de controle permitem um melhorenquadramento dos conceitos lógicos que são excluídos da LógicaClássica, mas que são de extrema importância para o controle e es-tão sempre presentes em situações reais, como as indefinições, asambigüidades e as inconsistências.

2.2 - A Lógica Clássica

Ao que tudo indica, a Lógica foi descoberta por Aristóteles (384-322 a.C) e seus seguidores na Grécia antiga. A Lógica pode serdefinida como a ciência que estuda as leis dos raciocínios válidos.1 No apêndice A apresenta-se uma aspectos fundamentais da Lógica Clássica e daLógica Não-Clássica.

Page 27: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 9

Figura 2.1- Aristóteles.

O raciocínio, portanto, é feito com os representantes lingüísticosde coisas e do pensamento. Numa visão mais ampla, a Lógica é umateoria que estuda os mecanismos mediante os quais se pode legitima-mente inferir certos enunciados a partir de outros. A Lógica criadapor Aristóteles é denominada de Clássica e é estruturada em leis econceitos rigidamente binários.

Para o estudo das formas lógicas é necessária uma linguagem.Na linguagem humana, para exprimir os conceitos e a comunicaçãotemos interrogações, exclamações e imperativos. As sentenças de-clarativas e que podem merecer o qualificativo de “falsas” ou “ver-dadeiras” são chamadas de proposições. As proposições podem serverdadeiras ou falsas portanto, para o estudo das formas lógicas éimportante saber as proposições envolvidas e as relações que entresi possam manter.

A seguir, enumeramos três conceitos binários que regem aLógica Clássica:

1- Princípio da Identidade Proposicional:p → p ⇒ Toda proposição é implicada por ela mesma.2- Princípio do terceiro excluído:p ∨ ¬p ⇒ de duas proposições contraditórias (isto é, tais que

uma é a negação da outra) uma delas é verdadeira.3- Princípio da contradição (ou da não-contradição):¬(p ∧ ¬p) ⇒ entre duas proposições contraditórias, uma é

falsa.

Page 28: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

3 0

Por muitos anos ficaram estabelecidos e aceitos os preceitosfilosóficos da Lógica Clássica propostos por Aristóteles e por quase2000 anos, não houve avanço e conquista neste campo que fossemconsiderados significativos.

No século XIX, com os trabalhos iniciais de G. Boole (1815-1864) que empregou a álgebra no domínio da lógica, teve início umavanço significativo estabelecendo uma Lógica Simbólica.

No início do século XX, muitos lógicos, matemáticos e filósofostrouxeram relevantes contribuições para transformar a lógica em umaciência de extrema importância. Estes trabalhos culminaram em no-vas formas de considerações lógicas diferentes da clássica que cul-minaram na criação das Lógicas Não-Clássicas. Atualmente, a lógi-ca apresenta alto grau de complexidade devido à sua evolução emvárias ramificações de linhas de pesquisas o que dificulta uma expo-sição precisa de seu estado atual.

A lógica, até bem pouco tempo, era uma ciência una, que pro-gredia linearmente, mesmo após sua matematização por matemáti-cos, 1ógicos e fi1ósofos da envergadura de Boole, Peano, Frege,Russell e Whitehead. Os desenvolvimentos revolucionários efetuadosna década de 30, como os devidos a Gödel e Tarski, ainda se situamdentro do que podemos denominar de lógica clássica ou tradicional.Não obstante todos os avanços da lógica tradicional, uma outra revo-lução paralela ocorreu no domínio da ciência criada por Aristóteles,de índole muito diversa. Referimo-nos à instituição das Lógicas Não-Clássicas. Elas produziram, como no caso da geometria não-euclidiana,uma transformação de natureza profunda no âmbito científico, cujasconseqüências de caráter filosófico ainda não se investigaram demaneira sistemática e integral.

Designamos por lógica clássica ou tradicional, essencialmente,o estudo do cálculo de predicados de primeira ordem, com ou semigualdade, bem como de certos subsistemas, como o cálculoproposicional clássico e algumas de suas ampliações, por exemplo alógica tradicional de ordem superior (teoria de tipos) e os sistemascomuns de teoria dos conjuntos (Zermelo-Fraenkel, van Neumann-Bernays-Gödel, Kelley-Morse, NF de Quine-Rosser, ML de Quine-Wang, ...). A lógica em apreço baseia-se em sintaxe e semânticabem estabelecidas; assim, a semântica usual do cálculo de predicados

Page 29: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

3 1

funda-se no conceito de verdade de Tarski.As Lógicas Não-Clássicas caracterizam-se por amplificar, de

algum modo, a lógica tradicional ou por infringir ou limitar seus prin-cípios ou pressupostos fundamentais.

2.3 - A Lógica Paraconsistente

Uma teoria (dedutiva) T, assentada na lógica L , diz-se consis-tente se entre seus teoremas não existem tais, que um seja a negaçãodo outro; em hipótese contrária, T denomina-se inconsistente. A teo-ria T chama-se trivial se todas as sentenças (fórmulas fechadas) desua linguagem forem teoremas; se isto não ocorrer, T é não-trivial.Se L for uma das lógicas comuns, como a clássica e a intuicionista deBrouwer-Heyting, T é trivial se e somente se for inconsistente. Emoutras palavras, lógicas como essas não separam os conceitos deinconsistência e de trivialidade. L denomina-se paraconsistente sepuder funcionar como fundamento de teorias inconsistentes e nãotriviais. Dito de outro modo, uma lógica paraconsistente mostra-secapaz de manipular sistemas inconsistentes de informações sem operigo de trivialização. (Somente em certas circunstâncias específi-cas a presença de contradição implica em trivialização.)

Os precursores da Lógica Paraconsistente foram o 1ógico po-lonês J. Lukasiewicz e o fi1ósofo russo N.A. Vasilév. Simultanea-mente, por volta de 1910, embora de maneira independente, eles ven-tilaram a possibilidade de uma Lógica Paraconsistente que restringi-ria, por exemplo, o princípio de contradição, quando formulado daseguinte forma: dadas duas proposições contraditórias, isto é, umadas quais é a negação da outra, então uma das proposições é falsa.Vasilév chegou, mesmo a articular determinada LógicaParaconsistente, que ele batizou de imaginária, modificando asilogística aristotó1ica. Nenhum deles tinha, na época, uma vista amplada Lógica Clássica, tal como hoje a encaramos; eles a tratavam maisou menos do prisma de Aristóteles, de conformidade com as tendên-cias então dominantes na época.

O primeiro 1ógico a estruturar um cálculo proposicionalparaconsistente foi o polonês S. Jaskowski, discípulo de Lukasiewicz.Em 1948 ele publicou suas idéias sobre lógica e contradição, mos-

Page 30: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

3 2

trando como se poderia construir um cálculo sentencialparaconsistente, possuindo motivação conveniente. O sistema deJaskowiski, nomeado por ele de lógica discursiva, desenvolveu-seposteriormente (a partir de 1968) em virtude das obras de autorescomo J. Kotas, L. Furmanowski, L. Dubikajtis, N.C.A. da Costa e C.Pinter. Assim, chegou-se a edificar uma verdadeira lógica discursiva,englobando um cálculo de predicados de primeira ordem e uma lógi-ca de ordem superior (há, inclusive, teorias discursivas de conjuntos,intrinsecamente ligadas à teoria de atributos, baseada no cálculo S

5

de Lewis).Os sistemas iniciais de Lógica Paraconsistente, contendo todos

os níveis1ógicos, envolvendo, pois, cálculos proposicionais, depredicados e de descrições, bem como lógicas de ordem superior,devem-se a N.C.A. da Costa (1954 em diante). Isto se realizou demaneira independente das perquirições dos autores já mencionados.Hoje em dia, existem, inclusive, sistemas paraconsistentes de teoriasde conjuntos, estritamente mais fortes do que os clássicos, porquantoconsiderados como subsistemas estritos e matemáticasparaconsistentes. Aliás, estas matemáticas encontram-se aparenta-das com a matemática difusa (fuzzy) que, sob certo ponto de vista,encaixa-se no rol daquelas.

Ficou provado, em decorrência da elaboração da lógicaparaconsistente, que se torna possível manipular sistemasinformacionais inconsistentes e extraordinariamente fortes, sem serpreciso que se eliminem as contradições e sem se cair na trivialização.

Semelhantemente, introduzimos o conceito de lógicaparacompleta. Uma lógica é chamada paracompleta se pode funci-onar como a lógica subjacente de teorias na qual há fórmulas tais queestas fórmulas e suas negações são ambas falsas. Uma teoria é cha-mada paracompleta se sua lógica subjacente é uma lógicaparacompleta.

Como uma conseqüência, teorias paraconsistentes não satisfa-zem o princípio da não-contradição que pode ser expressa como se-gue: de duas proposições contraditórias (i.e., uma delas é negação daoutra); uma deve ser falsa. Além disso, teorias paracompletas nãosatisfazem o princípio do terceiro excluído, formulado como se se-gue: de duas proposições contraditórias, uma deve ser verdadeira.

Page 31: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

3 3

Finalmente, lógicas que são simultaneamente paraconsistentese paracompletas chamam-se lógicas não-aléticas.

2.4 - A Lógica Paraconsistente Anotada

As lógicas paraconsistentes anotadas são uma classe de lógicasaléticas, em particular, paraconsistentes e que possuem um reticuladoassociado que desempenha um papel sumamente importante, comoveremos adiante. Com a descoberta da lógica paraconsistente anota-da (introduzidas pela primeira vez em programação lógica por[Subrahmanian 87]) encontrou-se uma forma fecunda de aplicar osconceitos teóricos da lógica paraconsistente nos mais variados cam-pos. Devido as aplicações que as lógicas anotadas encontraram, tor-nou-se conveniente um estudo de seus fundamentos. Os primeirostrabalhos nesse sentido são [Da Costa, Subrahmanian & Vago 91] e[Da Costa, Abe & Subrahmanian 91]. Logo depois, [Abe 92] apre-sentou um estudo sistemático dessas lógicas, demonstrando teoremasde correção e de completeza para as lógicas de primeira ordem cor-respondentes. Esse autor também fez um estudo da teoria de mode-los bem como uma teoria de conjuntos anotada, sistemas modais ano-tados e versões algébricas [Da Costa, Abe & Subrahmanian 91],[Abe 94b], [Abe 97e] e [Abe 99b]. Em [Da Costa, Abe &Subrahmanian 91] e [Abe 92] mostra-se que a teoria anotada geralde conjuntos é extraordinariamente forte, envolvendo como caso par-ticular a teoria dos conjuntos difusos ([Negoita & Ralescu 75] e [Zadeh87]). Mais recentemente Abe e seu grupo têm se esforçado nas di-versas aplicações dos sistemas anotados, mostrando a fecundidadedo conceito de paraconsistência e paracompleteza em IA e Robótica.

Cremos que a Matemática Anotada, sendo desenvolvida, e en-volvendo a Matemática Fuzzy, afigura-se da mais alta relevância,basta lembrar as aplicações obtidas em Ciência da Computação,Robótica, Engenharia de Produção, Inteligência Artificial e Informáticaem geral.

Page 32: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

3 4

2.4.1 A Lógica Proposicional ParaconsistenteAnotada (LPA2v)

Fazemos um apanhado geral das Lógicas ParaconsistentesAnotadas de anotação com dois valores, que abreviamos por LPA2v,ao longo deste trabalho, bem como estabelecemos algumas termino-logias novas e convenções.

Seja τ = < |τ|, ≤ > um reticulado finito fixo, onde: 1. τ = [0, 1] ´ [0, 1] (onde [0, 1] indica o intervalo

fechado unitário real) 2. ≤ = {((µ

1, ρ

1), (µ

2, ρ

2)) ∈ ([0, 1] × [0, 1])2µ

1 ≤ µ

2 e

ρ1

≤ ρ2} (onde £ indica a ordem usual dos números reais). Tal

reticulado denomina-se reticulado de valores-verdade.A idéia epistemológica intuitiva da associação de uma anotação

(µ1, µ

2) a uma proposição p significa que o grau de crença em p é µ

1,

enquanto que o grau de descrença é µ2. Por exemplo, intuitivamente,

em tal reticulado, (1.0, 0.0) indica ‘crença total’, (0.0, 1.0) indica‘descrença total’, (1.0, 1.0) indica ‘crença totalmente inconsistente’e (0.0, 0.0) indica ‘ausência total de crença’.

Exemplo 1. Seja a proposição p≡ “O aluno passou no exa-me”. Temos:

Se anotarmos com (1.0, 0.0), a leitura intuitiva será “O alunopassou no exame com crença total (= crê-se totalmente que o alunopassou no exame)”.

Se anotarmos com (0.0, 1.0), a leitura intuitiva será “O alunopassou no exame com descrença total (= crê-se totalmente que oaluno foi reprovado no exame)”.

Se anotarmos com (1.0, 1.0), a leitura intuitiva será “O alunopassou no exame com crença totalmente inconsistente”. Isto pode sesuceder se o aluno não estudou o suficiente e ao mesmo tempo umapessoa amiga diz tê-lo visto confiante após o exame.

Se anotarmos com (0.0, 0.0), a leitura intuitiva será “O alunopassou no exame com ausência total de crença”.

Exemplo 2. Seja a proposição p≡ “O paciente está acometidode pneumonia”. Temos:

Page 33: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

3 5

Se anotarmos com (1.0, 0.0), a leitura intuitiva será “O pacienteestá acometido de pneumonia com crença total.

Se anotarmos com (0.0, 1.0), a leitura intuitiva será “O pacienteestá acometido de pneumonia com descrença total (= crê-se total-mente que o paciente não está acometido de pneumonia)”.

Se anotarmos com (1.0, 1.0), a leitura intuitiva será “O pacienteestá acometido de pneumonia com crença totalmente inconsistente”.Isto pode se suceder se, por exemplo, um médico é de opinião que opaciente está acometido de pneumonia, mas um outro especialista dizque não pode ser pneumonia por um outro tipo de exame.

Se anotarmos com (0.0, 0.0), a leitura intuitiva será “O pacienteestá acometido de pneumonia com ausência total de crença”. Istopode se suceder se não se pode diagnosticar se é pneumonia ou não.

Fixamos também um operador~: |τ| → |τ|. O operador ~ cons-titui o “significado” do símbolo lógico de negação do sistema queserá considerado. Outros valores do reticulado são:

· ⊥ indica o mínimo de τ = (0.0, 0.0);· T indica o máximo de τ = (1.0, 1.0);· sup indica a operação de supremo2;· inf indica a operação de ínfimo2.

A linguagem da LPA2v possui os seguintes símbolos primitivos:1. Símbolos proposicionais: p, q, r, ...2. Conectivos: ¬ (negação), ∧ (conjunção), ∨ (disjunção) e

→(implicação).3. Cada membro deτ é uma constante de anotação: (λ

1, λ

2), (µ

1,

µ2), ...

4. Símbolos auxiliares: parênteses.

Muitas vezes, abreviamos uma constante de anotação (λ1, λ

2)

simplesmente por λ.

Definição 1. [Expressão] Uma expressão é qualquer seqüên-cia finita de símbolos de seu vocabulário.

2 Com respeito a subconjuntos de τ. Sobre estes conceitos e outros da TeoriaIntuitiva dos Conjuntos recomendamos a obra [Abe & Papavero 92].

Page 34: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

3 6

Exemplo 3. São expressões:Intuitivamente, as expressões em 1 e 2 são destituídas de senti-

do, ao passo que 3 “quer dizer algo”. Necessitamos, pois, caracteri-zar as expressões relevantes para o nosso discurso. Tais expressõescompõem a gramática3 de LPA2v.

Definição 2. [Fórmula] Fórmulas obtêm-se pela seguinte defi-nição indutiva generalizada:

1. Se p é um símbolo proposicional e (λ1, λ

2) é uma constante de

anotação então (λ1, λ

2) é uma fórmula (atômica).

2. Se A e B são fórmulas quaisquer, então (¬A), (A ∧ B), (A ∨B), (A → B), são fórmulas.

3. Uma expressão constitui uma fórmula se e somente se foiobtida por aplicação de uma das regras anteriores.

Intuitivamente lê-se a fórmula p(λ1, λ

2)como crê-se em p com

crença favorável até λ1 e crença desfavorável até λ

2. A fórmula

(¬A) é lida “a negação — ou negação fraca — de A”; (A ∧B), “aconjunção de A e B”; (A ∨ B), “disjunção de A e B”; (A →B), “aimplicação de B por A”.

Exemplo 4. Seja a proposição p ≡ “O aluno passou no exame”.Lê-se p

(1.0, 0.0) como “creio que o aluno passou no exame com

crença favorável total e crença desfavorável nula”.Lê-se p

(1.0, 1.0) como “creio que o aluno passou no exame com

crença favorável total e crença desfavorável total”, ou seja, nestecaso estaria com crenças conflitantes.

Lê-se p(0.0, 0.0)

como “creio que o aluno passou no exame comcrença favorável nula e crença desfavorável nula”, ou seja, nestecaso é totalmente nula a informação sobre o aluno.

Lê-se p(0.5, 0.5)

como “creio que o aluno passou no exame comcrença favorável até 50% e crença desfavorável até 50%”.

Exemplo 5. Seja a proposição p ≡ “O paciente está acometidode pneumonia”. Temos:

Lê-se p(0.9, 0.3)

como “crê-se que o paciente está acometido depneumonia com crença favorável até 90% e crença desfavorável até30%”.

Page 35: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

3 7

Lê-se p(0.0, 1.0)

como “crê-se que o paciente está acometido depneumonia com crença favorável nula e crença desfavorável 100%”.(= crê-se totalmente que o paciente não está acometido de pneumo-nia)”.

Lê-se p(1.0, 1.0)

como “crê-se que o paciente está acometido depneumonia com crença favorável até 100% e crença desfavorável100%”. Logo, neste caso temos uma crença totalmente conflitante(inconsistente). Isto pode se suceder se, por exemplo, um médico éde opinião que o paciente está acometido de pneumonia, mas umoutro especialista diz que não pode ser pneumonia por um outro tipode exame.

Exemplo 6. Sejam p a proposição “A canção mais popular deJohnny Mathis é Misty” e q a proposição “Johnny Mathis ficará paraa história da música popular”. Temos então:

Lê-se p(1.0,0.0)

∧ q(0.9, 0.1)

como “Crê-se que a canção mais popu-lar de Johnny Mathis é Misty com crença favorável total e crençadesfavorável nula” e “crê-se que Johnny Mathis ficará para a histó-ria da música popular com crença favorável de até 90% e crençadesfavorável de até 10%”. (= É certo que a canção mais popular deJohnny Mathis é Misty e é praticamente certo que ele ficará para ahistória da música popular.)

Lê-se p(1.0,0.0)

∨ q(0.9, 0.1)

como “Crê-se que a canção mais popu-lar de Johnny Mathis é Misty com crença favorável total e crençadesfavorável nula” ou “crê-se que Johnny Mathis ficará para a his-tória da música popular com crença favorável de até 90% e crençadesfavorável de até 10%”. (= É certo que a canção mais popular deJohnny Mathis é Misty ou é praticamente certo que ele ficará paraa história da música popular.)

Exemplo 7. Seja p a proposição “A rota do robô é para a direi-ta” Temos então:

Lê-se p(0.7,0.6)

→ p(0.5, 0.4)

como “Crê-se que a rota do robô épara a direita com crença favorável de até 70% e crença desfavorá-vel de até 60%” acarreta “crê-se que a rota do robô é para a direitacom crença favorável de até 50% e crença desfavorável de até 40%”.

Page 36: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

3 8

Exemplo 8. Seja p a proposição “O paciente está acometidode gripe”. Temos então:

Lê-se p(0.7, 0.2)

) ↔ ¬p

(0.2, 0.7) como “Crê-se que o paciente está

acometido de gripe com crença favorável de até 70% e crença des-favorável de até 20%” equivale a se dizer que não é o caso que “crê-se que o paciente está acometido de gripe com crença favorável deaté 20% e crença desfavorável de até 70%”.

Pelos exemplos vistos, já se vislumbra que o poder deexpressividade de proposições é modificado através das anotações.Este modo de tratar as proposições será de grande valia nasimplementações e aplicações como será visto nos capítulos subse-qüentes.

Vejamos mais uma peculiaridade da LPA2v. Analisemos nega-ções de proposições. Tomemos, por exemplo, a proposição p

(1.0, 0.0)

do Exemplo 1, “creio que o aluno passou no exame com crença favo-rável total e crença desfavorável nula”. Analisemos sua negação. Oleitor imediatamente se apercebe que é equivalente a se dizer “creioque o aluno passou no exame com crença favorável nula e crençadesfavorável total”, ou seja, ¬p

(1.0, 0.0) ↔ p~

(1.0, 0.0) ↔p

(0.0, 1.0). Logo, é

fácil perceber também que ¬p(λ1, λ

2) equivale a p(λ

1, λ

2) , que por

sua vez equivale a p~(λ

1, λ

2) . Logo, a negação de p(λ

1, λ

2) é a mes-

ma proposição p com graus de crença invertidos; o grau de crençafavorável de ¬p

1, λ

2) é a crença desfavorável de p

1, λ

2) e o grau

de crença desfavorável de ¬p(λ

1, λ

2) constitui o grau de crença favo-

rável de p(λ

1, λ

2) . Há, portanto, um operador natural definido sobre t

que desempenha o papel da negação do conectivo da lógica anotada:∼: τ → τ, ∼(λ

1, λ

2) = (λ

2, λ

1). Isso denuncia uma importante

propriedade na lógica LPA2v: podemos considerar equivalentes asproposições ¬p(λ

2, λ

1)e p(λ

2, λ

1), ou seja, em outra terminologia,

¬p(λ2, λ

1)« p~(λ

2, λ

1).

Exemplo 9. Seja a proposição p ≡ “O aluno passou no exame”.Uma leitura intuitiva da negação da proposição p

(1.0, 0.0) é “creio

que o aluno passou no exame com crença favorável nula e crençadesfavorável total”.

Uma leitura intuitiva da negação da proposição p(1.0, 1.0)

é “creio

3 Considerações sobre a linguagem da LPA2v estão expostos nosapêndices B e C.

Page 37: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

3 9

que o aluno passou no exame com crença favorável total e crençadesfavorável total”, ou seja, neste caso a negação de uma proposi-ção inconsistente continua inconsistente.

Uma leitura intuitiva da negação da proposição p(0.0, 0.0)

é “creioque o aluno passou no exame com crença favorável nula e crençadesfavorável nula”, ou seja, neste caso a negação de uma proposi-ção desconhecida é ainda desconhecida.

Uma leitura intuitiva da negação da proposição p(0.5, 0.5)

é “creioque o aluno passou no exame com crença favorável de até 50% ecrença desfavorável de até 50%”, ou seja, é a mesma proposição.

Exemplo 10. Seja a proposição p ≡ “O paciente está acome-tido de pneumonia”. Temos:

Uma leitura intuitiva da negação da proposição p(0.9, 0.3)

é “crê-se que o paciente está acometido de pneumonia com crença favorá-vel de até 30% e crença desfavorável de até 90%”.

Uma leitura intuitiva da negação da proposição p(0.0, 1.0)

é “crê-se que o paciente está acometido de pneumonia com crença favorá-vel total e crença desfavorável nula. (= crê-se totalmente que opaciente está acometido de pneumonia)”.

Uma leitura intuitiva da negação da proposição p(1.0, 1.0)

é “crê-se que o paciente está acometido de pneumonia com crença favorá-vel de até 100% e crença desfavorável de até 100%”. Logo, nestecaso temos uma crença totalmente conflitante (inconsistente) e suanegação é a mesma proposição inconsistente.

2.5 - A Metodologia de Aplicação da LógicaParaconsistente Anotada

Quando sistemas de controle são obrigados a descrever situa-ções do mundo real, todas as informações necessárias para análise,devido a vários fatores, vêm impregnadas de ruídos que conferemàs mesmas um determinado grau de incerteza. Nas análises feitasbaseadas em informações obtidas de condições não ideais dizemosque os sistemas tratam com conhecimento incerto.

Na literatura especializada temos a seguinte definição:O conhecimento incerto é aquele que é discutível e ao qual,

Page 38: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

4 0

normalmente associamos uma medida de incerteza que descreva, dealgum modo, crenças para as quais existem certas evidências de apoio[Rich 94].

O método de aplicação da Lógica Paraconsistente tem comoobjetivo principal implementar Sistemas Lógicos de Controle por meiode programas de computação que permitam manipular e raciocinarcom sinais representativos sobre informações de conhecimento in-certo que podem ser inconsistentes.

A metodologia que permite aplicações da Lógica ParaconsistenteAnotada vai primeiramente explorar o fato da mesma apresentar ascaracterísticas de uma Lógica Evidencial. As anotações serão con-sideradas como graus de crença ou de descrença e as análises vãoser feitas considerando os valores de informações vindas de fontesreais e incertas.

As características de uma lógica evidencial são adequadas parafazer tratamento do conhecimento incerto, principalmente, pelo fatode considerar que, numa análise, as argumentações se limitam a as-severar que as premissas constituem evidências apenas parciais paraas suas conclusões. Para que possa ser feita a análise é consideradoo grau de credibilidade ou crença que as premissas conferem àconclusão. Na prática, a determinação das premissas é tarefa depesquisas científicas e a validade ou não validade da argumentação édeterminada por estudo lógico.

No mundo real, deve-se investigar fenômenos para fazer predi-ção sobre comportamentos e a determinação da veracidade ou dafalsidade das premissas é uma das questões principais que envolvema estrutura da Lógica Clássica, dificultando a sua aplicação4 .

Com o avanço tecnológico é impossível a resolução de proble-mas de inconsistências simplesmente ignorando-as, ou refutadas comofalsas ou confirmadas como verdadeiras. Afirmações físicas, porexemplo, podem ser verdadeiras em uma situação e falsas em outra,por isso, considerando que toda verdade é incerta pode-se estabele-cer conexões certas entre incertezas. Na pesquisa científica ao aban-

4 Estas investigações dos fenômenos são cada dia mais aprofundadas e com maiorprecisão, não obstante podendo gerar contradições. Por exemplo, os instrumen-tos de medição e os aparelhos utilizados em laboratório de Física Experimental,atualmente, são de tal precisão mas, mesmo assim podem gerar inconsistências,que de alguma forma devem receber um tratamento adequado.

Page 39: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

4 1

donar as “verdades lógicas certas” que, quando trazidas à realidademais precisa, não corresponde com os fatos, traz sempre a idéia deque a verdade é algo cumulativo, portanto, a sua verdade e sua falsi-dade podem ser marcadas mediante a graus de crença.

Vão existir casos onde as proposições podem ser verdadeiras eas “inferências” serem ilegítimas, portanto argumentos válidos po-dem ter “conclusões” verdadeiras ou falsas e a validez de um argu-mento não garante a verdade da conclusão. Com estas considera-ções todo processo lógico racional seria precisamente concebido comoum passar com certeza de uma incerteza a outra.

Na Lógica Paraconsistente Anotada os sinais e informaçõesvêm na forma de graus de crença relativos a uma dada proposição.Estes graus de crença podem ser obtidos por medições, por estatísti-cas, probabilidades, etc. Os valores dos graus de crença são analógicosou multivalorados que variam entre o mínimo de 0 e o máximo de 1.

2.6 - Representação do Reticulado AssociadoàLógica Paraconsistente Anotada

A Lógica Paraconsistente Anotada pode ser representada demodo particular, através de um reticulado de Hasse em que, intuitiva-mente, as constantes de anotação nos vértices do reticulado vão darconotações de estados lógicos extremos às proposições. A anotaçãopode ser composta de por 1, 2 ou n valores, dependendo da classe deLógica Paraconsistente utilizada.

2.6.1 – Reticulado Associado á LógicaParaconsistente Anotada - LPA1v

A Lógica Paraconsistente Anotada de anotação com valor úni-co LPA1v considera, em cada vértice do reticulado, uma única ano-tação que representará, na análise paraconsistente, o grau de cren-ça atribuído à proposição.

Com estas considerações podemos estudar a LPA1v, atravésde um reticulado de quatro vértices apresentado na Figura 2.2.

Page 40: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

4 2

Figura 2.2 Reticulado finito de Hasse.

Através de uma análise intuitiva da Lógica Paraconsistente Ano-tada, a fórmula atômica pµ pode ser lida como: “creio na proposi-ção p com grau de crença de no máximo µ, ou até µ (≤ µ)”. Istoleva-nos a considerar o grau de crença como sendo uma constantede anotação do reticulado. Na representação as proposições são acom-panhadas de anotações, que por sua vez, atribuem o grau de crençacorrespondente a cada variável proposicional. As anotações, nestereticulado, são valoradas com um valor real no intervalo fechado [0,1] 5.

Podemos considerar que cada grau de crença atribuído à pro-posição é um valor que está contido no conjunto de valores compostopelas constantes de anotação do reticulado {T, V, F, ⊥}.

Cada sentença proposicional virá acompanhada de um graude crença que atribuirá uma leitura intuitiva de “Verdade”, de “Falsi-dade”, de “Inconsistência” ou de “Indeterminação” à proposição.Portanto, uma sentença proposicional associada ao reticulado daLógica Paraconsistente Anotada pode ser lida do seguinte modo:

pT ⇒ A anotação ou grau de crença atribui uma leitura intuiti-

va de proposição inconsistente a p.

p1 ⇒ A anotação ou grau de crença atribui uma leitura intui-

tiva de proposição verdadeira a p.

5 Para detalhes, consultar os apêndices B e C.

Page 41: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

4 3

p0 ⇒ A anotação ou grau de crença atribui uma leitura intui-

tiva de proposição falsa a p.

p⊥

⇒ A anotação ou grau de crença atribui uma leitura intui-

tiva de proposição indeterminada a p.

2.6.2 - Lógica Paraconsistente Anotada de anotaçãocom dois valores - LPA2v

A Lógica Paraconsistente Anotada de anotação com dois valo-res-LPA2v traz a anotação composta por dois componentes, ondepara cada proposição, associa-se dois valores de graus.

O primeiro valor contido na anotação representa a evidênciafavorável à proposição p, e o segundo valor da anotação representaa evidência contrária à proposição p.

É denominado de crença a evidência favorável à proposiçãop, isto é, primeiro valor da anotação, e de descrença a evidênciacontrária à proposição p, isto é, o segundo valor da anotação.

O grau de crença é simbolizado pela letra µ1 e o grau de des-

crença pela letra µ2.

Com estas considerações, cada constante de anotação doreticulado é agora representada pelo par (µ

1, µ

2), onde:

µ1 = Grau de crença

µ2 = Grau de descrença

Consideramos, então, o reticulado de Hasse com anotação dedois valores, onde:

τ = {(µ1, µ

2 ) | µ

1 , µ

2 ∈ [0, 1] ⊂ ℜ}.

Se p é uma fórmula básica, o operador ~ : |τ | → |τ | é defini-do agora como:

~ [(µ1, µ

2)]

= (µ

1, µ

2)

onde, µ1,

µ2 ∈

{ x ∈ ℜ

| 0 ≤ x ≤ 1}, considera-se (µ

1, µ

2 ) como

Page 42: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

4 4

uma anotação de p.Para uma melhor representação, a LPA2v é associada ao

reticulado de quatro vértices6 conforme o apresentado na figura 2.3.

Figura 2.3- Reticulado representativo da Lógica ParaconsistenteAnotada de anotação com dois valores LPA2v.

Em cada vértice deste, é representado um símbolo correspon-dente aos estados lógicos extremos, conforme foi estudado anterior-mente.

Considerando valores nos sinais que compõem as anotaçõespode-se, através de uma análise, chegar ao valor do estado lógicoresultante que vai corresponder à saída do sistema.

Podemos relacionar os estados lógicos extremos representadosnos quatro vértices do reticulado com os valores dos graus de crençae de descrença da seguinte forma:

pT = p

(1, 1) ⇒ A anotação composta pelos graus de crença

e de descrença atribui à proposição p uma leitura intuitiva que p éinconsistente.

p1 = p

(1, 0) ⇒ A anotação composta pelos graus de crença e de

descrença atribui à proposição p uma leitura intuitiva que p é verda-deira.

p0 = p

(0, 1) ⇒A anotação composta pelos graus de crença

6 Para detalhes, consultar os apêndice B e C.

Page 43: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

4 5

e de descrença atribui à proposição p uma leitura intuitiva que p éfalsa.

p1 = p

(0, 0) ⇒ A anotação composta pelos graus de crença

e de descrença atribui à proposição p uma leitura intuitiva que p éindeterminada.

Podemos observar que há uma questão importante quanto àterminologia empregada ao termo “indeterminado” que se refere àanotação correspondente [0, 0]. Tal anotação corresponde intuitiva-mente “grau de crença favorável nulo e grau de descrença tambémnulo”. Se p simbolizar uma fórmula, então p

(0, 0) significa, como vi-

mos, uma proposição falsa e sua negação também falsa. Na termino-logia das Lógicas Não-Clássicas está relativamente consagrado otermo “paracompleto” (e.g., [Da Costa, et al 99], Abe [92]) parauma proposição e sua negação ambas falsas simultaneamente. Po-rém, neste texto manteremos o termo “indeterminado” (ou “desco-nhecido”) por ser mais “sugestivo”.

Convém salientarmos que anotações do tipo [x, x] em geral sãodenominadas de “indefinido” (com a exceção de [0, 0] e de [1.0,1.0]), que ocorre, por exemplo, com [0.5, 0.5].6

2.7–Aplicações da Lógica Paraconsistente Anotada deanotação com dois valores - LPA2v

A aplicação da Lógica Paraconsistente Anotada com estereticulado composto por anotação com dois valores permite novosrecursos de controle, com mais possibilidades computacionais, acar-retando com isso, uma melhora significativa no desempenho dos pro-gramas computacionais que vão ser desenvolvidos e aplicados nosSistemas.

Utilizando o raciocínio da Lógica Evidencial, para uma análiseparaconsistente na LPA2v, as anotações podem ser interpretadascomo evidências e, portanto, quando o sistema paraconsistente pro-jetado com a LPA2v recebe informações contraditórias estas evi-dências em forma de graus de crença e de descrença possuem umpapel importante na tomada de decisão.

Na metodologia para aplicação da LPA2v, o estado lógico re-c Para detalhes, consultar os apêndices B e C.

Page 44: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

4 6

sultante da saída, que vai permitir a emissão de uma conclusão, éencontrado através do equacionamento entre os dois valoresevidenciais que compõem a anotação, isto é, o par (µ

1, µ

2) onde: µ

1

significa o grau de crença atribuído à proposição e µ

2 significa o grau

de descrença atribuído à proposição. No procedimento prático dautilização da LPA2v, os graus de crença e de descrença são conside-rados como informações de entrada do sistema e os estados lógicosrepresentados nos vértices do reticulado são as saídas resultantes daanálise paraconsistente.

A figura 2.4 apresenta esta configuração simples.

Figura 2.4- Sistema básico de análise paraconsistente

2.7.1 – A Análise Paraconsistente com a LPA2v.

Nas aplicações da LPA2v em um sistema de análise, os grausde crença e de descrença são considerados como evidências queservirão para que o sistema equacione os valores e baseado nos re-sultados tome decisões. Á medida que vão chegando as novas evi-dências para a análise vão diminuindo as contradições, dando condi-ções ao sistema de chegar a uma conclusão mais acertada.

A análise paraconsistente dos graus de crença e de descrençaé feita através da representação do reticulado em um QuadradoUnitário no Plano Cartesiano - QUPC.

No QUPC os graus de crença ficam expostos no eixo x e osgraus de descrença no eixo y. A figura 2.5 mostra esta forma derepresentação.

Page 45: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

4 7

Figura 2.5 - Reticulado representado por um Quadrado unitáriono Plano Cartesiano-QUPC.

2.7.2 - O grau de Contradição Gct

No Quadrado Unitário do Plano Cartesiano-QUPC podemoscalcular o grau de Contradição G

ct pela equação: G

ct = µ

1 + µ

2-1. O

grau de Contradição varia de –1 a +1 e pode ser visto por uma sim-ples verificação no QUPC cujo valor é correspondente à distância doponto de interpolação entre os graus de crença e de descrença e àreta que liga o ponto D = (1, 0) - Verdadeiro ao ponto B = (0, 1) -Falso.

O valor Gct = –1 que acontece no ponto A = (0, 0) representa

uma contradição máxima negativa e o valor Gct = +1 que acontece no

ponto C = (1, 1) significa que temos uma contradição máxima positi-va. Na prática, os sensores que retratam as situações reais de co-nhecimento incerto quando chegam com valores que resultam nestesgraus de Contradição estão trazendo informações completamentecontraditórias.

Num Sistema de Análise Paraconsistente quanto mais ainterpolação entre os graus de crença e de descrença se aproxima-rem do segmento de reta BD, representado no QUPC, mais o resul-tado da soma dos graus de crença e de descrença (µ

1 + µ

2) se apro-

xima de 1 diminuindo assim o valor de Gct. Esta diminuição de G

ct

representa uma menor contradição entre as informações na entrada.Quando a soma dos graus de crença e de descrença (µ

1 + µ

2) for

Page 46: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

4 8

igual a 1 o grau de Contradição é zero e o ponto de interpolaçãoestará sobre a reta BD, neste caso G

ct=0 e não há contradição entre

os sinais.

2.7.3 - O grau de Certeza Gc

No Quadrado Unitário do Plano Cartesiano (QUPC) podemoscalcular o grau de Certeza G

c pela equação: G

c = µ

1 + µ

2 . O valor do

grau de Certeza Gc pode variar –1 a +1. Uma simples verificação no

QUPC mostra que o seu valor corresponde a distância do ponto deinterpolação entre os graus de crença e de descrença à reta que ligao ponto A = (0, 0) - Indeterminado ao ponto C = (1, 1) Inconsisten-te.

O valor de Gc = –1 que corresponde ao ponto B = (0, 1) significa

intuitivamente que temos uma certeza máxima na negação da Propo-sição. O valor G

c = +1 que corresponde ao ponto D = (1, 0) significa

intuitivamente que temos uma certeza máxima na afirmação da pro-posição. Na prática, os sensores da análise paraconsistente, quandochegam com valores que resultam nestes graus de Certeza estãotrazendo informações consistentes.

Quanto mais a interpolação entre os graus de crença e de des-crença se aproximarem do segmento de reta AC, representado noQUPC, mais o resultado da subtração dos graus de crença pelo graude descrença (µ

1 - µ

2) se aproxima de 0 diminuindo assim o valor de

Gc. Esta diminuição de G

c representa uma menor certeza entre as

informações na entrada porque significa uma maior coincidência en-tre os Graus de crença e de descrença. Quando os graus de crençae de descrença forem de valores iguais (µ

1 = µ

2) o grau de certeza é

zero e o ponto de interpolação estará sobre a reta AC, nestes casossomente há indefinição entre os sinais.

2.7.4 - O reticulado associado à LPA2vconstruído com valores de graus de Contradição egraus de Certeza

Os valores dos Graus de Contradição Gct e os valores dos graus

de certeza Gc originários das equações interpretadas no Quadrado

Page 47: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

4 9

Unitário do Plano Cartesiano podem ser expostos em dois eixos quevão representar o reticulado da LPA2v com valores.

Conforme apresenta-se na figura 2.6, os valores dos Graus deCerteza G

c são alocados horizontalmente no reticulado associado à

Lógica Paraconsistente Anotada compondo o eixo denominado eixodos graus de certeza e os valores dos Graus de Contradição G

ct são

alocados verticalmente no reticulado associado à LógicaParaconsistente Anotada compondo o eixo denominado de eixo dosgraus de contradição.

Figura 2.6 – Valores de Gc e Gct representado em umReticulado da LPA2v com valores.

Dois valores limites externos e arbitrários (Vscc

= Valor superi-or de controle de certeza e V

icc =

Valor inferior de controle de

certeza) determinam quando o grau de Certeza resultante é alto osuficiente para que a Proposição analisada seja considerada de total-mente Verdadeira ou de totalmente Falsa.

Da mesma forma, dois valores limites externos e arbitrários (Vscct

= Valor superior de controle contradição e Vicct

= Valor inferiorde controle contradição) determinam quando o valor do grau deContradição resultante da análise é tão alto que se pode considerar aProposição totalmente inconsistente ou totalmente indeterminada.

Page 48: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

5 0

Figura 2.7- Reticulado com os valores ajustáveis de controlelimite indicados nos eixos.

Este procedimento permite a interpretação da LógicaParaconsistente Anotada por meio de equacionamento de valores,facilitando a implementação de Sistemas de Análises Paraconsistentespor meio de processamento computacional.

2.7.5 - O algoritmo Para-Analisador

Com os valores dos graus de contradição Gct e os valores dos

graus de Certeza Gc encontrados para(µ

1, µ

2) ∈

{ x ∈ ℜ

| 0 ≤ x ≤ 1}e

alocados nos eixos forma o reticulado associado da LPA2v com va-lores. O reticulado com valores pode ser repartido ou delimitado emvárias regiões de diversos formatos, obtendo assim uma discretizaçãodo reticulado. A partir das regiões delimitadas do reticulado podemosrelacionar estados lógicos resultantes obtidos pelas interpolações dosgraus de certeza Gc e de contradição Gct.

Para cada ponto de interpolação entre os graus de certeza e decontradição, haverá uma única região delimitada no reticulado que éequivalente a um estado lógico resultante da análise.

O número de regiões delimitadas em que o reticulado vai ser

Page 49: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

5 1

separado depende de cada projeto. Como exemplo, a figura 2.8 mos-tra um reticulado construído com valores de graus de Certeza e deContradição, repartido em 12 regiões, portanto, originando 12 esta-dos lógicos resultantes.

Figura 2.8 - Representação do reticulado da LPA2v repartidoem 12 regiões delimitadas originando 12 estados lógicos resultantes.

A descrição do reticulado repartido em regiões delimitadas éfeita através de valores de graus obtidos pelo equacionamento e com-parados aos valores limites. Esta descrição forma o algoritmo daLPA2v denominado de “Para-Analisador.

Os estados Lógicos que são representados pelas regiões queocupam os vértices do reticulado são os: Verdadeiro, Falso, Inconsis-tente e Indeterminado. Estes são denominados de estados LógicosExtremos. Os estados lógicos de saída representados por regiõesinternas no reticulado que não são os estados Lógicos Extremos, sãodenominados de estados Lógicos Não-Extremos. Cada estado Ló-gico Não-Extremos são nomeados conforme sua proximidade comos estados Lógicos Extremos.

A seguir são apresentados os 4 estados Lógicos Extremos e os8 Não-Extremos que compõem o reticulado da figura 2.8.

Os estados Lógicos Extremos são:Os estados Lógicos Extremos são:T ⇒ Inconsistente

Page 50: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

5 2

F ⇒ Falso⊥⊥⊥⊥⊥ ⇒ IndeterminadoV ⇒ Verdadeiro

e os estados lógicos não-extremos:⊥⊥⊥⊥⊥ →

f ⇒ Indeterminado tendendo ao Falso⊥⊥⊥⊥⊥ →v ⇒ Indeterminado tendendo ao VerdadeiroT→ f ⇒ Inconsistente tendendo ao FalsoT→ v ⇒ Inconsistente tendendo ao VerdadeiroQv →T ⇒ Quase-verdadeiro tendendo ao

InconsistenteQf →

T ⇒ Quase-falso tendendo ao InconsistenteQf → ⊥⊥⊥⊥⊥ ⇒ Quase-falso tendendo ao IndeterminadoQv → ⊥⊥⊥⊥⊥ ⇒ Quase- verdadeiro tendendo ao

Indeterminado Os valores das variáveis de entrada são representados por:

µ 1 ⇒ Grau de crença

µ 2 ⇒ Grau de descrença

e os valores relacionais:G

ct ⇒ grau de Contradição, onde :

Gct =

µ

1 +

µ

2 - 1 onde : 0 ≤

µ

1 ≤ 1 e 0 ≤

µ

2 ≤ 1

Gc ⇒ grau de Certeza,

onde:

Gc = µ

1 -µ

2 onde: : 0 ≤µ

1 ≤ 1 e 0 ≤µ

2 ≤ 1

As variáveis de controle para recursos de otimização são:V

scc ⇒ Valor superior de controle de certeza.

Vsci

⇒ Valor superior de controle de incerteza.V

icc ⇒ Valor inferior de controle de certeza.

Vici

⇒ Valor inferior de controle de incerteza.

Com todas as var iáveis e todos os valoresrelacionados ao reticulado associado à LPA2v é feita umadescrição entre as entradas e saídas envolvidas no processo.Como resultado das várias sentenças descritivas éapresentado o algoritmo para implementação em programade computação convencional.

Page 51: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

5 3

Algoritmo “Para-Analisador” da LógicaParaconsistente Anotada de anotação comdois valores LPA2v

*/Definições do valores*/ V

scc = C

1 */

Definição do valor superior de controle de

certeza*/ V

icc = C

2 */

Definição do valor inferior de controle de

certeza*/ V

sci = C

3 */

Definição do valor superior de controle

de Contradição*/ V

ici = C

4 */

Definição do valor inferior de controle de

Contradição*/ */Variáveis de entrada */µ 1

µ 2

*/Variáveis de saída*Saída discreta = S

1

Saída analógica = S2a

Saída analógica = S2b

*/Expressões matemáticas */sendo : 0≤ µ

1 ≤ 1 e 0≤ µ

2 ≤ 1

Gct

= µ1 +µ

2 - 1

Gc = µ

1 -µ

2

*/determinação dos estados Lógicos Extremos */ Se G

c ≥ C

1 então S

1 = V

Se Gc ≤ C

2 então S

1 = F

Se Gct

≥ C3 então S

1 = T

Se Gct

≤ C4 então S

1 = ⊥⊥⊥⊥⊥

*/determinação dos estados Lógicos Não-Extremos/Para 0 ≤ G

c < C

1 e 0 ≤ G

ct < C

3

se Gc ≥ G

ct então S

1 = Qv →T

senão S1 = T→ v

Para 0 ≤ Gc < C

1 e C

4 < G

ct ≤ 0

Page 52: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

5 4

se Gc ≥ | G

ct | então S

1 = Qv→ ⊥⊥⊥⊥⊥

senão S1 = ⊥⊥⊥⊥⊥→

vPara C

2 < G

c ≤ 0 e C

4 < G

ct ≤ 0

se |Gc | ≥ | G

ct | então S

1 = Qf → ⊥⊥⊥⊥⊥

senão S1 = ⊥⊥⊥⊥⊥ →

fPara C

2 < G

c ≤ 0 e 0 ≤ G

ct < C

3

se |Gc | ≥ G

ct então S

1 = Qf →T

senão S1 = T→ f

Gct

= S2a

Gc

= S2b

*/ FIM*/

Como os valores dos graus de crença e de descrençavariam entre 0 e 1, podemos obter como saída os valoresdos graus de Contradição e de Certeza a qualquer instante.

Através destes valores, saberemos se existecontradição e caso não exista, teremos o grau de Certezacom o qual podemos formular uma conclusão.

Na prática, um Sistema paraconsistente funciona daseguinte forma:

1 O sistema recebe a informação. As informações vêm na forma de dois valoresvariáveis e independentes:

a) O grau de crença, que é um valor real entre 0e 1.

b) O grau de descrença, que é um valor real entre1 e 0.

2 O Sistema faz o processamento. Utilizando as equações:

a) Gct

= µ1

+µ2

- 1 para encontrar o grau decontradição

b) Gc = µ

1 -µ

2 para encontrar o grau de certeza

3- O Sistema conclui. Utiliza as condicionais:

a) Se existir um alto grau de Contradição não existe certeza

Page 53: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

5 5

ainda quanto à decisão, portanto deve-se buscar novasevidências.

b) Se existir um baixo grau de Contradição pode-se formulara conclusão, desde que se tenha um alto grau de Certeza.

Devemos ter em conta que este alto grau deContradição e de Certeza pode ser negativo ou positivo, istoé, estes valores deverão ser considerados em módulo e oslimites que definem o que é alto ou baixo é uma decisão quedepende exclusivamente do projeto no qual o sistema vaiser utilizado.

O algoritmo Para-Analisador traduz a análiseparaconsistente, através da análise dos valores dos graus decrença e de descrença resultando nos valores dos graus deContradição e de Certeza.

Um Sistema que vai analisar sinais utilizando oreticulado da LPA2v de valores de graus de Certeza eContradição, pode ser visualizado pelo diagrama de blocosda figura abaixo:

Figura 2.9 - Representação de um sistema típico de análise

Page 54: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

5 6

paraconsistente utilizando o reticulado da LPA2vrepartidoem 12 regiões delimitadas.

Nesta descrição do Reticulado da LPA2v, os sinaisde entrada são analisados pelo algoritmo Para-Analisadorresultando em uma palavra binária de 12 dígitos, em que paracada análise apenas um bit estará ativo. Os valores dos grausde certeza G

c e de contradição G

ct também serão

considerados saídas que podem ser utilizadas em um controlecontínuo. Todo o Sistema pode ser otimizado através dosvalores limites que determinam o formato das regiões doreticulado representativas dos estados lógicos.

2.7.6 - Os Operadores Lógicos daLPA2v

A Lógica Paraconsistente Anotada de anotação comdois valores LPA2v considera em sua estrutura teórica aNegação Lógica NOT, os conectivos de Maximização OR eo de Minimização AND8.

Na prática, para se obter estas funções lógicas, sãoutilizados os conectivos lógicos condicionais, que nosprogramas de Neurocomputação podem ser consideradoscomo operadores lógicos. A descrições dos operadoreslógicos são apresentados a seguir.

O Operador Lógico OR daMaximização

Dado a proposição anotada A : PA (µ

1A, µ

2A) onde:

µ1A

= Grau de crença da proposição A .µ

2A = Grau de descrença da proposição A .

8 Veja neste capítulo, na seção 2.4.1, definição 2, a negação de A, (¬A), aconjunção (A ∧ B) e a disjunção (A ∨ B) de A e B. Ás vezes referir-nos-emos atais conectivos como NOT, AND e OR, respectivamente.

Page 55: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

5 7

e a proposição anotada B: PB ( µ 1B

, µ 2B) onde:

µ1B

= grau de crença da proposição B.µ

2B = grau de descrença da proposição B.

e sendo:µ

1R = grau de crença resultante da saída

µ2R

= grau de descrença resultante da saídaa maximização (ou conjunção A ∧ B ) entre as proposiçõesA e B é obtido pelas condicionais :

Se µ1A

≤µ1B

então: µ1R

=µ1B

Caso contrário: µ1R

=µ1A

Se µ2A

≤µ2B

então: µ2R

=µ2A

Caso contrário: µ2R

=µ2B

Figura 2.10 - Representação do Operador deMaximização da LPA2v.

O Operador Lógico AND daMinimização

Dado a proposição anotada A : PA (µ

1A, µ

2A) onde:

µ1A

= grau de crença da proposição A .µ

2A = grau de descrença da proposição A .

e a proposição anotada B: PB (µ

1B, µ

2B) onde:

µ1B

= grau de crença da proposição B.µ

2B = grau de descrença da proposição B.

e sendo:µ

1R = grau de crença resultante da saída

µ2R

= grau de descrença resultante da saídaa minimização (ou disjunção A∨ B ) entre as proposiçõesA e B é obtido pelas condicionais :

Page 56: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

5 8

Se µ1A

≥ µ1B

então: µ1R

=µ1B

Caso contrário: µ 1R = µ 1A

Se µ2A

≥ µ2B

então: µ2R

=µ2A

Caso contrário: µ 2R = µ 2B

Figura 2.11 - Representação do Operador deMinimização da LPA2v.

O Operador Lógico NOT da Negação

Dado a proposição anotada A : PA ( µ 1A

, µ 2A) onde:

µ 1A = grau de crença da proposição A .

µ 2A = grau de descrença da proposição A .

e sendo:µ 1R

= grau de crença resultante da saídaµ 2R

= grau de descrença resultante da saídaa negação da proposição A é obtida pela ação de permutaentre o valor do grau de crença pelo de descrença:

Faça: µ1R

=µ2A

e µ2R

=µ1A

Fim

Figura 2.12 - Representação do Operador deMaximização da LPA2v.

Page 57: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

5 9

8 No apêndice D, é apresentado um programa elaborado em linguagem C no qual osOperadores Lógicos e o Algoritmo Para-Analisador de 12 estados lógicos resultantessão utilizados para as análises paraconsistentes.

Nos projetos de Sistemas da LPA2v para tratamentode sinais de controle, quando os procedimentos lógicosexigem uma conexão ou negação lógica, os Operadores sãoincluídos antes da análise paraconsistente feita pelo AlgoritmoPara-Analisador.8

2.7.7 - O algoritmo Para-Analisadorsimplificado

O número de regiões depende do projeto a serdesenvolvido e os formatos podem ser variados através deajustes dos valores dos controles-limites feitos externamente,possibi l i tando a ot imização do sistema de anál iseparaconsistente da LPA2v.

Um método de determinar as ações que o sistemapode tomar após a anál ise paraconsistente é fei todiscretizando o reticulado. A discretização é feita criandoregiões delimitadas internas que são equivalentes a estadoslógicos de saída.

Para a finalidade de aplicações da LPA2v emNeurocomputação que é o objetivo deste livro, vamos utilizaro algoritmo para fazer a análise paraconsistente semdiscretizar o reticulado, portanto quando a análise resultarem valores fora dos limites estipulados pelos valores decontrole, a conclusão na saída é de uma indefinição.

Com estas considerações vamos apresentar oalgoritmo Para-Analisador simplificado conforme o expostoabaixo :

Page 58: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

6 0

O Algoritmo “Para-Analisador”simplificado

1- Entre com os valores limites de comparaçãoV

scc = C

1 */ Valor superior de controle de certeza */

Vicc

= C2

*/ Valor inferior de controle de certeza */

Vscct

= C3

*/ Valor superior de controle contradição */V

icct = C

4 */V alor inferior de controle contradição */

2- Entre com os valores de entradaµ

1 */ Grau de crença 0 ≤ µ

1 ≤ 1 */

µ2 */ Grau de descrença 0 ≤ µ

2≤ 1 */

3- Calcule o grau de ContradiçãoG

ct = µ

1 + µ

2 - 1

4- Calcule o grau de CertezaG

c = µ

1 - µ

2

5- Determine os estados lógicos resultantes da saídaSe G

c ≥ C1 então S

1 = V

Se Gc ≤ C

2 então S

1 = F

Se Gct ≥ C

3 então S

1 = T

Se Gct ≤ C

4 então S

1 = ⊥

Senão S1 = I = Indefinição

Gct

= S2a

Gc = S

2b

6 - Fim

Este algoritmo simplificado facilita a elaboração daCélula Artificial Paraconsistente Básica CNAPb que será

Page 59: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

6 1

fundamental para implementação das Redes NeuraisArtificiais Paraconsistentes RNAP’s.

2.8 - A Célula Artificial Paraconsistente Básica(CAPb)

Uma descrição do reticulado utilizando os valoresobtidos pelas equações dos graus de Certeza G

c e de

Contradição Gct originou o Algoritmo “Para-Analisador”

simplificado. O algoritmo demonstra que, na obtenção desubsídios suficientes para tomada de decisão na análiseparaconsistente, são necessárias apenas duas equações comoferramentas principais.

O processamento de sinais com as duas equaçõespermite sabermos com que medida ou “grau de Certeza”podemos af i rmar que uma proposição é Falsa ouVerdadeira.

Numa interpretação mais precisa do algoritmo éverificado que:

1- Como resultado da análise para tomada de decisãoé considerado apenas o valor do grau de Certeza G

c.

2 - Quanto ao valor do grau de contradição Gct é

considerado um indicativo, cuja função é informar a medidada inconsistência existente entre as informações recebidas.

Estas duas af i rmações f icam claras quandoverificamos no algoritmo Para-Analisador Simplificado que,na análise paraconsistente, ao término do equacionamentodas informações obtidas pelos valores dos graus de crençae de descrença µ

1 e µ

2, se houver um baixo valor de certeza

ou um alto grau de contradição que, obviamente representamuita inconsistência, o resultado da análise é uma indefiniçãoI .

Toda a referência na análise paraconsistente é feitapela comparação entre os valores limites ajustadosexternamente. São os valores limites que determinam se o

Page 60: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

6 2

resultado é uma indefinição I, ou não. Analisando os dadosenvolvidos no Algoritmo Para-Analisador simplificadopodemos descrever a análise paraconsistente utilizandoapenas as equações.a) As variáveis de entrada são as informações de entrada

para a análise: O grau de crença: µ

1, tal que: 0 ≤ µ

1 ≤ 1

O grau descrença µ2,

tal que: 0 ≤ µ2 ≤ 1

a) Os valores de controle limite são as referências paradecisão:

Vicc,

tal que: -1 ≤ Vicc

≤ 0 V

scc, tal que: 0 ≤ V

scc ≤ 1

Vicct,

tal que: -1 ≤ Vicct

≤ 0 V

scct, tal que: 0 ≤ V

scct ≤ 1

a) A saída para tomada de decisão é: O grau de certeza calculado: G

c = µ

1 - µ

2

a) O indicativo do grau de inconsistência é: O grau de contradição: G

ct = µ

1 + µ

2 - 1

O grau de certeza resultante da análise Gct é obtido

através das comparações feitas a seguir: Se: V

icc ≤ G

ct ≤ V

scc ou V

scct ≤ G

ct ≤ V

icct ⇒ G

c =

Indefinição I Para: V

icct ≤ G

ct ≤ V

scct

Se: G

ct ≤ V

icc ⇒ G

c = Falso com grau G

ct

Vscc

≤ Gct ⇒ G

c = Verdadeiro com grau G

ct

Com base nestas verificações detalhadas do algoritmoPara-Analisador Simplificado podemos elaborar uma célulafuncional que analisa e faz tratamento de sinais conforme osprocedimentos da metodologia empregada nas aplicações daLPA2v.

Na figura 2.10, apresentamos o fluxograma e o blocode análise paraconsistente representativo de uma CélulaArtificial Paraconsistente básica que apresenta característicasde análises da LPA2v.

Page 61: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

6 3

CÉLULA ARTIFICIAL PARACONSISTENTE BÁSICA- CAPb

Figura 2.13 - Fluxograma e representação da Célula ArtificialParaconsistente básica CAPb.

A Célula Artificial Paraconsistente Básica como éapresentada no fluxograma da figura anterior é de fácilimplementação em qualquer linguagem de programação.

Page 62: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

6 4

2.9 - Considerações Finais

Os resultados obtidos com algoritmo Para-Analisadorno tratamento de sinais contraditórios mostram uma certasemelhança com o macro funcionamento do cérebro humano.A decisão tomada a partir de informações adquiridas pelossentidos é um processo mental biológico que pode sermodelado pela Lógica Paraconsistente Anotada de anotaçãocom dois valores LPA2v através do algoritmo Para-Analisador.

Com base nestas verificações, o algoritmo Para-Analisador é considerado como um bloco que ponderavalores de informações recebidos através de sensores. A estebloco originado do Algoritmo denominamos de CélulaArtificial Paraconsistente básica (CAPb).

A Célula Artificial Paraconsistente básica é a célula-mãe (celula matter) que origina a família de Células NeuraisArtificiais Paraconsistentes que irão compor os projetos deNeurocomputação paraconsistente apresentados neste livro.

Neste capítulo, foi visto que a Célula ArtificialParaconsistente Básica foi construída utilizando uma formaparticular de interpretação da Lógica ParaconsistenteAnotada, analisada e equacionada no quadrado unitário doplano cartesiano.

Vamos utilizar a Célula Artificial paraconsistenteBásica em projetos de Neurocomputação, no entanto,conforme ficou demonstrado na metodologia de aplicaçãoda Lógica Paraconsistente Anotada, a CAPb pode serutilizada em diversas áreas de Inteligência Artificial onde énecessário se fazer tratamento de conhecimento incerto.

Nos próximos capítulos, novas considerações vão serfeitas para aperfeiçoar a CAPb procurando adaptá-la aosprocessos mentais do cérebro objetivando encontrar meioseficientes de modelagens que possam ser aplicados emNeurocomputação. Com estas novas considerações serãoconf iguradas vár ias Célu las Neurais Ar t i f ic ia is

Page 63: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

6 5

Paraconsistentes compondo uma família de células totalmenteimplementada utilizando a forma de análise paraconsistenteapresentada neste capítulo.

2.10 - Exercícios1 Descreva quais são as situações encontradas no mundo

real que dificultam a interpretação de Sistema de controlee especialistas que utilizam a Lógica Clássica na tomadade decisão.

2 Descreva por que existem dificuldades para um SistemaEspecialista fazer tratamento adequado de informaçõesoriginadas do conhecimento incerto, quando utiliza aLógica Clássica.

3 Comente sobre alguns dos princípios básicos da LógicaClássica.

4 Dê uma definição de Lógica Paraconsistente.

5 O que é uma Lógica Paracompleta?

6 O que são Lógicas Não-aléticas?

7 Descreva as características fundamentais das LógicasParaconsistentes Anotadas de anotação com dois valoresLPA2v.

8 Supondo que exames feitos em um paciente x pedidospelo médico M1 o faz afirmar que “O paciente x estácom 72% de probabilidade de estar acometido de umapatologia grave y”. Descreva a Proposição utilizando assimbologias da Lógica Paraconsistente Anotada deanotação única.

9 Supondo que um paciente recebe o diagnóstico do

Page 64: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

6 6

médico M1 da seguinte forma:__ “Os resultados dos

exames solicitados me levam a afirmar que você tem 68%de probabilidade de estar acometido de uma pneumonia”.Não satisfeito com o diagnóstico o paciente procura omédico M

2, que analisando os exames faz a seguinte

afirmação:__ “Os resultados dos exames me levam aafirmar que você tem 43% de probabilidade de estaracometido de uma pneumonia”. Descreva a Proposiçãoutilizando as simbologias da Lógica ParaconsistenteAnotada de anotação com dois valores.

10 Para os graus de crença e de descrença obtidos no item9, calcule o grau de Certeza G

c e de Contradição G

ct.

11 Em um Sistema que utiliza a LPA2v para análise etratamento de sinais para que servem os valores deControle?

12 Enumere as diferenças entre um Sistema de Análise feitocom a Lógica Clássica e um Sistema feito com a LPA2v.

13 No Algoritmo Para-Analisador quais são as saídas quepodem ser utilizadas para a tomada de decisão.

14 O que são os Estados Lógicos Extremos? E o que sãoos Estados Lógicos Não-Extremos? Dê umainterpretação intuitiva para cada uma das situações.

15 Elabore em linguagem C e obtenha o programaexecutável que representa a Célu la Ar t i f ic ia lParaconsistente Básica - CAPb da LPA2v.

Page 65: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

6 8

CAPÍTULO 3OS CONCEITOS FUNDAMENTAIS DA

CÉLULA NEURAL ARTIFICIALPARACONSISTENTE

Apresentamos as noções básicas para a implementação das CélulasNeurais Artificiais Paraconsistentes CNAP’s.

Uma Célula Neural Artificial Paraconsistente - CNAP é o menor com-ponente da Rede Neural Artificial Paraconsistente com funçãocomportamental definida. A função desenvolvida por cada tipo de CNAPvai contribuir de modo emergente para capacitar a rede a desenvolver aná-lises e definir comportamentos semelhantes ao funcionamento do cérebrohumano. A partir das considerações originadas da Célula ArtificialParaconsistente básica CAPb, estudada no final do capítulo anterior, sãoestabelecidos os critérios e fundamentos que irão possibilitar aimplementação das Células Neurais Artificiais Paraconsistentes CNAP’s.

Serão estudados e apresentados os fatores e valores envolvidos nasanálises paraconsistentes desenvolvidas pelas Células. Os procedimentosapresentados e as considerações feitas neste capítulo permitirão aimplementação dos algoritmos que representarão cada uma das Células daRede Neural Artificial Paraconsistente RNAP que vai ser proposta nos ca-pítulos posteriores.

3.1 - Introdução

No capítulo anterior foi apresentado um método que permite aplica-ções da Lógica Paraconsistente Anotada de anotação com dois valores-LPA2v através de um algoritmo denominado de “Para-Analisador”.

Conforme foi visto, este algoritmo originou-se da descrição matemáti-ca do reticulado de quatro vértices associado à Lógica ParaconsistenteAnotada.

A partir da estrutura básica do algoritmo “Para-Analisador” simplifi-

Page 66: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

6 9

cado vamos introduzir os conceitos básicos que permitirão a criação umafamília de Células Neurais Artificiais Paraconsistentes CNAP’s compostade oito componentes.

3.2 – Conceitos Básicos das Células NeuraisArtificiais Paraconsistentes

Com base na Célula Artificial Paraconsistente básica CAPb, descre-veremos a seguir os elementos básicos para implementação dos vários ti-pos de Células Paraconsistentes.

Inicialmente, vamos fazer algumas considerações formando concei-tos elementares que vão contribuir para a elaboração das análises e compa-rações efetuadas com valores limites ajustados externamente e introduzi-dos nas Células Neurais Artificiais Paraconsistentes.

Os conceitos básicos apresentados a seguir têm o objetivo de consti-tuir fundamentos para a construção dos algoritmos representativos de cadaCélula componente da família de Células Neurais Artificiais Paraconsistentes.

3.2.1 - O grau de Crença Resultante µµµµµ1r

Na Célula Artificial Paraconsistente Básica CAPb, o resultado da aná-lise vem em forma de valor analógico do grau de Certeza G

c e do grau de

Contradição Gct e também em uma palavra binária composta por cinco dígi-

tos representativos dos estados Lógicos Resultantes: Verdadeiro, Falso,Inconsistente, Indeterminado e Indefinido.

Após uma análise paraconsistente, o valor do grau de Certeza Gc

obtido na saída de uma CAPb deve ser a informação mais importante. Emuma Rede composta por várias Células, esta informação deverá ser passadaaos outros componentes para que seja comparada e analisada gerando umatomada de decisão.

Conforme as características de análise da LPA2v, o valor do grau deCerteza G

c obtido na saída de uma Célula C

1 deve ser considerado como

grau de crença na entrada da outra Célula C2. Portanto, o grau de Certeza Gc

da saída de uma análise, deve ser considerado como um valor de crençaque vai expressar a certeza a respeito da Proposição analisada.

Este valor de crença que será a informação transmitida na rede é ovalor normalizado do grau de Certeza G

c obtido na saída da primeira Célula

e receberá a denominação de grau de crença resultante µr.

Page 67: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

7 0

A figura abaixo mostra esta conexão através de duas Células, onde aCélula C

2 utiliza a saída da Célula C

1 como uma de suas entradas.

Figura 3.1– Diagrama simplificado mostrando a conexão entre duasCAPb utilizando o grau de Certeza da primeira como grau de crença dasegunda.

O valor relativo ao grau de crença resultante µr é originado do grau

de Certeza calculado pela equação: Gc = µ

1 - µ

2, onde G

c varia entre +1 e –

1.Para a obtenção do grau de crença, resultante da análise na qual,

conforme as características da metodologia da LPA2v, o valor é analógico esó pode variar em um intervalo real fechado [0, 1] é feita uma normalizaçãona equação.

Seja: Gc = µ

1 - µ

2

Onde: µ1, tal que 0 ≤ µ

1 ≤ 1

e µ2, tal que: 0 ≤ µ

2 ≤ 1, o grau de crença resultante é obtido pela

equação normalizada: µ

r = G

c + 1

2A figura 3.2 mostra a relação dos valores entre o grau de Certeza

obtido pela CAPb e o grau de crença resultante obtido pela equação nor-malizada.

Page 68: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

7 1

Figura 3.2 – Gráfico de valores de graus de certeza relacionados aosgraus de crença resultante.

Em uma rede composta por várias Células Artificiais Paraconsistentes,podemos definir o grau de crença resultante µ

r como o valor da análise

paraconsistente obtido pela equação normalizada. Os outros valores, o graude Contradição e a palavra binária de 5 dígitos obtidos da análise serãoconsiderados a seguir.

3.2.2 - A Equação Estrutural Básica (EEB)

Várias interligações de Células Neurais Artificiais Paraconsistentes,originadas da CAPb, irão compor a Rede Neural Artificial ParaconsistenteRNAP. Fazendo a normalização dos valores de saída todos os sinais quevão trafegar pela rede serão considerados em valores que variam dentro dointervalo real fechado [0, 1]. Portanto, as Células Neurais ArtificiaisParaconsistentes são projetadas para fazerem tratamento de sinais na formade graus de crença e não admitem valores que não estejam entre o intervaloreal fechado [0, 1].

A forma de tratar os sinais dentro deste intervalo é pela utilização danormalização efetuada no item anterior, portanto fazendo uma pequenamodificação na Fórmula anterior, podemos considerar que nas CNAP’s ossinais serão equacionados por:

onde: µr = grau de crença resultante.

µ1 = grau de crença de entrada.

µ2 = grau de descrença de entrada

Esta equação originada da normalização para obtenção do grau decrença resultante será utilizada para fazer a conexão das informações e pelasua importância é denominada de Equação Estrutural Básica EEB.

A Equação Estrutural Básica EEB é extremamente importante paratroca de informações entre as células e, em algumas análises, pode sofrerpequenas modificações, como a complementação em relação à unidade desuas variáveis, sem no entanto perder a sua função básica.

A EEB é a equação fundamental das Redes Neurais Artificiais

Page 69: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

7 2

Paraconsistentes porque será o código para a troca de informações entre oscomponentes. É através da EEB que vão ser conectadas todas as célulascomponentes que estruturam as Redes Neurais Artificiais Paraconsistentes.Sua principal função é ponderar os valores na modelagem do neurôniobiológico conforme vai ser descrito nos próximos capítulos.

3.2.3 - O grau de Indefinição

Verifica-se pela Equação Estrutural Básica (EEB) que, quando os grausde crença e de descrença utilizados como entradas para a análiseparaconsistente forem de valores iguais, o grau de crença resultante nasaída µ

r será igual a 1/2.

Uma análise gráfica no Quadrado Unitário do plano cartesiano, con-forme foi visto no capítulo 2, nos indica que este resultado é uma retadenominada de perfeitamente indefinida porque é uma ocorrência de vari-ações de valores entre o ponto A(0, 0) cujo estado é o Indeterminado e oponto C(1, 1) cujo estado é o Inconsistente.

A figura 3.3 mostra a reta perfeitamente indefinida, no quadrado uni-tário do plano cartesiano e no reticulado associado à Lógica ParaconsistenteAnotada, construída por valores constantes de indefinição µ

r = 1/2.

Figura 3.3 - Reta de valores indefinidos demonstrando que µ1= µ

2,

resulta na indefinição com µr=1/2.

Na reta perfeitamente indefinida há uma ocorrência de Indefiniçãomáxima que provoca como resultado da análise paraconsistente uma saídacom grau de crença resultante de valor 1/2, como é comprovada através daEEB.

3.2.4 - O Fator de tolerância à Contradição Ftct

Na análise paraconsistente, se entre os dois sinais de entrada houverum alto grau de inconsistência representado por um alto valor do grau de

Page 70: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

7 3

Contradição Gct, não se pode tirar nenhuma conclusão a respeito da Propo-

sição analisada. Na Célula Artificial Paraconsistente básica CAPb, todas as vezes que

o grau de contradição ultrapassar os valores limites de contradição previa-mente ajustados, conclui-se que o estado lógico resultante de saída é In-consistente ou Indeterminado, portanto, a saída terá como valor o grau decrença de indefinição que é igual a 1/2.

Para facilitar a implementação dos algoritmos que vão representar asCélulas Neurais Artificiais Paraconsistentes CNAP’s em Neurocomputação,vamos utilizar para fazer a comparação com o grau de contradição G

c, um

valor único ao qual denominamos de fator de tolerância à contradição-Ft

ct.

O Ftct é um valor ajustado externamente e sua finalidade é determinar

os limites de contradição suportáveis entre os dois sinais aplicados nasentradas da célula.

Seguindo as propostas de uma Rede Neural Artificial Paraconsistenteo Fator de tolerância à contradição deve ser ajustado entre valores conti-dos no intervalo real fechado [0,1], portanto:

0 ≤ Ftct ≤ 1

A partir do valor de Ftct estabelecido externamente são obtidos dois

valores limites de contradição Valor superior de controle de contradição-V

scct e Valor inferior de controle de contradição-V

icct .

Utilizando as mesmas notações da Célula Artificial Paraconsistentebásica temos:

Sendo o Grau de contradição em módulo calculado por: Gct = µ

1+µ

2-1

Os valores limites para comparação são calculados por:

Vscct

= 1 + Ftct

e

Vicct

= 1 - Ftct

2 2onde:V

scct = Valor superior de controle de contradição.

Vicct

= Valor inferior de controle de contradição.

Estes dois valores entrarão no algoritmo representativo da CNAPpara a comparação e elaboração da conclusão na saída da Célula.

A decisão sobre o sinal de saída, representado pelo valor do grau decrença resultante m

r relacionado à análise do valor da contradição, é toma-

da à partir das condições:

Page 71: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

7 4

Se: Vicct

> |Gct| > V

scct então: µ

r = µ

1 -µ

1 +1 (EEB)

2 Senão µ

r = 1/2 (Indefinição)

Estabelecidos os fatores podemos tecer algumas considerações con-forme a exposição a seguir:

O fator de tolerância à contradição-Ftct é aplicado na Célula de Aná-

lise Paraconsistente como um valor arbitrário que pode ser ajustado exter-namente, portanto, numa Rede Neural Artificial Paraconsistente, pode serrecebido como um sinal de controle cuja finalidade é especificar o grau detolerância entre sinais contraditórios a determinadas análises de certas re-giões da rede.

Pela equação é facilmente verificado que, quando o valor de Ftct é

ajustado em 0 os valores limites Vicct

e Vscct

estarão em 1/2. Isto significa quehá uma inexistência de tolerância à contradição, portanto, se existir grau decontradição, a conclusão é que a saída será 1/2 resultando numa indefinição.

Com o valor de Ftct ajustado no máximo, portanto Ft

ct=1, o V

icct estará

com valor mínimo 0, e V

scct estará com valor máximo 1.

Isto significa que a contradição é irrelevante e a saída será avaliadaapenas pelo valor do grau de crença resultante m

r calculado pela EEB.

Na Família de Células Neurais Artificiais Paraconsistentes o Fator detolerância à contradição é utilizado apenas em um tipo de célula, denomina-da de Célula de conexão analítica-CNAPca.

3.2.5 - O sinal de resposta à contradição ( Sct )

Quando o grau de contradição Gct for maior que o Fator de tolerância

à contradição Ftct, a Célula Neural Artificial Paraconsistente fica com saída

indefinida e tem como resultado da análise o grau de crença resultante µr=1/

2.Esta condição é diferente de uma Indefinição ocasionada por insufici-

ência de informações que acontece quando os valores dos graus de crençae de descrença aplicados nas entradas estão baixos. Para distinguir estasduas situações, isto é a indefinição por insuficiência de valores, de umaindefinição por sinais contraditórios, que a grosso modo, é um excesso enão falta de informações, é gerado um sinal pela Célula que denominamosde S

tc-Sinal de resposta à contradição.Deste modo, a condição de Indefinição originada por contradição é

sinalizada e reconhecida pelos outros componentes da Rede. O sinal desinalização de contradição S

ct é obtido através de uma segunda saída da

Célula.Fica estabelecido que, quando não há ocorrência de Indefinição por

Page 72: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

7 5

contradição o sinal Sct tem valor nulo S

ct=0. Quando ocorre a Indefinição por

contradição o sinal Sct passa a ter o valor do grau de Contradição em módulo

Sct = | G

ct | .

Portanto, as condições para o sinal de saída da Célula Sct ficam:

Se: Vicct

> |Gct| > V

scct não há indefinição por contradição, portan-

to: Sct = 0 Senão: S

ct = |G

ct|

Em uma rede Neural Paraconsistente, o sinal Sct ativo vai indicar para

os módulos de controle que, apesar da indefinição conclusiva na análiseparaconsistente, existem evidências, representadas por sinais altos contra-ditórios, que devem ser levadas em consideração.

Na Família de Células Neurais Artificiais Paraconsistentes o sinal deresposta à contradição é utilizado apenas na Célula de conexão analíticaCNAPca.

3.2.6- O Fator de tolerância à Decisão FtD

Na Célula Neural Artificial Paraconsistente, um valor de sinal limiteaplicado externamente, denominado de fator de tolerância à decisão-Ft

D,

vai comparar e definir um estado lógico na saída. A definição do estadológico da saída e feito através do valor do Ft

D comparado ao valor do grau

de crença resultante µr encontrado pela EEB.

Na análise efetuada pela Célula Neural Artificial Paraconsistente, se ograu de crença resultante µ

r é um valor próximo ao da indefinição, isto é

perto de 1/2, significa que os valores aplicados nas entradas são insuficien-tes, portanto conclui-se que a Célula não tem condições de expressar umaconclusão final sobre a análise.

Para facilitar a implementação das Células em Algoritmos própriospara aplicações em Neurocomputação, as condições para a Célula produziruma resposta final são conseguidas a partir de dois valores gerados pelofator de tolerância à decisão Ft

D aplicado externamente.

O Fator de tolerância à decisão gera dois valores limites denominadosde: Valor Limite da Falsidade Vl

F e Valor Limite da Verdade Vl

V, que serão

comparados com o resultado que é o grau de crença resultante µr.

Como a indefinição tem valor 1/2, os valores que limitam Verdade eFalsidade são simétricos com referência à Indefinição, portanto, o Fator detolerância à decisão Ft

D é ajustado no intervalo real fechado entre 0 e 1, Este

prosedimento está dentro das características de uma analise paraconsistenteque utiliza a LPA2v.

Estabelecidos estes critérios os valores limites da Falsidade e da

Page 73: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

7 6

Verdade são obtidos através das equações a seguir:

VlF = 1 - Ft

D Vl

V = 1 + Ft

D

2 2

onde: 0 ≤ FtD ≤ 1

Os resultados da análise serão estabelecidos frente a três condições:

Se o grau de crença resultante µr encontrado através da EEB, for igual

ou menor que o Valor Limite da Falsidade VlF a decisão final é o estado

lógico “Falso”. Se o grau de crença resultante µr for igual ou maior que o

Valor Limite da Verdade VlV a decisão final é o estado lógico “Verdadeiro”.

E se o grau de crença resultante µr ficar entre os valores limites, então a

decisão é de “Indefinição”.De outra forma podemos escrever:

Se: µr ≤ Vl

V então: estado lógico de saída é “Verdadeiro” e µ

r =1

Se: µr ≤Vl

F então: estado lógico de saída é “Falso” e µ

r =0

Senão: o estado lógico é “Indefinido” e o grau de crençaresultante é µ

r =1/2

Com estas considerações, é verificado que de acordo com as equa-ções, quando um fator de tolerância à decisão é ajustado externamente nuloFt

D = 0, ambos os limites valem 1/2. Isto significa que para qualquer valor do

grau de crença resultante µr acima de 1/2 a célula decide-se pela conclusão

de estado lógico “Verdadeiro” e para qualquer valor do grau de crençaresultante µ

r abaixo de 1/2 a decisão é o estado lógico “Falso”.

Quando o ajuste de um fator de tolerância é máximo, portanto FtD = 1,

o valor do limite da Falsidade VLF é igual a zero e o limite da Verdade Vl

V tem

o valor igual a 1. Isto significa que uma conclusão final a respeito da propo-sição analisada só será obtida se o grau de crença resultante µ

r, calculado

pela EEB, estiver no seu valor máximo igual a 1, ou no seu valor mínimo,igual a zero. Caso contrário, isto é, o resultado de µ

r não chegar a estes

extremos, a Célula se acha incapacitada para emitir uma conclusão, portan-to, vai emitir uma saída de m

r igual a 1/2 sinalizando uma Indefinição na

análise.Na Família de Células Neurais Artificiais Paraconsistentes o Fator de

Page 74: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

7 7

tolerância à contradição é utilizado apenas em um tipo de célula, denomina-da de Célula de Decisão CNAPd.

3.2.7 - O Fator de tolerância à Certeza Ftc

Nas Células Neurais Artificiais Paraconsistentes devemos determinaro limite mínimo do valor de grau de crença resultante µ

r que deve ser consi-

derado como relevante para análises posteriores. Para definir este limite éintroduzido externamente, na Célula, um valor denominado de fator de tole-rância à certeza-Ft

c.

Na Análise Paraconsistente entre os dois sinais quando resultado éum baixo valor de grau de crença resultante µ

r, isto é, µ

r está muito próximo

de 1/2, significa que os dados das informações vindas a respeito da Propo-sição analisada estão muito perto da indefinição e portanto, não é necessá-rio se levar em consideração nas análises posteriores.

O Fator de tolerância à Certeza Ftc é um valor ajustado externamente

que comparando com o resultado da análise definirá se as informações sãosuficientes ou insuficientes para serem consideradas em análises posterio-res. Portanto, na Célula Neural Artificial Paraconsistente, o Fator de tole-rância à certeza-Ft

c é um valor externo previamente ajustado, que é introdu-

zido para ser comparado com o grau de crença resultante µr obtido pela

EEB.Para utilizar o Fator de tolerância à Certeza Ft

c calculamos os limites

por:

Vscc

= 1 + Ftc

e

Vicc

= 1 - Ftc

2 2

onde:V

scc = Valor superior de controle de certeza.

Vicc

= Valor inferior de controle de certeza.

O Fator de tolerância à certeza-Ftc é aplicado na Célula de Análise

Paraconsistente como um valor arbitrário que pode ser ajustado externa-mente.

O valor do Ftc deve ser equacionado conforme as regras estabelecidas

para a LPA2v, portanto: 0 ≤ Ft

c ≤ 1

Estabelecidas estas condições, a decisão sobre o sinal de saída, re-presentado pelo grau de crença resultante µ

r que é relacionado à certeza da

Page 75: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

7 8

análise efetuada pela célula, é obtida a partir das seguintes condições:

Se: Vicc

≤ µr ≤ V

scc então: µ

r = µ

1 -µ

1 +1 (EEB)

2 Senão: µ

r = 1/2 (Indefinição)

É visto pelas condições apresentadas que, se o grau de crença resul-tante µ

r estiver abaixo do valor limite estipulado pelo fator de tolerância à

certeza-Ftc, o estado lógico de saída é o Indefinido.

Com isso, a saída terá como resultado uma Indefinição representadapelo valor do grau de crença resultante µ

r igual à 1/2.

3.3- O Fator de Tolerância à Certeza Ftc utilizadocomo Controle da Célula

O Fator de tolerância à Certeza Ftc pode ser utilizado como um sinal

controlador que vai habilitar e desabilitar o funcionamento da Célula.Utilizando as equações que determinam o Fator de tolerância à Certe-

za podemos afirmar que:Quando o Fator de tolerância à Certeza Ft

c estiver ajustado com um

valor baixo significa que a célula tem baixa tolerância aos graus de crençaresultante µ

r calculados pela EEB e, portanto só vai admitir como saída

valores de graus de crença altos sendo os valores baixos rejeitados e asaída levada à Indefinição.

Quando o Fator de tolerância à Certeza Ftc estiver ajustado com um

valor alto a Célula Neural Artificial Paraconsistente tem alta tolerância aosvalores de graus de crença resultantes e, portanto vai admitir, como saída,valores de graus de crença baixos.

A figura 3.4 mostra a região habilitada e desabilitada no reticuladoquando o fator de tolerância à certeza é variado entre 0 e 1.

A parte escura representa a região de pontos interpolados com valo-res de graus de Certeza G

c e de Contradição G

ct que são habilitados a serem

apresentados na saída.

Page 76: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

7 9

Figura 3.4 - (a) A Célula é desabilitada com saída µr =1/2.

(b) A Célula é habilitada com saída µr =µ

r.

3.4-A Influência Conjunta do Fator de Tolerância àContradição Ftct e do Fator de Tolerância àCerteza Ftc na Análise da Célula.

Estabelecidas as condições para a implementação das Células NeuraisArtificiais Paraconsistentes é verificado que os dois valores introduzidosexternamente, denominados de fator de tolerância à Certeza Ft

c e de fator de

tolerância à Contradição Ftct, controlam e modificam as características de

funcionamento da Célula Neural Artificial Paraconsistente.O fator de tolerância à Contradição Ft

ct vai definir os limites suportá-

veis de informações contraditórias. Portanto, se o grau de Contradição Gct

estiver alto e ultrapassar o Ftct, a saída vai para uma indefinição e um sinal

de existência de contradição Sct é gerado para alertar a ocorrência de sinais

de informações com valores que podem ser considerados na análise. OFator de tolerância à Certeza Ft

c vai definir o limite mínimo do valor do grau

de crença resultante mr da análise, que pode ser considerado relevante.

Numa rede constituída de interligações entre várias células o Fator de tole-rância à Certeza Ft

c tem a função de regular a passagem de graus de crença

pelas células conectadas, habilitando, ou desabilitando o seu funciona-mento.

Os dois fatores Ftc e Ft

ct, introduzidos em uma única Célula, vão

controlar o fluxo de sinais através de seus ajustes, restringindo ou liberan-do os valores resultantes de saída considerando, ou não, níveis de contra-dição entre os sinais analisados.

Para ilustrar como os ajustes dos Fatores de tolerância à ContradiçãoFt

ct e tolerância à Certeza Ft

c influenciam nos valores obtidos através da

análise efetuada pela Célula, as figuras a seguir mostram alguns exemplos,onde temos vários ajustes destes fatores.

É visto na figura 3.5 que,quando os dois valores dosfatores estão ajustados em 1/2, na saída, serão liberadosapenas os valores de graus decrença resultantes, calculadospela EEB, maiores que 1/2, oque corresponde aos pontosde interpolação da área cinza.

Figura 3.5 - Reticulado com Ftc = 1/2 e Ft

ct = 1/2

Page 77: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

8 0

Na figura 3.6, é visto que,quando o Fator de tolerância àCerteza é ajustado a um valormáximo, é liberado totalmentena saída o valor do grau de cren-ça resultante obtido pela EEB,ficando o mesmo apenas limita-do pelo Fator de tolerância àContradição.

Neste ajuste, qualquer va-lor obtido, desde que não seja

contraditório a ponto de ultrapassar o limite de contradição de 1/2, é consi-derado como resultado válido na saída, correspondente à área cinza dafigura.

Na figura 3.7 o Fator de to-lerância à Certeza está ajustadono seu valor mínimo, igual a zeroe como conseqüência restringetotalmente a saída, não liberan-do qualquer grau de crença re-sultante calculado. A célula nes-tas condições estará sempre coma saída indefinida de valor µ

r =

1/2, portanto, está inabilitada parafuncionamento.

Este fato demonstra que ovalor do Fator de tolerância ao grau de Certeza pode ser utilizado comocontrole da célula.

Figura 3.6 - Reticulado com Ftc = 1 e Ft

ct = 1/2

Figura 3.7 – Reticulado com Ftc = 0 e Ft

ct = 1/2

Page 78: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

8 1

Quando uma célula, ocasionada pelos ajustes dos fatores, estáinoperante apresenta um sinal de grau de crença resultante indefinido iguala 1/2 na saída.

Em uma Rede Neural que utiliza várias células interligadas, os doisfatores, devidamente ajustados vão otimizar o funcionamento das célulascontrolando-as para que as mesmas apresentem eficiência máxima no pro-cesso de análise.

3.5- O Operador da Negação Lógica (OperadorNOT )

Qualquer Sistema que trabalha com equacionamento lógico tem ne-cessidade de acionar a função de negação NOT para satisfazer as equaçõesenvolvidas nos processos de controle.

As células Neurais Artificiais Paraconsistentes CNAP’s utilizando asimplicações fundamentais da LPA2v são capazes de apresentar esta fun-ção.

Uma negação lógica no resultado da análise efetuada pela CNAP éobtido da mesma forma apresentada nos estudos da LPA2v, visto no capí-tulo 2, isto é fazendo uma permuta entre os valores dos graus de crença µ

1

Na figura 3.8, é apresenta-da a condição para o caso parti-cular quando, a saída é umaIndefinição condicionada pelacontradição e o valor do Fatorde tolerância à Certeza tem pre-dominância sobre o ajuste doFator de tolerância à Contradi-ção.

Neste caso, pelo ajuste doFator de tolerância à Contradiçãosó há a liberação dos valores degraus de crença resultante que

estão sobre a linha perfeitamente definida.Este ajuste não suporta a existência de graus de Contradição, mas,

nas áreas laterais é visto que o Fator de tolerância à Certeza predomina,aceitando os valores nas regiões aonde o grau de Certeza são maiores queos graus de Contradição.

Figura 3.8 – Reticulado com Ftc = 1 e Ft

ct = 0

Page 79: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

8 2

e de descrença µ2.

Na CNAP, o valor do grau de crença µ1 de entrada é trocado pelo valor

do grau de descrença µ2 na Equação Estrutural Básica - EEB.

Considere os valores de µ1 e µ

2 como graus de crença e de descrença

aplicados para análise em uma Célula Neural Artificial Paraconsistente:

A obtenção do grau de crença resultante é através da EEB em que:

µr = µ

1 - µ

2 + 1

2

Para exemplificar, vamos considerar sendo: µ1 = 1 e µ

2= 0.

Com estes valores obtemos o valor do grau de crença resultante mr:

µr = 1 - 0 + 1

2

µr =1 que equivale a um estado lógico “verdadeiro”.

Trocando os valores dos graus de crença e de descrença, teremos: µ1

= 0 e µ2= 1. Pela EEB obteremos:

µr = 0 - 1 + 1

2

µr = 0, o que equivale a um estado lógico “Falso”.

Para valores contraditórios onde: µ

1 = 0 e µ

2= 0, ou então,

µ1 = 1 e µ

2= 1

o resultado da negação lógica pela EEB é uma Indefinição de valorµ

r=1/2.

Este valor está de acordo com o resultado esperado pelos estudosapresentados na teoria da LPA2v do capítulo 2.

3.6- O Operador da Complementação Lógica (Operador Complemento)

As Células Neurais Artificiais Paraconsistentes funcionam fazendo

Page 80: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

8 3

tratamento de sinais com valores no intervalo real fechado entre 0 e 1,portanto, dependendo da Análise a ser efetuada qualquer sinal pode sercomplementado da unidade.

O Operador Complemento, quando aplicado, transforma o sinal noseu complemento da unidade através da equação:

µ1c = 1 - µ

1

A figura 3.8 apresenta o Operador Complemento da LógicaParaconsistente Anotada que será utilizado fazendo o complemento nossinais de entrada das Células.

Figura 3.8 - Operador Complemento da Lógica Paraconsistente Ano-tada.

3.6.1 - A transformação do grau de descrença µµµµµ1 emgrau de crença µµµµµ1

Em uma Rede Neural Artificial Paraconsistente, cada uma das célulascomponentes vai receber, nas suas respectivas entradas sinais de informa-ções na forma de valores representativos dos graus de crença resultantes,provenientes de análises efetuadas por outras células.

As análises entre graus de crença, significa que o equacionamentoserá feito somente com valores positivos reais entre 0 e 1.

Equação Estrutural Básica (EEB), conforme foi visto, faz análisesequacionando graus de crença µ

1 e graus de descrença µ

2.

Para possibilitar as análises considerando apenas graus de crença éutilizado o Operador Complemento instalado na entrada do grau de des-crença µ

2 da Célula. Portanto, para que a Célula só trabalhe com grau de

crença o sinal aplicado na entrada do grau de descrença é complementado.

Page 81: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

8 4

Para a obtenção do grau de crença resultante é feito o Complemento eaplicado como entrada na EEB.

Portanto a EEB fica da seguinte forma:

µr = µ

1 - µ

2c + 1

2

onde: µ2c

= 1- µ2

3.7 - Considerações Finais

Foram apresentados os fundamentos e os conceitos importantes paraa implementação das Células Neurais Artificiais Paraconsistentes CNAP’s.

Todos os fatores e valores de controle foram estabelecidos com basena estruturação teórica da LPA2v, estudadas no capítulo 2, e serão utiliza-dos na construção de vários tipos de células que comporão a Rede NeuralArtificial Paraconsistente.

Os valores dos fatores especificados neste capítulo foram estabeleci-dos para que possam ser ajustados sempre dentro de um intervalo real [0,1]. Isto possibilita a aplicação em Células de Análises Paraconsistentesestruturadas na LPA2v e também como sinais de controle para habilitar edesabilitar determinadas regiões da rede.

Cada conceito apresentado vai ser aplicado em determinadas Célulascomponentes da família de Células Neurais Artificiais Paraconsistentes numtotal de 8, que serão estudadas no próximo capítulo.

3.8 - Exercícios

1Defina o que é o grau de crença resultante µr da análise efetuada pela

Célula Neural Artificial Paraconsistente.

2 Como é conseguido na CNAP o grau de crença resultante µr?

3 Defina o que é a EEB - Equação Estrutural Básica.

4 Qual é a importância da EEB na Rede Neural ArtificialParaconsistente?

5 Quais as conseqüências na saída de uma CNAP quando os valoresde entrada, graus de crença e de descrença forem iguais?

Page 82: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

8 5

6Defina o Fator de tolerância à Contradição Ftc.

7 Qual é a finalidade principal do Ftct numa RNAP?

8 Defina o sinal de resposta à contradição Sct.

9 Qual é a finalidade do Sct em uma RNAP?

10 Defina o Fator de Tolerância à Certeza Ftc.

11 Qual é a finalidade principal do Ftc numa RNAP ?

12 Como atuam na saída da Célula Neural Artificial Paraconsistente asvariações feitas nos valores dos fatores Ft

c e Ft

ct conjuntamente?

13 Como é obtida a Negação Lógica na CNAP?

14 Como é obtida a complementação dos sinais da RNAP ?

15 Explique como é transformado o grau de descrença em grau decrença para ser utilizado nas entradas da CNAP.

Page 83: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

8 6

CAPÍTULO 4AS CÉLULAS NEURAIS ARTIFICIAIS

PARACONSISTENTE

Apresentaremos uma família de Células Neurais ArtificiaisParaconsistentes CNAP’s que possui oito células componentes com fun-ções distintas, todas originadas da Célula Artificial Paraconsistente básicaCAPb, estudada no final do capítulo 2 e no anterior.

Uma Célula Neural Artificial Paraconsistente-CNAP é o menor com-ponente da Rede Neural Artificial Paraconsistente com funçãocomportamental definida. A função desenvolvida por cada tipo de CNAPvai contribuir de modo emergente para capacitar a rede a desenvolver aná-lises e definir comportamentos semelhantes ao funcionamento do cérebrohumano.

Demonstraremos, através de ensaios utilizando algoritmos de apren-dizagem, que uma CNAP num processo de treinamento pode aprender,desaprender e guardar padrões, com características similares às apresenta-das por algumas partes do neurônio biológico.

Estas características de funcionamento apresentadas pelas CNAP‘ssão comparáveis às dos neurônios artificiais propostos por Rosenblatt[Rosenblatt 62] cujos fundamentos são aplicados atualmente em RedesNeurais Artificiais Clássicas. Da mesma forma, as CNAP’s são as partesfuncionais que constituirão o Neurônio Artificial Paraconsistente, assuntoque será abordado nos próximos capítulos.

4.1 - Introdução

Já foram apresentados métodos e conceitos que vão possibilitar aimplementação de algoritmos representativos de Células Neurais ArtificiaisParaconsistentes CNAP’s.

A partir da estrutura básica do algoritmo “Para-Analisador” simplifi-

Page 84: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

8 7

cado vamos introduzir uma família de Células Neurais ArtificiaisParaconsistentes CNAP’s contendo oito componentes. Cada uma das célu-las componentes é originada do aperfeiçoamento do algoritmo Para-Analisador simplificado, estudado no capítulo 2 e dos conceitos e funda-mentos apresentados no capítulo 3.

Cada uma das células componentes da família CNAP’s vai ter diferen-tes funções, todas baseadas nas equações da Lógica Paraconsistente Ano-tada. Cada Célula é representada por um algoritmo que vai permitir suaprogramação em linguagem de programação convencional possibilitandofácil implementação em aplicações de Neurocomputação.

As Células Neurais Artificiais Paraconsistentes que serão estudadasneste capítulo são as seguintes:

1) Célula Neural Artificial Paraconsistente de Conexão analítica-CNAPCa.

Esta Célula tem a função de fazer a análise analógica dos sinaise conectar todas as células componentes da rede.

2) Célula Neural Artificial Paraconsistente de Conexão lógica simples-CNAPCls.

Esta Célula tem a função de fazer a análise lógica dos sinaisutilizando conectivos lógicos como o de maximização e o de minimização.

3) Célula Neural Artificial Paraconsistente de Conexão lógica seletiva-CNAPClse.

Esta célula tem duas entradas e duas saídas distintas. Sua funçãoé fazer a análise lógica dos sinais utilizando conectivos lógicos como o demaximização e o de minimização e, simultaneamente, ir selecionando quaisdas duas saída deve ficar ativa.

4) Célula Neural Artificial Paraconsistente de passagem-CNAPp. Esta Célula tem a função de direcionar o fluxo de informações para

determinada região da rede.

5) Célula Neural Artificial Paraconsistente de Complementação-CNAPco.

Esta Célula tem a função de fazer a complementação do valor emrelação à unidade a qualquer sinal aplicado na sua entrada.

6) Célula Neural Artificial Paraconsistente de decisão- CNAPd. Esta célula tem a função de fazer a análise paraconsistente e

determinar uma decisão baseada nos resultados da análise. A decisãovem na forma de três estados lógicos:

Verdadeiro, Falso e Indefinido.

Page 85: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

8 8

7) Célula Neural Artificial Paraconsistente de aprendizagem - CNAPa. Esta Célula tem a função de aprender e desaprender padrões

que sejam aplicados repetitivamente na sua entrada.

8) Célula Neural Artificial Paraconsistente de memorização -CNAPm. Esta Célula tem a função de guardar os padrões aprendidos pela

célula de aprendizagem num processo de funcionamento de aprendizagem/memorização.

Todas as Células Neurais Artificiais Paraconsistentes componentesda família são fundamentadas em equações matemáticas simples o que, naprática, facilita a sua estruturação e possibilita a implementação em hardwareou em software.

Para aplicações em Neurocomputação, cada tipo de CélulaParaconsistente é descrita por um modelo matemático inserido em umalgoritmo de fácil implementação em linguagem de programação convenci-onal.

As CNAP’s foram projetadas para apresentar características capazesde modelar certas funções do neurônio biológico. Assim, em cada célulavamos obter uma resposta funcional distinta que, quando conveniente-mente interligadas, vão compor Unidades1 Neurais ArtificiaisParaconsistentes UNAP’s com funções mais específicas na rede.

4.2 - A Família de Células Neurais ArtificiaisParaconsistentes

Com base na Célula Artificial Paraconsistente básica CAPb descreve-remos a seguir a implementação dos vários tipos de Células Paraconsistentes.

Serão utilizados todos os conceitos elementares estudados nos capí-tulos anteriores, que vão contribuir para a elaboração das análisesparaconsistentes efetuadas pelas Células.

Definidos os conceitos básicos para implementação das CélulasNeurais Artificiais Paraconsistentes apresentaremos os oito tipos de célu-las que compõem a família.

Todos os componentes vêm acompanhados de uma descrição na for-ma de algoritmo para facilitar a implementação em projetos deNeurocomputação.

1 As Unidades Neurais Artificiais Para consistentes UNAP’s são unidades neurais cons-tituídas de Células Neurais Artificiais Paraconsistentes que apresentaremos no próxi-mo capitulo.

Page 86: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

8 9

4.3 - A Célula Neural Artificial Paraconsistente deconexão analítica - CNAPCa

A Célula Neural Artificial Paraconsistente de conexão analítica-CNAPCa tem a função de fazer a interligação entre células da Rede NeuralArtificial Paraconsistente, associando graus de crença conforme os objeti-vos da análise. Cada Célula de conexão analisa dois valores de graus decrença µ

1a e µ

1b aplicados em suas entradas.

O resultado desta análise é um valor de grau de crença único µr obtido

pela Equação Estrutural Básica EEB. Este valor único de saída, por sua vez,é um novo grau de crença que vai ser analisado em outras Células.

A célula de conexão é o elo de ligação que permite diferentes regiõesda Rede Neural Paraconsistente efetuar o processamento de sinais de for-ma distribuída por meio de inúmeras conexões paralelas.

A Célula Neural Artificial Paraconsistente de conexão é criada a partirda Célula Artificial Paraconsistente básica representada pelo algoritmo Para-Analisador, portanto, utiliza os conceitos e as considerações estudadasincluindo na sua construção alguns fatores de uso exclusivo como: o Fatorde tolerância à Contradição e o Fator de tolerância à Certeza. Na Rede NeuralArtificial Paraconsistente RNAP as regiões compostas de várias células deconexão podem ser controladas pelo Fator de tolerância à Certeza.

Conforme foi visto, quando um valor de Fator de tolerância à Certezaigual a zero é recebido pelas células de conexão analítica ocorre um proces-so de Inibição.

Na Célula de conexão quando o Fator de tolerância à Certeza é ajusta-do no seu valor máximo, Ft

ct,=1, o grau de crença resultante na saída da

célula é obtido pela Equação Estrutural Básica (EEB):

µri = µ

1 - µ

2c + 1

2

Quando o Fator de tolerância à Certeza é ajustado em um valor baixo;isto é, igual ou próximo a 0, o valor do grau de crença obtido pela EEB passaa sofrer maiores restrições para ser considerado como saída. Com o fator detolerância à certeza Ft

c ajustado em zero, qualquer resultado da análise

efetuada pela célula é considerado indefinido.Na Rede Neural Artificial Paraconsistente, os valores de Fator de tole-

rância à Certeza diferentes vão agir nas células de conexão inibindo ouliberando diversas regiões conforme as características e os objetivos dasanálises que forem desenvolvidos.

Com os conceitos apresentados, podemos obter o modelo matemáti-

Page 87: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

9 0

co para a construção do algoritmo da Célula Neural Artificial Paraconsistentede conexão analítica através das equações a seguir:

Sendo as variáveis de entrada:

µ1B,

tal que: 0 ≤ µ1b

≤1

Os valores limites: Ftct - Fator de tolerância à Contradição, tal que: 0 ≤

Ftct ≤ 1

Ftc - Fator de tolerância à Certeza, tal que: 0 ≤ Ft

c ≤ 1

O complemento da segunda variável: µ1 bc

= 1 - µ1b

O grau de crença calculado pela EEB:

µri = µ

1a - µ

1bc + 1

2

O grau de Contradição: Gct = µ

1a + µ

1b - 1

Os valores limites de certeza: V

icc = 1 - Ft

C

2

Vscc

= 1 + FtDC

2Considerando duas saídas: S

1 = saída dos grau de crença resultante µ

ri.

S2 = Saída do sinal de resposta à contradição S

ct .

Os valores da saídas S1 e S

2 são obtidos através das comparações

com as condições feitas a seguir: Se: V

icc ≤ µ

ri ≤ V

scc ⇒ S

1 = µ

ri e S

2 = 0

Se: |Gct| ≤ Ft

ct e |G

ct| > |G

c| ⇒ S

1 = 1/2 = Indefinição e S

2 = |G

c |

Indefinição e S2 = |G

c |

Senão: S1 = 1/2 e S

2 = 0

Utilizando as equações, na figura 4.1, é apresentado o algoritmo quedescreve o funcionamento de uma Célula Neural Artificial Paraconsistentede conexão analítica-CNAPca com todas as variáveis das entradas e saí-das.

Page 88: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

9 1

Figura 4.1 - Algoritmo representativo da Célula Neural ArtificialParaconsistente de Conexão analítica -CNAPCa.

CÉLULA NEURAL ARTIFICIAL PARACONSISTENTE DECONEXÃO ANALÍTICA - CNAPCa

Algoritmo da Célula de Conexão Analítica

1- Entre com os valores de tolerâncias: Ft

c = C

1 */Fator de tolerância à certeza 0 ≤ C

1 ≤ 1 */

Ftct

=C2 */Fator de tolerância à contradição 0 ≤ C

2 ≤ 1 */

2- Entre com os valores de entrada: µ

1A */ Grau de crença de entrada 0 ≤ µ

1 ≤ 1 */ µ

1B */ Grau de descrença de entrada 0 ≤ µ

2 ≤ 1 */

3- Calcule: µ

1BC= 1- µ

1B */ Complemento do grau de descrença */

|Gct| = | µ

1 + µ

2c - 1| */Valor do Grau de contradição */

|Gc | = |µ

1 - µ

2c| */Valor do Grau de certeza */

Vicc

= 1 - C1 */Valor do Limite inferior de certeza */

2 V

scc = 1 + C

1 */Valor do Limite superior de certeza */

2 µ

1r = µ

1A - µ

1BC + 1 */ (EEB) Valor do Grau de crença resultante */

24- Determine os valores das saídas: Se: V

icc ≤ µ

1r ≤ V

scc ⇒ S

1 = µ

1r e S

2 = 0

Se: |Gct| ≥ C

2 e |G

ct| > |G

c| ⇒ S

1 = 1/2 e S

2 = |G

ct|

Senão: S1 = 1/2 = Indefinição e S

2 = 0

*/ FIM*/

Page 89: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

9 2

4.2.2 - Representação simplificada

A Célula Neural Artificial Paraconsistente de conexão analítica é re-presentada nas interligações das Redes Neurais Paraconsistentes pelo sím-bolo apresentado na figura 4.2.

Figura 4.2 - Representação simplificada da Célula Neural ArtificialParaconsistente de conexão analítica CNAPCa.

4.4- A Célula Neural Artificial Paraconsistente deConexão lógica simples - CNAPCls

A Célula Neural Artificial Paraconsistente de Conexão lógica simplestem a função de estabelecer conectivos lógicos entre sinais representati-vos de graus de crença. As principais células de conexão lógica são as quefazem os conectivos de maximização OR e de minimização AND.

Para uma maximização, inicialmente é feita uma simples análise, atra-vés da Equação Estrutural Básica (EEB) que, assim vai informar qual dosdois sinais de entrada é de maior valor. Com esta informação, o algoritmorepresentativo da célula estabelece o sinal de saída. A equação utilizada eas condições que determinam a saída para um processo de maximização sãoexpostas a seguir.

Sendo as variáveis de entrada: µ1a,

tal que: 0 ≤ µ1a ≤ 1, e µ

1b, tal que:

0 ≤ µ1b

≤ 1

O grau de crença resultante calculado pela EEB: µ

ri = µ

1A - µ

1B + 1

2

Page 90: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

9 3

Determinação da entrada de maior valor:

Se: µri ≤ 1/2 ⇒ µ

1A ≤ µ

1Bi ⇒ Saída é µ

1A

Se: µri < 1/2 ⇒ µ

1A < µ

1Bi ⇒ Saída é µ

1Bi

A figura 4.3 mostra o algoritmo e o símbolo de uma CNAPCls que faza maximização entre dois sinais de graus de crença µ

1A e µ

1Bi.

Figura 4.3 - Algoritmo e símbolo da Célula Neural ArtificialParaconsistente de Conexão Lógica simples num processo de maximização(OR) .

Para uma minimização, o procedimento é parecido com o demaximização, com a diferença de, agora, a escolha recair sobre a entrada de

CÉLULA NEURAL ARTIFICIAL PARACONSISTENTE DE CONEXÃOLÓGICA SIMPLES - CNAPCls PARA MAXIMIZAÇÃO

Algoritmo da Célula de Conexão Lógica Simples ( Maximização )

1- Entre com os valores de entrada: µ

1A */ Grau de crença de entrada 0 ≤ µ

1 ≤ 1 */ µ

1B */ Grau de descrença de entrada 0 ≤ µ

2 ≤ 1 */

2- Calcule o grau de crença resultante: µ

r = µ

1A - µ

1B + 1 E.E.B

2 3- Determine o valor de saída: Se: µ

r ≥ 1/2 Então: S

1 = µ

1A

Senão: S1 = µ

1B

*/ FIM */

Page 91: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

9 4

menor valor. Inicialmente, é feita uma simples análise através da EquaçãoEstrutural Básica (EEB) que assim vai informar qual dos dois sinais de en-trada é o de menor valor. Com esta informação, o algoritmo representativoda Célula estabelece o sinal de saída.

A equação utilizada e as condições que determinam a saída para umprocesso de minimização são expostas a seguir.

Sendo as variáveis de entrada: µ1a,

tal que: 0 < µ1a < 1, e µ

1b, tal que:

0 < µ1b

< 1

O grau de crença resultante calculado pela EEB: µ

ri = µ

1A - µ

1B + 1

2 Determinação da entrada de menor valor:

Se: µri ³ 1/2 ⇒ µ

1A ³ µ

1Bi ⇒ Saída é µ

1Bi

Se: µri < 1/2 ⇒ µ

1A < µ

1Bi ⇒ Saída é µ

1A

Na figura 4.4, é apresentado o algoritmo e o símbolo de uma CNAPClsde minimização. Esta CNAPCls faz a análise entre dois sinais de graus decrença µ

1A e µ

1B, e estabelece como saída o de menor valor.

CÉLULA NEURAL ARTIFICIAL PARACONSISTENTE DE CONEXÃOLÓGICA SIMPLES - CNAPCls

PARA MINIMIZAÇÃO

Algoritmo da Célula de Conexão Lógica Simples ( Minimização )

1- Entre com os valores de entrada: µ

1A */ Grau de crença de entrada 0 ≤ µ

1 ≤ 1 */ µ

1B */ Grau de descrença de entrada 0 ≤ µ

2 ≤ 1 */

2- Calcule o grau de crença resultante: µ

r = µ

1A - µ

1B + 1 E.E.B

2 3- Determine o valor de saída: Se: µ

r ≥ 1/2 Então: S

1 = µ

1B

Senão: S1 = µ

1A

*/ FIM */

Page 92: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

9 5

Figura 4.4 - Algoritmo e símbolo da Célula Neural ArtificialParaconsistente de Conexão

Lógica simples num processo de minimização (AND) .

4.4.1 - Representações simplificadas

As Células Neurais Artificiais Paraconsistentes de conexão lógicasimples para maximização e para minimização são representadas nasinterligações das Redes Neurais Paraconsistentes pelos símbolos apresen-tados na figura 4.5.

Figura 4.5 - Representação simplificada das Células Neurais Artifici-ais Paraconsistentes de conexão lógica simples para um processo deMaximização e de Minimização.

4.5 - A Célula Neural Artificial Paraconsistente deConexão Lógica seletiva - CNAPClse

A Célula Neural Artificial Paraconsistente de Conexão seletiva é umaCélula de conexão lógica especial que faz as funções lógicas de maximizaçãoou de minimização selecionando um dos sinais para ser conectado à saída eneutralizando o outro. Ao sinal neutralizado é imposta uma saída indefinidade valor 1/2.

A CNAPClse tem duas entradas e duas saídas, de forma que cadasaída corresponde ao seu respectivo sinal de entrada. Quando os doissinais são aplicados numa CNAPClse de maximização OR, o sinal de maiorvalor tem a sua passagem livre e aparece na sua respectiva saída. O sinal demenor valor é retido e, na sua saída, aparece um valor de indefinição 1/2.

Quando a célula tem a função de minimização AND, o sinal de maiorvalor é retido com a sua correspondente saída apresentando indefinição

Page 93: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

9 6

1/2 e o sinal de menor valor tem passagem livre pela célula.Por convenção, se os dois sinais tiverem valores iguais, o sinal aplica-

do à direita da célula prevalece sobre o sinal aplicado à esquerda.O resultado da Equação Estrutural Básica EEB define, através de con-

dições, qual o sinal de grau de crença que terá a passagem livre pela célulae qual é o sinal que será retido.

Sendo as variáveis de entrada: µ

1A, tal que:

0 > µ

1A > 1, e µ

1B, tal que: 0 > µ

1B > 1

O grau de crença resultante calculado pela EEB: µ

ri = µ

1A - µ

1B + 1

2 Na maximização: Se: µ

ri > 1/2 ⇒ µ

1A > µ

1Bi

Resulta na saída em: µrmax

= µ1A

e µ1B

=1/2

Senão: µrmax

= µ1B

e µ1A

=1/2

Na minimização: Se: µ

ri > 1/2 ⇒ µ

1A > µ

1Bi

Resulta na saída em: µrmin

= µ1B

e µ1A

=1/2 Senão: µ

rmin= µ

1A e µ

1B =1/2

Veja que, nos dois casos, se: µri = 1/2 significa que µ

1A = µ

1B

Resulta na saída em: µ

rmax= µ

1B e µ

1A =1/2

A figura 4.6 apresenta o símbolo e o algoritmo da Célula Neural Artifi-cial Paraconsistente de Conexão lógica seletiva CNAPClse numa função demaximização.

CÉLULA NEURAL ARTIFICIAL PARACONSISTENTE DE CONEXÃOLÓGICA SELETIVA - CNAPClse PARA MAXIMIZAÇÃO

Algoritmo da Célula de Conexão Lógica Seletiva ( Maximização )

1- Entre com os valores de entrada: µ

1A */ Grau de crença de entrada 0 ≤ µ

1 ≤ 1 */ µ

1B */ Grau de descrença de entrada 0 ≤ µ

2 ≤ 1 */

2- Calcule o grau de crença resultante: µ

r = µ

1A - µ

1B + 1 E.E.B

2

Page 94: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

9 7

Figura 4.6 - Algoritmo e representação da Célula Neural ArtificialParaconsistente de Lógica seletiva de maximização (OR) .

4.5.1 - Representação simplificada

A Célula Neural Artificial Paraconsistente de conexão lógica seletivapara maximização é representada nas interligações das Redes NeuraisParaconsistentes pelo símbolo apresentado na figura 4.7.

Figura 4.7 - Representação simplificada da Célula Neural ArtificialParaconsistente de conexão lógica seletiva para um processo deMaximização.

A figura 4.8 apresenta o símbolo e o algoritmo da Célula Neural Artifi-

3- Determine o valor de saída: Se: µ

r > 1/2 Então: S

1 = µ

1A e S

2 = 1/2

Senão:

S1 = 1/2 e S

2 = µ

1B

*/ FIM */

Page 95: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

9 8

cial Paraconsistente de Conexão lógica seletiva numa função de minimização.

Figura 4.8 - Algoritmo da Célula Neural Artificial Paraconsistente deConexão Lógica seletiva de Minimização (AND).

4.5.2 - Representação simplificada

A Célula Neural Artificial Paraconsistente de conexão lógica seletivapara minimização é representada nas interligações das Redes NeuraisParaconsistentes pelo símbolo apresentado na figura 4.9.

CÉLULA NEURAL ARTIFICIAL PARACONSISTENTE DE CONEXÃO LÓGICA SELETIVA - CNAPClse PARA MINIMIZAÇÃO

Algoritmo da Célula de Conexão Lógica Seletiva ( Minimização )

1- Entre com os valores de entrada: µ

1A */ Grau de crença de entrada 0 ≤ µ

1 ≤ 1 */ µ

1B */ Grau de descrença de entrada 0 ≤ µ

2 ≤ 1 */

2- Calcule o grau de crença resultante: µ

r = µ

1A - µ

1B + 1 E.E.B

23- Determine o valor de saída: Se: µ

r > 1/2 Então: S

1 = 1/2

e S

2 = µ

1B

Senão: S1 = µ

1A e S

2 = 1/2

*/ FIM */

Page 96: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

9 9

Figura 4.9 - Representação simplificada da Célula Neural ArtificialParaconsistente de conexão lógica seletiva para um processo deMinimização.

4.6 - A Célula Neural Artificial Paraconsistente de passagem - CNAPp

A Célula Neural Artificial Paraconsistente de passagem tem a funçãode canalizar sinais para determinadas regiões da Rede. A princípio, o sinalque passa pela célula não sofre qualquer alteração mas é comparado aoFator de tolerância à Certeza Ft

c que, dependendo do ajuste pode alterar a

saída. Uma Célula Neural Artificial Paraconsistente de passagem é basica-mente uma célula de conexão com as suas entradas interligadas, portanto éuma célula de conexão analítica com saída única onde o sinal pode sofrerinterferência do Fator de tolerância à Certeza. Para conseguir uma únicaentrada o grau de descrença e complementários.

Considere uma Célula Neural Artificial Paraconsistente em que:O complemento da variável de entrada é: µ

1c = 1 - µ

1

O grau de crença é calculado pela EEB: µrp

= µ1 - µ

1c + 1

2Sendo o valor limite: Ft

c - Fator de tolerância à Certeza, tal que:

0 > Ftc > 1

O grau de certeza é calculado por: Gc =µ

1 - µ

1c

O grau de crença resultante µ1r que vai aparecer na saída é obtido a

partir da comparação: Se: µR ≥ Ft

c ⇒ µ

1rp = µ

r

Caso contrário ⇒ µ1rp

= 1/2Na figura 4.10 apresentamos o algoritmo da célula de passagem junta-

mente com seu símbolo característico.

Page 97: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 0 0

figura 4.10 - Algoritmo e representação da Célula Neural ArtificialParaconsistente de passagem CNAPp.

4.6.1 - Representação Simplificada

A Célula Neural Artificial Paraconsistente de passagem CNAPp é re-presentada nas interligações das Redes Neurais Paraconsistentes pelo sím-

CÉLULA NEURAL ARTIFICIAL PARACONSISTENTE DE PASSAGEM - CNAPp

Algoritmo da Célula Neural Artificial Paraconsistente de passagem -CNAPp

1- Início: µµµµµr = 1/2 */Célula virgem */

· 2- Entre com o fator de certeza:· C1=Ft

c

· 3- Complemente o valor da entrada do grau grau de descrença: µ

1c =1 - µ

2

4- Conecte a entrada do grau de crença da célula na entrada do grau de descrença complementado: µ

1 = µ

1c

5- Encontre grau de crença resultante da saída pela EEB: µ

R = (µ

1 - µ

1c +1) ÷ 2

6- Determine a saída pelas condições: Se µ

R ≥ C1 então: µ

1rp = µ

R

Senão µ11rp

= ½ 7- */ Fim */

Page 98: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 0 1

bolo apresentado na figura 4.11.

Figura 4.11 - Representação simplificada da Célula Neural ArtificialParaconsistente de passagem.

4.7 - A Célula Neural Artificial Paraconsistente decomplementação - CNAPco

A Célula Neural Artificial Paraconsistente de complementação-CNAPco consiste de uma célula capaz de fazer o complemento em relação àunidade do sinal aplicado na entrada.

Uma Célula Neural Artificial Paraconsistente de complementação ébasicamente uma célula de conexão analítica com uma única entrada e comum Fator de tolerância à Certeza. Para se obter uma única entrada écomplementado o grau de crença.

Considere uma Célula Neural Artificial Paraconsistente na qual:O complemento da variável aplicado no grau de crença é: µ

1c = 1 - µ

1

O grau de crença é calculado pela EEB: µ1r

= µ1c - µ

1 + 1

2Sendo o valor limite: Ft

c - Fator de tolerância à Certeza, tal que: 0≤ Ft

c

≤ 1.

· O grau de crença resultante µ1rc

que vai aparecer na saída é obtido apartir da comparação:

Se: µ1r

³ Ftc ⇒ µ

1rc = µ

1r , Caso contrário ⇒ µ

1rc = 1/2

·Na figura 4.12, apresentamos o algoritmo da célula de complementação

juntamente com seu símbolo característico.

Page 99: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 0 2

Figura 4.12 - Algoritmo e símbolo da Célula Neural ArtificialParaconsistente de Complementação - CNAPco.

CÉLULA NEURAL ARTIFICIAL PARACONSISTENTE DE COMPLEMENTAÇÃO - CNAPCO

Algoritmo da Célula Neural Artificial Paraconsistente decomplementação - CNAPco

1- Início: µµµµµr = 1/2 */Célula virgem */

· 2- Entre com o fator de certeza:· C1=Ft

c

· 3- Complemente o valor da entrada do grau grau de crença: µ

1c =1 - µ

1

4- Conecte a entrada do grau de crença complementado da célula na entrada do grau de descrença: µ

1 = µ

2

5- Encontre o grau de crença resultante da saída pela EEB: µ

R = (µ

1c - µ

1 +1) ÷ 2

6- Determine a saída pelas condições: Se µ

R ≥ C1 então µ

1rc = µ

r

Senão: µ1rc

= 1/2 7- */ Fim */

Page 100: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 0 3

4.7.1- Representação Simplificada

A Célula Neural Artificial Paraconsistente de complementação é re-presentada nas interligações das Redes Neurais Paraconsistentes pelo sím-bolo apresentado na figura 4.13.

Figura 4.13 - Símbolo simplificado da Célula Neural ArtificialParaconsistente de Complementação CNAPco.

4.8 - A Célula Neural Artificial Paraconsistente dedecisão - CNAPd

A Célula Neural Artificial Paraconsistente de decisão CNAPd consis-te de um aperfeiçoamento da Célula Artificial Paraconsistente básica e suafunção principal é trabalhar como nó de decisão em redes Neurais Artifici-ais de Análises Paraconsistentes.

Esta célula recebe, em suas entradas, dois sinais resultantes de análi-ses efetuadas por outras células que compõem a Rede e apresenta na saídaum resultado que vai estabelecer uma conclusão total da análise.

A CNAPd só vai apresentar como resultado da análise um dos trêsvalores: o valor 1, representando a conclusão “Verdadeira”, o valor 0, repre-sentando a conclusão “Falsa” ou o valor 1/2 representando a conclusão“Indefinição”.

Assim como na Célula Artificial Paraconsistente básica representadapelo Algoritmo Para-Analisador, a Célula de decisão tem ajustes externos epode ser também descrita por meio de um algoritmo.

Com os conceitos apresentados é elaborado um modelo matemáticode uma Célula Neural Artificial Paraconsistente de decisão. Veja as equa-ções:

Page 101: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 0 4

Sendo as variáveis de entrada: µ

1, tal que:

0 ≤ µ

1 ≤ 1 e µ

2, tal que: 0 ≤ µ

2 ≤ 1

Os valores limites: Ftct - Fator de tolerância à Contradição, tal que:

0 ≤ Ftct ≤1

FtD - Fator de tolerância à Decisão, tal que: 0 ≤ Ft

D ≤ 1

O grau de crença calculado pela EEB: µri = µ

1 - µ

2 + 1

2 Os valores limites de falsidade e de verdade: Vl

F = 1- Ft

D Vl

V = 1 + Ft

D

2 2O grau de Contradição: G

ct = µ

1 + µ

2 - 1

O grau de Certeza: Gc = µ

1 - µ

2

O estados da saídas S1 e S

2 são obtidos através das comparações

feitas a seguir:

Se: VlF < µ

ri < Vl

v ⇒ S

1 = 1/2 = Indefinição e S

2 = 0

Se µri ≥ Vl

v ⇒ S

1 = 1 = Verdade e S

2 = 0

Se µri≤ Vl

f ⇒ S

1 = 0 = Falso e S

2 = 0

Se: |Gct|≥ Ft

ct e |G

ct| > |G

c| ⇒ S

1 = 1/2 = Indefinição e S

2 = S

ct =

| Gct |

Com estas observações, descreveremos uma Célula Neural ArtificialParaconsistente de decisão utilizando as variáveis de entrada e de saídajuntamente com os sinais de ajustes.

O algoritmo e a Representação de uma Célula Neural ArtificialParaconsistente de decisão CNAPd estão expostos na figura 4.14.

Algoritmo da Célula Neural Artificial Paraconsistente de decisão

1- Entre com o valor do Fator de tolerância à Decisão: Ft

D = C

1 */ 0 ≤ C

1 ≤ 1 */

2- Entre com os valores de entrada: µ

1 */ grau de crença de entrada 0 ≤ µ

1 ≤ 1 */

µ2

*/ grau de descrença de entrada 0 ≤ µ2≤ 1 */

3- Calcule o grau de certeza: G

c = µ

1 - µ

2

4- Calcule o grau de crença resultante pela EEB:

CÉLULA NEURAL ARTIFICIAL PARACONSISTENTEDE DECISÃO - CNAPd

Page 102: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 0 5

µR = µ

1 - µ

2 + 1

2 5- Calcule o valor limite de falsidade: VL

F = 1 - C

1

2 6- Calcule o valor limite de Verdade: VL

V = 1 + C

1

2 7- Determine o valor de saída pelas condições: Se: VL

F ≤ µ

R ≤ VL

V

Então S1 = 1/2

Se: µR ≥ VL

V Então: S

1 = 1

Se: µr ≤ VL

F Então: S

1 = 0

8- */ Fim */

Figura 4.14 - Algoritmo e representação da Célula Neural ArtificialParaconsistente de decisão.

4.8.1 - Representação simplificada

A Célula Neural Artificial Paraconsistente de decisão é representadanas interligações das Redes Neurais Paraconsistentes pela representaçãoapresentada na figura 4.15.

a b

Page 103: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 0 6

Figura 4.15 - Representação da Célula Neural Artificial Paraconsistentede decisão CNAPd.

4.9 - A Célula Neural Artificial Paraconsistente deaprendizagem - CNAPa

Uma Célula Neural Artificial Paraconsistente de aprendizagem-CNAPaé criada a partir da Célula Artificial Paraconsistente Básica CAPb.

As células de aprendizagem são treinadas para aprender um padrãoutilizando o método de análise paraconsistente aplicado através de umalgoritmo. Apresentaremos neste capítulo apenas as equações básicas e osímbolo que representam a CNAPa, os detalhes de aprendizagem e oalgoritmo serão estudados a seguir.

Observe a representação da célula de aprendizagem CNAPa Figura4.16.

Figura 4.16 - Representação de uma célula nerval artificialparaconsistente de aprendizagem CNAPa.

CÉLULA NEURAL ARTIFICIAL PARACONSISTENTE

DE APRENDIZAGEM - CNAPa

Page 104: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 0 7

4.9.1 - O fator de aprendizagem FA

No processo de aprendizagem da CNAPa é introduzido um fator deaprendizado (F

A) que é ajustado externamente. Dependendo do valor de F

A

será proporcionado uma aprendizagem mais rápida ou mais lenta à CNAPa.O fator de aprendizagem F

A é um valor real, dentro do intervalo fecha-

do [0,1] atribuído arbitrariamente por ajustes externos.

4.9.2 - O algoritmo de aprendizagem da CNAPa

O algoritmo de aprendizagem consiste em fazer a Célula Neural Artificial Paraconsistente ser condicionada para que, no final do treinamento,reconheça o padrão apresentado como grau de crença na entrada. No próxi-mo capítulo, os algoritmos de aprendizagem serão implementados e estuda-dos através de ensaios.

4.9.3 - O fator de desaprendizagem FDA

O Fator de desaprendizagem FDA

é um valor que, dependendo do resul-tado do algoritmo, pode ser utilizado no lugar do fator de aprendizagem F

A.

Veremos também a obtenção e a influência do fator de desaprendizagem nofuncionamento da CNAPa no próximo capítulo.

4.9.4 - Representação simplificada

As Células Neurais Artificiais Paraconsistentes de aprendizagem sãorepresentadas nas interligações das Redes Neurais Paraconsistentes pelosímbolo da figura 4.17.

Figura 4.17 - Representação simplificada e gráfico característico desaída da Célula Neural Artificial Paraconsistente de aprendizagem CNAPa.

Page 105: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 0 8

Na figura anterior o gráfico mostra o comportamento característico dosinal de saída na aplicação de um padrão repetitivo na entrada. Estudare-mos os detalhes e a forma da obtenção do sinal exposto no gráfico nopróximo capítulo.

4.10 - A Célula Neural Artificial Paraconsistente dememorização - CNAPm

Uma Célula Neural Artificial Paraconsistente de memorização - CNAPmé criada a partir da Célula Artificial Paraconsistente básica. Esta Célula tema capacidade de memorizar padrões considerados como valores reais entre0 e 1. A Célula que memoriza o padrão 1 é denominada de Célula dememorização do padrão de verdade e a Célula que memoriza o padrão 0 édenominada de Célula de memorização do padrão de falsidade. Veja asfiguras 4.18 e 4.19.

O padrão memorizado aparece na saída da Célula quando na sua en-trada é aplicado o sinal de ativação a =1.

O processo de memorização de uma CNAPm é dependente de um fatorde memorização m que varia entre um intervalo real fechado [0,1]. Quando ofator de memorização é igual a zero (m = 0) a saída da célula é uma indefiniçãopara qualquer valor aplicado na sua entrada. Com o aumento do fator dememorização m a célula vai adquirindo capacidade de apresentar o padrãomemorizado na saída. Quando o fator de memorização m estiver no seu valormáximo, isto é, m=1 a célula está completamente preparada para apresentaro padrão armazenado quando é aplicado o sinal de ativação a=1 na entrada.A Célula de memorização pode ser expressa através das equações a seguir.

Considere a Equação Estrutural Básica EEB onde a entrada do grau decrença µ

1 é ligada á entrada do grau de descrença cujo sinal é complementado,

ficando: O complemento da variável de entrada é: µ

1 c = 1 - µ

1

O grau de crença é calculado pela EEB: µirm

= µ1 - µ

1c + 1

2 O grau de Certeza é: G

c = µ

1 - µ

1c

Sendo m = fator de memorização com: 0 ≤ m ≤ 1 fator de ativação a = µ

1

O grau de crença memorizado é obtido por: µ

1rm= (a - a

c)m + 1 (EEB)

2

Pela equação temos: Sendo: a=1, Se: m = 1 ⇒ µ1rm

= 1

Page 106: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 0 9

Se: m = 0 ⇒ µ1rm

= 1/2

Quando na entrada for aplicado o sinal 1, a saída responderá com umsinal 1, indicando que esta é uma célula de memorização do padrão deverdade.

Considere, agora, a Equação Estrutural Básica (EEB) em que apenas aentrada do grau de crença m

1 é complementado.

O complemento da variável de entrada é: µ1 c

= 1 - µ1

O grau de crença resultante é calculado pela EEB:µ

1rm = (a

c - a)m + 1

2O grau de crença resultante memorizado µ

1rm é obtido a partir do

valor do fator de ativação a=1 aplicado na entrada:

Pela equação temos: com a=1, Se: m = 1 ⇒µ1rm

= 0 Se: m = 0 ⇒ µ

1rm = 1/2

Quando na entrada for aplicado o sinal 1, a saída responde com umsinal 0, indicando que esta é uma célula de memorização de padrão defalsidade.

Nos dois casos, quando na entrada for aplicado um sinal de indefinição1/2 a célula de memorização vai responder com um sinal de indefinição 1/2na saída, independente do valor de m.

Como o grau de crença está ligado ao grau de descrença, o grau decontradição sempre será nulo, portanto esta célula não tem fatores de ajus-tes externos.

A partir das equações, podemos elaborar o algoritmo representativodas Células Neurais Paraconsistentes de memorização.

Nas figuras 4.18 e 4.19, são apresentados os dois tipos de células dememorização com seus respectivos algoritmos.

CÉLULA NEURAL ARTIFICIAL PARACONSISTENTE DE MEMORIZAÇÃO - CNAPm

PARA MEMORIZAÇÃO DE PADRÕES DE VERDADE

Algoritmo de Memorização da Célula Neural Artificial Paraconsistente -CNAPm

( Padrão de Verdade )

1- Início: µr = 1/2 */Célula virgem */

2- Defina o fator de ativação: a = 13- Defina o fator de memorização: m =C

1

Page 107: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 1 0

Figura 4.18 - Algoritmo para memorização do padrão de verdade esímbolo da CNAPm.

CÉLULA NEURAL ARTIFICIAL PARACONSISTENTE DE MEMORIZAÇÃO - CNAPm

PARA MEMORIZAÇÃO DE PADRÕES DE FALSIDADE

Algoritmo de Memorização da Célula Neural Artificial Paraconsistente- CNAPm

( Padrão de Falsidade )1- Início: µ

r = 1/2 */Célula virgem */

2- Defina o fator de ativação: a = 13- Defina o fator de memorização: m =C

1

4- Considere o grau de crença da entrada como fator de ativação: a = µ

1

5- Complemente o valor da entrada do grau de crença: µ

1c =1 - µ

1

4- Considere o grau de crença da entrada como fator de ativação: a = µ

1

5- Complemente o valor da entrada do grau de descrença: µ

2c =1 - µ

2

6- Conecte a entrada do grau de crença da célula, na entrada do graude descrença complementado:

µ1 = µ

2c

7- Determine o grau de crença resultante dasaída pela EEB:

µrm

= {(µ1 - µ

2c )C

1 +1} ÷ 2

8- Fim

Page 108: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 1 1

6- Conecte a entrada do grau de crença complementado da célula, naentrada do grau de descrença:

µ1c

= µ2

7- Determine o grau de crença resultante da saída pela EEB: µ

rm = {(µ

1c - µ

2 )C

1 +1} ÷ 2

8- Fim

Figura 4.19 - Algoritmo para memorização do padrão de falsidade esímbolo da CNAPm.

4.10.1 - Representações Simplificadas

As Células Neurais Artificiais Paraconsistentes de memorização parapadrões de verdade e de falsidade são representadas nas interligações dasRedes Neurais Paraconsistentes pelos símbolos apresentados na figura4.20.

(a) memorização de padrão de verdade (b) memorização de padrão de falsidade

Figura 4.20 - Representações simplificadas das células de memorizaçãode padrões.

Page 109: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 1 2

4.11 - Considerações Finais

Apresentamos uma família de Células Neurais ArtificiaisParaconsistentes criada a partir do aperfeiçoamento da Célula ArtificialParaconsistente básica representada pelo algoritmo da LógicaParaconsistente Anotada denominado de “Para-Analisador”. Para com-por a família, foram originados da Célula básica, oito tipos de CélulasNeurais Artificiais Paraconsistentes.

A primeira Célula apresentada foi a Célula Neural Paraconsistentede conexão analítica que tem a função de interconectar várias unidadesneurais efetuando a análise paraconsistente e promovendo um funcio-namento paralelo no processamento de dados efetuado pela rede. Quan-do as informações processadas pelas células de conexão estão vindascom um grau de contradição alto, um sinal S

ct detectado por um Fator de

tolerância à Contradição indica a característica contraditória da análise.Este sinal permite que o sistema tome providências para diluir es-

tas contradições. A célula de conexão também recebe um valor que indi-ca o Fator de tolerância à Certeza que vai servir como controle das célu-las de conexão inibindo-a ou liberando-a para pleno funcionamento.

A segunda Célula apresentada foi a Célula Neural Paraconsistentede conexão lógica simples. Esta célula tem a função de promover asconexões lógicas de maximização (conectivo OR) e minimização(conectivo AND) entre dois sinais aplicados na entrada.

A terceira Célula apresentada foi denominada de Célula NeuralArtificial Paraconsistente de conexão seletiva. Esta célula além de efetu-ar os conectivos lógicos de maximização e de minimização selecionaqual dos dois sinais aplicados na entrada tem passagem livre pela célula.

A quarta célula apresentada é denominada de Célula Neural Artifi-cial Paraconsistente de passagem. Esta célula tem a função de canalizarsinais para determinadas regiões da rede com possibilidade de aplicaçãodos conectivos selecionando o sinal de menor ou de maior valor. Umajuste de Fator de tolerância à Certeza é comparado ao sinal de passa-gem para determinar se o mesmo é um valor indefinido.

A quinta célula denominada de Célula Neural ArtificialParaconsistente de complementação tem a função de fazer o comple-mento, em relação à unidade, do sinal aplicado na entrada. Um ajuste deFator de tolerância à Certeza é comparado ao sinal de passagem, paradetectar se o mesmo se encontra ou não numa faixa de indefinição.

A sexta Célula, denominada de Célula Neural ArtificialParaconsistente de decisão, processa dois sinais fazendo análiseparaconsistente entre eles e dependendo do resultado, determinandouma conclusão final. A resposta de uma Célula de decisão vem na forma

Page 110: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 1 3

de uma conclusão representada por um dos três estados lógicos resultan-tes: Falso=0, Verdadeiro =1 ou Indefinido =1/2. Esta Célula é indicada paratomar uma decisão final e indiscutível baseada em informações vindas emforma de sinais de graus de crença. Esta decisão final em uma Rede NeuralParaconsistente pode ser local, isto é, a decisão é relativa a uma particularregião da Rede ou ainda, total, abrangendo todas as análises efetuadas.

A sétima Célula apresentada foi denominada de Célula Neural Artifici-al Paraconsistente de aprendizagem CNAPa. Esta Célula é das mais impor-tantes da família porque tem a capacidade de reconhecer padrões mesmoque os sinais venham impregnados com ruídos.

A oitava Célula denominada de Célula Neural Paraconsistente dememorização tem a função de guardar tipos de padrões controlada por umsinal externo de memorização m. Esta célula é ativada por um sinal a aplica-do na entrada que, quando alto, libera o valor que foi memorizado. O padrãomemorizado é captado de outros componentes, por exemplo, da célula deaprendizagem que quando passa por um processo de treinamento fornece osinal m para a célula de memorização.

As Células que compõem a família apresentada neste trabalho foramderivadas da Equação Estrutural Básica (EEB): µ

r=(µ

1 - µ

2 + 1) : 2, e, portan-

to, são baseadas em modelos matemáticos simples, facilitando suaimplementação prática.

Todas as células componentes da família, estudadas até aqui, serãointegrantes de Unidades Neurais Artificiais Paraconsistentes UNAP’s. AsUnidades Neurais Artificiais Paraconsistentes apresentam funcionamen-tos diversos que, dependendo da composição e interligações das suascélulas internas, podem apresentar características semelhantes ao funcio-namento do neurônio biológico. O funcionamento e a construção de váriostipos de VNAPs será estudado no capítulo7.

4.12 - Exercícios1 - Qual é a função da Célula Neural Artificial Paraconsistente de

conexão analítica- CNAPCa ?

2- Descreva o funcionamento básico da Célula Neural ArtificialParaconsistente de conexão analítica- CNAPCa.

3- Com base no algoritmo, projete em linguagem C o programaexecutável da CNAPCa.

4- Dê a representação simplificada de uma CNAPCa.

5- Qual é a função da Célula Neural Artificial Paraconsistente de

Page 111: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 1 4

Conexão lógica simples CNAPCls ?

6- Com base nos algoritmos, projete em linguagem C ( ou em outralinguagem que você domina) o programa executável das Células NeuraisArtificiais Paraconsistentes de Conexão lógica simples para maximização epara minimização.

7- Descreva a função da Célula Neural Artificial Paraconsistentede Conexão seletiva CNAPClse de maximização e de minimização.

8- Com base nos algoritmos, projete em linguagem C ( ou em outralinguagem que você domina) o programa executável das CélulasNeurais Artificiais Paraconsistentes de Conexão lógica seletiva para umprocesso de maximização e de minimização.

9Explique o funcionamento da Célula Neural ArtificialParaconsistente de passagem CNAPp.

10- Com base no algoritmo, projete em linguagem C ( ou em outralinguagem que você domina) o programa executável da Célula NeuralArtificial Paraconsistente de passagem.

11-Explique como é o funcionamento de uma Célula Neural ArtificialParaconsistente de complementação CNAPco.

12- Com base no algoritmo, projete em linguagem C ( ou em outralinguagem que você domina) o programa executável da Célula NeuralArtificial Paraconsistente de complementação CNAPco.

13 - Descreva o funcionamento de uma Célula Neural ArtificialParaconsistente de decisão CNAPd.

14 - Com base no algoritmo, projete em linguagem C ( ou em outralinguagem que você domina) o programa executável da Célula NeuralArtificial Paraconsistente de decisão CNAPd.

15 - Explique para que servem as Células Neurais ArtificiaisParaconsistentes de aprendizagem-CNAPa.

16 - Descreva o que é fator de aprendizagem FDA

.

17 - Represente a simbologia simplificada e o gráfico comportamentalde uma CNAPa típica.

Page 112: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 1 5

18 - Explique qual é a finalidade de uma Célula Neural ArtificialParaconsistente de memorização - CNAPm.

19- Descreva como é feito o processo de memorização em uma CNAPm.

20 - Com base nos algoritmos, projete em linguagem C ( ou em outralinguagem que você domina) o programa executável das Células NeuraisArtificiais Paraconsistentes de memorização para memorizar padrões deverdade e padrões de falsidade.

Page 113: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 1 6

CAPÍTULO 5AS CÉLULAS NEURAIS ARTIFICIAIS

PARACONSISTENTE DEAPRENDIZAGEM

Neste capítulo, faremos um estudo detalhado da Célula Neural Artifi-cial Paraconsistente de aprendizagem-CNAPa.

Devido à importância desta célula, pelas suas características de apren-dizagem e desaprendizagem em um processo de treinamento, estudaremosseu funcionamento e comportamento frente a determinadas condições.

Demonstraremos por um processo simples, sem envolver complexasequações matemáticas, que é possível desenvolver configurações de célu-las para modelar o comportamento dos neurônios biológicos. As demons-trações são comprovadas pelos resultados obtidos em vários ensaios, ondesão aplicados padrões de vários valores.

Os resultados dos ensaios, utilizando o algoritmo de aprendizagem,estão apresentados por meio de tabelas de valores na forma de gráficosmostrando com maior clareza as características funcionais das CNAPa.

5.1 - Introdução

Uma Célula Neural Artificial Paraconsistente de aprendizagem-CNAPaé criada a partir da Célula Artificial Paraconsistente básica.

As células de aprendizagem são projetadas para serem utilizadas emRedes Neurais Paraconsistentes como partes de unidades de memórias oucomo sensores de padrões em camadas primárias. Por exemplo, uma CNAPapode ser treinada para aprender um padrão utilizando o método de análiseparaconsistente aplicado através de um algoritmo.

As células podem ser treinadas para reconhecer apenas valores 0 ou1, no entanto, no treinamento de uma Célula Neural Artificial Paraconsistente,

Page 114: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 1 7

podem ser utilizadas como padrões, os valores reais entre 0 e 1. Célulasdeste tipo podem ser utilizada em sistemas sensores primários, isto é,sensores que têm a finalidade de receber as primeiras informações e trans-formar estes estímulos primários em sinais elétricos que serão tratados pelarede. Em um modelo das funções neurais do cérebro, pode-se fazer umaanalogia destas células primárias com neurônios foto-receptores da visãohumana denominados de cones e bastonetes.

5.2 - A Célula Neural Artificial Paraconsistente deaprendizagem - CNAPa

Uma Célula de aprendizagem é basicamente uma Célula Neural Artifi-cial Paraconsistente de conexão analítica CNAPCa com sua saída interliga-da à entrada do grau de descrença. Para um processo de treinamento,inicialmente, considera-se uma Célula Neural Artificial Paraconsistente deconexão analítica sem os Fatores de tolerância e que não sofreu nenhumprocesso de aprendizagem.

Uma célula nestas condições iniciais tem as duas entradas ( µ1A

e ( µ1b

com um valor Indefinido igual a 1/2 e, através da Equação Estrutural Básica(EEB), se determina o valor da saída, que também é uma indefinição comvalor (µ = 1/2.

A figura 5.1 mostra uma Célula Neural Artificial Paraconsistente deconexão analítica nas condições propostas, com os valores de entrada esaída e também sem os fatores de tolerância para não influírem na saída.Uma CNAPca nestas condições está pronta para aprender padrões.

Figura 5.1 - Uma Célula Neural Artificial Paraconsistente básica sem

Page 115: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 1 8

padrão de aprendizagem.A partir desta Célula, é iniciado um processo de aprendizagem que é

definido através de um algoritmo.A função do Operador NOT na Lógica Paraconsistente é fazer a nega-

ção lógica no sinal resultante de saída da Célula. O processo da negaçãológica pode ser considerado como uma inversão no sinal do valor do graude crença resultante da saída de uma CNAP.

Na Célula Neural Artificial Paraconsistente de aprendizagem vão ocor-rer as ações do Operador NOT no processo de treinamento.

5.2.1 - Aprendizagem de uma Célula Neural ArtificialParaconsistente

As Células de aprendizagem podem aprender qualquer valor real nointervalo fechado [0,1]. Inicialmente, para facilitar o entendimento, vamosdemonstrar a aprendizagem das células com valores extremos 0 ou 1, com-pondo assim, o que podemos chamar de células sensoriais primárias. Ficadefinido portanto, que em uma Rede Neural Paraconsistente, as célulassensoriais primárias consideram como padrão um dígito binário no qual, ovalor 1 é equivalente ao estado lógico “Verdadeiro” e o valor 0 é equivalen-te ao estado lógico “Falso”.

As células sensoriais primárias são aquelas que vão captar informa-ções diretamente dos sensores. Em um sistema de captação de imagem, porexemplo, se no processo de aprendizagem for aplicado na entrada um sinalconsiderado como o grau de crença de valor 0, a célula vai aprender que opadrão naquele pixel é representado por um valor de Falsidade. Aparecen-do, na entrada, o valor 0 repetidas vezes, o grau de crença resultante daanálise vai aumentando gradativamente na saída até chegar ao valor 1.Nestas condições, dizemos que a Célula aprendeu o padrão de falsidade.

O mesmo procedimento é adotado se for aplicado repetidas vezes naentrada da célula o valor 1. Quando o grau de crença resultante na saída dacélula chegar ao valor 1 dizemos que a Célula aprendeu o padrão de verda-de. Portanto, uma Célula Neural Artificial Paraconsistente pode aprenderdois tipos de padrões: o padrão de Verdade ou o padrão de Falsidade.

5.2.2- O Fator de Aprendizagem FA

Conforme foi visto na apresentação da célula (capítulo anterior),ainda neste processo de aprendizagem da CNAPa, é introduzido um fatorde aprendizado (FA) que é ajustado externamente. Será visto que depen-dendo do valor de FA será proporcionada uma aprendizagem mais rápida

Page 116: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 1 9

ou mais lenta à CNAPa.Considera-se também uma equação para cálculos de valores de graus

de crença resultantes sucessivos (µ (k) até chegar ao valor 1. Portanto, para

um valor de grau de crença (µ (k) inicial são obtidos valores (µ (k+1) até que

µ(k+1) =1Considerando um processo de aprendizagem do padrão de verdade,

a equação de aprendizagem é obtida através da EEB ficando: µr (k+1) = µ1 - (µr (k)C) FA + 1 2

onde: µr (k)C = 1- µr (k) sendo: 0 FA 1Para um processo de aprendizagem do padrão de Falsidade a EEB fica:

µr (k+1) = µ1c - (µr(k)C) FA + 1 2 onde: µ1c = 1- (µ1 , sendo: 0 ≤FA ≤1

Considera-se a Célula completamente treinada quando: (µ (k+1) = 1.O fator de aprendizagem FA é um valor real, dentro do intervalo fecha-

do [0,1] atribuído arbitrariamente por ajustes externos. Pela análise da EEB,quanto maior é o valor de FA, menor é a rapidez de aprendizado da Célula.

5.2.3 - O algoritmo de aprendizagem

A aprendizagem de uma CNAPa é feita através de um treinamento queconsiste em aplicar um padrão na entrada do sinal de grau de crença suces-sivamente até que as contradições diminuam e seja obtido, na saída, umgrau de crença resultante igual a 1.

O algoritmo de aprendizagem consiste em fazer a Célula Neural Artifi-cial Paraconsistente ser condicionada para que ao final do treinamento re-conheça o padrão apresentado como grau de crença na entrada.

A figura 5.2 apresenta o fluxograma para aprendizagem do padrão deverdade.

Page 117: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 2 0

Figura 5.2 - Fluxograma para aprendizagem do padrão de Verdade daCNAPa.

No processo de aprendizagem do padrão de verdade o padrão aplica-do é o valor 1 que, sendo aplicado sucessivamente na entrada permite quea Equação Estrutural Básica vá diluindo as diferenças entre a entrada e asaída até que o grau de crença resultante na saída chegue ao seu valormáximo 1.

A figura 5.3 apresenta o algoritmo que elabora a aprendizagem dopadrão de verdade juntamente com o símbolo da Célula e os valores finaisnas entradas e saída.

CÉLULA NEURAL ARTIFICIAL PARACONSISTENTEDE APRENDIZAGEM-CNAPa PARA

PADRÃO DE VERDADEAlgoritmo de Aprendizagem da Célula Neural Artificial

Paraconsistente -CNAPa ( Padrão de Verdade )1- Início: µ

r = 1/2

2- Entre com o valor do Fator de aprendizagem: F

A= C

1 onde 0 C

1 1

Page 118: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 2 1

Figura 5.3 - Algoritmo para aprendizagem do padrão de Verdade esímbolo da CNAPa..

No processo de aprendizagem do padrão de falsidade, o padrão apli-cado é o valor 0 que, sendo aplicado sucessivamente na entrada, permiteque a Equação Estrutural Básica vá diluindo as diferenças entre a entrada ea saída até que o grau de crença resultante na saída chegue ao seu valormáximo 1.

Para que este processo fosse possível a entrada do grau de crença

3 Complemente o valor aplicado na entrada do grau de descrença: µ

2c =1 - µ

2

4 Conecte a saída da célula na entrada do grau de descrença: µ

2c = µ

r

4 Aplique o padrão de verdade: µ

1 = 1

4 Calcule o grau de crença resultante µ

R = {µ

1 - (µ

2c)C

1+ 1} ÷ 2

4 Considere as condições: Se µ

r ≠ 1 retorne ao passo 3

4 Pare

Page 119: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 2 2

sofreu a ação do operador complemento.A figura 5.4 apresenta o algoritmo que elabora a aprendizagem do

padrão de falsidade juntamente com o símbolo da Célula e os valores finaisnas entradas e saída.

Figura 5.4 - Fluxograma para aprendizagem do padrão de falsidade daCélula Neural Artificial Paraconsistente de aprendizagem CNAPa.

Na figura 5.5, apresentamos o algoritmo que elabora a aprendizagemdo padrão de Falsidade juntamente com o símbolo da Célula onde aparecemos sinais de entradas para a análise e para os limites que vão definir e saída.

Page 120: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 2 3

Figura 5.5 - Algoritmo para aprendizagem do padrão de Falsidade esímbolo da CNAPa.

A característica da análise paraconsistente permite que, depois doaprendizado, a célula reconheça o padrão que foi lhe ensinado, mesmo queos sinais venham impregnados com ruídos. Estas características de apren-dizagem e tolerância possibilitam a Célula Neural Artificial Paraconsistente

CÉLULA NEURAL ARTIFICIAL PARACONSISTENTE

DE APRENDIZAGEM-CNAPa PARA PADRÃO DE VERDADE

Algoritmo de Aprendizagem da Célula Neural ArtificialParaconsistente -CNAPa

( Padrão de Verdade )1- Início: µ

r = 1/2

2- Entre com o valor do Fator de aprendizagem: F

A= C

1 onde 0 C

1 1

3 Complemente o valor aplicado na entrada do grau de descrença: µ

2c =1 - µ

2

4 Conecte a saída da célula na entrada do grau de descrença: µ

2c = µ

r

4 Aplique o padrão de verdade: µ

1 = 1

4 Calcule o grau de crença resultante µ

R = {µ

1 - (µ

2c)C

1+ 1} ÷ 2

4 Considere as condições: Se µ

r ≠ 1 retorne ao passo 3

4 Pare

Page 121: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 2 4

ser utilizada como uma ótima ferramenta para reconhecimento de padrões.

5.3 -Os Processos de Aprendizagem e dedesaprendizagem de uma Célula NeuralArtificial Paraconsistente - CNAP

Mesmo depois que uma CNAPa é treinada para reconhecer certo pa-drão se, insistentemente, for levado à sua entrada um valor totalmente dife-rente e de forma repetitiva, o grau de Contradição muito elevado faz a Célulaesquecer gradativamente o padrão aprendido. Aplicando-se valores e utili-zando os algoritmos nota-se que, a repetição do novo valor aplicado naentrada, tem como primeira conseqüência o decaimento do grau de crençaresultante. Nestas condições, significa que a análise chegou ao patamar deuma Indefinição. Se este novo valor ainda continuar a ser repetidamenteaplicado na entrada, o grau de crença resultante, na saída, vai decaindo atéchegar ao valor mínimo 0. Isto significa que a análise paraconsistente estáatribuindo um grau de crença nulo àquela Proposição que foi inicialmenteaprendida. Consequentemente, a Célula está atribuindo um valor máximo àNegação Lógica desta Proposição inicial, portanto, o novo padrão contrá-rio ao aprendido deve ser confirmado.

No algoritmo de treinamento da CNAPa, a situação de descrença totalà Proposição inicial é sinalizada quando o grau de Certeza G

c chegar ao

valor -1. Dessa forma, no algoritmo é feito o monitoramento do grau deCerteza Gc, e quando seu valor chegar a -1, é confirmada a crença na nega-ção lógica da proposição.

O procedimento para a confirmação é a aplicação do Operador NOTna Célula. O Operador inverte o grau de crença resultante de saída da célulaque estava em zero para o valor 1. A partir deste instante, a CNAPa consi-dera como novo padrão o valor que apareceu de forma repetitiva, esque-cendo o padrão aprendido anteriormente.

Em um processo de início de aprendizagem, a Célula não sabe previa-mente qual será o padrão a ser aprendido, portanto uma CNAPa deve tercapacidade de reconhecer qualquer padrão inicial e se preparar para aprendê-lo. Por exemplo, uma célula sensorial primária deve ter capacidade de, pri-meiro, reconhecer e, depois, aprender o padrão aplicado na sua entrada.

5.3.1 - Reconhecimento do padrão a ser aprendido

Nas Células primárias, apenas dois tipos de padrão podem se apre-sentar nas entradas: o padrão de Verdade ou o padrão de Falsidade. Oprocesso de reconhecimento do padrão a ser aprendido, é feito através de

Page 122: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 2 5

uma primeira análise no grau de Certeza Gc.Se, no primeiro cálculo do grau de Certeza Gc, o resultado for negati-

vo, significa que a tendência do mesmo é decair até um valor mínimo -1,portanto, conclui-se que a célula não está preparada para aprender, maspara desaprender. Neste caso, a célula deve sofrer um processo de inversãocom a aplicação do Operador NOT e também proceder a aplicação do Ope-rador Complemento na entrada do grau de crença.

Considere uma Célula Neural Artificial Paraconsistente de aprendiza-gem CNAPa preparada para receber padrões, que podem ser de Verdade oude Falsidade.

Primeiramente, é calculado um grau de Certeza inicial:

Gci = µ1a - µr(k) = µ1a - 1/2

Se Gci < 0, então é um padrão de Falsidade.Calcule através da EEB :

µr (k+1) = µ1c - (µr (k)C) FA + 1 2

onde: µ1c = 1- µ1 e µr (k)C = 1- µr (k) sendo: 0 FA 1Se Gci > 0, então é padrão de verdade.Calcule através da EEB :

µr (k+1) = µ1 - (µr (k)C) FA + 1 2

onde: µr (k)C = 1- µr (k) sendo: 0 ≤ FA≤ 1

5.3.2 - O fator de desaprendizagem FDa

Conhecendo se a Célula está em processo de aprendizagem ou dedesaprendizagem, sabemos que haverá a possibilidade da introdução deum Fator de desaprendizagem FDA no algoritmo.

Por exemplo, se no processo de aprendizagem do padrão de falsidadeo grau de crença resultante de saída chegar ao valor máximo, isto é quando(µ (k+1) = 1, significa que a célula está completamente treinada e qualquervariação que possa acontecer no valor da saída é uma desaprendizagem.

Como no processo de aprendizagem foi utilizado o fator FA, no pro-cesso de desaprendizagem a Equação Estrutural Básica (EEB) para cálculodo grau de crença resultante passa a ser:

Page 123: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 2 6

µr(k+1)

= µ1c - (µr(k)

)C) FDA

+ 1 2onde: µ1c = 1- µ1 e (µ (k)C = 1- (µ (k) sendo: 0 FDA 1

Para o processo de aprendizagem do padrão de Verdade é feito omesmo procedimento, isto é, quando (µ(k+1) = 1, a EEB utiliza o Fator dedesaprendizagem e fica:

µr (k+1) = µ1 - (µr(k)

)C) FDA

+ 1 2

onde: µr (k)C = 1- µr (k) sendo: 0≤FDA ≤1

Como no algoritmo, o fator de desaprendizagem FDA

, podecorresponder a um valor real inserido no intervalo fechado [0,1], fica claroque uma Célula Neural Artificial Paraconsistente de aprendizagem pode serajustada externamente para ter rapidez ou lentidão no seu processo dedesaprendizagem.

5.3.3 - Confirmação da aprendizagem da proposição negada.

Quando no processo de desaprendizagem, tanto do padrão de Falsi-dade como do padrão de Verdade, o grau de crença resultar em (µ (k+1) = 0,significa que a célula desaprendeu totalmente o padrão aprendido inicial-mente, portanto é aplicado o Operador NOT fazendo: (µ(k+1) = 1.

Para confirmar o novo padrão é feito a seguir, o complemento de (µ1A

)

5.4 - Estudos do Algoritmo de Aprendizagem e de Desaprendizagem Completo

Utilizando todas as condições de ajustes nesta seção é construído umalgoritmo completo que elabora a aprendizagem e a desaprendizagem daCNAPa. O algoritmo completo deixa a análise de forma mais abrangentecom maior eficiência e controlabilidade. Observe o fluxograma do algoritmocompleto seguir:

Page 124: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 2 7

Figura 5.6 - Fluxograma do processo de aprendizagem edesaprendizagem da CNAPa.

O fluxograma da figura 5.6 demonstra, com clareza, todo o processoque abrange o reconhecimento do padrão a ser aprendido, envolvendo ascondições de aprendizagem e a desaprendizagem da CNAPa. Através deajustes nos dois valores, FA-Fator de aprendizagem e FDA-Fator dedesaprendizagem, a Célula Neural Artificial Paraconsistente pode adquirirrapidez na aprendizagem e lentidão no processo de desaprendizagem ouvice-versa. Estas condições de ajustes proporcionadas pelas CNAP sãomuito importantes porque através delas se obtém maior dinamismo em mo-delagens das Redes Neurais Artificiais Paraconsistentes.

O algoritmo de aprendizagem completo de uma CNAPa origina umaCélula Neural Artificial Paraconsistente capaz de aprender e desaprender

Page 125: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 2 8

qualquer um dos padrões ou valores no intervalo real fechado [0,1].O algoritmo completo juntamente com o símbolo da célula com estas

características estão apresentados na próxima figura.

ALGORITMO COMPLETO DE APRENDIZAGEM DA CÉLULA NEURAL ARTIFICIAL PARACONSISTENTE - CNAPa

1- Início: µR = 1/2 */Célula virgem */

2 Entre com o Padrão de entrada inicial: µ

r = P

i */ 0≤P≤1 */

3 - Calcule o Grau de certeza inicial G

ci= µ

r -1/2

4 Determine o padrão a ser aprendido pelas condições: Se G

ci= 0 então vá para item 1 (Início)

Se Gci < 0 então vá para o item 6

5 Complemente a entrada do grau de crença: µ

r = 1 - P

i

6 Entre com o fator de aprendizagem FA:

C1 = F

A */ 0≤F

A ≤1 */7- Conecte a saída da célula na entrada do grau de descrença µ

2 = µ

R

8 - Aplique o Operador Complemento na entrada do grau de descrença µ

rc =1 - µ

r */preparando a célula de aprendizagem */

9 Calcule o Grau de crença pela EEB µ

R = {µ

1 - (µ

rc)C

1} ÷ 2

10 Determine o próximo passo pelas condições: Se µ

R = 1 então vá para o item 14

Se µR = 0 então vá para o item 12

Se 0 < µR < 1 então vá para o item 15

11- Faça o complemento na entrada do grau de crença: µ

1 = 1 - C

2

12 Faça a negação lógica na saída: µ

R = 1

13 Troque FA pelo fator de desaprendizagem F

DA :

C1= F

DA

14 Entre com novo padrão de entrada: C

2 = P

n */ 0 P

n 1 */

15- Retorne ao passo 7

Figura 5.7 - Algoritmo de aprendizagem completo e símbolo da CNAPa.

Page 126: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 2 9

A grande vantagem de usar o algoritmo completo é a possibilidade deajustes externos para otimização, proporcionando modelos de redes neuraisparaconsistentes com funcionamento semelhante ao do cérebro humano.

No algoritmo completo da figura 5.7, nota-se que até o item 4, a célulafaz uma análise inicial e detecta qual é o padrão a ser aprendido. Conformeo resultado desta análise inicial a célula se prepara para o aprendizado ou deum padrão de Falsidade ou de um padrão de Verdade.

Nos itens 6, 7 e 8, a célula é preparada para uma aprendizagem utilizan-do o fator de aprendizagem F

A.

Nos itens 9 e 10, ocorre o processo de aprendizagem. No item 10, ascondições determinam se a célula aprendeu, se está num processo de apren-dizagem/desaprendizagem ou se desaprendeu completamente o padrãoaprendido.

Para cada situação, as condições direcionam o processo para obten-ção de novo padrão de entrada com mudança ou não do fator de aprendiza-gem FA pelo fator de desaprendizagem F

DA. Se o desaprendizado total é

confirmado pelo grau de crença resultante da saída nulo, no item 11 é inici-ada a confirmação do desaprendizado, mudando a análise e transformandode uma descrença total para uma crença total à negação lógica do padrãoinicial aprendido.

Este processo de análise é continuado funcionando de modo cíclicopelas ações de retorno do algoritmo.

5.5 - Os Resultados Práticos no Treinamento deuma Célula Neural Artificial Paraconsistente deaprendizagem - CNAPa.

Utilizando padrões com valores binários na entrada e com os fatoresde aprendizagem e desaprendizagem unitários, foi aplicado o algoritmo deaprendizagem e desaprendizagem completo em uma Célula Neural ArtificialParaconsistente de aprendizagem obtendo-se os valores da tabela da figura5.8.

Inicialmente, foram aplicados sucessivamente o valor 1 representan-do o padrão de Verdade na entrada da Célula, até que na saída, o grau decrença resultante chegou ao valor 1 significando que o aprendizado dopadrão de Verdade foi completado.

A seguir, foi aplicado o padrão de Falsidade representado pelo valor0 repetidas vezes, até que a saída da célula apresentou grau de crença zero,indicando que a célula desaprendeu o padrão de Verdade e, ao mesmotempo, considera como novo padrão a negação lógica da verdade, portan-to, o padrão de Falsidade.

O próximo passo do algoritmo é a aplicação dos Operadores NOT e

Page 127: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 3 0

Complemento através do qual é, então, confirmado o aprendizado do pa-drão de falsidade.

Os valores dos graus de crença obtidos da análise paraconsistenteefetuada pelo algoritmo de aprendizagem completo podem ser visualizadosem forma de gráfico na figura 5.9.

Figura 5.8-Tabela resultante da aplicação do algoritmo completo daCNAPa.

Figura 5.9 - Gráfico representando os valores num processo de apren-

Page 128: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 3 1

dizagem e de desaprendizagem da CNAPa.

O gráfico dos resultados da aprendizagem e desaprendizagem da Cé-lula Neural Artificial Paraconsistente mostrado na figura anterior, apresentamonotonicidade nos valores do grau de crença resultante durante um certotrecho, para depois entrar em saturação.

Os resultados gráficos têm as características da função de ativação deNeurônios Artificiais utilizados em Redes Neurais artificiais clássicas. Asfunções de ativação servem para modelar o potencial de ação, que é oprocesso de troca de informações na forma de um pulso de voltagem dosneurônios biológicos.

Nota-se que, a aplicação da equação da análise paraconsistente resul-ta naturalmente em valores similares aos obtidos pela função de ativaçãodo Perceptron [Rosenblatt 62] comprovando que uma rede neuralparaconsistente pode apresentar bons resultados, de uma forma simples eprática.

5.5.1- Representação Simplificada

As Células Neurais Artificiais Paraconsistentes de aprendizagem sãorepresentadas nas interligações das Redes Neurais Paraconsistentes pelasimbologia simplificada apresentada na figura 5.10.

Figura 5.10 - Símbolo simplificado e gráfico característico de saída daCélula Neural Artificial Paraconsistente de aprendizagem CNAPa.

O gráfico acima mostra o comportamento do sinal de saída na aplica-ção de um padrão repetitivo na entrada.

No instante T0a saída é uma indefinição com grau de crença resultante

valendo 1/2. Do instanteT0até o instante T

i acontece na saída um comporta-

mento monotônico, para então, o grau de crença resultante ficar constanteno instante T

2. Do instante T

3 até o instante T

4 ocorreu a aplicação do

Page 129: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 3 2

padrão inverso na entrada e, como conseqüência, o sinal de saída sofreuum decréscimo até zero para, então, no instante t4 acontecer a confirmaçãodo novo padrão aprendido.

5.6- Ensaios da Célula Neural ArtificialParaconsistente de aprendizagem - CNAPa comVariações nos Valores dos Fatores deaprendizagem FA e desaprendizagem FDA

Uma célula de aprendizagem é treinada para aprender padrões de Ver-dade ou de Falsidade pelas equações:

µr(k+1)

= µ1c - (µr (k)

C) FA + 1

2

onde: µ1c = 1- µ1 e µr (k)

C = 1- µr (k)

, sendo: 0≤FA ≤1

para o aprendizado do padrão de Falsidade.

E para a aprendizagem do padrão de Verdade.: µr (k+1) = µ1 - (µr (k)C) F

A+ 1

2

onde: µr (k)C = 1-µr (k) sendo 0≤FA≤1

Quando a célula entra num processo de desaprendizagem a diminui-ção do valor do sinal do grau de crença resultante sinaliza esta condição.Esta diminuição é detectada e é utilizado na equação um fator dedesaprendizado FDA.

Nesta condição de desaprendizagem as equações ficam da seguinteforma:

µr (k+1)

= µ1c – (µ

r (k)C) F

A + 1

2

onde: µ1c = 1- µ1 e µr (k)C = 1-µr (k) , sendo: 0≤FDA ≤1

para o desaprendizado do padrão de Falsidade, e:

µr (k+1)

= µ1 – (µ

r (k)C) F

A + 1

2

onde: µr (k)C = 1- µr (k) sendo 0≤FDA ≤1

Page 130: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 3 3

para aprendizagem do padrão de Verdade. A inclusão de fatores distintos na aprendizagem e na desaprendizagem

dá condições para que uma Célula Neural Artificial Paraconsistente-CNAPpossa aprender com rapidez e esquecer com lentidão o padrão em treina-mento.

Quando os fatores estão ajustados em FA=1 e F

DA=1 dizemos que a

CNAP tem uma capacidade natural de aprendizagem e desaprendizagem.Esta capacidade natural vai aumentando à medida que os ajustes de F

A e de

FDA

se aproximam de 0.Vamos apresentar um estudo do comportamento da célula quando

ocorrem variações no fator de aprendizagem FA.

Os resultados deste ensaio podem ser estendidos para uma variaçãono ajuste do Fator de desaprendizagem F

DA.

O ensaio foi feito com valores significativos que apresentarão o com-portamento da CNAP quando ocorre variação do fator de aprendizado F

A.

Com o objetivo de verificação da influência do fator de aprendizagemnuma CNAP foram calculados os resultados para várias aplicações de pa-drões.

Os resultados do ensaio são apresentados na tabela e no gráfico dafigura 5.11.

Figura 5.11 - Tabela e gráfico dos resultados do ensaio com variaçõesdo fator de aprendizagem F

A.

Quando o valor do Fator de aprendizagem é mínimo FA= 0 (ou quando

FDA

=0) a célula tem a máxima capacidade de aprendizagem (ou

Page 131: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 3 4

desaprendizagem). Nestas condições de ajustes, na primeira aplicação dopadrão, o grau de crença resultante chega ao seu valor máximo 1, em umprocesso de aprendizagem e ao seu valor mínimo 0, quando em processo dedesaprendizagem.

Conforme ficou definido nas condições de sinais para uma Rede NeuralArtificial Paraconsistente, não são admitidos valores acima de 1 para quais-quer ajustes nas Células Neurais Artificiais paraconsistentes, no entantopela equação de aprendizagem verifica-se que, se um valor do fator deaprendizagem fosse F

A=2 provocaria a perda da capacidade de aprendiza-

gem da célula e o valor do grau de crença resultante sempre teria o valor daIndefinição 1/2.

5.7 - Ensaio de uma Célula Neural ArtificialParaconsistente de aprendizagem - CNAPacom aplicações de diversos Padrões comdiferentes Valores.

Uma CNAPa, no processo de treinamento, reconhece, aprende edesaprende padrões que podem ser de dois tipos: padrão de Falsidade epadrão de Verdade.

Quando uma CNAPa é treinada com padrão de Verdade, responde àEquação Estrutural Básica:

µ r = µ

1a - (µ

1bc) F

A + 1

2

onde: µ 1bc

= 1- µ 1B

sendo: 0 ≤FA ≤1.

Depois que a CNAPa é treinada, ao ser aplicado o padrão (µ1A=1, acondição obtida no treinamento considera o valor de (µ1B como sendo omesmo da saída (µr=1.

Se aplicarmos valor diferente de 1, a medida que este valor vai deforma repetitiva se apresentando na entrada a CNAPa vai computando va-lores através da EEB e respondendo com um sinal na saída que,gradativamente vai se igualar ao valor aplicado.

Quando uma CNAPa é treinada com padrão de Falsidade, está apta aresponder à Equação Estrutural Básica EEB:

µr = µ1AC

- ( µ1BC

) FA+ 1

2

onde: µ1AC

= 1- µ1A

sendo: 0≤FA ≤1.

Na CNAPa treinada para detectar padrão de Falsidade, quando na

Page 132: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 3 5

aplicação de valores diferentes de 0, devido ao complemento que o sinal deentrada (µ1A recebe na equação o resultado na saída depois de váriasaplicações será o complemento do sinal aplicado na entrada.

A tabela da figura 5.12 mostra os valores obtidos em duas CNAPa,uma treinada para reconhecer, aprender e desaprender padrão de Falsidadee a outra para padrão de Verdade, com aplicações de valores significativosentre 0 e 1 inclusive.

Figura 5.12 - Tabela com os valores resultantes da aplicação de pa-drões diferentes na Célula de aprendizagem.

Nos cálculos para obtenção dos valores expostos na tabela da figura5.12 foi considerado um fator de aprendizagem F

A igual a 1.

Os valores da tabela demonstram que a Célula Neural ArtificialParaconsistente de aprendizagem CNAPa tem a capacidade de reconhecerpadrões mesmo que os sinais venha impregnados com ruídos.

Page 133: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 3 6

5.8 - CONSIDERAÇÕES FINAIS

Foi visto que, através de um algoritmo que utiliza um processo repetivonas aplicações de padrões, uma CNAPa, pode ser treinada para aprender edesaprender o padrão aprendido.

Nos ensaios utilizando valores significativos ficou demonstrado queas Células Neurais Paraconsistentes de aprendizagem podem aprender edesaprender o reconhecimento de padrões estabelecidos por qualquer va-lor real entre 0 e 1.

A capacidade de aprender, desaprender e guardar padrões são carac-terísticas muito importantes das Células paraconsistentes e ficaram bemdefinidas com os resultados apresentados no ensaio com o algoritmo deaprendizagem. Os valores encontrados comprovam a eficiência das CélulasNeurais Paraconsistentes e as indicam para compor Redes NeuraisParaconsistentes em aplicações concretas e reais.

Os resultados obtidos pelos ensaios foram expostos em gráficos etabelas onde comprovam que a Célula Neural Artificial Paraconsistente temo seu funcionamento muito parecido com o comportamento dos Neurôniosbiológicos, portanto, se mostra uma boa ferramenta para modelagem docérebro humano através de Redes Neurais Artificiais Paraconsistentes.

A característica de saída da CNAPa apresenta uma forte semelhançacom os modelos de neurônio artificial apresentados nos estudos das RedesNeurais Artificiais clássicas com a vantagem de não utilizar equações mate-máticas complexas que possam inviabilizar sua aplicação. Esta característi-ca de saída permite que sejam criadas Unidades Neurais Paraconsistentesinspiradas nos modelos de Neurônios artificiais clássicos [Rosenblatt 62].

5.9 - Exercícios

1- Para que servem as Células Neurais Artificiais Paraconsistentes deaprendizagem?

2- Descreva a configuração fundamental da Célula Neural ArtificialParaconsistente de Aprendizagem CNAPa.

3- Quais são os procedimentos para uma CNAP de aprendizagemaprender um padrão de Falsidade?

4- Descreva os procedimentos para uma CNAP de aprendizagem apren-der um padrão de Verdade.

5- Elabore em linguagem C ( ou em outra linguagem que você domi-

Page 134: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 3 7

na) o programa executável para aprendizagem do padrão de Verdade.6- Elabore em linguagem C ( ou em outra linguagem que você

domina) o programa executável para aprendizagem do padrão deFalsidade.

7- A partir do Algoritmo de aprendizagem completo da CNAPa elabo-re em linguagem C ( ou em outra linguagem que você domina) programaexecutável para aprendizagem e desaprendizagem da Célula.

8- Comente sobre os resultados obtidos pelos ensaios do algoritmode aprendizagem completo da CNAPa.

Page 135: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 3 8

CAPÍTULO 6PARA - PERCEPTRON: NEURÔNIOARTIFICIAL PARACONSISTENTE

Apresentaremos uma Unidade Neural Artificial Paraconsistente UNAPconsiderada, o Neurônio Artificial Paraconsistente que, inspirados noPerceptron de Rosenblatt [Rosenblatt 62] a denominamos de Para-Perceptron. O Neurônio Artificial Paraconsistente (Para-Perceptron) é umaconfiguração de Células Neurais Artificiais Paraconsistentes de vários ti-pos, convenientemente interligadas que, funcionando conjuntamente, apre-senta as características das funções conhecidas do neurônio biológico.Portanto, o Para-Perceptron é uma Unidade Neural totalmente compostapor Células Neurais Artificiais Paraconsistentes CNAP’s com funciona-mento semelhante ao neurônio biológico.

No Estudo do Para-Perceptron típico haverá comparação de cadafunção conhecida do neurônio biológico à sua correspondente função arti-ficialmente produzida pelo Neurônio Artificial Paraconsistente. Com as con-siderações feitas no estudo comparativo do Neurônio biológico com o Para-Perceptron, são dadas algumas sugestões para outras configurações utili-zando as interligações entre as Células Neurais Artificiais Paraconsistentes.

No final deste capítulo, é apresentado um ensaio com um Para-Perceptron típico onde fica demonstrado a sua capacidade de processar eacessar padrões, com valores reais em um intervalo fechado [0,1].

6.1 – Introdução

No capítulo 4, foi apresentada uma família de Células Neurais Artifici-ais Paraconsistentes composta de oito tipos de células distintas que fazemanálises entre valores de graus de crenças com base na Equação EstruturalBásica: µ

r = (µ

1 - µ

2 + 1) :¸ 2, originada da Lógica Paraconsistente Anotada.

As Células Neurais Paraconsistentes utilizam para análise equações sim-

Page 136: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 3 9

ples, sendo de fácil implementação e se mostram eficientes nos processosde treinamento, reconhecimento e memorização de padrões. Em capítulosanteriores, os resultados de ensaios com as células demonstraram a possi-bilidade de sua utilização para modelar o comportamento funcional de par-tes do Neurônio biológico.

O Neurônio Artificial Paraconsistente ou Para-Perceptron é um con-junto composto por várias células que compõem o que chamamos de umaUnidade Neural Artificial Paraconsistente UNAP. A UNAP é uma configu-ração de vários tipos de Células Neurais Artificiais Paraconsistentesconectadas entre si que apresenta um funcionamento global com caracte-rísticas semelhantes às das funções conhecidas do neurônio do cérebrohumano.

Para compor o Para-Perceptron são utilizados cinco tipos de CélulasNeurais Artificiais Paraconsistentes.

1) As Células Neurais Artificiais de Conexão analítica – CNAPCa:No Para-Perceptron, estas células vão promover a função da sinapse

do neurônio biológico.

2) As Células Neurais Artificiais de aprendizagem – CNAPa:Por suas características intrínsecas, no Para-Perceptron estas célu-

las vão promover a função de modelar os princípios espacial e temporaldos estímulos, caracterizados como sendo fenômenos internos que ocor-rem no corpo celular do neurônio biológico.

3) As Células Neurais Artificiais de memorização – CNAPm:Estas células vão guardar os padrões a partir de treinamento efetuados

pelo Para-Perceptron. A função da célula de memorização é similar aoprocesso genético de memorização que ocorre no corpo celular do neurôniobiológico.

4) As Células Neurais Artificiais de conexão lógica simples-CNAPls:Terão a função de controlar o Para-Perceptron, determinando as con-

dições para aprendizagem e comparação de padrões.

5) As Células Neurais Artificiais de conexão lógica seletiva –CNAPlse:

Estas células terão a função de controlar a saída do Para-Perceptron,possibilitando a extração do padrão aprendido pela célula de aprendizagem.A função básica das células de conexão lógica simples e seletiva é repre-sentar o processo ainda não totalmente conhecido de como o neurôniobiológico acessa e controla o fluxo de informações armazenadas.

Todas estas Células Neurais Artificiais Paraconsistentes, interliga-

Page 137: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 4 0

das, com estas características, vão compor o Para-Perceptron que é umaUnidade Neural Artificial Paraconsistente que trabalha com equações sim-ples e estruturadas na Lógica Paraconsistente Anotada com capacidade deobter um comportamento funcional muito próximo ao do neurônio biológi-co.

6.2 – O Neurônio Biológico

O cérebro humano é um emaranhado de conexões entre prolongamen-tos de células nervosas chamadas neurônios. Estima-se que o cérebro hu-mano, com seus aproximadamente 1,35 kg tenham por volta de 100 bilhõesde neurônios.

Figura 6.1- O cérebro humano e neurônios.

Esta extensa e intricada rede de células existente no cérebro é tãocomplexa que ainda não é bem entendida mas, de uma maneira simplificada,pode-se afirmar que o cérebro humano é formado, basicamente de conjun-tos de células que manipulam e processam informações.

As células nervosas que existem no cérebro, além da sua função bio-lógica normal, possuem propriedades que as capacitam a processar e trans-mitir informações.

Para estas funções mentais existem neurônios de vários tipos, noentanto um neurônio típico pode ser estudado dividido em três partes prin-cipais:

a A árvore dendrital formada por dendritos que são prolongamentos

Page 138: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 4 1

filamentares cuja finalidade é fazer a recepção dos sinais de informaçõespara as células;

b) O corpo celular ou soma onde estão situados o núcleo celular e ocitoplasma cuja função é reunir informações recebidas pelos dendritos;

c) O axônio, que é uma projeção filamentar de diâmetro relativamenteuniforme, e pode se apresentar com diversos comprimentos.

A figura 6.2 mostra o esquemático de um neurônio biológico típico.

Figura 6.2- Representação esquemática do neurônio biológico típico.

No cérebro humano há uma complexa rede composta de bilhões deneurônios interconectados. As informações passam de um neurônio paraoutro de modo que cada um interage com dez mil outros.

Entre os neurônios, as informações são transmitidas de axônios paraos dendritos, portanto, os axônios são os agentes transmissores e osdendritos são os receptores. O contato para a passagem de informaçãoentre os axônios e os dendritos é devido às estruturas chamadas deSinapses, regiões com atividades eletroquímicas capazes de fazer a cone-xão para transmissão das informações.

A grosso modo, a Sinapse pode ser dividida em duas partes separa-das por uma região chamada fenda sináptica. A parte anterior é compostapela membrana do axônio pelo qual chega o sinal de informação (pré-sináptica), na forma de um pulso elétrico e uma parte posterior que é com-posta pela membrana do dendrito (pós-sináptica) que receberá a informa-ção.

A informação chegando na forma de um impulso elétrico na membrana

Page 139: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 4 2

pré-sináptica faz com que apareçam vesículas com mediadores químicoschamados de neurotransmissores.

Os neurotransmissores, alterando os seus formatos tridimensional,difundem-se através da fenda sináptica e agem nos canais químicos recep-tores da membrana pós-sináptica iniciando uma série de eventos para aocorrência da conexão.

A figura 6.3 mostra o esquemático de uma Sinapse no qual, através dafenda sináptica, os neurotransmissores alcançam a membrana dendrital pós-sináptica ocorrendo uma alteração na sua polarização elétrica.

Figura 6.3 – Representação esquemática da sinapse de conexão paratransmissão e recepção de informações na forma de impulso elétrico entredois neurônios biológicos.

O neurônio biológico recebe e envia informações através de conexõessinápticas que ligam a árvore dendrital aos axônios que trazem informaçõesde outras células. A Sinapse propaga as informações em uma única direçãoque, dependendo do tipo de neurotransmissores pode facilitar (sinapseexcitatória) ou inibir (sinapse inibitória) a formação de um potencial deação no axônio do neurônio receptor.

O potencial de ação é o responsável pelo envio de informação entreos neurônios na forma de um impulso elétrico.

Para gerar o chamado potencial de ação na membrana axonal osneurônios possuem propriedades físicas e eletroquímicas que criam adepolarização ou a hiperpolarização impostas pelos potenciais pré-sinápticos em cada Sinapse. Os potenciais de ação, trazidos por cada Sinapse,têm magnitudes diferentes porque são influenciados pelo tamanho daSinapse e pela quantidade de neurotransmissores liberados por cadaSinapse.

O potencial de ação gerado no neurônio também depende do tipo de

Page 140: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 4 3

Sinapse recebida, que pode ser excitatória no caso da depolarização ouinibitória no caso da hiperpolarização.

Quando a membrana sofre uma depolarização suficiente acentuadapara cruzar um certo limiar de disparo é gerado o impulso elétrico.

A figura 6.4 mostra a forma de onda de um potencial de ação, que éum pulso gerado no axônio de um neurônio típico, onde a duração varia demicro a um milesegundo.

Figura 6.4- Forma de onda do potencial de ação gerado no axônio deum neurônio típico.

No estudo do neurônio biológico são considerados dois princípiosbásicos:

1 - O princípio da integração espacial dos estímulos, onde a respos-ta do neurônio depende da totalidade dos estímulos excitatórios e inibitóri-os que a ele chegam através dos dendritos.

2 - O princípio da integração temporal dos estímulos, que é o efeitodas membranas na região de cada Sinapse resultante no fenômeno dearmazenamento de carga. O armazenamento ocorre pela existência dacapacitância C da membrana pós-sináptica. A capacitância dá a esta região,as características de um capacitor que armazena cargas elétricas sempreque a Sinapse é ativada por um impulso elétrico.

No complexo processo eletroquímico que ocorre no interior do neurôniosabe-se que, quando os neurotransmissores se ligam aos receptores, pro-vocam condições para que haja troca de cargas elétricas, assim ativando nonúcleo celular partes dos genes. Os genes que são estruturas celulares quecomandam a produção de proteínas no corpo celular, ao serem ativadosmelhoram a recepção dos sinais de informação.

Dependendo do processo eletroquímico que influencia os genes, a

Page 141: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 4 4

absorção das informações pode variar, reforçando ou enfraquecendo a re-cepção. Este processo eletroquímico de variação na recepção de informa-ções que ocorre no núcleo celular ainda não é completamente entendido,mas por seus efeitos, é considerado como uma memorização do neurônio.

As características funcionais que modelam os dois princípios e ou-tros efeitos, como o de memorização, são determinadas pelas propriedadesfísico-químicas de cada célula, portanto, cada neurônio apresentando dis-tinção em suas membranas, Sinapses e neurotransmissores também vaiapresentar características próprias e particulares.

Estes processos distintos e particulares de cada célula dificultam aobtenção de um modelo funcional completo que possa determinar as carac-terísticas computacionais de um neurônio.

6.3 - O Neurônio Artificial

Os primeiros modelos de neurônios artificiais surgiram em 1943 e com-paravam as atividades eletroquímicas do neurônio biológico semelhantes afunções booleanas que tratam sinais binários.

O primeiro modelo de neurônio artificial é conhecido como ThresholdLogic Unit (TLU) e foi originalmente proposto por McCulloch e Pitts[McCulloch 43].

A figura 6.5 mostra o TLU proposto onde vários sinais binários re-presentando os potenciais de ação (action-potentials) aparecem nas uni-dades de entrada (Sinapses).

Um peso diferenciado Wi, que indica a força da sinapse, é multiplicadopelo sinal binário em cada entrada. Os resultados das multiplicações sãoentão somados para produzir um valor de ativação. Se o valor de ativaçãoa ultrapassar um certo limiar q é produzida uma resposta Y na saída.

n

Sendo: a = W1 X

1 + W

2 X

2 + ... + W

n X

n ou: a= å W

i X

i

i=1O TLU pode ser utilizado como um discriminador linear de padrões e o

seu modelo binário permitia que se tratasse o funcionamento do cérebrosemelhante ao de um computador, que é estruturado na lógica clássica oubinária. Baseados nesta idéia muitos modelos foram desenvolvidos, no

Page 142: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 4 5

entanto, devido aos baixos resultados computacionais, as pesquisas utili-zando o modelo do neurônio artificial binário TLU foram interrompidas.

De um aperfeiçoamento do TLU, foi introduzido por Rosenblatt ummodelo de rede neural denominado de Perceptron[Rosenblatt 62].

O Perceptron se apresentava como uma rede de múltiplos neurôniosdo tipo discriminador linear TLU, que recebiam sinais de unidades de entra-da. As Unidades de entrada faziam um pré-processamento nos sinais utili-zando funções booleanas.

A figura 6.6 mostra uma representação típica do Perceptron.

Figura 6.6 –Representação de um Perceptron.

Devido às dificuldades apresentadas por esse modelo inicial para pro-cessar certas funções, o Perceptron foi aperfeiçoado, transformando-se emrede de múltiplas camadas.

O Perceptron passou a ser configurado utilizando os neurônios dis-postos em várias camadas onde os sinais têm um único fluxo, sendodirecionados das camadas de entrada para as camadas de saída.

As camadas de entrada, que se constituem de neurônios que rece-bem os primeiros sinais, são ligadas as camadas intermediárias ou camadasocultas.

As camadas ocultas recebem os sinais das camadas de entrada, ana-lisa-os e direciona-os para as camadas de saída.

As redes em múltiplas camadas inovaram o modelo anterior porquetrouxeram a possibilidade de serem treinadas através de um algoritmo. Asvariáveis de entrada podem assumir qualquer valor real e a saída foi aproxi-mada ao modelo do neurônio biológico por uma função denominada de

Page 143: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 4 6

função de ativação g(s).Nos modelos de Neurônio Artificial, utilizados atualmente em Redes

Neurais Artificiais [Siebert 68], geralmente são utilizadas como função deativação a função degrau ou as sigmóides: positiva e simétrica. Esta últimapreserva a monotonicidade numa região denominada de faixa dinâmica,ocorrendo a saturação fora desta faixa.

A figura 6.7 mostra a representação de uma rede de múltiplas camadascom as saídas dos neurônios controladas pela função de ativação g(s).

Figura 6.7 – Configuração típica de um Perceptron de multicamadas.

As entradas X1, X

2, ..., e X

n e os pesos das conexões W

i1, W

i2, ..., e W

in

são valores reais, tanto positivos como negativos. Quando as entradastrazem características de disparar o neurônio o seu respectivo peso é posi-tivo. Se a característica for para inibir o disparo, então o peso será negativo.

O processo de treinamento da rede para o reconhecimento de padrõesé obtido pela variação dos valores dos pesos das conexões e dos limites.

Existem vários algoritmos para o aprendizado de redes de Perceptron,inclusive utilizando o processo de aprendizado condicionado hebbiano.Apesar de tudo, as dificuldades que apresentam as Redes Neurais Clássi-cas para aprender e classificar padrões num processo simples e funcionalque possa ser aplicado em sistemas reais são muitas.

Entre elas, podemos citar a impossibilidade de controle dos pesos nascamadas ocultas, a quantidade de interações que são necessárias para seencontrar os pontos de otimização da aprendizagem e a grande quantidadede memória para armazenagem dos diferentes valores dos pesos das cone-xões.

6.4 - O Neurônio Artificial Paraconsistente Para- Perceptron.

Para compor o Para-Perceptron são utilizados cinco tipos diferentes

Page 144: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 4 7

de CNAP’s.A primeira CNAP é a Célula de Conexão analítica que faz a conexão

dos sinais de entrada, equacionando-os através da EEB.No Para-Perceptron a Célula de conexão analítica pode ser considera-

da como promotora da função da sinapse do neurônio biológico.A figura 6.8 mostra o símbolo simplificado da CNAP de conexão ana-

lítica e o resumo da sua função por meio do seu algoritmo.

Figura 6.8 - Símbolo simplificado da CNAP de conexão analítica ealgoritmo.

O segundo tipo de CNAP utilizada no Para-Perceptron é a Célula deaprendizagem que, por suas características intrínsecas, vai promover afunção de modelar os princípios espacial e temporal dos estímulos. Estesdois princípios foram caracterizados como sendo fenômenos eletroquímicosinternos que ocorrem no corpo celular do neurônio biológico.

Esta célula recebe o grau de crença resultante da análise feita pelacélula de conexão analítica e estabelece um processo de integração, partin-do de uma indefinição de valor 1/2.

Na ocorrência do processo integrativo, o resultado pode ser crescen-

Page 145: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 4 8

te até um valor máximo 1 quando então considera-se a célula completamen-te treinada, significando que aprendeu um padrão.

O resultado pode partir de 1/2 e diminuir até um valor mínimo 0. Nestacondição de decréscimo do valor da saída considera-se que a célula estásendo destreinada, portanto quando o resultado é 0 a célula desaprendeutotalmente o padrão.

O resultado do valor de saída chegando a 0, após um processo deaprendizagem, significa que a célula além de desaprender o padrão, estálogicamente negando-o. Para confirmar a negação lógica, a saída da célulaé levada ao valor 1. Nestas condições, internamente, são feitas modifica-ções para que a mesma se adapte as novas situações de aprendizagem.

A figura 6.9 mostra a célula de aprendizagem e o seu algoritmo deaprendizagem completo, onde a célula pode aprender e desaprender numprocesso de análise com amostragem discreta do valor aplicado na entrada.

Figura 6.9 - Símbolo simplificado da CNAP de conexão analítica ealgoritmo.

Page 146: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 4 9

O terceiro tipo de célula utilizada no Para-Perceptron é a Célula dememorização que tem a função de guardar padrões a partir do treinamento.

Esta célula tem função similar ao processo genético de memorizaçãoque ocorre no corpo celular do neurônio biológico.

Na figura 6.10 é apresentado o símbolo da célula de memorização como seu algoritmo representativo.

Figura 6.10 – Símbolos e algoritmos das células de memorização depadrões.

As células de memorização são criadas dependentes do valor do fatorde memorização m que varia positivamente de 0 a 1. Quando o valor do fatorde memorização m for máximo, isto é m=1, a célula memorizou um dos pa-drões, que pode ser de falsidade ou de verdade. O Padrão memorizado podeser ativado através da aplicação de valor m

1 =1 na entrada da célula.

O quarto tipo de célula utilizado no Para-Perceptron é a Célula deconexão lógica simples. Esta Célula tem a função de controlar o Para-Perceptron, determinando várias condições de funcionamento.

A Célula de conexão lógica simples direciona sinais possibilitando oPara-Perceptron ficar em estado de aprendizado, ou de comparação de

Page 147: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 5 0

padrões; ou então, inativo com saídas indefinidas possibilitando a consul-ta nas suas células de memorização.

A Célula de conexão lógica simples representa o processo ainda nãototalmente conhecido de como o neurônio biológico acesa e controla ofluxo de informações armazenadas.

A figura 6.11 mostra a célula de conexão lógica com seu algoritmorepresentativo.

Figura 6.11 - Símbolos e algoritmos das Célula Neurais ArtificiaisParaconsistentes de conexão lógica simples.

A Célula Neural Artificial Paraconsistente de Conexão seletiva temduas entradas e duas saídas. Faz as funções lógicas de maximização ou deminimização selecionando um dos sinais para ser conectado à sua respecti-va saída e impondo um valor 1/2 ao outro. Em uma célula de maximização,quando os dois sinais são aplicados, o sinal de maior valor tem a sua passa-gem livre e aparece na sua respectiva saída o sinal de menor valor ficaindefinido.

Page 148: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 5 1

Quando a célula tem a função de minimização, o sinal de menor valortem passagem livre pela célula e o sinal de maior valor fica com a sua corres-pondente saída apresentando indefinição 1/2.

Na igualdade dos valores de sinais aplicados nas entradas, o sinalaplicado à direita da célula prevalece sobre o da esquerda.

A figura 6.12 mostra o algoritmo e o símbolo da Célula de conexãológica seletiva.

Figura 6.12 - Símbolos e algoritmos das Célula Neurais ArtificiaisParaconsistentes de conexão lógica seletiva.

As células com os seus respectivos símbolos e algoritmos apresen-tam, cada uma, determinada função que vão representar partes funcionaisdo neurônio biológico. Para modelar o Neurônio biológico, os cinco tiposde células serão interligadas onde desenvolverão, de forma emergente, fun-ções distintas, que, analisadas de modo global concretizam artificialmenteas funções do neurônio.

Para criar o Para-Perceptron cada uma das células vai representardeterminadas partes funcionais do neurônio.

Page 149: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 5 2

Inicialmente, para uma comparação de maneira simplificada com oneurônio biológico, é feita a ligação entre uma célula de conexão analítica euma célula de aprendizagem, conforme mostra a figura 6.13.

Figura 6.13 – Célula de conexão analítica interligada a uma célula deaprendizagem em comparação a um neurônio biológico.

Primeiramente célula C1 recebe os dois sinais de graus de crença que

são analisados pela EEB equacionando-os e determinando um grau de cren-ça resultante. A célula C

2 de aprendizagem capta o grau de crença resultan-

te da saída da célula C1 e o considera como padrão inicial para aplicar o

algoritmo de aprendizagem. Aplicando o algoritmo de aprendizagem, a saí-da da célula C

2 só vai apresentar grau de crença máximo se houver coinci-

dências nos graus de crenças aplicados nas entradas da célula de conexãoanalítica C

1.

Quando os valores aplicados nas entradas são diferentes, estas dife-renças são computadas pela EEB da célula de conexão analítica e transmiti-das para a célula de aprendizagem C

2, onde os valores são ponderados

conforme o algoritmo de aprendizagem.O modelo apresentado na figura 6.13 é aperfeiçoado pela inclusão da

célula de memorização de padrões conforme mostra a figura 6.14. À medidaque o processo de aplicação de padrões iguais nas entradas da célula deconexão analítica é iniciado, a célula de aprendizagem vai recebendo valo-res iguais e, em seqüência, vai entrando num processo de aprendizagem.Quando o processo de aprendizagem vai se desenrolando, ocorre o acrésci-mo gradativo no grau de crença resultante da saída. Este valor de saída é

Page 150: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 5 3

utilizado como fator de memorização m para uma célula de memorização queé criada, automaticamente, no início do processo quando a célula de apren-dizagem detecta o padrão a ser aprendido.

Portanto, novas funções são acrescentadas quando ao neurônio arti-ficial é acrescentada uma célula de memorização permitindo memorizar eextrair o valor aprendido.

Figura 6.14 – Aperfeiçoamento do neurônio artificial com a inclusãoda célula de memorização de padrões.

Vários procedimentos podem ser acrescentados na configuração an-terior para seu aperfeiçoamento. O padrão armazenado na célula dememorização de padrões pode ser extraído pela aplicação do sinal de ativa-ção a=1.

Quando a célula de aprendizagem, sendo preparada para aprender umpadrão de verdade ou de falsidade, detecta qual é o padrão a ser aprendidoé definido qual tipo de célula de memorização será criado para compor o paraprendizagem/memorização do neurônio artificial. Isto estabelece duas sa-ídas de valores sempre iguais; uma para o grau de crença resultante, que éo valor aprendido, e outra, que é o grau de crença memorizado.

As células de conexão lógica simples e seletiva são incluídas na con-figuração com a função de controlar os sinais analisados. Várias configura-ções podem ser obtidas para obtenção de um neurônio artificial capaz demodelar o neurônio biológico.

Com a inclusão de apenas uma Célula de conexão seletiva, podemos

Page 151: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 5 4

compor uma Unidade Neural Artificial Paraconsistente denominada de Para-Perceptron.

O Para-Perceptron com uma célula de conexão lógica seletiva paracontrole dos valores dos sinais na saída é mostrada na figura 6.15.

Figura 6.15 –Neurônio Artificial Paraconsistente: Para-Perceptron,com controle nos sinais de saída.

O sinal Cons permite uma consulta ao valor do padrão armazenado noPara-Perceptron. Quando o sinal Cons é igual a 1, a saída do padrão arma-zenado é levado obrigatoriamente pela célula de conexão lógica seletiva C

4

para a Indefinição apresentando valor 1/2. O sinal de saída do lado direitoda célula de conexão lógica seletiva C

4, que nestas condições tem valor 1, é

utilizado para ativar a célula de memorização C3 e o valor do padrão memo-

rizado é extraído do Para-Perceptron.Nesta configuração, quando o sinal Cons for igual a 1, será guardado

o valor do sinal de memorização m para que, ao término da consulta, o Para-Perceptron volte às condições anteriores.

A partir da configuração anterior, o Para-Perceptron pode ser modi-ficado para ter dois sinais de controle independentes. Um dos controles é o

Page 152: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 5 5

sinal Cons que, ao fazer a consulta, extrai o padrão armazenado e indefine aunidade para análises posteriores, inibindo a saída do padrão aprendido. Ooutro sinal de controle é o Contr que, quando ativo ( Contr =1), obriga aapresentação na saída do valor do padrão armazenado na célula dememorização.

A figura 6.16 mostra esta configuração, onde é incluída uma célula deconexão lógica simples que faz a maximização.

Figura 6.16 – Para-Perceptron com duas saídas e dois sinais de con-trole.

Considerando que, em uma Rede Neural Artificial ParaconsistenteRNAP, vários Para-perceptrons serão interligados em camadas de diferen-tes configurações, o sinal Contr pode ser utilizado, por exemplo, para infor-mar ao neurônio instalado no início da rede que todas as células, isto é,toda a rede aprendeu o padrão.

Esta informação é obtida considerando o sinal Contr como uma reali-mentação da saída, na forma do valor do grau de crença resultante. Quandoo grau de crença resultante do final da rede estiver com valor 1, o sinal decontrole Contr será igual a 1, e como conseqüência, o padrão que estásendo aplicado na entrada do neurônio estará aparecendo em sua plenitude

Page 153: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 5 6

na saída do padrão armazenado.

6.5 - Modelos de Para-Perceptrons

As interligações entre Células Neurais Artificiais Paraconsistentespermitem a construção de vários modelos de Para-Perceptrons com carac-terísticas próprias que procuram um funcionamento aproximado ao doneurônio biológico.

Uma configuração que traz características físicas e funções mais apro-ximadas do Para-Perceptron com as de um neurônio biológico é quandoconsidera-se uma única saída de valores. Este modelo é obtido com a inclu-são na configuração anterior, de duas células de conexão lógica simples,uma que faz maximização e a outra que faz a minimização. A inclusão destasduas células possibilita um único direcionamento no sinal de saída, confor-me mostra a figura 6.17.

Page 154: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 5 7

Figura 6.17 – Para-Perceptron com uma única saída de valores.

A possibilidade de uma única saída é interessante para o projeto deuma Rede Neural Artificial Paraconsistente RNAP, na qual o sinal Cons tema função de permitir que apenas os valores de sinais que foram memoriza-dos possam ser utilizados para análises posteriores, inibindo qualquer sinalque esteja sendo aprendido. Esta análise pode ser extrapolada para ummodelo em que é feita a comparação de funcionamento entre um neurôniobiológico com vários dendritos receptores de informações. Neste aperfei-çoamento várias células de conexão analítica interligadas aumentam o nú-mero de sinais de graus de crença aplicados, para serem analisados e apren-didos. A figura 6.18 mostra uma sugestão de um modelo expandido, possi-bilitando oito valores de entrada.

Figura 6.18 - Modelo de um Para-Perceptron com expansão de entra-das para aplicação de oito valores de sinais para análise.

Para expandir o número de entradas, são interligadas células de cone-xão analítica que vão equacionando pares de valores de graus de crença até

Page 155: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 5 8

a análise chegar a entrada da célula de aprendizagem. Números pares ouímpares de entradas podem ser facilmente configurados, modificando ligei-ramente as ligações entre as células de conexão analíticas.

6.6 - Ensaio de um Para-Perceptron típico

Utilizando valores significativos apresentaremos um ensaio basea-do em uma configuração de um Para-Perceptron típico. A configuraçãoconsiste em uma célula de conexão analítica interligada a uma célula deaprendizagem que constituem o núcleo dos diferentes modelos apresenta-dos. A figura 6.19 apresenta o modelo de Para-Perceptron típico utilizadono ensaio.

Page 156: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 5 9

Figura 6.19 – Para-Perceptron típico utilizado no ensaio.

Por facilidade, foram considerados como valores de entrada sinais devalores discretos de 0, 0.25, 0.5, 0.75 e 1. Estes valores foram escolhidos porserem significativos para este tipo de ensaio. Os resultados encontrados,utilizando estes valores e esta configuração simples, podem ser facilmenteextrapolados para considerações conclusivas quando se deseja construirconfigurações de Para-Perceptrons de maior complexidade.

A tabela da figura 6.20 mostra os valores aplicados nas entradas e osresultados obtidos no ensaio.

Figura 6.20 - Tabela com resultados do ensaio em um Para-Perceptrontípico.

Na primeira linha da tabela, os valores tendem à unidade. Isto aconte-ce porque, inicialmente, a célula de aprendizagem captou o padrão de Fal-sidade como o padrão a ser aprendido.

Verifica-se na última coluna, que os resultados finais são os valoresde saída da célula de conexão analítica, obtidos através da aplicação da EEBnos sinais de entrada.

6.7 - Considerações Finais

As Células Neurais Artificiais Paraconsistentes possuem característi-cas de funcionamento distintas e, quando convenientemente configura-das, permitem a construção de vários diferentes tipos de Unidades Neurais

Page 157: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 6 0

Artificiais Paraconsistentes que denominamos de Para-Perceptrons.O Para-Perceptron é um conjunto de células interligadas que apre-

senta funcionamento e características inspiradas no neurônio biológico,sendo considerado um Neurônio Artificial Paraconsistente.

Com diversas configurações das células, o Neurônio ArtificialParaconsistente (Para-Perceptron) pode ser aperfeiçoado de várias for-mas e adiquirir características funcionais próximas às apresentadas peloneurônio biológico.

O Para-Perceptron é projetado exclusivamente com Células NeuraisArtificiais Paraconsistentes e tem capacidade de receber n sinais analógicosde valores reais positivos entre 0 e 1, analisá-los através da EEB e propor-cionar resultados com valores sempre dentro do intervalo real fechado [0,1].

O Para-Perceptron possui também a capacidade de aprender, memo-rizar e desaprender padrões. Neste processo, a rapidez de aprendizagem edesaprendizagem pode ser ajustada, portanto o procedimento de aprendi-zado/memorização pode ser feito de forma lenta ou rápida controlada porvalores externos representados por fatores de aprendizagem F

A e

desaprendizagem FDA

. O modelo do Para-Perceptron apresentado nestecapítulo permite a memorização dos padrões aprendidos e oferece possibi-lidades de consultas a estes padrões armazenados por fontes externas.

Os resultados do ensaio apresentados e as sugestões de várias con-figurações viabilizam implementações de projetos dos modelos do neurôniobiológico completos que irão compor Redes Neurais ArtificiaisParaconsistentes (RNAP) para aplicações diversas em Robótica e Inteli-gência Artificial.

Neste capítulo apenas apresentamos o modelo do Para-Perceptrontípico e algumas variações da configuração que vão permitir projetos paraaplicações práticas e diretas. As aplicações do Para-Perceptron como com-ponente principal de Redes Neurais serão estudadas nos próximos capítu-los.

6.8- Exercícios

1- Descreva em que consiste o Neurônio Artificial ParaconsistentePara-Perceptron.

2- Explique quais são as funções de cada CNAP’s que compõem oPara-Perceptron.

3- Quais são as três partes principais do Neurônio Biológico?

4- O que é Sinapse ?

Page 158: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 6 1

5- Como são transmitidas as informações no cérebro humano?6- O que significa potencial de ação ?

7- Explique os significados dos princípios da integração espacial etemporal dos estímulos em um neurônio biológico.

8- Descreva o funcionamento básico do Threshold Logic Unit (TLU).

9- Descreva o funcionamento básico do Perceptron.

10- Explique a finalidade da função de ativação g(s) em um Perceptron.

11- No Para-Perceptron, qual é a CNAP que tem a função considera-da promotora da Sinapse do neurônio biológico?

12- Descreva o funcionamento de um Para-Perceptron típico. Com-pare as funções de cada CNAP utilizada no Para-Perceptron com as fun-ções do neurônio biológico.

13- Faça o esquema e descreva o funcionamento do modelo de umPara-Perceptron com duas saídas e dois sinais de controle.

14- Faça o esquema e descreva o funcionamento do modelo de umPara-Perceptron com uma única saída de valores.

15- Faça o esquema e descreva o funcionamento do modelo de umPara-Perceptron com expansão de entradas para aplicação de oito valoresde sinais para análise.

15- Elabore em linguagem de programação C ( ou em outra linguagemde programação que você domine) o programa executável de um Para-Perceptron típico.

16 - Elabore em linguagem de programação C ( ou em outralinguagem que você domine) o programa executável de um Para-Perceptron com expansão de entradas para aplicação de oito valores desinais para análise.

Page 159: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 6 2

CAPÍTULO 7AS UNIDADES NEURAIS ARTIFICIAIS

PARACONSISTENTES

As Unidades Neurais Artificiais Paraconsistentes UNAP’s, assim comoo Para-Perceptron, são aglomerados de Células Neurais ArtificiaisParaconsistentes devidamente interligadas formando blocos com configu-rações distintas e com funções definidas.

Há vários tipos de UNAP’s, de forma que cada um tem as suas célulascomponentes conectadas com condições de tratar e equacionar sinais deinformações por meio de análises baseadas nos conceitos estruturais daLógica Paraconsistente Anotada. Com as interligações das células serãoconfiguradas diferentes tipos de UNAP’s que têm funções distintas, comoconexão, aprendizado, memorização, competição e seleção, sempre fazendoo tratamento dos sinais representativos de graus de crenças, através daanálise paraconsistente com base na Equação Estrutural Básica (EEB).

As Unidades Neurais Artificiais Paraconsistentes apresentadas nes-te capítulo juntamente com o Para-Perceptron serão os componentes bási-cos utilizados para construção da Rede Neural Artificial ParaconsistenteRNAP.

Na Rede Neural Artificial Paraconsistente, as UNAP’s serãoconectadas para formar diversos sistemas de análises com capacidade deefetuar processamento de sinais semelhante a determinadas funções men-tais do cérebro.

7.1 - Introdução

Os procedimentos para se fazer análises entre valores de graus decrenças baseados na Lógica Paraconsistente Anotada mostram que as Cé-lulas Neurais Artificiais Paraconsistentes têm um comportamento funcional

Page 160: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 6 3

similar aos modelos clássicos de Neurônios biológicos, como os utilizadosem Redes Neurais Artificiais.

Podemos definir uma UNAP como pequenos aglomerados de CélulasNeurais Artificiais Paraconsistentes que analisam e modelam sinais elétri-cos ou valores lógico inspirados no comportamento dos neurônios bioló-gicos. Estas unidades básicas interligadas entre si vão estruturar e dar asustentação aos projetos das Redes Neurais Artificiais Paraconsistentes.Portanto, a Rede Neural Artificial Paraconsistente será elaborada exclusiva-mente com Células construídas a partir dos conceitos teóricos estruturaisda Lógica Paraconsistente Anotada de anotação com dois valores LPA2vestudada no capítulo2 .

Uma Rede Neural Artificial Paraconsistente, exatamente como as re-des neurais artificiais tradicionais, é modelada para ser capaz de processarsinais, inspirada no funcionamento do cérebro humano.

A Célula Neural Artificial Paraconsistente CNAP quando ativada atra-vés de um algoritmo de aprendizagem apresenta como resposta, sinais decaracterísticas idênticas às funções sigmóides positiva e simétrica, utiliza-das no Neurônio Artificial Perceptron.

As CNAP’s, além de serem mais simples, têm a vantagem de proporci-onar condições de ajustes externos através de variação dos fatores de apren-dizagem F

A e de desaprendizagem F

DA. A possibilidade da variação destes

ajustes capacita a célula a dar respostas diferentes com mudança das suascaracterísticas funcionais, como velocidade de resposta e variação da for-ma de onda, desde uma função degrau, até uma função monotônica, com ousem simetria.

7.2 - As Células Componentes

As interligações entre as células componentes da família de CélulasNeurais Artificiais Paraconsistentes vão criar módulos de análisesparaconsistentes denominados de Unidades Neurais ArtificiaisParaconsistentes UNAP.

As Células Neurais Artificiais Paraconsistentes de diferentes tipos,configurando as Unidades Neurais Artificiais Paraconsistentes (UNAP),definem uma função específica e particular a cada módulo. Portanto, asUNAP’s são representadas como blocos de funções NeuraisParaconsistentes básicas que, convenientemente interligados, vão consti-tuir Redes Neurais Paraconsistentes que têm como objetivo principal omodelamento do processo do tratamento de sinais que acontece no funcio-namento do cérebro.

Será apresentado um resumo da função para cada célula componenteda família de Células Neurais Artificiais Paraconsistentes, juntamente com a

Page 161: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 6 4

apresentação do seus símbolos simplificados. Neste resumo, as suas prin-cipais características de resposta com todas as informações são suficientespara o entendimento funcional das Unidades Neurais ArtificiaisParaconsistentes que serão construídas.

Conforme foi visto, a família de Células Neurais ArtificiaisParaconsistentes é composta basicamente de oito tipos de células que sãodescritos a seguir:

7.2.1 - Célula Neural ArtificialParaconsistente de decisão

Figura 7.1 - Símbolo e equações da célula de decisão.

A Célula Neural Artificial Paraconsistente de decisão é geralmenteutilizada para dar uma definição final à análise paraconsistente. Esta Célulafaz a análise paraconsistente encontrando, através da Equação EstruturalBásica (EEB), qual é o valor do grau de crença resultante atribuído à Propo-sição.

A Proposição vem representada pelo par ordenado (µ1, µ2), grau decrença e grau de descrença, respectivamente. Um grau de crença resultantede valor 1/2 significa que a análise result0ou em uma indefinição. Aindefinição é ocasionada por um grau de Certeza de valor baixo, calculadopela EEB.

O fator de tolerância à decisão FTD

é ajustado externamente para deter-minar os limites: máximo e mínimo para a análise ser considerada indefinida.

As células de decisão podem sofrer variações na sua forma básicacomo as apresentadas a seguir:

Page 162: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 6 5

Figura 7.2 - Célula de decisão com entrada do grau de descrençacomplementada.

Na Lógica Paraconsistente Anotada, um grau de crença pode ser con-siderado como um complemento à unidade de um grau de descrença. Por-tanto, a Célula de decisão com entrada do grau de descrença complementada,possibilita que toda a análise paraconsistente seja feita apenas com valoresde graus de crença.

7.2.2 - Célula Neural Artificial Paraconsistente deconexão analítica

Figura 7.3 - Símbolo e equações da célula de conexão analítica.

A Célula Neural Artificial Paraconsistente de Conexão analítica tem afunção de associar células à Rede Neural possibilitando o processamentode informações de modo paralelo e distribuído. As interligações entre asCélulas de conexão são feitas de acordo com a finalidade específica de cadaregião da Rede. Por exemplo: as células se conectam formando UnidadesNeurais Paraconsistentes para que certa região da rede tenha uma funçãoanalítica definida.

Page 163: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 6 6

As Células de conexão têm o seu funcionamento otimizado através deajustes dos valores dos fatores de tolerância à Certeza e à Contradição.

7.2.3 - Célula Neural Artificial Paraconsistente deconexão lógica simples.

Esta célula tem a função de estabelecer conectivos lógicos entre si-nais representativos de graus de crença. As principais células de conexãológica são as que fazem os conectivos OR de maximização e AND deminimização. A figura 7.4 apresenta o símbolo e as equações de uma célulade maximização.

Figura 7.4 - Símbolo e equações da célula de conexão lógica sim-ples para um processo de maximização.

A próxima figura apresenta o símbolo e as equações da Célula deconexão lógica simples que faz o processo de minimização.

Figura 7.5 - Símbolo e equações da célula de conexão lógica simplespara um processo de minimização.

As duas células de conexão lógica simples têm suas saídas totalmente

Page 164: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 6 7

dependentes da análise efetuada através da EEB.

7.2.4 - Célula Neural Artificial Paraconsistente deconexão lógica seletiva.

Esta célula faz as funções de conexão lógica de maximização ou deminimização selecionando um dos sinais de entrada.

A CNAPClse tem duas entradas e duas saídas onde cada saídacorresponde ao seu respectivo sinal de entrada. Na sua ação o sinal seleci-onado é conectado à sua respectiva saída e saída correspondente ao sinalnão conectado será neutralizada. No processo de maximização, o sinal demaior valor tem a sua passagem livre e aparece na sua respectiva saída e osinal de menor valor é retido. Na saída do sinal retido aparece um valor deindefinição 1/2.

No processo de minimização, o sinal de maior valor é retido com a suacorrespondente saída apresentando indefinição de valor 1/2 e o sinal demenor valor tem passagem livre pela célula. As figuras 7.6 e 7.7 mostram ossímbolos e as equações das células de maximização e de minimização, res-pectivamente.

Convencionalmente, se os sinais forem iguais a saída conectada é ada direita, correspondente ao sinal de entrada µ

1B.

Figura 7.6 - Símbolo e equações da célula de conexão lógi-ca seletiva para um processo de maximização.

Page 165: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 6 8

Figura 7.7 - Símbolo e equações da célula de conexão lógica seletivapara um processo de minimização.

7.2.5 - Célula Neural Artificial Paraconsistente deaprendizagem

A Célula Neural Artificial Paraconsistente de aprendizagem é umacélula de conexão com a saída µ

1R interligada à entrada do grau de descren-

ça complementado µ2C

. Sucessivos valores aplicados à entrada do grau decrença µ

1 resultam no aumento gradativo do grau de crença resultante da

saída m1r.Esta Célula pode funcionar de dois modos: para aprendizado do pa-

drão de Verdade, onde são aplicados valores µ1=1, sucessivamente, até ograu de crença resultante na saída chegar a µ1r=1 e para o aprendizado dopadrão de Falsidade onde são aplicados valores µ1=0 até o grau de crençaresultante chegar a µ1r=1. Neste caso, a entrada do grau de crença écomplementada µ1c.

As figuras 7.8 e 7.9 mostram os símbolos, equações e os gráficos dossinais de saída das células de aprendizagem de padrão de Verdade e deFalsidade, respectivamente.

Figura 7.8 - Símbolo e gráficos da saída da célula de aprendizagempadrão de Verdade.

Page 166: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 6 9

Figura 7.9 - Símbolo e gráficos da saída da célula de aprendizagempadrão de Falsidade.

Depois que a Célula aprendeu um determinado padrão, se forem apli-cados, insistentemente, valores diferentes na entrada, vai ocorrer odecaimento gradativo do grau de crença resultante na saída, passando porum valor de indefinição 1/2 até chegar a zero. Neste caso, considera-se quea célula aprendeu o novo padrão.

Para confirmação, é complementada a entrada do grau de crença e asaída é mudada para 1 (Operador NOT). Um fator de aprendizagem F

A e

outro de desaprendizagem FDA

, são inseridos na Equação Estrutural Básica(EEB), possibilitando ajustes que provocam lentidão ou rapidez no proces-so. Através de um algoritmo completo, uma célula pode aprender edesaprender qualquer padrão aplicado na sua entrada.

Em uma Rede Neural Paraconsistente, as células de aprendizagem sãointerligadas às unidades que servem para captar padrões nos sinais proces-sados internamente. Também são utilizadas para captar sinais primáriosque, devidamente analisados pela rede paraconsistente, formão sinais decrença que serão processados por unidades internas.

7.2.6 - Célula Neural Artificial Paraconsistente dememorização

A Célula Neural Artificial Paraconsistente de memorização serve paraarmazenar padrões aprendidos pelas células de aprendizagem. A célula dememorização tem as suas duas entradas conectadas e podem ser de doistipos: a Célula memória de Verdade, que memoriza padrão de Verdade e aCélula memória de Falsidade, que memoriza padrão de Falsidade. Para ambasas células de memorização apresentarem o padrão memorizado na saída, umsinal de nível 1 é aplicado na entrada.

Na Célula memória de Falsidade, a presença de um nível lógico 1 resul-ta em um nível 0 apresentado na sua saída. A figura 7.10 apresenta umacélula Memória de Falsidade com os gráficos das características de entradae saída dos sinais.

Figura 7.10 - Célula de memória de Falsidade com gráficos de entradae saída.

Page 167: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 7 0

Na Célula memória de Verdade, aplicando um sinal de nível 1, o mesmosinal será apresentado na saída.

Na figura 7.11 apresentamos uma célula de memorização de Verdadecom os gráficos das características de entrada e saída.

Figura 7.11 - Célula de memória de Verdade com gráficos de entrada esaída.

Quando um valor real intermediário entre 0 e 1 é aplicado na entrada,um valor proporcional será obtido pela Equação Estrutural Básica, confor-me é mostrado nos gráficos ao lado dos símbolos das células de memorização.

7.2.7 - Célula Neural Artificial Paraconsistente depassagem

A Célula Neural Artificial Paraconsistente de passagem tem a funçãode canalizar sinais para determinadas regiões da rede com possibilidade deaplicações de conectivos que selecionam o sinal de menor ou de maiorvalor para a análise. Um fator de tolerância à Certeza Ftc é comparado aosinal. Se o valor do sinal aplicado for maior que o fator de tolerância, o sinalde saída será o mesmo que está aplicado à entrada; caso contrario, a saídaserá uma indefinição de valor 1/2.

O gráfico de entrada e saída, juntamente com o símbolo da célula, sãomostrados na figura 7.12.

Figura 7.12 - Célula de passagem com conectivos e gráficos de entra-da e saída.

Page 168: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 7 1

7.2.8 - Célula Neural Artificial Paraconsistente decomplementação

A Célula Neural Artificial Paraconsistente de complementação é umacélula que faz o complemento em relação à unidade do sinal aplicado a suaentrada.

É basicamente uma célula de memorização do padrão de Falsidadecom um Fator de tolerância à Certeza. Se o valor do sinal que é aplicado formaior que o fator de tolerância, o sinal de saída será o mesmo que estáaplicado à entrada; caso contrário, a saída será uma indefinição de valor1/2.

Na figura 7.13 apresentamos o símbolo da Célula Neural ArtificialParaconsistente de complementação.

Figura 7.13 - Célula de passagem com conectivos e gráficos de entra-da e saída.

7.3- Unidades Neurais Artificiais Paraconsistentes -UNAP’s

As Unidades Neurais Artificiais Paraconsistentes constituem-se emaglomerados de Células Neurais Paraconsistentes convenientemente inter-ligadas para apresentar uma determinada função. Estas unidades serãoconectadas entre si para compor a estrutura básica funcional das RedesNeurais Artificiais Paraconsistentes RNAP que têm o objetivo de processarsinais elétricos com características de funcionamento inspirado no cérebrohumano.

Cada unidade neural é composta por pequeno número de CélulasNeurais Artificiais Paraconsistentes cujo funcionamento foi exposto atra-vés dos algoritmos e equações.

A série de unidades neurais construída com interligações de células,é apresentada a seguir.

Page 169: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 7 2

7.3.1 - A Unidade Neural ArtificialParaconsistente de aprendizagem e memorização depadrões UNAP-amp

A Unidade Neural Artificial Paraconsistente de aprendizagem ememorização é composta por um par de células funcionando em conjunto.

A célula de aprendizagem que tem a função básica de aprender opadrão aplicado à sua entrada induz à criação da célula de memorização dopadrão aprendido. Logo que é definido pelo algoritmo da célula de aprendi-zado qual é o padrão a ser aprendido é criada uma célula de memorização depadrão idêntico constituindo a Unidade Neural Paraconsistente de apren-dizado e memorização.

A figura 7.14 mostra a UNAP-amp e o seu algoritmo simplificado.

Figura 7.14 - Unidade Neural Artificial Paraconsistente de aprendiza-do e memorização de padrões UNAP-amp.

Na célula de aprendizagem, o sinal m é gerado logo após a análiseinicial, para definir qual é o padrão a ser aprendido. O tipo da célula dememorização vai depender do sinal m enviado pela célula de aprendizagem.

7.3.2 - A Unidade Neural Artificial Paraconsistentede aprendizagem com ativação por maximização -UNAP-am

A Unidade Neural Artificial Paraconsistente de aprendizagem comativação por maximização é composta por uma célula de aprendizagem e poruma célula de conexão lógica simples num processo de maximização.

Um sinal externo ext aplicado na entrada da célula de maximizaçãodetermina o funcionamento da unidade. Quando o sinal externo ext estivercom o valor 1, a entrada do grau de descrença complementado da célula deaprendizagem vai forçosamente ao valor 1.

A célula de aprendizagem com o valor do grau de descrença

Page 170: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 7 3

complementado igual a 1 fica com as características de uma célula treinada.Se a entrada do grau de crença for complementado, a célula aprendeu opadrão de Falsidade. Se a entrada do grau de crença não estivercomplementado, a célula aprendeu o padrão de Verdade.

Se o sinal externo ext estiver com valor 0 a célula de aprendizagem ficalivre para proceder o aprendizado ou desaprendizado, dependendo do pa-drão aplicado na sua entrada µ1.

A figura 7.15 mostra a UNAP-am.

Figura 7.15 - Unidade Neural Artificial Paraconsistente de aprendiza-gem com ativação por maximização.

7.3.3 - A Unidade Neural ArtificialParaconsistente de aprendizagem, controle ememorização de padrões - UNAP-acm

A Unidade Neural Artificial Paraconsistente de aprendizagem, con-trole e memorização de padrões é uma composição das duas unidades ante-riores. Os dois sinais ext1 e ext2 controlam o funcionamento da Unidade. Afigura 7.16 apresenta a configuração da UNAP-acm.

O sinal ext1 faz o controle da célula de aprendizagem que recebe opadrão aplicado na entrada. Quando o sinal ext1 estiver em 1, o funciona-mento da célula será o de uma célula treinada com o padrão correspondenteà sua configuração.

Quando o sinal ext1 estiver em 0 a célula estará livre para aprender edesaprender padrões. O sinal ext2 tem a função de fazer o controle da célulade memorização que apresenta na saída o padrão aprendido.

Page 171: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 7 4

Quando o sinal ext2 estiver em 1 obriga a célula de memorização aapresentar seu padrão memorizado. Quando o sinal ext

2 estiver em 1/2 a

saída da célula de memorização estará em indefinição, apresentando nasaída o valor 1/2. O sinal ext2 igual a 0, obriga a célula de memorização aapresentar na saída o padrão memorizado negado.

Figura 7.16 - Unidade Neural Artificial Paraconsistente de aprendiza-gem, controle e memorização de padrões UNAP-acm.

7.3.4 - A Unidade Neural Artificial Paraconsistentede aprendizagem com análise instantânea -UNAP-AI

A Unidade Neural Artificial Paraconsistente de aprendizagem comanálise instantânea UNAP-AI é composta por duas células de aprendiza-gem e uma célula de conexão analítica. Os padrões aprendidos pelas célulasde aprendizagem podem ser de qualquer tipo dependendo, do padrão inicialaplicado na entrada.

Os sinais de saídas das células de aprendizagem são analisados ins-tantaneamente pela célula de conexão que faz uma análise paraconsistente

Page 172: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 7 5

através da EEB.A figura 7.17 mostra a UNAP-AI junto com o seu algoritmo simplifica-

do.

Figura 7.17 - Unidade Neural Artificial Paraconsistente de aprendiza-gem com Análise instantânea.

7.3.5 - A Unidade Neural Artificial Paraconsistentede aprendizagem por igualdade de padrões -UNAPa-PIP

Esta Unidade é composta por duas Células Neurais ArtificiaisParaconsistentes: uma célula de conexão analítica e uma célula de aprendi-zagem. A função básica da UNAPa-PIP consiste no aprendizado do padrãoquando há igualdade repetitiva nos sinais aplicados nas entradas A e B.

Nesta Unidade Neural Paraconsistente a similaridade detectada é so-mente com padrões do mesmo tipo, isto é, igualdade repetitiva de padrõesde falsidade, 0 em A e 0 em B, ou igualdade repetitiva de padrões de verdade1 em A e 1 em B. À medida que os valores dos graus de crença µ

1A e µ

1Bsão

aplicados na entrada da célula de conexão analítica a célula de aprendizadovai totalizando os resultados da análise. Se houver coincidências repetitivasde padrões iguais a zero ou a 1 a saída da célula de aprendizagem tende a 1detectando a igualdade de padrões entre os dois pontos.

O aparecimento de padrões não similares na entrada resulta na quedagradativa no valor do sinal de crença na saída, portanto a igualdade só éconfirmada quando o grau de crença resultante na saída chegar a 1.

Page 173: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 7 6

A figura 7.18 mostra a UNAPa-PIP e o seu algoritmo simplificado.

Figura 7.18 - Unidade Neural Artificial Paraconsistente de aprendiza-do por similaridade de padrões.

7.3.6 - A Unidade Neural Artificial Paraconsistentede aprendizagem por repetitividade de pares depadrões - UNAPa-PRPP

Esta Unidade é composta por quatro Células Neurais ArtificiaisParaconsistentes: uma célula de conexão analítica e três células de aprendi-zagem. São instaladas duas células de aprendizagem nas entradas da Célulade conexão possibilitando a unidade a captar coincidências de repetição desinais aplicados nas entradas.

Os padrões coincidentes repetitivos que serão captados nesta unida-de podem vir com padrões iguais P

A=0 e P

B = 0 ou P

A =1 e P

B = 1 ou podem vir

com coincidências repetitivas de pares de padrões desiguais como: PA=0 e

PB = 1 ou P

A =1 e P

B = 0.

Em qualquer um dos casos, se houver coincidência repetitiva de paresde padrões, tem como conseqüência o aumento do grau de crença na saída.

A figura 7.19 mostra a UNAPa- PRPP e o seu algoritmo simplificado.

Page 174: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 7 7

Figura 7.19 - Unidade Neural Artificial Paraconsistente de aprendiza-do por similaridade de padrões.

7.3.7 - A Unidade Neural Artificial Paraconsistentede extração de máximo - UNAPEmax

A Unidade Neural Artificial Paraconsistente de Extração de máximo éconstituída de várias células de conexão lógica simples de maximização(OR) e por uma única célula de passagem. A Célula de passagem tem afunção de canalizar para a saída o sinal do grau de crença de maior valor,sendo o mesmo comparado a um fator de tolerância à Certeza. O número decélulas de conexão lógica simples depende da quantidade de sinais recebi-dos para análise. A maximização entre os sinais é feita através das configu-rações das células de conexão lógica simples e o sinal de maior valor, querepresenta o grupo resultante, tem o grau de crença apresentado na saídada unidade.

A figura 7.20 apresenta dois tipos de Unidade Neurais de extração demáximo; um, para número de sinais pares e, outro, para números ímpares.Para se obter a extração de máximo entre mais sinais aplicados nas entradasda unidade basta repetir as configurações das células de lógica simples

Page 175: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 7 8

aumentando-se o número de entradas.

Figura 7.20 - Unidade Neural Artificial Paraconsistente de Extração demáximo para várias entradas.

7.3.8 - Unidade Neural Artificial Paraconsistente deextração de mínimo - UNAPEmim

A Unidade Neural Artificial Paraconsistente de Extração de mínimo éconstituída de várias células de conexão lógica simples de minimização(AND) e por uma única célula de passagem. A Célula de passagem tem afunção de canalizar para a saída o sinal do grau de crença de menor valorsendo o mesmo comparado a um fator de tolerância à Certeza que vai definirse o valor mínimo é suficiente para prosseguir ou é considerado indefinido.

O número de células de conexão lógica simples depende da quantida-de de sinais recebidos para análise. O funcionamento é idêntico ao da uni-dade de extração de máximo com a diferença de que, agora, é feita aminimização nos sinais. A figura 7.21 apresenta dois tipos de Unidades

Page 176: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 7 9

Neurais de extração de mínimo.

Figura 7.21 - Unidade Neural Artificial Paraconsistente de Extração demínimo para várias entradas.

7.3.9 - A Unidade Neural Artificial Paraconsistente decompetição seletiva - UNAP-CSe

A Unidade Neural Artificial Paraconsistente de competição seletiva écomposta por várias células de conexão lógica simples preparadas para umprocesso de maximização (OR) e por uma única célula de conexão lógicaseletiva. O número de células de conexão lógica simples para a maximizaçãovai depender da quantidade de sinais recebidos para análise. Na Rede NeuralParaconsistente, o processamento interno é feito com sinais de graus decrença, portanto, na Unidade Neural Artificial Paraconsistente de Competi-ção seletiva o sinal de grau de crença de maior valor será apresentado nasaída da unidade.

Page 177: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 8 0

O sinal que apresenta o menor valor não vence a competição e terá asua saída com valor 1/2 indicando uma indefinição. Devido à célula de saídaser uma célula de conexão lógica seletiva num processo de maximização, seos valores forem iguais, vence aquele aplicado à direita da célula, conformeficou convencionado.

A figura 7.22 mostra dois tipos de unidade Neurais de competiçãoseletiva.

Figura 7.22 - Unidade Neural Artificial Paraconsistente de Competiçãocom Seleção de sinais máximo para várias entradas.

Para competição entre maior número de sinais nas entradas, bastarepetir as configurações das células de lógica simples interligando-as àcélula de conexão lógica seletiva.

7.3.10 - A Unidade Neural Artificial Paraconsistentede ativação de padrão - UNAP-AT

A Unidade Neural Artificial Paraconsistente de ativação de padrão écomposta por uma célula de conexão lógica simples num processo demaximização e de células de memorização de padrões. A quantidade decélulas de memorização de padrão depende da quantidade de padrões de-

Page 178: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 8 1

sejada para ativação.

A figura 7.23 mostra a Unidade de ativação para n padrões ativados.

Figura 7.23 - Unidade Neural Artificial Paraconsistente de ativação.

Basta que um dos sinais aplicados na célula de conexão lógica sim-ples de maximização seja de valor 1, que um valor 1 vai aparecer nas entra-das das células de memorização e os padrões memorizados aparecerão emsuas respectivas saídas.

Se um dos sinais estiver em nível lógico 0, o aparecimento dos pa-drões nas saídas das células de memorização fica dependente do outrosinal de entrada. Se os dois sinais de entrada estiverem com níveis deindefinição as células de memorização apresentarão nas suas saídas níveisde indefinição 1/2.

7.4 - Considerações Finais

Neste capítulo apresentamos interligações de Células Neurais Artifi-ciais Paraconsistentes compondo Unidades Neurais Paraconsistentes comfunções de detecção de padrões, direcionamento de sinais e controle. EstasUnidades, convenientemente interligadas, vão fazer processamento de si-nais de graus de crença na Rede Neural Artificial Paraconsistente.

Page 179: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 8 2

As funções das Unidades Neurais Paraconsistentes são essenciaisao processamento paralelo e conexionista de dados em Redes Neurais Arti-ficiais Paraconsistentes. São as Unidades Neurais Paraconsistentes quevão compor as formas e dar o dimensionamento estrutural à Rede NeuralParaconsistente, cujo objetivo final é apresentar um funcionamento globalsemelhante ao processamento de sinais elaborado pelo cérebro humano.

Todas as Unidades apresentadas efetuam análises através de equa-ções muito simples o que facilita a sua implementação em Redes Neuraisatravés de programas computacionais constituindo-se em uma ótima ferra-menta para elaborações de projetos na área da Neurocomputação.

Apresentamos dez configurações de UNAP’s, no entanto devido àsdiversidades de tipos das Células Neurais Artificiais paraconsistentes efacilidades de conexões, outras Unidades com funções diferentes das apre-sentadas podem ser facilmente implementadas.

O importante é que resultados das configurações obtidas demons-tram a possibilidade de aplicações reais das Células Neurais ArtificiaisParaconsistentes em processamento de sinais de forma paralela e distribu-ída com características análogas ao processamento de sinais elétricos queocorre no cérebro humano.

As implementações de Redes Neurais utilizando as UNAP’s podemvir a ser concretizadas com muita facilidade, devido principalmente, à sim-plicidade matemática das equações envolvidas nas análises paraconsistentese as possibilidades de ajustes que otimizam o processamento de sinais.

Com estas características simples, as UNAP’s podem ser facilmenteimplementadas por hardware ou por software retirando as redes neurais deuma área estritamente acadêmica e proporcionando elaboração de projetosde aplicações reais e práticas.

7.5 - Exercícios

1-Dê a definição de uma Unidade Neural Artificial ParaconsistenteUNAP.

2- Descreva o funcionamento de uma Unidade Neural ArtificialParaconsistente de aprendizagem e memorização de padrões UNAP-amp.

3- Descreva o funcionamento de uma Unidade Neural ArtificialParaconsistente de aprendizagem com ativação por maximização UNAP-am.

4- Descreva o funcionamento de uma Unidade Neural Artificial

Page 180: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 8 3

Paraconsistente de aprendizagem, controle e memorização de padrõesUNAP-amp.

5- Esboce a configuração básica e descreva o funcionamento deuma Unidade Neural Artificial Paraconsistente de aprendizagem com aná-lise instantânea UNAP-AI.

6- Como é composta a Unidade Neural Artificial Paraconsistente deaprendizagem por igualdade de padrões -UNAPa-PIP ? Explique seufuncionamento básico.

7- Descreva o funcionamento e esboce a configuração básica da Uni-dade Neural Artificial Paraconsistente de aprendizagem porrepetitividade de pares de padrões - UNAPa-PRPP.

8- Explique o funcionamento e esboce a configuração da UnidadeNeural Artificial Paraconsistente de extração de máximo - UNAPE-max.

9- Descreva o funcionamento da Unidade Neural ArtificialParaconsistente de extração de mínimo - UNAPE-mim.

10- Explique o funcionamento e esboce a configuração básica da Uni-dade Neural Artificial Paraconsistente de competição seletiva - UNAP-Cse.

11-Explique o funcionamento da Unidade Neural ArtificialParaconsistente de ativação de padrão - UNAP-AT.

12- Elabore em linguagem de programação C ( ou em outra linguagemde programação que você domine) o programa executável de uma UnidadeNeural Artificial Paraconsistente de competição seletiva - UNAP-Cse.

13- Elabore em linguagem de programação C ( ou em outra linguagemde programação que você domine) o programa executável de uma UnidadeNeural artificial Paraconsistente de ativação de padrão - UNAP-AT.

14- Elabore em linguagem de programação C ( ou em outra linguagemde programação que você domine) o programa executável de uma UnidadeNeural artificial Paraconsistente de aprendizagem por repetitividade de pa-res de padrões - UNAPa-PRPP.

Page 181: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 8 4

CAPÍTULO 8OS SISTEMAS NEURAIS ARTIFICIAIS

PARACONSISTENTES

As diversas configurações das UNAP’s vão formando blocos comcaracterísticas de funcionamento próprias que denominamos de SistemasNeurais Artificiais Paraconsistentes

A aplicação dos Sistemas Neurais Artificiais Paraconsistentes SNAP’sno tratamento de sinais, traz uma inovação na área de inteligência Artificialapresentando novas formas de processamento inspirado no comportamen-to do cérebro. Os SNAP’s são grupos de Unidades Neurais ArtificiaisParaconsistentes devidamente interligadas, compondo diferentes configu-rações que fazem tratamento, análises e direcionamento de sinais.

. Os SNAP’s serão partes integrantes da Rede Neural ArtificialParaconsistente RNAP.

Neste capítulo apresentamos dois tipos de SNAP que serão utiliza-dos nas RNAP. O primeiro tipo apresentado é o Sistema Neural ArtificialParaconsistente de aprendizado Condicionado SNAPac, que funciona fa-zendo um tratamento de sinais com base nas condições impostas pela lei doaprendizado de Hebb. O segundo tipo é o Sistema Neural ArtificialParaconsistente de tratamento de contradições SNAPtc que, de modo con-tínuo, analisa sinais aplicados nas suas entradas, decidindo sobre situa-ções contraditórias. Todos os Sistemas Neurais Artificiais apresentadossão acompanhados de ensaios o que demonstra a eficiência e aplicabilidadedos mesmos.

8.1 - Introdução

Os Sistemas Neurais Artificiais Paraconsistentes são módulos confi-gurados e construídos exclusivamente por Unidades Neurais Artificiais

Page 182: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 8 5

Paraconsistentes. O conjunto de Unidades Neurais Paraconsistentes for-mam os Sistemas Neurais Artificiais Paraconsistentes, cuja função é pro-porcionar o tratamento de sinais de forma semelhante ao processamentoque ocorre no cérebro humano.

Dependendo das interligações e dos tipos das UNAP’s componen-tes, os Sistemas adquirem propriedades especiais para tratar e equacionaros sinais que vão ser processados pela rede.

As várias UNAP’s de funções distintas são interligadas para formardois tipos de Sistemas:

Sistema Neural Artificial Paraconsistente de aprendizado Condici-onado SNAPac.

Este Sistema é configurado para processar sinais, conforme as leis deaprendizado de Hebb. As células são condicionadas a apresentarem certospadrões na saída obtidos através de repetitividade de coincidências.

Sistema Neural Artificial Paraconsistente de tratamento de contra-dições SNAPtc.

Este Sistema promove o tratamento de contradições, de modo contí-nuo, entre sinais de informações, com base na Lógica Paraconsistente Ano-tada.

8.2 - O Sistema Neural Artificial Paraconsistente de aprendizado condicionado - SNAPac

O Sistema Neural Artificial Paraconsistente de aprendizado condicio-nado SNAPac apresentado neste livro é composto por sete tipos de CélulasNeurais Artificiais Paraconsistentes, sendo, três células de aprendizagem,uma célula de conexão analítica, uma célula de decisão e duas células deconexão lógica simples para um processo de maximização.

As interligações entre estes diferentes tipos de células formam Unida-des Neurais Artificiais de aprendizagem de padrões, cujo funcionamento,em conjunto com outras Unidades, fazem associações entre sinais aplica-dos simultaneamente nas suas entradas. Estas associações de sinais criam,nas células, um processo de aprendizado condicionado semelhante ao apren-dizado hebbiano.

Todas as Células neurais pertencentes ao Sistema são fundamenta-das na Equação Estrutural Básica EEB: µr=(µ1 - µ2 + 1) : 2, originada daLógica Paraconsistente Anotada.

A simplicidade das equações envolvidas proporciona facilidades deimplementação do Sistema Neural Artificial Paraconsistente em programasde Neurocomputação.

Page 183: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 8 6

8.3 - O Aprendizado Condicionado

Os estudos sobre o cérebro indicam que os neurônios biológicos têmcapacidade de aprendizagem. Os Sistemas neurais biológicos funcionamnum processo dinâmico que, de alguma forma, modificam suas estruturaspara incorporar novas informações, e com isso vão adquirindo habilidadesnum processo de aprendizado constante. Os Sistemas Neurais ArtificiaisParaconsistentes procuram processar dados de forma semelhante aoprocessamento de sinais elétricos que ocorre no cérebro humano.

Seguindo esta linha de raciocínio, o Sistema Neural ArtificialParaconsistente de Aprendizado Condicionado SNAPac é projetado paraapresentar um funcionamento que modela o aprendizado condicionadoou reforçado.

8.3.1 - As experiências de Pavlov

O processo de aprendizado condicionado foi primeiramente demons-trado pelas experiências de Pavlov. O Aprendizado reforçado ou condicio-nado baseados nas experiências dePavlov considera que associações en-tre padrões sensoriados, com ocorrên-cia anterior, possam ser utilizados paramodificação comportamental.

A demonstração do clássicoaprendizado pavloviano envolveramum cachorro, um prato de comida e umacampainha.

Inicialmente era apresentado aocachorro o prato de comida e, atravésde um processo operatório feito anteri-ormente no cachorro, media-se a salivagerada no seu aparelho gástrico intes-tinal. Sem o prato de comida, tocava-seuma campainha e verificava-se que o somda campainha não causava salivação nocachorro. Procedia-se, então, por repeti-das vezes, a apresentação do prato decomida junto com o toque da campainha.

Depois de certo tempo, verificava-se que apenas o som da campainhaera suficiente para causar a salivação do cachorro.

Com esta experiência Pavlov conseguiu condicionar um estímulo so-noro a uma ação de salivação que inicialmente não existia.

Ivan Pavlov (1849 - 1936)Pavslovfoi fisiologista russo queinvestigou reflexos condicionadosem animais

Figura 8.1 – Ivan Pavlovcientista russo

Page 184: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 8 7

É chamado de estímulo não condicionado o processo natural do ca-chorro salivar ao enxergar o prato de comida.

Durante o período em que tocou-se a campainha junto com a apresen-tação do prato de comida ocorreu o aprendizado com estímulo condiciona-do.

8.3.2 - As regras de aprendizado de Hebb

Os resultados dos experimento de Pavlov foram aperfeiçoados paraos estudos dos neurônios biológicos resultando nas regras do aprendiza-do de Hebb, que é uma das funções mais importantes modelada por umaRede Neural Artificial clássica.

O aprendizado Hebbiano é uma continuidade desta linha de pesquisaestendida ao funcionamento das células neurais ou neurônios biológicos.

O aprendizado Hebbiano está estruturado na seguinte hipótese:

Quando um axônio de uma célula A está próximo o suficiente paraexcitar uma célula B, e, repetitivamente ou persistentemente, toma parteno disparo desta, algum processo de crescimento ou mudança metabólicaacontece em uma ou ambas as células, tal que a eficiência de A, como umacélula capaz de disparar B, é aumentada.

Comprovada a existência do aprendizado condicionado é possível oseu modelamento por meio de Redes Neurais Artificiais.

O funcionamento básico do SNAPac segue os princípios fundamen-tais da hipótese do aprendizado condicionado de Hebb.

Com base nos experimentos de Pavlov e as regras de aprendizagem deHebb, o Sistema Neural Artificial Paraconsistente de Aprendizado Condici-onado funciona processando sinais sempre considerando associações depadrões que aparecem de forma repetitiva em partes da Rede Neural Artifi-cial Paraconsistente.

8.4 - As Células Componentes do SNAPac

Nesta seção vamos apresentar a título de recordação as principaiscaracterísticas das Células que compõem o Sistema Neural ArtificialParaconsistente de aprendizado condicionado.

Page 185: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 8 8

8.4.1 - A célula de aprendizagem

Uma célula preparada para aprender o padrão de Falsidade difere dapreparada para aprender o padrão de Verdade, porque tem na sua entrada ograu de crença complementado.

O funcionamento da célula é baseado na Equação Estrutural BásicaEEB da Lógica Paraconsistente, onde para um processo de aprendizagemdo padrão de Verdade a equação de aprendizagem é:

µr r (k+1) = {µ1 - (µ

r ( K )C) F

A} + 1

2

onde: µr (k)C = 1- µr (k) sendo 0≤ FA≤1

E para um processo de aprendizagem do padrão de Falsidade a EEBfica:

µr (K+1)

= {µ1c - (µr(K)C)

) FA } + 1

2

onde: µ1c = 1- µ1 sendo 0≤FA ≤1

Considera-se a Célula completamente treinada quando µr(k+1)

= 1.

No processo de desaprendizagem é utilizado o fator dedesaprendizagem FDA que pode ser de valor diferente do fator de aprendiza-gem.

Page 186: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 8 9

8.4.2 - A célula de conexão analítica

Se o valor em módulo do grau de Contradição estiver acima do fator detolerância à Contradição ou ainda, se o grau de Certeza estiver abaixo dovalor de tolerância à Certeza, o valor resultante da saída é 1/2 representandouma indefinição.

Se o valor do grau de Contradição estiver abaixo do fator de tolerânciaà Contradição e o grau de Certeza estiver acima do fator de tolerância àCerteza, o valor da saída é o calculado pela EEB.

O sinal Sct apenas sinaliza uma indefinição por contradição.

8.4.3 - Célula de decisão

Quando o grau de crença resultante calculado estiver entre os limitessuperior e inferior a saída é uma indefinição de valor 1/2.

A Célula Neural Artificial de Conexãoanalítica tem a função de processar sinais con-forme a Lógica Paraconsistente Anotada. A aná-lise efetuada pela Célula é processada através daEquação Estrutural Básica EEB:

µri = µ

1a - µ

1bc + 1

2Dois fatores, um de tolerância à Con-

tradição e o outro de tolerância à Certeza deter-mina a característica da saída, portanto, nestacélula a saída depende das condições dos graus deCerteza e de Contradição.

A Célula Neural Artificial de decisão tem a funçãode definir um resultado de saída pela comparação do fator detolerância à decisão com valor dos graus de crença resultantecalculado pela EEB.

O fator de decisão se divide em dois valores limi-tes, inferior e superior. Se o grau de crença resultante calcu-lado estiver acima do limite superior, a saída é verdadeiraassumindo o grau de crença resultante 1. Se o grau de crençaresultante calculado estiver abaixo do limite inferior a saídaé falsa e o grau de crença resultante da saída assume o valor0.

Page 187: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 9 0

8.4.4 - Célula de conexão lógica simples

Se o grau de crença resultante for maior ou igual a 1/2 significa que osinal do grau de crença A é igual ou maior que o sinal do grau de B e se ograu de crença resultante calculado for menor que 1/2, significa que o graude crença do sinal A é menor que o grau de crença do sinal B.

8.5 - A Configuração Básica do SNAPac

O Sistema Neural Artificial Paraconsistente de aprendizado condicio-nado SNAPac é composto de três células de aprendizagem, duas células deconexão analítica e duas células de conexão lógica de maximização. O SNAPactem duas entradas onde serão aplicados padrões representados por valo-res entre 0 e 1.

Para melhor detalhamento do funcionamento básico do SNAPac con-sidera-se o valor 0 como representativo do padrão de Falsidade e o valor 1como padrão de Verdade.

O aprendizado condicionado do Sistema paraconsistente vai seguiretapas semelhantes às verificadas pelas experiências de Pavlov, cujos re-sultados foram importantes para o desenvolvimento do aprendizado condi-cionado dos neurônios biológicos proposto por Hebb.

Considerando um Sistema Neural Artificial Paraconsistente de apren-dizado condicionado como um módulo único onde são aplicados dois pa-drões e obtido uma saída, conforme a figura 8.2.

Figura 8.2 - Comparação entre o SNAPac e o experimento de Pavlov.Seguindo o aprendizado condicionado proposto por Hebb, o padrão

A célula de conexão Lógica simples para um processo demaximização recebe dois sinais nas suas duas entradas e conecta à suasaída o sinal de maior valor. O valor resultante da Equação EstruturalBásica define qual entre os dois sinais é o de maior valor.

O processo de maximização é feito pela comparação dograu de crença resultante obtido pela EEB com o valor da indefinição1/2.

Page 188: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 9 1

B (estímulo sonoro), inicialmente, está com valor de indefinição 1/2 e opadrão A (prato de comida) aparecendo repetitivamente na entrada, provo-ca um grau de crença resultante µr (salivação) igual a 1, representando umcondicionamento natural do Sistema.

Na segunda etapa, o padrão B (estímulo sonoro) fica ativo e o padrãoA (prato de comida) inativo, como não houve ainda o condicionamento doSistema o grau de crença resultante mr (salivação) é de valor baixo.

Na terceira etapa o padrão B (estímulo sonoro) fica ativo e aparecerepetidas vezes junto com o padrão A (prato de comida). O grau de crençaresultante µr (salivação) permanece alto, simulando o aprendizado condici-onado do sistema.

A quarta etapa do treinamento deixa o padrão A (prato de comida)inativo com valor de indefinição 1/2 e o padrão B (estímulo sonoro) conti-nua sendo aplicado na entrada. Nesta quarta etapa, o resultado do aprendi-zado condicionado aparece quando, mesmo com a desaparecimento do pa-drão A (prato de comida), o valor do grau de crença resultante da saída µr(salivação) permanece com valor alto.

Na figura 8.3 é apresentado o diagrama completo do SNAPac compos-to por Células Neurais Artificiais Paraconsistentes interligadas.

Page 189: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 9 2

Figura 8.3 - Diagrama do Sistema Neural Artificial Paraconsistentede condicionamento estimulado SNAPac.

Para facilitar o entendimento do processo, vamos descrever o funcio-

Page 190: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 9 3

namento considerando um ensaio onde são utilizados como padrões, sinaisaplicados nas entradas do SNAPac representados por valores reais entre 0e 1.

Conforme a configuração da figura 8.3, as Células de aprendizagem C1

e C2 são as receptoras dos padrões aplicados nas entradas. Inicialmente, oPadrão PA aplicado insistentemente na célula de aprendizagem C

1 provoca

um aumento na saída SA . Quando a célula C

1 estiver totalmente treinada

considera-se que ela aprendeu o padrão e a saída SA é igual a 1. Neste

processo inicial o padrão PB aplicado na Célula de aprendizagem C

2 é inde-

finido de valor 1/2, portanto na saída SBo valor continua indefinido.

O valor da saída da célula de conexão analítica C3 é calculado pela

EEB. Considerando a condição da célula C3 totalmente treinada e a célula C

2

indefinida a saída SC da célula C

3 vale:

SC =

1 - 1/2 + 1 = 0,75

2A saída da célula C

3 é aplicada na entrada da célula de aprendizagem

C4 que aprende o valor de SC aplicado na sua entrada. Como neste proces-so inicial, o máximo valor que irá aparecer em SC é 0,75 a célula C

3 vai

apresentar na saída o valor máximo SC=0,75.O valor 0.75 aparece nas entradas das duas células de conexão lógica

de maximização C5 e C

6.

Na célula C5 temos o resultado da célula de aprendizagem C

1 que é

SA=1 e o resultado da célula de conexão analítica C3 que vale SC= 0,75,

portanto, como C5 trata-se de uma célula que faz a maximização, na sua saída

SE teremos o valor 1.Na célula C

6, que é outra célula que faz maximização, temos nas suas

entradas SB=1/2 e SC= 0,75, portanto na saída SFteremos o valor 0,75.

Na célula C3 o valor do grau de crença resultante de saída e calculado

pela EEB, portanto:

µ1R =

1 - 0.25 + 1 = 0,875

2A célula C7 é uma célula de decisão onde o Fator de tolerância à

decisão define se a saída é Verdadeira, Falsa ou Indefinida.Considerando a título de exemplo que o Fator de decisão esteja ajus-

tado para um limite superior de 0,85, e inferior de 0,15, nesta etapa a saída doSistema Neural Artificial Paraconsistente é considerado alto, portanto, ograu de crença expressa uma situação verdadeira de valor 1.

Consideramos agora a situação em que, apenas o padrão PB é aplica-do e na entrada do padrão PA, fica um valor de indefinição 1/2.

Como a célula C1 já foi anteriormente treinada, quando na primeira

Page 191: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 9 4

aplicação do valor indefinido do padrão PA, vai existir uma realimentação na

sua entrada do grau de descrença temos o valor 1, que é complementado eentra na EEB com valor 0. Portanto, a saída S

A é calculada pela EEB sendo:

SA =

1/2 - 0 + 1 = 0,75

2

Da mesma forma é calculado o valor da saída SB da célula C2 com a

diferença que ela não foi treinada, portanto, a saída que vai realimentar ograu de descrença é uma indefinição de valor 1/2 e o grau de crença aplica-do que vai entrar na EEB é o padrão P

B.

Vamos considerar que a célula C2 é preparada para aprender padrão de

Verdade, portando, sendo PB é de valor 1 o resultado da saída fica:

SB =

1 - 1/2 + 1 = 0,75

2

Com os valores de SA e S

B o valor da saída S

C da célula de conexão

analítica é encontrado pela EEB, portanto:

SC =

0,75 - 0,25 + 1 = 0,75

2

Na primeira etapa, a célula de aprendizagem C4 só aprendeu até 0,75,

portanto, não aprendeu o padrão de Verdade e podemos considerar que asua saída sendo inicialmente 0,75 vai ser complementada aparecendo naEEB como 0,25. Podemos calcular a saída da célula C

4 pela EEB, ficando:

SD =

0,75 - 0,25 + 1 = 0,75

2

Nas duas células de conexão lógica de maximização C5 e C

6 teremos,

respectivamente, como saída SE= 0,75 e SF = 0,75.Na saída da célula de decisão C

7 o valor obtido é calculado pela EEB

sendo:

µ1R

=

0,75 - 0,25 + 1 = 0,75

2

Conforme o ajuste do grau de tolerância à contradição tomado como

Page 192: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 9 5

exemplo, o valor 0,75 será considerado indefinido pela célula de decisão C7,portanto a análise expressa uma situação de indefinição de valor 1/2.

Se estes mesmos valores são repetitivamente aplicados nas entradas,o valor da célula C

1 vai chegar ao valor mínimo de indefinição igual a 1/2 e a

saída SD da célula C4 decresce e, logo após, vai sofrendo um aumento

gradativo até chegar ao valor máximo de 0,75.No final, os valores nas entradas da célula de decisão C

7 serão SE =

0,75 devido à maximização feita pela célula C5 e SF =1 devido ao aprendizado

da célula C2, resultando portanto, num valor máximo de saída µ1R= 0,875

considerado uma situação Verdadeira.Quando os dois padrões P

A e P

B aparecerem simultâneo e

repetitivamente, as células C1 e C

2 aprendem seus respectivos padrões e

como resultado deste aprendizado as saídas SA e S

B ficam com valor alto 1.

A célula C3 que é uma célula de conexão analítica recebe os valores de

SA e SB nas entradas, portanto, utilizando a EEB é fácil verificar que, quan-do estes valores são altos o valor da sua saída S

C também é alto.

A célula C4 recebendo sinal de valor 1 em sua entrada aprende o

padrão de Verdade e, gradativamente, à medida que ocorre coincidênciasdos dois padrões aplicados nas suas duas entradas vai aumentando o valorda sua saída SD até chegar ao valor alto 1. Sendo nas entradas das célulasde maximização todos os valores são 1, portanto, o valor do grau de crençaresultante na saída da célula de decisão C

7 é µ

1RC=1 e a saída do Sistema é

considerada Verdadeira. Nestas condições, criou-se um aprendizado condi-cionado onde, mesmo na falta de um dos padrões, a saída alta da célula C

4

que aprendeu o padrão de Verdade gerado pela detecção de repetitividadede padrões nas entradas, prevalece nas células de maximização C

5 e C

6

mantendo a conclusão.Para exemplificar, vamos supor que, depois de estabelecido o aprendi-

zado condicionado, ocorra a falta de um dos padrões. Para este cálculoescolheremos que o padrão PA ficou indefinido com valor 1/2.

Na saída da célula C1 teremos:

SA =

1/2 - 0 + 1 = 0,75

2

Na saída da célula C2:

SB =

1 - 0 + 1 = 1

2Na saída da célula C3 :

Page 193: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 9 6

SC =

0,75 - 0 + 1 = 0,875

2

Na saída da célula C4:

SD =

0,75 - 1/2 + 1 = 0,625

2

Na saída da célula C5 temos o valor máximo entre SA e SD :

SE = 0,75

Na saída da célula C6 temos o valor máximo entre SB e SD :

SE = 1

Na saída da célula C7:

µ1R

=

0,75 - 0 + 1 = 0,875

2

Como o valor do grau de crença resultante está acima do limite supe-rior de decisão, a conclusão final é o valor alto considerado como Verdade.

Se esta situação de indefinição do padrão A persistir, o valor desaída da célula C

4 vai decrescer até chegar ao mínimo SD= 0,75, e o valor

mínimo na saída da célula de decisão será µ1R =0,75.O Sistema pode desaprender o aprendizado condicionado se o padrão

PA aplicado na entrada da célula C1 mudar do estado de Indefinição para um

estado de Falsidade.Conforme ficou definido, o padrão de Falsidade é aplicado com valor

PA=0. A ocorrência da aplicação repetidas vezes do padrão PA com valor 0

faz o Sistema esquecer o aprendizado condicionado em que foi inicialmentetreinado e ser novamente treinado com padrões diferentes daqueles apren-didos originalmente.

Com a aplicação de PA=0 repetitivamente a saída SA diminui

gradativamente até chegar em 0. Na saída da célula C4, o valor chega a

SD=1/2 e na célula C5 de maximização teríamos o valor de saída S

E= 1/2,

provocando uma saída da célula de decisão de µ1R= 0,75, portanto umasituação de Indefinição.

Nesta situação, conforme foi visto na descrição do funcionamento da

Page 194: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 9 7

célula de aprendizagem, vai haver a ocorrência da confirmação do novopadrão aprendido pela célula C

I e sua saída S

A é mudada para o valor 1. Com

este procedimento previsto no algoritmo de aprendizagem, a tendência dosinal do grau de crença resultante na saída do Sistema é crescer até chegara 1constituindo-se o novo aprendizado condicionado.

8.6 - Ensaios com o SNAPac

O funcionamento do Sistema Neural Artificial Paraconsistente deAprendizado Condicionado pode ser projetado com modificações no funci-onamento das células de aprendizagem de várias formas. As células podemfuncionar livremente, isto é, ficam aprendendo ou desaprendendo, confor-me os padrões detectados nas entradas. Com isto, o Sistema torna-se dinâ-mico e vai se modificando de acordo com os padrões aplicados nas entra-das.

As células podem também ter seus valores de saída memorizados detal forma que, quando o aprendizado é completado considera-se a célulatreinada e o valor 1 é mantido na sua saída como grau de descrença. OSistema também pode ser projetado para um funcionamento híbrido de modoque possa trabalhar das duas formas.

A figura 8.4 mostra uma tabela com os valores obtidos nas etapas doaprendizado condicionado do SNAPac, inclusive realçando a capacidadede aprendizado e desaprendizado do sistema.

Figura 8.4 - Tabela com valores dos ensaios com o SNAPac.A figura 8.5 mostra em forma de gráfico os resultados obtidos no

Page 195: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 9 8

ensaio.

Figura 8.5- Resultados gráficos do ensaio efetuado pelo SNAPac.

8.6.1 - A importância do SNAPac no processoevolutivo da Neurocomputação

O aprendizado condicionado é uma das funções mais importantes noprocessamento de sinais baseado no funcionamento do cérebro humano.

O projeto do SNAPac vem demonstrar que o processo de associaçãode padrões com aprendizado condicionado pode ser facilmente implementadocom resultados satisfatórios utilizando processos matemáticos simples etotalmente estruturados pela Lógica Paraconsistente Anotada.

O aprendizado Hebbiano proporciona às Redes Neurais ArtificiaisParaconsistentes condições de fazer associações entre partes da rede quetratam de proposições diferentes mas que trazem em suas informações se-melhanças que podem ser relevantes para o processamento paralelo econexionista

O Sistema Neural Artificial Paraconsistente de aprendizado condicio-nado, é uma inovação, na área de Neurociência porque permite aimplementação de projetos com tratamento de sinais muito parecidos com o

Page 196: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

1 9 9

processamento efetuado pelo cérebro.

8.7 - Sistema Neural Artificial Paraconsistente detratamento de Contradições - SNAPtc

O Sistema Neural Artificial Paraconsistente de tratamento de contra-dições (SNAPtc) é um módulo composto de Células Neurais ArtificiaisParaconsistentes interligadas convenientemente cuja finalidade é fazer aná-lise instantânea entre três sinais utilizando os conceitos da LógicaParaconsistente Anotada.

O SNAPtc é composto de 8 células interligadas, sendo quatro célulasde conexão analítica e quatro células de conexão lógica simples. Das célulasde conexão lógica simples duas são de maximização e duas são deminimização.

O SNAPtc tem três entradas para receber os sinais PA, P

B e P

C de

valores reais que variam entre 0 a 1 e uma única saída que apresenta oresultado da análise na forma do grau de crença resultante µ1r.

A figura 8.6 mostra o bloco representativo de um SNAPtc.

Figura 8.6 - Bloco representativo de um SNAPtc.

Utilizando os conceitos definidos nos capítulos anteriores um sinalde entrada de valor 1 é considerado a expressão de uma proposição Verda-deira e um sinal de valor de 0 considera-se uma proposição Falsa. AIndefinição é representada por um sinal de valor 1/2.

Os três sinais aplicados nas entradas do SNAPtc são instantanea-mente analisados pelas células neurais onde fazem a verificação e detecçãode contradições entre eles.

Se os três sinais apresentarem valores iguais, obviamente não há aexistência de contradição, no entanto como variam entre 0 e 1 com indepen-

Page 197: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 0 0

dência entre si, num processo de análise contínuo podem ocorrer contradi-ções de vários níveis. Em qualquer situação, portanto, na ocorrência ou nãode contradições, um sinal que representa o grau de crença resultante daanálise paraconsistente dos três valores é obtido na saída.

Na Rede Neural Artificial Paraconsistente, o sinal resultante do SNAPtcé enviado às outras regiões da rede para que outros sistemas possam efetu-ar novas análises que podem ser conclusivas para tomada de decisão.

8.8 - As Células Componentes do SNAPtc

O Sistema Neural Artificial Paraconsistente de tratamento de contra-dições é composto por oito células. São utilizadas quatro células de cone-xão analítica: duas células de conexão lógica simples para um processo demaximização e duas células de conexão lógica simples para um processo deminimização.

8.9 - A Configuração Básica do SNAPtc

Sistemas clássicos baseados na lógica binária encontram dificulda-des para processar dados ou informações provenientes de conhecimentoincerto. Estes dados, que são informações captadas ou recebidas de váriosespecialistas, geralmente, vêm em forma de evidências que trazem muitascontradições.

O Sistema Neural Artificial Paraconsistente de Análise contraditóriarecebe três sinais na entrada e através de uma análise paraconsistente apre-senta como resultado um valor que representa o consenso entre as trêsinformações. As contradições existentes entre dois valores são agregadasao terceiro valor, de tal forma que, na saída, predomina o valor propostopela maioria.

A análise é feita pelas células de forma instantânea procedendo todoo processamento em tempo real, semelhante ao funcionamento dos neurôniosbiológicos.

A figura 8.7 mostra a SNAPtc composto por oito células Neurais Arti-

Os tipos de Células Neurais do SNAPtc são pra-ticamente os mesmos utilizados no SNAPac. Apenas ascélulas de conexão lógica simples que sendo deminimização diferem das apresentadas anteriormente.

Esta célula, apresenta na sua saída, o sinal demenor valor entre os dois aplicados nas suas entradas.

Page 198: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 0 1

ficiais Paraconsistentes.

Figura 8.7 - Sistema Neural Artificial Paraconsistente de tratamento decontradições.

Os padrões PA, P

B e P

C são valores reais variáveis entre 0 e 1 que

representam informações a respeito de uma mesma proposição. Quando opadrão apresentar o valor 1 significa que a informação é a representativa deuma proposição Verdadeira. Quando o padrão vem com o valor 0 significaque é um sinal representativo da proposição Falsa. Uma proposição Indefi-nida é representada por um padrão de valor 1/2.

Quando os três sinais se apresentarem com valor 1, significa que asinformações a respeito de uma proposição estão dando uma conotação deVerdade, sem existência de contradições. Se os três sinais se apresentaremcom valor 0, as informações a respeito da proposição darão uma conotaçãode Falsidade à proposição. Na existência de diferença de valores entre doissinais, significa que existe contradição, portanto deve-se consultar um ter-ceiro especialista, cuja informação ajudará na tomada de decisão.

No Sistema Neural Artificial Paraconsistente de tratamento de contra-

Page 199: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 0 2

dição a consulta ao terceiro especialista é instantânea e contínua. Nestemodo de análise, todas as informações, tanto as contraditórias como a doterceiro especialista são relevantes e, portanto, consideradas no resultado.

A primeira camada do Sistema é composta por três células de conexãoanalítica: C

1, C

2 e C

3 cujos sinais são analisados através da Equação Estru-

tural Básica EEB resultando nos sinais de saída SA, S

B e S

C.

SA =

PA - P

B C + 1

2 Onde: PB C

=1 - PB

SB =

PB - P

C C + 1

2 Onde: PCC

=1 � PC

SC =

PC - P

A C + 1

2 Onde: PAC

=1 � PA

Nas camadas internas, as células C4 e C

6 constituem uma Unidade

Neural de maximização de três entradas e as células C5 e C

7 uma Unidade

Neural de minimização. Na Unidade neural de maximização, o maior valorentre as saídas S

A, S

B e S

C, obtido pelas análises efetuadas nas células da

primeira camada, vai aparecer na saída SG.

Na unidade Neural de minimização o valor resultante na saída SE seráo menor que aparecer nas saídas SA, SB e SC. A célula C8 utiliza a EEB parafazer a última análise entre os sinais apresentados nas saídas SF e SG. Por-tanto a equação utilizada pela célula C8 é:

µ1R =

SF - S

G C + 1

2 Onde: SG C

=1 � SG

8.10 - Ensaios com o SNAPtc

Como demonstração de funcionamento foi feito um ensaio com oSNAPtc, no qual são aplicados valores considerados relevantes para aná-lise.

A tabela da figura 8.9 apresenta os resultados obtidos quando sãoaplicados nas entradas P

A, P

B e P

C os valores 1.0, 0.75, 0.5, 0.25 e 0. A tabela

apresenta os valores obtidos na saída µ1R com fator de tolerância à Contra-dição Ftct=0 e fator de tolerância à Certeza Ftc=1. Portanto, estes valoresestão ajustados para não influenciarem nos resultados da análise.

Page 200: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 0 3

Figura 8.8 - Tabela de resultados do ensaio com o SNAPtc aplicandovalores nas entradas P

A, P

B e P

C .

A figura 8.9 apresenta os resultados da tabela em forma de gráficospara uma melhor visualização.

Page 201: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 0 4

Figura 8.9 - Resultados gráficos do ensaio com o SNAPtc.

8.10.1 - A importância do SNAPtc no processoevolutivo da Neurocomputação

O Sistema Neural Paraconsistente de tratamento de contradiçõesSNAPtc é uma efetiva contribuição aos estudos das redes neurais porqueapresenta um método inovador no tratamento de sinais contraditórios. OSistema Neural Paraconsistente de tratamento de contradições demonstraque as Células Neurais Artificiais Paraconsistentes oferecem possibilida-des para elaboração de projetos de sistemas que fazem o processamento desinais de maneira similar ao processamento dos sinais elétricos feito pelocérebro.

Page 202: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 0 5

O SNAPtc traz, de maneira objetiva e prática, novas formas de aplica-ções em Redes Neurais em que o tratamento de sinais contraditórios podeser efetuado em tempo real utilizando componentes de fácil implementação.

Os resultados obtidos com o ensaio do SNAPtc demonstram que omesmo tem capacidade de processar sinais em tempo real, diluindo contra-dições de forma rápida e instantânea. Em Redes Neurais Paraconsistentes épossível interligar sistemas deste tipo para processar sinais de forma seme-lhante ao processamento do cérebro humano.

8.11 - Considerações Finais

Os Sistemas apresentados neste capítulo vêm demonstrar que as Cé-lulas Neurais Artificiais Paraconsistentes quando convenientemente inter-ligadas vão compor configurações que proporcionam tratamento de sinais,mesmo sendo contraditórios. O Sistema de aprendizado condicionado ba-seado nos conceitos dos experimentos de Pavlov e as regras do aprendiza-do Hebbiano são de extrema importância para modelamento do funciona-mento do cérebro.

Estes Sistemas foram totalmente projetados com Células Neurais Ar-tificiais Paraconsistentes que são descritas por equações matemáticas sim-ples, facilitando a sua implementação por software ou por hardware.

Acreditamos que este inédito método de tratamento de sinais basea-do na teoria da Lógica Paraconsistente Anotada, devido à sua maior simpli-cidade quando comparada com redes neurais clássicas, permita que as fun-ções biológicas neurais sejam melhor compreendidas e interpretadas.

Devido à facilidade de implementação das células em projetos deNeurocomputação, as possibilidades de aplicações são enormes, abrindocampo para novas e promissoras pesquisas nesta área.

8.12 - Exercícios

1- Explique como são constituídos os Sistemas Neurais ArtificiaisParaconsistentes SNAP’s.

2- Descreva o processo conhecido como “Aprendizado condiciona-do”.

3- Descreva a regra do aprendizado Hebbiano.

4- Como é o processo conhecido como “Aprendizado não condicio-nado”?

5- Dê as principais características das CNAP’s componentes do Siste-

Page 203: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 0 6

ma Neural Artificial Paraconsistente de aprendizado condicionado - SNAPac.

6- Esboce a configuração e descreva o funcionamento do SistemaNeural Artificial Paraconsistente de aprendizado condicionado - SNAPac.

7- Destaque a importância do Sistema Neural Artificial Paraconsistentede aprendizado condicionado - SNAPac na Neurocomputação.

8- Explique o que é um Sistema Neural Artificial Paraconsistente detratamento de contradições SNAPtc.

9- Esboce a configuração e descreva o funcionamento do SistemaNeural Artificial Paraconsistente de tratamento de contradições SNAPtc.

10- Destaque a importância do Sistema Neural Artificial Paraconsistentede tratamento de contradições SNAPtc na Neurocomputação.

11- Elabore em linguagem de programação C ( ou em outra linguagemde programação que você domine) o programa executável do Sistema NeuralArtificial Paraconsistente de aprendizado condicionado - SNAPac.

12- Elabore em linguagem de programação C ( ou em outra linguagemde programação que você domine) o programa executável do Sistema NeuralArtificial Paraconsistente de tratamento de contradições SNAPtc.

Page 204: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 0 8

CAPÍTULO 9AS REDES NEURAIS ARTIFICIAIS

PARACONSISTENTES

Estudaremos a Arquitetura de uma Rede Neural ArtificialParaconsistente RNAP que processa sinais com procedimentos inspiradosno funcionamento do cérebro humano.

A Rede Neural Artificial Paraconsistente é totalmente construída comas Células Neurais Artificiais Paraconsistentes formando Unidades (UNAP’s)e Sistemas (SNAP’s) que direcionam, tratam e analisam sinais de informa-ções conseguindo-se um modelo muito próximo das funções mentais quecaracterizam o comportamento do cérebro humano. Na Arquitetura da RNAPas Unidades Neurais Artificiais Paraconsistentes são interligadas forman-do fatias (waffers) denominadas de Sistema Neural Artificial de aquisiçãode conhecimento SNAP’s. Vários Sistemas com configurações distintassão ligados paralelamente recebendo e analisando padrões aplicados nasentradas da RNAP, simultaneamente, permitindo que o tratamento de sinaisseja feito de modo paralelo e distribuído.

Na Arquitetura da Rede Neural Artificial Paraconsistente, um sistemade direcionamento de sinais permite três estados de funcionamento da Rede:Aprendizagem, Comparação e Lembrança. Neste trabalho, é mostrado umexemplo simplificado de reconhecimento de padrões utilizando uma RNAPque pode ser extensivo a outras funções mais complexas desenvolvidaspelo cérebro.

A RNAP traz inovação nos projetos de redes neurais na área daNeurocomputação porque, sendo baseada em uma Lógica Não-Clássica,tem características similares aos processos neurológicos e utiliza compo-nentes traduzidos em equações matemáticas muito simples, sendo de fácilimplementação por meio de programação em linguagem computacional sim-ples.

Page 205: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 0 9

9.1 - Introdução

As Redes Neurais Artificiais RNA são sistemas de processamento dedados inspirados na organização física do cérebro humano. Quando com-parados com os circuitos digitais que funcionam nos computadores, osneurônios biológicos são lentos, mas formam uma rede imensa de célulasintensamente interconectadas de maneira que todas operam ao mesmo tem-po.

Este funcionamento paralelo proporciona condições ao cérebro deexecutar tarefas extremamente complexas, como interpretação de imagens ecompreensão de sons, em pequena fração de segundo. Este curto tempoque o cérebro leva para executar estas tarefas é devido ao processamentoparalelo que, ao contrário do funcionamento seqüencial do computador,exige pequeno número de etapas para fazer a interpretação e execução.

O computador, apesar de ser mais rápido, não consegue tratar infor-mações com ruídos, do tipo difusa, contraditórias e ambígua. Quando éobrigado a tratar estas situações, aumenta considerávelmente o número deetapas para finalizar uma análise e definir uma conclusão.

Diferentemente do computador que, por utilizar lógica clássica comcaracterísticas binárias, não suporta a perda de um único bit de informação,o cérebro humano distribui informações entre os neurônios e como resulta-do todo o sistema de processamento é tolerante a falhas.

A tolerância a falhas é uma das características mais importantes docérebro humano, porque se os neurônios, em uma parte do cérebro foremdestruídos os neurônios de outra parte fazem o processamento da partedestruída o que denota a existência de uma memória distribuída.

O cérebro humano trabalha de modo paralelo, sempre comparando eencontrando casamento de padrões que, de alguma forma, foram anterior-mente adquiridos. No encontro de casamentos, a comparação não é feitautilizando os conceitos da lógica clássica onde apenas duas situações sãoadmitidas, mas sempre de maneira aproximada.

Para cada análise comparativa, é procurado sempre o casamento maisaproximado para solução do problema que se apresenta.

Outra característica do funcionamento do cérebro é que os neurôniosbiológicos têm um comportamento próprio baseado na situação local e suaação particular vai contribuir para formar uma ação ampla ou total. Estacaracterística é chamada de comportamento emergente onde cada elemen-to ou célula do processamento vai tomar decisões com base na situaçãolocal e cada decisão local tomada por cada célula é agrupada para formaruma decisão global.

Quando se deseja modelos que simulem os procedimentos do cérebrodeve-se levar em consideração que os circuitos que compõem o computa-

Page 206: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 1 0

dor foram projetados com base na lógica clássica e vão processar os sinaisseguindo os conceitos de uma lógica binária onde bits binários represen-tam apenas dois estados: Falso e Verdadeiro. Quanto ao cérebro, sabe-seque funciona diferentemente do computador e, por este motivo, é grande adificuldade para a obtenção de um modelo satisfatório do cérebro humano.

A solução para encontrar modelos mais adequados é utilizando asLógicas Não-Clássicas que não estão sob as inflexíveis regras binárias daclássica. Portanto, vamos utilizar os conceito da Lógica ParaconsistenteAnotada de anotação com dois valores LPA2v que é uma lógica Não-Clás-sica que aceita e trata situações de inconsistências.

Ficou demonstrado pelos resultados obtidos anteriormente que aLógica Paraconsistente Anotada tem características mais próximas do serhumano, portanto pode ser uma ótima ferramenta para modelagem do cére-bro.

A capacidade da LPA de se mostrar mais eficiente é porque, na suaestrutura, são aceitos e considerados outros estados lógicos não permiti-dos pela Lógica Clássica, mas que são representativos de situações reaiscomo a contradição e indefinição, situações estas que o ser humano, aocontrário do computador, resolve em um tempo muito curto e sem mostrarnenhuma dificuldade.

9.2 - A Rede Neural Artificial Paraconsistente e asCélulas Neurais Componentes

Na análise paraconsistente, o objetivo principal é saber com que me-dida ou grau de Certeza G

c podemos afirmar que uma proposição é Falsa ou

Verdadeira. É considerado como resultado da análise apenas o valor dograu de Certeza G

c. O valor do grau de Contradição G

ct é um indicativo que

informa a medida da inconsistência. Se houver um baixo valor de certeza oumuita inconsistência o resultado é uma indefinição.

Os valores de controle ajustados externamente são limites que vãoservir como referência na análise. No capítulo 2, foi considerado num qua-drado unitário do plano cartesiano QUPC o reticulado associado à LógicaParaconsistente Anotada LPA2v onde foram obtidas as equações dos Grausde Certeza G

c e dos graus de Contradição G

ct.

Para esclarecimentos a figura 9.1 mostra o resumo do processo.

Page 207: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 1 1

Figura 9.1- (a) Reticulado associado à LPA2v (b) Estudo do Reticuladono QUPC (c) Reticulado da LPA com valores dos graus de certeza e decontradição.

Podemos descrever a análise paraconsistente utilizando apenas asequações originadas no Quadrado Unitário do Plano Cartesiano:

Sendo as variáveis de entrada: µ1, tal que: 0 ≤ µ

1 ≤1 e µ

2, tal que: 0

≤ µ2 ≤ 1

Os valores limites: Vicc, tal que: -1 ≤ Vicc ≤ 0 Vscc, tal que: 0 ≤ Vscc ≤1 Vicct, tal que: -1 ≤ Vicct ≤ 0 Vscct, tal que: 0 ≤Vscct ≤ 1

O grau de Certeza calculado: Gci = µ

1 - µ

2

O grau de Contradição: Gct= µ

1 + µ

2 - 1

O grau de Certeza Gc resultante da análise é obtido através das com-

parações feitas a seguir: Se: Vicc ≤ Gci ≤Vscc ou Vscct ≤ Gct ≤Vicct ⇒ Gc = Indefinição Para:Vicct ≤Gct ≤ Vscct. Se: Gci ≤ Vicc ⇒ Gc = Falso com grau Gci Vscc ≤ Gci ⇒ Gc = Verdadeiro com grau Gci

Uma análise mais sutil do processo que envolve as equações daLógica Paraconsistente Anotada levam à conclusão contundente que, osresultados com algoritmo Para-Analisador no tratamento de sinais de infor-mações obtidos de situações reais que podem chegar com contradições,mostram forte semelhança com os modos de processamento conhecidos nofuncionamento do cérebro humano. A decisão tomada a partir de informa-ções adquiridas pelos sentidos é um processo mental biológico próprio doser humano.

Page 208: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 1 2

Com base nas funções análogas da análise paraconsistente e do cé-rebro, foi criado o algoritmo Para-Analisador que representa uma CélulaArtificial Paraconsistente básica CAPb.

A CAPb é a Célula-Matter que originou a família de Células NeuraisArtificiais Paraconsistentes.

A partir da célula básica foram criados oito tipos de células todasfuncionando com a Equação Estrutural Básica EEB: µ

r = µ

1A- µ

1Bc + 1

2 Onde: µr = grau de crença resultante µ1A = grau de crença da entrada A. µ1B c= grau de crença da entrada B complementado.

Sendo: µ1B c= 1 - µ1B e µ1, tal que: 0 ≤ µ1 ≤1 e µ2, tal que: 0 ≤ µ2 ≤ 1.

A figura 9.2 apresenta as células componentes da família de CélulasNeurais Artificiais Paraconsistentes.

Figura 9.2- Família de Células Neurais Artificiais ParaconsistentesCNAP’s.

Page 209: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 1 3

9.3 - A Arquitetura da Rede Neural Artificial Paraconsistente - RNAP

A Arquitetura de uma Rede Neural Artificial Paraconsistente procuraseguir o modelo do funcionamento do cérebro e faz o tratamento de sinaise a manipulação de dados de forma paralela e distribuída.

As interligações entre as Células Neurais Artificiais Paraconsistentesformam Unidades UNAP’s com funções bem definidas.

Na Arquitetura da RNAP, algumas Unidades Neurais ArtificiaisParaconsistentes UNAP’s vão funcionar como componentes periféricos,cujo procedimento é direcionar sinais para controlar fluxo de dados noprocessamento.

Outras Unidades são interligadas compondo Sistemas NeuraisArtificias Paraconsistentes SNAP’s de processamento internos que vãomanipular dados fazendo análises, aprendendo, associando e memorizandopadrões.

Todos os procedimentos feitos pelas UNAP’s, tanto para odirecionamento de sinais como para a análise dos valores, são baseadosnos cálculos feitos através da Equação Estrutural Básica (EEB) originadada Lógica Paraconsistente Anotada.

A Arquitetura é basicamente composta de três tipos de módulos dis-postos paralelamente:

a) Módulos de aprendizagem primária e memorização de padrões.Os módulos de aprendizagem primária e memorização de padrões são

compostos de unidades neurais de células primárias que têm a função dereconhecer, aprender e criar uma célula de memorização do padrão aprendi-do.

b) Módulos de direcionamento de sinais para efetuação da análise.Os módulos de direcionamento de sinais são compostos por Unida-

des Neurais cujas funções são de comparar e direcionar o fluxo de sinais emdeterminadas partes da rede.

c) Módulos de análise e aquisição de conhecimento.Os módulos de análise e aquisição de conhecimento são compostos

de Unidades neurais que analisam os valores dos sinais conforme a LógicaParaconsistente e por meio de interligações internas e treinamento detec-tam similaridades de padrões e adquirem conhecimento.

Os três tipos de módulos são interligados formando as fatias (Waffers)da RNAP ligadas paralelamente entre si. Portanto, na RNAP as fatias dife-rem uma das outras, mais precisamente pelos seus respectivos SNAP que,no aprendizado, fazem a aquisição de conhecimento para uma particularanálise.

A figura 8.3 mostra o fluxo e o direcionamento de sinais representan-

Page 210: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 1 4

do padrões aplicados em uma fatia da RNAP que será interligada com asoutras componentes da rede que, obviamente, têm sistemas de tratamento eaquisição de conhecimento distintos.

Os fatores de tolerância à Certeza e à Contradição, assim como osfatores de aprendizagem e desaprendizagem das células que aparecem naarquitetura não serão considerados neste estudo.

Estes fatores serão controlados externamente pelo Sistema NeuralArtificial de raciocínio lógico - SNAPrl, onde vão possibilitar ajustes decaracterísticas importantes para a Rede.

Figura 9.3 - Esquemático de uma fatia (waffer) da Rede Neural Artifici-al Paraconsistente.

De forma resumida, no processamento de sinais da RNAP todas asfatias recebem os mesmos padrões nas entradas e, simultaneamente, fazema síntese e a análise necessária para elaboração de uma conclusão.

Um grau de crença resultante, representado por um valor obtido con-forme a análise paraconsistente, é a conclusão de cada fatia da RNAP. Aconclusão particular oferecida por cada fatia é analisada por um sistema de

Page 211: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 1 5

competição que seleciona qual a mais viável, representada pelo grau decrença resultante maior, para ser considerada.

A figura 9.4 apresenta a arquitetura da Rede Neural ArtificialParaconsistente representada pelas fatias compostas de blocos de Unida-des Neurais que terão a descrição de funcionamento detalhada a seguir.

Figura 9.4 - Arquitetura da Rede Neural Artificial Paraconsistente(RNAP).

9.4 - Descrição do Funcionamento da RNAP

A Rede Neural Artificial Paraconsistente RNAP tem três estados defuncionamento:

1- Aprendizagem.No estado funcional de Aprendizagem, cada fatia da RNAP aprende

separadamente os padrões aplicados de forma repetidamente na entrada.2- Comparação.No estado funcional de Comparação, a RNAP faz o reconhecimento

de padrões. O reconhecimento é feito comparando os padrões que estão

Page 212: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 1 6

aplicados na entrada a padrões que foram aprendidos e armazenadosanteriormente nas fatias da rede.

3- Lembrança.No estado funcional de Lembrança, a RNAP isola uma particular fatia

e permite que os seus padrões sejam ativados apenas por um sinal de con-trole interno.

Os valores dos sinais de controle 1 e 2 decidem o estado funcional darede.

9.4.1 - A Unidade Neural Artificial Paraconsistentede aprendizagem, primária e memorização depadrões.

Na Arquitetura da Rede Neural Artificial Paraconsistente, a UNAPde aprendizagem primária e memorização recebe os padrões aplicados naentrada, portanto representa a área cerebral de recepção sensorial.

Os padrões são informações captadas por sensores, que no ser huma-no representam os sentidos: visão, audição, paladar, olfato e tato.

Os sentidos transformam as grandezas físicas do ambiente em sinaiselétricos para serem processados no cérebro. Na RNAP os padrões sãorepresentados por sinais que chegam na forma de uma valoração, portantopodem ser tratados conforme a Lógica Paraconsistente Anotada onde asinformações são os graus de crença de valores reais entre 0 e 1.

Para um melhor entendimento do processo, vamos considerar que ospadrões são sinais primários onde a existência de um valor 1 é o equivalenteao padrão de Verdade e a existência de um valor 0 significa um padrão deFalsidade.

As Células Neurais Artificiais Paraconsistentes por um processo detreinamento podem aprender e desaprender padrões. Este procedimento éobtido através de um algoritmo baseado na Lógica Paraconsistente Anota-da que, primeiramente proporciona à célula o reconhecimento do padrão aser aprendido e depois processa de modo sistemático o aprendizado dopadrão de Verdade e de Falsidade quando os mesmos são insistentementeaplicados na entrada.

Na UNAP de aprendizagem primária e memorização de padrões, aoreconhecer qual o padrão a ser aprendido a célula de aprendizagem induz aformação de outra célula de memorização.

O par de células aprendizagem/memorização é controlado por umacélula de conexão lógica de maximização.

Estas três Células Neurais Artificiais Paraconsistentes, compõem a

Page 213: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 1 7

UNAP de aprendizagem primária e memorização de padrões.A figura 9.5 mostra a Unidade com as células interligadas.

Figura 9.5 - Unidade de Aprendizagem primária e memorização de umpadrão A.

Os dois sinais ctr1 e µ

r controlam o funcionamento da Unidade. O sinal

ctr1 faz o controle definindo o estado funcional da Rede. Quando o sinal ctr

1

estiver em 1 a célula de aprendizagem C1 recebe através da célula de

maximização C2 o valor 1. O valor 1 recebido da célula C

2 é complementado

na entrada do grau de descrença de C1 e dando a esta a característica de uma

célula treinada. Se a entrada do grau de crença de C1 estiver complementado

ela é uma célula de aprendizagem de padrão de Falsidade onde um valor 0 naentrada resulta em uma grau de crença resultante 1 na saída. Se a entrada dograu de crença de C

1 não estiver complementado, então ela é uma célula

treinada para reconhecer padrão de Verdade, portanto quando um valor 1 éaplicado na entrada, é obtido um grau de crença resultante 1 na saída.

Quando o sinal ctr1 estiver em 0 a célula está livre para entrar num

processo de aprendizagem normal, portanto vai fazer o reconhecimento dopadrão a ser aprendido e, dependendo do seu estado atual, pode aprendere desaprender padrões. No processo de aprendizagem da célula C

1 foi gera-

da, através do sinal m, a célula de memorização C3que é controlada pelo

sinal µR.

O sinal µR tem a função de fazer a extração do padrão aprendido e

memorizado de dois modos: normal e forçado. No modo normal, temos

Page 214: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 1 8

como entrada µR e a extração é feita através do próprio resultado do

processamento da rede, que acontece nos estado funcionais de Aprendiza-gem e Comparação. No modo forçado temos como entrada o sinal mRF queé enviado quando o estado funcional é o de Lembrança. O controle para aextração dos padrões memorizados é feito pela Unidade Neural ArtificialParaconsistente de ativação de padrões UNAP-ap que controla as entradasµ

R e µ

RF.

9.4.2 - A Unidade Neural Artificial Paraconsistente deativação de padrões

A Unidade Neural Artificial Paraconsistente de ativação de Padrões écomposta de duas células: uma de conexão lógica seletiva e uma de cone-xão lógica simples, ambas preparadas para um processo de maximização. Afigura 8.6 apresenta a Unidade Neural Artificial de ativação de padrões daRNAP.

Na figura, é visto que uma das entradas da Unidade é o valor µ1, que é

a saída do Sistema Neural Artificial Paraconsistente que compõem o módulode aquisição de conhecimento e tratamento de sinais. No estado funcionalde Aprendizagem ou no estado de Comparação, o sinal cntr

2 tem valor 0,

portanto, o grau de crença resultante µ1 não sofre nenhuma intervenção que

possa modificar o seu valor. Neste modo, o sinal resultante da análise efetu-ada pelo sistema é comparado na Unidade de Competição e segue o proces-so normal de processamento. Quando o sinal cntr

2 tem valor 1 força um grau

de crença máximo na unidade de competição provocando uma saída máximanesta fatia e umaindefinição de valor 1/2em todas as outras fatiascomponentes da RNAP.

Este procedimentofaz a fatia da RNAP entrarno estado funcional deLembrança, cujo valor deµ

1RF=1 obriga os padrões

memorizados na UnidadeNeural de aprendizagemprimária e memorização aserem apresentados na sa-ída.

Page 215: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 1 9

Figura 9.6 - Unidade NeuralArtificial Paracon-sistente de ativação depadrões.

No estado funcional de Lembrança, o sinal ctr2 tem valor 1 e esta

condição provoca uma indefinição de valor 1/2 na saída SA da célula C1 eum valor máximo na saída S

B. Enquanto o sinal ctr

2 permanecer em 1, na

saída da célula de maximização C2 vai prevalecer o valor máximo 1, que será

aplicado diretamente na Unidade de competição seletiva.

9.4.3 - A Unidade Neural Artificial Paraconsistentede competição seletiva

a) A Unidade Neural Artificial Paraconsistente de Competição Seleti-va tem duas funções básicas:

b) encontrar o maior valor dos graus de crença resultante nas saídasdas fatias.

selecionar a fatia do grau de crença vencedor. A UNAP de Competi-ção seletiva para exercer esta função envia e recebe valores de graus decrença para comparação, portanto é uma unidade interligada à todas asfatias da RNAP.

Por simplicidade vamos considerar uma RNAP de 4 fatias onde osresultados das análises vão ser comparadas na Unidade de Competiçãoseletiva. A figura 9.6 mostra a unidade composta de quatro grupos, ondecada grupo tem duas células de conexão lógica simples e uma célula deconexão lógica seletiva.

Figura 9.6 - Unidade de Competição seletiva composta de quatro gru-

Page 216: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 2 0

pos para análise dos graus de crença resultantes de quatro sistemas neurais.

A unidade mostrada na figura anterior, faz a competição entre quatrosinais de graus de crença resultantes de quatro fatias.

Os sinais dos graus de crença resultantes que entram na unidade sãoos resultados das análises paraconsistentes efetuadas por fatias da redeque envolve quatro Sistemas Neurais com aquisição de conhecimentosdistintos.

Quando os padrões são apresentados na entrada da RNAP a análiseé feita instantaneamente, nas quatro fatias interligadas em paralelo resul-tando nos quatro sinais de graus de crença µ R1, µ R2, µR3 e µ R4.

Na Unidade de Competição, cada grupo é ligado a uma fatia da rede erecebe os graus resultantes das outras, através das duas células de cone-xão lógica simples de maximização. O resultado da análise feita nas duasprimeiras células sempre é o maior valor entre os graus de crença resultan-tes das análises efetuadas pelas fatias. A última célula é de conexão lógicaseletiva que faz a comparação entre o máximo grau de crença resultante dafatia ligada ao grupo com o grau de crença resultante das outras fatias daRNAP.

As células de maximização seletiva analisam, simultaneamente, osquatro graus de crença resultantes, inclusive o resultado da sua própriafatia e direciona o valor do grau de crença máximo para a ativação dospadrões memorizados.

Como o grau de crença máximo também está aplicados nas outrascélulas de maximização da Unidade de competição, automaticamente é inibi-da a saída das outras fatias selecionando sempre a de maior grau de crençaresultante.

9.4.4 - O Sistema Neural Artificial Paraconsistentede aquisição de conhecimento

Na Arquitetura da RNAP o Sistema Neural Artificial Paraconsistentede Aquisição de conhecimento é o módulo que difere uma fatia da outra. Éum conjunto de células Neurais que apresentam uma análise própria e dis-tinta. Neste módulo, estão interligadas células treinadas para fazerem reco-nhecimento de determinado padrão com todas as características de umaRede Neural Artificial Paraconsistente, como: tolerância a ruídos, associa-ções de padrões, condicionamento, plasticidade, memorização e tratamentode inconsistências.

No processo de Aprendizagem, cada fatia é treinada separadamentede forma que o Sistema de aquisição de conhecimento adquire sua particu-

Page 217: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 2 1

lar função. Como exemplo, vamos considerar uma RNAP para reconheci-mento de padrões, onde por facilidade serão representados por duas entra-das. Os padrões aplicados nas entradas podem ser valorados num intervaloreal fechado entre 0 e 1. Por facilidade vamos considerar que, nas duasentradas da rede, serão aplicados padrões de Falsidade de valor 0 ou pa-drões de Verdade de valor 1. Para as duas entradas com padrões deste tipo,apenas quatro condições são necessárias para cobrir todas as possibilida-des: P

A=0, P

B=0, ou P

A=0, P

B=1 ou P

A=1, P

B=0 ou P

A=1, P

B=1. Para início do

treinamento, é separada uma fatia da RNAP e aplicados nas entradas ospadrões P

A= 0 e P

B = 0 repetidas vezes.

A figura 9.7 mostra as células de um Sistema Neural Paraconsistentepara um simples processo de reconhecimento de padrões. Para ficar maisclaro o processo, foram omitidas as células de controle que agem na reali-mentação das células de aprendizagem conforme foi estudado na Unidadede aprendizagem primária e memorização de padrões.

Na figura 9.7 as células C1 e C

2 são células de aprendizagem que devi-

do à aplicação dos padrões PA=0 e P

B=0, repetidas vezes, nas entradas

aprendem padrão de Falsidade e como conseqüência criam duas células dememorização através do sinal m=1.

Quando o processo de aprendizagem nas células primárias C1 e C

2 é

completado, na saída da célula de conexão analítica C3, é apresentado o

grau de crença µ1=1 que, por sua vez, foi aprendido pela célula de aprendi-

zagem C4 resultando no grau de crença µ

1R=1.

Page 218: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 2 2

Figura 9.7 - Treinamento da primeira fatia para os padrões PA=0 e

PB=0 em uma RNAP.

O valor do grau de crença resultante da aprendizagem µ1R

é enviadopara a Unidade de competição seletiva passando antes pela Unidade deativação de padrões.

Neste processo de aprendizagem, o sinal µ1R

não sofre a influência daUnidade de ativação de padrões, portanto, quando os padrões P

A=0 e P

B=0

aparecerem na saída, significa que a fatia da rede foi treinada e adquiriuconhecimento e o processo é finalizado.

As células de aprendizagem primárias C1 e C

2 guardam as suas carac-

terísticas de padrão de Falsidade aprendidas no treinamento, portanto to-das as vezes que os valores P

A=0 e P

B=0 aparecerem nas entradas da RNAP,

o Sistema Neural desta fatia responde com um grau de crença resultanteµ

1R= 1.

Valores aplicados próximos a este são captados e analisados peloSistema resultando num grau de crença na saída de valor real entre 0 e 1, quevai sofrer uma comparação com os resultados das outras fatias que serãotreinadas e instaladas na RNAP.

Os mesmos procedimentos são feitos para padrões diferentes apli-cados na RNAP. Portanto o treinamento segue o mesmo processo descritoabaixo:

a) Isolar a fatia que se deseja treinar.b) Aplicar os padrões nas entradas até o aparecimento dos mesmos

na saída.c) Ligar todas as fatias treinadas em paralelo.

Deve-se levar em consideração que no processo de treinamento ascélulas de aprendizagem primárias só têm necessidade de criarem células dememorização de padrões uma única vez, visto que na saída os padrõesapresentados terão no máximo dois dígitos.

Para este exemplo, vimos que serão conseguidos um total de quatrofatias treinadas que, no final, estarão interligadas conforme a figura 9.8.

Na figura 9.8 há quatro fatias da RNAP treinadas para reconhecerquatro pares de padrões.

Quando um destes pares de padrões se apresentar na entrada umadas fatias treinadas apresentará o grau de crença resultante maior.

Como todos os sinais resultantes são comparados na Unidade deCompetição esta fatia que reconheceu o padrão é que ativará o padrão dascélulas de memorização criadas pelas células primárias no processo de apren-dizagem.

Page 219: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 2 3

Figura 9.8- Fatias da Rede Neural Artificial paraconsistente para reco-nhecimento de padrões.

9.5 - Considerações Finais

Apresentamos uma inovadora forma de modelar o processamento dedados efetuado pelo cérebro humano. A Lógica Paraconsistente Anotada,por ser uma Lógica Não-Clássica já traz intrínseco um modelo que se ajusta,de maneira adequada, às características principais do funcionamento docérebro.

As RNAP’s abrem grandes possibilidades de diversidade de funçõescom análises e aquisição de conhecimento de um modo inovador e muitoeficiente. A fatias da RNAP podem ser treinadas com configurações dife-rentes, com características de aprendizado condicionado, detecção de simi-laridades de padrões e funções outras de conexão características do funci-onamento do cérebro humano.

Os resultados de uma Rede Neural Artificial Paraconsistente tambémpodem ser conectados com resultados de outras RNAP, através de Siste-

Page 220: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 2 4

mas Neurais Paraconsistentes que apresentam funções dos conectivos ló-gicos de ligação como: AND, OR, EXOR, etc. Através destes Sistemas deconexão são formadas extensas Redes com capacidade de fazer inferência eraciocínio sobre proposições do mundo real.

A nova arquitetura para processamento de sinais, além de se mostrareficiente é muito fácil de ser implementada porque as equações são simplese podem ser projetadas por circuitos elétricos ou por programas aplicativosde Software. Na Arquitetura da RNAP, os fatores de tolerância à Certeza Ftce tolerância à Contradição F

tct que ajusta cada célula pode modificar as

características da rede fazendo com que assuntos de maior responsabilida-de possam ser analisados com maior rigor. Os fatores de aprendizagem F

A e

de desaprendizagem FDA

que permitem às células de aprendizagem aprendere desaprender com maior ou menor rapidez, introduz a possibilidade parasimulação de memórias de curto e de longo prazo, de forma distribuída narede.

Foi demonstrado que a aplicação da Lógica Paraconsistente Anotadapara modelagem do cérebro se mostra mais eficiente porque, na sua estrutu-ra, são aceitos e considerados outros estados lógicos não permitidos pelaLógica Clássica, mas que são representativos de situações reais como acontradição e indefinição. A estrutura não-clássica da LógicaParaconsistente Anotada é compatível com o comportamento dos neurôniose, portanto mais propícia para modelar todo o processo de tratamento doconhecimento incerto que o cérebro executa com extrema habilidade.

9.6- Exercícios

1- Dê a definição de Redes Neurais Artificiais RNA.

2- Descreva as diferenças de processamento entre os computadores eo cérebro humano.

3- Comente quais são as semelhanças encontradas entre oprocessamento do cérebro humano e a análise da LPA2v.

4- Como é constituída a Arquitetura das Redes Neurais ArtificiaisParaconsistentes ?

5- Faça uma descrição resumida de uma RNAP.

6- Esboce a configuração e descreva o funcionamento de uma Unida-de de Competição seletiva composta de quatro grupos para análise dosgraus de crença resultantes de quatro sistemas neurais.

Page 221: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 2 5

7- Descreva o funcionamento e esboce a configuração de um SistemaNeural Artificial Paraconsistente de Aquisição de conhecimento SNAP-Ac

8- Descreva o funcionamento das Fatias da Rede Neural Artificialparaconsistente para reconhecimento de padrões.

9- Elabore em linguagem de programação C (ou em outra linguagem deprogramação que você domine) o programa executável do Sistema NeuralArtificial Paraconsistente de Aquisição de conhecimento SNAP-Ac.

10- Elabore em linguagem de programação C ( ou em outra linguagemde programação que você domine) o programa executável do Sistema defatias da Rede Neural Artificial Paraconsistente para reconhecimento depadrões.

11- Elabore em linguagem de programação C ( ou em outra linguagemde programação que você domine) o programa executável de uma RNAP,com base na Arquitetura da Rede Neural Artificial Paraconsistente apre-sentada neste capítulo.

Page 222: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 2 6

CAPÍTULO 10O SISTEMA DE RACIOCÍNIO LÓGICO

PARACONSISTENTE

O Sistema de Raciocínio lógico tem a função de inferir e conectar osmódulos de Análise e Aquisição de Conhecimento da Rede Neural Artifici-al Paraconsistente RNAP.

O Sistema de raciocínio lógico é um Sistema Neural ArtificialParaconsistente SNAP construído com Unidades Neurais ArtificiaisParaconsistentes UNAP’s. Conforme foi visto, as UNAP’s são agrupamen-tos de Células Neurais Artificiais Paraconsistentes interligadas convenien-temente para efetuar determinadas funções na rede.

Apresentamos os SNAP’s de raciocínio lógico que efetuam as cone-xões lógicas mais utilizadas por uma Rede Neural, que são as dos tipos: “E”(AND), “OU” (OR) e “OU-Exclusivo” (EXOR). Os procedimentos para ob-tenção de Sistemas que executam outras conexões podem ser elaboradosfazendo-se pequenas modificações nas interligações das células.

Para efeito de demonstração, nos Sistemas de raciocínio que efetuamas funções apresentadas foram feitos ensaios com valores significativosaplicados como padrões de entrada. Os resultados obtidos demonstramque os Sistemas Neurais Artificiais Paraconsistentes de raciocínio são efi-cientes, tolerantes às falhas e simples de serem implementados por meio delinguagem de computação convencional.

10.1 - Introdução

A Rede Neural Artificial Paraconsistente RNAP é composta de módulosde representação e memorização de conhecimento interconectados que ela-boram análises e obtém valores de graus de crença que possibilitam gerarconclusões. Para fazer as interconexões entre os módulos são utilizados os

Page 223: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 2 7

Sistemas Neurais Artificiais Paraconsistentes SNAP’s preparados para es-tas funções.

A Rede Neural Artificial Paraconsistente RNAP é construída comCélulas originadas da Lógica Paraconsistente Anotada, cuja função é fazeranálises baseadas na Equação Estrutural Básica EEB: µ

r = (µ1 - µ2 + 1) : 2.

As UNAP’s são agrupamentos de Células Neurais ArtificiaisParaconsistentes CNAP interligadas convenientemente para efetuar fun-ções de aprendizado, memorização, direcionamento e tratamento de sinais.

As UNAP’s interligadas vão constituindo Sistemas Neurais Artifici-ais Paraconsistentes SNAP’s que apresentam várias características funcio-nais, como Representação, Aquisição de conhecimento, Conexão lógica,etc.

Os Sistemas Neurais Artificiais Paraconsistentes de raciocínio lógicoSNAPrl são interligados em módulos separados que analisam e controlammódulos de vários tipos instalados na Rede Neural Artificial Paraconsistente.

Na figura 10.1 para dar uma idéia mais geral, é mostrada a formaçãodos Sistemas com a criação dos Sistemas de conexão em separado.

Figura 10.1- Composição dos Sistemas Neurais ArtificiaisParaconsistentes.

A Rede Neural Artificial Paraconsistente RNAP recebe padrões deinformações que são analisados por um sistema de raciocínio capaz deinferir conectando blocos para tratamento dos Sinais. Estes blocos tem asfunções distintas, como análises, memorização e aquisição de conhecimen-to, com tratamento de sinais feitos de modo paralelo e distribuído, conformeo funcionamento do cérebro.

Page 224: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 2 8

Os Sistemas Neurais Artificiais Paraconsistentes de raciocínio são oscomponentes dos módulos que elaboram as conexões lógicas na rede e,portanto, os responsáveis pelo processo de inferências.

Os módulos de Conexão Lógica interconectam os módulos de conhe-cimento para fazer a inferência e o raciocínio lógico da rede.

A figura 10.2 mostra estas interconexões entre os módulos de umaRNAP típica.

Figura 10.2- Interconexões entre módulos de uma RNAP típica

Seguindo os procedimentos teóricos da LPA2v do capítulo 2, ainterconexão entre os módulos da rede é feita através do grau de crençaresultante µr, que é o valor da saída do Sistema Neural Paraconsistentecomponente do módulo de raciocínio lógico.

O valor do grau de crença resultante mr controla qual é o módulo queestará ativo e qual estará inativo. Isto é feito através do ajuste do Fator deTolerância à Certeza Ftc que age em cada célula de conexão analítica.

Um grau de crença resultante µr de valor alto na saída de um SNAP doSistema de raciocínio lógico, libera para análise o módulo em que a suasaída está ligada ao seu Fator de tolerância à Certeza Ftc.

Um grau de crença resultante µr baixo na saída do Sistema de raciocí-nio lógico vai impor restrições à análise efetuada pelo seu correspondentemódulo em que está interligado à sua saída.

Se o grau de crença resultante mr é zero, o módulo interligado estará

Page 225: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 2 9

completamente inoperante apresentando um sinal de indefinição de valor 1/2.

10.2 - O Sistema Neural Artificial Paraconsistentede Raciocínio Lógico - SNAPrl

Os Sistemas de Raciocínios Lógicos construídos com Células NeuraisArtificiais Paraconsistentes elaboram as funções lógicas primitivas da redecomo AND, OR e EXOR, etc.

O funcionamento dos SNAP’s de raciocínio lógico segue os procedi-mentos da LPA2v e consiste no tratamento de sinais de graus de crença,através da análise paraconsistente na forma da equação: µr = (µ1 - µ2 + 1) : 2,denominada de Equação Estrutural Básica (EEB).

A configuração básica dos SNAP’s de raciocínio lógico é compostapor um conjunto de células de aprendizagem e de conexão analítica. Ascélulas de aprendizagem sofrem um processo de treinamento separadamen-te para sensibilizar-se a apenas certas seqüências de padrões nas entradase as células de conexão analítica analisam os valores detectados através daEEB.

Depois do devido treinamento, as células estarão capacitadas paradistinguir seqüências de padrões diferentes para serem comparados poruma célula de decisão que, por sua vez, determinará o valor correspondentena saída conforme a função lógica do SNAPrl.

A figura 10.3 mostra a estrutura básica para formar um SNAP de duasentradas composta de quatro células de aprendizagem e quatro células deconexão analítica.

As células componentes de C1 à C

4 são células de aprendizagem que

recebendo padrões repetitivos nas entradas têm as suas saídas com valormáximo igual a 1. As células C

1 e C

3 são preparadas para aprender padrões

de Verdade e as células C2 e C

4 são preparadas para aprender padrões de

Falsidade.As Células componentes, C

5 a C

8 são células de conexão analítica que,

na configuração da figura, já estão convenientemente interligadas para res-ponder a determinadas combinações de padrões aplicados nas duas entra-das, de forma que, o valor das suas saídas somente serão máximos se nasentradas se encontrem as combinações de padrões correspondentes.

Page 226: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 3 0

Figura 10.3- Estrutura básica dos SNAP de raciocínio lógico para duasentradas.

10.3 - Sistema Neural Artificial Paraconsistentede Raciocínio Lógico de Minimização -SNAPrlMin

O Sistema Neural Artificial Paraconsistente de raciocínio lógico deminimização utiliza a estrutura básica apresentada na figura anterior aondesão acrescentadas duas células de conexão lógica de maximização (OR) euma célula de decisão sem o complemento no grau de descrença.

A figura 10.4 mostra uma configuração do SNAPrlMin

Page 227: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 3 1

Figura 10.4- Estrutura básica dos SNAP de raciocínio lógico deminimização SNAPrl

Min.

O Sistema Neural Artificial Paraconsistente de raciocínio lógico deminimização SNAPrl

Min tem a função de, depois de treinado, apresentar na

saída o sinal de menor valor entre aqueles apresentados na suas entradas.As Células Neurais Artificiais Paraconsistentes de aprendizagem, de

conexão analítica e de decisão, inseridas na unidade, vão fazer oprocessamento dos sinais utilizando a Equação Estrutural Básica da LógicaParaconsistente Anotada:

µr = µ1 - µ2 + 1 2O processo de treinamento é feito individualmente em cada configura-

ção do Sistema.

Page 228: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 3 2

Inicialmente, as células de aprendizagem C1 e C

3 detectam os padrões

de Verdade aplicados repetidamente nas entrada.Neste processo são treinadas para apresentarem o grau de crença 1 na

saída quando os padrões µ1A

= 1e µ1B

= 1 estiverem aplicados nas entradas.O procedimento a seguir é fazer o treinamento para que as células de

aprendizagem C2 e C

4 reconheçam os padrões de falsidade m1A = 0 e m1B =

0 nas entradas e apresentem na saída o grau de crença 1.O treinamento será completado quando as células reconhecerem tam-

bém os padrões µ1A

=1 e µ1B

=0 e µ1A

=0 e µ1B

=1 aplicados nas entradas.Depois do treinamento separadamente, as entradas das células são

interligadas, conforme a figura e as suas saídas conectadas às células deconexão analítica.

As células de conexão analítica transferem via células de maximizaçãoC

9 e C

8, o sinal de maior valor para ser analisado na célula de decisão C

11.

As células de conexão lógica simples de maximização C8 e C

9 deixam

passar somente os graus de crença de maior valor, portanto, o grau decrença de maior valor é aplicado na entrada da célula de decisão C

11 como

grau de descrença.Na célula C

11 os sinais são analisados pela EEB e comparados ao

Fator de decisão FD que determinará o valor conclusivo na saída.

O valor de FD é ajustado externamente e pode ser a saída de análises

feitas por outros dispositivos da rede.Como exemplo, vamos considerar que o Fator de decisão esteja ajus-

tado em 1/2, portanto valores de µr obtidos pela EEB acima de 1/2 estabele-ce uma saída “Verdadeira” com µ1Riµ = 1 e os valores obtidos abaixo de 1/2estabelece uma saída “Falsa” µ1Riµ = 0.

Para valores de mr obtidos na saída de C11

iguais a 1/2 o SNAP estabe-lece uma “Indefinição” de valor µ1Riµ = 1/2.

A figura 10.5 mostra uma tabela de valores obtidos na aplicação depadrões de diferentes valores nas entradas do SNAPrlMin.

As letras correspondem aos valores encontrados nos pontos deter-minados na configuração do SNAPrl

Min mostrada na figura anterior.

Nos resultados apresentados na tabela, considera-se que todas ascélulas de aprendizagem da configuração tenham sido previamente treina-das para o reconhecimento dos seus padrões correspondentes.

O Fator de decisão FtD

da Célula C11

é considerado como sendo fixadoem 1/2, portanto, nos resultados da tabela verifica-se que, todas as vezesque um dos padrões aplicados nas entradas tem valor indefinido, provocauma indefinição na saída.

Page 229: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 3 3

Figura 10.5 - Resultados do ensaio efetuado com valores aplicadoscomo padrões nas entradas do SNAPrl

Min

Os valores da tabela indicam que o SNAPrlMin

elabora a função deminimização da RNAP, portanto, vai fazer inferências utilizando o conectivoAND.

10.4 - Sistema Neural Artificial Paraconsistente deRaciocínio Lógico de Maximização - SNAPrlMAX

O Sistema Neural Artificial Paraconsistente de raciocínio lógico demaximização SNAPrl

Max utiliza a mesma estrutura básica dos sistemas de

raciocínio mostrada na figura 10.6. A diferença da configuração anteriorutilizada no SNAPrl

Min é que agora é feito o processamento de maximização

dos sinais obtidos pelas células de conexão analítica. Portanto, são utiliza-das células de conexão lógica simples para um processo de maximizaçãopara tratar os sinais de saída da estrutura básica do Sistema de raciocíniológico. A figura 10.6 mostra o Sistema Neural Artificial Paraconsistente deraciocínio lógico de maximização SNAPrl

Max composto de dez células com

capacidade de analisar seqüências de padrões em duas entradas.

Page 230: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 3 4

Figura 10.6- Estrutura básica dos SNAP de raciocínio lógico demaximização SNAPr1

Max.

O funcionamento e a análise efetuados pela célula de decisão C11

sãoos mesmos expostos para o SNAP de raciocínio lógico de minimização daconfiguração anterior.

A tabela da figura 10.7 mostra os resultados obtidos com a aplicaçãode valores significativos nas entrada do SNAPrl

Max.

Page 231: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 3 5

Figura 10.7 - Resultados do ensaio efetuado com valores aplicadoscomo padrões nas entradas do SNAPrl

Max.

Os valores da tabela indicam que o SNAPrlMin

elabora a função demaximização da RNAP, portanto vai fazer inferências utilizando o conectivoOR.

10.5 - Sistema Neural Artificial Paraconsistente deRaciocínio Lógico Ou Exclusivo - SNAPrlExor

O Sistema Neural Artificial Paraconsistente de raciocínio lógico OUExclusivo- SNAPrl

Exor é composto pela estrutura básica dos SNAP de raci-

ocínio, onde são acrescentadas duas células de conexão lógica simplespara um processo de maximização e uma célula de decisão. A figura 10.8mostra a configuração do SNAP de raciocínio lógico OU Exclusivo com asonze células componentes.

Page 232: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 3 6

As seqüências dos padrões aplicados nas entradas, que num proces-so de OU exclusivo irão resultar em 0, são:

µ1A = 1 e µ1B = 1µ1A = 0 e µ1B = 0Estas combinações estão maximizadas na célula C

10 e serão analisadas

como graus de descrença na célula de decisão C11

As combinações de seqüências que irão resultar em 1 são:µ1A = 1 e µ1B = 0µ1A = 1 e µ1B = 0Estas combinações também têm os seus valores maximizados pela

célula C9 e na célula de decisão C11

serão analisadas como graus de crença.O SNAPrl

Exorf, assim como os outros Sistemas Neurais Artificiais

Paraconsistentes apresentados, pode receber nas suas entradas quaisquervalores reais contidos no intervalo fechado [0, 1]. A tabela da figura 10.9

Page 233: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 3 7

mostra os valores encontrados quando é feito um ensaio aplicando valoressignificativos nas entradas do Sistema Neural Artificial Paraconsistente deraciocínio lógico OU Exclusivo - SNAPrl

Exorf. As letras correspondem aos

pontos da configuração apresentada no desenho da figura 10.8.

Figura 10.9 - Resultados do ensaio efetuado com valores aplicadoscomo padrões.

10.6 - Sistema Neural Artificial Paraconsistente deRaciocínio Lógico Completo - SNAPrlCOM

Nos Sistemas apresentados, a configuração inicial é a mesma, portan-to as análises iniciais podem ser aproveitadas para a obtenção de váriasfunções por um mesmo SNAP que vamos denominar de Sistema NeuralArtificial Paraconsistente de raciocínio completo SNAPrl

COM O SNAPrl

COM

é apresentado na figura 10.10.

Page 234: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 3 8

Figura 10.10 - Sistema Neural Artificial Paraconsistente de raciocínioLógico completo.

Na figura 10.10 foi apresentado um único Sistema que produz, simulta-neamente, as três funções lógicas; E, OU e EXOR apresentadas anterior-mente.

O SNAPrlCOM

foi obtido pela aglutinação de várias funções utilizandoa mesma estrutura, sendo configurado com 16 células devidamenteinterconectadas para que cada célula de decisão da saída apresente umsinal conforme a função projetada.

O SNAPrlCOM

apresentado na figura anterior responde a três fun-ções: AND, OR e EXOR, no entanto outras funções podem ser adaptadasutilizando a mesma análise estrutural básica, ou ainda, instalando váriosmódulos semelhantes em paralelo para que toda a análise lógica possa serfeita simultaneamente.

Page 235: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 3 9

10.7 - Considerações Finais

Mostramos como são construídos os Sistemas de raciocínio lógicoSNAPrl, utilizando interligações entre as Células Neurais ArtificiaisParaconsistentes CNAP’s. As interligações entre células com configura-ções devidamente projetadas demonstraram a possibilidade de elaboraçãode sistemas que fazem inferências na Rede Neural Artificial ParaconsistenteRNAP.

Os projetos apresentados mostram que, na RNAP, o processo deinferência entre vários blocos é elaborado por Sistemas Neurais ArtificiaisParaconsistentes que compõem o Sistema de raciocínio.

Os procedimentos para obtenção dos Sistemas de Raciocínio mostra-dos neste capítulo podem ser extendidos para obtenção de outros blocoscapazes de elaborar várias outras funções lógicas. Os módulos de raciocí-nio lógico podem ser interligados e interconectados compondo um Sistemaglobal capaz de proceder tratamentos de sinais de forma semelhante aofuncionamento apresentado pelo cérebro humano.

Os resultados dos ensaios demonstram a alta eficiência dos SNAPrlque elaboram as principais funções como: “E”, “OU” e “OU EXCLUSIVO”.Todas as configurações apresentadas trazem possibilidades de adaptaçõespara a efetuação de outras funções fazendo-se pequenas modificações.

Com os resultados encontrados nos ensaios foi proposto um SistemaNeural Artificial Paraconsistente Completo SNAPrlCOM em que várias fun-ções lógicas podem ser agrupadas em um único módulo com economia decélulas componentes.

Em uma Rede Neural Artificial Paraconsistente, os módulos de aquisi-ção de conhecimento são compostos por Sistemas Neurais de diversasfunções, como Análise, memorização e tratamento de sinais. Todos estesSistemas estão inseridos e instalados em paralelo no Módulo de aquisiçãode conhecimento que, controlados por módulos de raciocínio lógico, vãoformando uma ampla rede, capaz de modelar eficientemente várias funçõesbiológicas do cérebro.

Os procedimentos para projetos das Redes neurais Paraconsistentessão dinâmicos e facilitam a modelagem de diversas áreas de Conhecimentoda Neurocomputação. Com base nos projetos apresentados, pode-se ela-borar a implementação de Sistemas Neurais Artificiais Paraconsistentescomplexos em que as inferências lógicas são feitas entre os módulos deraciocínio interligando os Módulos de aquisição de conhecimento.

Page 236: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 4 0

10.8 - Exercícios

1 -Explique qual é a função principal do Sistema Neural ArtificialParaconsistente de raciocínio lógico SNAPrl.

2- Esboce a configuração e descreva o funcionamento básico do Sis-tema Neural Artificial Paraconsistente de raciocínio lógico SNAPrl.

3- Esboce a configuração e descreva o funcionamento básico do Sis-tema Neural Artificial Paraconsistente de raciocínio lógico de minimizaçãoSNAPrlMin.

4- Esboce a configuração e descreva o funcionamento básico do Sis-tema Neural Artificial Paraconsistente de raciocínio lógico de maximizaçãoSNAPrlMAX.

5- Esboce a configuração e descreva o funcionamento básico do Sis-tema Neural Artificial Paraconsistente de raciocínio lógico OU Exclusivo-SNAPrl

EXOR.

6- Esboce a configuração e descreva o funcionamento básico do Sis-tema Neural Artificial Paraconsistente de raciocínio completo SNAPrl

COM.

7- Elabore em linguagem de programação C ( ou em outra linguagemde programação que você domine) o programa executável do Sistema NeuralArtificial Paraconsistente de raciocínio lógico SNAPrl.

8- Elabore em linguagem de programação C ( ou em outra linguagemde programação que você domine) o programa executável do Sistema NeuralArtificial Paraconsistente de raciocínio lógico de minimização SNAPrl

Min.

9- Elabore em linguagem de programação C ( ou em outra linguagemde programação que você domine) o programa executável do Sistema NeuralArtificial Paraconsistente de raciocínio lógico de maximização SNAPrl

Max.

10- Elabore em linguagem de programação C ( ou em outra linguagemde programação que você domine) o programa executável do Sistema NeuralArtificial Paraconsistente de raciocínio completo SNAPrl

COM.

Page 237: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 4 2

CAPÍTULO 11CONCLUSÕES

Neste capítulo são tecidas algumas conclusões sobre os assuntostratados neste livro que, longe de serem definitivas, pelo menos procuramsituar o leitor dentro do contexto atual das pesquisas em Redes Neurais. Asconsiderações apresentadas nos levam a crer que a aplicação das RedesNeurais Artificiais Paraconsistentes são, sem dúvida, uma ótima ferramentaneste complexo e extenso campo de pesquisas em Neurocomputação.

De forma alguma, fechamos o assunto com considerações exclusiva-mente conclusivas, mas, apenas apresentamos propostas e sugestões deaplicações futuras das RNAP’s em várias áreas do conhecimento.

11.1- Introdução

As Redes Neurais Artificiais têm se constituído em um vasto campode pesquisa baseado na teoria conexionista dos processos funcionais docérebro. Além da Robótica e da Inteligência Artificial, o interesse em pes-quisas de Redes Neurais se estende a vários outros campos do conheci-mento, como Engenharia Genética, Neurologia, Psicologia e Biologia. Acriação de modelos computacionais do cérebro animal é interessante emqualquer destas áreas porque permite, por abstrações, se estudar as propri-edades reais do sistema nervoso e as funções mentais.

Na área da Medicina, mais especificamente na Bio-engenharia, osmodelos do processo de visão com implementações de retinas ou prótesespara serem adaptadas em diversas partes do corpo são atrativos para utili-zação das Redes Neurais.

Na área de Engenharia e Neurocomputação, a Rede Neural tem carac-

Page 238: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 4 3

terísticas de processamento paralelo que serão úteis para solucionar com-plexos problemas em reconhecimento de padrões, memórias associativas eotimização de sistemas dinâmicos na área de automação e controle.

Os estudos das Redes Neurais Artificiais, baseados em comporta-mento de Neurônios biológicos, resultaram em classes de modelos matemá-ticos para classificação e reconhecimento de padrões, no entanto as aplica-ções concretas destas teorias em Inteligência Artificial são poucas, ficandoo conhecimento restrito à área acadêmica.

Aplicações diretas das teorias das Redes Neurais Artificiais sãodificultosas por vários motivos, entre eles, o mais crucial é a necessidadetécnica dos processos mentais obrigarem o tratamento de extensas massasde dados que trazem informações incertas. Quando as analises são feitasbaseadas apenas em evidências, ou em conhecimento incerto, os Sistemasque utilizam a Lógica Clássica ou binária, se mostram ineficazes ou mesmoimpossibilitados de serem aplicados.

A Lógica Paraconsistente Anotada, sendo classificada como Não-Clássica é uma boa solução para fazer tratamento de situações incertas einconsistentes de modo não-trivial. Portanto, os sistemas de análises queutilizam a Lógica Paraconsistente Anotada, pela sua origem Não-Clássica,sempre vão trazer maior semelhança à forma do ser humano resolver ques-tões que trazem incerteza.

11.2 - A Lógica Paraconsistente Aplicada em RedesNeurais Artificiais

Recentemente, com o aparecimento de computadores digitais maisrápidos, onde foi possível se processar simulações de Redes Neurais commaior número de neurônios interconectados, foram obtidos melhores resul-tados gerando interesse em novas pesquisas. Atualmente, nos principaiscentros de pesquisa estão sendo desenvolvidas novas formas de configu-rações de neurônios com as chamadas arquiteturas conexionistas.

As novas arquiteturas conexionistas são direcionadas para aprimorarfatores relevantes no estudo das Redes Neurais dando ênfase às caracte-rísticas que diferem o cérebro do computador. Por exemplo, o cérebro funci-ona com neurônios que, apesar de lentos quando comparados aos disposi-tivos do computador, executam tarefas extremamente complexas. A inter-pretação de uma cena visual ou a compreensão de uma frase são tarefasexecutadas pelo cérebro em um tempo muito curto.

Em acidentes com pessoas que sofreram danos cerebrais ou por umprocesso natural sabe-se que o cérebro pode perder neurônios sem prejuí-zo na memória; por outro lado, os computadores são capazes de armazenargrandes quantidades de informações, mas na sua memória, se houver perda

Page 239: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 4 4

de um único bit, estas informações são quase sempre irremediavelmenteperdidas.

O cérebro humano contém um número enorme de neurônios que, tra-balhando em paralelo, realizam tarefas complexas, como resolução de situa-ções com informações difusas, ambíguas e inconsistentes, que o computa-dor funcionando de modo digital e seqüencial é incapaz de fazer.

Propusemos um novo modelo de um neurônio artificial estruturado naLógica Paraconsistente com a finalidade de possibilitar a construção desistemas artificiais utilizando modelos mais próximos do neurônio biológicoe com isso implementar Redes Neurais onde se consiga resultados seme-lhantes às análises efetuadas pelo cérebro humano.

11.3 - O Código de Comunicação na Rede deNeurônios Artificiais Paraconsistentes

Os sinais de informação que trafegam pela rede de neurônios no cére-bro estão em forma de pulsos de potenciais de ação. Os neurônios biológi-cos se comunicam por meio destes pulsos elétricos que são assíncronoscom freqüências diferentes que variam de alguns, a aproximadamente, qui-nhentos pulsos por segundo.

Atualmente, estão sendo feitos grandes esforços em pesquisas parase encontrar o código de comunicação utilizado pelos neurônios biológi-cos. Portanto, não se sabe ao certo como os neurônios podem representare tratar, nas complexas funções mentais do cérebro, as informações vindasdo mundo real através dos sentidos.

No Perceptron, as Redes Neurais Clássicas utilizam os sistemas depesos de valores diversos que, atribuídos às entradas, são multiplicadospelos valores dos sinais. Como quase sempre os valores dos pesos nascamadas internas não são controláveis, o código não é eficiente trazendograndes dificuldades de computação.

Na Rede Neural Paraconsistente RNAP é utilizada a Equação Estrutu-ral Básica da Lógica Paraconsistente EEB para computar sinais de graus decrença valorados no intervalo real fechado [0,1]. Os códigos são transmiti-dos por valores equacionados pela EEB através de Células implementadascom base na Lógica Paraconsistente.

Em resumo, na Rede Neural Artificial Paraconsistente (RNAP) os si-nais de informações são caracterizados por:

Valores reais positivos entre 0 e 1 são aplicados na entrada comopadrões.

Valores reais positivos de graus de crença entre 0 e 1 são equacionadosinternamente pelas células utilizando a EEB.

Quando o equacionamento resultar em grau de crença de valor 1 é

Page 240: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 4 5

considerado uma confirmação da proposição ou do padrão aplicado naentrada.

Quando o equacionamento resultar em grau de crença de valor 0 éconsiderado uma negação lógica da proposição ou do padrão aplicado naentrada.

Quando o equacionamento resultar em grau de crença de valor 1/2 éconsiderado uma indefinição lógica da proposição ou do padrão aplicadona entrada.

As equações matemáticas da RNAP são muito simples porque asCélulas Neurais Artificiais Paraconsistentes utilizam a EEB como códigopara equacionar os sinais e, a partir do resultado obtido, tomam decisões eas transmitem em forma dos valores resultantes obtidos. Utilizando célulascom estas características são implementadas as Unidades Neurais que apre-sentam diversos tipos de funcionamento inclusive semelhantes aos dosneurônios biológicos. A simplicidade matemática promove a interligaçõesentre várias células compondo Unidades Neurais ArtificiaisParaconsistentes UNAP’s que recebem, equacionam e comparam os valo-res dos sinais com informações codificadas pela EEB. As Unidades NeuraisArtificiais Paraconsistentes interconectadas formam uma complexa rede ondetrafegam sinais representativos de proposições ou padrões que após asanálises serão convertidos em ação.

11.4 - Considerações sobre as Redes NeuraisArtificiais Paraconsistentes

A implementação da Rede Neural Artificial Paraconsistente seguiubasicamente todos os conceitos de uma Rede Neural clássica e traz algu-mas características próprias que vão permitir outras configurações expan-dindo-se em novas implementações. Conforme foi visto, podemos ressaltaras principais características da RNAP como:

a) É Composta de Partes Elementares.Os menores componentes de uma Rede Neural Artificial

Paraconsistente RNAP são as Células Neurais Artificiais Paraconsistentesconstruídas com base na Equação Estrutural Básica EEB da LógicaParaconsistente Anotada. Na RNAP, existem oito tipos de células que sãointerconectadas formando Unidades Neurais Artificiais ParaconsistentesUNAP’s com funções bem definidas.

b) Componentes com capacidade de Aprendizagem.A capacidade de aprender (lembrar) e desaprender (esquecer) que

demonstrou possuir as Células Neurais Artificiais Paraconsistentes de apren-

Page 241: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 4 6

dizagem é uma característica adequada para fazer uma correlação do funci-onamento de uma Rede Neural Artificial Paraconsistente com o funciona-mento dos neurônios biológicos no cérebro humano.

c) Capacidade de Conectar-se em Ilhas de Conhecimento.Os componentes elementares vão interconectando-se formando as

Unidades Neurais Artificiais Paraconsistentes UNAP’s. As UNAP’s são osprimeiros blocos que vão compor a estrutura básica da rede.

d) Capacidade de Implementar diversas Funções.As Unidades Neurais Artificiais Paraconsistentes têm funções espe-

ciais de processamento e tratamento de sinais seguindo modeloscomportamentais do cérebro humano, como aprendizado condicionado, tra-tamento de contradições, conexão analítica e conexão lógica. O Para-Perceptron é um modelo que representa as principais funções conhecidasdo neurônio.

As UNAP’s analisam, tomam decisão e agem conforme as informa-ções recebidas. As ações locais de cada célula reunidas em UNAP’s vãocontribuir para uma ação global da rede, proporcionando à RNAP um com-portamento bottom-up.

Os mesmos procedimentos bottom-up, interconexões de UNAP’s for-maram Sistemas Neurais Artificiais paraconsistentes SNAP’s com funçõesdiversas.

e) Capacidade de Modelar Inferências Lógicas.Os resultados obtidos dos ensaios com os SNAP’s possibilitam a

implementação de Redes Neurais Artificiais Paraconsistentes que conside-ram as inconsistências em sua estrutura, de um modo não trivial e por issoé mais propícia que as Redes Neurais clássicas quando utilizadas noenquadramento de problemas ocasionados por situações de contradiçõesque aparecem quando lidamos com o mundo real.

f) Capacidade de tráfego de Informações Codificado.A Rede Neural Artificial Paraconsistente utiliza o código para troca de

informação equacionando valores entre o intervalo real fechado [0,1] atra-vés da Equação Estrutural Básica EEB: µ

r=(µ

1 - µ

2 + 1) ̧ 2, onde as letras µ são

graus de crença de valores reais entre 0 e 1.

11.5 - Considerações Finais

No cérebro humano, os neurônios levaram milhões de anos para faze-rem conexões e se adaptarem para trocas de informações que possibilitam

Page 242: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 4 7

formar conceitos e tomadas de decisão.As Redes Neurais construídas de Para-Perceptrons serão capazes

de reproduzirem, através de programas computacionais, atividades men-tais, como o processo de reconhecimento de padrões, inferências, análisese tomadas de decisão, partindo de múltiplas alternativas.

É fato concreto que, frente aos fundamentos e conceitos estudados,os quais trazem características relevantes frente aos resultados de ensaios,abre-se um leque muito grande no campo de pesquisa e futuras aplicaçõesdas Redes Neurais Artificiais Paraconsistentes.

A criação da RNAP vem demonstrar que a Lógica Paraconsistente,quando usada para implementações de sistemas de processamento de si-nais liberta e desbloqueia o processo criativo que, por mais de dois milêniospermaneceu preso nas rígidas leis da Lógica Clássica.

Page 243: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 4 8

APÊNDICE A

Considerações sobre a Lógica Aplicada em IA

1 - IntroduçãoEnfatizamos sobre as aplicações das Lógicas Paraconsistentes em

questões de Inteligência Artificial que vem tomando grande impulso, so-bretudo nos últimos anos.

Um dos conceitos mais significativos que tem chamado a atenção deespecialistas em Inteligência Artificial são os da incerteza e da contradição.

O grande desenvolvimento da Inteligência Artificial vem propiciandoo estreitamento com diversas áreas do saber de forma imperativa tais comoMatemática, Ciência da Computação, Psicologia, Teoria da Comunicação,Direito, Biologia, Ciências Cognitivas, entre outros, gerando indagaçõesextremamente fecundas e originais.

Com efeito, um dos problemas centrais da Inteligência Artificial é o dadescrição da porção da realidade que se quer estudar. Além de uma conve-niente descrição, necessitamos processar os dados a fim de obtermos umarazoável reprodução “artificial” do que queremos com relação à realidade.Por conseguinte, torna-se imperativo que tais considerações se façam numalinguagem bem estruturada, as linguagens formais. Mais que isso, necessi-tamos de uma linguagem e uma lógica subjacente para podermos trabalharcom os dados.

Esta situação pode ser esquematizada como abaixo:

Linguagens Artificiais « Modelos (abstratos) « Porção daRealidade

Pelo menos três dimensões relevantes estão em análise: a porção darealidade que se quer estudar, os modelos abstratos de tais realidades e alinguagem que se refere às diversas estruturas.

2 - Razão, Ciência e LógicaAs Lógicas Não-Clássicas caracterizam-se por amplificar, de algum

modo, a lógica tradicional ou por infringir ou limitar seus princípios oupressupostos fundamentais. Dentre as primeiras, ditas Lógicas complemen-tares da Clássica, lembraremos as Lógicas tradicionais das modalidadesa1óticas, das modalidades deônticas, dos operadores epistêmicos e dos

Page 244: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 4 9

operadores temporais. Dentre as segundas, chamadas de heterodoxas ourivais da clássica, citaremos as Lógicas Paraconsistentes, as Paracompletase as intuicionistas sem negação (Griss, Gilmore, ...). A Lógica, devemossalientar, é muito mais do que a disciplina das formas válidas de inferência.Seria difícil enquadrarmos, v.g., a teoria dos modelos, em sua forma atual, ea teoria da recursão em uma Lógica assim definida. No entanto, para os finsdo escopo deste livro, podemos identificar a Lógica (dedutiva) como adisciplina que se ocupa especialmente das formas válidas de inferência (oude raciocínio) .

Em conexão com a exposição precedente, eis alguns problemas filoso-ficamente significativos: a) As Lógicas Não-Clássicas são realmente Lógi-cas ? b) Pode, mesmo existir Lógicas rivais da Clássica ? c) Em última instân-cia, não seriam as Lógicas chamadas de rivais apenas complementares daClássica? d) Que relação há entre racionalidade e logicidade ? e) A razãopode se expressar por meio de lógicas distintas, incompatíveis entre si?

Obviamente, nos limites do presente parágrafo não podemos tratar detodas essas indagações, nem mesmo de forma resumida. Porém, adotando-se posição ‘operacional’, se sistema 1ógico denotar uma espécie de organonde inferência, a IA contribui para nos conduzir, inescapavelmente, a conclu-são de que há várias Lógicas, Clássicas e Não-Clássicas, e entre as últimas,complementares e rivais da Clássica. Ademais, a IA corrobora a possibilida-de e a relevância prática de Lógicas da categoria das Paraconsistentes, tãoafastadas dos padrões até há pouco tempo fixados para a logicidade. Istoconstitui, sem dúvida, algo surpreendente para aqueles que não estão acos-tumado com os ú1timos avanços da informática. Convém lembrar aqui queexistem numerosos argumentos enfraquecedores da posição dos que de-fendem a tese do caráter absoluto da Lógica Clássica. Arrolamos, a seguir,quatro desses argumentos:

1) Quaisquer contexto racional dado é compatível com infinitas Lógi-cas capazes de figurarem como Lógicas a ele subjacentes.

2) Os conceitos 1ógicos fundamentais, como o de negação, têm queser vistas como a ‘family resemblance’ no sentido de Wittgenstein. Não hánenhum motivo especial para se recusar, digamos, á negação paraconsistentea dignidade de negação; se alguém assim proceder, deveria, também, sus-tentar que as retas das geometrias não euclidianas não são, efetivamente,retas ...

3) A semântica comum, por exemplo do cálculo restrito de predicados,baseia-se na teoria de conjuntos. Como há diversas teorias de conjuntos(clássicas), há numerosas interpretações possíveis, não equivalentes entresi, de tão semântica. Por conseguinte, o referido cálculo não se mostratambém determinado, como parece á primeira vista.

4) Para a Lógica tradicional de segunda ordem (e de ordem superior)não existe axiomatização correta e completa. Esta escapa, pois, a

Page 245: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 5 0

axiomatização (recursiva). Assim, as contestações às indagações a) e b)são afirmativas. Uma resposta simples da questão parece difícil: no fundo,trata-se, em grande porte, de um problema termino1ógico. Todavia, em prin-cipio, em virtude da discussão anterior, nada impede que se aceite que háLógicas rivais, que não se incluem no rol das complementares da tradicio-nal. Finalmente, sobre ele, frisaremos que se possui excelentes argumentospara se demonstrar que a razão permanece razão mesmo quando se manifes-ta por meio de Lógicas Não-Clássicas. (A própria Lógica Clássica não cons-titui um sistema bem definido.)

Do exposto, pensamos que as conclusões que se impõem são susce-tíveis de resumo, como se segue: “De fato, como insiste [Enriques &Santillana 32], [Enriques & Santillana 36] e [Enriques 22], a ciência aparecea todo momento como imperfeita, em qualquer de suas partes, desenvol-vendo-se por auto-correção e auto-integração. Não constitui aquisição hir-ta, á qual se via juntando pouco a pouco outras; há permanente vaivém,desde os fundamentos até as teorias mais complexas, corrigindo-se errosaqui, eliminando-se inconsistências acolá. Mas a história comprova quetoda teoria cientifica encerra algo de verdadeiro: a mecânica newtoniana,embora superada pela de Einstein, evidentemente contém traços de verda-de. Restringindo-se de maneira conveniente ao seu campo de aplicação, elafunciona, prevê, e, portanto, tem que conter uma parcela de verdade. Mas averdadeira verdade é um caminhar constante para a verdade - eis oensinamento da história, fora de qualquer dúvida séria. A ciência é maisluta, avanço, do que etapa adquirida, conquistada, e as categorias cientificasfundamentais modificam-se no decorrer do tempo.” ([Da Costa 80], p.231).Mais ainda: “A Lógica se vai constituindo através da história e não parecepossível prever-se as vicissitudes de sua evolução.

Um especialista do inicio do século, ainda que familiar com as obrasde Frege, Russell e Peano, dificilmente poderia prever as transformaçõesque se processariam na Lógica nos ú1timos quarenta anos. Não se tratasomente de progresso em extensão; o próprio conceito de logicidade semodificou. Hoje, as Lógicas heterodoxas entraram em cena com grandeímpeto: ninguém conseguiria predizer onde nos levarão as Lógicaspolivalente, relevante e paraconsistente. Talvez, nos próximos anos, nosesteja reservada uma nova alteração da idéia de logicidade, impossível dese imaginar no momento.” ([Da Costa 80], p. 232.) “Razão, como se definiu..., é a faculdade de conceber, julgar e raciocinar. Conceber e raciocinarconstituem patrimônio exclusivo da razão; mas julgar, no sentido preciso dapalavra, também é atividade racional. Mesmo quando a inspiração, a sensi-bilidade ou alguma forma primitiva de intuição não racional fornecem a basepara o juízo, é a razão que julga, dada que somente ela manipula e combinaconceitos. Aliás, a maioria dos usos comuns da palavra ‘razão’ derivam-sede razão conceituada, como a faculdade de conceber, julgar e raciocinar;

Page 246: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 5 1

assim, para discernir bem e adotar normas racionais de vida, há de se ter emconta a razão na acepção definida. A1ém disso, existe um conjunto de re-gras e de princípios regulando o uso da razão, especialmente como ela semanifesta nos contextos racionais. Também é licito chamar de razão a esseconjunto de regras e de princípios. Pois bem, quando se indaga se a razãose transforma ou mantém-se invariante, torna-se mais conveniente, semdúvida, interpretar a questão como se referindo a razão qual conjunto deregras e de princípios, e não como faculdade. Assim formulado, o problematem resposta imediata: a razão modificou-se no decurso do tempo. Por exem-plo, as categorias racionais subjacentes à física aristoté1ica, à newtonianae à hodierna, divergem profundamente; ipso facto, os princípios que regemessas categorias variam, donde se conclui que a própria razão se transfor-mou.” ([Da Costa 80], p. 233). Exprimindo-se por intermédio de Lógicas asmais variadas, a razão não deixa de ser razão.

A IA é, atualmente, um dos pilares nos quais se apoiam as pondera-ções que acabam de ser feitas. Então, ela não possui apenas valor prático,de aplicação tecnológica, como também valor teórico, contribuindo para omelhor equacionamento dos problemas da Lógica, da razão e, portanto, daprópria cultura.

Digno de menção é o fato de que a Lógica Paraconsistente nasceu deconsiderações puramente teóricas, tanto 1ógico-matemáticas, como filosó-ficas. As primeiras se referem, para exemplificar, a problemas relativos aoconceito de verdade, aos paradoxos da teoria dos conjuntos e à vaguidadeinerente não somente na linguagem natural, como na cientifica. As segun-das, por seu turno, encontram-se correlacionadas com temas tais como osfundamentos da dia1ética, as noções de racionalidade e de logicidade, e aaceitação de teorias cientificas. Algumas das conseqüências da estruturaçãoda Lógica Paraconsistente, que podemos classificar em duas categorias, as‘positivas’ e as ‘negativas’, são as seguintes:

Positivas: 1) Melhor elucidação de alguns conceitos centrais da Lógi-ca, tais como os de negação e de contradição, bem como o papel do esque-ma da abstração em teoria dos conjuntos (antinomias conjuntistas); 2) Com-preensão mais profunda de determinadas teorias filosóficas, especialmentea dia1ética e a teoria dos objetos de Meinong; 3) Comprovação da possibi-lidade de teorias fortes e inconsistentes, embora não triviais (os paradoxoscomuns podem ser tratados de uma nova perspectiva); 4) Organização deesquemas onto1ógicos diferentes dos da ontologia tradicional.

Negativas: 1) Demonstração de que certas criticas a dia1ética afigu-ram-se infundados (por exemplo, os conhecidos reparos de Popper); 2)Prova de que as exigências metodológicas impostas às teorias cientificas semostram demasiadamente restritivas e mereceriam ser liberalizadas; 3) Evi-dência de que a concepção usual da verdade como correspondência, aTarski, não acarreta as leis da Lógica Clássica, sem suposições extras, geral-

Page 247: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 5 2

mente mantidas implícitas.Hodiernamente, em IA, precisamos manipular sistemas inconsisten-

tes de informação; mais ainda, necessitamos processar semelhantes siste-mas, via uma programação paraconsistente. Tentar transformar esses siste-mas em outros consistentes seria não apenas impraticável, mas, sobretudo,teoricamente fora de propósito. Logo, a IA constitui um campo onde aLógica Paraconsistente topa naturalmente com aplicações de suma impor-tância. Assim, a informática em geral estão intimamente unida áparaconsistência. Sob certo ângulo, as próprias Lógicas não monotônicase do ‘default’ incluem-se na classe das paraconsistentes (em acepção am-pla) (ver, e.g. [Nakamatsu, Abe & Suzuki 99c]).

else printf(“Valor inferior de controle de Contradição.........Vici=[%4.3f]”, c4);

}void entraSinais(void){ int i, letra, y, k; /***********Entrada de apenas um sinal**********/ if(and==0 && or==0){ gotoxy(33,10); printf(“SINAL ANOTADO”); gotoxy(3,12); printf(“SINAL ANOTADO A: Grau de Cren%ca

%c1a=[ ], Grau de Descren%ca %c2a=[ ]”,135,230,135,230); gotoxy(4,22); printf(“ENTRE COM OS VALORES: Grau de cren%ca,

Grau de descren%ca [ 0.0 … 1.0]”,135,135,130); gotoxy(44,12); n1r = inputRL(4, 0, 1); gotoxy(76,12); n2r = inputRL(4, 0, 1); } /***********Entrada de varios sinais************/ else{ /**Inicializacao**/ if(and==1){ /* minimizar */ for(i=0; i<12; i++){ n1[i]=1.0; n2[i]=1.0; } } if(or==1){ /* maximizar */ for(i=0; i<12; i++){ n1[i]=0.0; n2[i]=0.0; } }

Page 248: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 5 3

gotoxy(33,10); printf(“SINAIS ANOTADOS”); gotoxy(4,22); printf(“ENTRE COM OS VALORES: Grau de cren%ca,

Grau de descren%ca [ 0.0 a 1.0] “,135,135,130); /*****Entra com os dois primeiros sinais*****/ gotoxy(3,12); printf(“SINAL ANOTADO A: Grau de Cren%ca

%c1a=[ ], Grau de Descren%ca %c2a=[ ]”,135,230,135,230); gotoxy(44,12); n1[0] = inputRL(4, 0, 1); gotoxy(76,12); n2[0] = inputRL(4, 0, 1); gotoxy(3,13); printf(“SINAL ANOTADO B: Grau de Cren%ca

%c1b=[ ], Grau de Descren%ca %c2b=[ ]”,135,230,135,230); gotoxy(44,13); n1[1] = inputRL(4, 0, 1); gotoxy(76,13); n2[1] = inputRL(4, 0, 1); /*****Entra com mais sinais*****/ letra=’c’; y=14; k=2; do{ gotoxy(5,23); printf(“Deseja entrar com mais sinais anotados?

<s/n>”); gotoxy(51,23); i=getche(); if(i==’n’ || i==’N’) break; /***para de entrar sinais***/ if(letra==’j’){ /* ultima letra */ gotoxy(5,23); printf(“Este %c o %cltimo sinal permitido a ser

digitado “,130,163); } else{ /* nao e’ a ultima vez */ gotoxy(5,23); printf(“ “); }

gotoxy(3,y); printf(“SINAL ANOTADO %c: Grau de Cren%ca%c1%c=[ ] Grau de Descren%ca %c2%c=[ ]”,(letra-32),135,230,letra,135,230,letra);

gotoxy(44,y); n1[k] = inputRL(4, 0, 1); gotoxy(76,y); n2[k] = inputRL(4, 0, 1);

letra++; y++; /*posicao vertical*/ k++;

}while( letra <= ‘j’ ); } /* else maximizar ou minimizar */ gotoxy(1,22); printf(“ “); gotoxy(5,23); printf(“Digite ENTER para iniciar an%clise

“,160); do {} while(getch() != 13);

Page 249: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 5 4

}/******** calculos ***********/void calcula(void){ float tmp; for(i=0;i<13;i++) sd[i] = 0; if(and==1){ /*minimizar*/ for(i=0, n1r=1, n2r=1;i<10;i++){ if(n1r>n1[i]) n1r = n1[i]; if(n2r>n2[i]) n2r = n2[i]; } } if(or==1){ /*maximizar*/ for(i=0,n1r=0,n2r=0;i<10;i++){ if(n1r<n1[i]) n1r = n1[i]; if(n2r<n2[i]) n2r = n2[i]; } } if(normal==0){ tmp=n1r; n1r=n2r; n2r=tmp; } gc = n1r-n2r; /* calcula grau de certeza */ gi = (n1r+n2r)-1; /* calcula grau de Contradição */}/************* analise dos resultados ********************/void analise(void){ gotoxy(15,10); printf(“ ******** RESULTADOS ********”); gotoxy(5,12); printf(“O VALOR DO GRAU DE Crença RESULTAN-

TE: %c1R=[%4.3f]”,128,230,n1r); gotoxy(5,13); printf(“O VALOR DO GRAU DE Descrença RESUL-

TANTE: %c2R=[%4.3f]”,128,230, n2r); gotoxy(14,15); printf(“ ** Grau de certeza Gc= %4.3f “, gc); gotoxy(14,16); printf(“ ** Grau de Contradição Gi= %4.3f “, gi); gotoxy(5,22); printf(“O ESTADO lógico RESULTANTE •: “, 162,

130); /************* determinação dos estados extremos **********/ if(gc >= c1){ /* verdadeiro */ sd[1] = 1; printf(“Totalmente VERDADEIRO\n”); } else{

Page 250: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 5 5

if(gc <= c2){ /* falso */ sd[2] = 1; printf(“Totalmente FALSO\n”); } else{ if(gi >= c3){ /* inconsistente */ sd[0] = 1; printf(“Totalmente INCONSISTENTE\n”); } else{ if(gi <= c4){ /* indeterminado */ sd[3] = 1; printf(“Totalmente INDETERMINADO\n”); } else{ /******** analise para casos não extremos *******/ if(gc >= 0.0){ /* direita */ if(gi >= 0.0){ /* acima */ if(gi >= gc){ sd[4]=1; printf(“INCONSISTENTE tendendo ao VERDADEI-

RO”); } else{ sd[6]=1; printf(“Quase-VERDADEIRO tendendo ao INCONSIS-

TENTE”); } } else{ /* abaixo */ if(modulo(gi) >= gc){ sd[10]=1; printf(“INDETERMINADO tendendo ao VERDADEI-

RO”); } else{ sd[7]=1; printf(“Quase-VERDADEIRO tendendo ao

INDETERMINADO”); } } }

Page 251: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 5 6

else{ /* esquerda */ if(gi >= 0.0){ /* acima */ if(gi >= modulo(gc)){ sd[5]=1; printf(“INCONSISTENTE tendendo ao FALSO”); } else{ sd[8]=1; printf(“Quase-FALSO tendendo ao INCONSISTEN-

TE”); } } else{ /* abaixo */ if(modulo(gi) >= modulo(gc)){ sd[11]=1; printf(“INDETERMINADO tendendo ao FALSO”); } else{ sd[9]=1; printf(“Quase FALSO tendendo ao

INDETERMINADO”); } } } } } } } gotoxy(5,18); printf(“* Saídas discretas: “, 161); gotoxy(9,19); printf(“T V F %c T-v T-f Qv-T Qv-%c Qf-T Qf-

%c %c -v %c -f “\ ,193, 193, 193, 193, 193); gotoxy(9,20); printf(“%d %d %d %d %d %d %d %d %d

%d %d %d”\ , sd[0], sd[1], sd[2], sd[3], sd[4], sd[5], sd[6], sd[7], sd[8], sd[9],

sd[10], sd[11]);}float inputRL(int size, float limiteInferior, float limiteSuperior){ int x, y, i, ponto; char str[10], ch; float saida; x = wherex();

Page 252: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 5 7

y = wherey(); do{ ponto=0; /* 0 = nenhuma ocorrencia de ponto decimal, 1 = uma

ocorrencia*/ strcpy(str,” “); gotoxy((x - size),y); for(i=0; i<=size; i++) printf(“ “);/*limpa area de

entrada*/ for(i=1; i<(size+1); i++){ gotoxy(x,y); ch =(char) getch(); if(ch==13) /* [ENTER] */{ str[i]=’\0'; break; } if(isdigit(ch))/*algarismo de 0 a 9 */{ if( (ch==’0')&&(i==2)&&(str[1]==’0') )/*algarismo zero*/{ i—; }/*nao deixa escrever mais de um zero ‘a esquerda*/ str[i]=ch; str[i+1]=’\0'; displayRL(str,size); continue; } if(ch==’+’){ str[0]=’ ‘; /* numero positivo */ i—;/*nao anda*/ displayRL(str,size); continue; } if(ch==’-’){ str[0]=’-’; /* numero negativo */ i—;/*nao anda*/ displayRL(str,size); continue; } if( (ch==’.’)&&(ponto==0) )/*primeira ocorrência de ponto deci-

mal*/{ ponto=1; /* para não deixar escrever outro ponto */ if(i==1) { strcat(str, “0.”); i++; } else{

Page 253: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 5 8

str[i]=’.’; str[i+1]=’\0'; } displayRL(str,size); continue; } if(ch==’\b’) /*backspace*/{ if(i==1) /*vai apagar o sinal*/{ str[0]=’ ‘; str[1]=’\0'; i= 0; displayRL(str,size); continue; } else /*(i>1)*/{ if(str[—i]==’.’)/*vai apagar o pto decimal*/{ ponto=0; /* permite que outro ponto seja digitado */ } /*vai apagar um algarismo ou um pto*/ str[i]=’\0'; i—; displayRL(str,size); continue; } }/*fim backspace*/ /* nao e’ um caractere valido */ i—; /* portanto ignorar caractere */ }/* fim laco for*/ saida = atof(str); }while(! ((saida >= limiteInferior) && (saida <= limiteSuperior)) ); return (saida);}void displayRL(char *s, int size){ int x, y; x=wherex(); y=wherey(); gotoxy((x - size),y); for(i=0; i<size; i++) printf(“ “); gotoxy( (x-strlen(s)+1), y ); printf(“%s”, s);}float modulo(float d){ return sqrt(d*d);}

Page 254: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 5 9

APENDICE B

Lógica Proposicional Anotada de anotaçãocom dois valores LPA2v

Apresentamos alguns conceitos e definições quecomplementam os discutidos no capítulo 2 e no apêndice A.

Seja τ = < |τ|, ≤ > um reticulado finito fixo, onde: 1. τ = [0, 1] × [0, 1] (onde [0, 1] indica o intervalofechado unitário real) 2. ≤ = {((µ

1, ρ

1), (µ

2, ρ

2)) ∈ ([0, 1] × [0, 1])2µ

1 ≤ µ

2 e ρ

1

≤ ρ2} (onde ≤ indica a ordem usual dos números reais). Tal reticulado

denomina-se reticulado de valores-verdade.

Introduzimos alguns símbolos definidos:

Definição 1. [Negação Forte e Equivalência] Sejam A e Bfórmulas quaisquer. Define-se, então:

A ↔ B =Def

(A → B) ∧ (B → A)e · A =

Def A → ((A → A) ∧ ¬(A → A)).

O símbolo · denomina-se negação forte; portando, · Adeve ser lido a negação forte de A. A fórmula A ↔ B é lida, comousualmente, a equivalência de A e B.

Definição 2. Seja A uma fórmula. Então:¬0A indica A;¬1A indica ¬A e¬kA indica ¬(¬k-1A), (k ∈ N, k > 0). N indica o conjunto

Page 255: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 6 0

dos números naturais{0, 1, 2, ...}Também, se µ ∈ τττττ, tem-se que:

~0 µ indica µ;~1 µ indica ~µ e~k µ indica ~(~k-1µ), (k ∈ N, k > 0).

Definição 3. [Literal] Se p é um símbolo proposicional e λé uma constante de anotação, então a fórmula

pλ (abreviado por ¬kpλ, k ≥ 0)

chama-se hiper-literal (ou simplesmente literal) e as demais cha-mam-se fórmulas complexas.

Introduzimos o conceito de interpretação para a lógicaLPA2v.

Definição 4 [Interpretação]. Seja P o conjunto dos sím-bolos proposicionais. Uma interpretação para LPA2v é uma fun-ção I: P → τ. Dada uma interpretação I podemos associar umavaloração V

I: F → {0, 1} assim definida:

1. Se p ∈ P e µ ∈ τ, entãoV

I(pµ) = 1 se e somente se I(p) ≥ µ e

VI(pµ) = 0 se e somente se não é o caso que I(p) ≥ µ.

2. Se A é da forma ¬kpµ (k ≥ 1), então

VI(¬k(pµ)) = V

I(¬k-1(p∼µ)).

Sejam A e B fórmulas quaisquer. Então,3. V

I(A ∧ B) = 1 se e somente se V

I(A) = V

I(B) = 1.

4. VI(A ∨ B) = 1 se e somente se V

I(A) = 1 ou V

I(B) = 1.

5. VI(A → B) = 1 se e somente se V

I(A) = 0 ou V

I(B) = 1.

Se A é uma fórmula complexa, então

6. VI(¬A) = 1 - V

I(A).

Pela condição 1 temos que VI(pµ) = 1 se e somente se I(p) ≥ µ,

ou seja, pµ é verdadeira segundo a interpretação I se a interpretaçãodada a p, I(p), for maior ou igual ao �meu valor de crença� µ com

Page 256: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 6 1

respeito à proposição p. Ela é falsa, caso contrário.

Pode-se mostrar que há interpretações I e proposições pµ taisque V

I(pµ) = 1 e V

I(¬pµ) = 1, ou seja, temos contradições

verdadeiras nesta lógica. Isto é intuitivo se considerarmosproposições do tipo p

(0.5, 0.5). A sua negação ¬p

(0.5, 0.5) equivale a

p∼(0.5, 0.5) que é também p

(0.5, 0.5). Ora, se p

(0.5, 0.5) for verdadeira, então

é claro que sua negação também é verdadeira. Se ela for falsa, suanegação também é falsa.

Os postulados (esquema de axiomas e regras de inferência) deLPA2A são as seguintes: A, B e C são fórmulas quaisquer, F e Gsão fórmulas complexas, p é um símbolo proposicional e λ, µ, µ

j

são constantes de anotação (suponha-se que estamos trabalhandonum sub-reticulado finito de τ).(→

1) A → (B → A)

(→2) (A → (B → C) → ((A → B) → (A → C))

(→3) ((A → B) → A → A)

(→4) (Modus Ponens, que abrevia-se por MP)

(∧1) A ∧ B → A

(∧2) A ∧ B → B

(∧3) A → (B → (A ∧ B))

(∨1) A → A ∨ B

(∨2) B → A ∨ B

(∨3) (A → C) → ((B → C) → ((A ∨ B) → C))

(¬1) (F → G) → ((F → ¬G) → ¬F)

(¬2) F → (¬F → A)

(¬3) F ∨ ¬F

(τττττ1) p⊥

(τττττ2) ¬kpλ → ¬k-1p~λ, k ≥ 1

(τττττ3) pλ → pµ , λ ≥ µ

(τττττ4) pλ1

∧ pλ2 ∧ ... ∧ pλn

→ pλ, onde λ = λi

Definição 5 [Demonstração]. Uma seqüência finita defórmulas (B

1, B

2, ... , B

n) (n ∈ N, n ≥ 1) chama-se demonstração

Page 257: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 6 2

ou prova se para cada i, 1 ≤ i ≤ n temos que:1. Ou B

i é um axioma;

2. Ou Bi foi obtida de duas fórmulas anteriores da seqüência pela

aplicação da regra de Modus Ponens.

Definição 7 [Teorema]. Uma fórmula A denomina-seteorema se existir uma demonstração (B

1, B

2, ... , B

n) tal que B

i =

A, ou seja, A é a última fórmula da referida seqüência.

A seqüência (B1, B

2, ... , B

n) da definição acima denomina-

se uma prova ou demonstração do teorema A. Neste caso,simbolizamos por + A.

Teorema 1. Em LPA2v, · possui todas as propriedadesda negação clássica. Por exemplo, temos:1 Ã A ∨ · A2 Ã · (A ∧ · A)3 Ã (A → B) → ((A → · B) → · A)4 Ã A → ·· A5 Ã · A → (A→ B)6 Ã (A → · A) → B

Corolário 1.1. Em LPA2v, os conectivos · , ∧, ∨, e →possuem todas as propriedades da negação, conjunção, disjunçãoe implicação clássicas, respectivamente.

Corolário 1.2. O cálculo proposicional clássico está contidoem LPA2v e este constitui um sub-cálculo estrito do primeiro.

Teorema 2. LPA2v é não-trivial.

Seja C o conjunto das fórmulas complexas de LPA2v.Facilmente se verifica que C é fechado com respeito à aplicaçãodos conectivos ¬, ∧, ∨, e →. Temos o seguinte importante resultado:

Page 258: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 6 3

Teorema 3. Em LPA2v, o conjunto C juntamente com osconectivos ¬, ∧, ∨, e → possuem todas as propriedades danegação, conjunção, disjunção e implicação clássicas,respectivamente.

Os resultados anteriores nos mostram uma característicamuito importante da lógica LPA2v: observa-se que as contradiçõessomente aparecem entre os literais (que equivalem às atômicas).Isto é uma característica interessante da lógica LPA2v, pois doponto de vista das aplicações, a maioria das vezes, as contradiçõesaparecem justamente entre os literais. Dificilmente temoscontradições em nível complexo. Assim, temos, a modo de resumo,entre as fórmulas complexas valendo os postulados da lógica clássicacom os conectivos primitivos e se considerarmos todas as fórmulasda linguagem de LPA2v, com a negação forte e demais conectivos(excetuando-se, obviamente, a negação original), temos também alógica clássica. Além disso, pode-se provar o seguinte: se F for umafórmula complexa, + ¬F ↔ +F, ou seja, a negação fraca de F éequivalente à negação forte de F. Isso faz com que a LPA2v torneassaz útil na sua manipulação, sendo �paraconsistente� nos literais eclássico nas fórmulas complexas, ou clássico com a negação fortecom respeito a todas as fórmulas da linguagem.

Teorema 4 (Correção). A lógica LPA2v é correta comrespeito à semântica discutida, isto é, se A é um teorema, então Aconstitui uma fórmula logicamente válida de LPA2v.

Teorema 5 (Completeza). A lógica LPA2v é completa comrespeito à semântica discutida, isto é, se A é uma fórmula logicamenteválida, então A constitui um teorema de LPA2v.

Page 259: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 6 4

APÊNDICE C

A Linguagem da Lógica de Primeira OrdemParaconsistente Anotada

Descrevemos, a seguir, a linguagem de primeira ordem deLPA2v. Fixa-se o reticulado τ = < |τ|, ≤ > como no casoproposicional, τ = [0, 1] × [0, 1] e ≤ = {((µ

1, ρ

1), (µ

2, ρ

2)) ∈

([0, 1] × [0, 1])2µ1 ≤ µ

2 e ρ

1 ≤ ρ

2} (onde ≤ indica a ordem usual

dos números reais). Empregamos, também, as demais terminologi-as e simbologias do apêndice anterior. O vocabulário é constituídodos seguintes símbolos:1. Variáveis individuais: x, y, z, w, x

1, x

2, ...;

2. Para cada n (n ∈ N), símbolos funcionais n-ários. Os símbo-los funcionais 0-ários chamam-se, também, constantes indivi-duais;

3. Para cada n (n ∈ N), símbolos de predicados n-ários;4. Símbolos de igualdade =;5. Cada membro de τττττ é uma constante de anotação;6. Os símbolos ¬¬¬¬¬, ∧, ∨, →, ∃∃∃∃∃ e .7. Símbolos auxiliares (, ), : e ,.

Os termos da linguagem são definidos de maneira usual. Uti-liza-se a, b, c e d - com ou sem índices - como meta-variáveis paraos termos.

Definição 1. [Fórmula] Uma fórmula atômica é uma ex-pressão do tipo p(a

1, � , a

n), onde p é um símbolo predicativo n-

ário e a1, � , a

n, são termos de LPA2v. Se p(a

1, � , a

n) é uma

fórmula básica e µ ∈ τ é uma constante de anotação, então pµ(a1,

� , an) e a = b - onde a e b são termos - chamadas fórmulas

Page 260: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 6 5

atômicas. Definimos as fórmulas seguintes de definição indutiva ge-neralizada:1. Uma fórmula atômica é uma fórmula;2. Se A é uma fórmula, então (¬A) é uma fórmula;3. Se A e B são fórmulas, então (A ∧ B), (A ∨ B) e (A → B) são

fórmulas;4. Se A é uma fórmula e x é uma variável individual, então (∃x)A e

( x)A são fórmulas;5. Uma expressão de LPA2v constitui uma fórmula se e somente

se foi obtida aplicando-se uma das regras, 1 a 4, anteriores.

A fórmula ¬A é lida �a negação - ou negação fraca - deA�; A ∧ B, �a conjunção de A e B�; A ∨ B, �disjunção de A e B�;A → B, �a implicação de B por A�; (∃x)A, �a instanciação de Apor x�; e ( x)A, �a generalização de A por x�.

Definição 2. [Negação Forte e Equivalência] Sejam A e Bfórmulas quaisquer. Define-se, então:

A ↔ B =Def

(A → B) ∧ (B → A)e · A =

Def A → ((A → A) ∧ ¬(A → A)).

O símbolo · denomina-se negação forte; portando, · Adeve ser lido a negação forte de A. A fórmula A ↔ B é lida, comousualmente, a equivalência de A e B.

Seja A uma fórmula. Como no caso proposicional, ¬0Aindica A; ¬1A indica ¬A e ¬kA indica ¬(¬k-1A), (k ∈ N, k > 0). Nindica o conjunto dos números naturais {0, 1, 2, ...}Também, se µ ∈ τττττ, ~0 µ indica µ; ~1 µ indica ~µ e ~k µ indica ~(~k-

1µ), (k ∈ N, k > 0).

Definição 3 [Literal]. Seja pµ(a1, � , a

n) uma fórmula atô-

mica. Qualquer fórmula do tipo ¬kpµ(a1, � , a

n) (k ≥ 0) denomi-

na-se uma fórmula hiper-literal ou, simplesmente, literal. As de-mais fórmulas denominam-se fórmulas complexas.

Page 261: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 6 6

Fornece-se, agora, uma descrição da semântica para as linguagensde LPA2v.

Definição 4 [Estrutura]. Uma estrutura υ para uma lingua-gem LPA2v consiste dos seguintes objetos:1. Um conjunto não-vazio |υ| denominado o universo de U. Os

elementos de |υ| chamam-se indivíduos de υ;2. Para cada símbolo funcional n-ário f de LPA2v, uma operação

n-ária fυ de |υ| em |υ| - em particular, para cada constante indivi-dual e de LPA2v, eυ é um indivíduo de υ.

3. Para cada símbolo predicativo p de peso n de LPA2v, umafunção pυ: |υ|n → |τττττ|.

Seja υ uma estrutura para LPA2v. A linguagem-diagramaLτττττ(υ) é obtida de modo habitual. Dado um termo livre de variável ade Lτττττ(υ), define-se, também, de modo comum, o indivíduo υ(a) deυ. Utiliza-se i e j como meta-variáveis para denotar os nomes.

Define-se o valor verdade υ(A) para cada fórmula fechada Ade Lτττττ(υ). A definição é obtida por indução sobre o comprimentode A.

Definição 5. Seja A uma fórmula fechada e υ uma interpre-tação para LPA2v.1. Se A é atômica da forma pµ(a1

, � , an), então

υ(A) = 1 se e somente se pυ(υ(a1), �, (a

n)) ≥ µ.

2. Se A é atômica da forma a = b, entãoυ(A) = 1 se e somente se υ(a) = υ(b).

3. Se A é da forma ¬k(pµ(a1, � , a

n)) (k ≥ 1), então

υ(A) = υ(¬k-1(pµ(a1, � , a

n)).

4. Sejam A e B fórmulas fechadas quaisquer. Então,5. υ(A ∧ B) = 1 se e somente se υ(A) = υ(B) = 1.6. υ(A ∨ B) = 1 se e somente se υ(A) = 1 ou υ(B) = 1.7. υ(A → B) = 1 se e somente se υ(A) = 0 ou υ(B) = 1.8. Se A é uma fórmula fechada complexa, então υ(¬A) = 1 -

Page 262: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 6 7

υ(A).9. Se A é da forma (∃x)B, então υ(A) = 1 se e somente se υ(B

x[i])

= 1 para algum i em Lτττττ(υ).10. Se A é da forma ( x)B, então υ(A) = 1 se e somente se υ(B

x[i])

= 1 para todo i em Lτττττ(υ).

Teorema 1. Sejam A, B e C fórmulas quaisquer de Qτττττ. Osconectivos →, ∨, ∧, · junto com os quantificadores e ∃, possuemtodas as propriedades da implicação, conjunção, disjunção e ne-gação clássica, bem como dos quantificadores e ∃ clássicos, res-pectivamente. Por exemplo, tem-se que:1. ÃÄ · xA ↔ ∃x · A2. ÃÄ · ∃xB ∨ C ↔ ∃x(B ∨ C)3. ÃÄ · ∃xB ∨ ∃xC ↔ ∃x(B ∨ C)4. ÃÄ · xA ↔ · ∃x· A5. ÃÄ · ∃xA ↔ · x· A

No que segue é considerado um estudo axiomático do sistemaQτττττ. O sistema de postulados - axiomas e regras de inferência - deLPA2A são as seguintes: A, B e C são fórmulas quaisquer, F e Gsão fórmulas complexas, p é um símbolo proposicional e λ, µ, µ

j

são constantes de anotação.(→

1) A → (B → A)

(→2) (A → (B → C) → ((A → B) → (A → C))

(→3) ((A → B) → A → A)

(→4) (Modus Ponens, que abrevia-se por MP)

(∧1) A ∧ B → A

(∧2) A ∧ B → B

(∧3) A → (B → (A ∧ B))

(∨1) A → A ∨ B

(∨2) B → A ∨ B

(∨3) (A → C) → ((B → C) → ((A ∨ B) → C))

(¬1) (F → G) → ((F → ¬G) → ¬F)

(¬2) F → (¬F → A)

(¬3) F ∨ ¬F

Page 263: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 6 8

(τττττ1) p⊥

(τττττ2) ¬kpλ → ¬k-1p~λ, k ≥ 1

(τττττ3) pλ → pµ , λ ≥ µ

(τττττ4) pλ1

∧ pλ2 ∧ ... ∧ pλn

→ pλ, onde λ = λi

(1) B → A(x) / B → xA(x)

(2) xA(x) → A(t)

(∃1) A(t) → ∃xA(x)

(∃2) A(x) → B / ∃xA(x) → B

(=1) x = x

(=2) x

1 = y

1 → � → x

n = y

n → f(x

1, � , x

n) = f(y

1, � , y

n)

(=3) x

1 = y

1 → � → x

n = y

n → pλ( x1

, � , xn) → pλ( y1

, � , yn)

com as restrições usuais.

Teorema 2. Qτττττ é paraconsistente se e somente se #τττττ ≥ 2.

Teorema 3. Se Qτττττ é paracompleto então #τττττ ≥ 2. Se #τττττ ≥ 2existem sistemas Qτττττ que são paracompletos e existem Qτττττ que nãosão paracompletos.

Teorema 4. Se Qτττττ é Não-Alética então #τττττ ≥ 2. Se #τττττ ≥ 2 eexistem sistemas Qτττττ que são não-aléticos e sistemas Qτττττ que nãosão não-aléticas.

Por conseguinte, vê-se que os sistemas Qτττττ são, em geral,paraconsistentes, paracompletos e não-aléticos.

Teorema 5. O cálculo Qτττττ é não-trivial.

Os teoremas acima nos mostram que os sistemas anotadossão paraconsistentes e, em geral, paracompletos e não-aléticos.

Em [Abe 92] foram demonstrados teoremas de correção ede completeza para os cálculos Qτ. Além disso, esse autor mostroucomo a teoria padrão de modelos pode ser estendida para as lógicasanotadas de 1a ordem.

Page 264: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 6 9

APÊNDICE D

Programação em linguagem C do Controlador LógicoParaconsistente Para-Control.

1 - Introdução

Para facilitar as implementações das Células Neurais ArtificiaisParaconsistentes CNAP’s em Sistemas de Neurocomputação, apresenta-mos o programa em linguagem C de um Controlador Lógico Paraconsistentedenominado de Para-Control. Este programa utiliza as considerações e osconceitos relacionados com a interpretação da LPA2v. Para elaboração doprograma foi utilizado o reticulado associado da LPA2v com 12 regiõesdelimitadas, que gerou o Algoritmo Para-Analisador estudado no cap. 2.

Neste programa, a ferramenta principal que vai fazer a análiseparaconsistente é o Algoritmo Para-Analisador e no processo, dependen-do da escolha do usuário, os sinais aplicados nas entradas podem sofreratuação de Operadores Lógicos de Maximização OR, de Minimização ANDe de Negação NOT.

Na execução do programa é inicialmente aberto uma tela que possibi-lita a escolha do tipo de análise paraconsistente desejada. O programa per-gunta se vai ser efetuado uma análise paraconsistente simples, com nega-ção lógica ou com conectivos lógicos de Minimização ou Minimização. Afigura abaixo mostra a primeira tela.

Figura D.1 - Tela inicial do programa Para-Control.

Page 265: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 7 0

Definida a escolha do tipo de análise uma segunda tela é aberta, ondeé permitido introduzir na análise paraconsistente os ajustes dos valores decontroles limites para a otimização do Sistema. Conforme foi visto no capí-tulo 2, os valores para ajustes dos controles limites (Vici = limite da incon-sistência, Vsci = limite da indeterminação, Vscc = limite da verdade e Vicc =limite da falsidade) determinam os limites máximos e mínimos em que a aná-lise paraconsistente vai considerar as condições de Inconsistência,Indeterminação, Verdade e Falsidade. A figura abaixo mostra a segunda telaque permite a inclusão destes valores.

Figura D.2 - tela que permite a inclusão dos valores de ajustes limitesdo programa Para-Control.

Na aplicação dos valores dos graus de crença e de descrença paraanálise, se a opção inicial foi por um processo de análise paraconsistentesimples, a próxima tela vai pedir a aplicação dos valores. Veja a figura abai-xo, onde foi aplicado os valores do grau de crença e de descrença.

Figura D.3 - tela que apresenta inclusão da anotação com os valoresde graus de crença e de descrença para análise simples no programa Para-Control.

Page 266: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 7 1

Se a opção foi por um processo também de maximização ou minimizaçãoentre sinais anotados é aberto uma tela para inclusão de todos os sinais quevão sofrer a ação dos Operadores. A tela da figura abaixo mostra a inclusãode vários sinais anotados, onde cada um é composto pela sua anotaçãocom os valores dos graus de crença e de descrença correspondentes.

Figura D.4 - tela que apresenta inclusão da anotação com os valoresde graus de crença e de descrença de vários sinais anotados para passarpor um processo de maximização e análise no programa Para-Control.

Com todos os sinais aplicados, o programa faz a análiseparaconsistente conforme os procedimentos e equações da LPA2v. Após aanálise paraconsistente uma tela de saída apresenta os valores dos grausde Certeza Gc, de Contradição Gct e uma palavra de 12 dígitos representan-tes dos 12 estados lógicos resultantes do reticulado. A tela da próximafigura apresenta o resultado da análise paraconsistente.

Figura D.5 - tela que apresenta o resultado de uma análiseparaconsistente no programa Para-Control.

Page 267: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 7 2

A seguir apresentamos a listagem completa do programa em lingua-gem C para análise paraconsistente.

2 - Programação em Linguagem C do ControladorLógico Paraconsistente

#include <stdio.h>#include <conio.h>#include <stdlib.h>#include <ctype.h>#include <string.h>#include <math.h>

float inputRL(int size, float limiteInferior, float limiteSuperior);void displayRL(char *s, int size);float modulo(float d);int telaPrincipal(void);void entraLimites(void);void mostraLimites(void);void entraSinais(void);void calcula(void);void analise(void);

float n1r; /* Grau de crenca */float n2r; /* Grau de descrenca */float c1; /* Valor superior de controle de certeza */float c2; /* Valor inferior de controle de certeza */float c3; /* Valor superior de controle de Contradição */float c4; /* Valor inferior de controle de Contradição */float n1[12], n2[12];

int sd[13], i; /* sd[13] = Saida discreta */float gc; /* Grau de certeza */float gi; /* Grau de Contradição */int normal=1, and=0, or=0;void main(void){ int continuar, redefinir=’s’; while( telaPrincipal() ){ do{ if(redefinir==’s’ || redefinir==’S’){ entraLimites(); }

Page 268: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 7 3

mostraLimites(); entraSinais(); calcula(); mostraLimites(); analise(); gotoxy(20,24); printf(“Deseja continuar? <s/n> “); do{ gotoxy(44,24); continuar=getche(); }while(!(

(continuar==’s’)||(continuar==’S’)||(continuar==’n’)||(continuar==’N’) )); if( (continuar==’s’)||(continuar==’S’) ){ gotoxy(20,24); printf(“Deseja modificar os valores de contro-

le? <s/n> “); do{ gotoxy(67,24); redefinir=getche(); }while(!(

(redefinir==’s’)||(redefinir==’S’)||(redefinir==’n’)||(redefinir==’N’) )); } else{ redefinir=’s’; } }while(continuar==’s’ || continuar==’S’); }}/* main *//******** tela Principal **********/int telaPrincipal(void){ int ch, ok=0, opcao=1; clrscr(); gotoxy(1,2); printf(“*** CONTROLADOR LÓGICO

PARACONSISTENTE PARA-CONTROL * “,162); gotoxy(10,4); printf(“**** ESCOLHA O TIPO DE ANÁLISE

PARACONSISTENTE ***”,160); gotoxy(30,6); printf(“(X)* NORMAL”); gotoxy(30,7); printf(“( )* LÓGICAMENTE NEGADA”); gotoxy(30,8); printf(“( )* FUNÇÃO AND

(Minimização)”,128,142,128,142); gotoxy(30,9); printf(“( )* FUNÇÃO OR

(Maximização)”,128,142,128,142); gotoxy(30,11);printf(“( )* INICIAR”); gotoxy(8,20); printf(“** INSTRUÇÕES: 1- Movimente o cursor com

as SETAS do teclado”,135);

Page 269: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 7 4

gotoxy(8,21); printf(“ 2- Confirme as opções com a BARRAde espaço”);

gotoxy(8,22); printf(“ 3- Movimente o cursor para INICIARe tecle ENTER “);

gotoxy(8,23); printf(“ 4- Tecle ESC para sair”); normal=1; and=0; or=0; gotoxy(31,6); do{ switch (opcao){ case 1: /* opcao 1 */ gotoxy(31,6); ch=getch(); switch (ch){ case 72: opcao=5; break; case 80: opcao=2; break; case ‘ ‘: printf(“X”); if(normal==0){ gotoxy(31,7); printf(“ “); } normal=1; opcao=3; break; case 27: clrscr(); return 0; } break; /* fim da opcao 1 */ case 2: /* opcao 2 */ gotoxy(31,7); ch=getch(); switch (ch){ case 72: opcao=1; break; case 80: opcao=3; break; case ‘ ‘:

Page 270: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 7 5

printf(“X”); if(normal==1){ gotoxy(31,6); printf(“ “); } normal=0; opcao=3; break; case 27: clrscr(); return 0; } break; /* fim da opcao 2 */ case 3: /* opcao 3 */ gotoxy(31,8); ch=getch(); switch (ch){ case 72: opcao=2; break; case 80: opcao=4; break; case ‘ ‘: printf(“X”); if(or==1){ gotoxy(31,9); printf(“ “); or=0; } and=1; opcao=5; break; case 27: clrscr(); return 0; } break; /* fim da opcao 3 */ case 4: /* opcao 4 */ gotoxy(31,9); ch=getch(); switch (ch){ case 72: opcao=3; break;

Page 271: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 7 6

case 80: opcao=5; break;

case ‘ ‘: printf(“X”); if(and==1){ gotoxy(31,8); printf(“ “); and=0; } or=1; opcao=5; break; case 27: clrscr(); return 0; } break; /* fim da opcao 4 */ case 5: /* opcao 5 */ gotoxy(31,11); ch=getch(); switch (ch){ case 72: opcao=4; break; case 80: opcao=1; break; case ‘ ‘: case 13: printf(“X”); ok=1; break; case 27: clrscr(); return 0; } break; /* fim da opcao 5 */ } /* switch externo */ }while(ok==0); return 1;}/*********** entrada dos valores de limite **************/

Page 272: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 7 7

void entraLimites(void){ clrscr(); gotoxy(6,1); printf(“******* SOFTWARE PARA-ANALISADOR

*********”); gotoxy(23,3); printf(“ANALISADOR LÓGICO

PARACONSISTENTE”, 162); gotoxy(5,5); printf(“DIGITE O VALOR SUPERIOR DE CONTROLE

DE CERTEZA Vscc=[ ]”); printf(“\n ( Valor positivo entre 0.0 e 1.0 ) “); gotoxy(72,5); c1=inputRL(4, 0.0, 1.0); gotoxy(5,7); printf(“DIGITE O VALOR INFERIOR DE CONTROLE

DE CERTEZA Vicc=[ ]”); printf(“\n ( Valor negativo entre 0.0 e -1.0 ) “); gotoxy(72,7); c2=inputRL(4, -1.0, 0.0); gotoxy(5,9); printf(“DIGITE O VALOR SUPERIOR DE CONTROLE

DE CONTRADIÇAO Vsci=[ ]”); printf(“\n ( Valor positivo entre 0.0 e 1.0 ) “); gotoxy(72,9); c3=inputRL(4, 0.0, 1.0); gotoxy(5,11); printf(“DIGITE O VALOR INFERIOR DE CONTROLE

DE CONTRADIÇAO Vici=[ ]”); printf(“\n ( Valor negativo entre 0.0 e -1.0 ) “); gotoxy(72,11); c4=inputRL(4, -1.0, 0.0);}/********* mostra os valores de limite *************/void mostraLimites(void){ clrscr(); gotoxy(2,1); printf(“************* SOFTWARE PARA-

CONTROL ****************** “); gotoxy(8,3); printf(“********** ANALISADOR LÓGICO

PARACONSISTENTE ***********”, 162); gotoxy(5,5); printf(“Valor superior de controle de certeza ..........Vscc=[

%4.3f]”, c1); gotoxy(5,6); if(c2<0.0) printf(“Valor inferior de controle de certeza

..........Vicc=[%4.3f]”, c2); else printf(“Valor inferior de controle de certeza ..........Vicc=[

%4.3f]”, c2); gotoxy(5,7); printf(“Valor superior de controle de

Contradição.........Vsci=[ %4.3f]”, c3); gotoxy(5,8); if(c4<0.0) printf(“Valor inferior de controle de

Contradição.........Vici=[%4.3f]”, c4); else printf(“Valor inferior de controle de Contradição.........Vici=[

Page 273: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 7 8

%4.3f]”, c4);}void entraSinais(void){ int i, letra, y, k; /***********Entrada de apenas um sinal**********/ if(and==0 && or==0){ gotoxy(33,10); printf(“SINAL ANOTADO”); gotoxy(3,12); printf(“SINAL ANOTADO A: Grau de Cren%ca

%c1a=[ ], Grau de Descren%ca %c2a=[ ]”,135,230,135,230); gotoxy(4,22); printf(“ENTRE COM OS VALORES: Grau de cren%ca,

Grau de descren%ca [ 0.0 … 1.0]”,135,135,130); gotoxy(44,12); n1r = inputRL(4, 0, 1); gotoxy(76,12); n2r = inputRL(4, 0, 1); } /***********Entrada de varios sinais************/ else{ /**Inicializacao**/ if(and==1){ /* minimizar */ for(i=0; i<12; i++){ n1[i]=1.0; n2[i]=1.0; } } if(or==1){ /* maximizar */ for(i=0; i<12; i++){ n1[i]=0.0; n2[i]=0.0; } } gotoxy(33,10); printf(“SINAIS ANOTADOS”); gotoxy(4,22); printf(“ENTRE COM OS VALORES: Grau de cren%ca,

Grau de descren%ca [ 0.0 a 1.0] “,135,135,130); /*****Entra com os dois primeiros sinais*****/ gotoxy(3,12); printf(“SINAL ANOTADO A: Grau de Cren%ca

%c1a=[ ], Grau de Descren%ca %c2a=[ ]”,135,230,135,230); gotoxy(44,12); n1[0] = inputRL(4, 0, 1); gotoxy(76,12); n2[0] = inputRL(4, 0, 1); gotoxy(3,13); printf(“SINAL ANOTADO B: Grau de Cren%ca

%c1b=[ ], Grau de Descren%ca %c2b=[ ]”,135,230,135,230); gotoxy(44,13); n1[1] = inputRL(4, 0, 1); gotoxy(76,13); n2[1] = inputRL(4, 0, 1); /*****Entra com mais sinais*****/ letra=’c’;

Page 274: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 7 9

y=14; k=2; do{ gotoxy(5,23); printf(“Deseja entrar com mais sinais anotados?

<s/n>”); gotoxy(51,23); i=getche(); if(i==’n’ || i==’N’) break; /***para de entrar sinais***/ if(letra==’j’){ /* ultima letra */ gotoxy(5,23); printf(“Este %c o %cltimo sinal permitido a ser

digitado “,130,163); } else{ /* nao e’ a ultima vez */ gotoxy(5,23); printf(“ “); }

gotoxy(3,y); printf(“SINAL ANOTADO %c: Grau de Cren%ca%c1%c=[ ] Grau de Descren%ca %c2%c=[ ]”,(letra-32),135,230,letra,135,230,letra);

gotoxy(44,y); n1[k] = inputRL(4, 0, 1); gotoxy(76,y); n2[k] = inputRL(4, 0, 1);

letra++; y++; /*posicao vertical*/ k++;

}while( letra <= ‘j’ ); } /* else maximizar ou minimizar */ gotoxy(1,22); printf(“ “); gotoxy(5,23); printf(“Digite ENTER para iniciar an%clise

“,160); do {} while(getch() != 13);}/******** calculos ***********/void calcula(void){ float tmp; for(i=0;i<13;i++) sd[i] = 0; if(and==1){ /*minimizar*/ for(i=0, n1r=1, n2r=1;i<10;i++){ if(n1r>n1[i]) n1r = n1[i]; if(n2r>n2[i]) n2r = n2[i]; } } if(or==1){ /*maximizar*/ for(i=0,n1r=0,n2r=0;i<10;i++){ if(n1r<n1[i]) n1r = n1[i]; if(n2r<n2[i]) n2r = n2[i];

Page 275: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 8 0

} } if(normal==0){ tmp=n1r; n1r=n2r; n2r=tmp; } gc = n1r-n2r; /* calcula grau de certeza */ gi = (n1r+n2r)-1; /* calcula grau de Contradição */}/************* analise dos resultados ********************/void analise(void){ gotoxy(15,10); printf(“ ******** RESULTADOS ********”); gotoxy(5,12); printf(“O VALOR DO GRAU DE Crença RESULTAN-

TE: %c1R=[%4.3f]”,128,230,n1r); gotoxy(5,13); printf(“O VALOR DO GRAU DE Descrença RESUL-

TANTE: %c2R=[%4.3f]”,128,230, n2r); gotoxy(14,15); printf(“ ** Grau de certeza Gc= %4.3f “, gc); gotoxy(14,16); printf(“ ** Grau de Contradição Gi= %4.3f “, gi); gotoxy(5,22); printf(“O ESTADO lógico RESULTANTE •: “, 162,

130); /************* determinação dos estados extremos **********/ if(gc >= c1){ /* verdadeiro */ sd[1] = 1; printf(“Totalmente VERDADEIRO\n”); } else{ if(gc <= c2){ /* falso */ sd[2] = 1; printf(“Totalmente FALSO\n”); } else{ if(gi >= c3){ /* inconsistente */ sd[0] = 1; printf(“Totalmente INCONSISTENTE\n”); } else{ if(gi <= c4){ /* indeterminado */ sd[3] = 1; printf(“Totalmente INDETERMINADO\n”); } else{ /******** analise para casos não extremos *******/

Page 276: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 8 1

if(gc >= 0.0){ /* direita */ if(gi >= 0.0){ /* acima */ if(gi >= gc){ sd[4]=1; printf(“INCONSISTENTE tendendo ao VERDADEI-

RO”); } else{ sd[6]=1; printf(“Quase-VERDADEIRO tendendo ao INCONSIS-

TENTE”); } } else{ /* abaixo */ if(modulo(gi) >= gc){ sd[10]=1; printf(“INDETERMINADO tendendo ao VERDADEI-

RO”); } else{ sd[7]=1; printf(“Quase-VERDADEIRO tendendo ao

INDETERMINADO”); } } } else{ /* esquerda */ if(gi >= 0.0){ /* acima */ if(gi >= modulo(gc)){ sd[5]=1; printf(“INCONSISTENTE tendendo ao FALSO”); } else{ sd[8]=1; printf(“Quase-FALSO tendendo ao INCONSISTEN-

TE”); } } else{ /* abaixo */ if(modulo(gi) >= modulo(gc)){ sd[11]=1; printf(“INDETERMINADO tendendo ao FALSO”); }

Page 277: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 8 2

else{ sd[9]=1; printf(“Quase FALSO tendendo ao

INDETERMINADO”); } } } } } } } gotoxy(5,18); printf(“* Saídas discretas: “, 161); gotoxy(9,19); printf(“T V F %c T-v T-f Qv-T Qv-%c Qf-T Qf-

%c %c -v %c -f “\ ,193, 193, 193, 193, 193); gotoxy(9,20); printf(“%d %d %d %d %d %d %d %d %d

%d %d %d”\ , sd[0], sd[1], sd[2], sd[3], sd[4], sd[5], sd[6], sd[7], sd[8], sd[9],

sd[10], sd[11]);}float inputRL(int size, float limiteInferior, float limiteSuperior){ int x, y, i, ponto; char str[10], ch; float saida; x = wherex(); y = wherey(); do{ ponto=0; /* 0 = nenhuma ocorrencia de ponto decimal, 1 = uma

ocorrencia*/ strcpy(str,” “); gotoxy((x - size),y); for(i=0; i<=size; i++) printf(“ “);/*limpa area de

entrada*/ for(i=1; i<(size+1); i++){ gotoxy(x,y); ch =(char) getch(); if(ch==13) /* [ENTER] */{ str[i]=’\0'; break; } if(isdigit(ch))/*algarismo de 0 a 9 */{ if( (ch==’0')&&(i==2)&&(str[1]==’0') )/*algarismo zero*/{ i—; }/*nao deixa escrever mais de um zero ‘a esquerda*/ str[i]=ch;

Page 278: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 8 3

str[i+1]=’\0'; displayRL(str,size); continue; } if(ch==’+’){ str[0]=’ ‘; /* numero positivo */ i—;/*nao anda*/ displayRL(str,size); continue; } if(ch==’-’){ str[0]=’-’; /* numero negativo */ i—;/*nao anda*/ displayRL(str,size); continue; } if( (ch==’.’)&&(ponto==0) )/*primeira ocorrência de ponto deci-

mal*/{ ponto=1; /* para não deixar escrever outro ponto */ if(i==1) { strcat(str, “0.”); i++; } else{ str[i]=’.’; str[i+1]=’\0'; } displayRL(str,size); continue; } if(ch==’\b’) /*backspace*/{ if(i==1) /*vai apagar o sinal*/{ str[0]=’ ‘; str[1]=’\0'; i= 0; displayRL(str,size); continue; } else /*(i>1)*/{ if(str[—i]==’.’)/*vai apagar o pto decimal*/{ ponto=0; /* permite que outro ponto seja digitado */ } /*vai apagar um algarismo ou um pto*/

Page 279: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 8 4

str[i]=’\0'; i—; displayRL(str,size); continue; } }/*fim backspace*/ /* nao e’ um caractere valido */ i—; /* portanto ignorar caractere */ }/* fim laco for*/ saida = atof(str); }while(! ((saida >= limiteInferior) && (saida <= limiteSuperior)) ); return (saida);}void displayRL(char *s, int size){ int x, y; x=wherex(); y=wherey(); gotoxy((x - size),y); for(i=0; i<size; i++) printf(“ “); gotoxy( (x-strlen(s)+1), y ); printf(“%s”, s);}float modulo(float d){ return sqrt(d*d);}

Page 280: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 8 5

Referências bibliográficas.[Abe 92] ABE, J.M., Fundamentos da Lógica Anotada, Tese de Dou-

torado, FFLCH - USP, 135 pp, 1992.[Abe 93a] ABE, J. M., On Annotated Model Theory, Coleção Docu-

mentos IEA-USP, série Lógica e Teoria da Ciência, n° 11, 29 pp, 1993.[Abe 93b] ABE, J.M., On Annotated Modal Logic, Coleção Docu-

mentos, Série Lógica e Teoria da Ciência, IEA-USP, no 13, 19 p., 1993.[Abe 94a] ABE, J.M., Annotated Logics Qt and ultraproducts, Cole-

ção Documentos, Série Lógica e Teoria da Ciência, IEA-USP, no 16, 1-10,1994.

[Abe 94b] ABE, J.M., On Annotated Modal Logic, MathematicaJaponica, 40, n. 3, pp. 553-560, 1994.

[Abe 96] ABE, J.M., Curry Algebras N1, Atti Acc. Lincei Rend. Fis.,

s.9, vol. 7, 125-128, 1996.[Abe 97a] ABE, J.M., A note on Curry Algebras Pt, Coleção Docu-

mentos, Série Lógica e Teoria da Ciência, IEA-USP, no 25, 7 p., 1997.

[Abe 97b] ABE, J.M., Filters and ideals of a Pt-Algebra, Coleção Do-cumentos, Série Lógica e Teoria da Ciência, IEA-USP, n

o 26, 7 p., 1997.

[Abe 97c] ABE, J.M., A logical system for reasoning withinconsistency, Anais da 5a Reunião Anual da SBPN’97, Ciência e Culturana Globalização - Novos Paradigmas, 08 - 10 de agosto de 1997, Águas deLindóia, SP, 196-201, 1997.

[Abe 97d] ABE, J.M., Lógica Paraconsistente e Inteligência Artificial,Coleção Cadernos de Estudos e Pesquisas - UNIP, Série: Estudos e Pes-quisas, n

o 1-004/97, Universidade Paulista, 28p, 1997.

[Abe 97e] ABE, J.M., Some Aspects of Paraconsistent Systems andApplications, Logique et Analyse, 157(1997), 83-96.

BIBLIOGRAFIA

Page 281: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 8 6

[Abe 98] ABE, J.M., Uma algebrização dos sistemas anotados, Atasda 6a Reunião Anual da Sociedade Brasileira de Pesquisadores Nikkeis -SBPN, 254-260, 1998.

[Abe 99a] ABE, J.M., Incorporando Tempo em RaciocínioParaconsistente, atas do VI Congresso Brasileiro de Filosofia, 5 a 10 desetembro de 1999, Instituto Brasileiro de Filosofia, Faculdade de Direito daUniversidade de São Paulo, 1999.

[Abe 99b] ABE, J.M., Curry algebras Pt, a aparecer em Logique etAnalyse, 1999.

[Abe 00a] ABE, J.M., Um panorama da Lógica Atual, Coleção Cader-nos de Estudos e Pesquisas - UNIP, Série: Estudos e Pesquisas, n

o 1-004/00,

ISSN 1517-9230, Universidade Paulista, 28p, 2000.[Abe 00b] ABE, J.M., Atas do I Congresso de Lógica Aplicada à

Tecnologia - LAPTEC’2000, São Paulo, SP - Brasil, Editor, ISBN 85-85795-29-8, Editôra Plêiade, 2000.

[Abe 00c] ABE, J.M., An Algebraic Version of the Annotated LogicsPt (Preliminary version), Coleção Cadernos de Estudos e Pesquisas - UNIP,Série: Estudos e Pesquisas, n

o 1-011/00, ISSN 1517-9230, Universidade

Paulista, 10p, 2000.[Abe & Akama 98a] ABE, J.M. & S. AKAMA, Incorporating time in

paraconsistent reasoning, Coleção Documentos, Série Lógica e Teoria daCiência, IEA-USP, n

o 37, 11p., 1998.

[Abe & Akama 98b] ABE, J.M. & S. AKAMA, Paraconsistentannotated deontic logics, Coleção Documentos, Série Lógica e Teoria daCiência, IEA-USP, n

o 42, 13p., 1998.

[Abe & Akama 98c] ABE, J.M. & S. AKAMA, Paraconsistentknowledge and multi-agents, Coleção Documentos, Série Lógica e Teoriada Ciência, IEA-USP, n

o 41, 14p., 1998.

[Abe & Akama 98d] ABE, J.M. & S. AKAMA, On some aspects ofdecidability of annotated systems, Coleção Documentos, Série Lógica eTeoria da Ciência, IEA-USP, n

o 51, 14p., 1998.

[Abe & Akama 99a] ABE, J.M. & S. AKAMA, A Logical System forReasoning with Fuzziness and Inconsistencies, Proceedings of the IASTEDInternational Conference on Artitficial Intelligence and Soft Computing(ASC’99), August 9-12, Honolulu, Hawaii, USA, 221-225, 1999.

[Abe & Akama 99b] ABE, J.M. & S. AKAMA, Annotated temporallogics D*t, Coleção Documentos, Série Lógica e Teoria da Ciência, IEA-USP, n

o 53, 15p., 1999.

[Abe & Akama 99c] ABE, J.M. & S. AKAMA, Discussive Logics Mt,Coleção Documentos, Série Lógica e Teoria da Ciência, IEA-USP, n

o 54,

15p., 1999.[Abe & Akama 99d] ABE, J.M. & S. AKAMA, Raciocínio Inconsis-

tente e Multi-agentes, atas do VI Congresso Brasileiro de Filosofia, 5 a 10

Page 282: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 8 7

de setembro de 1999, Instituto Brasileiro de Filosofia, Faculdade de Direitoda Universidade de São Paulo, 1999.

[Abe & Akama 99e] ABE, J.M. & S. AKAMA, Annotated logics Qtand ultraproducts, a aparecer em Logique et Analyse, 1999.

[Abe & Akama 00a] ABE, J.M. & S. AKAMA, On Jáskowski’sAnnotated Discursive Logic, Atas do I Congresso de Lógica Aplicada àTecnologia - LAPTEC’2000, Editôra Plêiade, São Paulo, SP - Brasil, Editor:J.M. Abe, ISBN 85-85795-29-8, 445-458, 2000.

[Abe & Akama 00b] ABE, J.M. & S. AKAMA, Paraconsistentannotated temporal logics D*t, aceito no International Joint Conference 7th

IBERAMIA (the Ibero-American AI Conference) and 15th SBIA2000 (theBraziliam AI Symposium) Supported by SBC - Sociedade Brasileira de Com-putação, Brazil; AAIA - Associacion Argentina de Inteligencia Artificial;AEPIA - Associacion Espanola para Inteligencia Artificial; APPIA -Associacao Portuguesa para Inteligencia Artificial; AVINTA - AssociacionVenezuelana de Inteligencia Artificial; SCCC - Sociedad Chilena de Cienciade la Computacion; SMCC - Sociedad de Matematica y Computacion deCuba; SMIA - Sociedad Mexicana de Inteligencia Artificial. Publication inthe conference proceedings by Springer-Verlag in the Lecture Notes in Ar-tificial Intelligence series

[Abe, Akama & Da Silva Filho 00] ABE, J.M., S. AKAMA & J.I. DASILVA FILHO, Modalities, paraconsistency, paracompleteness, and AI, Atasdo I Congresso de Lógica Aplicada à Tecnologia - LAPTEC’2000, EditôraPlêiade, São Paulo, SP - Brasil, Editor: J.M. Abe, ISBN 85-85795-29-8, 459-470, 2000

[Abe, Akama & Sylvan 98] ABE, J.M., S. AKAMA & R. SYLVAN,General annotated logics, with an introduction to full accounting logic,Coleção Documentos, Série Lógica e Teoria da Ciência, IEA-USP, n

o 39,

17p., 1998.[Abe, Attie, Scalzitti, Tiharu & Yamamoto 99] ABE, J.M., J.P. ATTIE,

A. SCALZITTI, E. TIHARU & F.S. YAMAMOTO, Introdução à LógicaClássica, Editora Plêiade, 1999, 176 págs.

[Abe, Ávila & Prado 98] ABE, J.M., B.C. ÁVILA & J.P.A. PRADO,Multi-agents and inconsistency, International Conference onComputational Intelligence and Multimedia Applications 1998, ISBN 981-023352-3, H. Selvaraj & B. Verma Editors, World Scientific, (ICCIMA’ 98,Proceedings of the 2nd International Conference), 137-142, 1998.

[Abe & Da Silva Filho 96] ABE, J.M. & J.I. DA SILVA FILHO,Implementação de circuitos eletrônicos de funções lógicas paraconsistentesRadix N, Coleção Documentos, Série Lógica e Teoria da Ciência, IEA-USP, n

o 22, 37 p., 1996.

[Abe & Da Silva Filho 98] ABE, J.M. & J.I. DA SILVA FILHO,Inconsistency and Electronic Circuits, Proceedings of The International

Page 283: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 8 8

ICSC Symposium on Engineering of Intelligent Systems (EIS’98), Volume 3,Artificial Intelligence, Editor: E. Alpaydin, ICSC Academic Press InternationalComputer Science Conventions Canada/Switzerland, ISBN 3-906454-12-6,191-197, 1998.

[Abe, Da Silva Filho & Nakamatsu 00] ABE, J.M., J.I. DA SILVA FI-LHO & K. NAKAMATSU, A Logical System for Reasoning withInconsistent Deontic Modalities, submetido no Fifth InternationalConference on Computing Anticipatory Systems, CASYS’2001, Organizedby the non-profit association CHAOS, Centre for Hyperincursion andAnticipation in Ordered Systems CHAOS asbl, Institut de Mathématique,Université de Liège, LIEGE, Belgium, Bélgica, 2000.

[Abe & Nakamatsu 99] ABE, J.M. & K. NAKAMATSU, ProgramaçãoLógica Paraconsistente e Raciocínio Não-monotônico, Defeasible e Default-Fuzzy, atas do VI Congresso Brasileiro de Filosofia, 5 a 10 de setembro de1999, Instituto Brasileiro de Filosofia, Faculdade de Direito da Universidadede São Paulo, 1999.

[Abe, Nakamatsu & Ávila 99] ABE, J.M., K. NAKAMATSU & B.C.ÁVILA, Paraconsistent Annotated Logic Programming, a aparecer noInternational Journal of Computing Anticipatory Systems, 1999.

[Abe & Papavero 91] ABE, J. M. & N. PAPAVERO, Teoria Intuitivados Conjuntos, McGraw-Hill, Makron Books, São Paulo, 266 pp, 1991.

[Abe, Prado & Ávila 97] ABE, J.M., J.P.A. PRADO & B.C. ÁVILA, Ona class of paraconsistent multimodal systems for reasoning, Coleção Do-cumentos, Série Lógica e Teoria da Ciência, IEA-USP, n

o 24, 12 p., 1997.

[Akama & Abe 98a] AKAMA, S. & J.M. ABE, Many-valued andannotated modal logics, IEEE 1998 International Symposium on Multiple-Valued Logic (ISMVL’98), Proceedings, pp. 114-119, Fukuoka, Japão, 1998.

[Akama & Abe 98b] AKAMA, S. & J.M. ABE, Constructive logics asannotated logics, Coleção Documentos, Série Lógica e Teoria da Ciência,IEA-USP, n

o 40, 9p., 1998.

[Akama & Abe 98c] AKAMA, S. & J.M. ABE, Natural Deduction AndGeneral Annotated Logics, atas do The First International Workshop onLabelled Deduction (LD’98), Freiburg, Alemanha, 1-14, 1998. Também pu-blicado na Coleção Documentos, Série Lógica e Teoria da Ciência, IEA-USP, n

o 49, 14p., 1998.

[Akama & Abe 98d] AKAMA, S. & J.M. ABE, Many-valued andannotated modal logics (Extended version), Coleção Documentos, SérieLógica e Teoria da Ciência, IEA-USP, n

o 38, 10p., 1998.

[Akama & Abe 99a] AKAMA, S. & J.M. ABE, Many-valued andannotated modal logics II, Coleção Documentos, Série Lógica e Teoria daCiência, IEA-USP, n

o 52, 14p., 1999.

[Akama & Abe 99b] AKAMA, S. & J.M. ABE, Epistemic States InParaconsistent Logic Programming, submetido no Workshop on Multi-

Page 284: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 8 9

Agent Systems in Logic Programming (ICLP’99), realizado conjuntamentecom o International Conference on Logic Programming 1999, 29/11 a 04/12/1999, Las Cruces, Novo México, USA, 1999.

[Akama & Abe 99c] AKAMA, S. & J.M. ABE, Fuzzy annotated logics,aceito no IPMU’2000.

[Akama & Abe 99d] AKAMA, S. & J.M. ABE, Annotated Rules withUncertainty in Expert Systems, aceito no Eighteenth IASTED InternationalConference on Applied Informatics (AI 2000) held February 14-17, 2000,Innsbruck, Austria.

[Akama & Abe 00a] AKAMA, S. & J.M. ABE, Annotated logics anduncertainty, Atas do I Congresso de Lógica Aplicada à Tecnologia -LAPTEC’2000, Editôra Plêiade, São Paulo, SP - Brasil, Editor: J.M. Abe,ISBN 85-85795-29-8, 449-507, 2000.

[Akama & Abe 00b] AKAMA, S. & J.M. ABE, Fuzzy annotated logics,Anais do 8th International Conference on Information Processing andManagement of Uncertainty in Knowledge Based Systems, IPMU’2000,Organized by: Universidad Politécnica de Madrid (Spain), July 3-7, 2000,Madri, Espanha, Vol. 1, 504-508, 2000.

[Ávila 96] ÁVILA, B.C., Uma Abordagem Paraconsistente Baseadaem Lógica Evidencial para Tratar Exceções em Sistemas de Frames comMúltipla Herança, tese de Doutoramento, Universidade de São Paulo, SãoPaulo, 1996.

[Ávila & Abe 99a] ÁVILA, B.C. & J.M. ABE, Inconsistencies,Exceptions, and Frame Systems, Coleção Documentos, Série Lógica e Teo-ria da Ciência, IEA-USP, n

o 57, 25p., 1999.

[Ávila & Abe 99b] ÁVILA, B.C. & J.M. ABE, Handling Inconsistenciesin Logic Programming, Coleção Documentos, Série Lógica e Teoria daCiência, IEA-USP, n

o 56, 22p., 1999.

[Ávila, Abe & Prado 97a] ÁVILA, B.C., J.M. ABE & J.P.A PRADO, Umsistema de frames utilizando programação lógica evidencial, Coleção Do-cumentos, Série Lógica e Teoria da Ciência, IEA-USP, n

o 27, 43p., 1997.

[Ávila, Abe & Prado 97b] ÁVILA, B.C., J.M. ABE & J.P.A PRADO, Autilização de redes de herança em representação de conhecimento, ColeçãoDocumentos, Série Lógica e Teoria da Ciência, IEA-USP, n

o 28, 18p., 1997.

[Ávila, Abe & Prado 97c] ÁVILA, B.C., J.M. ABE & J.P.A PRADO,Uma extensão da linguagem Prolog para suportar programação lógicaevidencial, Coleção Documentos, Série Lógica e Teoria da Ciência, IEA-USP, n

o 29, 43p., 1997.

[Ávila, Abe & Prado 97d] ÁVILA, B.C., J.M. ABE & J.P.A. PRADO,Reasoning in Paraconsistent Frame Systems, The Second InternationalWorkshop on CSCW in Design, P. Siriruchatapong Z. Lin & J. P. Barthes(Eds), International Academic Publishers, ISBN: 7-80003-412-7/TP.19,Bangkok, Thailand, pp. 239-244, 1997.

Page 285: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 9 0

[Ávila, Abe & Prado 97e] ÁVILA, B.C., J.M. ABE & J.P.A. PRADO,ParaLog-e: A Paraconsistent Evidential Logic Programming Language, XVIIInternational Conference of the Chilean Computer Science Society, IEEEComputer Society Press, pp 2-8, Valparaíso, Chile, Novembro, 1997.

[Ávila, Abe & Prado 98a] ÁVILA, B.C., J.M. ABE & J.P.A. PRADO,ParaLog-e: A Paraconsistent Logic Programming Language, InternationalConference on Computational Intelligence and Multimedia Applications1998, ISBN 981-023352-3, H. Selvaraj & B. Verma Editors, World Scientific,(ICCIMA’ 98, Proceedings of the 2nd International Conference), 143-148,1998.

[Ávila, Abe & Prado 98b] ÁVILA, B.C., J.M. ABE & J.P.A. PRADO, AParaconsistent Logic Programming Language, Proceedings of TheInternational ICSC Symposium on Engineering of Intelligent Systems(EIS’98), Volume 3, Artificial Intelligence, Editor: E. Alpaydin, ICSC AcademicPress International Computer Science Conventions Canada/Switzerland,ISBN 3-906454-12-6, 281-287, 1998.

[Barros, Da Costa & Abe 95] BARROS, C.M., N.C.A. DA COSTA &J.M. ABE, Tópico de Teoria dos Sistemas Ordenados, Vol II: Sistemas deCurry, Coleção Documentos, Série Lógica e Teoria da Ciência, IEA-USP,no 20, 132 p., 1995.

[Borestein 88] BORESTEIN, J & Y. KOREN, “Obstacle avoidance withultrasonic sensors” IEEE Journal of Robotics and automation, N.Y, 1988 .

[Da Costa 80] DA COSTA, N.C.A., Ensaio sobre os Fundamentos daLógica, Hucitec, São Paulo, 1980.

[Da Costa & Abe 99a] DA COSTA, N.C.A. & J.M. ABE, InteligênciaArtificial Paraconsistente, atas do VI Congresso Brasileiro de Filosofia, 5 a10 de setembro de 1999, Instituto Brasileiro de Filosofia, Faculdade de Direi-to da Universidade de São Paulo, 1999.

[Da Costa & Abe 99b] DA COSTA, N.C.A. & J.M. ABE, AlgumasAplicações Recentes dos Sistemas Paraconsistentes à Inteligência Artifici-al e Robótica, a aparecer, 2000.

[Da Costa & Abe 00a] DA COSTA, N.C.A. & J.M. ABE, AspectosSobre Aplicações dos Sistemas Paraconsistentes, Atas do I Congresso deLógica Aplicada à Tecnologia - LAPTEC’2000, Editôra Plêiade, São Paulo,SP - Brasil, Editor: J.M. Abe, ISBN 85-85795-29-8, 559-571, 2000.

[Da Costa, Abe, Da Silva Filho, Murolo & Leite 99] DA COSTA, N.C.A.,J.M. ABE, J.I. DA SILVA FILHO, A.C. MUROLO & C.F.S. LEITE, LógicaParaconsistente Aplicada, ISBN 85-224-2218-4, Editôra Atlas, 214 págs.,1999.

[Da Costa, Abe & Subrahamanian 91] DA COSTA, N.C.A., J.M. ABE& V.S. SUBRAHMANIAN, Remarks on annotated logic, Zeitschrift f. math.Logik und Grundlagen d. Math. 37, pp 561-570, 1991.

Page 286: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 9 1

[Da Silva Filho 97] DA SILVA FILHO, J.I., Implementação de circuitoslógicos fundamentados em uma classe de Lógicas Paraconsistentes Anota-das, Dissertação de Mestrado-EPUSP, São Paulo, 1997.

[Da Silva Filho 99] DA SILVA FILHO, J.I., Métodos de interpretaçãoda Lógica Paraconsistente Anotada com anotação com dois valores LPA2vcom construção de Algoritmo e implementação de Circuitos Eletrônicos,EPUSP, Tese de Doutoramento, São Paulo, 1999.

[Da Silva Filho & Abe 97a] DA SILVA FILHO, J.I. & J.M. ABE, Lógicaparaconsistente anotada e circuitos de portas lógicas, Coleção Documen-tos, Série Lógica e Teoria da Ciência, IEA-USP, n

o 23, 41p., 1997.

[Da Silva Filho & Abe 97b] DA SILVA FILHO, J.I. & J.M. ABE, Móduloanalisador paraconsistente: uma proposta de circuito lógico paraconsistente,Coleção Documentos, Série Lógica e Teoria da Ciência, IEA-USP, n

o 30,

18p., 1997.[Da Silva Filho & Abe 97c] DA SILVA FILHO, J.I. & J.M. ABE,

Parasensor: um sensor paraconsistente projetado para uso em sistema ele-trônico embasado em lógica paraconsistente anotada, Coleção Documen-tos, Série Lógica e Teoria da Ciência, IEA-USP, n

o 31, 18p., 1997.

[Da Silva Filho & Abe 98a] DA SILVA FILHO, J.I. & J.M. ABE,Algoritmo Para-analisador - Parte I: um algoritmo para tratamento de incon-sistências em sistemas de controle, Coleção Documentos, Série Lógica eTeoria da Ciência, IEA-USP, n

o 43, 18p., 1998.

[Da Silva Filho & Abe 98b] DA SILVA FILHO, J.I. & J.M. ABE,Algoritmo Para-analisador - Parte II: aplicação do operador negação (NOT)e dos conectivos da conjunção (AND) e da disjunção (OR) da lógicaparaconsistente anotada de anotação com dois valores Coleção Documen-tos, Série Lógica e Teoria da Ciência, IEA-USP, n

o 44, 15p., 1998.

[Da Silva Filho & Abe 98c] DA SILVA FILHO, J.I. & J.M. ABE,Algoritmo Para-analisador - Parte III: propostas de aplicações do algoritmoda lógica paraconsistente anotada de anotação com dois valores - LPA2vem sistemas especialistas de Inteligência Artificial, Coleção Documentos,Série Lógica e Teoria da Ciência, IEA-USP, n

o 45, 15p., 1998.

[Da Silva Filho & Abe 98d] DA SILVA FILHO, J.I. & J.M. ABE,Algoritmo Para-analisador - Parte IV: propostas de aplicações do algoritmoda lógica paraconsistente anotada de anotação com dois valores - LPA2vem sistemas de controle de Robôs, Coleção Documentos, Série Lógica eTeoria da Ciência, IEA-USP, n

o 46, 22p., 1998.

[Da Silva Filho & Abe 98e] DA SILVA FILHO, J.I. & J.M. ABE,Controlador lógico Para-Fuzzy - Parte I: Um novo método de controle híbri-do utilizando lógica paraconsistente e lógica fuzzy, Coleção Documentos,Série Lógica e Teoria da Ciência, IEA-USP, n

o 47, 20p., 1998.

[Da Silva Filho & Abe 98f] DA SILVA FILHO, J.I. & J.M. ABE,Controlador lógico Para-Fuzzy - Parte II: Um controlador híbrido indicado

Page 287: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 9 2

para tratamento de inconsistências utilizando lógica paraconsistente e lógi-ca fuzzy, Coleção Documentos, Série Lógica e Teoria da Ciência, IEA-USP, n

o 48, 22p., 1998.

[Da Silva Filho & Abe 99a] DA SILVA FILHO, J.I. & J.M. ABE, Para-Analyser and Inconsistencies in Control Systems, Proceedings of theIASTED International Conference on Artitficial Intelligence and SoftComputing (ASC’99), August 9-12, Honolulu, Hawaii, USA, 78-85, 1999.

[Da Silva Filho & Abe 99b] DA SILVA FILHO, J.I. & J.M. ABE, Para-Fuzzy Logic Controller - Part I: A New Method of Hybrid Control Indicatedfor Treatment of Inconsistencies Designed with the Junction of theParaconsistent Logic and Fuzzy Logic, Proceedings of the InternationalICSC Congress on Computational Intelligence Methods and ApplicationsCIMA’99, Rochester Institute of Technology, RIT, Rochester, N.Y., USA,ISBN 3-906454-18-5, Editors: H. Bothe, E. Oja, E. Massad & C. Haefke, ICSCAcademic Press, International Computer Science Conventions, Canada/Switzerland, 113-120, 1999.

[Da Silva Filho & Abe 99c] DA SILVA FILHO, J.I. & J.M. ABE, Para-Fuzzy Logic Controller - Part II: A Hybrid Logical Controlller Indicated forTreatment of Fuzziness and Inconsistencies, Proceedings of theInternational ICSC Congress on Computational Intelligence Methods andApplications CIMA’99, Rochester Institute of Technology, RIT, Rochester,N.Y., USA, ISBN 3-906454-18-5, Editors: H. Bothe, E. Oja, E. Massad & C.Haefke, ICSC Academic Press, International Computer Science Conventions,Canada/Switzerland, 106-112, 1999.

[Da Silva Filho & Abe 99d] DA SILVA FILHO, J.I. & J.M. ABE, LógicaParaconsistente Aplicada à Robótica”, atas do VI Congresso Brasileiro deFilosofia, 5 a 10 de setembro de 1999, Instituto Brasileiro de Filosofia, Facul-dade de Direito da Universidade de São Paulo, 1999.

[Da Silva Filho & Abe 99e] DA SILVA FILHO, J.I. & J.M. ABE, Contri-buição da Lógica Paraconsistente ao Campo da Engenharia”, atas do VICongresso Brasileiro de Filosofia, 5 a 10 de setembro de 1999, InstitutoBrasileiro de Filosofia, Faculdade de Direito da Universidade de São Paulo,1999.

[Da Silva Filho & Abe 99f] DA SILVA FILHO, J.I. & J.M. ABE, Méto-dos de Aplicações da Lógica Paraconsistente Anotada, aceito na 7a Reu-nião Anual da Sociedade Brasileira de Pesquisadores Nikkeis - SBPN,29-31/07/1999, Londrina, PR, 1999.

[Da Silva Filho & Abe 00a] DA SILVA FILHO, J.I. & J.M. ABE,Paraconsistent Electronic Circuits, trabalho convidado, Fourth InternationalConference on Computing Anticipatory Systems, CASYS’2000, FourthInternational Conference on Computing Anticipatory Systems, CASYS’2000,Organized by the non-profit association CHAOS, Centre for Hyperincursionand Anticipation in Ordered Systems CHAOS asbl, Institut de

Page 288: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 9 3

Mathématique, Université de Liège, LIEGE, Belgium, Bélgica, 7-12 de agos-to de 2000, 2000.

[Da Silva Filho & Abe 00b] DA SILVA FILHO, J.I. & J.M. ABE,Paraconsistent Analyser Module, trabalho convidado, Fourth InternationalConference on Computing Anticipatory Systems, CASYS’2000, FourthInternational Conference on Computing Anticipatory Systems, CASYS’2000,Organized by the non-profit association CHAOS, Centre for Hyperincursionand Anticipation in Ordered Systems CHAOS asbl, Institut deMathématique, Université de Liège, LIEGE, Belgium, Bélgica, 7-12 de agos-to de 2000, 2000.

[Da Silva Filho & Abe 00c] DA SILVA FILHO, J.I. & J.M. ABE, Emmy:an autonomous mobile robot, submetido para publicação nos anais doWCP’2000, Editora Marcel Dekker.

[Da Silva Filho, Abe & Bonesso 00] DA SILVA FILHO, J.I., J.M. ABE& G.A. BONESSO, Simulating Inconsistencies in a Paraconsistent LogicController, submetido no Fifth International Conference on ComputingAnticipatory Systems, CASYS’2001, Organized by the non-profit associationCHAOS, Centre for Hyperincursion and Anticipation in Ordered SystemsCHAOS asbl, Institut de Mathématique, Université de Liège, LIEGE, Belgium,Bélgica, 2000.

[Da Silva Filho, Abe & Sanches 97a] DA SILVA FILHO, J.I., J.M. ABE& P.L. SANCHES, Circuitos de portas lógicas primitivas fundamentados emlógica paraconsistente anotada, III WORKSHOP DE IBERSHIP, 19-21 defevereiro 1997, Departamento de Ingeniería Elétrica, CINVESTAV - IPN,México D.F., México, 227-237, 1997

[Da Silva Filho, Abe & Sanches 97b] DA SILVA FILHO, J.I., J.M. ABE& P.L. SANCHES, Circuitos de portas lógicas primitivas implementados apartir de uma classe de lógicas paraconsistentes anotadas, Boletim Técni-co da Escola Politécnica da USP, Departamento de Engenharia Eletrôni-ca, ISSN 1413-2206, BT/PEE/9723, 13p.,1997.

[Da Silva Filho, Abe, Torresa, César, Mário, Santos, Cancino & Salles99] DA SILVA FILHO, J.I., J.M. ABE, C.R. TORRES, A.M. CÉSAR, M.C.MÁRIO, A.M. SANTOS, I.J. CANCINO Jr. & D.M. SALLES, Emmy: RobôMóvel Autônomo Paraconsistente - Protótipo 1, Coleção Documentos, SérieLógica e Teoria da Ciência, IEA-USP, n

o 59, 17 págs, 1999.

[Da Silva Filho, Bonesso, & Abe 00] DA SILVA FILHO, J.I., G.A.BONESSO & J.M. ABE, Para-Sim: Simulador de Controle LógicoParaconsistente, Atas do I Congresso de Lógica Aplicada à Tecnologia -LAPTEC’2000, Editôra Plêiade, São Paulo, SP - Brasil, Editor: J.M. Abe,ISBN 85-85795-29-8, 603-611, 2000.

[Enembreck, Ávila & Abe 99] ENEMBRECK, F., B.C. ÁVILA & J.M.ABE, Um editor de conhecimento genérico em sistema de Framesparaconsistentes, Coleção Documentos, Série Lógica e Teoria da Ciên-

Page 289: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 9 4

cia, IEA-USP, no 55, 77p., 1999.

[Enriques 22] ENRIQUES, F., Per la Storia della Logica, Zanichelli,Bolonha, 1922.

[Enriques & Santillana 32] ENRIQUES, F. & G. SANTILLANA, Storiadel Pensiero Scientifico, vol. 1, Zanichelli, Bolonha, 1932.

[Enriques & Santillana 36] ENRIQUES, F. & G. SANTILLANA,Compedio di Storia del Storia del Pensiero Scientifico, Zanichelli, Bolo-nha, 1936.

[Fischler & Frschein 87] FISCHLER, M.A. & O. FIRSCHEIN,“ Intelligence The Eye, The Brain and The Computer” Addison-WesleyPublishing Company, USA, 1987.

[Iséki & Abe 98] ISÉKI, K. & J.M. ABE, A survey on BCK and BCIalgebras, Atas do I Congresso de Lógica Aplicada à Tecnologia -LAPTEC’2000, Editôra Plêiade, São Paulo, SP - Brasil, Editor: J.M. Abe,ISBN 85-85795-29-8, 430-444, 2000.

[Iséki & Abe 00] ISÉKI, K. & J.M. ABE, Lógica Matemática e Aplica-ções, a aparecer, 2000.

[Hebb 49] HEBB, D. “The Organization of Behavior ” Wiley, NewYork, 1949.

[McCulloch 43] McCULLOCH, W & W. PITTS, “A Logical Calculusof the Ideas Immanent in Nervous Activity”, Bulletin of MathematicalBiophysics, 1943.

[Nakamatsu & Abe 99] NAKAMATSU, K. & J.M. ABE, ReasoningsBased On Vector Annotated Logic Programs, atas do CIMCA’99,International Conference on Computational Intelligence for ModellingControl and Automation, Edited by M. Mohammadian, IOS Press - Ohmsha,ISBN 90 5199 474 5 (IOS Press), Netherlands, 396-403, 1999.

[Nakamatsu, Abe & Suzuki 98] NAKAMATSU, K., J.M. ABE & A.SUZUKI, An approximate reasoning in a framework of vector annotatedlogic programming, The Vietnam-Japan Bilateral Symposium on FuzzySystems And Applications, VJFUZZY’ 98, Nguyen H. Phuong & Ario Ohsato(Eds), HaLong Bay, Vietnam, 521-528, 1998.

[Nakamatsu, Abe & Suzuki 99a] NAKAMATSU, K., J.M. ABE & A.SUZUKI, Nonmonotonic, Defesiable, Default-Fuzzy & ParaconsistentReasonings, em Aplicações de Programação Anotada, Coleção Documen-tos, Série Lógica e Teoria da Ciência, IEA-USP, n

o 60, 13-22, 1999.

[Nakamatsu, Abe & Suzuki 99b] NAKAMATSU, K., J.M. ABE & A.SUZUKI, Defesiable Reasoning Between Conflicting Agents Based onVALPSN, em Aplicações de Programação Anotada, Coleção Documentos,Série Lógica e Teoria da Ciência, IEA-USP, n

o 60, 5-12, 1999.

[Nakamatsu, Abe & Suzuki 99c] NAKAMATSU, K., J.M. ABE & A.SUZUKI, “Defeasible Reasoning Between Conflicting Agents Based onVALPSN”, American Association for Artificial Intelligence - AAAI’99

Page 290: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 9 5

Workshop on Agents’ Conflicts, ISBN 1-57735-092-8, TR WS-99-08, AAAIPress - American Association for Artificial Intelligence, Menlo Park,California, USA, 20-27, 1999.

[Nakamatsu, Abe & Suzuki 99d] NAKAMATSU, K., J.M. ABE & A.SUZUKI, Defesiable Reasoning Based on VALPSN and applications, anaisdo 3rd Australian Commonsense Reasoning Workshop, 12th Australian JointConference on Artificial Intelligence (AI’99), Sydney, Austrália, 114-130,1999.

[Nakamatsu, Abe & Suzuki 00a] NAKAMATSU, K., J.M. ABE & A.SUZUKI, Raciocínio automático em lógica deôntica “defeasible”paraconsistente, Atas do I Congresso de Lógica Aplicada à Tecnologia -LAPTEC’2000, Editôra Plêiade, São Paulo, SP - Brasil, Editor: J.M. Abe,ISBN 85-85795-29-8, 471-480, 2000.

[Nakamatsu, Abe & Suzuki 00b] NAKAMATSU, K., J.M. ABE & A.SUZUKI, trabalho convidado, Fourth International Conference onComputing Anticipatory Systems, CASYS’2000, Organized by the non-profitassociation CHAOS, Centre for Hyperincursion and Anticipation in OrderedSystems CHAOS asbl, Institut de Mathématique, Université de Liège, LIEGE,Belgium, Bélgica, 7-12 de agosto de 2000, 2000.

[Nakamatsu, Abe & Suzuki 00c] NAKAMATSU, K., J.M. ABE & A.SUZUKI, Annotated Semantics for Defeasible Deontic Reasoning, aceitono The Second International Conference on Rough Sets and Current Trendsin Computing - RSCTC’2000, October 16-19, 2000, Banff, Canada, ConferenceOrganization Conference Chair: Wojciech Ziarko, University of Regina,Canada Publication in the conference proceedings by Springer-Verlag inthe Lecture Notes in Artificial Intelligence series.

[Nakamatsu, Hasegawa, Abe & Suzuki 99a] NAKAMATSU, K., Y.HASEGAWA, J.M. ABE & A. SUZUKI, A Framework for Intelligent SystemsBased on Vector Annotated Logic Programs, IPMM’99 The SecondInternational Conference on Intelligent Processing and Manufacturingof Materials, ISBN 0-7803-5489-3, Editors: J.A. Meech, M.M. Veiga, M.H.Smith & S.R. LeClair, IEEE Catalogue Number: 99EX296, Library of CongressNumber: 99-61516, Honolulu, Hawaii, USA, 695-702, 1999.

[Nakamatsu, Hasegawa, Abe & Suzuki 99b] NAKAMATSU, K., Y.HASEGAWA, J.M. ABE & A. SUZUKI, A Framework for IntelligentSystems, em Aplicações de Programação Anotada, Coleção Documentos,Série Lógica e Teoria da Ciência, IEA-USP, n

o 60, 23-30, 1999.

[Negoita & Ralescu 75] NEGOITA, C.V. & D.A. RALESCU,Applications of Fuzzy Sets to Systems Analysis, John Wiley & Sons, 1975.

[Prado 96] PRADO, J.P.A., Uma Arquitetura em IA Baseada em Lógi-ca Paraconsistente, tese de Doutoramento, Universidade de São Paulo,1996.

Page 291: 55492972 00009 Fundamentos Das Redes Neurais Artificiais Paraconsistentes

2 9 6

[Prado & Abe 98] PRADO, J.P.A. & J.M. ABE, Uma arquitetura paraInteligência Artificial Distribuída baseada em lógica paraconsistente anota-da, Coleção Documentos, Série Lógica e Teoria da Ciência, IEA-USP, n

o

33, 19p., 1998.[Prado & Abe 95] PRADO, J.P.A. & J.M. ABE, Um Planejador Basea-

do em Lógica Paraconsistente. 2o Simpósio Brasileiro de Automação Inte-ligente, Curitiba, pp. 177-178, 1995.

[Prado, Abe & Ávila 98a] PRADO, J.P.A., J.M. ABE & B.C. ÁVILA,Fundamentos da arquitetura Blackboard, Coleção Documentos, Série Ló-gica e Teoria da Ciência, IEA-USP, n

o 35, 29p., 1998.

[Prado, Abe & Ávila 98b] PRADO, J.P.A., J.M. ABE & B.C. ÁVILA,Inteligência Artificial Distribuída: aspectos, Coleção Documentos, SérieLógica e Teoria da Ciência, IEA-USP, n

o 36, 35p., 1998.

[Prado, Abe & Rillo 95] PRADO, J.P.A., J.M. ABE & M. RILLO, Aparaconsistent planning system, In: International Conference on CAD/CAM, Robotics and Factories of the Future, 11, Pereira, 1995, 327-338.

[Resconi & Abe 97] RESCONI, G. & J.M. ABE, Multilevel uncertaintylogic, Quaderni Del Seminario Matematico Di Brescia, n

o 14/97, Università

Cattolica del Sacro Cuore e Università degli Studi di Brescia, 28p, Itália,1997.

[Rosenblatt 62] ROSEMBLATT, “Principles of Neurodynamics”,Spartan Books, NY, 1962.

[Siebert 68] SIEBERT, W. “Stimulus Transformation in PeripheralAuditory System in Recognizing Patterns” Ed. Murray Eden, MIT Press,Cambridge, 1968.

[Shoenfield 67] SHOENFIELD, J.R., Mathematical Logic, Addison-Wesley, 1967.

[Sylvan & Abe 96] SYLVAN, R. & J.M. ABE, On general annotatedlogics, with an introduction to full accounting logics, Bulletin of SymbolicLogic, 2, 118-119, 1996.

[Zadeh 73] ZADEH, L., Outline of a New Approach to the Analysis ofComplex Systems and Decision Processes” - IEEE Transaction on Systems,Mam and Cybernectics, vol. SMC-3, No 1, p.p. 28-44, January, 1973.