universidade estadual de campinas instituto de matemática ...valle/researches/fapesp/aline... ·...

24
Universidade Estadual de Campinas Instituto de Matemática, Estatística e Computação Científica Departamento de Matemática Aplicada RELATÓRIO CIENTÍFICO PARCIAL 2 Título do Projeto: Um Estudo Sobre Memórias Associativas Recorrentes Exponenciais Fuzzy, Suas Generalizações e Aplicações. Processo: 2015/00745-1 Vigência do projeto: 01/08/2015 a 31/03/2018 Período coberto pelo relatório: 11/07/2016 a 10/07/2017 ———————————————————————- Aline Cristina de Souza Beneficiária ———————————————————————- Marcos Eduardo Ribeiro do Valle Mesquita Orientador Campinas, 10 de Julho de 2017

Upload: others

Post on 09-Oct-2020

0 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Universidade Estadual de Campinas Instituto de Matemática ...valle/Researches/FAPESP/Aline... · Processo: 2015/00745-1 Vigência do projeto: 01/08/2015 a 31/03/2018 ... (EBFAM),

Universidade Estadual de CampinasInstituto de Matemática, Estatística e Computação CientíficaDepartamento de Matemática Aplicada

RELATÓRIO CIENTÍFICO PARCIAL 2

Título do Projeto:Um Estudo Sobre Memórias Associativas RecorrentesExponenciais Fuzzy, Suas Generalizações e Aplicações.

Processo: 2015/00745-1Vigência do projeto: 01/08/2015 a 31/03/2018Período coberto pelo relatório: 11/07/2016 a 10/07/2017

———————————————————————-Aline Cristina de Souza

Beneficiária

———————————————————————-Marcos Eduardo Ribeiro do Valle Mesquita

Orientador

Campinas, 10 de Julho de 2017

Page 2: Universidade Estadual de Campinas Instituto de Matemática ...valle/Researches/FAPESP/Aline... · Processo: 2015/00745-1 Vigência do projeto: 01/08/2015 a 31/03/2018 ... (EBFAM),

1 Resumo do ProjetoMemórias associativas (AMs, associative memories) são modelos matemáticos ins-pirados na capacidade do cérebro humano de armazenar e recuperar informação porassociação. Tal como o cérebro, AMs são também capazes de recuperar uma certa in-formação armazenada mesmo quando a entrada corresponde à uma versão incompletaou corrompida de um item memorizado. A classe das memórias associativas recorren-tes por correlação (RCAMs, recurrent correlation associative memories), introduzidapor Chiueh e Goodman no início dos anos 90, pode ser usada para implementar AMscom grande capacidade de armazenamento e excelente tolerância a ruído. Todavia, asRCAMs são projetadas para armazenar e recuperar padrões bipolares. Neste projeto depesquisa investigaremos uma versão fuzzy da classe das RCAMs, chamada classe dasmemórias associativas recorrentes exponenciais fuzzy (REFAMs, recurrent exponen-tial fuzzy associative memories). Uma REFAM define recursivamente uma sequênciade conjuntos fuzzy obtidos pela soma dos itens memorizados ponderados por umaexponencial de uma medida de comparação. Experimentos computacionais relacio-nados à recuperação de imagens em tons de cinza corrompidas serão realizados comintuito de avaliar a capacidade de armazenamento e tolerância a ruído das REFAMs.O desempenho das REFAMs também será avaliado considerando aplicações tais comoclassificação, previsão, reconhecimento de padrões e controle.

Palavras-chave: Inteligência computacional, memórias associativas, redes neurais ar-tificiais, teoria dos conjuntos fuzzy , processamento de imagens e sinais.

2 Resumo das Atividades Desenvolvidas na Etapa An-terior

Na etapa anterior, estudamos as memórias associativas recorrentes por correlação expo-nencial (ECAMs) [8] e as memórias associativas bidirecionais exponenciais (EBAMs)[17], modelos projetados para o armazenamento e recordação de vetores bipolares.Posteriormente, apresentamos a definição das memórias associativas recorrentes expo-nenciais fuzzy (REFAMs) [33, 35], as quais podem ser vistas como uma versão fuzzyda ECAM. Definimos, inspirados pela EBAM, a memória associativa bidirecional ex-ponencial fuzzy (EBFAM), modelo que estende a REFAM para o caso heteroassoci-ativo. Apresentamos a aplicação das EBFAMs a um problema de reconhecimento defaces e descrevemos os experimentos computacionais realizados para avaliar o desem-penho das EBFAMs em tal problema. De modo geral, as EBFAMs obtiveram melhoresresultados para valores maiores do parâmetro α.

Além disso, iniciamos o estudo de uma classe de modelos que generalizam as RE-FAMs, as GREFAMs (do inglês, Generalized recurrent exponential fuzzy associativememories), e suas aplicações. Tivemos um trabalho aceito para o Congresso Naci-onal de Matemática Aplicada e Computacional (XXXVI CNMAC), que ocorreu emsetembro de 2016, um trabalho aceito para o Congresso Brasileiro de Sistemas Fuzzy(IV CBSF) que aconteceu em novembro de 2016 e um capítulo de livro aceito para

2

Page 3: Universidade Estadual de Campinas Instituto de Matemática ...valle/Researches/FAPESP/Aline... · Processo: 2015/00745-1 Vigência do projeto: 01/08/2015 a 31/03/2018 ... (EBFAM),

publicação [34].

3 IntroduçãoMemórias associativas são modelos matemáticos projetados com o objetivo de armaze-nar e recordar informações [16, 18]. Especificamente, dado um conjunto finito de paresque desejamos armazenar (A1, B1), · · · , (Ap, Bp), chamado conjunto das memó-rias fundamentais, o objetivo é determinar uma aplicação M tal que M(Aξ) = Bξ ouM(Aξ) seja suficientemente próximo de Bξ. Além disso, espera-se que, tal como océrebro humano, a memória tenha certa capacidade de recordar uma informação arma-zenada a partir de dados incompletos. Em outras palavras, espera-se que a memóriapossua certa tolerância a ruídos, isto é, que seja capaz de recuperar um padrão armaze-nado Bξ mesmo a partir de uma versão incompleta ou ruidosa de Aξ.

Uma memória associativa pode ser classificada em autoassociativa ou heteroasso-ciativa de acordo com o conjunto de memórias fundamentais considerado. De fato,dizemos que uma memória é autoassociativa se Aξ = Bξ para todo ξ = 1, · · · , p.Nesse caso, o conjunto das memórias fundamentais pode ser escrito simplesmente naforma A1, · · · , Ap. Se Aξ 6= Bξ para algum índice ξ, a memória é dita heteroasso-ciativa [16].

No início dos anos 1990, Chiueh e Goodman introduziram as memórias associati-vas recorrentes por correlação exponencial (ECAM, do inglês exponential correlationassociative memory) [8], modelos autoassociativos bipolares com alta capacidade dearmazenamento. Na mesma época, as memória associativa bidirecional exponencial(EBAM, do inglês exponential bidirectional associative memory) foram propostas porChiueh et al. para armazenamento e recordação de vetores bipolares no caso heteroas-sociativo. [17].

No entanto, em algumas aplicações há a necessidade de armazenar vetores com co-ordenadas reais ou conjuntos fuzzy [5, 13, 19, 20, 28], o que motivou o surgimento dasmemórias associativas recorrentes exponenciais fuzzy, REFAMs, (do inglês recurrentexponential fuzzy associative memories) [33, 35] e das memórias associativas bidireci-onais exponenciais fuzzy, EBFAMs, (do inglês exponential bidirectional fuzzy associ-ative memories). De fato, as REFAMs, projetadas para o armazenamento e recordaçãode uma família finita de conjuntos fuzzy, podem ser vistas como uma versão fuzzyda ECAM de Chiueh e Goodman e as EBFAMs, inspiradas pela EBAM, estendem asREFAMs para o caso heteroassociativo. Posteriormente, definimos as memórias asso-ciativas recorrentes exponeniais fuzzy generelizadas [27], GRE-FAMs, e as memóriasassociativas bidireconais exponenciais fuzzy generalizadas [26], GEB-FAMs, modelosque generalizam as REFAMs e EBFAMs respectivamente.

Tanto as GRE-FAMs como as GEB-FAMs utilizam em sua definição uma medidade similaridade fuzzy, isto é, uma função que mede o grau de igualdade entre doisconjuntos fuzzy. Na literatura, existem várias definições de medida de similaridade [40,3, 38]. Ao longo desse período, consideramos diferentes tipos de similaridade, dentreelas a medida de similaridade proposta por Xuecheng [40], as medidas de similaridadebaseadas em cardinalidade propostas por De Beats e De Meyer em [3] e a medida desimilaridade estrutural SSIM [38].

3

Page 4: Universidade Estadual de Campinas Instituto de Matemática ...valle/Researches/FAPESP/Aline... · Processo: 2015/00745-1 Vigência do projeto: 01/08/2015 a 31/03/2018 ... (EBFAM),

Estudamos também a aplicação das GRE-FAMs e GEB-FAMs a problemas de clas-sificação e a um problema de reconhecimento de faces. Para isto, propusemos duasabordagens. A primeira, baseada nas GRE-FAMs e inspirada pelos classificadores derepresentação esparsa [39] e a segunda baseada nas GEB-FAMs. Com o objetivo deavaliar o desempenho de tais classificadores e comparar as duas abordagens propostas,realizamos experimentos computacionais considerando vários problemas, dentre elesum problema de reconhecimento facial utilizando a base de dados AR [22], um pro-blema de classificação de árvores com base em um conjunto de dados extraídos a partirde algumas de suas características [6] e um conjunto de problemas de classificaçãodisponíveis na base de dados KEEL [2].

Este relatório está organizado da seguinte maneira. Nas próximas seções apresenta-remos as principais contribuições desenvolvidas no período de 11/07/2016 a10/07/2017. Especificamente, na Seção 4 faremos uma revisão sobre conjuntos fuzzy emedidas de similaridade. Na Seção 5, apresentaremos a definição das GRE-FAMs bemcomo alguns resultados teóricos sobre este modelo e, na Seção 6, a definição das GEB-FAMs, modelo que estende as GRE-FAMs para o caso heteroassociativo. Na Seção 7descreveremos duas abordagens para problemas de classificação, a primeira utilizandoas GRE-FAMs e segunda utilizando as GEB-FAMs. Na Seção 8 apresentaremos odesempenho dos classificadores propostos em alguns problemas de classificação. Asconsiderações finais são apresentadas na Seção 9. Nas seções 10, 11 e 12, são citadasrespectivamente, as participações em congressos, os trabalhos submetidos e as discipli-nas cursadas no período referente a este relatório. Finalmente, a Seção 13 refere-se aaplicação dos recursos e a Seção 14 ao plano de trabalho e cronograma para a próximaetapa.

Principais Contribuições Desenvolvidas no Período de11/07/2016 a 10/07/2017

4 Conjuntos Fuzzy e Medidas de SimilaridadeIniciaremos essa seção recordando a definição de conjuntos fuzzy. Logo em seguidafaremos uma revisão sobre medidas de similaridade.

A teoria dos conjuntos fuzzy foi introduzida em 1965 por L.A. Zadeh [41] com oobjetivo de tratar matematicamente termos que expressam incerteza como "aproxima-damente", "em torno de", entre outros [41, 4]. Brevemente, dado um conjunto universoU , um subconjunto fuzzy A de U é caracterizado por sua função de pertinência, con-forme a seguinte definição [41, 4, 24]:

Definição 1. Seja U um conjunto. Um subconjunto fuzzy X de U é definido por meiode sua função de pertinência X : U → [0, 1], isto é, dado um elemento u ∈ U , X(u)indica o grau com o qual u pertence a X .

Observemos que, X(u) = 0 e X(u) = 1 indicam, respectivamente, a não perti-nência e a pertinência total de u a X . Observemos também que, nos casos em queo conjunto universo U é finito, digamos U = u1, · · · , un, cada subconjunto fuzzy

4

Page 5: Universidade Estadual de Campinas Instituto de Matemática ...valle/Researches/FAPESP/Aline... · Processo: 2015/00745-1 Vigência do projeto: 01/08/2015 a 31/03/2018 ... (EBFAM),

X de U pode ser associado a um vetor X = [X(u1), · · · , X(Un)]T pertencente aohipercubo unitário n-dimensional [0, 1]n.

Denotaremos por F(U) o conjunto de todos os subconjuntos fuzzy de U e porP(U) o conjunto das partes de U , ou seja, a família de todos os conjuntos clássicos(crisp) de U .

Outra definição muito importante para este tabalho é a de medida de similaridadefuzzy. De modo geral, uma medida de similaridade fuzzy (a qual chamaremos sim-plesmente de medida de similaridade), é uma função que associa a cada par (A,B) desubconjuntos fuzzy de U , um número real que indica o grau com que esses conjuntossão iguais. Existe uma vasta literatura sobre medidas de similaridade e sua defini-ção pode variar de acordo com o contexto. Neste período, baseados em vários artigos[40, 9, 3, 10, 38, 37], fizemos um estudo profundo sobre medidas de similaridade.Buscamos compreender como tais medidas influenciam o desempenho dos modelos eassim, obter um critério para a escolha da medida de similaridade. No entanto, experi-mentos computacionais mostraram que a medida de similaridade mais adequada podedepender do problema considerado. A seguir, descreveremos as pricipais medidas desimilaridade estudadas neste período.

Inicialmente, consideramos uma versão normalizada da definição de medida desimilaridade proposta por Xuecheng [40]. Segundo esta definição, uma medida desimilaridade é uma função simétrica S : F(U)×F(U)→ [0, 1] tal que:

i) S(A,A) = 1, para todo A ∈ F(U) (reflexiva);

ii) S(A,A) = 0, para todo A ∈ P(U), onde A denota o complementar de A em U .

iii) para quaisquer A,B,C,D ∈ F(U), se A ⊂ B ⊂ C ⊂ D então S(A,D) ≤S(B,C);

Observemos que com esta definição os valores da similaridades entre os subconjuntosfuzzy de um conjunto universo U se distribuem por todo o intervalo [0,1], assumindoo valor 1 para pares de conjuntos iguais e valor 0 para pares de conjuntos clássicoscomplementares.

Um exemplo é dado pela medida de similaridade baseada na distância de Hamming,denotada por SH :

SH(A,B) = 1− 1

n

n∑j=1

|A(uj)−B(uj)|. (1)

Posteriormente, com o objetivo de investigar outras medidas de similaridade, ado-tamos uma definição mais abrangente proposta por De Baets e De Meyer [3]:

Definição 2. Uma medida de similaridade é uma relação fuzzy binária simétrica sobreF(U), isto é, uma função simétrica S : F(U)×F(U)→ [0, 1].

Além disso, uma medida de similaridade S : F(U) × F(U) → [0, 1] é dita re-flexiva se S(A,A) = 1, para todo A ∈ F(U) e S é dita localmente reflexiva seS(A,A) ≥ S(A,B), para quaisquer A,B ∈ F(U). Ainda, dizemos que uma medidade similaridade S é forte se S(A,B) = 1 se, e somente se, A = B.

5

Page 6: Universidade Estadual de Campinas Instituto de Matemática ...valle/Researches/FAPESP/Aline... · Processo: 2015/00745-1 Vigência do projeto: 01/08/2015 a 31/03/2018 ... (EBFAM),

Observemos que a versão normalizada da definição de medida de similaridade pro-posta por Xuecheng, considerada anteriormente, também satisfaz a Definição 2.

Outros exemplos são as medidas de similaridade racionais baseadas em cardinali-dade, propostas por De Baets e De Meyer em [3], definidas da seguinte forma:

S(A,B) =aαA,B + bωA,B + cδA,B + dνA,Ba′αA,B + b′ωA,B + c′δA,B + d′νA,B

. (2)

onde a, a′, b, b′, c, c′, d, d′ ∈ 0, 1 são parâmetros, #(A) denota a cardinalidade doconjunto fuzzy A, (A\B) denota a diferença entre os conjuntos fuzzy A e B, αA,B =min#(A\B),#(B\A), ωA,B = max#(A\B),#(B\A), δA,B = #(A ∩ B) eνA,B = #(A ∪B)c.

A seguinte função é um exemplo de medida de similaridade forte baseada emcardinalidade[44, 12, 3]:

Exemplo 1 (Medida de similaridade de Gregson).

SG(A,B) =

n∑j=1

min(A(uj), B(uj))

n∑j=1

max(A(uj), B(uj))

. (3)

Consideramos também a medida de similaridade estrutural (SSIM - Structural Si-milarity Index) [38]. Esta medida pode ser utilizada para avaliar a qualidade de ima-gens, uma vez que é menos sensível a distorções que não alteram a estrutura da imagem,como por exemplo mudanças na iluminação. Uma imagem em tons de cinza X , de di-mensões n×m pixels, pode ser associada ao subconjunto fuzzy de Z2,X : Z2 → [0, 1],em que X(i, j) representa o tom de cinza do pixel na posição (i, j), onde 1 ≤ i ≤ ne 1 ≤ j ≤ m. Assim, esta medida pode ser empregada para calcular a similaridadeentre imagens e ser utilizada, por exemplo, em problemas de reconhecimento de faces.A medida de similaridade SSIM está baseada numa medida de similaridade estrutu-ral local, denotada por Sl [38]. Em termos gerais, Sl baseia-se nas comparações dailuminação, do contraste e da estrutura das imagens numa certa janela. Formalmente,considere fragmentos X = xi : i = 1, . . . , N e Y = yi : i = 1, . . . , N extraí-dos do mesmo local de duas imagens a serem comparadas. A medida de similaridadeestrutural local é definida por:

Sl(X,Y ) =(2µxµy + C1)(2σxy + C2)

(µ2x + µ2

y + C1)(σ2x + σ2

y + C2), (4)

onde C1 e C2 são constantes positivas,

µx =1

N

N∑i=1

ωixi, σx =

(1

N − 1

N∑i=1

ωi(xi − µx)2

) 12

, (5)

σxy =1

N − 1

N∑i=1

ωi(xi − µx)(yi − µy) (6)

6

Page 7: Universidade Estadual de Campinas Instituto de Matemática ...valle/Researches/FAPESP/Aline... · Processo: 2015/00745-1 Vigência do projeto: 01/08/2015 a 31/03/2018 ... (EBFAM),

e Ω = ωi : i = 1, . . . , N é uma função de ponderação Gaussiana circular simétrica11× 11, normalizada de modo que

∑Ni=1 ωi = 1, e com desvio padrão 1,5.

5 Memória Associativa Recorrente Exponencial FuzzyGeneralizada

As memórias associativas recorrentes exponenciais fuzzy generalizadas, (GRE-FAMs,do inglês generalized recurrent exponential fuzzy associative memories) são memóriasautoassociativas projetadas para o armazenamento e recordação de uma família finitade conjuntos fuzzy A = Ai, i = 1, · · · , p ⊂ F(U). Especificamente, uma GRE-FAM pode ser utilizada para recordar um conjunto fuzzy armazenado a partir de umconjunto fuzzy inicial X0. De fato, dado X0, a GRE-FAM produz uma sequênciade conjuntos fuzzy Xtt>0 ⊂ F(U) definidos a partir de uma combinação lineardas memórias fundamentais cujos coeficientes envolvem exponenciais de medidas desimilaridades. Formalmente, uma GRE-FAM é definida da seguinte forma:

Definição 3. SejamA = A1, A2, · · · , Ap ⊂ F(U) o conjunto das memórias funda-mentais, S : F(U) × F(U) → [0, 1] uma medida de similaridade, α > 0 um númeroreal e G uma matriz. Dado um conjunto fuzzy inicial X0 ∈ F(U), a GRE-FAM produzuma sequência de conjuntos fuzzy Xt, definidos, para todo t ≥ 0 e para todo u ∈ U ,por:

Xt+1(u) = ϕ

p∑ξ=1

p∑µ=1

gξµeαS(Aµ,Xt)Aξ(u)

p∑η=1

p∑µ=1

gηµeαS(Aµ,Xt)

= ϕ

p∑ξ=1

wξtAξ(u)

,

em que ϕ : R → [0, 1] é a função definida por ϕ(x) = max(0,min(1, x)) e os pesoswξt são dados por:

wξt =

p∑µ=1

gξµeαS(Aµ,Xt )

p∑η=1

p∑µ=1

gηµeαS(Aµ,Xt)

, ∀t ≥ 0. (7)

Observemos que a GRE-FAM pode ser vista como uma rede neural recorrente comquatro camadas [34]. A primeira camada calcula a exponencial da medida de similari-dade entre o conjunto fuzzy Xt e as memórias fundamentais. A segunda é compostapor neurônios lineares, a terceira normaliza as saídas da camada anterior e a últimacamada produz uma combinação linear das memórias fundamentais seguida da funçãoϕ que garante que o padrão de saída seja um conjunto fuzzy.

A escolha da matriz G é de grande importância para a definição da GRE-FAM. Porexemplo, se considerarmos G = Id, a matriz identidade, obtemos a REFAM. Dessa

7

Page 8: Universidade Estadual de Campinas Instituto de Matemática ...valle/Researches/FAPESP/Aline... · Processo: 2015/00745-1 Vigência do projeto: 01/08/2015 a 31/03/2018 ... (EBFAM),

forma, temos que a GRE-FAM é uma generalização da REFAM. O Teorema 1 abaixo[27] nos mostra como definir a matriz G de forma que as memórias fundamentais sejamcorretamente recuperadas, isto é, de modo que as memórias fundamentais sejam pontosfixos da GRE-FAM.

Teorema 1. Sejam A = A1, A2, · · · , Ap ⊂ F(U) o conjunto das memórias funda-mentais, S : F(U) × F(U) → [0, 1] uma medida de similaridade, α > 0 um númeroreal e C = (cij) a matriz definida por:

cij = eαS(Ai,Aj), ∀i, j = 1, · · · , p. (8)

Se G = C−1 então as memórias fundamentais Ai, i = 1, · · · , p são pontos fixos daGRE-FAM.

A partir de agora, consideraremos G = C−1 conforme Teorema 1.Além da matriz G, para definir a GRE-FAM é necessário um número real α > 0

e, como podemos observar, a matriz G dada pelo Teorema 1 também depende desteparâmetro. Se considerarmos uma medida de similaridade forte, o próximo resultadonos fornece um limitante inferior para os valores de α a partir do qual a matriz Cdefinida em (8) é definida positiva.

Teorema 2. Sejam A = Ai, i = 1, · · · , p ⊂ F(U) o conjunto das memórias fun-damentais, S : F(U) × F(U) −→ [0, 1] uma medida de similaridade forte, Sm =maxi,j,i 6=j

S(Ai, Aj), α > 0 um número real e C = (cij) a matriz definida por:

cij = eαS(Ai,Aj), ∀i, j = 1, · · · , p. (9)

Se α >ln(p− 1)

1− Sm, então a matriz C é definida positiva.

Demonstração. Primeiramente, observemos que uma matriz simétrica é definida po-sitiva se, e somente se, todos os seus autovalores são positivos [15]. Dessa forma,

mostraremos que se α >−ln(p− 1)

Sm − 1, todos os autovalores de C são positivos.

De fato, seja λ autovalor qualquer de C. Aplicando o teorema dos discos de Gersh-gorin [23] à matriz C obtemos:

|eα − λ| ≤p∑

j=1,j 6=i

eαS(Ai,Aj), para algum i = 1, · · · , p. (10)

De forma equivalente, temos

−p∑

j=1,j 6=i

eαS(Ai,Aj) ≤ eα−λ ≤

p∑j=1,j 6=i

eαS(Ai,Aj), para algum i = 1, · · · , p. (11)

Da segunda desigualdade acima, desde que Sm = maxi,j,i 6=j

S(Ai, Aj) ≥ S(Ai, Aj),

para quaisquer i, j ∈ 1, · · · , p, i 6= j, segue que:

eα − λ ≤p∑

j=1,j 6=i

eαS(Ai,Aj) ≤

p∑j=1,j 6=i

eαSm = (p− 1)eαSm . (12)

8

Page 9: Universidade Estadual de Campinas Instituto de Matemática ...valle/Researches/FAPESP/Aline... · Processo: 2015/00745-1 Vigência do projeto: 01/08/2015 a 31/03/2018 ... (EBFAM),

Assim, temos:eα(1− (p− 1)eα(Sm−1)) ≤ λ. (13)

Por hipótese, temos que α >−ln(p− 1)

Sm − 1. Assim, eα(Sm−1) < (p− 1)−1 e, portanto,

(p− 1)eα(Sm−1) < 1. Logo, 1− (p− 1)eα(Sm−1) > 0.Desde que eα > 0, para todo α ∈ R, segue que eα(1− (p− 1)eα(Sm−1)) > 0.Logo, 0 < eα(1− (p− 1)eα(Sm−1)) < λ.

Assim, desde que toda matriz definida positiva é inversível [15], temos que se

α >−ln(p− 1)

Sm − 1, a matriz G = C−1 está bem definida. Além disso, sendo C si-

métrica e definida positiva, a matriz C admite fatoração de Cholesky, isto é, C pode serescrita na forma C = RT ∗R em que R é uma matriz triangular superior e RT denotasua transposta [15]. Neste caso, não é necessário calcular a matriz G explicitamente.Dessa forma, é possível reduzir o custo computacional da GRE-FAM, principalmentepara os casos em que C apresenta dimensão grande, isto é, nos casos em que estamosconsiderando muitas memórias fundamentais.

6 Memória Associativa Bidirecional Exponencial FuzzyGeneralizada

Nesta seção recordaremos a definição das GEB-FAMs, modelo que estende as GRE-FAMs para o caso heteroassociativo.

As memórias associativas bidirecionais exponenciais fuzzy generalizadas (GEB-FAMs) são projetadas para o armazenamento e recordação de um família finita de paresde conjuntos fuzzy. Formalmente, seja (Aξ, Bξ), ξ = 1, . . . , p ⊂ F(U) × F(V ) oconjunto das memórias fundamentais, α > 0 um número real, SU : F(U)× F(U)→[0, 1] e SV : F(V ) × F(V ) → [0, 1] medidas de similaridade, G e H matrizes dedimensão p × p. Dado um conjunto fuzzy de entrada X0 ∈ F(U), uma GEB-FAMproduz recursivamente sequências de conjuntos fuzzy Xtt>0 e Ytt≥0 definidos,para todo t ≥ 0, u ∈ U e v ∈ V , pelas seguintes equações:

Yt(v) = ϕ

p∑ξ=1

p∑µ=1

gξµeαSU (Aµ,Xt)Bξ(v)

p∑η=1

p∑µ=1

gηµeαSU (Aµ,Xt )

e (14)

Xt+1(u) = ϕ

p∑ξ=1

p∑µ=1

hξµeαSV (Bµ,Yt)Aξ(u)

p∑η=1

p∑µ=1

hηµeαSV (Bµ,Yt )

, (15)

9

Page 10: Universidade Estadual de Campinas Instituto de Matemática ...valle/Researches/FAPESP/Aline... · Processo: 2015/00745-1 Vigência do projeto: 01/08/2015 a 31/03/2018 ... (EBFAM),

em que a funçãoϕ, dada porϕ(x) = max(0,min(1, x)), garante que Yt(v), Xt+1(u) ∈[0, 1], para todo v ∈ V , u ∈ U e para todo t > 0. Consideramos G = C−1, em queC = (cij)p×p é a matriz definida por cij = eαSU (Ai,Aj). Analogamente,H = D−1 emque D = (dij)p×p é definida por dij = eαSV (Bi,Bj). Se considerarmos G = H = Id,a matriz identidade, obtemos as EBFAMs. Portanto, as GEB-FAMs generalizam asEBFAMs.

No caso de uma GEB-FAM de passo único, dado X0 ∈ F(U), simplesmente defi-nimos Y0 ∈ F(U) através da equação

Y0(v) = ϕ

p∑ξ=1

wAξ0Bξ(v)

, ∀v ∈ V, (16)

em que

wAξ0 =

p∑µ=1

gξµeαS(Aµ,X0)

p∑η=1

p∑µ=1

gηµeαS(Aµ,X0)

, ∀ξ = 1, . . . , p. (17)

7 Problemas de Classificação de PadrõesIniciaremos essa seção com uma breve revisão sobre classificadores baseados em re-presentação esparsa, uma vez que o classificador baseado nas GRE-FAMs, definidologo em seguida, é inspirado por tais modelos.

7.1 Classificadores baseados em representação esparsaSeja AL = (Aξ, lξ), ξ = 1, · · · , p ⊂ F(U) × L um conjunto de padrões de trei-namento, em que Aξ são subconjuntos fuzzy de um conjunto U e lξ um rótulo queindica a que classe o padrão Aξ pertence. Um classificador de representação esparsa[39] se baseia na hipótese de que uma amostra Y pertencente a uma determinada classei pode ser pode ser escrita aproximadamente como combinação linear dos padrões detreinamento desta classe i, isto é,

Y (u) ≈∑ξ:lξ=i

αξAξ(u), ∀u ∈ U. (18)

Ou ainda, se definirmos αξ = 0, para todo ξ tal que lξ 6= i, podemos expressar Y comocombinação linear de todos padrões de treinamento Aξ, ξ = 1, · · · , p:

Y (u) ≈p∑ξ=1

αξAξ(u), ∀u ∈ U. (19)

10

Page 11: Universidade Estadual de Campinas Instituto de Matemática ...valle/Researches/FAPESP/Aline... · Processo: 2015/00745-1 Vigência do projeto: 01/08/2015 a 31/03/2018 ... (EBFAM),

7.2 Abordagem 1 - Classificação de Padrões Utilizando GRE-FAMsInspirados pelos classificadores de representação esparsa, definiremos um classificadorutilizando a GRE-FAM. Seja X0 um padrão pertencente a uma determinada classe i,ou uma versão ruidosa de um padrão da classe i. Por ser um modelo de memóriaassociativa espera-se que o padrão X1 produzido pela GRE-FAM em um único passotambém pertença a classe i. Por definição, X1 satisfaz

X1(u) = ϕ

p∑ξ=1

wξ0Aξ(u)

, ∀u ∈ U. (20)

Por outro lado, baseados nos classificadores de representação esparsa, esperamos que

X1 ≈p∑ξ=1

αξAξ(u), ∀u ∈ U, (21)

em que αξ = 0, para todo ξ tal que lξ 6= i.

A menos da função ϕ, que pode ser desconsiderada sep∑ξ=1

wξ0Aξ(u) ∈ [0, 1], para

todo u ∈ U , as equações (20) e (21) sugerem que os pesos wξ0, ξ = 1, · · · , p tambémsão esparsos.

Dessa forma, podemos calcular os coeficientes αξ na equação (21) por:

αξ = wξ0χi(lξ), ∀ξ = 1, · · · , p (22)

onde χi : L → 0, 1, para i ∈ L é a função definida por:

χi(x) =

1, se x = i

0, caso contrário.(23)

Em outras palavras, temos que αξ = wξ0 se lξ = i e αξ = 0 caso contrário. Assim, seo padrão de entrada X pertence a classe i, esperamos que

X1 ≈p∑ξ=1

wξ0χi(lξ)Aξ(u), ∀u ∈ U, (24)

onde os pesos wξ0 são dados pela equação (7) com t = 0.No entanto, na prática, como não sabemos a priori a que classe o padrão inicial X0

pertence, atribuímos X0 a classe l que minimiza a distância entre X1 e a combinação

linearp∑ξ=1

wξ0χl(lξ)Aξ. Precisamente, atribuímos a X0 a classe l ∈ L tal que

d2

X1,

p∑ξ=1

wξ0χl(lξ)Aξ

≤X1,

p∑ξ=1

wξ0χi(lξ)Aξ

, ∀i ∈ L, (25)

onde d2 denota a distâcia L2.

11

Page 12: Universidade Estadual de Campinas Instituto de Matemática ...valle/Researches/FAPESP/Aline... · Processo: 2015/00745-1 Vigência do projeto: 01/08/2015 a 31/03/2018 ... (EBFAM),

Figura 1: Imagens de um indivíduo do conjunto de treinamento.

7.3 Abordagem 2 - Classificação de Padrões Utilizando GEB-FAMsA GEB-FAM pode ser aplicada a problemas de classificação de padrões da seguinteforma. Sejam (Aξ, Bξ), ξ = 1, · · · , p o conjunto das memórias fundamentais, Suma medida de similaridade e α > 0 um número real. Dado um padrão de teste X0,determinamos o conjunto fuzzy produzido pela GEB-FAM em um único passo, isto é,calculamos Y0 usando (16):

Y0(v) = ϕ

p∑ξ=1

wAξ0Bξ(v)

, ∀v ∈ V.

Finalmente, associamos a padrão de testeX0 à i-ésima classe, em que i é o primeiroíndice tal que Y0(i) ≥ Y0(j), para todo j = 1, · · · , p.

8 Experimentos Computacionais

8.1 Problema 1 - Reconhecimento de facesRealizamos dois experimentos computacionais utilizando a base de imagens faciais AR[22]. Especificamente, consideramos os experimentos descritos por Luo et al. em [21].Com o objetivo de associar uma dada imagem à pessoa a qual ela pertence, utilizamoscomo base um conjunto de imagens já rotuladas, ao qual chamaremos de conjunto detreinamento ou, equivalentemente, conjunto das memórias fundamentais.

Em ambos os experimentos, consideramos o conjunto de treinamento composto porpares (Aξ, Bξ), em queAξ representa uma imagem em tons de cinza eBξ indica a qualpessoa a imagem Aξ pertence. Especificamente, o conjunto Bξ ∈ P(1, 2, . . . , 120)satisfaz Bξ(i) = 1 e Bξ(j) = 0, para todo j 6= i, se a imagem Aξ pertence a i-ésima pessoa. Para o conjunto de treinamento, consideramos 960 pares, referentes a 8imagens de cada indivíduo de um grupo de 120 pessoas [22]. A Figura 1 representa umexemplo das imagens pertencentes ao conjunto de treinamento para um certo indivíduo.

No primeiro experimento consideramos como conjunto de teste um conjunto com 4imagens de cada um dos 120 indivíduos com óculos escuros e iluminação em diferentesposições. No segundo experimento, consideramos um conjunto de teste formado por 4imagens de cada um dos 120 indivíduos com cachecol e iluminação. A Figura 2 contémas imagens do indivíduo da Figura 1 usadas no conjunto de teste dos experimentos: a)óculos+iluminação e b) cachecol+iluminação, respectivamente.

12

Page 13: Universidade Estadual de Campinas Instituto de Matemática ...valle/Researches/FAPESP/Aline... · Processo: 2015/00745-1 Vigência do projeto: 01/08/2015 a 31/03/2018 ... (EBFAM),

a) b)

Figura 2: Imagens de teste do indivíduo da Figura 1 nos experimentos a) e b).

Tabela 1: Porcentagem de acertos de diversos modelos aplicados ao reconhecimento de facesusando a base de dados AR.

LRC CRC SRC CESR RSC SSEC NMR SNL2R2 SNL1R1 DNL2R2 DNL1R1

a) 90,2 83,3 95,6 93,5 90,6 75,0 94,6 95,7 96,1 95,8 96,7b) 30,4 54,6 54,8 34,8 39,8 23,1 70,4 70,2 71,2 70,4 72,3

GRE-FAM GRE-FAM GRE-FAM GEB-FAM GEB-FAM GEB-FAMSG(α = 1) SG(α = 145) SSIM(α = 1) SG(α = 1) SG(α = 145) SSIM(α = 1)

a) 89,38 75,21 87,50 93,75 75,63 91,04b) 51,67 46,25 79,37 55,83 47,08 81,67

Consideramos inicialmente a medida de similaridade de Gregson, SG e o parâmetroα = 1 tanto para a GRE-FAM quanto para a GEB-FAM. Posteriomente, realizamosexperimentos considerando, para ambos os modelos, o parâmetro α = 145, o menor

número inteiro maior queln(p− 1)

1− Sm, onde p é o número de memórias fundamentais

consideradas e Sm = maxi,j,i 6=j

SG(Ai, Aj), pois para esse valor de α, o Teorema 2

garante que a matriz C dada por (8) é definida positiva.Também realizamos os experimentos com a medida de similaridade estrutural SSIM

[36]. Destacamos que com esta medida de similaridade, tanto a GRE-FAM como aGEB-FAM obtiveram um ótimo desempenho no experimento com o conjunto de testeformado por imagens dos indivíduos com cachecol e iluminação, com uma acurácia de79,37% e 81,67% respectivamente.

Para efeitos de comparação, a Tabela 1 mostra as porcentagens de acertos de váriosmodelos aplicados ao reconhecimento facial usando a base de dados AR, bem comoos resultados obtidos pelo classificador baseado nas GRE-FAMs e nas GEB-FAMs.Observamos que, para assegurar uma comparação justa, realizamos os mesmos experi-mentos descritos em [21]. Os resultados dos onze primeiros modelos foram extraídosde [21].

Também investigamos o desempenho dos classificadores baseados nas GEB-FAMsneste problema de reconhecimento facial utilizando outras medidas de similaridade.De fato, considerando as medidas de similaridade baseadas em cardinalidade [3, 9],de modo geral, as GEBFAMs baseadas em medidas com certas propriedades, como aT-transitividade, definidas utilizando as t-normas do mínimo ou produto obtiveram re-sultados competitivos se comparados aos obtidos por outros modelos da literatura. Emparticular, o melhor resultado foi obtido considerando medidas T-transitivas baseadas

13

Page 14: Universidade Estadual de Campinas Instituto de Matemática ...valle/Researches/FAPESP/Aline... · Processo: 2015/00745-1 Vigência do projeto: 01/08/2015 a 31/03/2018 ... (EBFAM),

na t-norma do mínimo.

8.2 Problema 2 - Classificação de ÁrvoresO problema consiste na classificação de espécies arbóreas com base em característicasextraídas a partir de imagens do tronco. As características foram extraídas de 2160imagens do tronco das árvores, sendo 108 de cada uma das 20 espécies pertencentes aFloresta decídua nativa brasileira [6].

Nos experimentos computacionais, consideramos o conjunto de memórias funda-mentais composto por 70% dos dados selecionados aleatoriamente e as duas medidasde similaridade: a medida de similaridade de Gregson, SG e a medida de similaridadebaseada na distância de Hamming, SH .

Para a GRE-FAM e a GEB-FAM baseadas na medida de similaridade de Gregson,

consideramos o parâmetro α = 314, o menor número inteiro maior queln(p− 1)

1− Sm, pois

para esse valor de α, o Teorema 2 garante que a matriz C definida em (8) é definidapositiva. Já para a GRE-FAM e a GEB-FAM baseadas na medida de similaridade SH ,

utilizamos α = 600 em vez do maior inteiro menor queln(p− 1)

1− Smpara evitar overflow.

A acurácia de classificação obtida tanto pelo classificador baseado na GRE-FAMcomo pelo classificador baseado na GEB-FAM, para ambas as medidas de similaridadeSG e SH foi de 95, 61%. O mesmo resultado foi obtido quando consideramos váriospassos da GRE-FAM e não apenas um, conforme descrito na definição do classificadorbaseado na GRE-FAM. Observemos que, da maneira como definimos a GEB-FAM,não é possível considerar mais de um passo da GEB-FAM em problemas de classifica-ção nos casos em que o conjunto de memórias fundamentais contém mais de um padrãoda mesma classe. De fato, para considerar mais um passo da GEB-FAM, precisamosprimeiramente calcular o vetor X1, para então determinar Y1. No entanto, se tivermosmais de um padrão da mesma classe no conjunto de memórias fundamentais, teremosque existem pelo menos dois indices i, j, com i 6= j, tais que Bi = Bj e dessa forma,a matriz D considerada na definição é singular.

Para efeitos de comparação, a Tabela 2 contém também as acurácias de classifica-ção obtidas por outros modelos da literatura para este problema [6].

8.3 Outros Problemas de ClassificaçãoPor fim, consideramos quinze problemas de classificação disponíveis no repositóriode bases de dados (database repository) Knowledge Extraction Based on EvolutionaryLearning (KEEL): Appendicitis, Cleveland, Crx, Ecoli, Glass, Heart, Iris, Monks, Mo-vementlibras, Pima, Sonar, Spectfheart, Vowel, Wdbc, e Wine [2]. A Tabela 3 resumealgumas informações sobre os problemas de classificação.

Inicialmente, foi necessária uma etapa de pré-processamento para converter os da-dos originais em conjuntos fuzzy. Em seguida, de acordo com os experimentos des-critos na literatura [1, 13], calculamos a acurácia de classificação utilizando validaçãocruzada com 10 pastas, isto é, após dividir os dados em 10 conjuntos, realizamos 10experimentos. Em cada experimento, um conjunto foi utilizado como conjunto de teste

14

Page 15: Universidade Estadual de Campinas Instituto de Matemática ...valle/Researches/FAPESP/Aline... · Processo: 2015/00745-1 Vigência do projeto: 01/08/2015 a 31/03/2018 ... (EBFAM),

Tabela 2: Porcentagem de acertos de diversos modelos aplicados ao problema de classificaçãode árvores.

Algoritmo Acurácia no conjunto de teste(%)Fuzzy Rule-Based Classification System (FRBCS) 94Boosted Rule-Based Model (C5) 86,5Cascade-Correlation Neural Network (CNN) 78,5k-Nearest Neighbors (KNN) 89,7Probabilistic Neural Network (PNN) 96,1Multilayer Perceptron Neural Network (MLP) 90,8Random Decision Tree Forest (Random Forest) 89,5Single Decision Tree (SDT) 72,3Stochastic Gradient Boosting (TreeBoost) 87,3Support Vector Machine (SVM) 96,2GRE-FAM 95,6GEB-FAM 95,6

Tabela 3: Descrição dos Problemas de ClassificaçãoExemplos Características Características Classes

Categóricas NumericasAppendicitis 106 0 7 2

Cleveland 297 0 13 5Crx 653 9 6 2

Ecoli 336 0 7 8Glass 214 0 9 7Heart 270 0 13 2Iris 150 0 4 3

Monks 432 0 6 2Movementlibras 360 0 90 15

Pima 768 0 8 2Sonar 208 0 60 2

Spectfheart 267 0 44 2Vowel 990 0 13 11Wdbc 569 0 30 2Wine 178 0 13 3

15

Page 16: Universidade Estadual de Campinas Instituto de Matemática ...valle/Researches/FAPESP/Aline... · Processo: 2015/00745-1 Vigência do projeto: 01/08/2015 a 31/03/2018 ... (EBFAM),

e a união dos 9 conjuntos restantes como conjunto de treinamento, de modo que cadaconjunto foi utilizado uma única vez como conjunto de teste. Posteriormente, calcula-mos a média das acurácias obtidas nesses 10 experimentos.

Com relação ao parâmetro α, primeiramente utilizamos α = 30 para todos os

problemas. Depois, consideramos α igual ao menor inteiro maior queln(p− 1)

1− Sm, onde

p é o número de memórias fundamentais consideradas e Sm = maxi,j,i 6=j

S(Ai, Aj).Além disso, consideramos a medida de similaridade de Gregson, SG e a medida desimilaridade baseada na distância de Hamming, SH .

A Figura 3 mostra os boxplot das diferenças entre a porcentagem de acertos ob-tida pelas GRE-FAMs e GEB-FAMs e a porcentagem de acertos obtido pela Θ-FAM[13], modelo da literatura com melhor porcentagem média de acertos para estes 15problemas [13]. Para efeitos de comparação, a Figura 4 mostra, além dos boxplot re-ferentes a GRE-FAM e a GEB-FAM baseadas na medida de similaridade SH , ambascom α = 30, o boxplot das diferenças entre a porcentagem de acertos obtida por outrosmodelos da literatura e a porcentagem de acertos obtido pela Θ-FAM.

Observamos que, no geral, as GRE-FAMs e GEB-FAMs obtiveram desempenhocompetitivos se comparados aos dos outros modelos da literarura. Em particular, odesempenho das GRE-FAMs e GEB-FAMs foram melhores para α = 30. Em especial,a GEB-FAM baseada na medida de similaridade SH com α = 30 obteve o melhorresultado.

9 Considerações FinaisNeste relatório descrevemos as principais contribuições desenvolvidas no período de01/08/2015 a 10/07/2016. Inicialmente, fizemos uma estudo aprofundado sobre medi-das de similaridade e como tais medidas influenciam no desempenho das GRE-FAMse GEB-FAMs. Experimentos computacionais mostraram que a medida de similaridademais adequada pode depender do problema considerado. As principais medidas desimilaridade estudadas até o momento foram brevemente descritas na Seção 4. Poste-riormente apresentamos a definição das GRE-FAMs, memória autoassociativa para oarmazenamento e recordação de conjunto fuzzy e das GEB-FAMs, modelo que estendeas GRE-FAMs para o caso heteroassociativo.

Iniciamos o estudo das aplicações, atividade prevista para a próxima etapa do pro-jeto, descrevendo como as GRE-FAMs e GEB-FAMs podem ser aplicadas a problemasde classificação e a um problema de reconhecimento de faces. Apresentamos os resulta-dos de diversos experimentos realizados para avaliar o desempenho dos classificadoresbaseados nas GRE-FAMs e nas GEB-FAMs. Consideramos um problema de reconhe-cimento facial utilizando a base de dados AR [22, 21], um problema de classificaçãode árvores [6] e outros 15 problemas de classificação disponíveis no repositório KEEL[2].

Os experimentos mostraram que em geral, os classificadores baseados nas GRE-FAMs e GEB-FAMs obtiveram resultados competitivos se comparados aos resultadosde outros modelos da literarura. Observamos que, para o problema de reconhecimentode faces, a GEB-FAM com a medida de similaridade estrutural SSIM obteve um ótimo

16

Page 17: Universidade Estadual de Campinas Instituto de Matemática ...valle/Researches/FAPESP/Aline... · Processo: 2015/00745-1 Vigência do projeto: 01/08/2015 a 31/03/2018 ... (EBFAM),

Figura 3: Boxplot das diferenças entre resultados obtidos pelas GRE-FAMs e GEB-FAMs e a porcentagem de acertos obtida pela Θ-FAM para estes 15 problemas declassificação.

desempenho, principalmente nos testes com as imagens dos indivíduos com cachecole iluminação. Além disso, a GEB-FAM baseada na medida de similaridade SH comα = 30, obteve o melhor desempenho geral nos 15 problemas de classificação.

Quanto a escolha do parâmetro α, observamos nos experimentos que, na maioriados casos, valores menores de α produzem melhores resultados. Como comentadoanteriormente, em alguns experimentos computacionais, utilizamos a estimativa dadapelo Teorema 2 para escolher um valor de α para o qual a matriz C definida em 1seja definida positiva. No entanto, apesar de não termos um resultado teórico quecomprove este fato, em todos os testes realizados até o momento, as matrizes C obtidassão definidas positivas, independentemente do valor de α considerado. Assim sendo,pretendemos continuar investigando este ponto, para definir um critério melhor para aescolha deste parâmetro.

Neste período, tivemos um trabalho aceito para o XXXVII Congresso Nacional deMatemática Aplicada e Computacional (CNMAC), que ocorrerá de 19 a 22 de setem-bro de 2017 e submetemos um artigo para a Revista TEMA - Trends in Applied and

17

Page 18: Universidade Estadual de Campinas Instituto de Matemática ...valle/Researches/FAPESP/Aline... · Processo: 2015/00745-1 Vigência do projeto: 01/08/2015 a 31/03/2018 ... (EBFAM),

Figura 4: Boxplot das diferenças entre resultados obtidos por vários modelos da li-teratura e a porcentagem de acertos obtida pela Θ-FAM para estes 15 problemas declassificação. Observamos que os boxplot referentes à GRE-FAM e à GEB-FAM fo-ram obtidos considerando a medida de similaridade SH e α = 30.

Computational Mathematics. Além disso participamos do XXXVI CNMAC, no qualapresentamos o trabalho “Memórias Associativas Recorrentes Exponenciais Fuzzy Ge-neralizadas Aplicadas à Classificação De Padrões” e do IV Congresso Brasileiro deSistemas Fuzzy, no qual apresentamos o trabalho “Memória Associativa BidirecionalExponencial Fuzzy Generalizada Aplicada ao Reconhecimento de Faces”.

10 Participação em Congressos• XXXVI Congresso Nacional de Matemática Aplicada e Computacional (CNMAC)

Período: De 05 a 09 de setembro de 2016Apresentação do Trabalho “Memórias Associativas Recorrentes Exponenciais Fuzzy

Generalizadas Aplicadas à Classificação De Padrões”.• IV Congresso Brasileiro de Sistemas Fuzzy

18

Page 19: Universidade Estadual de Campinas Instituto de Matemática ...valle/Researches/FAPESP/Aline... · Processo: 2015/00745-1 Vigência do projeto: 01/08/2015 a 31/03/2018 ... (EBFAM),

Período: De 16 a 18 de novembro de 2016Apresentação do Trabalho “Memória Associativa Bidirecional Exponencial Fuzzy

Generalizada Aplicada ao Reconhecimento de Faces”

11 Trabalhos Submetidos• Artigo Submetido para a Revista TEMA - Trends in Applied and ComputationalMathematics

Título: “Generalized Exponential Bidirectional Fuzzy Associative Memory withFuzzy Cardinality-Based Similarity Measures Applied to Face Recognition.”

• Trabalho aceito para o XXXVII Congresso Nacional de Matemática Aplicada eComputacional (CNMAC)

Período: De 19 a 22 de setembro de 2017Título: “Memória Associativa Bidirecional Exponencial Fuzzy Generalizada com

Medida de Similaridade Estrutural Aplicada a um Problema de Reconhecimento deFaces.”

12 Disciplinas CursadasAs seguintes disciplinas completam o total de 32 créditos exigidos pelo programa depós-graduação em Matemática Aplicada do Imecc - Unicamp.

• Conjuntos e Lógica Fuzzy: Teoria e AplicaçõesPeríodo: Segundo Semestre de 2016Créditos: 4Conceito: A

• Tópicos em Matemática AplicadaPeríodo: Primeiro Semestre de 2017Créditos: 4A disciplina está sendo cursada.

13 Aplicação dos RecursosNeste período, os recursos da reserva técnica foram aplicados para a participação emdois congressos, conforme descrito a seguir.

O XXXVI Congresso Nacional de Matemática Aplicada e Computacional(CNMAC) ocorreu de 05/09/2016 à 09/09/2016, no Centro de Treinamento e EventosFAURGS/UFRGS, na cidade de Gramado - RS. Os recursos utilizados para a partici-pação neste congresso estão detalhados a seguir:• Taxa de inscrição: R$335,00

19

Page 20: Universidade Estadual de Campinas Instituto de Matemática ...valle/Researches/FAPESP/Aline... · Processo: 2015/00745-1 Vigência do projeto: 01/08/2015 a 31/03/2018 ... (EBFAM),

• Cinco diárias (de 05/09/2016 à 09/09/2016): R$549,06

• Passagem (Rodoviária de Campinas para o Aeroporto de Congonhas): R$35,95

• Passagem (Aeroporto de Congonhas para a Rodoviária de Campinas): R$30,00

• Passagens Aéreas do Aeroporto de Congonhas para Porto Alegre (ida e volta):R$261,16

• Passagem (De Porto Alegre para Gramado): R$40,20

Observação Sobre as passagens para participação no XXXVI CNMAC, observa-mos que não há empresas de transporte rodoviário que fazem o trajeto direto entre ascidades de Campinas e Gramado. Por este motivo, utilizamos o trajeto: Campinas→Porto Alegre→ Gramado. No entanto, o valor da passagem terrestre de Campinas paraPorto Alegre é superior ao valor gasto com a passagem aérea e os deslocamentos para oAeroporto. De fato, na época, o valor das passagens terrestres, pela empresa Kaissara,eram de R$227,21 de Campinas para Porto Alegre e de R$228,42 de Porto Alegre paraCampinas, totalizando R$455,63. Como descrito acima, o valor total gasto no deslo-camento de Campinas a Porto Alegre, incluindo a passagem aérea e os deslocamentospara o Aeroporto foi de R$327,11.

Total .......................................................................................................R$1.251,37

O IV Congresso Brasileiro de Sistemas Fuzzy (CBSF) ocorreu de 16/11/2016 a18/11/2016, no Instituto de Matemática, Estatística e Computação Científica (IMECC)- UNICAMP, na cidade de Campinas - SP. Os recursos utilizados para a participaçãoneste congresso estão detalhados a seguir:• Taxa de inscrição: R$150,00.

Total dos recursos aplicados no período:.............................................R$1.401,37.

14 Plano de trabalho e cronograma para a próxima etapaAté o momento, estudamos versões fuzzy das ECAMs. Na próxima etapa, continu-aremos investigando pontos importantes relacionados às GRE-FAMs e GEB-FAMs,como por exemplo, a escolha do parâmetro α, com o intuito de definir um critério me-lhor para determinar tal parâmentro. Estudaremos também outras generalizações daRCAMs. Em particular, consideraremos versões fuzzy da memória associativa de or-dem alta por correlação ( HOCAM, high-order correlation associative memory) e damemória associativa com função-potencial por correlação (PFCAM, potential-functioncorrelation associative memory) [8, 7, 11, 25]. Nestes semestres também investigare-mos outras aplicações dos modelos estudados, como por exemplo em problemas deprevisão previsão [30, 31, 32, 29], reconhecimento de padrões [42, 43] e controle e

20

Page 21: Universidade Estadual de Campinas Instituto de Matemática ...valle/Researches/FAPESP/Aline... · Processo: 2015/00745-1 Vigência do projeto: 01/08/2015 a 31/03/2018 ... (EBFAM),

guiagem autônoma [14, 19, 20, 28]. Por fim, a redação da tese será realizada em para-lelo com estas atividades.

Referências[1] ALCALÁ-FDEZ, J., ALCALÁ, R., AND HERRERA, F. A fuzzy association rule-

based classification model for high-dimensional problems with genetic rule se-lection and lateral tuning. IEEE Transactions on Fuzzy Systems 19, 5 (2011),857–872.

[2] ALCALÁ-FDEZ, J., FERNÁNDEZ, A., LUENGO, J., DERRAC, J., GARCÍA, S.,SÁNCHEZ, L., AND HERRERA, F. Keel data-mining software tool: Data set re-pository, integration of algorithms and experimental analysis framework. Journalof Multiple-Valued Logic and Soft Computing 17, 2-3 (2011), 255–287.

[3] BAETS, B. D., AND MEYER, H. D. Transitivity-preserving fuzzification sche-mes for cardinality-based similarity measures. European Journal of OperationalResearch 160, 3 (2005), 726 – 740. DOI:10.1016/j.ejor.2003.06.036.

[4] BARROS, L., AND BASSANEZI, R. Tópicos de Lógica Fuzzy e Biomatemática.Editora do Instituto de Matemática, Estatística e Computação Científica (IMECC-Unicamp), Campinas, 2006.

[5] BINH, P., AND HOA, N. Compare effective fuzzy associative memories for grey-scale image recognition. In Context-Aware Systems and Applications, P. Vinh,N. Hung, N. Tung, and J. Suzuki, Eds., vol. 109 of Lecture Notes of the Institutefor Computer Sciences, Social Informatics and Telecommunications Engineering.Springer Berlin Heidelberg, 2013, pp. 258–267.

[6] BRESSANE, A. Identificação de espécies arbóreas apoiada por reconhecimentode padrões de textura no tronco usando inteligência computacional. PhD thesis,Universidade Estadual Paulista (UNESP), março 2017.

[7] CHIUEH, T., AND GOODMAN, R. Recurrent Correlation Associative Memoriesand their VLSI Implementation. Oxford University Press, Oxford, U.K., 1993,ch. 16, pp. 276–287.

[8] CHIUEH, T. D., AND GOODMAN, R. M. Recurrent Correlation Associa-tive Memories. IEEE Transactions on Neural Networks 2, 2 (1991), 275–284.DOI:10.1109/72.80338.

[9] DE BAETS, B., DE MEYER, H., AND NAESSENS, H. A class of rationalcardinality-based similarity measures. Journal of Computational and AppliedMathematics 132, 1 (2001), 51–69.

[10] DE BAETS, B., JANSSENS, S., AND DE MEYER, H. On the transitivity of aparametric family of cardinality-based similarity measures. International Journalof Approximate Reasoning 50, 1 (2009), 104–116.

21

Page 22: Universidade Estadual de Campinas Instituto de Matemática ...valle/Researches/FAPESP/Aline... · Processo: 2015/00745-1 Vigência do projeto: 01/08/2015 a 31/03/2018 ... (EBFAM),

[11] DEMBO, A., AND ZEITOUNI, O. General Potential Surfaces and NeuralNetworks. Physical Review A 37, 6 (1988), 2134–2143.

[12] DUBOIS, D., AND PRADE, H. Fuzzy sets and systems: theory and applications.Academic Press, New York, 1980.

[13] ESMI, E., SUSSNER, P., BUSTINCE, H., AND FERNANDEZ, J. Theta-fuzzyassociative memories (theta-fams). IEEE Transactions on Fuzzy Systems 23, 2(April 2015), 313–326.

[14] FREITAS, G. A., AND VALLE, M. E. Uma Breve Comparação de Modelos deMemórias Associativas Fuzzy em Problemas de Guiagem Autônoma. SEMINA:Ciências Exatas e Tecnológicas 32, 2 (2011), 151–166.

[15] GOLUB, G., AND VAN LOAN, C. Matrix Computations, 3th ed. John HopkinsUniversity Press, Baltimore, MD, 1996.

[16] HASSOUN, M. H., AND WATTA, P. B. Associative Memory Networks. In Hand-book of Neural Computation, E. Fiesler and R. Beale, Eds. Oxford UniversityPress, 1997, pp. C1.3:1–C1.3:14.

[17] JENG, Y.-J., YEH, C. C., AND CHIUEH, T. D. Exponential bidirec-tional associative memories. Eletronics Letters 26, 11 (1990), 717–718.DOI:10.1049/el:19900468.

[18] KOHONEN, T. Self-organization and associative memory, 2rd edition ed.Springer-Verlag New York, Inc., New York, NY, USA, 1987.

[19] KONG, S.-G., AND KOSKO, B. Adaptive Fuzzy Systems for Backing up a Truck-and-Trailer. IEEE Transactions on Neural Networks 3, 2 (1992), 211–223.

[20] KOSKO, B. Neural Networks and Fuzzy Systems: A Dynamical Systems Appro-ach to Machine Intelligence. Prentice Hall, Englewood Cliffs, NJ, 1992.

[21] LUO, L., YANG, J., QIAN, J., AND TAI, Y. Nuclear-l1 norm joint regression forface reconstruction and recognition with mixed noise. Pattern Recognition 48, 12(2015), 3811 – 3824. DOI:10.1016/j.patcog.2015.06.012.

[22] MARTINEZ, A. M. The AR face database. CVC Technical Report 24 (1998).

[23] MEYER, C. D. Matrix analysis and applied linear algebra. SIAM, 2000.

[24] PEDRYCZ, W., AND GOMIDE, F. Fuzzy Systems Engineering: Toward Human-Centric Computing. Wiley-IEEE Press, New York, 2007.

[25] PSALTIS, D., AND PARK, C. H. Nonlinear Discriminant Functions and Associ-ative Memories, vol. 22D of Physica. 1986, pp. 370–375.

22

Page 23: Universidade Estadual de Campinas Instituto de Matemática ...valle/Researches/FAPESP/Aline... · Processo: 2015/00745-1 Vigência do projeto: 01/08/2015 a 31/03/2018 ... (EBFAM),

[26] SOUZA, A. C., AND VALLE, M. E. Memória Associativa Bidirecional Expo-nencial Fuzzy Generalizada Aplicada ao Reconhecimento de Faces. In RecentesAvanços em Sistemas Fuzzy (2016), M. E. R. do Valle Mesquita; Graçaliz PereiraDimuro; Regivan Hugo Nunes Santiago; Estevão Esmi Laureano, Ed., vol. 1,Sociedade Brasileira de Matemática Aplicada e Computacional (SBMAC), SãoCarlos - SP, pp. 503–514. ISBN: 978-85-8215-079-5.

[27] SOUZA, A. C., VALLE, M. E., AND SUSSNER, P. Generalized Recurrent Ex-ponential Fuzzy Associative Memories Based on Similarity Measures. In Pro-ceedings of the 16th World Congress of the International Fuzzy Systems Asso-ciation (IFSA) and the 9th Conference of the European Society for Fuzzy Logicand Technology (EUSFLAT) (2015), vol. 1, Atlantis Press, pp. 455–462. DOI:10.2991/ifsa-eusflat-15.2015.66.

[28] SUSSNER, P., ESMI, E. L., VILLAVERDE, I., AND GRAÑA, M. The KoskoSubsethood Fuzzy Associative Memory (KS-FAM): Mathematical Backgroundand Applications in Computer Vision. Journal of Mathematical Imaging andVision 42, 2–3 (Feb. 2012), 134–149.

[29] SUSSNER, P., MIYASAKI, R., AND VALLE, M. E. An Introduction to Paramete-rized IFAM Models with Applications in Prediction. In Proceedings of the 2009IFSA World Congress and 2009 EUSFLAT Conference (Lisbon, Portugal, July2009), pp. 247–252.

[30] SUSSNER, P., AND VALLE, M. E. Implicative Fuzzy Associative Memories.IEEE Transactions on Fuzzy Systems 14, 6 (Dec. 2006), 793–807.

[31] SUSSNER, P., AND VALLE, M. E. Recall of Patterns Using Morphologicaland Certain Fuzzy Morphological Associative Memories. In Proceedings of theIEEE World Conference on Computational Intelligence 2006 (Vancouver, Ca-nada, 2006), pp. 209–216.

[32] SUSSNER, P., AND VALLE, M. E. Morphological and Certain Fuzzy Morpholo-gical Associative Memories for Classification and Prediction. In ComputationalIntelligence Based on Lattice Theory, V. Kaburlasos and G. Ritter, Eds. Springer-Verlag, Heidelberg, Germany, 2007, ch. 8, pp. 149–172.

[33] VALLE, M. E. Fuzzy Exponential Recurrent Neural Networks for Gray-scaleImage Retrieval. In Proceedings of the Third Brazilian Conference on FuzzySystems (III CBSF) (João Pessoa, Brazil, August 2014).

[34] VALLE, M. E., AND DE SOUZA, A. C. Pattern classification using generalizedrecurrent exponential fuzzy associative memories. In Handbook of Fuzzy SetsComparisonHandbook of Fuzzy Sets Comparison Theory, Algorithms and Appli-cations Theory, Algorithms and Applications, A. G. H. George A. Papakostas andV. G. Kaburlasos, Eds., vol. 6. Science Gate Publishing, 2016, ch. 4, pp. 79–102.

[35] VALLE, M. E., AND SOUZA, A. C. On the Recall Capability of Recurrent Ex-ponential Fuzzy Associative Memories Based on Similarity Measures. Mathware& Soft Computing Magazine 22, 1 (June 2015), 33–39.

23

Page 24: Universidade Estadual de Campinas Instituto de Matemática ...valle/Researches/FAPESP/Aline... · Processo: 2015/00745-1 Vigência do projeto: 01/08/2015 a 31/03/2018 ... (EBFAM),

[36] WANG, S., AND LU, H. On New Fuzzy Morphological Associative Memories.IEEE Transactions on Fuzzy Systems 12, 3 (2004), 316–323.

[37] WANG, Z., AND BOVIK, A. C. Mean squared error: Love it or leave it? A newlook at Signal Fidelity Measures. IEEE Signal Processing Magazine 26, 1 (Jan.2009), 98–117.

[38] WANG, Z., BOVIK, A. C., SHEIKH, H. R., AND SIMONCELLI, E. P. Image qua-lity assessment: From error visibility to structural similarity. IEEE Transactionson Image Processing 13, 4 (2004), 600–612. DOI:10.1109/TIP.2003.819861.

[39] WRIGHT, J., YANG, A., GANESH, A., SASTRY, S., AND MA, Y. Robust facerecognition via sparse representation. Pattern Analysis and Machine Intelligence,IEEE Transactions on 31, 2 (Feb 2009), 210–227.

[40] XUECHENG, L. Entropy, distance measure and similarity measure of fuzzysets and their relations. Fuzzy Sets and Systems 52, 3 (1992), 305–318.DOI:10.1016/0165-0114(92)90239-Z.

[41] ZADEH, L. A. Fuzzy Sets. Information and Control 8, 3 (1965), 338–353.DOI:10.1016/S0019-9958(65)90241-X.

[42] ZHANG, B.-L., ZHANG, H., AND GE, S. S. Face Recognition by ApplyingWavelet Subband Representation and Kernel Associative Memory. IEEE Tran-sactions on Neural Networks 15, 1 (Jan. 2004), 166–177.

[43] ZHANG, D., AND ZUO, W. Computational Intelligence-Based Biometric Tech-nologies. IEEE Computational Intelligence Magazine 2, 2 (May 2007), 26–36.

[44] ZWICK, R., CARISTEIN, E., AND BUDESCU, D. V. Measures of SimilarityAmong Fuzzy Concepts: A Comparative Analysis. International Journal of Ap-proximate Reasoning 1, 2 (Apr. 1987), 221–242.

24