analise multilinear discriminante de formas …cet/sbai11_elianatenorio.pdf · são joão del-rei -...

6
X SBAI – Simpósio Brasileiro de Automação Inteligente 18 a 21 de setembro de 2011 São João del-Rei - MG - Brasil ISSN: 2175-8905 - Vol. X 266 AN ´ ALISE MULTILINEAR DISCRIMINANTE DE FORMAS FRONTAIS DE IMAGENS 2D DE FACE Eliana Zacchi Tenorio * , Carlos Eduardo Thomaz * * Centro Universit´ ario da FEI Av. Humberto de Alencar Castelo Branco, 3972 - Assun¸ ao ao Bernardo do Campo, SP, Brasil Emails: [email protected], [email protected] Abstract— This paper describes and implements a multilinear shape analysis of 2D frontal face images. Our aim is not only to visualize and understand the information that most varies given the sample data, but also to extract the most discriminant differences related to a specific characteristic of interest, such as changes owing to gender or facial expression. The experiments carried out have showed that the multilinear discriminant analysis, although limited by the number of existing supervised classes, is a promising approach to extend well-known methods of extracting shape properties of 2D objects in general. Keywords— Multilinear discriminant analysis, 2D face shapes. Resumo— Este artigo descreve e implementa uma an´ alise multilinear de formas 2D em imagens frontais de face com o objetivo de entender como essas informa¸ oes se alteram no espa¸ co original dos dados. Investiga-se n˜ ao somente as componentes principais que mais variam mas tamb´ em a dire¸ ao que melhor representa as diferen¸ cas discriminantes de acordo com a caracter´ ıstica de interesse como, por exemplo, altera¸ oes relativas a gˆ enero ou express˜ ao facial. Os experimentos mostram que a an´ alise multilinear discriminante, embora limitada ao n´ umero de classes existentes, ´ e promissora e permite a extens˜ ao dos m´ etodos existentes na literatura para extra¸ ao de propriedades das formas de objetos em geral. Keywords— An´ alise multilinear discriminante, formas 2D de face. 1 Introdu¸ ao Muitas atividades humanas e intera¸ oes com o meio ambiente realizadas por m´ aquinas (computa- dores ou robˆ os) s˜ ao guiadas por an´ alises da infor- ma¸ ao visual dispon´ ıvel (Costa and J´ unior, 2001). Entretanto, al´ em dos recursos computacionais necess´ arios para interpretar automaticamente as imagens obtidas, a dificuldades adicionais na an´ alise da informa¸ ao visual, como a existˆ encia de ru´ ıdo, oclus˜ ao, distor¸ ao e perda de informa¸ ao em mapeamentos de objetos do espa¸ co tridimen- sional (3D) para espa¸ cos bidimensionais (2D). Na maioria das situa¸ oes, formas 2D em im- agens tˆ em as mesmas caracter´ ısticas dos objetos originais com exce¸ ao fundamentalmente da pro- fundidade e do movimento. Objetos representados por formas 2D podem ser prontamente reconheci- dos na maioria dos casos. Por exemplo, a forma de um cora¸ ao, de uma estrela, de uma nota musi- cal, de uma ferramenta e at´ e mesmo o formato da face de uma pessoa, assunto deste trabalho, s˜ ao facilmente reconhecidos por n´ os. Essencialmente, a an´ alise computacional de forma envolve uma s´ erie de tarefas importantes desde a aquisi¸ ao da imagem at´ e a classifica¸ ao da mesma. Estas tarefas podem ser divididas em trˆ es grandes etapas: pr´ e-processamento, ex- tra¸ ao de caracter´ ısticas e classifica¸ ao (Costa and J´ unior, 2001). T. Cootes e colegas (Cootes et al., 1991; Cootes and Taylor, 1992; Ahmad et al., 1995; Edwards et al., 1998), interessados em problemas onde os formatos dos objetos po- dem variar, desenvolveram um m´ etodo pioneiro de representa¸ ao de formas por meio do qual pode- se, automaticamente, extrair as propriedades das formas dos dados e descrever sucintamente os parˆ ametros que mais variam desses dados (Cootes et al., 1991). Os objetos s˜ ao representados por um conjunto de pontos de controle e examinando- se a varia¸ ao estat´ ıstica das coordenadas desses pontos para um conjunto de treinamento estima- se a posi¸ ao inicial, o tamanho e o formato de um objeto em uma imagem e, consequentemente, os ajustes necess´ arios para melhor adequar esse mod- elo de forma ` a imagem correspondente (Cootes and Taylor, 1992). Por exemplo, em (Ahmad et al., 1995) os autores descreveram um proced- imento para reconhecer gestos e monitorar em uma seq¨ encia de imagens o movimento de uma ao humana quando opera-se um mouse. Para esta aplica¸ ao foram definidos 89 pontos de con- trole para representar a m˜ ao e, ap´ os a aplica¸ ao do m´ etodo de An´ alise de Componentes Principais (PCA) (Fukunaga, 1990), o resultado foi um ve- tor que representava a forma m´ edia de uma m˜ ao e uma s´ erie de dire¸ oes no espa¸ co original que descrevia as varia¸ oes das m˜ aos em torno desta forma m´ edia. Resultados semelhantes, utilizando- se um n´ umero maior de pontos de controle, tam- em foram implementados com sucesso em um modelo de face estat´ ıstico baseado em imagens frontais (Edwards et al., 1998; Lanitis et al., 2005). Este artigo investiga os trabalhos recentes de (Kitani et al., 2006; Kitani and Thomaz, 2007; Thomaz et al., 2009) e descreve uma an´ alise

Upload: phamhanh

Post on 20-Nov-2018

221 views

Category:

Documents


0 download

TRANSCRIPT

X SBAI – Simpósio Brasileiro de Automação Inteligente18 a 21 de setembro de 2011São João del-Rei - MG - Brasil

ISSN: 2175-8905 - Vol. X 266

ANALISE MULTILINEAR DISCRIMINANTE DE FORMAS FRONTAIS DEIMAGENS 2D DE FACE

Eliana Zacchi Tenorio∗, Carlos Eduardo Thomaz∗

∗Centro Universitario da FEIAv. Humberto de Alencar Castelo Branco, 3972 - Assuncao

Sao Bernardo do Campo, SP, Brasil

Emails: [email protected], [email protected]

Abstract— This paper describes and implements a multilinear shape analysis of 2D frontal face images. Ouraim is not only to visualize and understand the information that most varies given the sample data, but also toextract the most discriminant differences related to a specific characteristic of interest, such as changes owing togender or facial expression. The experiments carried out have showed that the multilinear discriminant analysis,although limited by the number of existing supervised classes, is a promising approach to extend well-knownmethods of extracting shape properties of 2D objects in general.

Keywords— Multilinear discriminant analysis, 2D face shapes.

Resumo— Este artigo descreve e implementa uma analise multilinear de formas 2D em imagens frontais deface com o objetivo de entender como essas informacoes se alteram no espaco original dos dados. Investiga-se naosomente as componentes principais que mais variam mas tambem a direcao que melhor representa as diferencasdiscriminantes de acordo com a caracterıstica de interesse como, por exemplo, alteracoes relativas a genero ouexpressao facial. Os experimentos mostram que a analise multilinear discriminante, embora limitada ao numerode classes existentes, e promissora e permite a extensao dos metodos existentes na literatura para extracao depropriedades das formas de objetos em geral.

Keywords— Analise multilinear discriminante, formas 2D de face.

1 Introducao

Muitas atividades humanas e interacoes com omeio ambiente realizadas por maquinas (computa-dores ou robos) sao guiadas por analises da infor-macao visual disponıvel (Costa and Junior, 2001).Entretanto, alem dos recursos computacionaisnecessarios para interpretar automaticamente asimagens obtidas, ha dificuldades adicionais naanalise da informacao visual, como a existenciade ruıdo, oclusao, distorcao e perda de informacaoem mapeamentos de objetos do espaco tridimen-sional (3D) para espacos bidimensionais (2D).

Na maioria das situacoes, formas 2D em im-agens tem as mesmas caracterısticas dos objetosoriginais com excecao fundamentalmente da pro-fundidade e do movimento. Objetos representadospor formas 2D podem ser prontamente reconheci-dos na maioria dos casos. Por exemplo, a formade um coracao, de uma estrela, de uma nota musi-cal, de uma ferramenta e ate mesmo o formato daface de uma pessoa, assunto deste trabalho, saofacilmente reconhecidos por nos.

Essencialmente, a analise computacional deforma envolve uma serie de tarefas importantesdesde a aquisicao da imagem ate a classificacaoda mesma. Estas tarefas podem ser divididasem tres grandes etapas: pre-processamento, ex-tracao de caracterısticas e classificacao (Costaand Junior, 2001). T. Cootes e colegas (Cooteset al., 1991; Cootes and Taylor, 1992; Ahmadet al., 1995; Edwards et al., 1998), interessadosem problemas onde os formatos dos objetos po-

dem variar, desenvolveram um metodo pioneiro derepresentacao de formas por meio do qual pode-se, automaticamente, extrair as propriedades dasformas dos dados e descrever sucintamente osparametros que mais variam desses dados (Cooteset al., 1991). Os objetos sao representados porum conjunto de pontos de controle e examinando-se a variacao estatıstica das coordenadas dessespontos para um conjunto de treinamento estima-se a posicao inicial, o tamanho e o formato de umobjeto em uma imagem e, consequentemente, osajustes necessarios para melhor adequar esse mod-elo de forma a imagem correspondente (Cootesand Taylor, 1992). Por exemplo, em (Ahmadet al., 1995) os autores descreveram um proced-imento para reconhecer gestos e monitorar emuma sequencia de imagens o movimento de umamao humana quando opera-se um mouse. Paraesta aplicacao foram definidos 89 pontos de con-trole para representar a mao e, apos a aplicacaodo metodo de Analise de Componentes Principais(PCA) (Fukunaga, 1990), o resultado foi um ve-tor que representava a forma media de uma maoe uma serie de direcoes no espaco original quedescrevia as variacoes das maos em torno destaforma media. Resultados semelhantes, utilizando-se um numero maior de pontos de controle, tam-bem foram implementados com sucesso em ummodelo de face estatıstico baseado em imagensfrontais (Edwards et al., 1998; Lanitis et al., 2005).

Este artigo investiga os trabalhos recentes de(Kitani et al., 2006; Kitani and Thomaz, 2007;Thomaz et al., 2009) e descreve uma analise

X SBAI – Simpósio Brasileiro de Automação Inteligente18 a 21 de setembro de 2011São João del-Rei - MG - Brasil

ISSN: 2175-8905 - Vol. X 267

multilinear de formas 2D em imagens frontaisde face com o objetivo de entender como essasinformacoes estao se alterando no espaco origi-nal. Especificamente, investiga-se nao somente ascomponentes principais que mais variam (Cooteset al., 1991; Cootes and Taylor, 1992; Ahmadet al., 1995; Edwards et al., 1998), mas tam-bem a direcao que melhor representa as difer-encas discriminantes entre os dados dependendodo contexto da analise multivariada em questao.Pretende-se, portanto, extrair a direcao mais dis-criminante de acordo com a caracterıstica de in-teresse, por exemplo, diferencas de genero e ex-pressao facial, e nao as direcoes mais expressivas(Swets and Weng, 1996) que nao necessariamenterepresentam exclusivamente as diferencas discrim-inantes (Kitani et al., 2006).

2 Analise de Componentes Principais

A Analise de Componentes Principais, ou sim-plesmente PCA (Principal Component Analysis)(Fukunaga, 1990) como e amplamente conhecida,e um metodo estatıstico multivariado de extracaode informacao, proposto originalmente por KarlPearson (Pearson, 1901), que transforma um con-junto n de variaveis originais em um numero mde combinacoes lineares destas variaveis, ondem ≤ n, por meio da selecao das caracterısticasque mais variam (ou mais expressivas (Swets andWeng, 1996)) e consequente reducao de dimen-sionalidade dos dados.

Seja uma amostra de treinamento contendoN formas de face representadas por vetores n-dimensionais que descrevem as coordenadas 2Ddos pontos de controle dessas formas. A matriz decovariancia desses dados pode ser escrita como:

S =1

(N − 1)

N∑i=1

(xi − x)(xi − x)T , (1)

onde xi e x sao, respectivamente, a forma i e me-dia global dessa amostra de treinamento. E umresultado provado na literatura que o conjunto mde autovetores de S, que corresponde aos maioresautovalores, minimiza o erro quadratico mediode reconstrucao desses dados para todas as pos-sıveis escolhas de bases m vetoriais ortonormais(Fukunaga, 1990). Esse conjunto de autovetoresque define um novo sistema de coordenadas paraa amostra de treinamento e conhecido como com-ponentes principais e pode ser descrito matemati-camente como:

PT SP = Λ, (2)

onde P e Λ sao as matrizes de autovetores e auto-valores de S. No contexto especıfico de reconhec-imento de faces, a matriz Ppca = [p1,p2, ...,pm]

de componentes principais ordenada decrescente-mente (λ1 ≥ λ2 . . . ≥ λm) e comumente denomi-nada de autofaces (Sirovich and Kirby, 1987; Turkand Pentland, 1991). As m componentes prin-cipais podem entao substituir as n variaveis e aamostra original de dados, que consiste de N ex-emplos e n variaveis, e reduzida para uma amostrade dados contendo N exemplos e m componentesprincipais.

3 Analise de Discriminantes Lineares

A Analise de Discriminante Lineares, ou sim-plesmente LDA (Linear Discriminant Analysis)(Devijver and Kittler, 1982) como e tambemamplamente conhecida, e um metodo estatısticomultivariado de extracao de informacao, pro-posto originalmente por Ronald A. Fisher (Fisher,1936), que separa em duas ou mais classes de inter-esse os dados originais. Essa separacao em classesou grupos distintos e feita atraves de uma trans-formacao linear que maximiza a distancia entre asclasses e minimiza o espalhamento dentro de cadagrupo.

Seja a matriz de espalhamento inter-classes Sb

descrita matematicamente por

Sb =g∑

i=1

Ni(xi − x)(xi − x)T (3)

e a matriz de espalhamento intra-classes Sw de-scrita por

Sw =g∑

i=1

Ni∑j=1

(xi,j − xi)(xi,j − xi)T (4)

onde xi,j e a forma n-dimensional j da classe πi,Ni e o numero de exemplos de treinamento daclasse πi, e g representa o numero total de classesou grupos. O vetor xi e a media amostral da classeπi (Fukunaga, 1990). O vetor de media global xpode ser entao re-escrito como

x =1N

g∑i=1

Nixi =1N

g∑i=1

Ni∑j=1

xi,j , (5)

onde N e, como descrito anteriormente, o numerototal de exemplos de treinamento, ou seja, N =N1 + N2 + . . . + Ng.

O principal objetivo do metodo LDA e en-contrar a matriz de projecao Wlda que maximizaa razao entre o determinante da matriz de espal-hamento inter-classes Sb e o determinante da ma-triz de espalhamento intra-classes Sw, conhecidocomo criterio de Fisher e descrito matematica-mente por

Wlda = arg maxW

∣∣WT SbW∣∣

|WT SwW |, (6)

X SBAI – Simpósio Brasileiro de Automação Inteligente18 a 21 de setembro de 2011São João del-Rei - MG - Brasil

ISSN: 2175-8905 - Vol. X 268

O criterio de Fisher descrito pela equacao (6)e satisfeito quando a matriz de projecao Wlda

e composta, no maximo, pelos (g − 1) autove-tores de S−1

w Sb, cujos autovalores correspondentessao nao-nulos (Fukunaga, 1990; Devijver and Kit-tler, 1982). Por exemplo, em problemas envol-vendo duas classes somente, a matriz de projecaodo LDA contem, na verdade, um unico autovetorwlda, admitindo que Sw seja nao-singular.

No entanto, quando o numero total de exemp-los N nao e consideravelmente maior que o numerode variaveis n, ocorre uma instabilidade no cal-culo da matriz inversa de Sw (Fukunaga, 1990). Aquantidade de exemplos de treinamento para evi-tar essa instabilidade no calculo da matriz inversade Sw deve ser igual ou superior a 5 vezes a quan-tidade de variaveis que definem essas amostras(Jain and Chandrasekaran, 1982). Portanto, parao tratamento do problema de instabilidade no cal-culo da inversa da matriz Sw, pode-se utilizaro metodo denominado MLDA (Maximum uncer-tainty Linear Discriminant Analysis) (Thomazet al., 2006). Essa tecnica consiste em substituir amatriz de espalhamento Sw por outra matriz regu-larizada S∗w. A nova matriz regularizada S∗w podeser calculada por meio dos seguintes passos:

1. Seleciona-se os autovetores Φ e autovalores Λde Sp, onde Sp = Sw

N−g ;

2. Calcula-se a media dos autovalores λ, ou seja,

λ =1n

n∑j=1

λj =Tr(Sp)

n; (7)

3. Constroi-se uma nova matriz de autovaloresbaseada na dispersao dos maiores autoval-ores, isto e,

Λ∗ = diag[max(λ1, λ), . . . ,max(λn, λ)]; (8)

4. Calcula-se a matriz de espalhamento intra-classes regularizada

S∗w = S∗p(N − g) = (ΦΛ∗ΦT )(N − g). (9)

Com a matriz S∗w calculada, substitui-se Sw

da equacao (6) por S∗w e regulariza-se o criteriode Fisher para problemas onde o numero total deexemplos de treinamento e limitado e equivalentea dimensionalidade dos dados.

4 Experimentos e Resultados

Os experimentos foram desenvolvidos com o ob-jetivo de distinguir genero e expressao facial emimagens de faces a partir apenas dos formatosdas mesmas, sem levar em consideracao cor outextura. Para isto, utilizou-se duas bases de da-dos disponıveis publicamente para pesquisa: AR

Figura 1: Ilustracao da localizacao dos pontos decontrole: 22 pontos da base AR (esquerda); 46pontos da base FEI (direita).

(Martinez and Benavente, 1998) e FEI (Thomazand Giraldi, 2010).

Da base AR, utilizou-se 238 imagens frontais,todas com expressao facial sorrindo e nao-sorrindo, sendo 148 masculinas e 90 femininas. Osformatos dessas imagens foram descritos por 22pontos de controle previamente marcados1, con-forme o exemplo ilustrado na Figura 1.

Para a base de faces da FEI, utilizou-se 400imagens frontais, todas com expressao facial sor-rindo e nao-sorrindo, sendo 200 masculinas e 200femininas. Os formatos dessas imagens foram de-scritos por 46 pontos de controle, dentre eles 19dos 20 pontos mais relevantes de caracterısticasfrontais de acordo com (Vukadinovic and Pan-tic, 2005) e mais 27 pontos dos 152 sugeridos por(Lanitis et al., 2005). Estes 27 pontos foram adi-cionados para permitir que a ferramenta de ref-erencia na literatura (Lanitis et al., 2005) tivesseuma quantidade de pontos suficiente para geraruma representacao da face por meio de linhas, con-forme o exemplo ilustrado na Figura 1.

4.1 Reconstrucao das Componentes Principais

De forma analoga aos experimentos de (Ahmadet al., 1995; Edwards et al., 1998; Lanitis et al.,2005), pode-se utilizar a forma media global xrepresentada pelo vetor n-dimensional para inter-pretar as alteracoes mais expressivas capturadaspelas componentes principais. Matematicamente,essa navegacao nas componentes principais podeser descrita por

y = x + j√

λi · pi, (10)

onde j ∈ {−3,−2,−1, 0, 1, 2, 3} e pi sao as m com-ponentes principais ordenadas decrescentementepelos seus autovalores correspondentes, isto e,λ1 ≥ λ2 . . . ≥ λm.

As Figuras 2 e 3 mostram essas transfor-macoes lineares para as 3 primeiras compo-nentes principais das bases de faces AR e FEI,respectivamente. Devido a caracterıstica nao-supervisionada da analise de componentes prin-

1http://personalpages.manchester.ac.uk/staff/timothy.f.cootes

X SBAI – Simpósio Brasileiro de Automação Inteligente18 a 21 de setembro de 2011São João del-Rei - MG - Brasil

ISSN: 2175-8905 - Vol. X 269

cipais, nao e possıvel prever ou garantir qual com-ponente principal ira distinguir as diferencas rela-tivas a genero ou expressao facial exclusivamente.Navegando nas primeiras componentes, percebe-se as alteracoes mais expressivas que descrevem,em ambas bases de faces, fundamentalmente difer-encas associadas ao tamanho, formato e posicaodos rostos. No entanto, informacoes mais sutis,como diferencas de expressao facial, podem sercapturadas nas componentes principais cujos au-tovalores nao sao maximos, conforme pode-se ob-servar na reconstrucao da 3a. componente princi-pal da base de faces da FEI, ilustrada na Figura3.

4.2 Reconstrucao dos Discriminantes Lineares

Antes da reconstrucao dos discriminantes lin-eares, estimou-se a habilidade de generalizacaodos vetores wmlda para discriminar genero e ex-pressao facial dos exemplos de treinamento dasbases de dados AR e FEI por meio do metodocross-validation e do classificador de distancia Eu-clideana (Fukunaga, 1990). A Tabela 1 mostraas taxas de classificacao obtidas pelos vetores dis-criminantes correspondentes. Pode-se verificarque em todos os experimentos realizados a taxade acuracia foi alta, atingindo valores superioresa 85% para ambas caracterısticas de interesse eambas bases de dados.

Tabela 1: Taxas de classificacao (%) para as car-acterısticas genero (homem versus mulher) e ex-pressao facial (sorrindo versus nao-sorrindo).

Genero Exp. F.Base de Faces h m s nAR 86.8 87.2 97.5 96.4FEI 87.9 91.9 92.2 97.1

Para a analise multilinear discriminante,calculou-se o vetor wmlda de projecao con-siderando todos os exemplos de treinamento e asseparacoes dos formatos das faces com relacao agenero e expressao facial. Admitindo que o espal-hamento das classes no vetor wmlda discriminanteseja descrito por uma distribuicao Gaussiana e im-pondo limites para a variacao de cada classe, comopor exemplo ±3σi (ou 99.73%), onde σi e o desviopadrao de cada classe i ∈ {1, 2}, a navegacao nosdiscriminantes lineares pode ser calculada matem-aticamente por

y = x + jσi ·wmlda, (11)

onde j ∈ {−3,−2,−1, 0, 1, 2, 3}.As Figuras 4 e 5 apresentam, de cima para

baixo, as navegacoes nos vetores discriminantesde genero e expressao facial para as bases de da-dos AR e FEI, respectivamente. Pode-se observar,claramente, que os rostos das imagens femininas

da base AR sao menores e mais sorridentes do queos rostos masculinos, e as sobrancelhas possuemsimetrias distintas dependendo do genero. Alemdisso, a Figura 4 mostra que independentementedo genero, ha diferencas relevantes associadas ex-clusivamente a expressao facial. Para a base defaces da FEI, os rostos masculinos parecem sermais finos ou alongados e conter sobrancelhas maisgrossas que os rostos femininos, mas tao sorri-dentes quanto, independentemente do genero. Areconstrucao das alteracoes mais discriminantesrelativas a expressao facial da base de faces da FEIilustra diferencas somente no formato da boca e naabertura dos olhos, representando exclusivamenteas mudancas fundamentais dessa caracterıstica deinteresse.

5 Conclusao

Os modelos descritos e implementados neste tra-balho estao baseados em transformacoes linearese descrevem no espaco original dos dados as difer-encas nas formas frontais de imagens 2D de face.Constatou-se, no entanto, que nao e possıvel pre-ver qual componente principal ira descrever as car-acterısticas discriminantes de interesse, pois essascaracterısticas podem ser representadas tanto pelaprimeira como pela ultima componente principale de maneira nao necessariamente exclusiva. Umaalternativa para essa limitacao inerente a metodosnao-supervisionados e realizar uma analise dis-criminante multilinear dos dados, utilizando ex-emplos ja classificados e disponıveis. Os exper-imentos desse trabalho mostram que tal analise,embora limitada ao numero de classes existentes, epromissora e permite a extensao dos metodos exis-tentes na literatura para extracao de propriedadesdas formas de objetos em geral.

Referencias

Ahmad, T., Taylor, C. J. and Cootes, T. F.(1995). Tracking and recognising hand ges-tures using statistical shape models, Proceed-ings of the British Machine Vision Confer-ence (BMVC), pp. 403–412.

Cootes, T. F., Cooper, D., Taylor, C. J. andGraham, J. (1991). A trainable methodof parametric shape description, Proceedingsof the British Machine Vision Conference(BMVC), pp. 54–61.

Cootes, T. F. and Taylor, C. J. (1992). Activeshape models, Proceedings of the British Ma-chine Vision Conference (BMVC), pp. 266–275.

Costa, L. D. and Junior, R. M. (2001). ShapeAnalysis and Classification: Theory andPractice, CRC Press.

X SBAI – Simpósio Brasileiro de Automação Inteligente18 a 21 de setembro de 2011São João del-Rei - MG - Brasil

ISSN: 2175-8905 - Vol. X 270

Figura 2: Reconstrucao das alteracoes mais expressivas da base de faces AR. Da esquerda para direita:[−3

√λi,−2

√λi,−1

√λi, x, +1

√λi,+2

√λi,+3

√λi], onde i = {1, 2, 3} de cima para baixo.

Figura 3: Reconstrucao das alteracoes mais expressivas da base de faces da FEI. Da esquerda para direita:[−3

√λi,−2

√λi,−1

√λi, x, +1

√λi,+2

√λi,+3

√λi], onde i = {1, 2, 3} de cima para baixo.

Figura 4: Reconstrucao das alteracoes mais discriminantes relativas a genero (em cima) e expressao facial(embaixo) da base de faces AR. Da esquerda (classe 1 de exemplos de ’homem’ ou ’sorrindo’) para direita(classe 2 de exemplos de ’mulher’ ou ’nao-sorrindo’): [−3σ1,−2σ1,−1σ1, x, +1σ2,+2σ2,+3σ2].

X SBAI – Simpósio Brasileiro de Automação Inteligente18 a 21 de setembro de 2011São João del-Rei - MG - Brasil

ISSN: 2175-8905 - Vol. X 271

Figura 5: Reconstrucao das alteracoes mais discriminantes relativas a genero (em cima) e expressao facial(embaixo) da base de faces da FEI. Da esquerda (classe 1 de exemplos de ’homem’ ou ’sorrindo’) paradireita (classe 2 de exemplos de ’mulher’ ou ’nao-sorrindo’): [−3σ1,−2σ1,−1σ1, x,+1σ2,+2σ2,+3σ2].

Devijver, P. and Kittler, J. (1982). Pattern Clas-sification: A Statistical Approach, Prentice-Hall.

Edwards, G. J., Cootes, T. F. and Taylor, C. J.(1998). Face recognition using active appear-ance models, Proceedings of the EuropeanConference on Computer Vision (ECCV),pp. 581–698.

Fisher, R. A. (1936). The use of multiple mea-surements in taxonomic problems, Annals ofEugenics 7: 179–188.

Fukunaga, K. (1990). Introduction to StatisticalPattern Recognition, Morgan Kaufmann.

Jain, A. K. and Chandrasekaran, B. (1982). Di-mensionality and sample size considerationsin pattern recognition practice, Handbook ofStatistics 2: 835–855.

Kitani, E. C. and Thomaz, C. E. (2007). Analisede discriminantes lineares para modelagem ereconstrucao de imagens de face, Proceedingsof the Encontro Nacional de Inteligencia Ar-tificial (ENIA), pp. 962–971.

Kitani, E. C., Thomaz, C. E. and Gillies, D. F.(2006). A statistical discriminant model forface interpretation and reconstruction, Pro-ceedings of the Brazilian Symposium on Com-puter Graphics and Image Processing (SIB-GRAPI), pp. 247–254.

Lanitis, A., Taylor, C. J. and Cootes, T. F.(2005). An automatic identification systemusing flexible appearance models, Image andVision Computing 13: 393–401.

Martinez, A. and Benavente, R. (1998). The arface database. CVC Technical Report no. 24.

Pearson, K. (1901). On lines and planes of closestfit to system of point in space, PhilosophicalMagazine 2: 559–572.

Sirovich, L. and Kirby, M. (1987). Low-dimensional procedure for the characteriza-tion of human faces, Journal of Optical Soci-ety of America 4: 519–524.

Swets, D. and Weng, J. (1996). Using dis-criminants eigenfeatures for image retrieval,IEEE Trans. Patterns Anal. Mach Intell.18(8): 831–836.

Thomaz, C. E., Amaral, V., Giraldi, G. A., Ki-tani, E. C., Sato, J. R. and Gillies, D. F.(2009). A multi-linear discriminant analysisof 2d frontal face images, Proceedings of theBrazilian Symposium on Computer Graphicsand Image Processing (SIBGRAPI), pp. 216–223.

Thomaz, C. E. and Giraldi, G. A. (2010). Anew ranking method for principal compo-nents analysis and its application to face im-age analysis, Image and Vision Computing28(6): 902–913.

Thomaz, C., Kitani, E. and Gillies, D. (2006).A maximum uncertainty lda-based approachfor limited sample size problems - with ap-plication to face recognition, Journal of theBrazilian Computer Society 12(2): 7–18.

Turk, M. and Pentland, A. (1991). Eigenfacesfor recognition, Journal of Cognitive Neuro-science 3: 71–86.

Vukadinovic, D. and Pantic, M. (2005). Fullyautomatic facial feature point detection us-ing gabor feature based boosted classifiers,Proceedings of the International Conferenceon Systems, Man and Cybernetics, pp. 1692–1698.