associação brasileira de estatística 21º sinape - simpósio...

146
1 Associação Brasileira de Estatística 21º SINAPE - Simpósio Nacional de Probabilidade e Estatística - 2014 Sessões Pôsteres Resumos Sessão: Estatística Aplicada em Agronomia e Biologia Título: Ajuste de modelos não-lineares no estudo da neutralização da peçonha da serpente Bothropoides pauloensis pelo extrato aquoso Jathropha curcas Autores: Quintiliano Siqueira Schroden Nomelini; Janser Moura Pereira; Luiz Fernando Moreira Izidoro Resumo: No Brasil, as serpentes botrópicas são responsáveis pela maioria dos envenenamentos, ocasionando efeitos locais e sistêmicos. Muitos desses provocam danos irreversíveis, mesmo quando tratados convencionalmente. Uma possível alternativa que possa vir auxiliar na minimização dessas situações deletérias é usar plantas medicinais de acordo com a cultura popular. Muitos trabalhos vêm abordando essa teoria e conseguindo resultados promissores. O objetivo deste trabalho foi demonstrar a capacidade do extrato Jatropha curcas inibir a atividade coagulante induzida pela peçonha de Bothropoides pauloensis. Os ensaios de inibição foram realizados a partir de uma mistura de peçonha/extrato em diferentes razões 1:0; 1:1; 1:5; 1:10; 1:20; 1:30; 1:40; e 1:50 (m/m) incubados 30 minutos antes de cada ensaio. Os resultados demonstraram que o extrato de Jatropha curcas foi eficaz na inibição total da atividade coagulante. No presente trabalho ajustou-se modelos de regressão entre níveis de concentração de extrato e tempo de coagulação (segundos). Os modelos ajustados conseguiram captar bem a variação total do tempo de coagulação e com isso conseguiu-se boas modelagens contribuindo para obter bons resultados de valores preditos dentro do intervalo estudado. Palavras-Chave: Jathropha curcas; Modelos não Lineares; Bothrops pauloensis; Inibição. Título: Análise de componentes principais pelo ggebiplot na avaliação de dados de interações tritróficas em populações de insetos Autores: Oliveira, M. C. N. de; Wish, L. N.; Sosa-Gómez, D. R. Resumo: Nos últimos anos houve um aumento expressivo das áreas cultivadas com as culturas da soja (Glycine max), do milho (Zea mays) e do algodão (Gossypium hirsutum), como consequência disto tem-se elevado o número de insetos-pragas nas lavouras, como as lagartas desfolhadoras C. includens (Walker, [1858]) e Rachiplusia nu (Guenée, 1852) e algumas espécies de Spodoptera. A presença destas pragas exigem que o seu controle seja rápido, eficiente e de forma sustentável. Uma forma que o Brasil e alguns países, como a Argentina, a China e os Estados Unidos, vêm adotando é o cultivo de plantas geneticamente modificadas com genes expressos da proteína de Bacillus thuringiensis (Bt) como estratégia para o manejo de pragas, com custos de produção reduzidos e menor poluição no meio ambiente. As plantas de soja Bt produzem níveis consideráveis de proteínas Cry1Ac no controle de determinados lepidópteros pragas, mas não são eficazes contra as espécies de Spodoptera. Com esta planta Bt tende-se aumentar a população de inimigos naturais, devido ao uso reduzido de pesticidas, no entanto, nada

Upload: doantuong

Post on 20-Nov-2018

230 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

1

Associação Brasileira de Estatística

21º SINAPE - Simpósio Nacional de Probabilidade e Estatística - 2014

Sessões Pôsteres – Resumos

Sessão: Estatística Aplicada em Agronomia e Biologia

Título: Ajuste de modelos não-lineares no estudo da neutralização da peçonha da serpente Bothropoides pauloensis pelo extrato aquoso Jathropha curcas

Autores: Quintiliano Siqueira Schroden Nomelini; Janser Moura Pereira; Luiz Fernando Moreira Izidoro

Resumo: No Brasil, as serpentes botrópicas são responsáveis pela maioria dos envenenamentos, ocasionando efeitos locais e sistêmicos. Muitos desses provocam danos irreversíveis, mesmo quando tratados convencionalmente. Uma possível alternativa que possa vir auxiliar na minimização dessas situações deletérias é usar plantas medicinais de acordo com a cultura popular. Muitos trabalhos vêm abordando essa teoria e conseguindo resultados promissores. O objetivo deste trabalho foi demonstrar a capacidade do extrato Jatropha curcas inibir a atividade coagulante induzida pela peçonha de Bothropoides pauloensis. Os ensaios de inibição foram realizados a partir de uma mistura de peçonha/extrato em diferentes razões 1:0; 1:1; 1:5; 1:10; 1:20; 1:30; 1:40; e 1:50 (m/m) incubados 30 minutos antes de cada ensaio. Os resultados demonstraram que o extrato de Jatropha curcas foi eficaz na inibição total da atividade coagulante. No presente trabalho ajustou-se modelos de regressão entre níveis de concentração de extrato e tempo de coagulação (segundos). Os modelos ajustados conseguiram captar bem a variação total do tempo de coagulação e com isso conseguiu-se boas modelagens contribuindo para obter bons resultados de valores preditos dentro do intervalo estudado.

Palavras-Chave: Jathropha curcas; Modelos não Lineares; Bothrops pauloensis; Inibição. Título: Análise de componentes principais pelo ggebiplot na avaliação de dados de interações tritróficas em populações de insetos

Autores: Oliveira, M. C. N. de; Wish, L. N.; Sosa-Gómez, D. R.

Resumo: Nos últimos anos houve um aumento expressivo das áreas cultivadas com as culturas da soja (Glycine max), do milho (Zea mays) e do algodão (Gossypium hirsutum), como consequência disto tem-se elevado o número de insetos-pragas nas lavouras, como as lagartas desfolhadoras C. includens (Walker, [1858]) e Rachiplusia nu (Guenée, 1852) e algumas espécies de Spodoptera. A presença destas pragas exigem que o seu controle seja rápido, eficiente e de forma sustentável. Uma forma que o Brasil e alguns países, como a Argentina, a China e os Estados Unidos, vêm adotando é o cultivo de plantas geneticamente modificadas com genes expressos da proteína de Bacillus thuringiensis (Bt) como estratégia para o manejo de pragas, com custos de produção reduzidos e menor poluição no meio ambiente. As plantas de soja Bt produzem níveis consideráveis de proteínas Cry1Ac no controle de determinados lepidópteros pragas, mas não são eficazes contra as espécies de Spodoptera. Com esta planta Bt tende-se aumentar a população de inimigos naturais, devido ao uso reduzido de pesticidas, no entanto, nada

Page 2: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

2

se conhece sobre a interação dessas plantas transgênicas com as pragas não-alvos da toxina e seus inimigos naturais entomopatogênicos, como o fungo Nomuraea rileyi (Farlow) e os vírus de poliedrose nuclear (NPV). Um estudo entre estes agentes se faz necessário para o maior conhecimento da interação entre a toxina Cry1Ac versus a praga e versus os entomopatógenos para avaliar a existência ou não de comprometimento entre esta tecnologia Bt e as relações com inimigos naturais e seus hospedeiros. Desta forma, o objetivo do trabalho foi avaliar se a atividade dos entomopatógenos, baculovírus (NPV) e N. rileyi, em Spodoptera frugiperda (J. E. Smith, 1797) é influenciada pela presença da toxina Cry1Ac encontrada na soja Bt. Os métodos univariados como a análise de variância e testes de comparações múltiplas de médias (ANOVA e teste de Tukey) e multivariados de análise de Componentes Principais (ACP) e o GGE Biplot foram usados para interpretar estes resultados (Steel & Torrie, 1960, Reis, 2001, Yan et al., 2002, 2003, Mingoti, 2007). Comparando-se os resultados dos métodos univariado e o multivariado com o uso do biplot pode-se afirmar que os mesmos foram equivalentes para avaliar os efeitos dos tratamentos na avaliação da interferência da toxina Cry1Ac da cultivar de soja Bt nos entomopatógenos encontrados nas lavouras. A vantagem da ACP é a redução da dimensão da matriz de dados sem perder informação e melhor interpretação gráfica dos efeitos dos tratamentos pelos biplot do polígono e dos círculos concêntricos elaborados pelo software GGE biplot. Nas variáveis número de ovos, viabilidade de ovos e longevidade não houve interferência do tratamento Dieta artificial + a bactéria HD-73. Novos experimentos devem ser conduzidos para melhor averiguar se existe ou não comprometimento entre esta tecnologia Bt e as relações com inimigos naturais e seus hospedeiros.

Palavras-Chave: multivariada; biplot; GGEBiplot.

Título: Ajuste de distribuições de probabilidade aos custos fixos do Café Arábica

Autores: Tatiane Bento da Costa; Marcelo Tavares

Resumo: O café é uma das principais culturas agrícola brasileira. O conhecimento das distribuições de probabilidades associadas aos dados de custo fixo da cultura do café arábica é de extrema importância para que procedimentos estatísticos adequados possam ser aplicados com base nas distribuições que melhor se ajustam. O presente trabalho analisa os custos fixos do café Arábica nas principais cidades produtoras nacionais que são: Franca/SP, Guaxupé/MG, São Sebastião do Paraíso/MG, Patrocínio/MG, Luís Eduardo Magalhães/BA. A análise foi realizada com base no histórico de custos fixos anuais do café arábica, coletados pela Companhia Nacional de Abastecimento (CONAB) no período de 2003 ao ano de 2013. Os dados foram ajustados às funções de distribuições: Weibull, Rayleigh, Log-normal e Normal, onde se verificou a distribuição que apresentou o melhor ajuste para os dados observados. Constatou-se que, das distribuições de probabilidade analisadas ajustaram-se ao custo fixo do café arábica, as que ajustaram-se foram de Weibull e Log-normal.

Palavras-Chave: ajuste de distribuições; agricultura.; custos fixos; café arábica.

Título: Análise de Dados RNA-Seq Com Excesso de Zeros

Autores: Marcus A. Nunes

Resumo: Tecnologias de sequenciamento next-gen estão revolucionando a análise de dados genéticos. Entretanto, boa parte dos dados gerados por estes métodos é composta

Page 3: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

3

por observações iguais a zero. Embora Modelos Lineares Generalizados possam lidar com dados assim, os métodos usuais de análise não são capazes de lidar com este excesso de zeros, ocasionando o descarte de muitas observações. Neste trabalho propomos a utilização do modelo hurdle adaptado a esta realidade. Por fim, exibimos os resultados da comparação de nosso método a outro muito popular na literatura da área.

Palavras-Chave: Modelos Lineares Generalizados; RNA-Seq; Genética.

Título: Análise de agrupamento das espécies de foraminíferos do talude continental da Bahia

Autores: Ângela Cristina da Fonseca Mirante; João Domingos Scalon; Tânia Maria Fonseca Araújo; Helisângela Acris Borges de Araújo;Tânia Jussara Silva Santana

Resumo: Entre os principais grupos da microfauna marinha utilizados em estudos oceanográficos, os foraminíferos ocupam uma posição bastante significativa, por serem reconhecidos como excelentes indicadores ecológicos e paleoecológicos e, portanto muito utilizados em monitoramentos ambientais. Neste contexto, o presente trabalho teve como objetivo identificar as espécies de foraminíferos predominantes nos sedimentos do talude continental do litoral norte do Estado da Bahia, baseando-se nas similaridades entre o número de indivíduos de cada espécie (Frequência Absoluta) nas diferentes localizações (amostras). A metodologia consistiu na aplicação da técnica multivariada de agrupamento, métodos de Ward e k-Médias, em que foi definida a distância euclidiana ao quadrado como métrica de formação dos grupos. Utilizando o software R (R Development Core Team, 2013) foi obtido o dendrograma que possibilitou observar que o talude continental é caracterizado pela presença predominante das espécies Amphistegina lessonii, Cassidulina laevigata, Cibicides pseudoungerianus e Globigerinoide ruber.

Palavras-Chave: análise multivariada ; método Ward; método k-Médias; foraminíferos.

Título: Análise de correlação canônica no estudo de associação entre parâmetros de qualidade da água e condições climáticas

Autores: Sergio Augusto Rodrigues; Livia Paschoalino de Campos; Nilza Regina da Silva; Carlos Roberto Padovani

Resumo: Vários fatores podem contribuir para alterações de alguns parâmetros de monitoramento da qualidade da água potável, destacando-se, em especial, os climáticos tais como temperaturas mensais mínima, máxima e média, radiação solar global, precipitações pluviométricas médias mensais, número de dias chuvosos no mês, umidade relativa do ar, velocidade dos ventos e evaporação. O estudo do comportamento dessas características torna-se relevante para um melhor planejamento agrícola, utilização racional dos recursos hídricos e monitoramento da qualidade da água disponibilizada para a população. A presente pesquisa envolveu características físico-químicas e microbiológicas consideradas importantes para o monitoramento da qualidade da água, analisadas em amostras coletadas diariamente em pontos sorteados da rede de distribuição do município de Botucatu-SP, no período de 2007 a 2011. Entre as variáveis consideradas das características físico-químicas e microbiológicas da água foram analisadas as residuais de cloro, pH, turbidez, cor aparente, flúor, temperatura da água, ocorrência de coliformes totais e o número de unidades formadoras de colônias de

Page 4: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

4

bactérias heterotróficas. Considerando que a qualidade físico-química e microbiológica da água depende de alguma forma de características climáticas de uma região, um estudo sobre o comportamento dessas variáveis faz-se necessário pela sua importância para o uso racional da água potável e utilização dos recursos hídricos de forma sustentável. Para isso, utilizou-se a técnica de análise multivariada de dados, mais especificamente, a Análise de Correlação Canônica. Os resultados obtidos indicam uma correlação positiva entre a variável canônica formada pela combinação linear das variáveis climáticas e a variável canônica formada pela combinação linear das variáveis de qualidade da água, apontando um indicativo significativo da influência das condições climáticas nas características da água.

Palavras-Chave: Análise Multivariada; Variáveis climáticas; Qualidade da água; Recursos Hídricos.

Título: Análise de perfis em experimentos com medidas repetidas no tempo para sexo de ovinos

Autores: Alessandra dos Santos, Carlos Tadeu dos Santos Dias

Resumo: São muito comuns situações em que medidas repetidas avaliadas na parcela ao longo do tempo sejam analisadas como split-plot. No entanto, tal análise nem sempre é correta, visto que é esperado existir correlação das medidas temporais. Assim, técnicas que modelem essa estrutura de correlação devem ser aplicadas para fornecer uma análise mais precisa. Portanto, esta é a proposta deste trabalho, que analisou um experimento com dados de ovinos, machos e fêmeas, da raça Santa Inês, avaliando o peso (em Kg) durante 12 meses e verificando se havia diferença significativa no fator sexo e tempo. Para tal utilizou-se técnicas multivariadas, que levam em consideração a estrutura da matriz de variâncias e covariâncias, visto que o teste de esfericidade não foi satisfeito. Então com a análise de variância multivariada ou análise de perfil, detectou-se diferença significativa no fator sexo e tempo, indicando que os animais tem perfis médios não coincidentes e não horizontais, sendo indicado que os machos diferem das fêmeas atingindo pesos superiores.

Palavras-Chave: teste de esfericidade; análise de perfil; correlação.

Título: Associação entre as respostas de métodos adaptabilidade e estabilidade baseados em regressão

Autores: Regiane Teodoro do Amaral; Moysés Nascimento; Ana Carolina Campana Nascimento; Laís Mayara Azevedo Barroso

Resumo: O objetivo deste trabalho foi realizar um estudo da associação entre as respostas dos métodos de adaptabilidade e estabilidade de Eberhart e Russell (1966) e de Cruz et al., (1989) por meio da análise de correspondência simples. Para isso, foram utilizados dados advindos de um experimento em blocos casualizados com 2 repetições, provenientes da avaliação da produção de matéria seca de 92 cultivares de alfafa em 20 cortes, realizados no período de novembro de 2004 a junho de 2006. A técnica de análise de correspondência mostrou-se eficaz para o estudo da associação das respostas dos métodos de adaptabilidade e estabilidade. Para os dois métodos comparados, as categorias mais associadas foram desfavorável previsível (DP) e desfavorável imprevisível (DIC).

Palavras-Chave: Análise de correspondência simples; Eberhart & Russell (1966); melhoramento vegetal; Cruz, Torres e Vencovsky (1989); Alfafa.

Page 5: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

5

Título: Avaliação de híbridos de milho utilizando o modelo AMMI

Autores: Luciano Antonio de Oliveira; Alessandra Querino da Silva; Carlos Pereira da Silva; Joel Jorge Nuvunga; Andrezza Kellen Alves Pamplona

Resumo: Neste trabalho, aplicou-se o modelo de efeitos principais aditivos e interação multiplicativa (AMMI) para avaliar estabilidade e adaptabilidade em híbridos de milho referente a produtividade de espigas despalhadas. A partir dos resultados das análises foi possível identificar genótipos e ambientes que menos contribuem para a interação e ainda combinações positivas entre genótipos e ambientes, visando recomendações regionalizadas.

Palavras-Chave: Modelo AMMI; Biplot; Interação GE.

Título: Determinação genética na susceptibilidade para metritis em vacas Holstein dinamarquesas

Autores: Rodrigo Labouriau; Pedro Luiz Baldoni; Jørn Pedersen; Karina Elkjær

Resumo: Evidência da existência de mecanismos genéticos atuantes na susceptibilidade do desenvolvimento de metritis postpartum foi encontrada na população de vacas leiteiras participantes do programa de avaliação de saúde dinamarquês “NySR”. O trabalho desenvolvido por Labouriau et al. (2014) apresentou indícios da existência de mecanismos genéticos independentes envolvidos na determinação genética de susceptibilidade à metritis para a primeira parição e para as demais parições dos animais. Além disso, o referido trabalho também apresentou indícios da existência de mecanismos genéticos comuns em ambas as parições. Os padrões temporais de desenvolvimento de metritis sugerem que a recente seleção genética está, indiretamente, melhorando a resistência dos animais desta população em estudo para esta doença.

Palavras-Chave: Genética quantitativa; Modelos lineares generalizados; Inferência estatística.

Título: Estimativa do tamanho ótimo de parcelas para teste de germinação de sementes da espécie Ceiba speciosa

Autores: Alexandre Antônio; Carolina Juvelina Alves; Douglas Silva Oliveira; Denise Garcia de Santana; Quintiliano S. S. Nomelini

Resumo: Estudos envolvendo a determinação do tamanho ótimo de parcela são importantes no planejamento experimental e sua caracterização de forma otimizada permite a obtenção de maior precisão nesses resultados. No entanto esse tamanho não pode ser generalizado, pois deve considerar as características e especificidades de cada espécie, cultivar, local, variáveis a serem analisadas e métodos utilizados. Por esta razão, o objetivo do presente trabalho foi a utilização das metodologias: Método da Máxima Curvatura Modificado, Modelo de Regressão Linear com Platô, e Modelo de Regressão Quadrático com Platô, para a espécie Ceiba Speciosa, em 3 lotes de variabilidades distintas para a determinação de tamanho ótimo de parcela para esta espécie. Considerou-se ensaio em branco e condições ambientais idênticas de todas as unidades experimentais básicas (UEB), com instalação dos experimentos de acordo com a metodologia proposta como sendo a melhor para teste de germinação dessa espécie

Page 6: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

6

segundo Nomellini (2012). Verificou-se para esta espécie que os Modelos de Regressão (Linear e Platô) reduziram os tamanhos de parcela de forma drástica e prejudicial, sendo adequado para a mesma o Método da Máxima Curvatura Modificado, e reforçando a necessidade da utilização de mais de um método para a determinação dos tamanhos de parcela.

Palavras-Chave: Teste de Germinação; Tamanho Ótimo de Parcela; Ceiba Speciosa.

Título: Estudo sobre analise fatorial e análise de correspondência com os dados de consumidores de carne ovina nos municípios de Dourados/MS, Londrina/PR e Maringá/PR

Autores: Natalia Rife Nobrega

Resumo: Neste trabalho, o objetivo foi identificar conceitos como a preferências e satisfação de consumidores da carne ovina nos municípios de Dourados/MS, Londrina/PR e Maringá/PR. Na metodologia utilizaram-se técnicas estatísticas multivariada utilizando as informações obtidas a partir da aplicação de 80 questionários. Os resultados indicam que há potencial para o crescimento e melhor desenvolvimento da carne ovina na região.

Palavras-Chave: Ovinocultura; Multivariada; Consumidores.

Título: Funções Densidade de Probabilidade para Descrição da Distribuição Diamétrica de Povoamentos de Eucalyptus spp.

Autores: Ramon Lima dos Santos; Luiz Medeiros de Araújo Lima Filho; Ulisses Umbelino dos Anjos

Resumo: Objetivou-se neste trabalho avaliar Funções Densidade de Probabilidade no ajuste da distribuição diamétrica da espécie Eucalyptus spp. Os dados utilizados neste estudo provieram de experimento realizado no Módulo de Experimentação Florestal implantado na Estação Experimental do Instituto Agronômico de Pernambuco na Chapada do Araripe - PE. O experimento foi conduzido em um delineamento inteiramente casualizado, composto por 15 clones de Eucalyptus spp., totalizando 1189 árvores sobreviventes. Para avaliar a distribuição diamétrica de Eucalyptus spp foram ajustadas as seguintes distribuições de probabilidade: Gama, Gama Generalizada, Log-logística exponenciada geométrica tipo I, Hiperbólica, Beta, Weibull e Log-normal. Os ajustes foram avaliados através dos resultados do teste de bondade de ajuste de Kolmogorov-Smirnov (k-s). A função Log-logística exponenciada geométrica tipo I obteve o melhor ajuste de acordo com o teste k-s.

Palavras-Chave: Eucalyptus spp; distribuição diamétrica; distribuições de probabilidade.

Título: Identidade de modelos não lineares para comparação de curvas de crescimento de machos da raça Tabapuã

Autores: Antonio Policarpo Souza Carneiro; Elisabeth Regina de Toledo; Raphael Fernandes Soares Alves; Joel Augusto Muniz; Paulo Luiz Souza Carneiro; Carlos Henrique Mendes Malhado; Raimundo Martins Filho; Fabyano Fonseca e Silva

Resumo: O objetivo deste trabalho foi comparar curvas de crescimento de bovinos machos da raça Tabapuã de diferentes regiões de produção do Nordeste do Brasil,

Page 7: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

7

utilizando teste de identidade de modelos nãolineares. Foram analisados dados de peso de 3.695 machos da raça Tabapuã, originários de cinco regiões do Nordeste brasileiro: Maranhão, Gado Algodão, Mata Agreste, Sertão e ItapetingaValadares. Após ajuste do modelo Brody, foi aplicado o teste da razão de verossimilhança, com aproximação de qui-quadrado, para avaliar a igualdade de parâmetros de curvas de crescimento entre regiões do Nordeste. O modelo reduzido com igualdade da taxa de maturidade para algumas regiões, com 14 parâmetros, foi o mais adequado para descrever o crescimento dos animais. As curvas de crescimento têm taxas de maturidade comum aos grupos de regiões de produção: Gado Algodão e Mata Agreste, Maranhão e ItapetingaValadares, e Sertão. Não é adequada a utilização de uma única curva para descrever o crescimento de bovinos machos da raça Tabapuã nas cinco regiões de produção do Nordeste brasileiro.

Palavras-Chave: Modelo Brody; Nordeste brasileiro; regiões de produção; teste da razão de verossimilhança.

Título: Identificação de Espécies do Gênero Acestrorhynchus

Autores: Vanessa Soreira; Ronaldo Marcelino Gonçalves de Souza; Victor Fossaluza

Resumo: A classificação das espécies de peixes do gênero Acestrorhynchus atualmente é feita baseando-se somente na localização geográfica em que os peixes são encontrados. O objetivo desse trabalho é propor uma nova classificação baseada no exame de características morfológicas, a fim de determinar quantas e quais espécies podem ser reconhecidas, como diferenciá-las e, consequentemente, verificar se o método de classificação atual separa os indivíduos em grupos semelhantes ao grupos formados pela classificação que leva em conta fatores biológicos dos peixes. Para cumprir este objetivo, foi utilizada a análise hierárquica de agrupamentos pelo método de Ward \citep{Johnson:02, Mardia:80}, a fim de obter agrupamentos o mais heterogêneo possível entre eles, e o mais homogêneo possível dentro deles, de acordo com as a variáveis estudadas.

Palavras-Chave: análise multivariada; análise de agrupamento; análise de dependência; taxonomia; acestrorhynchus.

Título: Imputação de observações em experimentos genótipo ambiente utilizando a decomposição por valores singulares

Autores: Marisol García Peña; Sergio Arciniegas Alarcón; Carlos Tadeu dos Santos Dias

Resumo: Um problema comum em experimentos multiambientes são as combinações ausentes genótipo-ambiente. O objetivo desse trabalho é propor um novo algoritmo de imputação determinística a partir da modificação do método de validação cruzada de Gabriel. O método utiliza a decomposição por valores singulares (DVS) de uma matriz e foram testadas três alternativas com diferentes escolhas das componentes da DVS sobre um conjunto completo de dados reais, fazendo retiradas aleatórias. Para avaliar a qualidade das imputações foram utilizadas as correlações e o quadrado médio do desvio entre as estimativas e os dados experimentais verdadeiros. A metodologia proposta não precisa de pressuposições distribucionais, estruturais e não depende do mecanismo de ausência nos dados.

Palavras-Chave: Imputação; Interação Genótipo-Ambiente; DVS.

Page 8: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

8

Título: Modelagem da distribuição espacial de orifícios de forrageamento do cupim subterrâneo Syntermes spp. por processos pontuais

Autores: Alexandre dos Santos; Alexandre Arnhold; Ronald Zanetti

Resumo: Os cupins são considerados pragas iniciais da cultura do eucalipto e tem ganhado maior importância devido à expansão da cultura sobre áreas de pastagens. Para obter mapas de infestação e realizar manejo integrado deste inseto é necessário conhecer a sua distribuição espacial. O objetivo do presente trabalho foi determinar a distribuição espacial de orifícios de forrageamento de Syntermes spp. por processos pontuais em uma área de 0,48ha em uma pastagem, no município de Corinto, Minas Gerais. Nesta área, realizou-se a identificação e mapeamento de todos os orifícios de forrageamento no interior de amostras de 5m de raio, dentro de parcelas alternadas de 10x10m e 20x20m. A posição dos orifícios de forrageamento foi submetida à função K não homogênea de Ripley e uma análise de Monte Carlo com 999 simulações para estabelecer os envelopes superiores e inferiores de confiança (α=0.05). Posteriormente, os dados foram submetidos a ajuste pelo processo agregado de Matérn. O teste com a função K de Ripley demonstrou que o processo é aleatório e não homogêneo até 5m e pode ser modelado pela abordagem estatístico-espacial de processos pontuais. O ajuste do processo agregado de Matérn resultou que orifícios destes cupins possuem 0,2 orifícios de forrageamento pais/m2 que se distribuem de maneira aleatória na área, circundados por 7,95 orifícios filhos (μ) num raio de 3,14m (R).

Palavras-Chave: processos pontuais; agregado de Matérn ; manejo integrado de pragas.

Título: Modelo AMMI e AMMI ponderado na análise da Interação Genótipo x Ambiente em milho

Autores: Tatiana Oliveira Gonçalves de Assis; Carlos Tadeu dos Santos Dias; Paulo Canas Rodrigues

Resumo: Características genéticas de culturas agrícolas podem ser influenciadas pelo ambiente, interferindo na produtividade. Sendo assim, pesquisadores desenvolvem estudos que visam entender como ocorre a interação genótipo e ambiente (IGA) a fim de fornecer instrumentos que possam melhorar a produtividade. Neste trabalho utilizamos o modelo de efeitos principais aditivos e interação multiplicativa (AMMI) e uma generalização deste, que permite ter em consideração a heterogeneidade da variância do erro ao longo dos ambientes, o modelo AMMI ponderado, ou W-AMMI. Os resultados mostraram que a utlização do modelo W-AMMI permite confirmar algumas relações entre genótipos e ambientes, e evitar alguns erros de modelação para ambientes com variâncias do erro muito altas ou muito baixas. Além disso, o ambiente 3 se apresentou como o mais estável utilizando o modelo W-AMMI.

Palavras-Chave: modelo AMMI; modelo W-AMMI; ensaios multi-ambientais; decomposição em valores simgulares; interação entre genótipo e ambiente.

Título: Modelo de sobrevivência de Cox aplicado na seleção genômica ampla de suínos

Autores: Vinicius Silva dos Santos; Marcos Deon Vilela de Resende; Fabyano Fonseca e Silva; Sebastião Martins Filho; Elisabeth Regina de Toledo

Resumo: Este trabalho teve o objetivo de comparar as metodologias de seleção genômica via BLUP (GBLUP) usando o modelo linear misto normal e o modelo de

Page 9: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

9

sobrevivência de Cox, aplicados aos dados reais de idade ao abate de uma população F2 de suínos, em que a variável resposta foi o tempo em dias, do nascimento até o abate do animal e as covariáveis: 238 marcadores SNPs, sexo e lote de manejo. Os dados foram previamente corrigidos para seus efeitos fixos e a acurácia do método foi calculada com base na correlação dos postos dos valores genéticos genômicos preditos em ambos os modelos com os valores fenotípicos corrigidos. A análise foi repetida considerando menor número de marcadores SNPs que apresentassem maiores efeitos em módulo. Os resultados demonstraram concordância na predição dos valores genéticos genômicos e na estimação dos efeitos de marcadores para ambos os modelos na situação de dados não censurados e normalidade. A seleção de marcas permitiu um aumento nas correlações entre os postos dos valores genéticos genômicos preditos pelo modelo linear e pelo modelo de fragilidade de Cox com os valores fenotípicos corrigidos, sendo que para a característica analisada, 120 marcadores foram suficientes para maximizar a capacidade preditiva.

Palavras-Chave: fragilidade; dados censurados; modelos mistos; SNP.

Título: Modelos de Tucker3 em Biometria: analises de experimentos com três fatores

Autores: Lúcio Borges de Araújo; Mirian Fernandes Carvalho Araujo; Carlos Tadeu dos Santos Dias

Resumo: Os experimentos multi-ambientais (MET) são conduzidos através de vários locais para os principais produtos agrícolas no mundo, constituindo um passo caro mas essencial para a liberação de um novo genótipo de um produto agrícola e, consequentemente, a recomendação de cultivares. Considere a situação em que os METs são avaliados através de vários anos (ou seja, genótipos x locais x anos) (GLA), em que os dados podem ser organizados em arranjo de três entradas onde, neste caso, as entradas se referem a genótipos, locais ou anos. O presente trabalho tem como objetivo propor um estudo sistemático e interpretação de uma resposta variável em relação a três fatores, usando o modelo Tucker3, bem como o gráfico joint biplot. O método proposto parece eficiente e adequado para a separação de resposta padrão e de ruído contido num arranjo de três entradas, bem como permite a sua interpretação. O gráfico joint plot facilita o estudo e interpretação da estrutura de dados e fornece informações adicionais sobre estes. Em nossa aplicação o objetivo é identificar as combinações de genótipos, locais e anos que contribui ou não para um alto rendimento de cultivares de feijão.

Palavras-Chave: Multiway; componentes principais; joint biplot.

Título: Modelos de regressão para ajuste do acúmulo de massa seca de cultivar de feijoeiro

Autores: Augusto Ramalho de Morais; Laís Mesquita Silva; Guido Gustavo Humada Gonzalez; Messias José Bastos de Andrade; Neiva Maria Batista Vieira

Resumo: O objetivo desse trabalho foi modelar o crescimento da cultivar de feijoeiro Jalo por meio do acumulo de matéria seca, avaliado em diferentes épocas e densidades de plantio. O experimento foi conduzido no delineamento experimental em blocos casualizados, com três repetições, sendo os tratamentos dispostos em esquema fatorial, constituídos pelas combinações dos níveis dos fatores densidade de semeadura (75, 145,

Page 10: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

10

215, 285 e 355 mil plantas por hectare) e épocas de avaliação (13, 23, 33, 43, 53, 63 dias após emergência) por peso de matéria seca total (haste, flor, vagem e grão). Os dados foram submetidos à análise de variância, após a qual procedeu-se ao estudo das interações significativas por meio de análise de regressão utilizando-se vários modelos não lineares. Os modelos logístico com as parametrizações y=a/(1+b.exp(k.t)) e y=a+(b-a)/(1+exp(t-k)) apresentaram melhores critérios de qualidade de ajuste.

Palavras-Chave: curva de crescimento; modelo logístico; regressão não linear; massa seca. Título: Modelos lineares generalizados mistos aplicados a dados de equinos submetidos a anestesias e analgésicos

Autores: Maicon Vinícius Galdino; Liciana Vaz de Arruda Silveira; José Carlos de Figueiredo Pantoja

Resumo: O presente trabalho tem como objetivo principal comparar a proporção de um determinado tipo de comportamento animal (“olhar o flanco”) com relação a diferentes tratamentos e momentos. Os tratamentos utilizados foram: (1) animais anestesiados, (2) animais anestesiados com analgesia prévia, (3) animais anestesiados e submetidos à orquiectomia com analgesia pós-operatória e (4) animais anestesiados e submetidos à orquiectomia com analgesia prévia. Os momentos considerados foram: antes do procedimento cirúrgico ou anestésico, 4 horas após a recuperação anestésica e antes da administração de analgésicos nos animais do tratamento (3), duas horas após o momento 2 e 24 horas após a cirurgia. Para tal foi utilizado modelos lineares generalizados mistos e verificamos que as covariáveis consideradas no experimento foram significativas ao nível de 0,05.

Palavras-Chave: Anestesia; Analgésico; Modelos lineares generalizados mistos.

Título: Métodos multivariados na avaliação de imagens radiográficas de sementes

Autores: Isabel Cristina Costa Leite; Thelma Sáfadi; Maria Laene Moreira de Carvalho

Resumo: O uso de imagens de raios X de sementes é uma ferramenta importante na análise da qualidade de lotes de sementes. Neste trabalho foram processadas imagens de sementes de girassol (Helianthus annuus L.), radiografadas no Laboratório de Análise de Sementes do Departamento de Agricultura da Universidade Federal de Lavras. O estudo teve como objetivo aplicar a análise de componentes principais (PCA) e a análise de componentes independentes (ICA) na decomposição das imagens radiográficas de sementes de modo a se obter uma representação das imagens com dimensão reduzida. A análise discriminante foi usada para classificar as sementes segundo diferentes níveis de qualidade física, diferenciando sementes cheias de sementes com algum tipo de dano ou deformação. A classificação obteve um acerto global de 82% e diferenças mínimas entre o uso de PCA e ICA. Os resultados mostraram que a metodologia proposta pode contribuir para uma avaliação rápida e menos subjetiva de imagens radiográficas de sementes. Palavras-Chave: análise discriminante; ICA; imagens radiográficas de sementes; PCA; qualidade de sementes.

Page 11: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

11

Título: Métodos de adaptabilidade e estabilidade fenotípica na presença de erros assimétricos

Autores: Laís Mayara Azevedo Barroso; Moysés Nascimento; Ana Carolina Campana Nascimento; Regiane Teodoro do Amaral

Resumo: No melhoramento genético de plantas, quando o objetivo é selecionar ou recomendar cultivares para o plantio, o estudo da interação entre genótipo x ambiente não fornece informações pormenorizadas sobre o comportamento de cada cultivar diante das variações ambientais. Assim, análises de adaptabilidade e estabilidade são necessárias para a identificação e recomendação de materiais superiores em diferentes ambientes. A literatura apresenta diversos métodos com esse objetivo, porém não existem estudos sobre o comportamento de tais metodologias quando os valores fenotípicos apresentam comportamento assimétrico. Desta forma, este trabalho teve por objetivo avaliar duas metodologias baseadas em regressão para análise da adaptabilidade fenotípica. Especificamente, foram avaliados os métodos de Eberhart e Russell (1966) e regressão não paramétrica. Foram simulados valores fenotípicos com diferentes distribuições (simétrica, assimétricas à direita e à esquerda). Apesar da regressão não paramétrica utilizar para obtenção dos estimadores as medianas, a mesma não consegue tratar a presença de fenótipos assimétricos, sendo necessário estudos de metodologias que contemplem tal situação de maneira adequada.

Palavras-Chave: Regressão não paramétrica; Eberhart e Russell; simulação de dados.

Título: Nonlinear mixed modelling of soil water retention curves

Autores: Aline de Holanda Nunes Maia; Márcia Thaís de Melo Carvalho; Lammert Bastiaans; Pepijn Adrianus Johannes van Oort; Holger Meinke

Resumo: We present and discuss the use of nonlinear mixed (NLM) models to simulate soil water retention dynamics based on experimental data. Traditionally, such curve-fitting involved isolated and treatment-specific function fitting using fixed-effect nonlinear models. This has four main disadvantages: i) the experimental design is ignored; ii) comparison of SWRC between treatments via formal statistical tests is not possible due to the absence of an error structure that accounts for overall variance within treatments; iii) autocorrelation among random errors of moisture measurements in the same sample unit under different matric potentials is neglected, leading to incorrect quantification of model uncertainty; and vi) the soil-related spatial variability cannot be fully accounted for. Herein, we discuss advantages and limitations of the use of nonlinear mixed (NLM) model as an alternative to the usual isolated fitting. As an example, we present a study developed to investigate the effect of carbonised biomass (biochar) on the water retention capacity of a sandy soil in Nova Xavantina, Mato Grosso.

Palavras-Chave: nonlinear models; uncertainty assessment; soil water retention dynamics.

Título: Níveis de retorno de temperatura máxima via teoria de valores extremos para planejamento de produção do tomateiro

Autores: Guido Gustavo Humada-González; Gilberto Rodrigues Liska; Augusto Ramalho de Morais; Marcelo Ângelo Cirillo; Luiz Alberto Beijo; Líder Ayala Aguilera

Resumo: A temperatura do ar é de extrema importância para o crescimento,

Page 12: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

12

desenvolvimento e produtividade das culturas. Para qualquer espécie vegetal, o conhecimento da variação da temperatura ao longo do ano, no local em que a cultura é cultivada, mostra-se imprescindível para o sucesso de uma atividade agrícola.Como exemplo, o tomate é bastante sensível a temperaturas extremas, sendo que a cultura requer, durante o ciclo, temperaturas superiores a 10 ºC e inferiores a 35 ºC, e ainda, para cada fase do desenvolvimento requer uma faixa ótima de temperatura. Uma estratégia para a análise de eventos extremos é a teoria de valores extremos, que assume a distribuição Gumbel como adequada para eventos que envolvam máximos. Sendo assim, objetivou-se estimar os níveis máximos de temperatura do ar do município de San Lorenzo - Paraguai, utilizando a distribuição Gumbel. Os resultados apontam que a distribuição Gumbel foi ajustada com sucesso às séries quinzenais máximas do município referido, no período estudado, os menores níveis de retorno estimados compreendem o período do inverno e os maiores no período do verão. Considerando-se o mês de dezembro, em um tempo médio de 2 anos espera-se que ocorra pelo menos uma temperatura máxima superior a 37,7°C, já para um período maior à 10 anos esse valor é ainda maior, com provável ocorrência de temperatura máxima de 40,7°C. Baseado nos tempos de retorno estudado não é recomendado produzir tomate a campo aberto nos meses de setembro a março.

Palavras-Chave: Distribuição Gumbel; Solanum Lycopersicum; Temperatura.

Título: O uso do modelo logístico para descrever o índice de maturação da jabuticaba Sabará, segundo a incidência solar

Autores: Alessandra dos Santos,Simone Daniela Sartorio,Taciana Villela Savian, Luana Yoneda Coletti, Marcel Bellato Spósito

Resumo: Vários fenômenos reais, sejam eles físicos, químicos ou biológicos são melhor representados por modelos não lineares, pois seus parâmetros apresentam explicações biológicas, visto que na maioria das situações partem de equações diferenciais. Além disso, normalmente estes modelos apresentam menor número de parâmetros quanto comparados com modelos lineares. Neste trabalho, apresenta-se o ajuste de modelos logísticos na modelagem da relação existente entre o índice de maturação da jabuticaba Sabará com relação ao fatores luminosidade e dias após a antese. Dados provindos de 6 dias de colheitas, em 5 plantas com separacão de quadrantes (norte, sul, leste e oeste), conforme posicão do sol. Verificou-se que existe diferença significativa do quadrante sul quando comparado com os demais, apresentando menor maturação ao longo dos dias. Logo, conclui-se que a luz solar influencia na maturação dos frutos.

Palavras-Chave: Modelo logístico; coeficiente de predição; dependência espacial.

Título: Otimização na seleção entre famílias de cana-de-açúcar por meio do uso de redes neurais artificiais

Autores: Édimo Fernando Alves Moreira; Jaqueline Gonçalves Fernandes; Luiz Alexandre Peternelli; Ethel Fernandes de Oliveira Peternelli

Resumo: Um dos grandes desafios nos programas de melhoramento genético de cana-de-açúcar é a seleção eficiente de genótipos nas fases iniciais. Esse desafio advém da grande quantidade de genótipos avaliados e da dificuldade operacional da pesagem das

Page 13: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

13

parcelas do experimento, necessária nos principais métodos de seleção. O objetivo deste trabalho é utilizar modelos de redes neurais para seleção de famílias promissoras em cana-de-açúcar com base nos caracteres indiretos altura de colmos (AC), diâmetro de colmos (DC) e número de colmos (NC) – variáveis de entrada da rede – e o resultado do processo de seleção via TCHr (Tonelada de Cana por Hectare real), utilizada como variável de saída, e compará-los com a seleção de famílias acima da média geral para a variável tonelada de cana por hectare estimada (TCHe). A análise foi feita em dois diferentes cenários: com simulação e sem simulação. A rede neural usada neste trabalho foi uma rede de múltiplas camadas (Multilayer Perceptron - MLP) com uma camada intermediária entre a camada de entrada e a camada de saída. A seleção via TCHe foi feita selecionando as famílias que apresentaram TCHe acima da média geral fenotípica. Para comparação e avaliação dos métodos empregados foi utilizada a taxa de erro aparente (TEA) obtidas a partir da matriz de confusão. A modelagem via redes neurais, quando do uso da simulação para compor o conjunto de treinamento, fornece menor taxa de erro aparente quando comparada a estratégia usualmente utilizada, que é baseada na estimação da variável tonelada de cana por hectare. Modelos de redes neurais podem ser utilizados para seleção entre famílias de cana-de-açúcar, contornando assim o problema de pesagem no campo e otimizando o processo de seleção de famílias promissoras em cana-de-açúcar.

Palavras-Chave: Melhoramento vegetal; Saccharum spp; simulação.

Título: Predição de valores genéticos por meio de Redes Neurais Artificiais

Autores: Gabi Nunes Silva; Rafael Simões Tomaz; Vinícius Quintão Carneiro; Cosme Damião Cruz

Resumo: O trabalho foi realizado com o propósito de utilizar as redes neurais artificiais (RNA) como metodologia alternativa para predição de valores e ganhos genéticos. Em contraste com os métodos convencionais de seleção, o uso da inteligência artificial permite que o pesquisador agregue outras estatísticas, além da média fenotípica, ao processo de seleção. Para avaliar a eficiência da rede na predição, foram considerados cinco cenários simulados, com coeficiente de variação de 15%, média igual a 100 e herdabilidades de 40 %, 50%, 55%, 65% e 70%. Cada cenário consistiu em 100 genótipos. Na arquitetura de rede utilizada, adotou-se como entrada os valores das médias fenotípicas, máximo, mínimo, desvio padrão, coeficiente de variação, soma dos ranks, a estatística Pi e os valores codificados dos genótipos, e como saída desejada o valor genético verdadeiro. Para todos os cenários, a seleção por meio da RNA apresentou maior acurácia que a obtida via metodologias convencionais de seleção. Os resultados obtidos demonstram o grande potencial das Redes Neurais Artificiais como metodologia alternativa de predição nos programas de melhoramento. Demonstraram ainda que a utilização de dados simulados apresenta grande aplicabilidade quando se deseja gerar ou replicar informações representativas de um genótipo.

Palavras-Chave: Inteligência artificial; Seleção; Simulação.

Título: Regressão supervisionada via componentes principais aplicada a seleção genômica utilizando validação independente

Autores: Camila Ferreira Azevedo; Marcos Deon Vilela de Resende; Fabyano Fonseca e Silva; José Marcelo Soriano Viana; Magno Sávio Valente; Moyses Nascimento

Page 14: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

14

Resumo: A principal contribuição da genética molecular no melhoramento animal é a utilização direta das informações de DNA no processo de identificação de animais geneticamente superiores. Sob esse enfoque, a seleção genômica ampla (Genome Wide Selection – GWS), a qual consiste na análise de um grande número de marcadores SNPs (Single Nucleotide Polymorphisms) amplamente distribuídos no genoma, foi idealizada. A utilização dessas informações é um desafio, uma vez que o número de marcadores é muito maior que o número de animais genotipados (alta dimensionalidade) e tais marcadores são altamente correlacionados (multicolinearidade). No entanto, o sucesso da seleção genômica ampla deve–se a escolha de metodologias que contemplem essas adversidades. Diante do exposto, o presente trabalho teve por objetivo realizar um estudo para avaliar a regressão supervisionada via componentes principais quanto à eficiência na estimação dos valores genéticos genômicos utilizando dados simulados. Os resultados indicaram que a supervisão no método PCR traz uma eficiente melhoria à metodologia quanto à identificação de marcadores relevantes e quanto à predição de valores genéticos genômicos dos indivíduos.

Palavras-Chave: Métodos de Redução de dimensionalidade; Validação cruzada; Seleção genômica.

Título: Seleção de genótipos em testes multiambientais por métodos tradicionais e por inferência Bayesiana

Autores: Adhemar Sanches; Lina Maria Ramos Molina; José Miguel Cotes Torres

Resumo: Há vasta literatura em estudos de interação genótipo x ambientes em testes multiambientais envolvendo os conceitos de adaptabilidade e estabilidade na seleção de genótipos. Neste estudo são apresentados resultados da aplicação de dois métodos tradicionais quais sejam, de Eberhart e Russel (1966) e de Annicchiarico (1992), e de outro método com base na Inferência Bayesiana desenvolvido por Cotes (2004). Os resultados referem-se à avaliação de 12 genótipos de arroz cultivados sob condições de solos, com e sem inundação, visando a seleção de materiais com adaptação ampla ou específica. Os dados para as análises foram obtidos em oito experimentos conduzidos nos Estados de Meta, Tolima e Huila, localizados na região leste da Colômbia, durante os anos de 2005 e 2006. O principal objetivo deste trabalho foi mostrar o potencial da Inferência Bayesiana nas análises de testes multiambientais em estudos da interação genótipo x ambientes, considerando-se que nem sempre se tem experimentos balanceados, bem como as usuais suposições de normalidade e homocedasticidade dos dados. Palavras-Chave: testes multiambientais; seleção de genótipos; inferência Bayesiana.

Título: Transformações de Box-Cox e escores de Blom para correção da heterogeneidade de variâncias

Autores: Gislane Natália de Souza Miranda, Raphael Fernandes Soares Alves, Elisabeth Regina de Toledo, Antonio Policarpo Souza Carneiro, Gerson Rodrigues dos Santos, Carlos Henrique Mendes Malhado

Resumo: Estudos sobre crescimento tem mostrado que a variabilidade do peso aumenta em função da idade, fenômeno denominado inflação de variância. A heterogeneidade de variâncias quando ignorada pode ocasionar a redução da precisão dos valores genéticos preditos e a redução da resposta à seleção, o que resulta em classificação menos precisa

Page 15: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

15

dos animais, prejudicando a escolha de futuros reprodutores e, consequentemente, o progresso genético e a rentabilidade dos rebanhos comerciais. Uma alternativa que pode ser aplicada na correção de heterogeneidade de variâncias é a transformação dos dados. O objetivo deste trabalho foi avaliar o efeito da idade sobre a heterogeneidade de variâncias para peso de bovinos da raça Tabapuã, criados na região Nordeste, bem como avaliar a eficiência da transformação de dados para corrigir a heterogeneidade de variâncias. Foram utilizados dados da raça Tabapuã do Nordeste brasileiro, coletados a partir de 1970, provenientes do controle de desenvolvimento ponderal da Associação Brasileira de Criadores de Zebu, com informações relativas a pesos ajustados para 205, 365 e 550 dias de idade. Tanto as médias quanto as variâncias para peso aumentaram em função da idade, apresentando heterogeneidade de variâncias significativa (P <0,01), pelo teste de Bartlett. As transformações de Box-Cox e em escores de Blom foram efetivas na correção da heterogeneidade de variâncias fenotípicas entre idades para pesos de bovinos em algumas regiões de produção do Nordeste.

Palavras-Chave: Escores de Blom; Box-Cox; Inflação de variâncias; Tabapuã.

Título: Técnicas de Agrupamento por Otimização em Análise Estatística de Formas de Objetos (AEFO)

Autores: Assis, E. C.; Sousa, C. S.; Amaral, G. J. A.; Souza, R. M. C. R.

Resumo: A AEFO é uma área relativamente recente em estatística e caracterizase pelo tipo de dado estudado. Em AEFO o dado disponível para o pesquisador é a foto de um objeto e a análise estatística é feita em um espaço não euclidiano. Neste artigo, será introduzido um método de agrupamento por otimização, adequado para o contexto de AEFO. Os métodos de otimização em agrupamento já têm sido muito utilizados. Porém, no contexto de AEFO estes métodos precisam ser adaptados, o que produz uma metodologia específica para a AEFO.

Palavras-Chave: Formas; Agrupamento; Métodos de Otimização; Morfometria.

Título: Índice de Qualidade do Solo de Seis Variedades de Mandioca-Brava

Autores: Natália Cyntia Cordeiro de Souza; Tarcísio da Costa Lobato; Valcir João da Cunha Farias; Antônio Carlos da Silva Junior

Resumo: Este trabalho tem como principal objetivo aplicar a técnica multivariada análise fatorial com o método de componentes principais para apresentar um índice na qualidade do solo de seis variedades de mandioca em dois municípios do estado do Pará, utilizando as variáveis químicas do solo. Foram considerados os dados de um experimento em condições de campo, de agosto de 2011 a agosto de 2012, nos municípios de Castanhal e Igarapé-Açu no estado do Pará, com seis variedades de mandioca braba: Jurará Branca e Paulo Velho, Maranhense e Mari, Jurará Amarela e Ouro Preto, cada uma com três repetições. Portanto, o uso da técnica análise fatorial com o método de extração por componentes principais mostrou-se útil para comparar os municípios.

Palavras-Chave: Análise Fatorial; Componentes Principais; Variedades de Mandioca; Qualidade do Solo.

Page 16: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

16

Sessão: Estatística Aplicada em Ciências Médicas, Saúde e Meio Ambiente

Título: (In)Segurança Alimentar no Estado do Pará: Uma Aplicação de Regressão Logística

Autores: Gustavo Souza da Costa Rocha; Marinalva Cardoso Maciel

Resumo: Este trabalho tem como objetivo estudar os determinantes da insegurança alimentar no Estado do Pará via regressão logística binária. Para tanto, serão utilizados microdados da PNAD do Suplemento de Insegurança Alimentar do ano de 2009. Dentre os principais resultados, pode-se destacar que ainda continua preocupante os casos de insegurança alimentar grave no Estado do Pará, no ano de 2009. A análise de regressão logística permite explicar grande parte das variações observadas na probabilidade de insegurança alimentar e os resultados da modelagem mostraram que o Estado do Pará apresenta algumas peculiaridades quando comparada com a análise realizada para todo o Brasil e que o rendimento é um fator de suma importância na determinação da insegurança alimentar no Pará.

Palavras-Chave: Segurança Alimentar; Regressao Logística; Pará.

Título: Análise da incidência de incêndios sobre a flora brasileira ameaçada de extinção

Autores: Felipe Sodré M. Barros

Resumo: Segundo o Centro de Monitoramento de Conservação Ambiental, uma agência das Nações Unidas para o ambiente, o Brasil faz parte de um seleto grupo de países que abrigam a maioria das espécies da Terra e são, portanto, considerado internacionalmente como Megadiverso. Entretanto, nos dias atuais, há diversas espécies expostas à ameaças pouco conhecidas ou evidenciadas. Nesse sentido, o presente trabalho propõe o resgate de análises espaciais de processos pontuais para evidencia a incidência de incêndios sobre os registros de ocorrência da flora, como uma metodologia possível de ser usada na investigação do status de conservação de tais espécies. Portanto, realizou-se um estudo de caso analisando a incidência dos incêndios ocorridos nos anos de 2012 e 2013 sobre seis espécies já reconhecidas como em extinção: Alcantharea glaziouana, Banisteriopsis hatschbachii, Comanthera harleyi, Dyckia maritima, Micropholis splendens e Thryallis laburnum. Isto possibilitou inferir, de forma objetiva e documentável, que as espécies omanthera harleyi, Dyckia maritima e Thryallis laburnum tiveram incidência elevada de incêndios. Esta informação é elevante na formulação de planos de ação para reverter o quadro de tal ameaça sobre tais espécies.

Palavras-Chave: Flora brasileira ameaçada de extinção; Focos de incêndios florestais; Análise de processos pontuais; Função L.

Título: Análise fatorial em séries temporais de material particulado (MP10) aplicada no gerenciamento da qualidade do ar

Autores: Adriano Marcio Sgrancio; Valdério Anselmo Reisen; Edson Zambon Monte

Resumo: Este trabalho utiliza o modelo fatorial aplicado em series temporais de poluentes atmosféricos (PM10) correlacionadas no tempo para o gerenciamento da rede de monitoramento da qualidade do ar. A análise fatorial (AF) é uma técnica multivariada de ampla utilização em várias áreas do conhecimento para descrever a variabilidade dos

Page 17: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

17

dados. É amplamente utilizada em poluição atmosférica como modelo receptor para identificar as fontes de emissão de poluentes e no gerenciamento da qualidade do ar. A técnica de AF é limitada pela hipótese de independência dos dados. Restrição que não ocorre em muitas situações práticas de séries de poluentes autocorrelacionadas no tempo. Nesse contexto, o objetivo deste trabalho é investigar o efeito de diferentes estruturas de correlação do processo vetorial no modelo de AF. A forma de atenuar o efeito da correlação temporal é utilizar o modelo vetorial autoregressivo (VAR) e aplicar o modelo AF. Os resultados apresentados neste trabalho podem ser aplicados em outros estudos que envolvem os modelos de Componentes Principais (CP) e de AF.

Palavras-Chave: Análise fatorial; Séries temporais; Material particulado.

Título: Associação dos fatores ambientais da CIF e o acesso à reabilitação de idosos pós-ave no município de João Pessoa-PB

Autores: Ingrid Davis da Silva Gadelha ; Danyelle Farias de Nóbrega; Angely Caldas Gomes; Eleazar Marinho Freitas de Lucena; Kátia Suely Queiroz Silva Ribeiro; Robson da Fonseca Neves; Geraldo Eduardo Guedes de Brito

Resumo: Introdução: Mudanças ocorreram no panorama epidemiológico com ascensão das patologias crônico-degenerativas na população idosa. Dentre elas, destaca-se o Acidente Vascular Encefálico (AVE) por sua característica limitante culminando com restrições na funcionalidade provocadas ou potencializadas, dentre outras coisas, pelos fatores ambientais. Objetivo: Analisar a associação dos Fatores Ambientais conforme a Classificação Internacional de Funcionalidade, Incapacidade e Saúde (CIF) no acesso à reabilitação de idosos pós-AVE, na área de abrangência das Equipes de Saúde da Família do município de João Pessoa-PB. Material e métodos: Trata-se de um estudo transversal de base populacional, com 108 indivíduos de ambos os sexos; idade superior a 60 anos e diagnóstico de AVE no período de 2006 a 2011. As variáveis identificam os sujeitos da amostra, caracterizam o AVE clinicamente e indicam o acesso a reabilitação. Para a CIF elegeram-se domínios tomando como referência o Core set de AVE. Resultados: Verificou-se significância entre os Produtos e tecnologias usados em projetos, arquitetura e construção de edifícios de uso público e privado com o acesso dos usuários aos serviços de reabilitação. Conclusão: O estudo permitiu observar que, quando as estruturas físicas de prédios públicos e privados são produzidos adequadamente, podem estimular a independência e reduzir as incapacidades atendendo às necessidades saúde desta população.

Palavras-Chave: Classificação Internacional de Funcionalidade, Incapacidade e Saúde (CIF); Estruturas de Acesso; Acidente Vascular Encefálico.

Título: Análise da complexidade temporal da umidade relativa, velocidade do vento e temperatura do ar na cidade de Poço Redondo-SE

Autores: Diego Vicente de Souza Ferreira; José Rodrigo Santos Silva; Lázaro de Souto Araújo; Antonio Samuel Alves da Silva; Rômulo Simões Cezar Menezes

Resumo: O estudo da dinâmica dos fenômenos naturais fez com que grupos sociais superassem a condição de meros sujeitos às intempéries naturais e atingissem não somente a compreensão de funcionamento de alguns fenômenos, mas também a condição de utilitários e de manipuladores dos mesmos. Desta forma, a fim de compreender a evolução da complexidade temporal ao longo do tempo, neste trabalho

Page 18: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

18

aplicamos o método Sample Entropy (SampEn) para analisar a entropia em séries temporais da temperatura do ar, umidade relativa e velocidade da vento, registradas na estação meteorológica do INPE (Instituto Nacional Brasileiro de Pesquisas Espaciais) em Poço Redondo-SE, Brasil no período de 2005 a 2012. Os valores da entropia observados para a velocidade do vento foram predominantemente maiores que os observados para as demais variáveis. Por sua vez a umidade relativa foi a série menos irregular dentre aquelas estudadas. Ao observarmos a evolução desta estatística no tempo, notamos que as séries são estacionárias, indicando que a variabilidade destas séries não foi alterada, ao longo do período em estudo.

Palavras-Chave: Entropia; Séries temporais; Fatores climáticos.

Título: Análise de dados antropométricos de pessoas da terceira idade do município de Bagé/RS utilizando o software R

Autores: Guilherme Goergen; Alessandra Dutra Brignol

Resumo: O objetivo deste trabalho é calcular índices estatísticos utilizando o software R a partir de dados antropométricos de pessoas da terceira idade com a finalidade de aumentar o período produtivo e melhorar a qualidade de vida dos idosos possibilitando a produção de produtos direcionados e adequados a este público. Para isso, foram coletadas amostras de características físicas antropométricas de 60 idosos frequentadores do Centro do Idoso, localizado na cidade de Bagé, RS. Diante dos resultados obtidos através desta pesquisa, percebem-se relevantes experiências e observações acerca do envelhecimento humano além da importância da criação deste banco de dados antropométricos para a produção de produtos direcionados para a terceira idade, possibilitando uma melhor qualidade de vida da pessoa idosa. Palavras-Chave: idosos; ergonomia; estatísticas; IMC.

Título: Análise de padrões de esquistossomose no Estado do Espírito Santo em 2010

Autores: Higor Henrique Aranda Cotta; Adelmo Inácio Bertolde; Wharley Borges Ferreira; Geraldo Antônio da Silva

Resumo: A esquistossomose ainda é uma doença endêmica no Brasil, onde o Espírito Santo é um dos Estados que apresenta os maiores índices dessa doença. Este trabalho apresenta estudo ecológico com enfoque na análise espacial onde foram avaliados fatores que provavelmente estão associados à esquistossomose. Também, é apresentada uma comparação de alguns modelos completamente bayesianos para estimação do risco de esquistossomose no Espírito Santo no ano de 2010. Os dados foram obtidos do cruzamento das bases de dados do Programa de Controle da Esquistossomose (PCE) e do Sistema de Informação de Agravos de Notificação (SINAN). A distribuição espacial da esquistossomose no Estado não é uniforme. Por meio do mapeamento dos riscos estimados pelo método Completamente Bayesiano, foi possível perceber um ganho considerável na interpretação dos casos de esquistossomose.

Palavras-Chave: Esquistossomose ; Modelo Hierárquico; epidemiologia espacial; Modelo Completamente Bayesiano.

Page 19: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

19

Título: Análise do comportamento da velocidade do vento na região Nordeste do Brasil utilizando dados da ERA-40

Autores: Lêda Valéria Ramos Santana; Luiz Henrique Gama Dore de Araújo; Antonio Samuel Alves da Silva; Cláudia Helena Dezotti

Resumo: O NE possui grande potencial eólico e é caracterizado por quatro sub-regiões (Meio Norte, Sertão, Agreste e Zona da Mata) com características distintas e que afetam no comportamento da velocidade dos ventos. Para avaliar qual distribuição de probabilidade é mais adequada para descrever a variabilidade da velocidade do vento no NE foram utilizados 72 estações da re-análise ERA 40 e testada a aderência destas às distribuições Weibull, Gama Generalizada e Rayleigh. Dentre as distribuições testadas a distribuição Weibull foi a que se ajustou a um maior número de estações assim como melhor representou de forma espacial a estatística p-valor a um nível de 95% de confiança. Ainda para esta distribuição é mostrado o comportamento espacial para os parâmetros de forma e escala estimados pelo método de máxima verossimilhança.

Palavras-Chave: distribuição; re-análise; orografia.

Título: Análise e Correspondência Múltipla na Avaliação dos Padrões de Comportamento dos participantes do Estudo Longitudinal de Saúde do Adulto (ELSA)

Autores: Daiane Martins Grugel; Larissa de Eletério Lima; Marília de Sá Carvalho; Aline Araújo Nobre; Jony Arrais Pinto Junior; Enirtes Caetano Prates Melo

Resumo: O Estudo Longitudinal de Saúde do Adulto (ELSA-Brasil) é um estudo de coorte multicêntrico e multidisciplinar com a participação de 15.105 funcionários efetivos de seis instituições públicas de pesquisa e ensino superior, que objetiva investigar a incidência e os fatores de risco para doenças crônicas, principalmente as cardiovasculares e o diabetes. O objetivo deste projeto é conhecer o perfil da população dos participantes do projeto ELSA, identificar as relações entre os fatores de risco para doenças crônicas, principalmente as cardiovasculares e o diabetes. Utilizamos como técnica a Análise de Correspondência Múltipla que surge como uma técnica exploratória para a avaliação de variáveis categóricas que converge a matriz de dados em um tipo particular de gráfico. Esta técnica busca detectar grupos de variáveis (ou de indivíduos) mais correlacionados e encontrar os fatores que descrevam a estrutura dos dados de forma a sintetizar as informações. O questionário aplicado aos participantes do projeto ELSA possuía diversas perguntas sobre hábitos alimentares, características sócio-demográficas, história médica, exposição ocupacional, entre outras. Entretanto, o conjunto de variáveis foi subdividido em blocos. O primeiro bloco analisado foi o de características comportamentais dos entrevistados. Esse bloco era composto por questões como a prática de atividade física, hábito de fumar e beber, e hábitos alimentares (consumo de frutas, verduras e legumes). Os resultados que se seguem são referentes ao bloco de características comportamentais. A exposição a fatores de risco comportamentais, como tabagismo, consumo de álcool, alimentação inadequada e sedentarismo, frequentemente se inicia na adolescência e se consolida na vida adulta. Tais fatores aumentam o risco de desenvolvimento da maioria das doenças crônicas não transmissíveis, como as cardiovasculares, diabetes e câncer, principais causas de morbimortalidade na vida adulta. Com base nessas informações, procurou-se entender e conhecer cada variável e o conjunto delas nessa coorte. Foram identificados quatro perfis extremos: 1)pessoas que não fumam, não bebem ou bebem pouco. 2) pessoas que fazem atividade física, são ex fumantes, têm consumo alto ou diário de frutas, verduras e hortaliças e bebem

Page 20: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

20

moderadamente; 3) fumantes e bebedores excessivos; 4) não praticam atividade física e têm consumo semanal ou raro de frutas, verduras e hortaliças. Além disso, foi possível visualizar a quantidade de indivíduos dessa coorte presente em cada perfil. Apoio: CNPq

Palavras-Chave: Análise de Correspondência Múltilpla; Doenças Crônicas; ELSA; Saúde do Adulto no Brasil; Padrões de Comportamento.

Título: Análise espacial e espaço-temporal da dinâmica do mosquito Aedes aegypti via modelos aditivamente estruturados e inferência bayesiana aproximada

Autores: Taynãna César Simões; Claudia Torres Codeço; Aline Araújo Nobre; Álvaro Eiras

Resumo: A heterogeneidade espaço-temporal da incidência da dengue reflete a com- plexidade de fatores de risco envolvidos na transmissão, e em particular, na dinâmica do vetor Aedes aegypti. O entendimento de padrões espacial e/ou temporal da abundância do mosquito pode contribuir de forma significativa para a elaboração de ações que busquem evitar a prolife- ração do vetor, através de campanhas direcionadas para as áreas de maior infestação, bem como priorizar épocas do ano em que a abundância seja diferencial. Métodos e Resultados: Índices de abundância foram obtidos de armadilhas de captura de Ae. aegypti grávidas, monitoradas ao longo de 90 semanas, no município de Governador Vala- dares (MG). Covariáveis climáticas, demográficas, socioambientais, e índices larvários foram considerados. Como ferramentas analíticas, foram utilizados modelos lineares generalizados, modelos lineares generalizados mistos, e modelos hierárquicos bayesianos, incorporando estru- turas de correlação espaciais e espaço-temporais . A inferência sobre os parâmetros foi feita de forma aproximada pelo método determinístico INLA (Integrated Nested Laplace Approximati- ons).O modelo de efeitos aleatórios com melhor ajuste incorporou apenas o efeito espacialmente estruturado da localização das armadilhas. O modelo com covariáveis considerou a distância do local da armadilha até à margem do rio Doce; abundância de mosquitos Culex e Ae. albopictus fêmeas na armadilha; altitude do local que a armadilha foi implantada em relação ao nível do mar; índices larvários em recipientes tais como vasos e pratos de plantas com água, garrafas retornáveis, materiais de construção, calhas, ralos, piscinas não-tratadas, e de água elevados e ligados à rede de abastecimento; densidade populacional e de pessoas por domicílio nos es- tratos. O modelo espaço-tempo de melhor significância prática incorporou os quatro efeitos aleatórios principais, o termo de interação entre espaço estruturado e tempo não estruturado,além das covariáveis abundância de Culex e Ae. albopictus; densidade populacional e pessoas por domicílio; densidade larvária em revervatórios móveis, tais como vasos e pratos de plan- tas com água (IT R(B)); interação entre pessoas por domicílio e IT R(B); umidade (lag2) e a abundância de Ae. aegypti na semana precedente. Conclusão: Foi possível caracterizar a distribuição da abundância do Ae. aegypti fêmea adulta, através de termos aleatórios estruturados e não estruturados no espaço e tempo, e atra- vés de covariáveis socioambientais, demográficas, climáticas e entomológicas. Os dados não mostraram a presença de conglomerados, sugerindo ações focais em domicílios com alta infestação.

Palavras-Chave: Modelos espaço-temporais; Aedes aegypti; INLA.

Page 21: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

21

Título: Análise espacial e modelagem ZIP aplicadas aos dados de tuberculose de Vitória-ES

Autores: Adelmo I. Bertolde; Carolina M. M. Sales; Gabriela F. Nunes; Bárbara Dias; Ethel N. Maciel

Resumo: Realizou-se neste trabalho uma análise espacial e ajuste de modelo Poisson com correção para excesso de zeros (ZIP) em 588 casos de tuberculose no município de Vitória-ES, entre 2009 a 2011, por setor censitário. Os dados referentes à doença foram obtidos junto a Secretaria de Vigilância em Saúde do Ministério da Saúde do Brasil (SVS/MS) e a base cartográfica e populacional foi obtida do Censo 2010 do IBGE. O mapa de incidência obtido a partir do estimador empirical Bayes local se apresentou como melhor alternativa ao mapa das taxas brutas, por apresentar menor flutuação aleatória, indicando assim áreas prioritárias melhor definidas. O ajuste do modelo ZIP, apesar de o baixo poder explicativo, resultou em que as variáveis alfabetismo e renda apresentaram efeito estatístico significativo para a explicação da ocorrência de tuberculose e na probabilidade de ocorrência de falsos zeros, respectivamente. Ficou evidente que a distribuição espacial dos casos de tuberculose no município de Vitória não é homogênea e que, portanto, os resultados deste trabalho podem ser úteis na tomada de decisão que visem ao tratamento adequado para os doentes a fim de quebrar a cadeia de transmissão da doença.

Palavras-Chave: Tuberculose; Modelo ZIP; Análise Espacial.

Título: Análise multifractal das correlações cruzadas entre séries temporais de precipitação e vazão

Autores: Evelyn Souza Chagas; Bárbara Camboim Lopes de Figueirêdo; Profº. Dr. Wilson Rosa de Oliveira Junior

Resumo: Sistemas hídricos são compostos por vários componentes (precipitação, o escoamento, a evaporação, a transpiração, a infiltração, etc) e exibem um comportamento não linear, com todos os componentes individuais exibindo um comportamento não linear também. Apesar da não linearidade dos processos hidrológicos ter sido reconhecida por muitos anos, o desenvolvimento recente do poder computacional e tecnologias de aquisição de dados proporcionam ferramentas poderosas para avaliar os métodos existentes e desenvolver novas técnicas mais eficientes para estudar a variabilidade espacial e temporal e a complexidade desses fenômenos. Considerando-se que a precipitação é o fator natural que mais influencia o regime de fluxo de vazão, neste trabalho estuda-se a relação não linear entre os componentes do sistema hidrológico, através da análise de correlações multifractais de séries temporais individuais de precipitação e vazão, assim como correlações cruzadas entre os dois processos. Para isto, são aplicados os métodos Multifractal Detrended Fluctuation Analysis (MF-DFA) e Multifractal Detrended Cross-Correlation Analysis (MF-DXA) em séries temporais diárias de precipitação e vazão registradas na Bacia Piracicaba, a qual está localizada no estado de São Paulo, Brasil. Os resultados mostram que séries temporais da precipitação e vazão possuem correlações e correlações cruzadas multifractais indicadas pelo comportamento das medidas multifractais: expoente de Hurst generalizado, expoente de Rényi e espectro multifractal. O espectro multifractal obtido pela análise de correlação cruzada (MF-DXA) é semelhante ao espectro multifractal da precipitação. Esta diferença poderia ser relacionada ao uso da terra e o tipo de solo que afeta o processo de evaporatranspiração, e consequentemente todo o ciclo hidrológico da bacia.

Palavras-Chave: Multifractalidade; Correlação de longo alcance; Correlação cruzada.

Page 22: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

22

Título: Avaliação da precipitação diária do estado de Sergipe utilizando análise de lacunaridade

Autores: Leandro Ricardo Rodrigues de Lucena; Tatijana Stosic

Resumo: A precipitação pluviométrica diária do estado de Sergipe foi avaliada em 19 estações meteorológicas no período de 01 de janeiro de 2006 a 31 de julho de 2012 utilizando a análise de lacunaridade considerando os limiares de 0, 5 e 10 mm de precipitação. Observou-se que para pequenos espaços de tempo os valores de lacunaridade apresentaram maiores valores do que em relação a períodos de avaliação mais longos independente do limiar adotado. Através do expoente β de lacunaridade e utilizando a análise de k-means foram encontrados dois grupos de estações meteorológicas, um grupo com as estações litorâneas e outro grupo formado pelas estações do sertão do estado.

Palavras-Chave: Precipitação; Lacunaridade; Sergipe.

Título: Correlações de longo alcance em s�éries temporais da velocidade do vento em Pernambuco via análise multifractal

Autores: Barbara Camboim Lopes de Figueirêdo; Evelyn Souza Chagas; Guilherme Rocha Moreira

Resumo: Neste trabalho estudaram-se correlações de longo alcance das séries temporais de velocidade do vento registradas em 12 estações meteorológicas durante o período de 2008 a 2011 no estado de Pernambuco aplicando-se o método Multifractal Detrended Fluctuation Analysis (MF-DFA) nas séries temporais horárias. Todas as séries analisadas mostraram as propriedades multifractais. Foram calculadas medidas multifractais, o expoente de Hurst, o expoente de Renyi e o espectro multifractal. Para todas estações as larguras do espectro multifractal foram maiores para a rajada que para a velocidade, indicando uma multifractalidade mais forte. Estes resultados contribuem para uma melhor compreensão da natureza dos processos estocásticos geradores da dinâmica do vento, necessária para o desenvolvimento de modelos confiáveis para predição da variabilidade temporal do vento e dos diversos fenômenos influenciados pelo mesmo.

Palavras-Chave: vento; série temporal; multifractalidade.

Título: Definição de escore para avaliação da qualidade das areias das praias

Autores: Antonio de Castro Bruni, Karla Cristiane Pinto, Claudia Conde Lamparelli

Resumo: No presente estudo foram considerados os dados da qualidade microbiológica das areias de 18 praias do litoral paulista de 2011 a 2013. Em 2011 os meses monitorados foram Janeiro e Fevereiro, já em 2012 e 2013 o período foi estendido até a primeira semana de Abril. As praias avaliadas em 2013 foram: Prumirim, Tenório e Grande em Ubatuba, Indaiá e Martim de Sá em Caraguatatuba, Baraqueçaba e Maresias em São Sebastião, Sino em Ilhabela, Enseada em Bertioga, Pitangueiras e Enseada em Guarujá, Boqueirão em Santos, Gonzaguinha em São Vicente, Boqueirão e Vila Mirim em Praia Grande, Central em Mongaguá, Sonho em Itanhaém e São João Batista em Peruíbe. Os indicadores de contaminação fecal monitorados foram coliformes termotolerantes (CTt) e os enterococos. Esses dois parâmetros foram empregados conjuntamente para qualificar

Page 23: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

23

as areias secas das praias. Um Modelo Linear Geral Multivariado (MLGM) foi ajustado visando quantificar a importância dos fatores: mês, praia e anos. Com essa abordagem podemos corrigir médias para acessar os efeitos isolados do mês, do ano e das praias. A aplicação da técnica multivariada de Cluster Hierárquico indicou a existência de três grupos que refletiam a densidade dos indicadores de contaminação fecal nas amostras de areia. Um escore padronizado, baseado no grau de contaminação das areias pelos dois indicadores, foi criado e aplicado aos dados possibilitando, através dele, criar um ranking da qualidade das areias das praias paulistas. A praia melhor qualificada foi Prumirim e a pior foi Tenório, ambas situadas em Ubatuba. As praias com piores qualidades da areia foram: Tenório (Ubatuba), Pitangueiras (Guarujá), Grande (Ubatuba) e Boqueirão (Santos). Aquelas que apresentaram as melhores qualidades da areia foram: Prumirim (Ubatuba), Indaiá (Caraguatatuba), Sonho (Itanhaém), Martim de Sá (Caraguatatuba), Baraqueçaba (São Sebastião) e Sino (Ilhabela). O mês de Janeiro, devido ao grande afluxo de turistas, apresentou resultados diferenciados em relação aos demais meses, sendo o pior deles em termo de contaminação por coliformes termotolerantes. Esse comportamento não se repete com os enterococos quem mantém um mesmo nível no verão. Os dados de 2013 indicaram uma piora nas condições das areias das praias monitoradas em relação aos anos anteriores.

Palavras-Chave: Qualidade da areia; Praias Paulistas; Coliformes termotolerantes; Enterococos; Escore de qualidade.

Título: Estabilidade em análise de agrupamento via reamostagem “bootstrap”

Autores: Mácio Augusto de Albuquerque; Joseilme Fernandes; Pablo Lourenço Ribeiro de Almeida; Edwirde Luiz Silva

Resumo: Objetivou-se propor uma sistemática para o estudo e a interpretação da estabilidade dos métodos em análise de agrupamento, através de vários algoritmos de agrupamento em dados de vegetação. Utilizou-se dados provenientes de um levantamento na Mata da Silvicultura, da Universidade Federal de Viçosa-MG. Para análise de agrupamento foram estimadas as matrizes de distância de Mahalanobis com base nos dados originais e via reamostragem “bootstrap” e aplicados os métodos da ligação simples, ligação completa, médias das distâncias, e do Ward. A Para a detecção de associação entre os métodos foi aplicado o teste qui-quadrado a 1 e 5% de probabilidade. Para os diversos métodos de agrupamento foi obtida a correlação cofenética. Os resultados de associação dos métodos foram semelhantes, indicando em princípio que qualquer algoritmo de agrupamento estudado está estabilizado e existem, de fato, grupos entre os indivíduos observados. No entanto, observou-se que os métodos são coincidentes, com base nas matrizes de Mahalanobis a partir dos dados originais e “bootstrap”. A sistemática proposta é promissora para o estudo e a interpretação da estabilidade dos métodos de análise de agrupamento em dados de vegetação.

Palavras-Chave: análise multivariada; bootstrap; hierárquicos aglomerativos.

Título: Estimativas decorrentes da regressão linear de estudo epidemiológico: o impacto da correção pelo efeito de desenho

Autores: Luma Fabiane Almeida; Andréa Maria Eleutério de Barros Lima Martins; Marise Fagundes Silveira; Alfredo Maurício Batista de Paula; Fernanda de Oliveira Ferreira; Efigênia Ferreira e Ferreira; Desirée Sant' Ana Haikal

Page 24: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

24

Resumo: Avaliou-se o impacto da correção pelo efeito de desenho nas estimativas decorrentes de uma amostra por conglomerados de estudo epidemiológico em saúde bucal conduzido entre 780 adultos (35-44 anos). Foram apresentadas estimativas não corrigidas e corrigidas pelo desenho amostral, as diferenças relativas entre amplitude dos intervalos de confiança (IC-95%), erro padrão (EP) e coeficientes de regressões linear (β). Apresentou-se ainda o Efeito do Desenho (Deff) e os valores p. A variável dependente referiu-se ao número de perdas dentárias por cárie. Houve diferença de até 119% no β da regressão linear. Houve divergência quanto à associação de uma variável na regressão linear múltipla. Desconsiderar o desenho amostral nas análises resultou em subestimação da variabilidade aferida pelo maior erro padrão. Com isso, as estimativas corrigidas apresentam-se mais imprecisas. Recomenda-se a correção pelo efeito do desenho e a apresentação dos valores de Deff nas análises decorrentes de amostras por conglomerados em estudos epidemiológicos em saúde bucal.

Palavras-Chave: Amostragem; Efeito de Desenho; Regressão Linear; Saúde Bucal; Análise por Conglomerados.

Título: Effectiveness and Cost-Effectiveness of Cytosponge Screening for Barrett's Esophagus

Autores: Tatiana Benaglia; Linda D. Sharples; Rebecca C. Fitzgerald; Georgios Lyratzopoulos

Resumo: Barrett’s esophagus is a condition which reflects an abnormal change in the cells of the lower portion of the esophagus. It is most diagnosed in people with long-term gastroesophageal reflux disease (GERD) and it increases the risk of developing esophageal adenocarcinoma, a highly lethal cancer. Diagnosis of Barrett’s requires endoscopy followed by biopsy. If precancerous cells are found through surveillance, they can be treated. Therefore, early detection of Barrett’s esophagus could enable appropriate treatment to prevent oesophageal adenocarcinoma. However, endoscopy is an invasive and relatively expensive procedure requiring medical expertise and specialist facilities. A new non-endoscopic device, called the Cytosponge, shows to be minimally invasive and a potencial screening method for Barrett’s. It could be used in general practice or an outpatient clinic. In this sense, we propose a model to evaluate its potential population health impact and its cost-effectiveness in the context of the UK health system guidelines. We developed a model that comprises a decision tree (for screening strategies) followed by a Semi-Markov model (for management strategies) and uses microsimulation to track cohorts of 50 years old men followed up to age 99 or intervening death. Here we show that the Cytosponge screening is cost-effective compared to endoscopic screening in different scenarios. We estimated that screening by cytosponge would reduce the number of cases of incident esophageal adenocarcinoma by 19%, compared with 17% for screening by endoscopy. The model encompasses the natural history of the disease, screening method, uptake rate, treatment strategy, post treatment status, and surveillance. Surveillance is a crucial feature when performing a cost-effectiveness analysis due to its periodicity and high cost. However, no other model used before was able to include it. The model inputs are prevalence of Barrett’s oesophagus, accuracy of the screening, progression/regression rates between Barrett’s oesophagus sub-types, and mortality. The findings strongly suggest that use of Cytosponge can have wide-ranging benefits in helping preventing esophageal adenocarcinoma deaths.

Palavras-Chave: Cost-Effectiveness; Microsimulation; Esophageal Cancer; Barrett's Esophagus; Sensitivity Analysis.

Page 25: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

25

Título: Estudo do comportamento probabilístico espacial para a amplitude térmica no Nordeste brasileiro

Autores: Antonio Samuel Alves da Silva; José Rodrigo Santos Silva; Lêda Valéria Ramos Santana; Rômulo Simões Cezar Menezes

Resumo: Foram analisadas séries diárias (discriminadas mensalmente) de amplitude térmica para 94 estações distribuídas na região Nordeste (NE) do Brasil disponível pelo Instituto Nacional de Meteorologia (INMET) com o intuito de verificar quais dentre as distribuições, Weibull, Beta, Normal, Log-Normal, Gama e Gumbel, obtiveram melhor aderência aos dados. Por meio do teste de Kolmogorv-Smirnov obtivemos os p-valores para diferentes níveis de significância (1,5,10 e 20%) e concluímos que a distribuição Weibull se ajustou a um maior número de estações para o mês de janeiro, enquanto a distribuição Beta foi a que melhor se ajustou aos demais meses. Também é analisado espacialmente, sobre uma escala de p-valores e a níveis de significância de 1,5,10 e 20%, a forma como se molda a distribuição Weibull para o mês de janeiro e Beta para os meses restantes.

Palavras-Chave: Temperatura; Modelos Probabilísticos; IDW.

Título: Fatores Associados aos Casos Notificados e Confirmados de Câncer de Mama no Município de Belém/PA

Autores: Débora Fernanda Castro Vianna Oliveira; Adelaine Brandão Soares; Silvia dos Santos de Almeida

Resumo: O objetivo deste trabalho é analisar estatisticamente os casos notificados de Câncer de Mama no município de Belém/ PA, no período de janeiro de 2011 a Dezembro de 2013. Os dados são referentes às notificações confirmadas desta patologia maligna, onde neles foram aplicados a Análise Exploratória dos Dados e a Análise de Correspondência. Dentre os principais resultados, pode-se destacar que a maior parte dos pacientes notificados com câncer de mama na cidade de Belém do Pará, é solteiro (38,68%) e possui o ensino médio completo (34,67%). Destaca-se também que a maioria dos pacientes teve o caráter da doença eletiva (64,76%) e tipo de alta por iniciativa médica (84,24%). Os pacientes viúvos diagnosticados com câncer de mama estão associados com a faixa etária de 66 a 76 anos, ao nível de confiança de 99,98%. Assim, como os pacientes alfabetizados que também possuem idade de 66 a 76 anos aos níveis de confiança de 99,99%. Em relação ao tipo de alta e ao caráter da doença, verifica-se que os pacientes diagnosticados com câncer de mama que evoluíram a óbito estão associados ao caráter da doença urgente, com nível de confiança de 100,00%.

Palavras-Chave: Câncer de Mama; Patologia Maligna; Doença Eletiva.

Título: Fatores Associados à Hemorragia Peri-intraventricular

Autores: Bethânia Oliveira de Brito; Andréa Januário da Silva; Jaqueline da Silva Frônio; Luiz Cláudio Ribeiro

Resumo: A morbidade infantil no Brasil não tem se alterado, mantendo-se constante nos últimos anos mesmo com os avanços tecnológicos na saúde, que tem o importante papel de redução da mortalidade infantil, principalmente nas Unidades de Terapia Intensiva Neonatal (UTIN). A Hemorragia Peri-intraventricular (HPIV) é uma das principais lesões que acometem os recém-nascidos (RN) destacando-se aqueles com muito baixo peso

Page 26: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

26

aproximadamente 50% dos casos ocorrem nas primeiras 24 horas de vida. Os RN pré-termos possuem mecanismos metabólico, químico e neuronal complexo muito deficientes, o que pode explicar o maior risco de HPIV, pois o fluxo sanguíneo envolve esses mecanismos. Existem muitos fatores de risco que podem levar os recém-nascidos a apresentarem a hemorragia, tais como: maternos, obstétricos, perinatais, e fatores particulares dos recém-nascidos. As consequências da hemorragia peri-intraventricular podem ser muito agressivas, principalmente quando o diagnóstico é feito tardiamente. Algumas de suas consequências são as paralisias cerebrais e o retardo mental. As principais alterações neurológicas são as motoras. O objetivo deste trabalho consiste em verificar se hemorragia Peri-intraventricular está associada às principais intercorrências e intervenções encontradas nos períodos pré, peri, neo e pós-neonatal nos usuários de UTIN que são assistidos pelo SUS, no município de Juiz de Fora, MG. Os dados do estudo foram obtidos nas três UTIN do município de Juiz de Fora e envolveram os pares de mães e recém-nascidos que nasceram com idade gestacional inferior ou igual a 37 semanas e que tiveram internação no ano de 2009. A variável dependente é a hemorragia peri-intraventricular. As variáveis independentes são variáveis de características obstétricas, perinatais, neonatais e pós-natais dados segundo os formulários com as variáveis demográficas, de processo e de resultados da Vermont Oxford Network. As variáveis significativamente associadas à HPIV quando da análise bivariada (teste qui-quadrado) foram incluídas em modelos de regressão de Poisson. Das características biológicas, apenas uma única variável permaneceu significativa na análise de regressão de Poisson. Ter nascido com peso maior ou igual a 1501 gramas resultou em proporção 61% menor de apresentar a hemorragia Peri-intraventricular. Duas variáveis do grupo intervenções e intercorrências respiratórias em UTIN continuaram significativas na análise de regressão. Ter feito uso de corticoide para doença pulmonar crônica resultou em proporção 135% maior de Hemorragia estudada (HPIV). Maior tempo de ventilação mecânica resultou em proporção 76% maior de HPIV.

Palavras-Chave: Regressão de Poisson; modelos lineares generalizados; hemorragia peri-intraventricular.

Título: Hidden Markov model with second-order dependence

Autores: Daiane A Zuanetti; Luiz A Milan

Resumo: We propose an extention of hidden Markov model to second-order Markov dependence in the observable random process and propose Bayesian methods to estimate the parameters of the model. We verify the performance of the estimation procedure using simulated data and apply the method to segmentation of bacteriophage lambda genome. Tests with real data show an improved fitting when compared with first order HMMs.

Palavras-Chave: Hidden Markov model; second-order dependence; MCMC; gene modelling.

Título: Índice de carência social e sua relação com a hanseniase: uma abordagem multivariada e espacial

Autores: Samara Viana Costa; Cristiane Alves dos Santos; Walenda Silva Tostes; Monique Kelly Tavares Gomes

Resumo: A incidência da hanseníase é fortemente influenciada pelo ambiente e

Page 27: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

27

correlacionada com o baixo desenvolvimento sócioeconômico. Apesar de todos os esforços, ela ainda é considerada um problema de saúde pública no Brasil. Neste sentido o presente estudo apresentou o problema da doença no estado do Pará, com o objetivo de identificar a existência da associação entre a condição de carência social em que a população vive e a taxa de detecção da hanseníase, e, ainda apresentar a distribuição espacial dessa endemia entre os municípios do estado, por meio das técnicas Análise Fatorial e Geoestatistica. De modo geral, observou-se uma distribuição heterogênea nos casos da hanseniase, valendo ressaltar que o estado do Pará não apresentou nenhuma área de baixo risco de detecção da doença.

Palavras-Chave: taxa de detecção da hanseníase; índice de carência social; análise fatorial; geoestatística.

Título: Implementação de transformações normalizadoras para o monitoramento de séries de contagem por meio de gráficos CUSUM

Autores: Profa. Dra. Airlane Pereira Alencar; Orlando Yesid Esparza Albarracin

Resumo: Na área da saúde, várias abordagens nos últimos anos têm sido propostas baseadas nos gráficos de controle CUSUM para a detecção de epidemias infecciosas em que a caraterística a ser monitorada é uma série temporal de dados de contagem, como o número de internações. Neste trabalho foram implementados os modelos lineares generalizados (MLG) no monitoramento, por meio dos gráficos CUSUM, da série do número diário de internações por causas respiratórias para pessoas com 65 anos ou mais no município de São Paulo. Por meio de simulações, avaliaram-se a eficiência e a rapidez de três estatísticas normalizadoras diferentes para detectar mudanças na média em séries de contagem: a transformação Rossi para dados com distribuição Poisson; a transformação Jorgensen para dados com distribuição Binomial negativa e os Resíduos de Anscombe para modelos lineares generalizados. Utilizando limites de controle para obter um valor ARL0=500 sob normalidade monitorou-se via simulação a série de interesse. Entretanto, utilizando-se esses limiares observa-se um maior número de alarmes falsos para as três estatísticas e consequentemente, valores ARL0=500 menores a 500. Modificando o parâmetro k do gráfico CUSUM permitindo que variasse ao longo do tempo, foi monitorada novamente a série. Essa modificação permitiu a obtenção de valores ARL0=500 próximos a 500. As suposições de normalidade e independência das estatísticas normalizadoras, em geral omitidas em trabalhos publicados na literatura, foram avaliadas usando os testes Kolmogorov Smirnov, Shapiro-Wilks e Jarque Bera e a independência por meio do teste Ljung Box, para os quais comprovaram-se que as transformações não normalizam os dados, porém são independentes e estacionárias.

Palavras-Chave: CUSUM; gráficos de controle; séries de contagem.

Título: Investigação dos fatores explicativos que influenciam na hipertensão arterial sistêmica gestacional

Autores: Wagner Jorge Firmino da Silva; Sharlene Neuma Henrique da Silva; Ingritty Daysiane Torres Barbosa

Resumo: A hipertensão arterial sistêmica é uma doença crônica, que uma vez não tratada e controlada adequadamente pode levar a complicações, que podem atingir alguns órgãos e sistemas. No sistema nervoso central podem ocorrer infartos, hemorragia e

Page 28: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

28

encefalopatia hipertensiva. No coração, pode ocorrer cardiopatia isquêmica (angina), insuficiência cardíaca, aumento do coração e em alguns casos morte súbita. No sistema vascular, podem ocorrer entupimentos e obstruções das artérias carótidas, aneurisma de aorta e doença vascular periférica dos membros inferiores. No sistema visual, pode ocorrer retinopatia que reduz muito a visão dos pacientes. Logo, o objetivo foi avaliar os principais fatores em mulheres que desenvolveram hipertensão arterial sistêmica durante a gestação, a partir de dados nutricionais, clínicos, socioeconômico e de estilo de vida. Com os dados disponíveis, um modelo de regressão logística binária foi ajustado, revelando que os fatores explicativos renda individual, fumo, hipertensão arterial sistêmica prévia e faixa etária foram mais significativos dentro todos os fatores analisados.

Palavras-Chave: hipertensão arterial sistêmica; gestantes; regressão logística.

Título: Modelagem da precipitacao pluviometrica em Vitória da Conquista, usando redes neurais artificiais

Autores: Jaime dos Santos Filho;Fernando Ribeiro Cassiano; Elmiro S. de Oliveira Júnior; Edcarlos Miranda de Souza; Thelma Sáfadi

Resumo: A modelagem é uma série de procedimentos utilizados para representar os fenômenos de forma simplificada. A modelagem probabilística tem sido usada no estudo dos fenômenos hidrológicos como uma importante ferramenta para prever os impactos dos diferentes períodos de precipitação pluviométrica. As redes neurais artificiais podem ser utilizadas para a modelagem de fenômenos hidrológicos e servir auxiliar na tomada de decisões por parte do governo e das entidades competentes, propiciando o planejamento de ações preventivas mais consistentes e efetivas. O principal objetivo deste trabalho é a modelagem de dados mensais de precipitação pluviométrica utilizando Redes Neurais Artificiais pelo uso do software SCILAB 5.3.3, na cidade de Vitória da Conquista, Bahia. Para esse estudo foi utilizado o toolbox ANN (Artificial Neural Network Toolbox), do ambiente Scilab, que implementa funções para análise de sinais utilizando redes neurais. Os dados analisados foram obtidos junto ao Instituto Nacional de Meteorologia através da Estação Meteorológica (OMM: 83344), na cidade de Vitória da Conquista - BA, e possui as seguintes coordenadas geográficas: 14º 50´53´ de latitude Sul e 40º 50´19´de longitude Oeste, a uma altitude de 874,81m. A série histórica utilizada foi coletada no período de 21 anos, de janeiro de 1993 á novembro de 2013. Após a execução da rede foi possível, a partir dos gráficos gerados de previsão e erro quadrático médio, comprovamos a eficiência das Redes Neurais Artificiais.

Palavras-Chave: Modelagem matemática; Chuvas; Teoria das probabilidades; Inteligência artificial

Título: Modelagem para os casos de óbito por dengue

Autores: Franciely Farias da Cunha; José Luiz de Carvalho Lisboa; Edson Marcos Leal Soares Ramos; Adrilayne dos Reis Araújo

Resumo: A dengue é um dos principais problemas de saúde pública, sendo que o número de casos da doença continua crescendo exponencialmente no mundo todo. Neste sentido, o objetivo deste estudo é descrever e modelar estatisticamente os fatores que influenciam no óbito de pacientes com dengue no Estado do Pará, no período de janeiro de 2007 a julho de 2013. Para isso, utilizou-se as técnicas estatísticas Análise

Page 29: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

29

Exploratória de Dados e a Regressão Logística Binária. Destaca-se que a maior parte dos casos de dengue foram notificados no ano de 2011, a doença é predominante em adultos, na faixa etária de 20 a 29 anos, que não concluiu o ensino fundamental. Pacientes que apresentam manifestações hemorrágicas tem 4 vezes mais chance de evoluir a óbito em relação aos pacientes que não apresentaram esse sintoma e os pacientes que residem na zona urbana tem 2 vezes mais chance de evoluir a óbito comparado com aqueles pacientes que residem na zona rural. Valores das estimativas dos parâmetros das variáveis: manifestações hemorrágicas e zona de residência foram significativas ao nível de significância de 5%. Dessa forma, os fatores relacionados à dengue são de grande risco para o óbito do paciente.

Palavras-Chave: Fatores; Risco; Significativas.

Título: Mortalidade infantil no município do Rio de Janeiro: distribuição espacial e associação com as condições de vida da população nos triênios de 2000-2002 e 2009-2011

Autores: Danielle Soares de Oliveira; Ismael Henrique da Silveira; Lívia Azevedo Bahia; Maria Beatriz Assunção Mendes da Cunha; Washington Leite Junger

Resumo: A taxas de mortalidade infantil (TMI) vêm decrescendo no país e no mundo. Entretanto, essa redução ocorre de forma desigual, conforme o contexto em questão. Identificar o padrão de distribuição das TMI no bairros do Rio de Janeiro e sua associação com as condições de vida da população nos triênios 2000-2 e 2009-11. Para tanto, as informações foram agrupadas pelos bairros do município. A TMI foi calculada para dois cenários, correspondentes aos triênios 2000-2 e 2009-11. Os indicadores socioeconômicos foram baseados em dados dos Censos do IBGE de 2000 e 2010, e abrangeram as dimensões educação, renda, saneamento e moradia. A associação entre a TMI e os indicadores foram analisadas através do ajuste de um Modelo Linear Generalizado (MLG) seguindo a distribuição de Poisson. Os resultados corroboram que maiores TMI coexistem com piores condições socioeconômicas.

Palavras-Chave: Mortalidade infantil; Análise espacial; Associação; Modelo de Poisson.

Título: Modelos mistos em medidas repetidas de pacientes em hemodiálise crônica

Autores: Omar C. N. Pereira; Emerson Barili; Rosângela G. Santana; Isolde Previdelli

Resumo: Este estudo teve por objetivo analisar dados de concentração de cálcio no sangue de pacientes com doença renal crônica submetidos à banhos de diálise com três concentrações de cálcio, 3,5mEq/L, 3,0mEq/L e 2,5mEq/L durante 4 anos consecutivos. A metodologia adotada para este estudo foi a de modelos mistos. Durante o processo de escolha do modelo e definição da estrutura de covariância, os métodos de estimação utilizados foram o ML e o REML. Para o modelo misto ajustado, a estrutura de covariância que melhor se adequou aos dados foi a Toeplitz. Houve evidências concomitantes entre a clínica e a estatística de que o tratamento com concentração de 3;0mEq/L de cálcio foi o banho de diálise mais racional.

Palavras-Chave: Modelos Mistos; Hemodiálise; Cálcio.

Page 30: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

30

Título: Métodos de previsão da demanda de pacientes na emergência de um hospital público

Autores: Aline Castello Branco Mancuso; Rosa Kucyk

Resumo: A previsão de demanda é um dos principais fatores para a eficiência de uma emergência hospitalar, afetando diretamente os pacientes. Quanto maior a acurácia da previsão, melhor será o planejamento para um adequado atendimento. Neste contexto, diferentes métodos de previsões podem ser comparados. Aplicado aos dados da demanda de pacientes em uma emergência de um hospital público, o objetivo principal deste trabalho é averiguar o melhor modelo de previsão em termos de acurácia dentre as técnicas de previsões individuais: Box-Jenkins e alisamento exponencial; e os modelos de combinação: média simples, variância mínima e regressão. As medidas empregadas para a escolha do método mais preciso são: MAE, MAPE, RMSE e o coeficiente U de Theil. O modelo com melhor acurácia foi o de combinação por regressão.

Palavras-Chave: previsão de demanda; combinação de previsões; emergência médica.

Título: Métodos para imputação de dados faltantes em séries temporais de concentrações de material particulado inalável (PM10)

Autores: Wanderson de Paula Pinto; Valdério Anselmo Reisen; Adriano Marcio Sgrancio

Resumo: Este trabalho apresentou um estudo de metodologias para imputação de dados faltantes em séries temporais de poluição atmosférica. O principal objetivo foi avaliar e comparar a performace de métodos univariados e multivariados para imputação de dados faltantes em uma série temporal das concentrações médias diárias de Material Particulado Inalável (PM10) monitorada no Bairro de Jardim Camburi, Vitória, E.S., Brasil, compreendida entre 01 de janeiro de 2003 e 31 de dezembro de 2004. As Concentrações do poluente foi obtida junto ao Instituto Estadual de Meio Ambiente e Recursos Hídricos (IEMA). Em particular, nota-se que ambos procedimentos fornecem bons resultados para porcentagem de 5% de dados faltantes. Para porcentagens maiores os melhores resultados foram obtidos através do algoritmo EM (expectation-maximisation).

Palavras-Chave: Material Particulado inalável; Dados faltantes; Séries temporais.

Título: O uso da metodologia de dados faltantes em séries temporais com aplicação a dados de concentração de (PM10) observados na região da grande Vitória

Autores: Wanderson de Paula Pinto; Valdério Anselmo Reisen; Taciana Toledo de Almeida Albuquerque

Resumo: Dados da poluição atmosférica apresentam, em geral, observações faltantes. Esta pesquisa apresenta um estudo de metodologias para estimação da função de autocorrelação na presença de dados faltantes, baseados no trabalho de Yajima e Nishino (1999). Contempla também algumas técnicas para imputação de dados faltantes baseadas no uso do algoritmo EM, proposto por Dempster (1977), e nos modelos de séries temporais ARIMA de Box e Jenkins. Ensaios de simulações com quadro proporções de dados faltantes foram realizadas para comparar os erros quadráticos médios dos estimadores propostos. O estudo empírico evidenciou que o método de estimação sugerido apresenta bom desempenho em termos de medidas de erro

Page 31: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

31

quadrático médio. Como ilustração da metodologia proposta, duas séries temporais de concentrações de Material Particulado Inalável (PM10) emitida na Região da Grande Vitória, E.S., Brasil, são analisadas.

Palavras-Chave: Material Particulado inalável; Função de autocorrelação; Dados faltantes.

Título: Peso de bebês ao nascer: análise preditiva baseada em modelos mistos

Autores: Ana Paula Zerbeto; Viviana Giampaoli

Resumo: A partir de uma seleção das características clínicas e socioeconômicas de gestantes que influenciam no peso de seus bebês ao nascer é possível prever o peso de um recém-nascido. Com esse intuito, ajustou-se o modelo de regressão beta misto e as estimativas dos parâmetros deste modelo foram utilizadas na análise preditiva dos dados. Para esta finalidade fez-se uso do melhor preditor empírico, o qual apresentou bons resultados. Palavras-Chave: peso de recém-nascidos; modelo beta misto; melhor preditor empírico.

Título: Predição da concentração de ozônio na região da Grande Vitória, Espírito Santo, utilizando o modelo ARMAX-GARCH

Autores: Edson Zambon Monte; Taciana Toledo de Almeida Albuquerque; Valdério Anselmo Reisen

Resumo: O objetivo deste trabalho foi estimar a concentração horária de ozônio na região da Grande Vitória, Espírito Santo, Brasil, utilizando o modelo ARMAX/GARCH, para o período 01/01/2011 a 31/12/2011. Foram utilizados dados da rede de monitoramento do Instituto Estadual de Meio Ambiente e Recursos Hídricos (IEMA), sendo escolhidas três estações: Laranjeiras, Enseada do Suá e Cariacica. Adotou-se alguns parâmetros medidos nas estações como variáveis explicativas da concentração de ozônio, a saber: temperatura, umidade relativa, velocidade do vento e concentração de dióxido de nitrogênio. Estas foram significativas e melhoram o ajuste do modelo estimado. As predições horárias para o dia 31.12.2011 (reservado para verificar a acurácia do modelo) revelaram-se muito próximas dos valores observados, sendo que as estimativas, em geral, seguiram a trajetória diária da concentração de ozônio. No mais, em comparação aos modelos ARMA e ARMAX, o modelo ARMAX-GARCH revelou-se mais eficaz na predição de episódios de poluição de ozônio (concentração horária superior a 80 µg/m3), reduziu o número de falsos alarmes estimados e apresentou menor taxa de ocorrência de episódios não detectados.

Palavras-Chave: Ozônio; Poluição do ar; Séries temporais; ARMAX; GARCH.

Título: Previsão da concentração de ozônio troposférico utilizando modelo de rede neural na Região Metropolitana de São Paulo

Autores: Yoshio Yanagi; Thiago De Russi Colella; Clarice Aico Muramoto; Ricardo Anazia

Resumo: O ozônio é um poluente atmosférico que não é emitido diretamente para a atmosfera. É formado pelas reações fotoquímicas entre os óxidos de nitrogênio e

Page 32: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

32

compostos orgânicos voláteis. A sua presença, em altas concentrações, afeta a saúde da população de diversas formas: causa doenças no sistema respiratório, além de irritação nos olhos e nariz. Pode, também, causar danos à vegetação. Para este estudo foi considerado o padrão nacional de qualidade do ar para o ozônio (1 hora) de 160 µg/m3. Objetivo: O objetivo foi desenvolver um modelo capaz de prever, com antecedência de um dia, o nível de concentração máximo de ozônio na Região Metropolitana de São Paulo (RMSP). Metodologia: O método foi baseado em uma rede neural artificial. Os dados usados operacionalmente foram provenientes de modelos de previsão meteorológica (Modelo Eta 40 Km), executados pelo CPTEC/INPE. Conclusão: O modelo apresentou, no geral, alto percentual de acerto (94,4%), entretanto a probabilidade de prever concentrações altas, POD, foi baixa (31%). A explicação pode estar no fato de terem ocorridos poucos eventos de ozônio alto no período analisado (2005 a 2011). Com a inclusão de outras variáveis no modelo pode ocorrer melhora nos resultados. A primeira inclusão foi considerando o óxido de nitrogênio (NO) e o dióxido de nitrogênio (NO2). Os resultados obtidos indicaram melhora nas estatísticas.

Palavras-Chave: rede neural artificial; previsão; poluente atmosférico; ozônio; saúde.

Título: Uma relação entre desvios padrões e médias em estudos elegíveis, excluídos e incluídos em uma meta-analise

Autores: José Fausto de Morais

Resumo: A meta-análise envolve a revisão quantitativa e síntese de resultados de estudos independentes, porém relacionados pela temática. No processo de combinação de resultados a comparação de desvios padrões é usual. O objetivo deste estudo é discutir uma relação entre o desvio padrão de um conjunto de dados e o desvio padrão e a média de duas partes desse conjunto. O problema foi proposto em uma revisão sistemática com meta-análise envolvendo tratamentos da artroplastia total do joelho. Palavras-Chave: Meta-análise; Relação; Desvio-Padrão.

Título: Índice glicêmico e carga glicêmica da dieta de mulheres portadoras de neoplasia mamária sob tratamento quimioterápico

Autores: Elisete C. Q. Aubin; Nágila R. T. Damaceno; Fernanda K. P. Patricio; Julio A. Z. Trecenti

Resumo: A dieta alimentar de um indivíduo está associado com a etiologia da neoplasia mamária, sendo considerados fatores de risco o consumo elevado de gordura e carnes, em detrimento da baixa ingestão de frutas, vegetais e fibras. Neste estudo, 25 pacientes atendidas no Hospital A C Camargo, todas portadoras da neoplasia mamária e que seriam submetidas ao tratamento quimioterápico foram acompanhadas. Esse grupo de pacientes foi acompanhada em 3 instantes de tempo: antes da quimioterapia (T0); logo após o tratamento quimioterápico (T1); 2 meses depois da quimioterapia (T2). Em cada momento, obtiveram-se diversas informações da paciente, tais como, variáveis relacionadas à composição corporal da paciente (IMC e porcentual de gordura), valor do ângulo de fases, que indica o nível de atividade celular; cálculo do índice glicêmico (IG) e da carga glicêmica (CG), que representam a qualidade e quantidade de carboidrato ingerido com base em recordatórios alimentares de 24 horas, índice de Karnofsky, que

Page 33: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

33

delimita escores para a saúde e qualidade de vida da paciente. O objetivo principal do estudo foi verificar a influência das variáveis IG e CG, relacionadas ao carboidrato ingerido pela paciente, com o ângulo de fase e com porcentual de gordura das mulheres antes, durante e após a quimioterapia. Para ângulo de fase foram ajustados quatro modelos de regressão: linear múltipla com resposta Gaussiana, linear generalizado com resposta normal inversa, linear múltipla Gaussiano com efeitos aleatórios e mínimos quadrados generalizados com estrutura de correlação uniforme. Para porcentual de gordura, considerou-se o ajuste de regressão linear múltipla Gaussiano e distribuição beta com ligação logística. De acordo com o ângulo de fase, IG e CG apresentam associação negativa com o ângulo de fase em T1, ou seja, logo após a quimioterapia; o percentual de gordura (em T1 e T2) e o IMC são associados ao ângulo de fase particularmente em T2 (IMC em todos T0), ou seja, dois meses após o tratamento. De acordo com o porcentual de gordura, o IMC foi significante em todos os modelos para explicar o porcentual de gordura, e somente nos dois primeiros momentos; o IG apareceu significante somente no modelo beta, no momento T0, antes da quimioterapia.

Palavras-Chave: Ângulo de fase; Modelos GAMLSS; Porcentual de gordura; Regressão linear múltipla.

Título: Óbitos de mulheres em idade fértil e óbitos maternos no Piauí

Autores: Hannah Melo Alexandrino; Israel Oliveira da C. Sousa; José dos Reis Cunha Filho Resumo: Segundo os dados da Organização Mundial da Saúde (OMS), cerca de mil mulheres morrem por dia em todo o mundo. De acordo com a OMS, a mortalidade materna é a morte feminina ocorrida no período da gestação ou até 42 dias após o parto, não importando a duração ou a localização da gravidez, morte causada ou agravada pela gravidez. No estado do Piauí, uma das causas de maior óbitos maternos, foi as Afecções obstétricas NCOP e Edema, proteinúria (perda excessiva de proteínas através da urina) e transtornos hipertensivos na gravidez no parto e no puerpério. A razão da mortalidade materna no Brasil tem tido uma pequena diminuição. Porém permanecem acima do que é considerado aceitável pela a OMS: entre 10 e 20 mortes maternas por cem mil nascidos vivos.

Palavras-Chave: Óbitos maternos; MIF; Piauí.

Page 34: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

34

Sessão: Dados Funcionais, Dados em Alta Dimensão e Aprendizado Estatístico de Máquinas

Título: Calibração e Predição para Dados Obtidos por Espectroscopia no Infravermelho Próximo

Autores: Alex Rodrigo dos Santos Sousa; Prof. Dra. Nancy Lopes Garcia

Resumo: O presente trabalho aborda o problema de calibração e predição de dados obtidos por espectroscopia no infravermelho próximo sob ponto de vista funcional, isto é, concentrações de analitos são estimadas através da suavização de curvas de absorbâncias de cada analito por B-splines. O modelo utilizado é baseado na lei de Beer-Lambert, importante em Quimiometria.

Palavras-Chave: Dados funcionais; Quimiometria; Lei de Beer-Lambert; Splines.

Título: A Constituição da Provisão de Devedores Duvidosos Utilizando Aprendizado de Máquina

Autores: Fillipe Silva Marinho Mota; Elisalvo Alves Ribeiro; Carlos Alberto Estombelo Montesco

Resumo: A necessidade do controle e gerenciamento eficaz do risco fez com que as instituições financeiras passassem a primar pelo aperfeiçoamento das técnicas utilizadas para classificação de clientes, com o desenvolvimento de inúmeros modelos que auxiliam nessa atividade. A constituição da Provisão de Devedores Duvidosos (PDD) é extremamente necessária para auxiliar no controle da rentabilidade das empresas, principalmente das atuantes na área de crédito e financeira. Neste trabalho foram utilizados dados dos clientes de uma empresa que atua na concessão de empréstimo pessoal para avaliar três das técnicas de classificação mais utilizadas pelo mercado. O objetivo era que gerassem uma constituição da PDD seguindo as normas do Banco Central do Brasil (BACEN), diferenciando cada um dos clientes de acordo com a probabilidade de risco de não pagamento para fins de estimativa do provisionamento contra eventuais perdas financeiras, seguindo os percentuais de alocação exigidos.

Palavras-Chave: Provisionamento; Modelagem; Aprendizado de Máquina.

Título: Algoritmo Boosting em Análise Discriminante Linear de Fisher na classificação de pacientes com CHD

Autores: Gilberto Rodrigues Liska; Marcelo Ângelo Cirillo; Fortunato Silva de Menezes; Guido Gustavo Humada-González

Resumo: Classificação compreende uma variedade de problemas, que são resolvidos de várias maneiras. A necessidade de métodos automáticos de classificação surge em várias áreas, desde reconhecimento de vozes, em automóveis modernos, até o reconhecimento de tumores através de chapas de raio-x para auxiliar médicos, passando por classificação de e-mails como legítimos ou spam. Devido a importância e aumento da complexidade de problemas do tipo, existe a necessidade de métodos que forneçam maior precisão e interpreabilidade dos resultados. Entre eles os métodos de Boosting, que surgiram na área da computação, funcionam aplicando-se sequencialmente um algoritmo de

Page 35: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

35

classificação a versões reponderadas do conjunto de dados de treinamento, dando maior peso às observações classificadas erroneamente no passo anterior. Sendo assim, objetivou-se estudar a modelagem via Análise Discriminante Linear de Fisher (LDA) e a mesma via algoritmo de Boosting (AdaBoost) no problema de ausência/presença de doença do coração (Coronary Heart Disease - CHD) em pacientes. Os critérios utilizado para afetuar as comparações foram a sensibilidade, especificidade, taxa de falsos positivos e taxa de falsos negativos. O método de Boosting foi aplicado com sucesso em LDA e proporcionou maior taxa de acerto em relação à análise LDA convencional. O algoritmo Boosting em LDA com método de Lachenbruch resultou apresentou melhores valores de sensibilidade, especificidade, taxa de falsos positivos e taxa de falsos negativos em relação ao método LDA convencional, fornecendo, portanto, informações mais precisas e otimistas acerca do problema exposto.

Palavras-Chave: Aprendizado de Máquinas; Análise Multivariada; Classificação de dados; Taxa de erro; AdaBoost.

Título: Análise Discriminante via Distribuições Preditivas Aproximadas por Estimadores por Função Núcleo

Autores: Diego da Silva Souza

Resumo: Reconhecimento e classificação de padrões são problemas importantes em uma variedade de áreas científicas, como biologia, psicologia, medicina, visão computacional e etc. Porém este problema não é de fácil solução quando a distribuição de probabilidade dos dados é totalmente desconhecida. Neste trabalho, combinamos o método de estimação de densidades por Função Núcleo com um enfoque Bayesiano e propomos uma nova abordagem para problemas de classificação usando uma Análise Discriminante via Distribuições Preditivas Aproximadas. Estudos de simulação e aplicação em conjuntos de dados reais bastante utilizados na literatura, foram conduzidos como forma de avaliação dos métodos propostos. Os resultados mostraram que a performance dos métodos propostos são competitivos, e em alguns casos significantemente melhor, com os métodos clássicos da literatura, Análise Discriminante Linear(ADL), Análise Discriminante Quadrática(ADQ) e Análise Discriminante Naive Bayes com distribuição Normal(NNBDA).

Palavras-Chave: Análise de Discriminante; Densidade Preditiva; Estimador de Núcleo; Estimação Bayesiana

Título: Análise de Componentes Principais Robusta

Autores: Higor Cotta; Valdério Anselmo Reisen

Resumo: Este trabalho apresenta uma comparação de dois estimadores robustos da dispersão de um conjunto de dados, Sn e Qn propostos por Rousseeuw e Croux (1993) para estimação da matriz de covariância e posterior aplicação da An�alise de Componentes Principais em dados com outliers. Os estimadores Sn e Qn tem como principal apelo não dependerem da medida de posi�ção do conjunto de dados. Foram realizadas simulações de computacionais, com diferentes percentuais de outliers e estrutura de covariância, para verificar o comportamento desses estimadores comparados ao estimador usual da covariância. As simulações indicaram que ambos estimadores são alternativas viáveis para ACP na presença de outliers.

Palavras-Chave: Robustez; Outliers; Análise de Componentes Principais.

Page 36: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

36

Título: Aplicação de Aprendizado Estatístico em Medicina na UFRJ

Autores: Cachimo Combo Assane; Emilia Matos do Nascimentos; Basilio de Bragança Pereira

Resumo: Neste trabalho mostramos a aplicação das técnicas de aprendizado estatístico na pesquisa médica, no âmbito da integração entre pesquisadores da área clínica e estatística. Algumas aplicações de aprendizado estatístico são apresentadas, como resultados de artigos publicados em parceria com pesquisadores do Hospital Universitário Clementino Fraga Filho (HUCFF/UFRJ), teses de doutorado e mestrado na área de medicina. A relevância deste trabalho se dá na medida em que possibilite a identificação dos fatores prognósticos clínicos relacionados a cada estudo, auxiliando no tratamento e no diagnóstico.

Palavras-Chave: Aprendizado Estatístico; Classificação; fatores de risco.

Título: Classificador Genético-Fuzzy Para Diagnóstico de Hanseníase

Autores: Sandro Sperandei, Marcelo Ribeiro-Alves

Resumo: Introdução: A hanseníase é uma doença bacteriana que afeta preferencialmente as células de Schwann dos nervos periféricos e os macrófagos da pele, podendo causar deformidades e incapacidades. Seu diagnóstico molecular sugere o uso de sistemas fuzzy. Objetivo: Desenvolver um classificador genético-fuzzy para diagnóstico de hanseníase. Materiais e Métodos: Biópsias de pele de 77 indivíduos, contendo casos e não-casos, foram obtidas e experimentos de qPCR foram realizados para quatro marcadores genômicos do M. Leprae: 16s, SodA, Ag85b e RLEP. Três conjuntos fuzzy foram criados para cada marcador, utilizando os experimentos de qPCR como suporte. Dois classificadores foram desenvolvidos e o conjunto de regras fuzzy foi selecionado por meio de algoritmos genéticos. Resultados: Para o diagnóstico de duas classes (caso x não-caso), foi observada uma acurácia de 0,88, com sensibilidade de 0,95, especificidade de 0,60 e AUCROC de 0,78 com a seleção de 50 regras. O classificador com quatro classes de saída apresentou acurácia de 0,66. Conclusão: Enquanto o diagnóstico binário apresenta resultados semelhantes a outros métodos diagnósticos, a principal vantagem do uso dos conjuntos fuzzy observada neste trabalho está na capacidade de diagnóstico das diversas apresentações clínicas para a hanseníase.

Palavras-Chave: Hanseníase; Lógica Fuzzy; Algoritmos Genéticos; Classificador.

Título: Estudo Online da Dinâmica Espaço-temporal de Crimes através de Dados da Rede Social Twitter

Autores: Larissa Sayuri Futino Castro dos Santos; Marcos Oliveira Prates; Erica Rodrigues Castilho

Resumo: Entender a dinâmica criminal é essencial para criação de políticas públicas mais adequadas para o controle dos diversos tipos de crimes. Neste estudo, procura-se mapear a ocorrência de crimes no estado de São Paulo através da coleta de postagens na rede social Twitter. A partir da informação dos dados coletados e através de métodos de aprendizado de máquina, o trabalho tem como objetivo classificar, de forma inteiramente automatizada, a ocorrência ou nâo de um evento de crime na região citada.

Page 37: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

37

Assim, pode-se visualizar aspectos espaço temporais da distribuição dos diversos tipos de crimes de maneira dinâmica, pois as coletas podem ser realizadas de forma online. Nesse trabalho, apresentamos a forma empregada para coleta de tweets e os m étodos de aprendizado de máquina para classificação dos tweets. Inicialmente, são utilizadas e apresentadas três técnicas de classificação de textos conhecidas como: Naive-Bayes, KNN (K vizinhos mais próximos) e Árvore de Decisão. Um estudo de validação cruzada foi realizado em cada uma das técnicas e essas são comparadas sob o ponto de vista da eficiência de classificação e tempo computacional. Os autores agradecem à FAPEMIG pela ajuda financeira.

Palavras-Chave: Mineração de Texto; Twitter; KNN; Naive Bayes; Árvore de Decisão.

Título: Functional regression models with dependence on derivatives

Autores: J.C.S. de Miranda

Resumo: We study functional regression models with dependence on derivatives of the covariates. Estimation using orthonormal series expansions of the functional parameters is presented. Product connexion and differential connexion coefficients are used to reduce the functional models to algebraic systems of equations. Minimization of the sum of the squares of the L2 norm of the residuals is shown to be equivalent to the minimization of the sum of squared residuals in the algebraic representation. O.L.S. estimation is applied to the systems of algebraic equations associated to these models and the expressions for the estimators are obtained. Extensions to more general settings are discussed.

Palavras-Chave: Non linear functional regression models; Dependence on derivatives; Orthonormal series expansions.

Título: Mensuração de Provisionamento Contábil Através de Aprendizado de Máquina

Autores: Fillipe Silva Marinho Mota; Elisalvo Alves Ribeiro; Carlos Alberto Estombelo Montesco

Resumo: A necessidade do controle e gerenciamento eficaz do risco fez com que as instituições financeiras passassem a primar pelo aperfeiçoamento das técnicas utilizadas para classificação de clientes, com o desenvolvimento de inúmeros modelos que auxiliam nessa atividade. A constituição da Provisão de Devedores Duvidosos (PDD) é extremamente necessária para auxiliar no controle da rentabilidade das empresas, principalmente das atuantes na área de crédito e financeira. Neste trabalho foram utilizados dados dos clientes de uma empresa que atua na concessão de empréstimo pessoal para avaliar três das técnicas de classificação mais utilizadas pelo mercado. O objetivo era que gerassem uma constituição da PDD seguindo as normas do Banco Central do Brasil (BACEN), diferenciando cada um dos clientes de acordo com a probabilidade de risco de não pagamento para fins de estimativa do provisionamento contra eventuais perdas financeiras, seguindo os percentuais de alocação exigidos.

Palavras-Chave: Provisionamento; Modelagem; Aprendizado de Máquina.

Page 38: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

38

Título: Modelos Aditivos Generalizados Funcionais: método de estimação e predição para respostas binárias

Autores: José Roberto Silva dos Santos; Larissa Ávila Matos; Julián A. Collazos

Resumo: Neste trabalho estudamos o modelo aditivo generalizado funcional (FGAM) proposto por Febrero-Bande e Gonzáles-Manteiga (2012). Tal modelo constitui-se em uma extensão dos modelos aditivos generalizados multivariados que permite lidar com covariáveis funcionais. Apresentamos uma versão do algoritmo "local scoring and backfitting" que permite o tratamento de dados funcionais e a estimação não-paramétrica da função de ligação. Comparamos a performance do modelo FGAM e do método de estimação com outras propostas existentes na literatura, considerando resposta binária. As simulações apontaram que o modelo FGAM superou os demais modelos na maioria dos cenários analisados. Por último, uma aplicação ao conjunto de dados Tecator (Ferraty e Vieu, 2006) é apresentada.

Palavras-Chave: Dados Funcionais; Modelos Aditivos Generalizados; Modelos Lineares Generalizados.

Título: Utilizando redes neurais artificiais mlp para classificação de células cancerígenas em amostras de tecidos mamários

Autores: Elisalvo Alves Ribeiro; Anderson Filgueira Farias; Methanias Colaço Júnior; Carlos Alberto Estombelo Montesco

Resumo: Comparar o desempenho dos algoritmos de RNA MLP, Backpropagation Padrão, Backpropagation com Momento, Quikprop e Rprop para classificar dados de células mamárias cancerígenas. Os algoritmos foram analisados quanto ao seu desempenho em relação às métricas de sensibilidade, especificidade, acurácia, erro, precisão e índice Kappa. Dentre os algoritmos analisados, o que apresentou melhor desempenho foi o backpropagation padrão com uma precisão de 80% e uma acurácia de 81,25%.

Palavras-Chave: Redes Neurais Artificiais; Classificação; células cancerígenas.

Título: Uma metodologia inspirada quanticamente para o aprimoramento do poder de discriminação de dados

Autores: Rosilda Benício de Souza; Emeson J. S. Pereira; Tiago A. E. Ferreira

Resumo: Este trabalho apresenta uma nova metodologia para aprimorar o poder de discriminação de dados, baseado no Teorema de Cover, inspirado quanticamente. Seja P um problema de classificação não linearmente separável, onde é dado um conjunto de dados com algumas classes. O processo proposto consiste em incrementar a dimensão do conjunto de dados a fim de tentar tornar o problema P em um problema de classificação linearmente separável. Neste processo também é suposto que o conjunto de dados original é um observável no mundo quântico, i.e., o conjunto de dados original (números reais) é criado a partir de uma medida do valor esperado de um estado de um sistema quântico (números complexos). Portanto, a metodologia aplica um Algoritmo Genético (AG) para buscar a aplicação inversa da medida do valor esperado, transformando números reais em números complexos, voltando do mundo clássico para o

Page 39: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

39

mundo quântico, sujeito à restrição de conservação de magnitude, ou conservação de energia. Depois disso, no mundo quântico, a técnica de Análise de Componentes Principais (PCA) é aplicada para selecionar um conjunto mínimo de características para criar uma classificação correta dos dados. A seguir, uma Rede Neural Artificial é aplicada para aprender a transformação que conduz quaisquer novas observações do mundo clássico para o mundo quântico. Métodos tradicionais de classificação como K-means, KNN e LDA são aplicados aos problemas de classificação em duas condições: conjunto de dados originais e conjunto de dados transformados com a metodologia proposta. A comparação dos resultados de classificação é apresentada, indicando um aprimoramento no poder de discriminação dos dados quando a metodologia proposta é aplicada.

Palavras-Chave: Classificação; Teorema de Cover; Computação Quântica; Poder de discriminação; Sistemas Inteligentes.

Page 40: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

40

Sessão: Análise de Sobrevivência

Título: A Bayesian Approach for a New Long-Term Survival Models Underlying Di

Autores: Adriano K. Suzuki; Francisco Louzada; Vicente G. Cancho; Gladys D. C. Barriga

Resumo: In this work we propose a new long-term survival model. We assume that the number of competing causes of the event of interest is assumed to follow a Logarithmic distribution. Our approach enables different underlying activation mechanisms which lead to the event of interest. The model is parametrized in terms of the cured fraction which is then linked to covariates. The proposed model allows for the presence of censored data and covariates. For inferential purpose a bayesian approach via Markov Chain Monte Carlo is considered. The newly developed procedures are illustrated on artificial and real data.

Palavras-Chave: Competing risks; Long-term aging models; Cure rate models; Cured fraction; Logarithmic distribution.

Título: A New Extended Gamma Generalized Model

Autores: Ronaldo V. da Silva; Frank Gomes-Silva; Manoel Wallace A. Ramos; Gauss M. Cordeiro

Resumo: We propose a new five-parameter extended gamma generalized model. Some special cases are discussed. We derive some mathematical properties of the proposed distribution including explicit expressions for the quantile function, ordinary and incomplete moments, generating function and R´enyi entropy. The method of maximum likelihood is used to estimate the model parameter. We ilustrate the potentiality of the new model with an application to a real data set.

Palavras-Chave: Beta generalized gamma distribution; Exponentiated gamma distribution; Exponentiated generalized gamma distribution.

Título: A distribuição de Amoroso com aplicação em modelos de sobrevivência

Autores: Démerson André Polli

Resumo: A distribuição de Amoroso foi proposta em 1925. Trata-se de uma distribuição que generaliza uma grande variedade de outras distribuições usadas em engenharia e em análise de sobrevivência, dentre as quais as distribuições Weibull e Gama. Este resumo apresenta a distribuição de Amoroso e implementa um exemplo para dados de sobrevivência.

Palavras-Chave: modelos paramédicos de sobrevivência; distribuição de Amoroso; família de distribuição.

Page 41: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

41

Título: Aplicação da abordagem de riscos competitivos em pacientes diagnosticados com câncer no ano de 2006 no hospital de clínicas de Porto Alegre

Autores: Natalia Elis Giordani; Luciana Nunes; Isaias Prestes; Jair Ferreira; Suzi Camey

Resumo: Estudos de sobrevida em pacientes com câncer normalmente são modelados através do tradicional método de análise de sobrevida. Esse, porém, apresenta uma abordagem limitada uma vez que considera como variável resposta apenas um tipo de desfecho, normalmente o óbito por um tipo específico da doença, desprezando o fato de que o óbito de um paciente com câncer pode estar relacionado a diferentes causas. Assim, o objetivo principal deste estudo é utilizar a abordagem de riscos competitivos para analisar a sobrevida da coorte de pacientes com câncer diagnosticado pela primeira vez no Hospital de Clínicas de Porto Alegre no ano de 2006 e acompanhada até o ano de 2011. Como objetivo secundário, pretende-se descrever essa metodologia.

Palavras-Chave: Câncer; Sobrevida; Riscos competitivos

Título: Avaliação dos fatores de risco de óbito de doentes renais da cidade do Rio de Janeiro através do modelo aditivo de Aalen

Autores: Luciane Teixeira Passos Giarola; Rejane Corrêa da Rocha

Resumo: De acordo com a Sociedade Brasileira de Nefrologia, as doenças renais matam pelo menos 15 mil pessoas por ano. Mais de 95% da Terapia Renal Substitutiva realizada no país é financiada pelo Sistema Único de Saúde (SUS). Então, optou-se por utilizar dados obtidos a partir do Datasus e originados pelo Sistema de Informações Ambulatoriais para procedimentos de Alto Custo (Apac) para avaliar o risco de óbito de pacientes portadores de Insuficiência Renal. O estudo foi baseado em 861 pacientes submetidos a hemodiálise em 20 unidades de atendimento no Rio de Janeiro, no período de Janeiro de 1998 a Outubro de 2001. Considerou-se neste estudo as variáveis Diabetes como causa da IR e idade, além do sexo, unidade de tratamento e número de salas de diálise na unidade de tratamento. Utilizou-se o modelo aditivo proposto por Aalen em 1980 com o objetivo de investigar a influência das covariáveis em estudo sob o risco de óbito ao longo do tempo. Concluiu-se que, do ponto de vista estatístico, as covariáveis mais relevantes foram idade e diabetes. Ambas apresentaram função de regressão acumulada com inclinação positiva e seu efeito no riso de óbito aumenta com o tempo, conforme esperado.

Palavras-Chave: Diabetes; Insuficiência Renal; Modelo Aditivo de Aalen.

Título: An evidence of link between default and loss of bank loans from the modeling of competing risks

Autores: Mauro Ribeiro de Oliveira Junior; Francisco Louzada

Resumo: In this work we propose a method that provides a useful technique to compare relationship between risk involved that takes customer becomes defaulter and debt collection process that might make this defaulter recovered. Through estimation of competitive risks that lead to realization of the event of interest, we showed that there is a positive significant relation between the intensity of default and losses from defaulted loans in collection processes. To reach this goal, we investigate a competing risks model applied

Page 42: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

42

to whole credit risk cycle into a bank loans portfolio. We estimated competing causes related to occurrence of default, thereafter, comparing it with estimated competing causes that lead loans to write-off condition. In context of modeling competing risks, we used a specification of Poisson distribution for numbers from competing causes and Weibull distribution for failures times. The likelihood maximum estimation is used for parameters estimation and the model is applied to real data of personal loans.

Palavras-Chave: Survival analysis; Competing risks; Loss given default.

Título: Análise da Evolução de Pacientes Submetidos ao Transplante do Fígado: Uma Abordagem de Modelo Multi-Estado

Autores: Juliana Freitas de Mello e Silva; Ludmilla da Silva Viana Jacobson

Resumo: No Brasil, em 2010, as neoplasias representavam a segunda principal causa de morte e o tumor de fígado destacou-se entre os mais freqüentes. O carcinoma hepatocelular (CHC) é o principal tumor primário do fígado. No mundo, o CHC é o sétimo câncer mais comum e ocupa a terceira posição em mortalidade por câncer. A expectativa de vida para quem contrai o CHC é de aproximadamente 6 meses a partir do diagnóstico e, por isso, o transplante é de extrema importância e urgência. Diante disto, o objetivo do presente estudo é avaliar o tempo até a recidiva e o tempo até o óbito em pacientes que foram submetidos a um transplante por CHC. Na análise dos dados foi estimado um modelo multi-estado para avaliar o risco de transição entre transplante, recidiva e óbito. Foram utilizados os dados do Hospital Federal de Bonsucesso, coletados no período entre janeiro de 2001 e abril de 2012. As variáveis associadas à transição entre transplante e recidiva foram nível de AFP e invasão vascular; com relação à transição entre transplante e óbito, as variáveis associadas foram idade, hepatite C e nódulos; por fim, para a transição entre recidiva e óbito, a variável característica dos nódulos se mostrou associada.

Palavras-Chave: análise de sobrevivência; modelo multi-estado; carcinoma hepatocelular.

Título: Análise de sobrevivência aplicada a tempos de vida de platelmintos

Autores: Edimar Izidoro Novaes; Thiago Gentil Ramires; Miriam Harumi Tsunemi

Resumo: É comum empresas utilizarem águas dos rios em suas atividades de produção, sendo as mesmas devolvida aos rios após serem tratadas. Neste contexto se faz necessário estudos para verificar a qualidade das águas que voltam aos rios. Uma maneira de verificar a qualidade da água é acompanhar o tempo de vida dos platelmintos inseridos nas mesmas, pois esses animais apresentam um longo ciclo de vida e são sensíveis a diferentes concentrações de poluentes. No estudo presente foram utilizadas as informações de uma empresa que atua no ramo petroquímico, e que realiza o tratamento a qual foram aplicados os métodos de estatística de análise de sobrevivência para verificar a influência das águas devolvidas aos rios com base nos tempos de vida dos platelmintos da espécie Dugesia Tigrina.

Palavras-Chave: platelminto Dugesia Tigrina; análise de sobrevivência ; contaminação de rios.

Page 43: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

43

Título: Complementary Weibull Modified Power Series Distribution

Autores: Cynthia Tojeiro; Gleici Perdoná; Francisco Louzada

Resumo: In this paper, we introduce a new class of distributions, denominated the complementary Weibull modified power series distributions (CWMPS), which is obtained by compounding Weibull and modified power series distributions on a latent complementary risks scenarios. In this case the lifetime associated with a particular risk is not observable, rather we observe only the maximum lifetime value among all risks. This new class contains several distributions as particular case, such as: complementary exponential geometric \citep{roman}, complementary exponential poisson [Cancho and Louzada, 2010], complementary weibull geometric [Tojeiro and Louzada, 2012], among others. The hazard function of our class can be increasing, decreasing and upside-down shape among others. The properties of the proposed distribution are discussed, including a formal prove of its probability density function and explicit algebraic formulas for its reliability and failure rate functions, moments, density of order statistics and their moments. We provide expressions for the R\'enyi and Shannon entropies. The parameter estimation is based on the usual maximum likelihood approach an EM algorithm. We obtain the observed information matrix and discuss inferences issues. Special distributions are studied in some detail. We report the results of a misspecification simulation study performed in order to assess the extent of misspecification errors when testing the Weibull modified power series distributions against ours complementary one in presence of different sample size and censoring percentage. The flexibility and potentiality of the new distribution is illustrated by means of two real data set and some discussions on models selection criteria are given.

Palavras-Chave: Complementary risks; Power series modified distribution; Weibull Distribution; Failure rate.

Título: Discriminação entre as Distribuições Inversa-Gaussiana e Log-Normal

Autores: Danielle Peralta; Josmar Mazucheli

Resumo: As distribuições Inversa-Gaussiana e Log-Normal são duas distribuições bastante utilizadas na análise de dados de sobrevivência principalmente quando estas apresentam elevado grau de assimetria. Em muitas situações práticas elas competem entre sí na modelagem de um mesmo conjunto de dados. Neste artigo busca-se discriminá-las utilizando o teste da razão das verossimilhanças e oito outros baseados em estatísticas usadas para avaliar a qualidade do ajuste. Via simulações Monte Carlo e considerando-se vários cenários calculou-se a probabilidade de correta seleção. O estudo de simulação mostrou que em alguns cenários os métodos avaliados apresentam uma baixa probabilidade de correta seleção, mesmo para tamanhos de amostra razoavelmente grandes.

Palavras-Chave: Distribuição Inversa Gaussiana; distribuição Log-Normal; razão das verossimilhanças; função de distribuição empírica; probabilidade de correta seleção.

Título: Distribuição COM-Poisson na análise de dados de experimentos de quimioprevenção do câncer em animais

Autores: Angélica Maria Tortola Ribeiro; Josemar Rodrigues

Resumo: Experimentos que envolvem a indução química de substancias cancerígenas

Page 44: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

44

em animais são comuns na área biológica. O interesse destes experimentos é, em geral, avaliar o efeito de uma substancia quimiopreventiva na destruição das células danificadas. Neste tipo de estudo, duas variáveis de interesse são o número de tumores induzidos e seus tempos de desenvolvimento. Exploramos o uso do modelo estatístico proposto por Kokoska (1987) para a análise de dados de experimentos de quimioprevenção de câncer em animais. Flexibilizamos o modelo de Kokoska (1987), posteriormente utilizado por Freedman (1993), considerando para a variável número de tumores induzidos a distribuição Conway-Maxwell Poisson (COM-Poisson). Esta distribuição tem demonstrado eficiência devido à sua grande flexibilidade, quando comparada a outras distribuições discretas, para acomodar problemas relacionados à subdispersão e sobredispersão encontrados freqüentemente em dados de contagem. A proposta deste trabalho consiste em adaptar a teoria de modelo destrutivo de longa duração (Rodrigues et. al., 2011) para experimentos de quimioprevenção do câncer em animais, com o propósito de avaliar a eficiência de tratamentos contra o câncer. Diferente da proposta de Rodrigues et. al. (2011), formulamos um modelo para a variável numero de tumores malignos detectados por animal, supondo que sua probabilidade de detecção não é mais constante, e sim dependente do instante de tempo. Esta é uma abordagem extremamente importante para experimentos quimiopreventivos de câncer, pois torna a análise mais realista e precisa. Realizamos um estudo de simulação com o propósito de avaliar a eficiência do modelo proposto e verificar as propriedades assintóticas dos estimadores de máxima verossimilhança. Analisamos também um conjunto de dados reais apresentado no artigo de Freedman (1993), visando demonstrar a eficiência do modelo COM-Poisson em relação aos resultados por ele obtidos com as distribuições Poisson e Binomial Negativa.

Palavras-Chave: Iniciação e Promoção do Tumor; Cancinogênese; Distribuição COM-Poisson; Modelo Destrutivo; Modelos de Sobrevivência de Longa Duração.

Título: Distribuição Geométrica Half-Normal Potência com fração de cura

Autores: Yolanda Gómez Olmos; Heleno Bolfarine

Resumo: Neste trabalho considera-se o modelo de cura geométrico em Rodrigues et al. (2009) usando para S(.), a função de sobrevivência das células carcinogênicas, uma extensão da distribuição half-normal baseada na distribuição do máximo de uma amostra aleatória é utilizada, em que esta distribuição pertence à família de distribuições introduzida por Pescim et al.(2010) . É discutida a estimação de máxima verossimilhança do modelo. O modelo é ajustado a um banco de dados real (Melanoma), comparando-lo com o modelo Geométrico Birbaum-Saunders.

Palavras-Chave: Distribuição half-normal; Modelo de cura geométrico; Distribuição do máximo de uma amostra; Máxima verossimilhança.

Título: Distribuição Odd log-logística Weibull

Autores: José Nilton da Cruz; Gauss M. Cordeiro; Edwin M. M. Ortega; Morad Alizadeh

Resumo: Fornecer uma família ampla de distribuições é sempre precioso para a estatística. Neste contexto, Cruz et al.(2013) propuseram uma família de distribuições, a família Odd log-logística (OLL), que pode ser obtida pela adição de um parâmetro de forma à distribuições contínuas. Estes autores, apresentaram propriedades matemáticas gerais da família Odd log-logística, incluindo os momentos ordinários e incompletos,

Page 45: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

45

funções quantílica e geradora, valores extremos assintóticos, estatísticas de ordem e dois tipos de entropias. Neste trabalho, é apresentada a distribuição Odd log-logística Weibull (OLLW), um caso especial da família de distribuições OLL obtida pela adição de um parâmetro de forma considerando como distribuição de base a distribuição de Weibull. Uma das grandes vantagens da distribuição OLLW é que sua função de risco assume as formas unimodais e banheira. A potencialidade da distribuição Odd log-logística Weibull é demonstrada por meio da aplicação em dois conjuntos de dados reais.

Palavras-Chave: log-logística; Teste da razão de verossimilhança; Odd log-logística Weibull.

Título: Distribuição Weibull: Uma aplicação aos modelos de degradação

Autores: Jéssica da Assunção Almeida; Fábio Nogueira Demarqui

Resumo: O acesso à confiabilidade de dispositivos é, tradicionalmente, baseado em testes de vida acelerados. No entanto, em uma gama de situações envolvendo produtos altamente confiáveis, pouca informação acerca da confiabilidade destes produtos pode ser acessada, visto que um número significativamente reduzido de falhas é observado durante o período em que o produto permanece sob teste. Em situações nas quais é razoável a suposição de que as falhas são induzidas por um mecanismo de degradação, é possível acessar a confiabilidade de dispositivos através da informação proveniente do seu mecanismo de degradação, obtida após um período de monitoramento dos dispositivos sob investigação. Neste trabalho um conjunto de dados real foi analisado com o intuito de ilustrar como dados de degradação podem ser utilizados para se acessar a confiabilidade de produtos. Os dados de degradação foram modelados através do método analítico e o método aproximado. Para ambos os métodos, a distribuição Weibull foi assumida para modelar a distribuição do tempo até a falha, e abordagens frequentista e Bayesiana foram consideradas. O ajuste dos diferentes modelos foi realizado através dos softwares estatísticos R e OpenBugs. Com base nos modelos ajustados foram obtidas medidas importantes no estudo de confiabilidade, como a função de confiabilidade e percentis da distribuição do tempo de vida dos produtos. Finalmente, foi observado que, para o conjunto de dados analisado, os métodos analítico e aproximado apresentaram resultados similares, independentemente da abordagem (frequentista ou Bayesiana) adotada. Este trabalho é desenvolvido com auxílio financeiro da FAPEMIG.

Palavras-Chave: Confiabilidade; Inferência Bayesiana; Método Analítico; Método Aproximado ; Métodos MCMC.

Título: Distribuições Uniformizadas em Análise de Sobrevivência

Autores: Josenildo de Souza Chaves

Resumo: Neste trabalho propomos uma formulação de distribuições uniformizadas de probabilidade para representar o tempo de vida e o tempo de censura em análise de sobrevivência. A metodologia é ilustrada utlilizando a distribuição uniforme-Weibull considerando o modelo de mistura padrão com fração de cura. Um caso particular utilizado por alguns autores é dado pela distribuição uniforme-exponencial.

Palavras-Chave: distribuições uniformizadas; distribuição uniforme-Weibull; análise de sobrevivência.

Page 46: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

46

Título: Estudo do modelo de regressão para distribuição semi-normal generalizada e Weibull, para dados de tempos de vida

Autores: Mariana de Almeida Gomes; José Carlos Fogo

Resumo: Trabalhos recentes em análise de sobrevivência têm introduzido novos modelos, mais versáteis e que acomodam diferentes tipos de curvas de risco. O modelo de Weibull, amplamente difundido, mostrou-se incapaz de ajustar riscos não monótonos (COORAY e ANANDA, 2008). Modelos de Weibull modificado e generalizações de outras distribuições tem sido introduzidos na literatura nos últimos anos, dos quais destacamos (CORDEIRO et al, 2010), (PESCIM et al, 2010), (CORDEIRO E CASTRO, 2009). Cooray e Ananda (2008) introduziram o modelo semi-normal generalizado (SNG) como opção ao modelo de Weibull, para acomodar curvas de risco não monótonas. Este trabalho visa estudar e comparar o modelo de regressão Weibull, com o modelo de regressão semi-normal generalizado, aplicado a dados de sobrevivência. Para isso, foram realizadas simulações a fim de estudar o comportamento dos estimadores de máxima verossimilhança. Pelos resultados obtidos verificamos que o modelo de regressão SNG apresentou performance muito boa. Além das simulações um exemplo com dados reais foi apresentado, no qual o modelo proposto (SNG) apresentou melhor desempenho.

Palavras-Chave: Análise de Sobrevivência; Distribuição Semi-Normal Generalizada; modelo de Weibull; modelo de regressão para tempos de vida.

Título: Estudo sobre a evasão e o tempo até a formatura dos alunos do curso de estatística da UFPR

Autores: Bruno Rosevics; Estevão B. Prado; Suely R. Giolo

Resumo: Nesse trabalho, foram analisados os dados dos alunos que ingressaram no curso de graduação em Estatística da Universidade Federal do Paraná (UFPR) no período de 1991 a 2010. Como dois currículos nortearam o curso neste período (1991 e 2006), análise foi realizada para cada um deles. O currículo 1991 compreende alunos ingressos entre 1991 e 2005 (período este anterior à implantação do Processo Seletivo Estendido (PSE)) e o currículo 2006, os ingressos entre 2006 e 2010, já com o PSE. O processo seletivo estendido compreende, além das duas fases que compõem o vestibular da UFPR, uma terceira fase em que o aluno é avaliado durante 6 meses em duas disciplinas. Tal processo tem como um de seus objetivos reduzir a taxa de evasão. O objetivo desse trabalho foi analisar características que estão associadas à evasão e ao tempo até a formatura dos alunos mencionados. Para isso, foi utilizado o modelo de mistura com fração de cura. De modo geral, o modelo mostrou ajuste satisfatório para ambos os currículos, tendo como principais variáveis para o componente de sobrevivência o IRA e tipo de ingresso e para o componente logístico o IRA e idade.

Palavras-Chave: Evasão; Graduação em Estatística; Análise de sobrevivência; Modelo de mistura; Fração de cura.

Título: Exponentiated Modified Weibull Model with Long Term Survival: A hazard Models to Cancer Problems

Autores: Gleici Castro Perdona, Hayala C. S. Cavenague, Cleyton Zanardo , Francisco Louzada, Fernanda Maris Peria, Thais O. Gozzo

Resumo: In this paper, we discuss a family Modified Weibull of hazard model to breast

Page 47: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

47

cancer problematic. The breast cancer is addressed here by the high incidence and lack of knowledge in survival among women worldwide. The model is very flexible, and accommodates several particular cases. Inference procedure is based on maximum likelihood. A simulation study is performed in order to verify the frequentists properties of the maximum likelihood estimation procedure and alternative intervals.Two real examples on breast cancer is addressed.

Palavras-Chave: Hazard modeling; Cure rate; breast cancer; Weibull; survival.

Título: Frailty models power variance function (PVF) with cure fraction and latent risk factors negative binomial

Autores: Vinicius Fernando Calsavara; Vera Lúcia Damasceno Tomazella; Mário de Castro de Andrade Filho

Resumo: Extension of survival models with cure rate that take into account the probability of an individual to be cured, can be classified within the classical mixture cure rate model Berkson & Gage (1952) or stochastic model with tumor latency developed by Yakovlev & Tsodikov (1996) and extended to a hierarchical structure by Chen et al. (1999). In this paper, we developed a cure rate model with a frailty term in latent risks. This model is an extension of the unified long-term survival models by Rodrigues et al. (2009). It is more flexible in terms of dispersion and by quantify the unobservable heterogeneity. Parameters estimation is discussed through the maximum likelihood estimation procedure. Furthermore, a simulation study and an application to a real data set illustrates the applicability of the proposed model.

Palavras-Chave: Competing risks; Cure rate models; Frailty models; Long-term survival models; Power variance function distribution.

Título: Gráficos CUSUM Ajustados ao Risco para Monitoramento de Tempos de Sobrevivência com Fração de Cura

Autores: Jocelânio Wesley de Oliveira; Dione Maria Valença; Pledson Guedes de Medeiros

Resumo: Neste trabalho estudamos o uso de técnicas de Controle Estatístico de Processos (CEP) para monitoramento de tempos de sobrevivência. Diferentemente de aplicações na área industrial, em que a população em estudo é considerada homogênea, o CEP na área de saúde admite a heterogeneidade e leva em consideração características particulares de pacientes que, antes de se submeterem a um procedimento médico, podem apresentar diferentes riscos de morte. Nessa perspectiva, alguns autores propõem o uso de um gráfico de controle CUSUM ajustado ao risco (RAST CUSUM) para monitorar resultados clínicos em que a resposta é o tempo até a ocorrência de um evento e está sujeita a censura à direita. No entanto, os modelos adotados não consideram a possibilidade de fração de cura. Neste estudo propomos estender esta abordagem considerando um modelo de sobrevivência com fração de cura. Para tanto, admitimos as distribuições log-logística e Weibull como exemplos. Finalmente, realizamos um estudo de simulação com a distribuição Weibull para obter limites de controle ótimos e avaliar o desempenho do gráfico que propomos em comparação com o RAST CUSUM sem fração de cura. Como resultado, notamos que o gráfico RAST CUSUM sem fração de

Page 48: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

48

cura se mostra inadequado ao ser aplicado em dados com fração de cura, mas o gráfico RAST CUSUM com fração de cura parece ter desempenho similar se aplicado em dados sem fração de cura.

Palavras-Chave: Análise de Sobrevivência; Controle Estatístico de Processos; Fração de cura; RAST CUSUM.

Título: Inferência Bayesiana no modelo Weibull discreto em dados com presença de censura

Autores: Gabriel Hideki Vatanabe Brunello; Eduardo Yoshio Nakano

Resumo: Este trabalho apresenta uma inferência bayesiana da distribuição Weibull discreta em dados com presença de censuras. Foi proposto também um teste de significância genuinamente bayesiano (FBST − Full Bayesian Significance Test) para testar o seu parâmetro de forma. As distribuições a posteriori dos parâmetros foram obtidas por meio de simulações via Markov Chain Monte Carlo (MCMC) e a metodologia desenvolvida foi ilustrada em simulações e aplicada em um conjunto de dados sobre o tempo de sobrevivência de homens diagnosticados com AIDS. Todas as simulações e obtenções das estimativas foram realizadas através do software free R.

Palavras-Chave: Análise de Sobrevivência; FBST; Inferência Bayesiana; MCMC; Testes de Hipóteses.

Título: Modelagem Estatística para Análise de Dados Imobiliários com Censura a Esquerda em modelos GAMLSS: Um estudo de caso de lotes urbanos na cidade de São Carlos, SP

Autores: Amanda Cristina Estevam; Guilherme Moraes Ferraudo; Vera Tomazella; Francisco Louzada Neto

Resumo: O mercado imobiliário possui um papel fundamental na economia do país e municípios atraindo diversos estudos e pesquisas que buscam explicar e interpretar as inúmeras transações realizadas. Geralmente a modelagem de dados imobiliários é feita por meio de modelos de regressão, especialmente os lineares e também, os modelos lineares generalizados, e mais recentemente através dos modelos aditivos generalizados para posição, escala e forma (GAMLSS) propostos por Rigby & Stasinopoulos (2005). No entanto, existem dois tipos de preços de imóveis: já vendidos (observados) e anunciados (censurados) e todas essas metodologias mencionadas são restritas aos valores completos, ou seja, aos valores de venda dos imóveis. Neste contexto e com base em um conjunto de dados de lotes urbanos da cidade de São Carlos do ano de 2005 foi proposto aos dados a utilização da análise de sobrevivência considerando censura a esquerda e o GAMLSS no processo de estimação dos parâmetros a fim de incorporar na modelagem também os imóveis em negociação.

Palavras-Chave: Modelos de avaliação em massa; Censura a esquerda; GAMLSS; Título: Modelo de análise de sobrevivência para avaliações audiométricas de motoristas de uma empresa agrícola

Autores: Miriam Harumi Tsunemi; Fernanda Zucki; Renata Fernandes

Resumo: A prevenção da perda auditiva em ambiente de trabalho é de grande

Page 49: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

49

importância por ser uma doença irreversível e que afeta negativamente a qualidade de vida do indivíduo. Nesta pesquisa, avaliaram-se os prontuários de motoristas com queixas auditivas de uma empresa do ramo agrícola do município de Lençóis Paulista/SP baseado no Programa de Prevenção de Riscos Ambientais. As informações avaliadas foram idade, tempo de exposição ao ruído e aos hidrocarbonetos e exames de audiometria tonal liminar de referência. Com o objetivo de avaliar a influência da idade e do tempo de exposição do hidrocarboneto sobre os limiares auditivos, ajustaram-se os modelos de sobrevivência para dados grupados (riscos proporcionais e logístico) apresentados por Colosimo e Giolo (2006) pois os limiares apresentam escalas fixas. A partir desse modelo, verificou-se que os efeitos da idade e do tempo de exposição ao ruído combinado ao hidrocarboneto foram significativos na perda de audição nos modelos de riscos proporcionais e logísticos e, desse modo, salienta-se a importância de ações voltadas na prevenção da exposição dos trabalhadores a esses fatores de risco.

Palavras-Chave: dados audiométricos; análise de sobrevivência para dados grupados; perda de audição.

Título: Modelo de mistura com efeitos aleatórios bivariados: usando outras ligações na cura

Autores: Diego I. Gallardo Mateluna; Heleno Bolfarine; Antonio C. Pedroso de Lima

Resumo: A maioria dos estudos com fração de cura no contexto de análise de sobrevivência relacionam a chance de cura com as covariáveis usando a ligação logística, a qual é simétrica. Outras alternativas na literatura são a ligação probito (também simétrica) e a ligação complementar log-log. Nós avaliamos o uso de ligações assimétricas desde que o principal objetivo do estudo seja a estimação da fração de cura. Adicionalmente, nós supomos que os indivíduos são tratados em clínicas e que cada clínica pode ter um efeito sobre os pacientes curados e também os não curados. É implementado o algoritmo EM conjugado com um procedimento de estimação REML no passo M. Comparação de modelos é feita através de AIC e BIC. Um estudo de simulação é conduzido e também é apresentado uma aplicação a um banco de dados de literatura.

Palavras-Chave: Modelo de mistura; Efeitos aleatórios bivariados; REML; fração de cura.

Título: Modelo log-gama generalizado com fração de cura: implementação computacional Autores: Rumenick Pereira da Silva; Dione Maria Valença Resumo: Em análise de sobrevivência a variável em estudo, comumente, é o tempo até a ocorrência de um determinado evento de interesse. Este tempo é denominado tempo de vida ou de falha e pode ser, por exemplo, o tempo até que um paciente venha a óbito devido a alguma doença, ou ainda o tempo até que um cliente abandone uma determinada instituição financeira. A teoria usual assume que, se observado por um longo período de tempo todos os indivíduos irão falhar em algum momento. Mas, em algumas situações uma proporção da população pode não estar mais sujeita à ocorrência deste evento e, por mais longo que seja o tempo de observação, o evento nunca ocorrerá para esta parte da população. Neste sentido, alguns modelos foram propostos e são conhecidos na literatura como modelos com fração de cura ou com longa duração. Tendo em vista estes aspectos o objetivo deste trabalho é propor uma rotina amigável em linguagem R através do pacote flexsurv (JAKSON, 2014) para estimar os parâmetros do modelo log-gama generalizado com fração de cura e avaliar via simulação o desempenho destas implementações, considerando diferentes cenários. Nota-se que, os resultados das

Page 50: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

50

simulações foram satisfatórios, pois para todos os cenários as médias das estimativas dos parâmetros associados, respectivamente, a fração de cura e o tempo médio foram bem próximas do verdadeiro valor, e seus respectivos EP e REQM foram valores relativamente pequenos e próximos, o que garante a pouca variabilidade das estimativas das réplicas e pequenos vieses.

Palavras-Chave: Análise de Sobrevivência; flexsurv versus implementação computacional; Modelos log-gama generalizado com fração de cura; Estudo de simulação e aplicação.

Título: Modelos Weibull generalizada e log-normal generalizada para dados grupados e censurados

Autores: Liciana Vaz de Arruda Silveira; Jose Nilton da Cruzy; Jose Eduardo Corrente; Tânia Ruiz; José Raimundo de Souza Passos

Resumo: O envelhecimento populacional, fato incontestável da demografia brasileira nas últimas décadas, tornou o estudo dos idosos da maior importância para o planejamento social da população que desponta neste século com este novo perfil. A literatura refere-se à diferença na sobrevivência de coortes de idosos observados segundo algumas variáveis. No município de Botucatu, São Paulo foram conduzidos inquéritos populacionais nos anos de 2003, 2006 e 2010, com o objetivo de avaliar a sobrevida de idosos (Ruiz et al, 2006). Os dados obtidos com este estudo presentaram muitos empates, sendo assim, resolveu-se trat�á-los como grupados (Chalita et al, 2002). Assim, o objetivo deste trabalho foi desenvolver a an�álise de dados de sobrevivência para modelos paramétricos mais gerais, tais como, Weibull generalizada e log-normal generalizada, para dados grupados e censurados e aplicá-los aos dados da coorte de idosos, considerando como "eventos" a morte por todas as causas e algumas especiais. O uso destes modelos torna-se uma alternativa interessante ao modelo de riscos proporcionais de Cox podendo resultar em melhores ajustes. Os modelos, de Cox, Weibul generalizada e log-normal generalizada, foram aplicados aos dados e comparados os seus ajustes atrav�és do crit�ério de informa�ção de Akaike (AIC). A análise foi feita separadamente para cada gênero, pois os segmentos feminino e masculino da população apresentam comportamentos bastante distintos com relação à sobrevida. Comparando os valores de critério AIC, o modelo Weibull generalizado se ajustou melhor os dados, considerando-se cada sexo. As co-variáveis que foram importantes na definição do modelo de Weibull generalizado foram no caso do sexo feminino, mais velhos do que 69 anos (p <0,0001), diabetes (p = 0,0029) e têm doença cardiovascular (p <0,0001) e, no caso do sexo masculino, idade mais de 69 anos (p = 0,0002), diabetes (p = 0,0008), com doença circulatória (p <0,0001) e ter outra fonte de renda (p = 0,0259).

Palavras-Chave: modelo de Cox; Sobrevida de idosos; modelo lognormal generalizada

Título: Modelos de riscos competitivos mistos aplicados ao estudo de longevidade

Autores: Rafael Pimentel Maia; Rodrigo Labouriau

Resumo: Neste trabalho é introduzido uma classe de modelos de sobrevivência mistos multivariados, tanto para tempo contínuo quanto para discreto, com complexa estrutura de covariâncias, aplicados, em particular, em estudos de longevidade no contexto de genética quantitativa. Os métodos multivariados apresentados aqui compõem um conjunto de ferramentas de grande importância para o estudo de problemas de riscos

Page 51: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

51

competitivos, em que mais de uma causa de morte é observada. Tais métodos permitem tanto a caracterização de mecanismos genéticos associados a taxa de mortalidade para cada possível causa de morte, quanto o estudo da correlação entre os possíveis mecanismos genéticos. Além disso, os métodos apresentados são implementados de tal forma que permitem a análise de grandes e complexas bases de dados, muito comum em estudos aplicados na área de genética quantitativa.

Palavras-Chave: modelos multivariados; riscos competitivos; genética quantitativa; modelos de dispersão.

Título: Modelos para dados grupados e censurados: comparação usando fator de Bayes

Autores: Sophia Lanza de Andrade; Liciana Vaz de Arruda Silveira; Luciano Barbosa

Resumo: Em Análise de Sobrevivência, é comum a ocorrência de dados grupados e censurados. Dentre os possíveis modelos adaptados a este tipo de dados, tem-se o Modelo logístico e o Modelo de Cox. A comparação entre o ajuste destes dois modelos pode ser feita utilizando o teste escore proposto por Colosimo et al. (2001), Bootstrap não paramétrico ou critérios de informação de Akaike (AIC). Uma alternativa a estas técnicas é a utilização do Fator de Bayes. Neste artigo temos interesse em utilizar o teste escore para discriminar os modelos estudados, incluir o fator de Bayes e aplicar a metodologia a um conjunto de dados referente a uma manifestação clínica da doença e Chagas, conhecida como megacolo chagásico (Almeida, 1996).

Palavras-Chave: Análise de Sobrevivência; dados grupados e censurados; Modelo logístico; Modelo de Cox para dados grupados e censurados; fator de Bayes.

Título: Propriedades estatísticas e matemáticas da distribuição Pareto tipo IV e sua aplicação em dados censurados

Autores: Paulo H. D. Silva; Thiago M. Carvalho; Cira E. G. Otiniano; Eduardo Y. Nakano

Resumo: Apresentamos neste trabalho algumas propriedades estatísticas e matemáticas do modelo Pareto tipo IV, tais como os momentos ordinais, momentos centrais, função característica e entropia de Renyi. As estimativas dos parâmetros do modelo foram obtidas dentro de um contexto de Análise de Sobrevivência e a metodologia foi ilustrada em simulações realizadas através do software R.

Palavras-Chave: Análise de sobrevivência; Momentos; Entropia de Renyi; Função Característica; Pareto tipo IV.

Título: Slashed generalized half-normal distribution

Autores: Neveka M. Olmos; Héctor Varela; Heleno Bolfarine; Héctor W. Gómez

Resumo: In this paper we propose an extension of the generalized half-normal distribution studied in Cooray and Ananda (2008). This new distribution is defined by considering the quotient of two random variables, the one in the numerator being a generalized half normal distribution and the one in the denominator being a power of the uniform distribution on $(0,1)$, respectively. The resulting distribution has greater kurtosis than the generalized half normal distribution. The density function of this more general distribution is derived jointly with some of its properties and moments. We discuss stochastic representation,

Page 52: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

52

maximum likelihood and moments estimation. A real data application is presented where the model fitting is implemented by using maximum likelihood estimation producing better results than the classic Birnbaum-Saunders model.

Palavras-Chave: Generalized half-normal distribution; slash distribution; slashed half-normal; kurtosis.

Título: Tempo de Permanência de Alunos no Curso de Estatística da UFBA: Uma Análise de Tempos Discretos

Autores: Giovana Oliveira Silva; Maristela Dias de Oliveira

Resumo: Em geral, os cursos de Estatística no Brasil experimentam uma alta taxa de evasão, baixa concorrência e alta reprovação nas disicplinas iniciais do curso, principalmente as de Matemática. Devido à sequência a ser cumprida, uma reprovação numa única disciplina pode representar um atraso de um ano para a formatura, o que dilata o tempo de permanência original da grade curricular do aluno. Esse tempo de permanência é uma variável aleatória de natureza discreta, já que a conclusão do curso deve coincidir com o final do semestre letivo, especificado no calendário acadêmico da universidade. Este trabalho propõe analisar o tempo de permanência dos alunos do curso de Bacharelado em Estatística da Universidade Federal da Bahia, através de ajustes de modelos de sobrevivência em tempos discretos.

Palavras-Chave: Tempo de Permanência de alunos; Análise de Sobrevivência; Tempos Discretos; Modelo Geométrico.

Título: The Birnbaum-Saunders power series family of distributions

Autores: Marcelo Bourguignon; Rodrigo Bernardo Silva; Gauss Cordeiro

Resumo: We propose a new family of distributions by compounding the Birnbaum-Saunders and power series distributions. We provide important mathematical properties such as moments, order statistics, estimation of the parameters and inference for large sample. The new family includes as special cases the baseline distribution and the usual inference procedures can be adopted. Two special cases of the new family are investigated with some details. We fit the proposed model using maximum likelihood estimation to a real data set to illustrate its flexibility.

Palavras-Chave: Birnbaum-Saunders distribution; Maximum likelihood estimation; Power series distribution.

Título: The Weibull Generalized Poisson distribution

Autores: Ana Percontini; Gauss M. Cordeiro; Edleide Brito

Resumo: Em Estatística, costuma-se investigar distribuições mais flexíveis. Uma nova distribuição contínua é estudada pela composição das distribuições Poisson generalizada e Weibull. Considerar a distribuição do tempo de vida de um sistema em série com um número aleatório Z componentes. Tomando a Poisson generalizada para a distribuição de Z, nós definimos a distribuição Weibull Poisson generalizada compondo as duas

Page 53: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

53

distribuições. Várias propriedades matemáticas do modelo proposto são investigadas, incluíndo expressões explícitas para os momentos ordinários e incompletos, função geradora, desvios médios, dois tipos de entropias e estatísticas de ordem. Discutimos estimação do modelo de parâmetros por máxima verossimilhança e fornecemos uma aplicação a uma conjunto de dados reais. Esperamos que a proposta de distribuição sirva como um modelo alternativo para outras distribuições para modelar dados reais positivos em muitas áreas.

Palavras-Chave: Distribuição Poisson generalizada; Distribuição Weibull; Máxima verossimilhança.

Título: Um modelo de behavioral scoring utilizando análise de sobrevivência

Autores: Jonas de Souza Pacheco; Lisiane Priscila Roldão Selau; Álvaro Vigo

Resumo: A utilização de modelos de credit scoring mostra-se benéfica por diversos fatores, como consistência nas decisões, automatização na concessão, aumento no volume de análises e capacidade de monitorar e administrar o risco de uma carteira de crédito. Várias técnicas estatísticas podem ser utilizadas para a construção desses modelos e dentre elas destaca-se a análise de sobrevivência. Essa técnica apresenta a vantagem de poder prever quando ocorrerá o evento de interesse, diferente de outras técnicas tradicionalmente utilizadas, como a regressão logística. Nesse sentido, o objetivo do presente artigo é apresentar um método, composto de cinco etapas, para a construção de modelos comportamentais utilizando a técnica de análise de sobrevivência. Ao realizar-se a comparação entre o modelo atualmente utilizado pela empresa, proveniente de um bureau externo, e o modelo utilizando análise de sobrevivência, construído com o método proposto, têm-se uma melhora de aproximadamente 20% na discriminação entre bons e maus pagadores.

Palavras-Chave: Crédito; Behavioral scoring; Análise de sobrevivência.

Título: Um Modelo Bayesiano Para Dados de Sobrevivência com Fração de Cura e Erro nas Covariáveis

Autores: Brian Alvarez Ribeiro de Melo; Heleno Bolfarine

Resumo: Neste trabalho, apresentamos o modelo de sobrevivência com fração de cura quando uma das covariáveis é medida com erro, apresentado por Mizoi et al. (2007), avaliado sob a perspectiva Bayesiana. O modelo é construído considerando a distribuição Weibull para os riscos competitivos e utilizando a verossimilhança corrigida, apresentada em Nakamura (1990). Resultados provenientes de simulações mostram boas propriedades do estimador de Bayes dos coeficientes de regressão e o modelo também é aplicado à uma base de dados sobre melanoma maligno. A estimação é feita de forma direta, utilizando o software OpenBUGS.

Palavras-Chave: Análise de Sobrevivência; Inferência Bayesiana ; Modelos com fração de cura; Covariáveis com erro de medida; Modelo tempo de promoção.

Page 54: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

54

Título: Um Novo Modelo de Sobrevivência com Fração de Cura: Uma Abordagem Bayesiana

Autores: Katherine E. C. Zavaleta ; Vicente G. Cancho; Adriano K. Suzuki

Resumo: Neste trabalho de sobrevivência foi proposto um novo modelo de sobrevivência com fração de cura. O modelo foi desenvolvido desde uma perspectiva biológica onde foi assumido, que o número inicial de causas competitivas (lesões ou células alteradas) de um evento de interesse segue uma distribuição Séries de Potências Zero Inflacionadas (SPZI). Além disso é desenvolvido procedimentos inferênciais desde uma abordagem Bayesiana usando métodos Monte Carlo em Cadeias de Markov (MCMC). Como aplicação utilizamos um conjunto de dados reais apresentado em Kersey et al. (1987).

Palavras-Chave: Distribuição Serie de potência; Distribuição Zero Inflacionada; Análise de sobrevivência; Inferência Bayesiana.

Título: Uma Aplicação Bayesiana Utilizando Dados Bivariados Correlacionados

Autores: Daiana Aldrovande; Carlos Aparecido dos Santos

Resumo: Utilizando Análise Bayesiana, modelamos dados de sobrevivência bivariados, onde aplicamos o modelo Farlie-Gumbel-Morgenstern com densidades marginais exponenciais independentes. Uma aplicação foi feita no conjunto de dados introduzido por Miller, R.G., Brown, B.W. & Moses, L.E. em Biostatistics Casebook (1980).

Palavras-Chave: Análise Bayesiana; Dados Bivariados; Modelo Farlie-Gumbel-Morgenstern; Dados de Sobrevivência.

Título: Verossimilhança hierárquica em modelos de Sobrevivência

Autores: William Nilson de Amorim; Gisela Tunes; Antonio Carlos Pedroso de Lima

Resumo: Os métodos de estimação para modelos de fragilidade vêm sendo bastante discutidos na literatura estatística devido a sua grande utilização em estudos de Análise de Sobrevivência. Vários métodos de estimação de parâmetros dos modelos foram desenvolvidas: procedimentos de estimação basados no algoritmo EM, cadeias de Markov de Monte Carlo, processos de estimação usando verossimilhança parcial, verossimilhança penalizada, quasi-verossimilhança, entro outros. Uma alternativa que vem sendo utilizada atualmente é a utilização da verossimilhança hierárquica. O objetivo principal deste trabalho é estudar as vantagens e desvantagens da verossimilhança hierárquica para a inferência em modelos de fragilidade em relação a verossimilhança penalizada, método atualmente mais utilizado. Além disso, rotinas computacionais e estudos de simulação serão desenvolvidos, bem como aplicação a dados reais.

Palavras-Chave: Modelos de fragilidade; verossimilhança hierárquica; verossimilhança penalizada.

Page 55: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

55

Sessão: Concursos (IC, Mestrado e Doutorado)

Título: Aproximações para a DCT baseadas nos algoritmos de Feig-Winograd e Chen

Autores: Claudio J. Tablada; Renato J. Cintra (orientador); Fábio M. Bayer (co-orientador)

Resumo: Nos últimos anos, a comunidade de processamento e análise de sinais tem apresentado contribuições teóricas e práticas objetivando a proposição de aproximações para a transformada discreta do cosseno (DCT). A DCT tem a importância de ser a ferramenta matemática central empregada em vários padrões de compressão de imagens e vídeo, tais como JPEG, MPEG-1, MPEG-2, H.261, H.263, H.264 e o recente HEVC. Aproximações para a DCT são usualmente livres de multiplicação e podem ser implementadas em hardware com baixo custo computacional. Nesta dissertação é realizada uma revisão da literatura de aproximações para a DCT com os principais resultados obtidos neste campo. Como contribuições originais, são propostas: (i) uma classe de aproximações para a DCT baseada na parametrização da fatoração de Feig-Winograd e (ii) duas aproximações baseadas na fatoração de Chen. Para a classe de aproximações baseada na fatoração de Feig-Winograd, foi considerado um problema de otimização multiobjetivo para selecionar transformadas ótimas com respeito a algumas medidas objetivas de qualidade, tais como erro de energia, erro quadrático médio, ganho de codificação e eficiência da transformada. As aproximações introduzidas neste trabalho são avaliadas no contexto de compressão de imagens e comparadas com aproximações descritas na literatura. Para esta avaliação foram consideradas a relação sinal-ruído de pico e o índice de similaridade estrutural como figuras de mérito. Dos resultados obtidos, conclui-se que as novas aproximações propostas resultam ser boas transformadas para serem usadas no contexto de compressão de imagens em aplicações que requerem baixo custo de implementação.

Palavras-Chave: Transformada discreta do cosseno; Transformadas aproximadas; Complexidade aritmética; Compressão de imagem.

Título: Avaliação Esportiva Utilizando Tecnicas Multivariadas: Construção de Indicadores e Sistema Online

Autores: Alexandre C. Maiorano; Francisco Louzada Neto

Resumo: O principal objetivo do trabalho é apresentar ferramentas estatísticas que permitam a comparação de indivíduos em uma determinada modalidade esportiva. Particularmente, o estudo exposto é voltado à avaliação de desempenho em futebol, utilizando métodos univariados e multivariados. A abordagem univariada é dada pela metodologia Z-CELAFISCS, desenvolvida com o propósito de identificar talentos no esporte. As abordagens multivariadas são dadas pela construção de indicadores, mais especificamente por meio da Análise de Componentes Principais, Análise Fatorial e Cópulas. A obtenção desses indicadores possibilita a redução da dimensionalidade do estudo, fornecendo melhor interpretação dos resultados e melhor comparabilidade entre o desempenho e rankeamento dos indivíduos. Para facilitar a utilização da metodologia aqui estudada, um sistema estatístico online, chamado de i-Sports, foi construído.

Palavras-Chave: Avaliação Esportiva; Metodologia Z-CELAFISCS; Análise de Componentes Principais; Análise Fatorial; Teoria de Cópulas.

Page 56: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

56

Título: Dados antropométricos da POF 2008/2009: uma estimação usando método de quantis para pequenos domínios

Autores: Luna Hidalgo Carneiro; Pedro Luis do Nascimento Silva

Resumo: O conhecimento sobre a antropometria da população é cada vez mais necessário à orientação de políticas de saúde pública. No Brasil, a principal fonte oficial de dados antropométricos básicos (peso e altura) é a Pesquisa de Orçamentos Familiares realizada pelo Instituto Brasileiro de Geografia e Estatística. O IBGE divulga somente os resultados da mediana do peso e da altura da população por sexo e grupo etário, tendo como menor nível de desagregação geográfica a unidade da federação. Entretanto, com a demanda por informações em níveis de desagregação cada vez menores, torna-se necessário o emprego de técnicas que possibilitem obter estimativas confiáveis para áreas nas quais há disponível somente uma amostra de tamanho reduzido. O IBGE utilizou a estimação direta para o cálculo das estimativas de mediana do peso e altura obtidas pela POF. Este trabalho propõe a aplicação de dois métodos alternativos de estimação para quantis em pequenas áreas ou domínios: os métodos de regressão quantílica linear e de regressão M-quantílica. São comparadas estimativas diretas e estimativas de regressão quantílica ou M-quantílica para os centis 10, 50 e 90 e seus erros-padrão obtidas para algumas UFs utilizando os microdados da POF 2008-2009. O método de regressão quantílica forneceu as melhores estimativas, seguido pelo método de M-quantil, que teve algumas limitações para a sua aplicação.

Palavras-Chave: antropometria; centis; pesquisas amostrais; pequenos domínios; regressão quantílica e M-quantílica para pequenos domínios.

Título: Estimação do tamanho populacional a partir de um modelo de captura-recaptura com heterogeneidade

Autores: George Lucas Moraes Pezzott; Luis Ernesto Bueno Salasar; José Galvão Leite

Resumo: Neste trabalho, consideramos a estimação do número de erros em um software provenientes de uma população fechada. O processo de estimação do tamanho populacional é baseado no método de captura-recaptura, que consiste em examinar o software, em paralelo, por certo número de revisores. O modelo probabilístico adotado acomoda situações em que os revisores são independentes e homogêneos (igualmente eficientes) e que cada erro é um elemento que faz parte de uma partição disjunta quanto à sua probabilidade de detecção. Propomos um processo iterativo para obtenção das estimativas de máxima verossimilhança em que utilizamos o algoritmo EM na estimação dos parâmetros perturbadores. Estimativas dos parâmetros populacionais também foram obtidas sob o enfoque Bayesiano, onde utilizamos simulações de Monte Carlo em Cadeias de Markov (MCMC) através do algoritmo Gibbs sampling com a inserção de variáveis latentes nas distribuições condicionais a posteriori. As duas abordagens foram aplicadas em dados simulados e em dois conjuntos de dados reais da literatura.

Palavras-Chave: Modelo de captura-recaptura; Modelo de mistura; Erros de software; Algoritmo EM; Gibbs sampling.

Título: Modelo Hierárquico Robusto para o Risco Coletivo

Autores: Pamela Massiel Chiroque Solano; Fernando Antonio da Silva Moura

Resumo: Neste trabalho propõem-se modelos hierárquicos robustos para o risco coletivo

Page 57: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

57

com sobredispersão e sob o paradigma bayesiano. Deste modo, obtém-se estimadores robustos do prêmio de um seguro que não são muito influenciados pelas observações aberrantes e nem pela sobredispersão. Assume-se que os valores agregados dos sinistros tenham uma distribuição com cauda à direita mais pesada do que a usualmente empregada. Em particular, consideramos que a distribuição do logaritmo dos valores agregados dos sinistros seguem uma distribuição T-student. Uma distribuição a priori de Jeffreys para o grau de liberdade é obtida e examinada. Além disso, propõe-se uma modificação na distribuição do número de sinistros para incorporar uma possível sobredispersão. Uma distribuição a priori de referência para o parâmetro de sobredispersão é obtida e analisada. Com o objetivo de calcular o prêmio justo, usando a teoria de decisão bayesiana, adota-se a função de utilidade "Desvio absoluto modificado", sendo esta adequada para dados com valores aberrantes. Para avaliar a capacidade preditiva do modelo e a estimação dos parâmetros, uma análise com dados simulados é realizada. Finalmente, apresenta-se uma aplicação para um conjunto de dados reais. A comparação de modelos e o cálculo do valor do prêmio são feitos considerando-se a distribuição preditiva a qual incorpora toda a incerteza envolvida.

Palavras-Chave: priori de Jeffreys, ; priori de referência; teoria de decisão; CRPS (Continuous ranked probability score); DIC, Bayes Fator.

Título: Modelos da Teoria de Resposta ao Item Multidimensionais Assimétricos de Grupos Múltiplos para Respostas Dicotômicas sob um Enfoque Bayesiano

Autores: Juan Leonardo Padilla Gomez; Caio Lucidius Naberezny Azevedo

Resumo: No presente trabalho propõe-se novos modelos da Teoria de Resposta ao Item Multidimensional (TRIM) para respostas dicotômicas ou dicotomizadas considerando uma estrutura de grupos múltiplos. Para as distribuições dos traços latentes de cada grupo, propõe-se uma nova parametrização da distribuição normal assimétrica multivariada centrada, que combina as propostas de Lachos (2004) e de Arellano-Valle et.al (2008), a qual não só garante a identificabilidade dos modelos aqui introduzidos, mas também facilita a interpretação e estimação dos seus parâmetros. Portanto, nosso modelo representa uma alternativa interessante, para solucionar os problemas de falta de identificabilidade encontrados por Matos (2010) e Nojosa (2008), nos modelos multidimensionais assimétricos de um único grupo por eles desenvolvidos. Estudos de simulação, considerando vários cenários de interesse prático, foram conduzidos a fim de avaliar o potencial da tríade: modelagem, métodos de estimação e ferramentas de diagnósticos. Os resultados indicam que os modelos considerando a assimetria nos traços latentes, em geral, forneceram estimativas mais acuradas que os modelos tradicionais. Para a seleção de modelos, utilizou-se o critério de informação deviance (DIC), os valores esperados do critério de informação de Akaike (EAIC) e o critério de informação bayesiano (EBIC). Em relação à verificação da qualidade do ajuste de modelos, explorou-se alguns métodos de checagem preditiva a posteriori, os quais fornecem meios para avaliar a qualidade tanto do instrumento de medida, quanto o ajuste do modelo de um ponto de vista global e em relação à suposições específicas, entre elas a dimensão do teste. Com relação aos métodos de estimação, adaptou-se e implementou-se vários algoritmos MCMC propostos na literatura para outros modelos, inclusive a proposta de aceleração de convergência de González (2004), os quais foram comparados em relação aos aspectos de qualidade de convergência através do critério de tamanho efetivo da amostra de Sahu (2002). A análise de um conjunto de dados reais, referente à primeira fase do vestibular da UNICAMP de 2013 também foi realizada. Palavras-Chave: Teoria de Resposta ao Ítem Multidimensional; Inferência Bayesiana; Identificabilidade; Distribuição Normal Assimétrica Multivariada; Parametrização Centrada.

Page 58: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

58

Título: Modelos lineares generalizados mistos multivariados para caracterização genética de doenças

Autores: Pedro Luiz Baldoni

Resumo: Os Modelos Lineares Generalizados Mistos (MLGM) são uma generalização natural dos Modelos Lineares Mistos (MLM) e dos Modelos Lineares Generalizados (MLG). A classe dos MLGM estende a suposição de normalidade dos dados permitindo o uso de várias outras distribuições bem como acomoda a superdispersão frequentemente observada e também a correlação existente entre observações em estudos longitudinais ou com medidas repetidas. Entretanto, a teoria de verossimilhança para MLGM não é imediata uma vez que a função de verossimilhança marginal não possui forma fechada e envolve integrais de alta dimensão. Para solucionar este problema, diversas metodologias foram propostas na literatura, desde técnicas clássicas como quadraturas numéricas, por exemplo, até métodos sofisticados envolvendo algoritmo EM, métodos MCMC e quase-verossimilhança penalizada. Tais metodologias possuem vantagens e desvantagens que devem ser avaliadas em cada tipo de problema. Neste trabalho, o método de quase-verossimilhança penalizada (Breslow & Clayton, 1993) foi utilizado para modelar dados de ocorrência de doença em uma população de vacas leiteiras pois demonstrou ser robusto aos problemas encontrados na teoria de verossimilhança deste conjunto de dados. Além disto, os demais métodos não se mostram calculáveis frente à complexidade dos problemas existentes em genética quantitativa. Adicionalmente, estudos de simulação são apresentados para verificar a robustez de tal metodologia. A estabilidade dos estimadores e a teoria de robustez para este problema não estão completamente desenvolvidos na literatura. Palavras-Chave: Modelos lineares generalizados; Inferência estatística; Genética quantitativa.

Page 59: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

59

Sessão: Educação Estatística

Título: Análise Múltipla de Correspondência e Associação Livre de Palavras como instrumentos auxiliares à metodologia ativa de ensino de Estatística

Autores: Alexandre Sousa da Silva; Bruno Francisco Teixeira Simões; Luciane de Souza Velasque; Maria Beatriz Assunção Mendes Cunha; Maria Tereza Serrano Barbosa; Ondina Lúcia Ceppas Resende

Resumo: Os professores de Estatística da UNIRIO vêm discutindo e implementando metodologias ativas de ensino e aprendizagem com o objetivo de tornar o aluno mais autônomo e capaz de realizar todas as etapas de uma pesquisa, do planejamento do experimento à realização do relatório, passando pela coleta e análise dos dados. Essas novas metodologias alteram a percepção dos alunos com relação à Estatística, que em alguns cursos não é sempre vista com bons olhos. Na tentativa de identificar os significados latentes da Estatística para os estudantes dos cursos de graduação após experiência com os métodos ativos, foi utilizado neste trabalho Teoria das Representações Sociais (TRS), neste processo o “Teste de Associação Livre de Palavras” (TALP) foi considerado, este, consiste basicamente em enunciação de palavras-estímulos e palavras associadas a estes estímulos. Para análise das palavras enunciadas foi utilizada Análise Múltipla de Correspondência. Os resultados mostras agrupamentos de palavras com relação aos centros.

Palavras-Chave: Análise Múltipla de Correspondência; Teste de Associação Livre de Palavras; Ensino de Estatística.

Título: Estatística no ensino médio: um olhar interdisciplinar a partir do ENEM

Autores: Fábio dos Santos Jardim; Luciana Neves Nunes

Resumo: Este trabalho tem por objetivo dissertar, no âmbito da Educação Matemática, sobre os conhecimentos de Estatística básica de um grupo de alunos do 3º ano do Ensino Médio do Colégio de Aplicação da UFRGS, escola federal situada na cidade de Porto Alegre. A partir de uma atividade prática, com foco na proposta interdisciplinar defendida pelo Exame Nacional do Ensino Médio (ENEM), foi realizado um estudo de caso que tratasse de responder a questões relacionadas ao pensamento estatístico utilizado de forma empírica e ao entendimento dos alunos quanto à relevância do Ensino de Estatística. Palavras-Chave: Ensino de Estatística; Estatística no Ensino Médio; Interdisciplinaridade no ENEM; Estudo de Caso.

Título: Impacto das disciplinas Métodos Estatísticos I e II no curso de estatistica

Autores: Carlos Virgilio; André Luís Santos de Pinho

Resumo: Este trabalho apresenta um estudo sobre o impacto das disciplinas Métodos Estatísticos I e II no desempenho dos alunos do curso de Estatística. Essas duas disciplinas são relativamente novas, pois foi incorporado ao curso de estatística apenas em 2004, para preencher a lacuna existente na formação dos alunos, melhorando assim sua fluência nos conceitos básicos e o desenvolvimento nas disciplinas

Page 60: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

60

profissionalizantes. Foram feitas duas pesquisas censitárias com os discentes de Métodos Estatístico I e II com objetivo de saber o nível de satisfação dos mesmos, se freqüentam a monitoria; se trabalham, todas levando em conta a nota da 1ª avaliação. O banco de dados utilizado neste trabalho foi gentilmente cedido pela coordenação de estatística, nele contendo informações sobre todos os alunos matriculados no semestre de 2007. Observou-se um grande aumento dos alunos que freqüentam a monitoria na turma de ME II em relação à turma de ME I, isso fruto dos esforços dos professores e monitores ao longo do semestre anterior. Observou-se também que as melhores notas apresentam associação positiva com não trabalhar, ler o material à medida que o assunto é apresentado em sala de aula, grau de satisfação elevado com as disciplinas, resultados esses, de certa forma, esperados. A outra parte da pesquisa foi realizada com os professores específicos das disciplinas: inferência; amostragem; planejamento de experimento; estatística não paramétrica e dados categorizados. A pesquisa foi censitária, pois o número de professores envolvidos era de apenas oito. O resultado da pesquisa dos professores revelou que, de uma forma geral, há uma percepção positiva dos professores em relação ao impacto das disciplinas de Métodos Estatísticos I e II.

Palavras-Chave: Metodo Estatistico; Estatistica; curso de graduação.

Título: O Ensino de Estatística em um 9° ano do ensino fundamental: uma abordagem interdisciplinar versando sobre o tema água e desenvolvimento sustentável

Autores: Jarbas Dionísio Camargo; Luciana Neves Nunes

Resumo: O presente trabalho tem como objetivo apresentar os principais resultados obtidos em uma prática de ensino realizada no segundo semestre de 2013, com um grupo de alunos do 9° ano do ensino fundamental na cidade de Esteio, Rio Grande do Sul. As atividades foram realizadas com o propósito de investigar possíveis contribuições de uma abordagem interdisciplinar versando sobre o tema água e desenvolvimento sustentável para aprendizagem significativa em Estatística e Matemática. Visando identificar se os objetivos foram atingidos, à luz da teoria da aprendizagem significativa de David Ausubel, realizou-se um estudo exploratório descritivo do material produzido durante as aulas, além da análise de anotações via relatório da prática. Assim, caracterizando-se essa pesquisa como sendo um estudo de caso. Os resultados obtidos permitiram concluir que o projeto interdisciplinar apresentou algumas contribuições para a aprendizagem significativa de conceitos matemáticos e de estatística no referido nível de ensino.

Palavras-Chave: Ensino de Estatística; Projeto interdisciplinar; Aprendizagem significativa. Título: proposta de ensino de estatística em uma turma de nono ano do ensino fundamental com uso do programa R-Commander

Autores: Luís Henrique Pio de Almeida; Aline Castello Branco Mancuso; Luciana Neves Nunes Resumo: Muitas pesquisas estão sendo realizadas na área de ensino de Matemática que apontam a necessidade e os ganhos educacionais no estudo e no ensino de conceitos estatísticos. Neste contexto, este trabalho traz a análise e a proposta de uma atividade para estudantes do Ensino Fundamental. O principal objetivo deste trabalho foi planejar e aplicar uma sequência didática, envolvendo o uso do programa R-Commander, que estimulasse os alunos no interesse e compreensão dos conceitos estatísticos. Em termos metodológicos, a pesquisa empregada classifica-se como estudo de caso, realizada em

Page 61: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

61

uma escola estadual de Porto Alegre (RS) com uma turma do Nono ano do Ensino Fundamental. Esta proposta se enquadra no cenário de investigação descrito por Skovsmose (2001) e nos moldes da modelagem Matemática. A análise dos dados coletados foi baseada nos princípios da Educação Estatística. A partir dos resultados obtidos foi possível se observar que a modelagem matemática aliada ao uso do R-commander foi uma combinação favorável para uma boa abordagem do ensino de Estatística. Palavras-Chave: Ambientes de Aprendizagem; Educação Estatística; Modelagem Matemática.; R-Commander.

Título: Software Winstats: Uma Possibilidade Para o Ensino e Aprendizagem de Probabilidade no Ensino Médio

Autores: Camila Cristina Lopes, Simone Maffini Cerezer

Resumo: Tendo em vista que o ensino da Probabilidade é essencial para a formação e desenvolvimento pessoal dos alunos, pois desenvolve habilidades de análise crítica e argumentação, é imprescindível que se leve em consideração uma prática pedagógica voltada para aquisição dessas habilidades. Ainda, diante do atual cenário tecnológico, há a necessidade de um ensino que concilie o desenvolvimento do raciocínio e da criatividade com as tecnologias. Assim, os objetivos deste trabalho consistem em investigar as contribuições do software Winstats para o ensino de Probabilidade no Ensino Médio e propor atividades que contribuam para uma aprendizagem expressiva. Trata-se de uma pesquisa bibliográfica qualitativa em que os resultados foram obtidos a partir da exploração do software e da elaboração de atividades para o ensino de Probabilidade utilizando o Winstats. O Winstats é um software livre e pode ser utilizado no Ensino Fundamental, Médio e Superior, dispondo de um grande número de ferramentas. As atividades propostas utilizam diferentes experimentos aleatórios e visam auxiliar na compreensão, através de simulações, da definição de probabilidade como frequência relativa. Acredita-se que atividades realizadas desta forma possam ajudar o aluno a desenvolver habilidades e/ou competências que contemple a construção do conhecimento e uma educação para a cidadania.

Palavras-Chave: Ensino de Probabilidade; Tecnologias; Software Winstats.

Título: Software para suporte ao aprendizado básico de estatística

Autores: Démerson André Polli

Resumo: A oferta de software voltado ao público de estudantes e docentes de estatística básica sempre foi escassa. Os softwares com interface mais amigáveis, em geral, são pacotes comerciais com um custo alto para estudantes e professores. Por outro lado, os softwares livres em geral são complicados para um estudante de estatística elementar (em particular para aqueles que não são das áreas de exatas). Este texto resume algumas das alternativas de código aberto ou livres para uso em cursos elementares.

Palavras-Chave: educação estatística; softwares estatísticos; R Markdown; Shiny; IpeaGEO.

Page 62: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

62

Sessão: Estatística Aplicada em Ciências Sociais Aplicadas e Demografia e Estatísticas Públicas

Título: A Qualidade das Declarações de Óbitos do Semiárido Brasileiro

Autores: Alisson dos Santos Silva; Jéssica da Silva Braga; Maizza M. C. E. Fernandes; Neir Antunes Paes

Resumo: Os registros dos óbitos fazem parte dos indicadores demográficos e epidemiológicos, que representam ferramentas indispensáveis para a organização do sistema de saúde e formulação de políticas públicas que visam à melhoria das condições de vida de uma população, bem como para a diminuição da mortalidade. A região do semiárido brasileiro é considerada como uma das que apresentam os indicadores de desenvolvimento mais comprometidos do país, com baixos níveis de educação e na economia. Palavras-Chave: Óbitos; Semiárido Brasileiro; Qualidade da Informação; Cobertura.

Título: Análise de satisfação e desempenho dos alunos do curso a distância aluno integrado

Autores: Tuany Ribeiro dos Santos; Marley Apolinário Saraiva

Resumo: A educação a distância é um modelo de ensino-aprendizagem que vem se destacando pela sua conveniência e potencialidade. O crescimento acelerado das ofertas de cursos a distância vem gerando preocupações com relação à qualidade desses cursos. Diante disso, seria útil se cada instituição desenvolvesse e utilizasse mecanismos para avaliar a qualidade dos cursos que ofertam. O estudo proposto será realizado utilizando dados das turmas do curso Qualificação em Tecnologia Digital: Aluno Integrado e visa avaliar a qualidade deste curso, segundo a perspectiva dos alunos por meio de indicadores estatísticos que capturem o nível de satisfação com relação a alguns aspectos do curso. Baseado nos dados coletados podemos entender a opinião dos alunos com relação ao formato do curso proposto, além de detectar pontos positivos e negativos, o grau de satisfação, dificuldades e sugestões de melhorias para o mesmo. Além disso, associaremos essas informações com dados socioeconômicos e desempenho dos alunos no curso a fim de entender perfis ou mapear relações.

Palavras-Chave: Análise de Satisfação; satisfação curso a distancia; curso aluno integrado. Título: Análise espacial da cobertura da atenção primária em saúde na cidade de Manaus

Autores: Geraldo Lopes de Souza Júnior; Moisés Branco dos Santos; Odete dos Santos Amaral

Resumo: Em 2012 a baixa cobertura em atenção primária em saúde na cidade de Manaus era de aproximadamente 30%. Proporção preocupante que demandou um olhar diferenciado dos gestores em saúde. Para uma cidade com mais de 1,8 milhão de habitantes e com recursos contingenciados, era necessário tomar a decisão correta e eleger pontos prioritários para receber melhorias no sistema de saúde básica. A heterogeneidade populacional entre os bairros de Manaus é acentuada, sendo possível encontrarmos tamanhos populacionais diversos, como por exemplos os bairros: Vila Buriti

Page 63: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

63

com apenas 1.827 habitantes; bairro Coroado com 51.354 habitantes e; o bairro Jorge Teixeira com 112.879 moradores. Essa variabilidade pode tornar uma inspeção meramente visual pouco confiável. Os métodos clássicos que utilizam taxas dadas pala razão entre o número de casos observados e o número de casos esperados também são bastante afetados por essa discrepância populacional. Métodos científicos mais robustos foram utilizados para eleger zonas prioritárias de atenção. A estatística traz o estudo de aglomerados de eventos, ou casos, espacialmente distribuídos (conglomerados ou clusters espaciais) que têm recebido bastante atenção na literatura. Há vários métodos de detecção de conglomerados. Os métodos mais comuns e usuais partem do pressuposto que existe um mapa dividido em regiões, e que para cada uma dessas regiões é conhecida a população em risco e o número de casos observados. Para efeitos ilustrativos, quando o interesse é avaliar espacialmente a cobertura assistencial das Equipes de Saúde da Família, como é o caso deste trabalho, cada bairro do mapa pode ser entendido como uma área e cada pessoa desta população cadastrada no Programa Saúde da Família pode ser entendida como um caso. O objetivo deste trabalho é fazer uma avaliação espacial da cobertura assistencial das Equipes da Saúde da Família da zona urbana do município de Manaus para o ano de 2012.

Palavras-Chave: Estatística Espacial; Atenção Primária; Cobertura de saúde; SaTScan; Gestão pública.

Título: Análise espacial do desenvolvimento sustentável dos municípios cearenses

Autores: João Felipe Barbosa Araripe Silva; Sílvia Maria Dias Pedro Rebouças; Mônica Cavalcanti Sá de Abreu; Maria da Conceição Rodrigues Ribeiro

Resumo: O objetivo deste estudo é sistematizar e efetuar análise espacial dos indicadores de desenvolvimento sustentável apresentados nos municípios do Estado do Ceará. O propósito central da pesquisa não é compreender como acontece o desenvolvimento sustentável, mas identificar e analisar as diferenças entre os municípios neste processo de desenvolvimento. A pesquisa é quantitativa e exploratória, desenvolvida mediante análise de dados secundários adquiridos no banco de dados do Instituto Brasileiro de Geografia e Estatística, do Instituto de Pesquisa e Estratégia Econômica do Ceará e do Portal Objetivos de Desenvolvimento do Milênio. Os métodos quantitativos de análise foram estatística descritiva, análise fatorial confirmatória, análise exploratória de dados espaciais, os quais foram utilizados, respectivamente, para calcular um índice de desenvolvimento sustentável, identificar a dependência espacial desse desenvolvimento nos municípios. Os resultados revelam baixo desenvolvimento dos municípios cearenses, sendo os melhores desenvolvimentos em áreas mais urbanas, as quais apresentam concentrações industriais, com fácil acesso a energia, rede de esgoto, água e educação.

Palavras-Chave: Análise Espacial; Desenvolvimento Sustentável; Análise Confirmatória de Dados.

Título: Avaliação da eficiência das secretarias de segurança pública

Autores: Steven Dutt Ross

Resumo: A manutenção da paz pode ser considerada como fenômeno complexo e resultante de várias determinações possíveis e está relacionada principalmente com a ausência de violência e criminalidade. Nesse sentido, o papel e o escopo principal das

Page 64: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

64

secretarias de segurança pública é o combate a esses dois elementos. Todavia, na moderna administração pública é necessário que a ação do Estado seja eficiente, eficaz e efetiva. Desse modo, foi realizada uma modelagem por meio da Análise Envoltória de Dados buscando avaliar a capacidade do Estado de realização de políticas públicas de segurança. As variáveis utilizadas foram: 1 -Tamanho do efetivo policial (policia civil e militar), 2 -Despesa Total Empenhada em segurança pública, 3 – População, 4 - Número de roubos, 5 - Número de homicídios. As principais conclusões foram que a modelagem foi consistente, pois conseguiu separar as Unidades da Federação eficientes e ineficientes. Em outras palavras, o modelo aponta as áreas em que conseguem manter baixa criminalidade e pune aquelas com alto nível de crime e violência. Afirma-se também que o uso de dados defasados em modelagem DEA foi satisfatório, pois foi possível avaliar as unidades da federação em relação à eficiência. Em relação à abordagem com output indesejável, os resultados também foram satisfatórios.

Palavras-Chave: Segurança Pública; Eficiência; Output indesejável; Defasagem temporal. Título: Análise de Transição Latente na Avaliação de Mudança Longitudinal em Transtornos Psiquiátricos

Autores: Lia Terezinha L. P de Moraes; Nila M. S. G. Bahamonde; Ana Clara P. Campos; Rosemeire L. Fiaccone; Leila Denise A. F. Amorim

Resumo: Um conjunto de métodos estatísticos tem sido continuadamente expandido, permitindo a discussão de questões sobre mudanças ao longo do tempo de maneira inovadora e informativa. Quando a classificação de um indivíduo pode sofrer alterações ao longo do tempo, o desenvolvimento ocorre como uma sequência de estágios. Uma interessante metodologia para este tipo de avaliação é a Análise de Transição Latente (ou LTA, em inglês), na qual os estágios de desenvolvimento em cada ponto do tempo são denominados “estados latentes”. Ao se utilizar esta técnica de modelagem com medidas repetidas são estimadas para cada ponto do tempo as prevalências dos estados latentes (probabilidades não condicionais), as probabilidades de resposta de cada item (probabilidades condicionais) e as probabilidades de transição. Neste trabalho a metodologia sobre a Análise de Transição Latente (LTA) é sumarizada e aplicada para modelagem de um conjunto de variáveis dicotômicas observadas em dois momentos de tempo no estudo sobre transtornos mentais comuns avaliados pelo questionário SRQ-20 em Salvador nos anos 2005 e 2013, com ênfase na avaliação da transição entre os dois períodos de tempo. Na análise foram considerados modelos com 2 estados latentes, que representam grupos mais ou menos prováveis de mães com suspeita de desordens psiquiátricas, nas diversas dimensões que compõem o quadro de transtornos mentais comuns. Foram estimadas as probabilidades de resposta a cada um dos sintomas para cada categoria de resposta, assumindo-se invariância da mensuração nos dois pontos do tempo, a probabilidade de pertencimento a cada estado latente nos pontos do tempo, e as probabilidades de transição dado o pertencimento a um estado latente em 2005. O estado latente 1 é aquele que engloba as mães com maior propensão a sintomas de ansiedade e depressão, incluindo 42,9% e 43,8%, respectivamente, das mães em 2005 e 2013. Verifica-se que maior parte das mães permanece no mesmo estado de sintomas de ansiedade e depressão. No entanto, 32,4% das mães transitaram do estado latente 1 para o 2 entre 2005 e 2013.

Palavras-Chave: Análise de transição latente; Medidas repetidas; Transtornos mentais.

Page 65: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

65

Título: Análise espacial sobre o comportamento da mortalidade infantil, e suas componentes, no Estado de Pernambuco

Autores: Claudia Jakelline Barbosa e Silva; Suzana Marta Cavenaghi

Resumo: Este estudo refere-se à pesquisa acerca do padrão espacial dos componentes neonatal e pós-neonatal da mortalidade infantil no Estado de Pernambuco, Brasil, nos anos 2000 e 2010. As probabilidades de morte infantil foram estimadas mediante o cotejo dos arquivos de óbitos e de nascidos vivos. A unidade de análise do padrão espacial foi constituída pelos 185 municípios do Estado. Para análise de autocorrelação espacial foram utilizados: Moran “global” e Moran local. Todos os componentes da mortalidade infantil evidenciaram autocorrelação espacial estatisticamente significativa em 2000 assim como em 2010. No período pós-neonatal, os municípios de risco concentram-se nas regiões da Zona da Mata e Agreste Pernambucano em 2000. Já em 2010 estavam concentradas no Agreste, Sertão e região do São Francisco Pernambucano. No período neonatal precoce os municípios de maior risco estavam concentrados nas regiões do São Francisco e do Sertão Pernambucano em 2000, em 2010 esta região se espalhou um pouco mais, mas permaneceu predominante nestas regiões. Para o coeficiente neonatal tardio em 2000 o padrão de ocorrência é de poucos municípios com alto risco, já em 2010 é bem heterogêneo, havendo distritos de alto risco distribuídos em todas as regiões do Estado. Palavras-Chave: Mortalidade Infantil; Análise Espacial; Componentes Etários.

Título: Aplicação da Análise de Cluster para identificar municípios em situação de Vulnerabilidade Social no Amazonas

Autores: Josenete Cavalcante Costa Ezio Lacerda Lopes Casemiro Rodrigues de Souza

Resumo: O presente estudo tem por objetivo verificar através de técnicas estatísticas à situação de Vulnerabilidade Social nos municípios do Amazonas nas dimensões como: renda, ciclo de vida e escolaridade. Como metodologia utilizou-se, fonte dados do IBGE com base no Censo Demográfico 2010 para obter os indicadores e os índices de vulnerabilidade na escala municipal. Para identificar os municípios que se encontram em situação de vulnerabilidade, foi utilizado à análise de Agrupamento (Cluster) por meio da técnica hierárquica que tem como objetivo dividir a população em grupos similares entre si, com respeito às características (índices) que foram medidas. O método de análise para a geração dos resultados (clusters) foi de Ward e a distancia Euclidiana. O Dendograma foi gerado como procedimento de agrupamentos para melhor ilustração da partição final. Os valores do índice de vulnerabilidade social (IVS) variam entre zero (0 indicando nenhuma) e um (1 alta) e para gerar a escala de classificação de vulnerabilidade (nenhum, muito baixa, baixa, média, alta e muito alta) em que os clusters se encontram, foi obtida pela amplitude do intervalo de classe para construção de tabela de frequencia. Os resultados geraram uma partição de seis (g=6) clusters de um conglomerado de 62 observações. Obtivemos um grupo com o mínimo de dois (2) municípios agrupados e um máximo de dezenove (19). Dos 6 grupos encontrados, têm-se o 6º grupo com os municípios de Manaus e Presidente Figueiredo que apresentam os menores IVS com média geral de 0,2135, e o grupo 3 destacam-se pelos maiores IVS com média geral de 0,4867. Dos 62 municípios, na dimensão renda 45% encontra-se em situação de média vulnerabilidade; no Ciclo de Vida 60% em alta; e na escolaridade 23% em situação de baixa vulnerabilidade. Dentre as três dimensões, o Ciclo de vida é o que eleva o IVS em todos os grupos atingindo 38 municípios (61%) com índices acima de 0,666 classificados com alta vulnerabilidade social. Podemos concluir que através da aplicação da análise de

Page 66: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

66

agrupamento, foi possível identificar municípios grupos homogêneos com os maiores e menores problemas de vulnerabilidade. Para tanto, de forma a permitir o desejo de ações locais focalizadas, especialmente por parte do poder público municipal, é possível gerar um instrumento de definição de áreas prioritárias para o direcionamento de políticas publicas, em especial as de combate a pobreza.

Palavras-Chave: Indicadores; Análise Agrupamento; Vulnerabilidade Social.

Título: Aplicação do teste de Goodman na identificação de características associadas ao interesse em participar de um programa alternativo para melhoria do trânsito

Autores: Sergio Augusto Rodrigues; Keila Rodrigues de Moura

Resumo: O trânsito é um dos principais problemas da era moderna, no entanto dificilmente as pessoas deixariam o conforto do automóvel particular por alternativas coletivas. O carpooling ou carona solidária é uma alternativa sustentável para melhoria do trânsito, pois pode contribuir para a redução do número de veículos circulando nas vias públicas e, consequentemente, com o meio ambiente. O objetivo desse trabalho é avaliar a aceitação do carpooling entre os alunos de uma faculdade da cidade de Botucatu, bem como identificar as características associadas ao interesse em participar de um programa de carona solidária. Para isso, um estudo observacional por meio de um levantamento amostral foi realizado entre os alunos de uma instituição pública de ensino superior, utilizando um questionário estruturado para coleta dos dados, sendo a amostra de alunos obtida através de um processo aleatório. Após a coleta dos dados, os mesmos foram analisados por meio de técnicas de estatística descritiva e pelo teste de Goodman para estudar a associação entre as variáveis. Verificou-se que apenas 5,5% dos alunos entrevistados não teriam interesse em dar carona a algum colega ou funcionário da instituição e que o gênero, faixa etária, período que estuda e a propriedade de um veículo não estão associados ao interesse em participar de um programa de carona solidária.

Palavras-Chave: Carpooling; Mobilidade Urbana; Políticas públicas; Teste de Goodman.

Título: Estudo das associações entre crimes e áreas integradas de segurança pública no município do Rio de Janeiro – áreas com UPP

Autores: Rafael Teixeira Silva

Resumo: A cidade do Rio de Janeiro tem sofrido muito com a violência, durante os últimos anos, um dos grandes motivos para o aumento na criminalidade no Rio são os milicianos, traficantes de drogas e de armas que dominam favelas ao longo dos bairros. Em dezembro de 2008 foi criada uma nova forma de policiamento na cidade, chamada essa de Unidade de Polícia Pacificadora (UPP), com o intuito de combater esses crimes. Esse estudo faz uma comparação dos crimes nas AISP (Áreas Integradas de Segurança Pública) entre os anos de 2007 (antes das UPPs) e o ano de 2010 (após a instalação de 13 UPPs). Nesse trabalho é realizado o Teste de Esfericidade de Bartlett, com o objetivo de testar a existência ou não de correlação entre as variáveis (no caso, foram alguns tipos de crimes selecionados). Ao realizar o teste, a hipótese nula de que não existia correlação entre as variáveis foi rejeitada ao nível de significância de 5 %. Então foi realizado uma Análise de Componentes Principais (ACP) para os dois anos distintos, método usado para reduzir a dimensão de variáveis no estudo, resultando em componentes que são combinações lineares das variáveis. O resultado foi bom, pois para o ano de 2007 com

Page 67: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

67

duas componentes principais, conseguia explicar aproximadamente 85 % da variabilidade das variáveis e no ano de 2010 esse valor foi de 86 %, com isso foi gerado gráficos com apenas essas duas componentes, para assim poderem ser visualizados em duas dimensões. Após utilizar a técnica da ACP, foi feito uma classificação das AISP por meio de um método não hierárquico de gerar clusters, o K-means, que foi utilizado por ser simples e rápido. Com a formação dos grupos, pode-se ver características em comum de algumas AISP, podendo assim ajudar a polícia a combater os crimes de forma mais eficaz, focando o problema de cada área com o policiamento específico e preciso. Como conclusão se obteve que as UPPs ajudam no combate da violência, porém ainda não resolvem o problema de crimes contra o patrimônio.

Palavras-Chave: Segurança Pública; Unidade de Policia Pacificadora; Análise de Componentes Principais ; K-means; Reconhecimento de Padrões.

Título: Evasão na Universidade Federal da Paraíba: um estudo de caso utilizando o modelo de regressão logística

Autores: Camila Ravena de Oliveira; Hemílio Fernandes Campos Coêlho

Resumo: O presente trabalho tem o objetivo de desenvolver um estudo de caso sobre o fenômeno da evasão escolar na Universidade Federal da Paraíba. No âmbito internacional, a evasão no ensino superior tem sido bastante discutida. No Brasil, esta temática vem sendo objeto de estudo científico desde a década de 80, e em média verifica-se uma grande quantidade de estudos que abordam o tema como um dos grandes problemas para gerenciamento de recursos e avaliação de qualidade de cursos nas instituições. A partir dos dados obtidos junto a todos os campi da Universidade Federal da Paraíba– UFPB, o presente trabalho apresenta propostas de construção de indicadores de evasão escolar, comparando os métodos tradicionais de cálculo com métodos que consideram o uso de um modelo de regressão logística. Para análise dos dados, foram considerados dados de alunos ingressantes, concluintes, retidos, evadidos e dados socioeconômicos, os quais foram obtidos da Superintendência de Tecnologia da Informação da UFPB (STI – UFPB) para o período compreendido entre os anos de 2002 até 2012.

Palavras-Chave: evasão escolar; taxa de evasão; regressão logística.

Título: Estimação das variáveis latentes via Máxima Verossimilhança com Informação Completa na avaliação dos critérios para a escolha do porto no Brasil

Autores: Pedro Henrique Melo Albuquerque; Alexandre Xavier Ywata de Carvalho; André Rossi de Oliveira

Resumo: A utilização de dados categóricos em Ciências Sociais Aplicadas é muito comum. Entretanto, quando se trata da estimação de variáveis latentes, a incorporação de uma metodologia capaz de lidar adequadamente com a cardinalidade dos dados, é fundamental para a boa estimação das cargas fatoriais na construção dos construtos de interesse. Nesse sentido, o presente texto descreve e aplica a Estimação das variáveis latentes via Máxima Verossimilhança com Informação Completa na presença de dados ordinais. Palavras-Chave: Análise Fatorial; Dados categóricos; Portos.

Page 68: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

68

Título: Estudo de Cenários de Coleta na Metodologia de Censo Demográfico Contínuo

Autores: Álvaro Frota

Resumo: Dentro do Projeto “Estudo da Metodologia de Censo Demográfico Contínuo” - EMCDC - do Instituto Brasileiro de Geografia e Estatística - IBGE - estudou-se cinco cenários de coleta visando-se possíveis otimizações no quadro de pessoal que realizará o trabalho de campo.

Palavras-Chave: Estatísticas Públicas; Censo Demográfico; Censo Demográfico Contínuo; Coleta Domiciliar de Dados.

Título: Evidências estatísticas sobre a existência de uma guerra cambial

Autores: Ângelo Santos Alves; Léo da Rocha Ferreira

Resumo: O objetivo principal deste artigo é investigar a existência e os principais agentes de uma possível guerra de moedas após a crise econômica de 2008 sob uma perspectiva estatística. Para isso foram utilizadas técnicas estatísticas multivariadas, em contraponto às técnicas univariadas geralmente empregadas. A amostra de dados utilizada compreende Janeiro de 2000 à Dezembro de 2012, totalizando 3263 observações de 23 cotações diárias de taxas de câmbio nominais dos principais parceiros comerciais dos EUA. Considerando os dados utilizados e sob a ótica predominantemente estatística, há fortes evidências da existência de uma guerra cambial no início do ano de 2010, provocada essencialmente por países asiáticos e outros com economias baseada em exportações. Entretanto, seus impactos ainda são incertos e fonte de futuras pesquisas.

Palavras-Chave: Guerra Cambial; Desvalorização Competitiva; Manipulação Cambial; Guerra Comercial; Crise Financeira.

Título: Homicídio na Área Urbana de Belém do Pará

Autores: Silvia dos Santos de Almeida; Monique Kelly Tavares Gomes; Débora Fernanda Castro Vianna Oliveira; Wilson José Barp

Resumo: O homicídio é um grave problema de segurança pública. Atualmente, o homicídio se configura um pro¬blema endêmico em nosso país. Neste sentido e extremamente útil identificar os bairros da área urbana do município de Belém, com maior número de ocorrência de crime de homicídio, permitindo assim ações preventivas por parte dos órgãos competentes no combate à violência contra o cidadão. A área de estudo fica localizada no Estado do Pará e refere-se à área urbana do município de Belém. Com a finalidade de analisar os padrões dos homicídios ocorridos na área urbana do Município de Belém, no período de 2007 a 2010, foram gerados mapas temáticos que levam em consideração a quantidade e a taxa de homicídio nos bairros. De onde pode-se afirmar que, com exceção dos bairros Tenoné, Tapanã, Fátima e Reduto, as quantidades de homicídios apresentaram-se ligeiramente constantes e a incidência de homicídios se concentrou mais em alguns bairros do que em outros. Além disso, com o mapeamento dos homicídios pode-se observar a dinâmica deste crime violento e perceber que a distribuição do crime de homicídio não é uniforme e que o mesmo aumentou ao longo dos anos. Palavras-Chave: Mapeamento; Incidência; Crime.

Page 69: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

69

Título: Impactos da Implementação do Programa de Ações Afirmativas no Perfil e Aproveitamento Acadêmico dos Alunos Ingressos na UFSCar

Autores: Estela Maris Pereira Bereta, Pedro Ferreira Filho

Resumo: A Universidade Federal de São Carlos aprovou e implementou seu Programa de Ações Afirmativas a partir de dezembro de 2006. Como parte deste Programa foi estabelecido um Sistema de Reserva de Vagas para os Processos Seletivos para Ingresso de alunos na Instituição. Por este Sistema entre 2008 e 2010, pelo menos 20% das vagas deverias ser preenchidas por estudantes que cursaram ensino médio exclusivamente em escolas publicas das quais pelo menos 35% deveriam ser preenchidas por estudantes auto declarados pretos o pardos. Entre 2011 e 2013 esta proporção deveria ser de 40% e a partir de 2014 até 2017 de 50%. Neste trabalho é estudado o impacto deste sistema no perfil dos alunos ingressos na UFSCar comparando-se uma série histórica entre 1994 e 2012, bem como compara-se o aproveitamento acadêmico entre optantes ou não pelo sistema de reserva de vagas nos anos de 2008 e 2009. Em linhas observou-se um aumento do percentual de aluno com maiores faixas etárias, que exerciam atividade remunerada e que cursaram ensino médio no período noturno e que, no geral, alunos optantes ou não pelo sistema de reserva de vagas concluem o curso nas mesmas proporções de ingresso.

Palavras-Chave: Ações Afirmativas; Processo Seletivo; Avaliação Educacional.

Título: Indicadores da Qualidade Estrutural da Rodovia Federal BR 316

Autores: Irlando Ricardo Monteiro Lopes; Edson Marcos Leal Soares Ramos; Silvia dos Santos de Almeida; Cristiane Nazaré Pamplona de Souza; Henrique Antônio Monteiro Lopes Resumo: O acidente de trânsito, em diversos países, tem sido considerado como um problema de saúde pública, o que gera grande preocupação e esforços no sentido de criar políticas que venham a frear os índices cada vez mais crescentes, que trazem prejuízos sociais e financeiros a todos. Diante disto, este trabalho tem como objetivo investigar de que forma a precariedade estrutural da Rodovia Federal BR 316, entre os quilômetros mais críticos do Estado do Pará e do Brasil (KM 0 ao 10), potencializou a ocorrência de acidentes de trânsito nos anos de 2009 a 2012. Para isso, utilizou-se a técnica estatística multivariada análise de componentes principais com o intuito de criar diversos indicadores capazes de avaliar a qualidade da Rodovia Federal BR 316. Durante o processo de desenvolvimento dos indicadores da qualidade, levou-se em consideração características estruturais da pista, canteiro, acostamento, retorno e passarela em ambos os sentidos de tráfego da BR 316. A partir dos indicadores desenvolvidos pode-se verificar que os sentidos crescente e decrescente da via possuem, de forma geral, qualidades diferentes. Ressalta-se o fato de que nos trechos considerados ruins, além da falta de atenção, a principal causa de acidentes é o defeito na via, afirmando que a precariedade da infraestrutura da rodovia potencializa as ocorrências de acidentes de trânsito.

Palavras-Chave: Infraestrutura; Índice de Qualidade; BR 316.

Page 70: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

70

Título: Modelo de Classificação de Risco de Crédito e Cálculo da Probabilidade de Descumprimento (PD)

Autores: Aline Rodrigues Machado; Douglas Campos; Fabio Augusto Scalet Medina; Edson Luiz de Carvalho Barbosa

Resumo: Por meio da Circular no 3.648, de 4 de março de 2013, o BACEN estabeleceu os requisitos mínimos para o cálculo da parcela relativa às exposições ao risco de crédito sujeitas ao cálculo do requerimento de capital mediante sistemas internos de classificação do risco de crédito (abordagens IRB). No capítulo VI da referida norma, o BACEN discorre sobre a categoria varejo e logo na Seção I já define grupos homogêneos de risco. Segundo os preceitos de Basiléia II, o parâmetro PD deve ser calculado para cada grupo homogêneo. O objetivo desse trabalho é apresentar uma proposta metodológica para classificação de exposições de varejo em grupos homogêneos de risco utilizando a técnica Árvore de Decisão e estimação do parâmetro PD para cada grupo homogêneo via Boostrap. Os grupos homogêneos criados ficaram coerentes e mostraram-se diferenciados com relação às estimativas de PD. Assim, cumpriu-se o objetivo desse estudo e o estabelecido na referida circular e comprovou-se que as técnicas Árvore de Decisão e Bootstrap são eficientes e robustas para segregar uma carteira de exposições em Grupos Homogêneos de Risco e cálculo da PD.

Palavras-Chave: Árvore de Decisão; Bootstrap; Basiléia II; Grupos Homogêneos de Risco; Probabilidade de Descumprimento.

Título: O Net Promoter Escore (NPS) como indicador de avaliação institucional

Autores: Paulo Ricardo Cosme Bezerra

Resumo: O objetivo do trabalho é avaliar a relação dos não clientes e clientes com o SEBRAE RN e percepções sobre a participação com os serviços oferecidos pela instituição. O Net Promoter Score (NPS) — é uma metodologia que mede o sentimento do cliente. Lançado por Fred Reichheld, o NPS avalia a probabilidade de um cliente comprar novamente da sua empresa, ou de indicar seus serviços a um amigo. Reichheld (2006) desenvolveu a metodologia NPS, que funciona com base em uma única questão ao cliente que avalia tanto a probabilidade de recompra quanto a de indicação: "Em uma escala de zero a 10, qual a probabilidade de indicar a um amigo ou colega?" As respostas fornecidas pelos clientes são classificadas da seguinte forma: detratores, são clientes que tiveram experiências ruins com a marca, influenciam negativamente outros clientes; passivos, clientes que tiveram experiências boa e ruins com a marca, não influenciam positivamente, nem negativamente; promotores, clientes que tiveram experiências boas com a marca e, influenciam positivamente outros clientes. O NPS é calculado subtraindo-se a percentagem de questionados que são rotulados como "Depreciadores" da percentagem de questionados que são rotulados como "Promotores": % de Promotores - % de Depreciadores = NPS e o Net Promoter Score pode variar de -100 a 100. Metodologia da pesquisa: Através de questionário estruturado, foram realizadas 823 entrevistas, incluindo os segmentos de a) não clientes – empreendedores em geral e b) clientes do SEBRAE RN – empreendedores cadastrados no SIAC (Sistema de Informação e Atendimento ao Cliente – mínimo de três atendimentos por ano). Quanto aos resultados verificamos que não há diferença significativa entre clientes (56,5%) e não clientes (57,5%) do SEBRAE RN e há diferença significativa entre os resultados para o média obtida pelo SEBRAE nacional.

Palavras-Chave: Avaliação; Probabilidade; Indicadores.

Page 71: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

71

Título: O erro amostral da Taxa de Fecundidade Total calculado pelo método P/F de Brass

Autores: Luiz Andre Ribeiro Zardo; Eduardo Santiago Rosseti

Resumo: Indicadores demográficos em geral são demandados para suprir informações populacionais para alguma determinada região. A fecundidade é uma importante componente na composição do crescimento populacional, pois, relaciona-se com o número de filhos que as mulheres terão, em média, durante sua vida fértil. Indicadores demográficos, em geral, são calculados com base em dados de registros de estatísticas vitais, censos demográficos e pesquisas amostrais. No Brasil, o Instituto Brasileiro de Geografia e Estatística (IBGE) utiliza o método indireto P/F de Brass para estimar a Taxa de Fecundidade Total (TFT) com base em dados provenientes ora do Censo Demográfico ora da Pesquisa Nacional por Amostra de Domicílios (PNAD), em ambos os casos utiliza-se a estimação por amostragem, cujas amostras envolvem planos amostrais complexos. Este trabalho tem por objetivo avaliar o erro amostral associado à TFT estimada pelo método P/F de Brass a partir dos microdados da PNAD de 2012, obtendo suas estimativas pontuais e seus respectivos coeficientes de variação e intervalo de confiança, por meio da incorporação dos pesos e do plano amostral da PNAD-2012.

Palavras-Chave: erro amostral; fecundidade; metodo P/F de Brass.

Título: O motivo pelo qual os canais de TV fechada não estão disponibilizando o áudio original na programação: um estudo com alunos da Universidade Federal de Goiás

Autores: Mayhara Freitas Santiago

Resumo: Antigamente o acesso a canais de TV fechados era bem restrito (Contudo, em todo o Brasil, eram contabilizados, em setembro de 2000, 2,8 milhões de assinantes, apenas 300 mil a mais do que em fins de 1997. Previsões da Anatel na versão 2000 do documento Perspectivas para a Ampliação e Modernização do Setor de Telecomunicações), pois o preço da TV por assinatura era alto. Por essa razão, apenas uma minoria da população no Brasil tinha acesso a esse tipo de serviço. Com o passar do tempo à oferta de serviço de televisão por assinatura foi aumentando ao mesmo, a demanda por tal serviço foi aumentando também, sendo que hoje em dia uma grande parcela da população brasileira, conta com o beneficio da TV por assinatura em casa. A tendência atual do mercado é a diversificação de produtos que permitam capturar uma maior quantidade de clientes. Isto originou que às empresas disponibilizarem pacotes de TV por assinatura, com menores valores, possibilitando que mais pessoas contratarem esse serviço. Porem os canais disponibilizados na TV por assinatura, geralmente são de outros países não lusófonos. Para aumentar a audiência desses canais, as principais empresas atuantes no mercado brasileiro oferecem hoje a dublagem da programação (Quem pressiona por esse serviço é a classe C, que elevou o número de assinantes, hoje estimado pela Anatel em 38 milhões de pessoas. A aposta no áudio em português tem se mostrado promissora. Os canais dublados, como o TNT e o Telecine Pipoca, lideram o ranking dos mais vistos da TV por assinatura. A Fox foi pioneira e, desde 2007, todo o conteúdo do seu horário nobre é dublado. Miguel Oliva, diretor da HBO, diz que "a classe média realmente pressionou pela dublagem". De olho nesse público, foi criado um segundo canal (o HBO 2), somente para programas dublados.). Os “canais de TV por assinatura” são os canais que não são disponibilizados nas frequências aberta. Para ter acesso à programação desses canais, a população deve pagar por um serviço que normalmente está conformado por pacotes de canais de outros países. O Brasil é um dos maiores mercadores da América Latina, cerca de 36 milhões de lares estão adotando os

Page 72: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

72

canais fechados, com pelo menos um aparelho de TV. Atualmente, as operadoras de TV por assinatura no Brasil estão usando muito uma técnica chamada “legendagem refalada”. O problema dessa técnica é que causa muitos erros na produção das legendas, especialmente quando se trata de palavras homófonas. “Como, por exemplo: (ela tinha X é latinha)”. A maioria das pessoas não sabe se a tradução das falas de filmes, séries ou reality shows são corretas. Mas por que os canais fechados de TV estão disponibilizando o áudio em português?

Palavras-Chave: TV fechada; sondagem; classes sócias.

Título: Panorama da evasão na UFPE- segundo diferentes métodos de cálculo

Autores: Erika Cristina da Silva; Jansen Dodo da Silva Campos; Maria Cristina Falcão Raposo Resumo: A Evasão é a saída definitiva do aluno do curso de origem sem concluí-lo. Existem três tipos de evasão: Evasão da Instituição , Evasão do Curso que se caracteriza quando o aluno opta pela transferência de curso na mesma instituição; e Evasão do Sistema que ocorre quando o aluno não se matricula ou abandona o curso. O objetivo deste estudo é medir a evasão na UFPE usando dois métodos distintos, quais sejam: o método de fluxo (coorte) e o um método adaptado de Lobo (2012). Os resultados foram analisados por área de conhecimento, e foram realizadas previsões quatro anos à frente através de um modelo auto-regressivo, que constatou que a taxa de evasão tende a cair.

Palavras-Chave: Evasão; previsões; medição.

Título: Perfil dos aposentados no Brasil nas últimas duas décadas: utilizando decomposição de Oaxaca-Blinder em modelo Logit

Autores: Maria Kelly Venezuela; Regina Madalozzo; Fernanda Guinsburg Mendes

Resumo: De acordo com dados da PNAD (Pesquisa Nacional por Amostra de Domicílios), em 1992, a quantidade de homens aposentados acima de 53 anos economicamente ativos correspondia a 32%. Duas décadas depois - 2011, essa proporção caiu para 25%. Observando apenas esses percentuais, não fica claro saber quais características influenciaram mais para um aposentado ofertar seu trabalho: Morador de alguma região do Brasil? Renda a mais além do valor da aposentadoria? Idade? Ou Anos de estudos? Entre essas e outras características, o objetivo deste trabalho é entender se há e qual é o perfil de aposentados que continuam economicamente ativos ou não durante essas duas últimas décadas. Para isso, utilizamos uma modificação da técnica de decomposição desenvolvida por Oaxaca (1973) e Blinder (1973) aplicada ao modelo Logit (Nielsen, 1998). Os modelos serão estimados via STATA e as técnicas de diagnostico via plataforma R (www.r-project.org).

Palavras-Chave: regressão logística; decomposição de Oaxaca-Blinder; aposentadoria; mercado de trabalho brasileiro.

Título: Prevendo o resultado das eleições brasileiras de 2010/2014

Autores: Neale Ahmed El Dash

Resumo: Modelos de previsão eleitoral tentam prever o resultado de uma eleição. Tais previsões podem ser feitas muito antes da eleição (um ano ou mais) e muito próximas ao

Page 73: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

73

dia da eleição (alguns dias antes). Essas previsões podem utilizar desde metodologias muito simples até modelos estatísticos multivariados altamente sofisticados. Previsão eleitoral tem muitas aplicações na prática. De fato, reduzir a incerteza sobre qual candidato vai ganhar a eleição pode ser uma importante vantagem estratégica para os tomadores de decisão no setor privado, bem como para todos nós. Os exemplos são muitos, mas incluem as empresas de serviços financeiros que apostam em moeda ou ações, as empresas que querem fazer investimentos de capital de longo prazo, e os partidos políticos que escolhem o candidato mais viável. Em última análise, a previsão da eleição é uma ferramenta fundamental na avaliação do risco político associado a qualquer decisão específica. Alguns fatores relevantes tornam as eleições brasileiras complexas de prever. Os fatores mais importantes são a existência de poucas eleições democráticas (6) e o pequeno histórico de pesquisas eleitorais no país. Adicionando-se a esse contexto a enorme quantidade de partidos políticos, em conjunto com a constante troca de legenda por políticos, e a dimensão continental do Brasil com a suas realidades locais bem distintas, a previsão eleitoral no país se torna particularmente complexa. Usualmente, os modelos de previsão eleitoral se dividem em dois tipos: modelos de agregação, os quais agregam pesquisas eleitorais, e os modelos estruturais, os quais incluem como preditoras variaveis economicas e conjunturais. Esses dois tipos de modelos são bem diferentes na prática, com aspectos positicos e negativos. Os modelos de agregação podem ser vistos como dinâmicos, eles são capazes de captar todas as mudanças na intenção de voto que ocorrem durante um ciclo eleitoral. Por outro lado, os modelos estruturais conseguem utilizar informação histórica e conjuntoral sobre as eleições, captando tendências que se repetem em diferentes ciclos eleitorais. Os modelos de agregaçao são melhores para prever a intenção de voto em um particular momento do tempo, porém quando o interesse está em fazer previsões para o resultado da eleição, as informações economicas e conjunturais captadas pelos modelos estruturais se mostram essênciais. Quanto mais distante da eleição a previsão é feita, quanto mais importante são as informações históricas. A maioria desses modelos para previsão eleitoral foram desenvolvidos para prever a eleição americana. Como existem diversas diferenças entre a eleição americana e a brasileira, não é possível aplicar diretamente esses modelos ao contexto brasileiro. Nessa apresentaçao esses diferentes modelos serão apresentados, e discutirei como combinar esses dois tipos de modelo utilizando inferência bayesiana, permitindo que previões sejam feitas para qualquer dia do ciclo eleitoral, especialmente para o dia da eleição. Também discutirei como os modelos da literatura foram adaptados para o caso particular do Brasil. Serão apresentadas previsões para o cíclo eleitoral de 2010, realizadas em diferentes momentos do tempo. Também apresentarei uma previsão para o ciclo eleitoral de 2014, condicionada as informações existem até o Julho de 2014.

Palavras-Chave: pesquisas eleitorais; previsão; inferência bayesiana.

Título: Questões práticas com ajustes de modelos uni e multidimensionais da teoria da resposta ao item

Autores: Pedro A. Barbetta; Ligia M. V. Trevisan; Dalton F. de Andrade; Heliton Tavares; Tânia C. Arantes de Macedo Azevedo

Resumo: Coloca-se em questão a dimensionalidade de uma prova multidisciplinar através do ajuste de modelos unidimensionais e multidimensionais da teoria da resposta ao item. A aplicação é a prova da primeira fase do vestibular da UNESP – 2012. Verifica-se, inicialmente, a presença de um fator dominante e de pequena diferenciação entre as áreas do conhecimento exploradas na prova, já que o modelo unidimensional e o modelo bifatorial tiveram melhor ajuste do que o modelo multidimensional com fatores separados

Page 74: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

74

por áreas do conhecimento. Assim, a prova é adequada para a atribuição de nota única ao candidato com propósitos de classificação. Por outro lado, é mostrado como um modelo multidimensional (TRIM), sem restrição nos parâmetros, permite verificar o que a prova está medindo, além de poder posicionar avaliados e itens num espaço multidimensional interpretável.

Palavras-Chave: Teoria da resposta ao item multidimensional (TRIM); Posicionamento de itens e avaliados; Vestibular da UNESP.

Título: Teste Piloto do Censo Contínuo: resultados preliminares do segundo ciclo de acumulação – 2009 a 2013

Autores: Daniel de Oliveira Ribeiro

Resumo: Este trabalho procurou complementar e atualizar as informações sobre o primeiro ciclo do Teste Piloto do Censo Contínuo, apresentado no 20º SINAPE, detalhando os dados referentes ao segundo ciclo do mesmo, verificando deste modo a similaridade entre as estimativas. Foi realizada uma comparação gráfica dos dados com os resultados obtidos pelo Censo Demográfico 2010.

Palavras-Chave: Estatística Pública; Censo Contínuo; Censo Demográfico 2010.

Título: Violência de jovens na região semiárida brasileira: a dialogicidade entre as condições de vida e a mortalidade por agressões

Autores: Everlane Suane de Araújo da Silva; Neir Antunes Paes

Resumo: A violência entendida como resultado, entre outras causas, das desigualdades sociais, tornouse não apenas um problema para a segurança social, mas também um problema de saúde pública de grandes proporções no mundo contemporâneo, em particular para os jovens em países como o Brasil. A região Semiárida brasileira é a maior do mundo em termos de densidade populacional e extensão, com 22 milhões de habitantes em 2010. Assim, foi realizado um estudo ecológico abordando a mortalidade por Agressão em 137 Microrregiões do Semiárido brasileiro, para jovens do sexo masculino, no ano de 2010. As fontes de dados utilizadas foram extraídas do Sistema de Informações sobre Mortalidade do Ministério da Saúde, do Instituto Brasileiro de Geografia e Estatística, e do Programa das Nações Unidas para o Desenvolvimento. Dois indicadores foram calculados para cada Microrregião: taxas de mortalidade padronizadas por violência e um indicador chamado brechas redutíveis de mortalidade, o equivalente a risco atribuível. Foi investigada a correlação entre as taxas de mortalidade padronizadas por Agressões e um conjunto de 154 indicadores que expressam as condições de vida. 18 deles foram considerados significativos. Por meio da técnica multivariada – Análise Fatorial – construiu-se um indicador sintético, o qual foi classificado em quatro estratos refletindo diferentes condições de vida. Os resultados mostraram que Microrregiões com altos valores de taxas de mortalidade por Agressão estavam presentes em todos os estratos, contrariando, assim, alguns estudos que associam elevadas taxas de mortalidade por Agressão à baixa condição de vida. O estudo permitiu levantar questões e gerar uma base de dados para subsidiar os gestores na identificação das regiões mais vulneráveis e, assim, contribuir para o processo de tomada de decisão para apoiar o desenvolvimento e a implementação de políticas públicas racionais mais eficientes para combater a mortalidade por violência da população do Semiárido brasileiro. DESCRITORES: Mortalidade por Agressão. Condição de vida. Jovens. Semiárido

Page 75: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

75

brasileiro. Análise Multivariada.

Palavras-Chave: Semiárido brasileiro; Mortalidade por Agressão; Análise Multivariada; Condição de vida; Jovens.

Título: Índice de Vulnerabilidade Juvenil dos Municípios Goianos – IVJ

Autores: Marley Apolinario Saraiva; Tallyta Carolyne Martins da Silva; Murilo Rosa Macedo Resumo: O Índice de Vulnerabilidade Juvenil (IVJ) é uma medida que busca avaliar as condições de vida em que se desenvolvem e adentram à vida adulta os jovens em cada um dos 246 municípios goianos. A elaboração do Índice de Vulnerabilidade Juvenil foi possível por meio da técnica de estatística multivariada de Análise Fatorial e os municípios foram divididos em cinco grupos de acordo com o grau de vulnerabilidade juvenil. Constatou-se que a maior parte do Estado possui vulnerabilidade juvenil entre média e altíssima. O índice obtido pode ser uma ferramenta utilizada pelos gestores públicos. Em especial, os jovens dos municípios das regiões de planejamento do Entorno do Distrito Federal, Norte e Nordeste Goiano carecem de maior assistência estatal, pois são as regiões que apresentaram os maiores valores do IVJ.

Palavras-Chave: Vulnerabilidade Social; Análise Multivariada; Juventude.

Page 76: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

76

Sessão: Estatística Aplicada em Engenharia e Ciências Exatas

Título: Avaliação de dimensionalidade para medir qualidade da interface de websites comerciais Autores: Rafael Tezza; Antonio Cezar Bornia; Débora Spenassato; Fernando de Jesus Moreira Junior

Resumo: O presente trabalho apresenta uma sistemática estatística para avaliar dimensionalidade de um construto desenvolvido para mensurar qualidade de interfaces de websites comerciais. O conceito adotado de qualidade em websites é o de um conjunto de características técnicas e não técnicas de um sistema web, os quais permitem ao usuário realizar seus objetivos em um website de forma acessível, eficiente e agradável. Como características técnicas entende-se usabilidade/navegabilidade, apresentação da informação, acessibilidade e interatividade do sistema. Como características não técnicas entende-se design, estética, apelo visual/comercial, confiabilidade, hedonismo, empatia. Para isso, utiliza-se de análise fatorial restrita e análise fatorial de informação plena (full information) assim como análise paralela e ANOVA. Como resultado quatro dimensões são encontradas em um conjunto de 44 itens.

Palavras-Chave: dimensionalidade; qualidade; website.

Título: Classificação de objetos utilizando técnicas de detecção de outliers e análise de componentes principais

Autores: Manoel R. Sena Jr., Marília I. R. Nogueira

Resumo: Resumo O principal objetivo das técnicas de classificação é associar um novo objeto a um grupo previamente estabelecido, com base em um conjunto de informações obtidas desse conjunto, chamado de conjunto de treinamento. Em qualquer conjunto de dados com múltiplas variáveis, seja ele grande ou pequeno, é necessário que se faça antes da aplicação de qualquer técnica estatística, uma análise muito cuidadosa de seus componentes. Isso é importante, pois podem existir objetos que não condizem com a distribuição do restante dos dados, isto é, pontos que se destacam quanto a uma ou mais variáveis do estudo e que podem prejudicar a modelagem estatística dos dados da amostra e, portanto, a análise do comportamento dos mesmos. Técnicas que detectam esses elementos podem ser usadas na classificação de objetos, contribuído assim, para reduzir as taxas de erros. Tendo em vista tudo isso, propomos um estudo simples de dados aplicando técnicas de Análise Discriminante e técnicas de Detecção de Observações Aberrantes em Classificação de Objetos, medidos através das taxas de erros estimadas por simulação de cada técnica de detecção. Assim, obtemos resultados satisfatórios no que se refere aos modelos utilizados, distância de Mahalanobis robusta e o método interativo The Forward Search de Atkison e Riani (2004), podendo concluir que o método é o mais adequado à situação utilizada. Entretanto, em situações em que o número de variáveis ou características do objeto é grande faz-se necessário uma seleção delas, devido a singularidade da matriz covariâncias amostral, que ocorre quando o número de observações do conjunto de treinamento é pequeno ou moderado, quando comparados ao número de características. Esse trabalho aborda duas formas de solucionar esse problema: a primeira faz uso do coeficiente de variação, em que seleciona-se variáveis com menores coeficientes, e a segunda faz uso da Análise de Componentes Principais para reduzir a dimensão da matriz. Um banco de dados de Iris e

Page 77: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

77

assinaturas são usados para testar a eficiência dos métodos.

Palavras-Chave: Reconhecimento de Padrões; Verificação de Assinaturas; Classificação; Análise Discriminate.

Título: Genetic Algorithm for Constrained Optimization with Stochastic Feasibility Region with Application to Vehicle Path Planning

Autores: Adriano Z. Zambom; Julian A. Collazos; Ronaldo Dias

Resumo: In real-time trajectory planning for unmanned vehicles, on-board sensors, radars and other instruments are used to collect information on possible obstacles to be avoided and pathways to be followed. Since, in practice, observations of the sensors have measurement errors, the stochasticity of the data has to be incorporated into the models. In this work, we consider using a genetic algorithm for the constrained optimization problem of finding the trajectory with minimum length between two locations, avoiding the obstacles on the way. To incorporate the variability of the sensor readings, we propose a more general framework, where the feasible regions of the genetic algorithm are stochastic. We propose using a smooth penalty function based on the Gaussian distribution, facilitating the borders of the feasible regions to be reached by the algorithm.

Palavras-Chave: Constrained optimization; Stochastic feasible regions; Penalty function; autonomous vehicle; nonparametric curve estimation.

Título: Modelo estatístico para estimar propriedade petrofísica

Autores: Eduardo Henrique Silveira de Araújo; Adrião Duarte Dória Neto; Francisca de Fátima do Nascimento; Francisco Pinheiro Lima-Filho

Resumo: Neste trabalho apresentamos uma proposta metodológica para estimar a porosidade de camadas sedimentares, de forma indireta, o que pode representar um salto tecnológico no uso do método GPR para a caracterização de afloramentos análogos a reservatórios petrolíferos. Todo trabalho teve como objetivo desenvolver uma metodologia de modelagem do comportamento da variabilidade dos dados das propriedades. Para tanto foi utilizado modelo estatístico de regressão múltipla em conjunto com técnica de sistema inteligente para estimar valores de porosidade, tendo como base os dados de aquisições de GPR e dados de variáveis eletromagnéticas de materiais siliciclásticos, dispostos em estratos que simulam o ambiente sedimentar.

Palavras-Chave: Regressão Múltipla; Redes Neurais Artificiais; Porosidade; GPR.

Título: Relação entre as desigualdades probabilísticas de Bell, de Clauser Horne-Shimony-Holt e Wigner e suas aplicações na Mecânica Quântica

Autores: Felipe Andrade Velozo; José Alberto Casto Nogales Vera; Lucas Monteiro Chaves; Devanil Jaques de Souza

Resumo: Em 1964, John S. Bell (em resposta ao paradoxo de Einstein, Podolsky e Rosen) publica um artigo em que desenvolve uma desigualdade envolvendo correlação estatística e a partir da suposição de que a Mecânica Quântica seja uma teoria estatística, portanto dever-se-ia possuir uma variável aleatória envolvida com as observações, ou seja, uma variável em que, se houvesse a possibilidade de conhecer seu valor, o

Page 78: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

78

resultado do experimento seria completamente previsível, portanto a falta de previsibilidade do experimento seria devida a ignorância sobre o valor que tal variável assume na realização do experimento. Porém ao usar a fórmula obtida pelo cálculo de probabilidades no experimento de Mecânica Quântica, encontra um conjunto de valores em que a desigualdade é violada, e logo conclui que os axiomas de probabilidade de Kolmogorov [2] não são suficientes para descrever fenômenos quânticos. Este trabalho visa demonstrar que tal conclusão foi obtida através do uso equivocado dos axiomas de Kolmogorov em desigualdades que eram tratadas como distintas, porém será mostrado que estão relacionadas.

Palavras-Chave: Violação da desigualdade de Bell; Violação da desigualdade de Clauser-Horne-Shimony-Holt; Violação da desigualdade de Wigner; Axiomas de Kolmogorov. Título: Técnicas Estatísticas utilizadas na Modelagem de Risco Operacional – Uma breve abordagem Autores: Natalia Raquel Pires Nava; Eduardo Yoshio Nakano

Resumo: A Carta Circular Bacen 3.647 de março/2013 estabelece os requisitos mínimos para utilização da abordagem avançada na modelagem do risco operacional pelas instituições financeiras. O modelo interno, também conhecido como modelo AMA (Advanced Measurement Approach), deve contemplar quatro elementos, a saber: Base de Dados Interna (BDI), Base de Dados Externa (BDE), Análise de Indicadores e Análise de Cenários, além de manter um sistema de gerenciamento de riscos condizente com o porte da instituição. Ao longo deste trabalho, serão abordadas técnicas estatísticas utilizadas na modelagem de cada um desses elementos, além de abordar instrumentos estatísticos utilizados na Gestão de Riscos e cálculo de alocação de capital.

Palavras-Chave: Risco Operacional; AMA; Gestão de Riscos; Alocação de capital.

Page 79: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

79

Sessão: Estatística Computacional

Título: Aplicação da simulação de Monte Carlo para o tempo de produção de vinhos

Autores: Aline Castello Branco Mancuso, Nicole Holsbach, Liane Werner

Resumo: O vinho é derivado de um processo natural, obtido pela fermentação alcoólica de uma fruta madura. Tradicionalmente, o nome vinho é reservado somente para a bebida proveniente da uva. Entre os fatores determinantes da qualidade destacam-se a variedade, as condições ambientais da região produtora, o tempo de fermentação, tempo de estocagem e a posição de estoque dos vinhos. Nesse contexto, o objetivo deste trabalho foi analisar o tempo de produção de vinhos para comercialização através de dados simulados. Em uma vinicultura, durante a produção dos vinhos foram analisadas três estações: (i) tempo de fermentação, (ii) tempo de armazenamento em barris de carvalho e (iii) tempo em garrafa. O método de Monte Carlo foi utilizado nas três estações. A simulação do tempo de produção de vinhos até a sua comercialização possibilita ao vinicultor um planejamento mais preciso e acurado de sua produção e da qualidade.

Palavras-Chave: monte carlo; simulação; vinho.

Título: Análise do poder e erro tipo 1 dos testes t e U de Mann-Whitney sob normalidade, homocedasticidade e heterocedasticidade das variâncias

Autores: Juscelia Dias Mendonça; inícius Raniero Ângelo; Tábata Saturnina Trindade de Morais; Danielle Gonçalves de Oliveira Prado

Resumo: Para a utilização do teste t de Student, devemos satisfazer as pressuposições de normalidade, independência e homocedasticidade das variâncias das populações amostradas. Estudos mostram que o teste t é robusto o suficiente para considerar desvios de seus pressupostos teóricos, principalmente quando são consideradas: amostras de mesmo tamanho e hipóteses bilaterais.O teste Mann-Whitney por sua vez, exige apenas que, ambas as amostras sejam aleatórias e feitas de forma mutuamente independente entre as duas amostras, além disso, a variável a ser testada, deve ser mensurada no mínimo em escala ordinal. Portanto, o presente trabalho teve como objetivo avaliar e comparar o teste t e o teste U de Mann-Whitney em tomadas de decisões erradas (erro tipo I e erro tipo II). As análises foram realizadas por meio de simulação computacional, sendo sempre em populações normais , com médias e variâncias populacionais iguais e diferentes, sendo que no caso de variâncias populacionais diferentes, foi utilizado o teste t com a aproximação dos graus de liberdade proposto por Satterthwaite (1946). Com Os resultados mostraram que com relação ao Erro Tipo I, o teste t mostrou-se, nas situações analisadas, desempenho superior ao teste de Mann-Withney, tendo em vista que os valores encontrados sempre estiveram dentro do intervalo de confiança estabelecido para proporções. Com relação ao poder, verificou-se que o teste de Mann-Whitney apresentou melhores resultados quando a diferença entre as médias era de um desvio padrão e a razão entre as variâncias foi grande. Já para diferença entre médias entre dois e cinco, o teste t mostrou-se mais poderoso na grande maioria das vezes. Para diferença entre as médias maiores que cinco desvios padrão, ambos os testes tiveram poder 1 ou muito próximo de 1.

Palavras-Chave: Teste t; Teste U de Mann-whitney; Simulação; Comparação entre testes.

Page 80: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

80

Título: Avaliação de critérios de seleção no modelo beta autorregressivo de médias móveis Autores: Renata Rojas Guerra; Fábio Mariano Bayer

Resumo: Este trabalho tem como objetivo avaliar numericamente, via simulações de Monte Carlo, o desempenho de critérios de seleção no modelo beta autorregressivo de médias móveis ($\beta$ARMA). O $\beta$ARMA é útil para modelagem e previsão de variáveis contínuas no intervalo (0,1) observadas ao longo do tempo. A variável de interesse é assumida possuir distribuição beta, em que o parâmetro de média é modelado por meio de uma estrutura autorregressiva e de médias móveis, envolvendo uma função de ligação e parâmetros desconhecidos. Para a avaliação numérica em amostras de tamanho finito foram considerados critérios de seleção consistentes.Os critérios considerados foram o AIC, o BIC e o HQ, assim como suas respectivas versões corrigidas para pequenas amostras: AICc, BICc e HQc. Percebeu-se a superioridade de desempenho do critério BIC na identificação do modelo verdadeiro, sendo o critério indicado para a seleção de modelos $\beta$ARMA. O AIC, como esperado, tendeu a sobreidentificar a ordem do modelo verdadeiro, principalmente nas amostras de tamanhos menores. Palavras-Chave: critérios de seleção; modelo beta ARMA; seleção de modelos; séries temporais; simulação de Monte Carlo.

Título: Avaliação do poder do teste usado para comparação de duas matrizes de covariâncias normais na presença de correlação por meio do método de monte Carlo

Autores: Vanessa Siqueira Peres da Silva; Daniel Furtado Ferreira

Resumo: Este trabalho tem por objetivo avaliar o poder do teste t_c para comparação de duas matrizes de covariâncias normais na presença de correlação, que é uma generalização do teste de Morgan (1939) e Pitman (1939) para o caso multivariado, considerando a situação de q = 2 populações, com o intuito de compará-lo com os testes apresentados por Jiang e Sarkar (1998) (W_2 e W_5) e Jiang et al. (1999) (LRT, LRT_1, LRT_2 e LRT_3). Para isso utilizou-se um estudo de simulação Monte Carlo com diferentes tamanhos de amostras, matrizes de covariâncias e nível nominal de significância fixado em 5%, computando-se as taxas de poder. Quando n=100 pode-se dizer que os testes LRT, LRT_1, LRT_2, LRT_3, W_2 e W_5 resultam taxas de poder aproximadamente iguais a 1. O teste t_c apresentou taxas de poder menor que os demais, e é recomendado apenas para grandes amostras, pois nesse caso se equivale aos demais testes apresentados ou aproxima dessa equivalência.

Palavras-Chave: Matrizes de Covariâncias; Simulação Monte Carlo; Poder.

Título: Comparações da estimação de densidade kernel multidimensional

Autores: Jucarlos Rufino de Freitas; Getulio Jose Amorim do Amaral

Resumo: Sabe-se que o kernel bidimensional é um caso especial do kernel multidimensional. Em ambos os casos existe o interesse em encontrar o parâmetro de suavizamento h, que controla a estimação de densidade. O objetivo do presente trabalho é avaliar a estimação de densidade comparando-a com outras alternativas.

Palavras-Chave: Estimador Kernel Multidimensional ; Densidade normal bivariada,; Densidade Normal Bivariada Estimada; Parâmetro de Alisamento.

Page 81: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

81

Título: Estimativa Espacial via Métodos baseados em Distância

Autores: Carlos Guilherme Pereira Queiroz; Marcos de Almeida Souza; Iza Caroline Bulcão França; João Marcelo Brazão Protázio

Resumo: Os métodos de interpolação baseados em distância são técnicas de estimativa robustos e amplamente utilizados. Um exemplo destes métodos é o IQD, técnica baseada no inverso do quadrado da distância. Outras abordagens baseadas na krigagem são geralmente propostas como técnicas estatísticas superiores por conta de suas propriedades matemáticas mais robustas, mas em contrapartida são muito mais complicadas de se implementar. Por outro lado, a robustez e a simplicidade dos métodos de interpolação baseado em distância justifica até hoje o seu uso continuado. Para este trabalho iremos testar alternativas ao método do inverso do quadrado da distância e iremos avaliar o método mais adequado ao conjunto de dados que iremos utilizar como exemplo. Palavras-Chave: IQD; Interpolação Espacial; Validação Cruzada; Inverso da Potência; Box-Cox Method.

Título: Ferramentas para Formatação e Verificação de Microdados de Pesquisas

Autores: Pedro Luis do Nascimento Silva; João Victor Pacheco Dias

Resumo: O projeto teve por objetivo desenvolver ferramentas na linguagem do Sistema SAS, capazes de gerar versões dos microdados de pesquisas domiciliares do IBGE, disponibilizados pela PNAD, prontas para uso em três diferentes sistemas: SAS, SPSS e R. Foram também desenvolvidas ferramentas capazes de automatizar algumas tarefas mínimas de verificação dos arquivos de microdados gerados.

Palavras-Chave: PNAD; microdados; formatação; dicionário; macro.

Título: Identificação de conglomerados espaciais de acidentes de trânsito no DF através de varredura baseada em vizinhanças

Autores: João Ricardo Eliseu; André Luiz Fernandes Cançado

Resumo: O principal objetivo do trabalho é identificar conglomerados de acidentes no mapa rodoviário do DF, formado por rodovias divididas em trechos rodoviários (espaços geométricos delimitados), segundo o Sistema Rodoviário do Distrito Federal, 2012. Para tanto, métodos alternativos ao Scan Circular são propostos, considerando a particularidade da distribuição dos dados de acidentes, que são delimitados pelos contornos das rodovias. Comparamos tais métodos através de conglomerados artificiais quanto ao poder do teste, análise de sensibilidade e o valor preditivo positivo. Finalmente, apresentamos uma aplicação com dados reais, onde os quatro métodos são utilizados para detectar conglomerados espaciais com dados de acidentes fatais de 2012, em rodovias distritais sob circunscrição do DER/DF. Os métodos utilizam-se da mesma estatística de teste. Todavia não fazem uso da dist ncia Euclidiana como critério de construção de conglomerados. Os métodos criados selecionam os conglomerados por um critério topológico, mais especificamente sob a ótica de adjacência ou vizinhança entre os trechos rodoviários.

Palavras-Chave: Estatística scan; Conglomerados espaciais; Acidentes de trânsito.

Page 82: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

82

Título: KRIGAGEM: vai de R ou ArcGIS?

Autores: Lidiane Maria Ferraz Rosa Gérson Rodrigues dos Santos Adriana Maria Rocha Trancoso Santos Nilcilene das Graças Medeiros

Resumo: A Geoestatística é uma metodologia da Estatística Espacial baseada na teoria das variáveis regionalizadas, cujo comportamento espacial apresenta características intermediárias entre as variáveis verdadeiramente aleatórias e as totalmente determinísticas. No estudo das variáveis regionalizadas, duas ferramentas são fundamentais: o variograma e a krigagem (o interpolador não viesado e de variância mínima). A krigagem consiste em combinar as estimativas dos parâmetros do modelo semivariográfico com os dados observados para produzir uma superfície de predição. Sabe-se que quando um mapa é obtido, as pessoas tendem a aceitá-lo como verdadeiro. Neste contexto, aumenta-se a necessidade de criação de mapas temáticos que representem, da melhor forma possível, a realidade da variável na região de estudo. Assim, com a intenção de obter mapas precisos, o presente trabalho objetiva comparar mapas interpolados por krigagem em três diferentes softwares (ARC Gis 10.1, ARC Gis 9.3 e R) para a mesma base de dados e mesma configuração analítica. Dentre os resultados, pode-se destacar que houve diferenças significativas em toda a região de estudo quando se compara o mapa do R com o do ArcGIS. Já entre as versões do ArcGIS pode-se perceber diferenças significativas apenas na região oeste e sudoeste da região.

Palavras-Chave: variograma; krigagem; mapas.

Título: Otimização de um Sistema de Elevadores via Simulação de Eventos Discretos

Autores: Fabio Mascarenhas Loureiro; Jessica Q. Kubrusly

Resumo: Em diversos problemas de otimização algumas variáveis levadas em consideração são aleatórias, como a demanda por um certo produto ou o nível de precipitação em uma certa região. Nesses casos o problema passa a ser de otimização estocástica e solucioná-los de forma analítica é bastante complicado. Diante disto, a proposta deste trabalho é realizar um estudo, via simulação por eventos discretos, de um sistema de elevadores convencional frente uma forma diferenciada de trabalho, levando em consideração as taxas de chegadas dos clientes de forma homogênea e não homogênea ao longo do dia. O auxílio da simulação fez com que o ambiente estudado levasse em consideração diversas variáveis de forma conjunta, tais como tempo de permanência no sistema de cada cliente, tamanho da fila, tempo de deslocamento do elevador, entre outras, que o tornaram mais próximos de um sistema real. Com isto, constatou-se que não existe um sistema ótimo, mas sim um sistema mais adequado a realidade de cada ambiente.

Palavras-Chave: Simulação por Eventos Discretos; Geração de Variáveis Aleatórias; Processo de Poisson.

Título: Simulação do Funcionamento de uma Loteria

Autores: Natan Sant' Anna Borges; Nadine Melloni. Neumann; Clarrissa Cardoso Oesselmann; Guilherme Dias Malvão; Jessica Quintanilha Kubrusly; Marcela Martins da Serra Vilela Pinto

Resumo: Este trabalho propõe o uso do Método de Monte Carlo para resolver problemas

Page 83: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

83

de otimização que envolvem variáveis aleatórias. O trabalho se baseia no exemplo de um sistema de uma loteria. Este sistema foi simulada a partir da Simulação por Eventos Discretos e os resultados analisados a fim de determinar quantos funcionários (caixas) seriam ideias para o funcionamento da loteria em questão. Os resultados foram capazes de indicar o quanto caótico o sistema pode se tornar se o número de funcionários não for adequado. Além disso a partir da simulação realizada foi possível sugerir um número adequado de funcionário. Com isso o método se mostrou eficiente no auxílio a tomada de decisões. Palavras-Chave: Simulação; Geração de Variáveis Aleatórias ; Método de Monte Carlo. Título: Sistema Online i-Sports

Autores: Alexandre C. Maiorano; Anderson Ara; Francisco Louzada Neto

Resumo: O principal objetivo do trabalho é apresentar um sistema online inovador, construído a partir de softwares livres e de ferramentas estatísticas que permitem a comparação de indivíduos em qualquer modalidade esportiva. Particularmente, o estudo exposto é voltado à avaliação de desempenho em futebol, utilizando métodos univariados e multivariados. A abordagem univariada é dada pela metodologia Z-CELAFISCS e as multivariadas são dadas pela construção de indicadores utilizando Análise de Componentes Principais, Análise Fatorial e Cópulas. O sistema criado exibe diversos relatórios dinâmicos que permitem observarmos os resultados dos indivíduos nos testes e quais são os mais aptos à prática desse esporte.

Palavras-Chave: Avaliação Esportiva; Sistema Estatístico Online; Métodos Univariados e Multivariados. Título: Software R para Análise de Classes Latentes

Autores: Pétala Gardênia da S. E. Tuy; Marcus Elias Silva Freire; Nila M. S. G. Bahamonde; Leila Denise A. F. Amorim

Resumo: A análise de classes latentes (LCA, Latent Class Analysis, em inglês) é usada para identificar subgrupos, tipos ou categorias de indivíduos de uma população em estudo e permite identificar padrões de resposta com base em características observadas, relacionando-as a um conjunto de classes latentes. Uma das maiores dificuldades encontradas para disseminação do uso dos métodos relacionados a análises de classes latentes é a limitada literatura sobre como pode ser feita sua implementação em softwares estatísticos, além do que os programas que são direcionados exclusivamente para uso destes métodos possuem custo elevado. O objetivo deste trabalho é discutir LCA usando quatro bibliotecas disponíveis no software estatístico R, ressaltando as vantagens e limitações de cada uma delas. Uma aplicação relacionada ao diagnóstico de carcinoma no colo do útero é apresentada e implementada nestas bibliotecas.

Palavras-Chave: dados categorizados; variáveis latentes; software R.

Título: Text mining: um estudo a partir do Twitter utilizando o R

Autores: Gabriel Luiz Andriotti da Silva; Lisiane Priscila Roldão Selau

Resumo: A cada dia, mais dados são armazenados por computadores poderosos e capazes de processar muita informação. Com isso, cresce a necessidade de utilizar toda essa informação no processo de tomada de decisão. Estima-se que 80% da informação

Page 84: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

84

que uma organização dispõe esteja no formato de texto. Além disso, o advento das redes sociais na web possibilitou um ambiente virtual em que milhões de usuários publicam dados pessoais, opiniões e preferências, tornando-se uma fonte preciosa de informação. Diante desse cenário, a descoberta de conhecimento em texto torna-se uma ferramenta importante para extrair informação a partir de bases textuais sem a necessidade de leitura. Nesse sentido, o objetivo deste trabalho é utilizar a abordagem de Text Mining, desde a extração até a análise dos dados, e mostrar uma aplicação da técnica com dados do Twitter. Utilizando o software R, foram extraídas as publicações do Twitter da Zero Hora – jornal local – num período de quase 3 meses, e foi construída uma nuvem de palavras com os termos mais frequentes. E, através da técnica de Clustering, os tweets foram agrupados conforme seus relacionamentos.

Palavras-Chave: Text Mining; Software R; Twitter.

Título: Usando AD Model Builder para ajustar um Modelo Linear Generalizado Exponencial Potência

Autores: Cristian Villegas

Resumo: Neste trabalho usamos o software livre ADMB (http://www.admb-project.org/) para estimar os parâmetros do modelo linear generalizado exponencial potência (MLGEP) . O software ADMB (Automatic Differentiation Model Builder) é bastante usado na área de pesca para estimar parâmetros de modelos não lineares devido à alta eficiência computacional. Usamos a função elliptical criada pelo professor Francisco Cysneiros (http://www.de.ufpe.br/~cysneiros/elliptical/elliptical.html) para calcular os resíduos padronizados e gerar os envelopes simulados. Comparamos o modelo linear generalizado normal e exponencial potência para diferentes funções de ligação a um conjunto de dados reais. Palavras-Chave: ADMB; Modelos Lineares Generalizados; Distribuição exponencial potência.

Page 85: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

85

Sessão: Inferência Bayesiana

Título: A Non-Homogeneous Poisson Process geostatistical model

Autores: Fidel Ernesto Castro Morales; Lorena Vicini; Luiz K. Hotta; Jorge A. Achcar

Resumo: This paper introduces a model for counting data under a space-time context, using nonhomogeneous Poisson processes. The main idea in this work is to include in the intensity function a random component which incorporates the spatial dependence, similarly to the spatial fragility models used in survival analysis. Inferences of interest for the suggested model are obtained under the Bayesian paradigm. To illustrate the usefulness of the proposed model, it was developed a simulation study to test the efficacy of the Markov Chain Monte Carlo (MCMC) in the generation of samples for the joint posterior distribution of the parameters of the model. From this study it was observed that the convergence of MCMC algorithm used to simulate samples for the joint posterior distribution of interest was easily obtained for different scenarios and accurate Bayesian estimates were obtained for the model parameters.

Palavras-Chave: geostatistics; Inference Bayesian; Markov Chain Monte Carlo.

Título: A Split-Merge MCMC based on Mahalanobis distance for analysis of mixture models with an unknown number of components

Autores: Erlandson F. Saraiva; Luís A. Milan

Resumo: This paper introduces a new split-merge MCMC algorithm for analysis of mixture models with an unknown number of components. In a split proposal each observation is allocated to one of two split components based on probabilities which are calculated according to Mahalanobis distance. Conditional on new proposal allocation new component parameters are generated from a candidate-generating density that is chosen according to known form of posterior distributions of the component parameters. In order to maintain detailed balance equation within each move type, the acceptance probability for split-merge proposals are calculated according to reversible-jump procedure using a "dimension matching" scheme where the Jacobian term is unity. The main advantage of the proposed algorithm is that it is easy to implement, even for the multivariate case, and do not requires the invention of "good" jumping moves to apply it to a new family of mixtures. We illustrate it on both univariate and bivariate data.

Palavras-Chave: Mixture Model; Bayesian Inference; Reversible-jump; Split-Merge update. Título: Abordagem Bayesiana na Identificação de Fatores Ativos em Planos Fatoriais 2k-p sem Réplicas

Autores: Isaac Jales Costa Souza; André Luís Santos de Pinho

Resumo: Um experimento fatorial 2k é um experimento que envolve dois ou mais fatores, todos eles com dois níveis. Uma das utilidades desse tipo de experimento é na identificação de fatores ativos, ou seja, fatores que influenciam alterações na variável resposta quando alterados seus níveis. Em muitas situações, é inviável fazer um experimento que contenha um número grande de unidades experimentais por questões de custo e tempo. Uma saída para esse problema é a utilização de um plano fatorial sem réplica, o que significa que os tratamentos devem ser aplicados em apenas uma unidade

Page 86: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

86

experimental. Este trabalho tem como objetivo apresentar um método bayesiano que auxilie na identificação de fatores ativos em um plano fatorial sem réplica. O método consiste em atribuir uma probabilidade a priori para cada subconjunto possível de fatores e interações ser o conjunto dos fatores e interações ativos. Foram considerados dois conjuntos possíveis de fatores e interações e analisado o método bayesiano para cada um deles. Após isso, foi obtida a probabilidade a posteriori de todas as prioris sob a hipótese de normalidade dos dados, e calculada a probabilidade marginal de cada fator individualmente ser ativo. Foram feitas simulações no software estatístico R versão 3.0.1 a fim de verificar o desempenho do método bayesiano. Constatou-se, através das simulações, que o método bayesiano detecta bem a atividade dos fatores cujos efeitos equivalem a 1,5 desvio padrão da estimativa do efeito para as duas seleções de modelos. De modo geral, o desempenho do método bayesiano é bom. O critério recomendado a se utilizar para considerar ativo um fator é que a posteriori dele seja maior que 40%.

Palavras-Chave: Experimento Fatorial; Método Bayesiano; Simulação.

Título: Abordagem Bayesiana para uma extensão do modelo de Grubbs Assimétrico

Autores: Fábio Rocha da Silva; Lourdes C. Montenegro

Resumo: Neste trabalho, apresentamos e discutimos os aspectos inferenciais Bayesianos para o modelo de Grubbs, quando a quantidade desconhecida x (resposta latente) segue uma distribuição normal assimétrica, estendendo-se os primeiros resultados apresentados na Arellano-Valle (2005). Estimativas a posteriori de parâmetros são calculados através do amostrador de Gibbs. Os resultados e métodos desenvolvidos neste trabalho são ilustrados com um exemplo numérico.

Palavras-Chave: distribuição normal assimétrica; amostrador de Gibbs; Grubbs.

Título: Análise bayesiana semiparamétrica de resposta binária com covariável coua sujeita a omissão não aleatória

Autores: Poleto, F.; Paulino, C.D.P.; Singer, J.; Molenberghs, G.

Resumo: Missingness in explanatory variables requires a model for the covariates even if the interest lies only in a conditional model for the outcomes given the covariates. An incorrect specification of the models for the covariates or for the missingness mechanism may lead to biased inferences for the parameters of interest. Previously published articles either use semi-/non-parametric exible distributions for the covariates and identify the model via a MAR assumption, or employ parametric distributions for the covariates and allow a more general non-random missingness mechanism. We consider the analysis of binary responses, combining a MNAR mechanism with a non-parametric model based on a Dirichlet process mixture for the continuous covariates. We illustrate the proposal with simulations and by analyzing a real dataset.

Palavras-Chave: Dirichlet process mixture; incomplete data; MNAR model.

Título: Análise Bayesiana com Dados de Sobrevivência, Usando Distribuições Exponenciais Bivariadas

Autores: Carlos Aparecido dos Santos; Bárbara Nascimento Faria

Page 87: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

87

Resumo: Este trabalho analisa dados de sobrevivência longitudinais correlacionados, usando distribuições exponencias bivariadas. Para isso, utiliza o enfoque Bayesiano para obter os resumos a posteriori dos parâmetros de interesse.

Palavras-Chave: Dados Bivariados; Inferência Bayesiana; Distribuições Exponenciais Bivariadas; Métodos MCMC.

Título: Análise Bayesiana da curva de crescimento dos frutos do cafeeiro

Autores: Tales Jesus Fernandes; Adriele Aparecida Pereira; Joel Augusto Muniz

Resumo: Os modelos não-lineares são comumente utilizados no estudo de curvas de crescimento. Conhecer e modelar tais curvas possibilita ao pesquisador a identificação dos diferentes estágios envolvidos no desenvolvimento do fruto do cafeeiro. A metodologia Bayesiana tem se tornado cada vez mais uma alternativa na estimação dos parâmetros destes modelos, reduzindo a obtenção de estimativas viesadas e atípicas, mesmo em presença de poucos dados amostrais. O objetivo deste trabalho foi utilizar a metodologia Bayesiana para ajustar o modelo não-linear de Gompertz para dados de crescimento dos frutos do cafeeiro. Os dados analisados foram extraídos de Cunha e Volpe (2011) e correspondem à 14 medições da massa fresca do fruto do cafeeiro obtidas entre 96 e 293 dias após o florescimento (DAF), com espaçamento médio entre elas de 15 dias. A metodologia Bayesiana foi eficiente na estimação dos parâmetros, fornecendo estimativas confiáveis e com interpretação prática e, permitiu a obtenção de intervalos de credibilidade sem utilizar a teoria assintótica.

Palavras-Chave: Café; Gompertz; MCMC; Não linear.

Título: Análise da Marcha Humana: uma Abordagem Bayesiana Hierárquica

Autores: Amanda Buosi Gazon; Luis Ernesto Bueno Salasar; Adriano Polpo de Campos

Resumo: A análise do movimento humano é fundamental para estudos que busquem compreender o movimento normal/alterado e para a proposição de programas preventivos ou de reabilitação das alterações do movimento. Em um dos trabalhos pioneiros em que se modela estatisticamente dados de marcha humana, Olshen et al (1989), propõem um modelo de regressão trigonométrica com coeficientes aleatórios para obtenção de bandas de confiança para as curvas dos ângulos de rotação usando o método de reamostragem Bootstrap. O objetivo deste trabalho é construir bandas de credibilidade e predição que caracterizem o movimento de um dado grupo. Para isso, propomos uma abordagem bayesiana hierárquica e utilizamos algoritmos de simulação de Monte Carlo via cadeia de Markov (MCMC) para o processo de estimação.

Palavras-Chave: Modelo Bayesiano Hierárquico; Modelo de Regressão Trigonométrica; Banda de Credibilidade; Banda de Predição.

Título: Análise de Referência Bayesiana para a Distribuição Lognormal Generalizada com Aplicação a Dados de Sobrevivência

Autores: Sandra Rêgo de Jesus; Vera Lucia Damasceno Tomazella; Francisco Louzada Neto Resumo: A distribuição lognormal generalizado (logNG), que inclui a distribuição lognormal como um caso particular, também é considerada uma ferramenta para obter

Page 88: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

88

estimativas robustas, devido à sua flexibi- lidade. Essa distribuição tem sido utilizada com diferentes parametrizações, em contextos diferentes, mas os procedimentos inferenciais para os parâmetros do modelo apresentam problemas. Este trabalho propõe a metodologia da análise de referência Bayesiana para estimar os parâmetros do modelo logNG considerando dados de sobrevivência. Mostra-se que a priori de referência conduz a uma distribuição a posteriori própria. No entanto a priori de Jeffreys conduz a uma posteriori imprópria. A metodologia proposta foi ilustrada em dois conjuntos de dados reais. Palavras-Chave: Inferência Bayesiana; Distribuição lognormal generalizada; Priori de referência; Priori de Jeffreys; Dados censurados.

Título: Aproximações de distribuições marginais a posteriori utilizando o método INLA

Autores: Douglas Roberto Mesquita Azevedo; Vanessa Bielefeldt Leotti Torman

Resumo: Atualmente, os métodos de Estatística Bayesiana estão ganhando uma maior visibilidade pelos pesquisadores, devido a sua simples estrutura e a sua alta aplicabilidade nas mais diversas áreas do conhecimento. Sua aplicação, no entanto, exige um bom suporte computacional, pois os cálculos algébricos em geral são inviáveis. A maioria dos modelos ajustados utilizando Estatística Bayesiana são analiticamente impossíveis de serem resolvidos. Para driblar essa barreira muitos recursos numéricos e computacionais foram apresentados. Os métodos que mais se difundiram foram os métodos de simulação. Estes métodos conseguem obter resultados satisfatórios, porém com o contraponto de em determinados casos precisarem de longas cadeias para obter convergência, o que torna o processo demorado. No ano de 2009 um novo método determinístico foi proposto, o método INLA. Este método é aplicável numa grande gama de modelos, chamados de Modelos Latentes Gaussianos. O desempenho do método e o tempo computacional são satisfatórios, tendo resultados similares aos métodos de simulação de forma muito mais rápida, além de não ser necessário a verificação de convergência. Este trabalho tem por objetivo ilustrar de maneira acessível, através de exemplos, a matemática inserida no método INLA, e ao mesmo tempo, servir como um breve tutorial sobre os comandos deste método utilizando o pacote R-INLA do software estatístico R.

Palavras-Chave: Inferência Bayesiana; INLA; Aproximações determinísticas.

Título: Augmented mixed models for clustered proportion data

Autores: Diana Milena Galvis; Dipankar Bandyopadhay; Victor H. Lachos

Resumo: Continuous (clustered) proportion data often arise in various domains of medicine and public health where the response variable of interest is a proportion (or percentage) quantifying disease status for the cluster units, ranging between zero and one. However, due to the presence of relatively disease-free as well as highly diseased subjects in any study, the proportion values can lie in the interval [0,1]. While the widely used beta, simplex and beta rectangular regressions can be adapted for assessing covariate effects here, it's versatility is often challenged due to the presence/excess of zeros and ones because the support of these distributions lies in the interval (0,1). To circumvent this problem, we first introduced a unified family of distributions with support in the interval (0,1), called General Proportional Data (GPD), that contains the beta, simplex and beta rectangular densities as particular cases. Then, we augment the probabilities of

Page 89: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

89

zero and one with the GPD density, controlling for the clustering effect. Our approach is Bayesian with the ability to borrow information across various stages of the complex model hierarchy, and produces a computationally convenient framework amenable to available freeware. The marginal likelihood of the proposed GPD model is tractable, and can be used to develop Bayesian case-deletion influence diagnostics based on q-divergence measures. Both simulation studies and application to a real dataset from a clinical periodontology study quantify the gain in model fit and parameter estimation over other ad-hoc alternatives, and provide quantitative insight into assessing the true covariate effects on the proportion responses.

Palavras-Chave: Bayesian; Kullback-Leibler divergence; Periodontal disease.

Título: Bayesian estimation of population size under closed capture-recapture model using binomial mixture distributions

Autores: George Lucas Moraes Pezzott; Luis Ernesto Bueno Salasar; José Galvão Leite

Resumo: In this work, we consider bayesian estimation of the unknown number of elements in a closed population through a capture-recapture model with heterogeneity among individuals. The basic model assumption is that the capture probabilities depends on the individuals but not on the sampling occasions. Using the frequentist paradigm, Burnham and Overton (1978) assumed the capture probabilities of individuals to be i.i.d random variables with distribution function F and proposed a jacknife estimator for the number of elements in the population. Similarly to Burnham and Overton (1978), we suppose the capture probabilities of individuals are i.i.d observation from a finite discrete distribution. Under noninformative prior specification, we propose a Gibbs sampling procedure with data augmentation (Diebolt and Robert, 1994) to draw inferences for the parameters. The methods are illustrated with two literature real data sets.

Palavras-Chave: Capture-recapture model; Mixture model; Bayesian inference; Gibbs sampling. Título: Bayesian truncated nonlinear beta regression model

Autores: Carolina Costa Mota Paraíba; Natalia Bochkina; Carlos Alberto Ribeiro Diniz

Resumo: Truncated regression models arise in many applications where it is not possible to observe the values of the response variable that are above or below certain thresholds. In this paper we propose a Bayesian truncated nonlinear regression model, assuming that the response variable follows a truncated beta distribution and that its location parameter is parametrized by a nonlinear continuous and twice differentiable function of unknown parameters and covariates. Bayesian estimates and credible intervals are computed based on draws from the posterior distribution of parameters obtained using an MCMC procedure. Posterior predictive checks, Bayesian standardized residuals and a Bayesian influence measures are considered to check model adequacy, outliers and influential observations. Results based on simulated data are provided to assess the frequentist properties of Bayesian estimates under the proposed models. A real data set on soil-water retention is analyzed using the proposed model.

Palavras-Chave: truncated beta distribution; Bayesian nonlinear regression; Bayesian diagnostic.

Page 90: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

90

Título: Classifying archaeological fragments with Bayesian networks

Autores: Melaine Cristina de Oliveira; Andressa Soreira; Carlos Alberto de Bragança Pereira; Victor Fossaluza

Resumo: The objective of the present work is to classify an archeological fragment as coming from one of a predetermined set of possible origins, Indian tribes: Guarani, Jacadigo and Kadiwéu. A database with information from ceramic fragments found in different sites, located in Lalima village, Mato Grosso do Sul, were collected. A database with information about different technological traditions on many ceramic fragments from Lalima was considered. The research´s expertise provided precise classification of about 760 pieces into the above three traditions. A supervised model of classification was created in order to infer the origin, among the above three, of other set of 2100 fragments. Bayesian nets were the basis for defining our model. Bayesian networks are directed acyclic graphs that properly represent the dependency between a set of random covariates with their joint probability distribution. We consider that our approach provides a robust classification technique since it provides the probability of a new fragment was originated from one of the three archeological communities with its group of technological tradition. Also, if the probability of technological tradition indicates low probabilities for all three groups, there could be an indication of the presence of an additional community. Comparison with alternative methods to build the networks was also presented.

Palavras-Chave: Bayesian networks; Archeological data; Classification; Bayesian inference. Título: CreditRisk+: Uma Interpretação Bayesiana na Modelagem de Risco de Crédito

Autores: Raphael Oliveira Lourenço; Marco Aurélio dos Santos Sanfins

Resumo: A demanda por metodologias robustas e mais poderosas de modelagem risco de crédito vem crescendo muito devido a instabilidade econômica financeira que se propaga pelo mundo. Portanto, as avaliações de risco de crédito se tornaram cada vez mais fundamentais para instituições financeiras e não-financeiras. O modelo do CreditRisk+ é um modelo mais simples quando comparado aos outros modelos presentes no mercado de crédito. Este modelo foi desenvolvido pela Crédit Suisse Financial Products (CSFP) e é muito difundido no mercado de seguros pela sua facilidade já que não considera premissas sobre o motivo do default. O objetivo principal é chegar a mensuração de perdas esperadas e não-esperadas em uma carteira de crédito. O CreditRisk+ considera que os pagamentos dos empréstimos são levados ao vencimento, ou seja, o pagamento ou o default é observado apenas na data do vencimento. O modelo considera apenas dois eventos para o devedor: inadimplente ou não. Para mensurar os eventos de default o modelo sugere agrupamento dos devedores em faixas de exposição de tal forma que a distribuição de perda pode ser aproximada de uma Poisson. Então é proposto por (CREDIT SUISSE FINANCIAL PRODUCTS, 1997) uma nova modelagem onde as incertezas, volatilidades, das taxas de default são incorporadas, trata-se de um modelo que assume uma distribuição Gama associada a essas incertezas. Não é necessário um conhecimento mais profundo para perceber que a distribuição que se adequaria mais ao caso seria uma Bernoulli para um devedor ou uma Binomial para uma carteira de crédito. Assumindo a volatilidade das taxas a distribuição de perda teórica é obtida através de uma fórmula fechada e, o primeiro passo para essa distribuição é obter a distribuição de Poisson e Gama de cada faixa e realizar uma convolução. De acordo com as teorias de Estatística Bayesiana a multiplicação de uma Poisson por uma Gama é proporcional a uma Gama, cuja a distribuição preditiva é uma distribuição Binomial

Page 91: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

91

Negativa. A fórmula fechada define a partir de um cálculo recursivo sua distribuição de perda. A partir da distribuição obtida é possível calcular o VaR (Value-at-Risk) de crédito assim como a distribuição de perda e algumas estimativas pontuais como a perda esperada em um período de tempo e a perda de capital. O objetivo principal deste trabalho é mostrar que é possível reconstruir todo o modelo do CreditRisk+, usando as ferramentas da Inferência Bayesiana, obtendo os mesmos resultados para a distribuição das Perdas do Portfólio. Por fim, adaptaremos o modelo, usando a nova abordagem Bayesiana, substituindo as distribuições Poisson e Gama usadas inicialmente, por Binomial e Beta, respectivamente, calculando para esse novo caso, a distribuição de perdas, com a vantagem de que o novo modelo proposto esteja sendo mais fiel a realidade. Palavras-Chave: Risco de Crédito; Inferência Bayesiana; CreditRisk+.

Título: Estimação via amostrador de gibbs em mistura finita de normais

Autores: Joyce da Silva Macêdo Brabo; Maria Regina Madruga Tavares

Resumo: Estudos sobre modelos de mistura e a estimação dos parâmetros envolvidos no problema constituem uma abordagem amplamente utilizada, devido a sua vasta área de aplicação. Para Lindsay (1995), o modelo de mistura surge quando uma amostra aleatória é gerada por várias subpopulações, com um modelo probabilístico representado por uma combinação linear dos modelos associados a cada componente. Isto ocorre comumente em situações onde a variável aleatória de interesse é observada em várias condições distintas, por exemplo: quando os dados estão sendo observados em animais de diferentes espécies, ou em regiões geográficas distintas, ou em diferentes gêneros, etc. Neste trabalho foi realizada a implementação de um procedimento Bayesiano para gerar amostras da distribuição posterior em modelos de mistura Normal, com base no Amostrador de Gibbs. Simulações com dados de mistura de três normais foram realizadas, e as estimativas obtidas apresentaram um bom desempenho, com erro de estimação diminuindo a medida que o tamanho amostral aumentava. O processo de estimação estudado foi aplicado a dados reais sobre o açúcar residual em vinhos brancos e tintos. A análise dos dados revelou uma classificação adicional nos dados, detectando a presença de duas novas subpopulações associadas ao teor de açúcar, os vinhos suaves e secos.

Palavras-Chave: Mistura; Amostrador de Gibbs; Classificação.

Título: Funções de covariância espacial multivariada não separáveis

Autores: Rafael Santos Erbisti; Thais Cristina Oliveira Fonseca; Mariane Branco Alves

Resumo: O objetivo deste trabalho é introduzir um modelo de covariância não separável para dados multivariados espaciais. A aplicação de modelos espaciais tem crescido substancialmente em diversas áreas, como, por exemplo, nas ciências ambientais, ciências climáticas e agricultura. Para o desenvolvimento de modelos espaciais multivariados é necessário especificar uma função de covariância cruzada válida, que define a dependência entre componentes do vetor resposta. Entretanto, sabe-se que funções de covariância cruzada não são simples de serem especificadas. Este trabalho propõe um modelo espacial de covariância não separável baseado na combinação convexa de funções de covariância separáveis. A partir de algumas proposições foi observado que a estrutura de covariância encontrada é válida e flexível. Além disso, a

Page 92: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

92

matriz de covariância não necessariamente será simétrica.

Palavras-Chave: Estrutura de covariância; covariância cruzada; Modelos espaciais multivariados. Título: Inferência bayesiana em modelos semiparamétricos aditivos elípticos generalizados Autores: Luz Marina Rondón Poveda; Heleno Bolfarine

Resumo: Estudamos neste trabalho a inferência e diagnóstico sob o enfoque Bayesiano de modelos de regressão com erros independentes seguindo distribuição normal, t-Student, slash, Laplace e hiperbólica simétrica (Barndoff-Nielsen (1977)), estas distribuições são obtidas a través da família de distribuições de mistura normal na escala. Nestes modelos o parâmetro de locação bem como o de dispersão incluem componentes não paramétricos aditivos descritos a través de B-splines. Vale salientar que estes modelos, chamados neste trabalho de Modelos Semiparamétricos Aditivos Elípticos Generalizados (MSAEG), generalizam as componentes sistemática (uma vez que eles consideram simultaneamente efeitos paramétricos lineares e não paramétricos) e aleatória (pois eles consideram para o erro aleatório distribuições obtidas como mistura de escala normal) dos modelos estudados por Aitkin (1987), Verbyla (1993), Cepeda e Gamerman (2001) e Xu e Zhang (2013).

Palavras-Chave: Modelos semiparametricos; Distribuições de mistura normal na escala; B-splines; algoritmo MCMC; componentes não paramétricos.

Título: Inferência Bayesiana em Modelos de regressão Beta e Beta Inflacionados

Autores: Danilo Covaes Nogarotto; Caio Lucidius Naberezny Azevedo

Resumo: No presente trabalho desenvolvemos ferramentas de inferência bayesiana para modelos de regressão beta e beta inflacionados, em relação à estimação paramétrica e diagnóstico. Trabalhamos com modelos de regressão beta não inflacionados, inflacionados em zero ou um e inflacionados em zero e um. Devido à impossibilidade de obtenção analítica das posteriores de interesse, tais ferramentas foram desenvolvidas através de algoritmos MCMC. Para os parâmetros da estrutura de regressão e para o parâmetro de precisão exploramos a utilização de prioris comumente empregadas em modelos de regressão, bem como prioris de Jeffreys e de Jeffreys sob independência. Para os parâmetros das componentes discretas, consideramos prioris conjugadas. Realizamos diversos estudos de simulação considerando algumas situações de interesse prático com o intuito de comparar as estimativas bayesianas com as frequentistas e também de estudar a sensibilidade dos modelos à escolha de prioris. Um conjunto de dados da área psicométrica foi analisado para ilustrar o potencial do ferramental desenvolvido. Os resultados indicaram que há ganho ao se considerar modelos que contemplam as observações inflacionadas ao invés de transformá-las a fim de utilizar modelos não inflacionados.

Palavras-Chave: Regressão Beta Inflacionada; Inferência Bayesiana; Métodos MCMC; priori de Jeffrey.

Page 93: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

93

Título: Intervalos de credibilidade para altos quantis de distribuições de variação regular

Autores: Rafael Bráz Azevedo Farias; Michel Helcias Montoril; José Ailton Alencar Andrade Resumo: Eventos extremos são de interesse em muitas áreas, no setor de seguros, reclamações industriais têm forte impacto na companhia de seguros, e pode colocar em risco a solvência de uma carteira ou mesmo uma parte substancial da empresa. Isto motiva as as empresas criar previsões cenários que afetem a sua solidez financeira. Ultimamente, esses cenários normalmente envolvem a estimativa de eventos extremos, tais como altos quantis da distribuição de sinistros. Por outro lado, os eventos extremos são normalmente modelados com distribuições com caudas pesadas, que pode pertencer a diferentes classes, tais como a classe das distribuições subexponenciais. Neste artigo trabalhamos com a classe de distribuições de variação regular, as quais apresentam caudas pesadas no sentido de que suas caudas decaem como uma função potência. Alguns trabalhos utilizam abordagens clássicas para estimar intervalos de confiança de altos quantis usando distribuições com caudas pesadas, no entanto, mostram que esses procedimentos podem ser melhorados com uma abordagem bayesiana, mesmo quando usamos distribuições a priori não informativas. Neste trabalho, propomos uma abordagem bayesiana para estimar intervalos de alta densidade de probabilidade. Usamos alguns dados simulados a fim de avaliar o desempenho do método e realizamos aplicações em dois com conjuntos de dados reais.

Palavras-Chave: Distribuições de variação regular; Intervalos de credibilidade; Teoria dos valores extremos

Título: Modelos dinâmicos para dados circulares

Autores: Mariana Raniere Neves

Resumo: Este trabalho objetiva aplicar metodologias disponíveis na literatura e desenvolver possíveis alternativas para o estudo de dados direcionais. Em particular, tem-se interesse em dados direcionais observados temporalmente e propõe-se, para sua análise, modelos dinâmicos com estruturas observacionais baseadas em distribuições circulares, como por exemplo a Von Mises e Wrapped Normal. Pretende-se implementar e analisar o desempenho de métodos computacionais como MCMC, Linear Bayes e métodos de reamostragem a esse tipo de modelo.

Palavras-Chave: Dados Circulares; Inferência Bayesiana; Modelos Dinâmicos.

Título: Mapeamento da mortalidade neonatal precoce em Minas Gerais: o uso da censura para contornar o problema do sub-registro

Autores: Guilherme Lopes de Oliveira; Rosangela Helena Loschi

Resumo: Neste trabalho apresentamos um mapeamento da mortalidade neonatal precoce (MNP) em hospitais do SUS no estado de Minas Gerais entre 1999 e 2001. Utilizamos um modelo de regressão Poisson misto censurado com efeitos aleatórios para acomodar a dependência espacial entre as regiões. A inclusão de censura no modelo foi necessária para tratar adequadamente os dados relacionados às áreas suspeitas de subnotificação. Apresentamos um dos critérios construídos para a determinação das regiões censuradas analisados. Os riscos relativos (RR) de MNP estimados via modelo censurado são comparados com aquelas obtidos a partir de modelos não censurados apresentados na literatura. Conclui-se que a inclusão de censuras no modelo fornece

Page 94: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

94

melhores estimativas para os RR e tais estimativas são concordantes, independente do critério de censura utilizado.

Palavras-Chave: Mortalidade neonatal precoce; Dados censurados; Distribuição a priori CAR; Subnotificação de dados.

Título: Modelo Dinâmico Beta Inflacionado de Zero e Um

Autores: Leandro Tavares Correia; Cibele Queiroz da-Silva; Heleno Bolfarine

Resumo: A abordagem Bayesiana de modelos dinâmicos têm se destacado como uma importante área da estatística nos últimos anos. Esta abordagem se estende através da implementação de uma equação de evolução, capaz de governar a evolução temporal dos regressores. Esta classe é capaz de abranger muitos dos principais problemas envolvendo variações no tempo e espaço, inclusive os modelos de séries temporais. Este trabalho consiste em uma extensão dos modelos dinâmico beta utilizando a distribuição beta inflacionada de zero-e-um para modelagem de séries de taxas ou proporções que incluem valores extremos.

Palavras-Chave: Modelo dinâmico; Beta inflacionada de zeros e uns; Abordagem Bayesiana; Mistura de distribuições.

Título: Modelo Hierárquico Log-Logístico Aplicado ao Estudo do Tempo de Vida de Pacientes Tratados com Antifúngicos

Autores: Simone Demeis Braguim, Carlos Aparecido dos Santos

Resumo: Descoberta na década de 1990, a Linezolida foi liberada para uso em alguns países a partir de 2000, sendo que, no Brasil, esta droga começou a ser utilizada apenas em 2007. Por ser um antibiótico sintético de amplo aspectro e, em geral, bacteriostático, seu uso por curto período de tempo é considerado seguro. Entretanto, o uso da droga de forma indiscriminada vem preocupando os pesquisadores da área médica já que não se conhece todos dos possíveis efeitos a longo prazo. Com o intuito de estudar o tempo de uso deste antibiótico, além dos efeitos causados por este, foram coletados dados de pacientes sob tratamento entre os anos de 2008 a 2010 no Hospital Universitário de Maringá (HUM). Neste estudo consideramos a variável resposta tempo de internamento dos pacientes na UTI e para descrever o comportamento desta, foi proposto o modelo hierárquico log-logístico. Para estimação dos parâmetros foram geradas três cadeias usando para isto métodos MCMC. Além disso, gráficos e alguns testes foram considerados para an�álise do ajuste e convergência destas cadeias.

Palavras-Chave: Análise Bayesiana; Modelo Hierárquico; Log-Logístico.

Título: Modelo de Decisão Bayesiana para Portfolio de Investimentos

Autores: Patrícia Viana da Silva; Kamylla Rodrigues Leandro

Resumo: Os investimentos em ativos financeiros envolvem decisões sobre onde e como aplicar o patrimônio de acordo com o risco de mercado, ou seja, dependendo do comportamento do investidor frente ao risco que deve ser assumido para obter o retorno desejado. Tanto para o especulador quanto para o pequeno investidor a garantia de preservação ou de evolução do patrimônio depende do risco assumido. Uma forma de

Page 95: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

95

definir esse risco é verificar como se comporta a variação dos retornos do ativo ao longo do tempo. Neste trabalho, o problema se refere a escolha de uma carteira de investimentos com base em indicadores econômicos. Um modelo empírico é utilizado e também um modelo normal multivariado ambos com base em Teoria da Decisão e Inferência Bayesiana. São propostas funções de perda em função do ganho esperado do investidor e uma aplicação é apresentada para os ativos Índice de Energia Elétrica (IEE) e IBOVESPA considerando o Índice Geral de Preços do Mercado (IGP-M). Os dados utilizados são referentes ao período de abril de 2011 a março de 2013.

Palavras-Chave: Inferência Bayesiana; Teoria da Decisão; Risco de Bayes; IEE; IBOVESPA. Título: Modelos lineares generalizados dinâmicos - métodos seqüenciais bayesianos

Autores: Carlos Tadeu Pagani Zanini; Mariane Branco Alves; Helio S. Migon

Resumo: O presente trabalho consta de aplicações de diferentes metodologias sequenciais de estimação de parâmetros sob o ponto de vista bayesiano em Modelos Dinâmicos Lineares Generalizados e em Modelos Hierárquicos Lineares Generalizados. No caso específico de Modelos Dinâmicos, tem-se o intereesse em estimar processos autorregressivos na evolução de componentes do vetor de estados. As metodologias desenvolvidas serão aplicadas a conjuntos de dados artificialmente simulados e, posteriormente, a dados reais.

Palavras-Chave: Modelos Dinâmicos; Inferência Bayesiana; Modelos Hierárquicos Lineares Generalizados; Linear Bayes.

Título: Método de Monte Carlo via cadeias de Markov (mcmc) uma aplicação do algoritmo de Metropolis Hastings

Autores: Francisca de Fátima do N. Silva; Paulo Sérgio Lucio; Adrião Duarte Dória Neto; Eduardo Henrique Silveira de Araújo

Resumo: Este trabalho apresenta uma breve descrição do Método de Monte Carlo via cadeias de Markov (MCMC) e uma aplicação do algoritmo Metropolis Hastings junto aos dados de produção de óleo para um determinado reservatório de um campo petrolífero. A título de ilustração do algoritmo será utilizada a variável injeção de gás (Ig), onde o objetivo será estimar a probabilidade de se injetar ou não gás no reservatório a fim de estimular a produção de óleo.

Palavras-Chave: Monte Carlo; Cadeias de Markov; Metropolis Hastings; Injeção de gás; petróleo. Título: Precise Hypothesis Testing of the Hardy-Weinberg Equilibrium: A comparison between FBST and BRC

Autores: Lia Hanna Martins Morita; Vitor Marchi; Vera Lucia Tomazella

Resumo: Many of the problems which traditionally have been formulated in terms of hypothesis testing are really complex decision problems on model choice, whose appropriate solution naturally depends on the structure of the problem. In this work, a probability model for the formation of genotypes from two alleles is given and expressed in terms of two parameters, "alpha" and "beta"; "alpha" = 0 corresponding to Hardy-Weinberg

Page 96: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

96

equilibrium (Lindley, 1988). A particular scientific hypothesis of genetical equilibrium is discussed, special attention is paid to considering that in some genetical applications the proportion of A alleles is known fairly precisely before sampling, the posterior distribution of "alpha" considering "beta" known is found providing estimation of "alpha" . The corresponding precise hypothesis testing problem is considered through Bayesian viewpoint using the Bayesian Reference Criterion (BRC) proposed by Bernardo and Rueda (2002) and Full Bayesian Significance Test (FBST) proposed for Pereira and Stern (1999). These procedures are Bayesian alternatives to the usual significance test or equivalently, to p-values. The results are illustrated using a example with data previously analyzed in the literature.

Palavras-Chave: Reference Analysis; Hardy-Weinberg equilibrium; Precise hypothesis testing; Information-Theory; Full Bayesian Signi.

Título: Regressão Ordinal Bayesiana

Autores: Leonardo Oliveira Gois Cella

Resumo: Este trabalho apresenta a inferência do modelo de regressão ordinal, considerando a ligação Logit e a abordagem da verossimilhança multinomial. Foi proposta uma reparametrização do modelo de regressão. As inferências foram realizadas dentro de um cenário bayesiano fazendo-se o uso das técnicas de MCMC (Markov Chain Monte Carlo). São apresentadas estimativas pontuais dos parâmetros e seus respectivos intervalos HPD, assim como um teste de significância genuinamente bayesiano – $FBST$ (Full Bayesian Significance Test) para os parâmetros de regressão. A metodologia adotada foi aplicada em dados simulados e ilustrada por um problema genético que verificou a influência de um certo tipo de radiação na ocorrência de danos celulares. A abordagem da verossimilhança multinomial combinada à reparametrização do modelo é de fácil tratamento devido ao aumento da capacidade computacional e do avanço dos métodos MCMC. Além disso, o $FBST$ se mostrou um procedimento simples e útil para testar a significância dos coeficientes de regressão, motivando assim a utilização de uma abordagem bayesiana na modelagem de dados ordinais.

Palavras-Chave: verossimilhança multinomial; Logit; MCMC; HPD; FBST.

Título: Regressão Ordinal Bayesiana

Autores: Leonardo Oliveira Gois Cella

Resumo: Este trabalho apresenta a inferência do modelo de regressão ordinal, considerando a ligação Logit e a abordagem da verossimilhança multinomial. Foi proposta uma reparametrização do modelo de regressão. As inferências foram realizadas dentro de um cenário bayesiano fazendo-se o uso das técnicas de MCMC (Markov Chain Monte Carlo). São apresentadas estimativas pontuais dos parâmetros e seus respectivos intervalos HPD, assim como um teste de significância genuinamente bayesiano – $FBST$ (Full Bayesian Significance Test) para os parâmetros de regressão. A metodologia adotada foi aplicada em dados simulados e ilustrada por um problema genético que verificou a influência de um certo tipo de radiação na ocorrência de danos celulares. A abordagem da verossimilhança multinomial combinada à reparametrização do modelo é de fácil tratamento devido ao aumento da capacidade computacional e do avanço dos métodos MCMC. Além disso, o $FBST$ se mostrou um procedimento simples e útil para testar a significância dos coeficientes de regressão, motivando assim a utilização de uma

Page 97: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

97

abordagem bayesiana na modelagem de dados ordinais.

Palavras-Chave: FBST; intervalos HPD; Logit; Verossimilhança Multinomial; MCMC.

Título: Uma abordagem bayesiana para o modelo de von Bertalanffy aplicados a crescimento de caranguejo

Autores: Magali Teresopolis R. Amaral; Carlos Eduardo Rocha Alencar; Fúlvio Aurélio Morais

Resumo: Neste artigo as abordagens clássicas e bayesianas serão proposta para ajustar o crescimento de um conjunto de dados de captura do caranguejo Ucides Cordatus no município de Porto do Mangue (Rio Grande do Norte, Brasil), por meio do modelo de crescimento de Von Bertalanffy para dados de idade versus comprimento da carapaça. Nesta proposta uma parte da amostra dos pares de dados é selecionada de forma aleatória e usada como amostra de treinamento para o modelo de curva de crescimento contemplado nesse trabalho. Os ajustes serão realizados por meio de duas metodologias: a abordagem clássica e bayesiana. Na primeira etapa, a abordagem clássica em que as estimativas de mínimos quadrados são calculadas usando-se o método de Gauss Newton, já na segunda etapa apontamos a utilização de uma metodologia bayesiana com densidades a priori não informativas de Jeffreys e a utilização de técnicas de simulação de Monte Carlo em Cadeia de Markov (MCMC) para calculo dessas estimativas. Todos os resultados clássicos e bayesianos serão comparados.

Palavras-Chave: Curvas de crescimento; Método bayesiano; Priori de Jeffreys; Simulação MCMC.

Título: Um algoritmo reversible-jump MCMC com propostas ejeção-absorção para processamento de imagens

Autores: Alexandre Pitangui Calixto; Erlandson Ferreira Saraiva; Luís Aparecido Milan

Resumo: Propomos um novo algoritmo MCMC para processamento de imagens. O algoritmo é desenvolvido considerando que o número de componentes K é desconhecido. Para atualizar K, utilizamos as propostas denominadas de ejeção-absorção (EA), que são desenvolvidas com base nos dados observados e mudam o número de componentes K na vizinhança K-1 e K+1, respectivamente. A probabilidade de aceitação para as propostas EA é calculada de acordo com a probabilidade de aceitação reversible-jump, utilizando um procedimento onde o jacobiano da transformação é igual a 1 e a densidade geradora de candidatos é dada pela distribuição a posteriori dos parâmetros do modelo. Uma vantagem do método proposto é que este é desenvolvido com base nos dados observados, ao contrário dos métodos usuais, onde o procedimento de atualização de K é baseado nas variáveis não observáveis. Isto torna o método proposto mais eficiente, pois as propostas EA podem ser rapidamente desenvolvidas e testadas, novas componentes são ``criadas'' com base em informações provenientes de clusters de observações e os parâmetros das novas componentes são gerados das distribuições a posteriori.

Palavras-Chave: Reversible Jump Markov Chain Monte Carlo; Modelo Potts; Algoritmo Swendsen-Wang; Slice Sampling; Distribuição de Gibbs.

Page 98: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

98

Título: Uma abordagem bayesiana de um modelo de regressão linear múltipla com resposta truncada para análise de transições eletrônicas de íon terra rara

Autores: Quintiliano Siqueira Schroden Nomelini; Matheus Bartolo Guerrero; Maria Luiza Maes; Valdeir Antônio Silvava; José Waldemar da Silva

Resumo: A força de oscilador de uma transição eletrônica é um exemplo de variável aleatória truncada na área de física. Esta variável depende de uma combinação linear de elementos da matriz de Judd-Ofelt. Tais elementos são os níveis das variáveis explicativas ou regressoras em um modelo de regressão linear múltipla e os parâmetros deste modelo são chamados de parâmetros de intensidade de Judd-Ofelt. A natureza da variável descrita justifica o uso de distribuições com tal característica. Neste trabalho foi adotado a distribuição normal truncada para o ajuste do modelo, via inferência bayesiana. Verificou-se que a análise bayesiana é flexivel para a modelagem de dados em análise de transições eletrônicas de íon terra rara. O resumo da informação obtida a partir da amostra e da informação a priori para cada parâmetro por meio de uma distribuição a posteriori é um atrativo para o uso da inferência bayesiana. Estas informações são obtidas a partir de amostras realizadas por meio do método de Monte Carlo via Cadeia de Markov. A implementação do algoritmo foi realizada com o auxílio do software R.

Palavras-Chave: normal truncada; inferência bayesiana; íon terra rara.

Page 99: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

99

Sessão: Inferência Estatística

Título: A note on sample size for estimating the mean of the Negative Binomial distribution

Autores: Eliardo G. Costa; Julio M. Singer

Resumo: To satisfy limits for relative and/or absolute errors in the estimation of expected value of a count, we extend results for the determination of the sample size developed under a Poisson model to contemplate situations where the underlying distribution is Negative Binomial. This result may be employed in the estimation of the concentration of viable organisms in ships' ballast water.

Palavras-Chave: Sample size; Negative Binomial distribution; Poisson distribution.

Título: Algoritmo EM para mistura de distribuições GEV

Autores: Cira Etheowalda Guevara Otiniano

Resumo: As misturas finitas de distribuições são modelos probabilísticos de uma variedade de fenómenos em diversas áreas. No caso das misturas finitas de distribuições de Valor Extremal Generalizado (GEV) as aplicações em finanças e hidrologia surgem naturalmente. Neste trabalho, os estimadores dos parâmetros da mistura de duas componentes GEV são obtidos via o algoritmo EM. Apresentamos também ilustrações numéricas do comportamento dos estimadores obtidos através de simulação..

Palavras-Chave: GEV; Mistura finita; Algoritmo EM.

Título: Aperfeiçoamento do teste gradiente em modelos lineares generalizados

Autores: Tiago Moreira Vargas; Silvia Lopes de Paula Ferrari; Artur José Lemonte

Resumo: Neste trabalho apresentamos uma expansão para a função de distribuição da estatística gradiente sob a hipótese nula até ordem n-1, onde n é o tamanho da amostra, para modelos lineares generalizados com parâmetro de dispersão desconhecido. Esta expansão depende de cumulantes do logaritmo da função de verossimilhança. Fórmulas matriciais de fácil computação para essas quantidades são derivadas aqui. A partir dessa expansão, propomos uma estatística gradiente corrigida por um fator de correção tipo-Bartlett que possui distribuição qui-quadrada até ordem n-1. Estudos de simulação são feitos com o intuito de verificar a performance desta estatística corrigida e compará-la com a versão não corrigida da estatística gradiente, e com as estatísticas da razão de verossimilhança e escore, bem como suas respectivas versões corrigidas, e com a estatística de Wald.

Palavras-Chave: Correção de Bartlett; Correção tipo-Bartlett; Estatística Gradiente; Modelos Lineares Generalizados.

Título: Correção de Alta Ordem do Viés do Estimador de Máxima Verossimilhança

Autores: Waldemar Araújo de Santa Cruz Oliveira Júnior; Klaus Leite Pinto Vasconcellos

Resumo: Uma técnica de correção de viés foi proposta por Firth, que consiste em fazer uma correção preventiva e para isso ele sugere fazer uma translação na função escore.

Page 100: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

100

Inspirados na generalização da equação proposta por Bartllet, usamos a expansão de Taylor da função inversa da função escore para propor uma nova técnica de estimação, que consiste em generalizar a ideia desenvolvida por Firth, no sentido de desenvolver sequências de estimadores com vieses de ordem de magnitude O(n−(h+2)); para qualquer h = 0; 1; 2;... As avaliações numéricas confirmam que essa técnica proposta neste trabalho de fato gera estimadores cujos vieses têm ordem magnitude O(n−3).

Palavras-Chave: Correção de Viés; Teoria Assintótica; Estatística Matemática; Inferência Estatística. Título: Correção de Viés por Bootstrap

Autores: Verônica Maria Cadena Lima; Juliana Marambaia Maia; Giovana Oliveira Silva

Resumo: Neste trabalho, a distribuição Weibull Modificada, proposta por Lai, Xie & Murthy (2003), é considerada. Esta distribuição pode ser usada para modelar dados de sobrevivência cuja função taxa de falha tem a forma de banheira. Três estratégias númericas (bootstrap paramétrico, não-paramétrico e não-paramétrico baseado num vetor de reamostragem) para correção de viés dos estimadores de máxima verossimilhança dos parâmetros da distribuição Weibull Modificada são consideradas. Resultados de simulação mostram que as correções de viés via bootstrap não-paramétrico são mais eficazes em pequenas amostras.

Palavras-Chave: correção de viés; método bootstrap; estimador de máxima verossimilhança. Título: Distribuições Bimodais Assimétricas com aplicação a dados de células mamárias cancerígenas Autores: Andressa Nunes Siroky; Heleno Bolfarine

Resumo: Este trabalho estuda uma nova família de distribuições proposta por Bolfarine et. al (2013) que pode ser visto como uma extenção do modelo Gaussiano generalizado introduzido por Durrans (1992). Estimação pelos métodos de máxima verossimilhança é considerada. Aplicações a dados reais ilustram a utilidade do modelo estudado.

Palavras-Chave: distribuição bimodal; assimetria; inferência; verossimilhança.

Título: Estimativa de máxima verossimilhança do tamanho populacional a partir de um modelo de captura-recaptura com heterogeneidade

Autores: George Lucas Moraes Pezzott, Luis Ernesto Bueno Salasar, José Galvão Leite

Resumo: Neste trabalho, consideramos a estimação do número de indivíduos em uma população fechada. O processo de estimação do tamanho populacional é baseado no método de captura-recaptura. O modelo probabilístico adotado acomoda situações em que a probabilidade de captura não depende das ocasiões de amostragem e que cada indivíduo é um elemento que faz parte de uma partição disjunta quanto à sua probabilidade de detecção. Propomos um processo iterativo para obtenção das estimativas de máxima verossimilhança em que utilizamos o algoritmo EM na estimação dos parâmetros perturbadores. Avaliamos a performance do algoritmo proposto em um estudo de simulação com dados arti�ciais e aplicamos o método em dois conjuntos de dados reais da literatura.

Palavras-Chave: Método de captura-recaptura; Função de verossimilhança; Modelo de mistura; Algoritmo EM.

Page 101: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

101

Título: Fréchet and inverse gamma distributions: correct selection and minimum sample size to discriminate them

Autores: Rodrigo B. Silva; Marcelo Bourguignon; Gauss M. Cordeiro

Resumo: In this paper, we propose a likelihood ratio test to discriminate between the inverse gamma and Fr�echet distributions. The asymptotic distribution of the logarithm of the ratio of the maximized likelihoods under the null hypothesis is provided for both cases: the data come from the Frech�et and inverse gamma models. We also provide the minimum sample size required to discriminate between the two distributions when the probability of correct selection is fixed. A simulation study is presented in order to compare the empirical and asymptotic probabilities of the correct selection. The paper is motivated by two ap- plications to real data sets.

Palavras-Chave: Asymptotic distribution; Fréchet distribution; Inverse gamma distribution.

Título: Inferência em Modelos de Quase-Verossimilhança para Dados de Contagem com Excesso de Zeros, Sobredispersão e Dependência Espacial

Autores: Carla Zeline R. Bandeira; Max S. de Lima

Resumo: Neste trabalho é proposto um novo modelo para dados de contagem com excesso de zeros, sobredispersão e dependência espacial. Para acomodar simultaneamente essas características, utilizou-se uma quase verossimilhança inflacionada de zeros (QIZ), onde a dependência espacial é incorporada no processo de estimação através das equações de estimação generalizadas (GEE). O algoritmo de estimação usado nesse processo foi o ES (Expectation-Solution), os intervalos de confiança para os parâmetros são obtidos via Inferência Bootstrap. Uma ilustração do método é feita usando dados de casos de Haseníase no Estado do Amazonas-Brasil.

Palavras-Chave: Inflação de Zeros; Sobredispersão; Dependência Espacial; Quase Verossimilhança; Inferência Bootstrap.

Título: Likelihood Based Inference for Multivariate Skew Scale Mixtures of Normal Distributions Autores: Clécio S. Ferreira; Heleno Bolfarine; Victor Hugo Lachos

Resumo: Scale mixtures of normal distribution are often used as a challenging class for statistical procedures of symmetrical data. Ferreira et al. (2011) defined a univariate skewed version of these distributions, that offers a much needed flexibility by combining both skewness with heavy tails. In this paper, we develop a multivariate version of the skew scale mixtures of normal distributions, with emphasis on the skew--t-Student, skew--slash and skew--contaminated normal distributions. The main virtue of the members of this family of distributions is that they are easy to simulate from and they also supply genuine EM algorithms for maximum likelihood estimation. The observed information matrix is developed to provision of standard errors. Results obtained from simulated data sets are reported illustrating the usefulness of the proposed methodology.

Palavras-Chave: Multivariate Scale Mixtures of Normal Distributions; Skew distributions; EM-algorithm.

Page 102: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

102

Título: Modelagem Estatística para Previsão Esportiva: Uma Aplicação no Futebol

Autores: Leandro Tavares; Adriano Kamimura Suzuki

Resumo: Nos esportes, tanto coletivos quanto individuais, sempre existe o interesse em determinar a probabilidade de uma equipe sagrar-se campeão ou de um atleta vencer determinada competição. Neste trabalho será estudado o modelo Soma e Diferença (SD) proposto por Arruda (2000), o qual assume que o numero de gols marcados por cada time em uma determinada partida segue uma distribuição de Poisson. Para realizar as previsões, um estudo de simulação aplicado ao Campeonato Brasileiro serie A de 2013 em que diversas probabilidades de interesses podem ser obtidas tais como a probabilidade de um determinado time sagrar-se campeão, a probabilidade de ser rebaixado, a probabilidade de um time classificar entre os três primeiros colocados, entre outras. Toda a implementação computacional foi realizada utilizando o sistema R.

Palavras-Chave: Futebol; Previsão; Método SD; Distribuição de Poisson; Campeonato.

Título: Modelos de regressão t-Tobit com erros nas covariáveis

Autores: Gustavo Henrique M. A. Rocha; Rosangela H. Loschi; Reinaldo B. Arellano-Valle

Resumo: Este trabalho visa propor um modelo linear com erro nas covariáveis onde a variável resposta é censurada. Respostas censuradas e erros nas covariáveis são frequentemente observadas em econometria, biometria e muitas outras áreas. Propomos um modelo robusto considerando uma distribuição t-Student multivariada para modelar o comportamento conjunto das covariáveis e dos erros. A inferência é feita sob os paradigmas clássico e bayesiano. Construímos um algoritmo do tipo EM para aproximar os estimadores de máxima verossimilhança. As distribuições a posteriori foram aproximadas utilizando o procedimento de aumento de dados. Um estudo Monte Carlo é feito para comparar o comportamento dos estimadores em diversos cenários.

Palavras-Chave: regressão censurada; distribuição t-multivariada; aumento de dados; algoritmo ECM.

Título: Proposta de testes de comparações múltiplas baseadas na distribuição da midrange estudentizada externamente

Autores: Ben Deivide de Oliveira Batista; Daniel Furtado Ferreira

Resumo: A proposta do presente trabalho é construir testes com base em quantis da distribuição da midrange estudentizada externamente, nos moldes dos testes originais de Tukey, SNK e Duncan. Duas estratégias serão consideradas neste trabalho. A primeira terá de avaliar as taxas de erro tipo I por experimento dos testes de comparações múltiplas propostos. A segunda será delineada para avaliar o poder dos testes. Em ambos os casos, será usada simulação Monte Carlo. Em cada simulação serão aplicados os testes de comparação múltipla em um nível nominal pré-estabelecido de significância alpha, verificando se a hipótese nula será ou não rejeitada. Este processo, em cada caso, será repetido N=2000 vezes e a proporção de experimentos com pelo menos uma decisão incorreta, no primeiro caso, é a taxa de erro tipo I por experimento empírica e, no segundo caso, a proporção de decisões (rejeições) corretas é o poder empírico. Nenhum resultado, além dos resultados teóricos, foi obtido até o momento.

Palavras-Chave: Teste de hipótese; Midrange; Comparações múltiplas.

Page 103: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

103

Título: Reduccion de sesgo en la EMV de la distribucion MSN

Autores: Jaime Arrué Alvarez; Reinaldo Arellano Valle; Héctor Gómez Geraldo

Resumo: El modelo Skew normal generalizado con parámetros �lambda 1 y lambda �2, denotada SGN(�lambda 1; lambda �2), pertenece a una clase de distribuciones denominada skew simétricas. En este trabajo se estudia el modelo SGN(�lambda 1; 1), en adelante denotaremos por MSN(lambda�), el cual presenta problemas de estimación en el parámetro de forma. En particular, para tamaños de muestra pequeño el EMV es infinito con probabilidad positiva. Para superar el problema, aplicaremos el método de Firth que consiste en utilizar una función score modificada para estimar el parámetro y como resultado el EMV modificado es siempre finito. Se considera el enfoque de cuasi-verosimilitud para los intervalos de confianza. Cuando el modelo presenta parámetros de localización y escala, combinamos el método mencionado con la estimación máxima verosimil de estos parámetros.

Palavras-Chave: función score modificada; cuasi-verosimilitud; método de Firth.

Título: The Transmuted Normal Distribution: Structural Properties and Applications Autores: Maria do Carmo Soares de Lima; Gauss Moutinho Cordeiro; Rodrigo Rossetto Pescim Resumo: A new three-parameter distribution called the transmuted normal model is defined and studied. Various mathematical properties of the new distribution including moments, quantiles, and mean deviations are derived. Maximum likelihood techniques are used to fit the new model and emphasize its usefulness. Based on two criteria, the proposed model provides a better fit than the normal and skew-normal distributions. Palavras-Chave: Mean deviation; Moment; Normal distribution; Quantile; Transmuted distribution. Título: The likelihood-ratio measure

Autores: Alexandre G Patriota

Resumo: P -values do not respect the logical consequence (entailment) and this feature feeds some controversies about their usage. The entailment condition is required to maintain a special type of coherence over the space of null hypotheses. The present paper revisits the likelihood ratio approach that satisfies the entailment condition and presents some properties not well explored of this methodology, for a given observed sample. Its applicability in testing sharp and non-sharp statistical null hypotheses is discussed. Furthermore, a comparison with the Bayesian approach is established and an extension to h competing hypotheses is discussed. The theory is applied for testing if the genotype frequencies of a given population are under the Hardy-Weinberg equilibrium, under inbreeding restrictions or under outbreeding restrictions.

Palavras-Chave: Classical Statistics; Evidence Measure; Hypothesis testing; Likelihood ratio statistics; Possibility theory.

Título: Verossimilhanças Marginal e Condicional com Parâmetros de Perturbação Autores: Josemir R. Almeida; Elisângela R. Almeida; Eliardo G. Costa Resumo: O uso da verossimilhança na estimação de parâmetros é tema de grande discussão na inferência estatística e devido a necessidade cada vez maior de adaptar tais

Page 104: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

104

funções a problemas diversos surgem modelos com parâmetros que não são de interesse, os parâmetros de perturbação. Neste artigo abordamos o problema de fazer inferência para parâmetros de interesse de modo a controlar os de perturbação com enfoque na verossimilhança marginal e condicional. Exemplos são apresentados para ilustrar as abordagens.

Palavras-Chave: Parâmetros de perturbação; Verossimilhança marginal; Verossimilhança condicional.

Page 105: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

105

Sessão: Modelos de Regressão

Título: A Distribuição Fréchet Generalizada

Autores: Elizabete Cardoso Machado; Alexsandro Bezerra Cavalcanti; Marcelo Bourguignon Pereira

Resumo: Neste trabalho fizemos um estudo sobre a classe de distribuições generalizadas exponencializadas, a distribuição Fréchet generalizada e a distribuição Weibull inversa log-generalizada. Obtemos algumas propriedades da distribuição Fréchet generalizada. Uma nova distribuição é proposta: a distribuição log-Fréchet generalizada. Esta dis- tribuição é uma estensão da distribuição Fréchet. Outra proposta deste trabalho é introduzir um modelo de regressão log-Fréchet generalizada com censura Tipo I baseado na distribuição log-Fréchet generalizada.

Palavras-Chave: Distribuições generalizadas exponencializadas; Distribuição Fréchet generalizada; Distribuição log-Fréchet generalizada.

Título: A modified version of the inference function for margins and interval estimation for the bivariate Clayton copula sur tobit model: a simulation approach

Autores: Paulo H. Ferreira; Francisco Louzada

Resumo: This work extends the analysis of bivariate seemingly unrelated regression (SUR) Tobit model by modeling its nonlinear dependence structure through the Clayton copula. The ability in capturing/modeling the lower tail dependence of the SUR Tobit model where some data are censored (generally, at zero point) is an additionally useful feature of the Clayton copula. We propose a modified version of the inference function for margins (IFM) method (Joe and Xu, 1996), which we refer to as MIFM method, to obtain the estimates of the marginal parameters and a better (unbiased) estimate of the copula association parameter. More specifically, we employ the data augmentation technique in the second stage of the IFM method to generate the censored observations (i.e. to obtain continuous marginal distributions, which ensures the uniqueness of the copula) and then estimate the dependence parameter. Resampling procedures (bootstrap methods) are also proposed for obtaining confidence intervals for the model parameters. A simulation study is performed in order to verify the behavior of the MIFM estimates (we focus on the copula parameter estimation) and the coverage probability of different confidence intervals in datasets with different percentages of censoring and degrees of dependence. The satisfactory results from the simulation (under certain conditions) and empirical study indicate the good performance of our proposed model and methods where they are applied to model the U.S. ready-to-eat breakfast cereals and fluid milk consumption data. Palavras-Chave: bivariate seemingly unrelated regression (SUR) Tobit model; censoring; Clayton copula; data augmentation; bootstrap confidence intervals.

Título: A Mixed Model for Positive Responses Augmented by Zeros Autores: Mariana Rodrigues-Motta; Diana M. G. Soto; Victor H. Lachos; Filidor V. Labra; Valéria T. Baltar; Eliseu V. Júnior; Regina M. Fisberg; Dirce M.L. Marchioni

Resumo: We propose a model for positive and zero responses by means of a zero augmented mixed regression model. We focus on responses whose distribution

Page 106: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

106

accommodates skewness. A zero-augmented mixture model is proposed to model zero and positive responses simultaneously. The mean of the positive response is modeled in a logarithm scale and the mixture probability in a logit scale, both as a function of fixed and random effects. The random effects link the two random components through their joint distribution and incorporate within subject correlation due to repeated measurements and between-subject heterogeneity. A Bayesian approach is adopted and a MCMC algorithm is designed to obtain posterior distributions of the unknown quantities of interest. A case-deletion influence diagnostics based on appropriate divergence measures is performed. We motivate and illustrate the proposed methodology by means of a da ta set from a 24 hours dietary recall study obtained in the city of São Paulo, Brazil, and present a simulation study to evaluate the performance of the proposed methods. Palavras-Chave: mixed-models; positive response; zeros.

Título: Ajustes de modelos não lineares a dados de crescimento vegetal-comparação de modelos Autores: CARVALHO, L.R.; PEREIRA, G.L.S.; MISCHAN, M.M.; SILVA, H.O.F.; FURTADO, E.L.

Resumo: Resumo Modelos não lineares tendem a ser usados quando são sugeridos por considerações teóricas, ou por comportamentos não lineares. Mesmo quando uma aproximação linear é aceitável, um modelo não linear pode ainda ser utilizado para se obter uma interpretação clara dos parâmetros. O objetivo desta pesquisa foi o estudo dos modelos logístico, de Gompertz, von Bertalanffy e de Richards com ajustes em três estruturas de erros: estrutura de efeitos fixos, estrutura com ponderação e de efeitos mistos a dados de volume do tronco de Eucaliptus grandis, obtidos em três regiões de plantio pertencentes a Votorantim Celulose e Papel. Os critérios utilizados para a seleção de modelos foram: Quadrado médio dos resíduos, Critério de informação de Akaike, Peso de Akaike ( Motulsky & Chistopoulos(2004)) Critério de Informação Bayesiano de Schwarz, teste de Breusch Pagan, teste de Durbin Watson e coeficiente de correlação ao quadrado (Schinckel & Craig (2002)). A estrutura com ponderação foi a mais adequada e quanto à escolha do melhor modelo, o de Richards foi o que se mostrou melhor, porém teve um percentual de convergência de 70%, em segundo lugar foi o de Gompertz, com 100% de convergência, em terceiro lugar o von Bertalanffy e por último o logístico, ambos com aproximadamente 100% de convergência. Os pesos de Akaike mostraram que em média a probabilidade do modelo de Richards estar correto era de 0,67 em relação à Gompertz e de 0,60 da Gompertz em relação a von Bertallanfy. Palavras-Chave: modelos não-lineares; curvas de crescimento; estrutura ponderada.

Título: Análise do desempenho dos discentes da UFPE durante o período grevista

Autores: Auridenes Alves; Erika Cristina Da Silva; Juliely Rodrigues; Mariana Batista; Tulio Veras; Cláudia Regina O. P. Lima

Resumo: No período de 17 de maio a 5 de setembro de 2012 a Universidade Federal de Pernambuco - UFPE sofreu uma paralização técnico administrativa e de docentes, que afetou não só o calendário acadêmico como a vida no campus de modo geral. A greve interrompeu o período letivo de 2012.1 e os efeitos desta parada puderam ser sentidos durante os períodos seguintes. Desta forma, faz-se necessária a análise do quanto à greve afetou o desempenho dos estudantes dentro da instituição com ferramentas estatísticas, que possam indicar se existe algum fator que possa explicar o

Page 107: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

107

comportamento do coeficiente de rendimento dos discentes. O instrumento de avaliação usado neste artigo é o modelo de regressão gama e as variáveis estudadas são os centros acadêmicos e os períodos.

Palavras-Chave: Greve; Desempenho Acadêmico; Modelo de Regressão Gama.

Título: Aplicação de combinação de previsões para o preço do tomate no estado do Rio Grande do Sul

Autores: Cecília Brasil Biguelini, Dolurdes Voos, Rodrigo Dullius Resumo: O presente trabalho apresenta uma aplicação da metodologia de combinação de previsões para o preço do quilo do tomate no estado do Rio Grande do Sul entre julho de 1994 e março de 2014. Tem como objetivo avaliar o comportamento, em termos de acurácia, de métodos de combinação de previsões, comparando-os com as técnicas que as compõem dentro do contexto de uma série econômica. As técnicas de previsão utilizadas para combinar as séries de previsão foram regressão linear múltipla e o modelo de previsão de série temporal (ARIMA); as técnicas de combinação de previsão foram média aritmética, variância mínima e regressão. Posteriormente, foram calculadas as medidas de acurácia (MSE, MAPE e U de Theil) para verificar quais os modelos que apresentaram melhores resultados. A partir dessas medidas, verificou-se que os melhores ajustes para os dados foram obtidos por meio das técnicas de combinação de previsão. A combinação que apresentou melhores resultados foi a combinação por regressão. Com base nos resultados encontrados, conclui-se que as técnicas de combinação de previsões mostraram-se mais eficientes em termos de acurácia do que os modelos individuais. Palavras-Chave: Regressão Linear Múltipla; Série Temporal; Combinação de Previsões.

Título: Aplicação de modelos mistos na estimativa volumétrica

Autores: Joseilme Fernandes Gouveia; José Antônio Aleixo da Silva; Patrícia Silva Nascimento Barros; Kléber Napoleão Nunes de O. Barros; Jáder da Silva Jale; Macio Augusto de Albuquerque

Resumo: O presente estudo teve como objetivo estimar volumes de clones de Eucalyptus urophylla utilizando os modelos lineares mistos. A base de dados foi proveniente do povoamento de clones de Eucalyptus, localizada no Município de Araripina, no semiárido de Pernambuco. O modelo de Schumacher e Hall foi utilizado como testemunha para comparação com os modelos mistos. O modelo linear misto serviu como ferramenta bastante eficaz para modelagem do volume de Eucalyptus urophylla, devido sua flexibilidade, mostrando-se superior ao ajuste do modelo não linear de Schumacher Hall, quando comparado com o valor observado e de acordo com os critérios estabelecidos. Desse modo, acredita-se que o uso desse modelo possa contribuir para a redução dos custos do inventário com aumento de precisão. Palavras-Chave: modelos volumétricos; modelos lineares mistos; Pólo Gesseiro do Araripe. Título: Abordagem Condicional em Estimação Restrita

Autores: Helton Graziadei de Carvalho Resumo: Os métodos de máxima verossimilhança (MV) usuais possuem diversas limitações, principalmente quando se trata da estimação de parâmetros de escala. Neste

Page 108: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

108

trabalho, estabelece-se uma abordagem condicional ao método da máxima verossimilhança restrita (MVR), que tem como principais objetivos a redução de viés e obtenção de estimativas robustas. No caso de variáveis com distribuição normal, o método MVR é equivalente ao método de MV considerando uma transformação conveniente do vetor de observações. Contudo, em modelos lineares generalizados, a interpretação condicional exata vale somente no caso de ligação canônica. Além disso, faz-se uma comparação das estimativas baseadas em ambos os métodos, considerando um conjunto de dados reais.

Palavras-Chave: Máxima verossimilhança restrita; Modelagem conjunta; Parâmetros de incômodo. Título: Absenteísmo escolar na Amazônia: uma aplicação com dados de contagem

Autores: Clarissa Cardoso Oesselmann; Ludmilla da Silva Viana Jacobson

Resumo: O absenteísmo escolar é definido como o ato de um estudante se ausentar da escola. A literatura cita vários tipos de absenteísmo, por exemplo por doença, voluntário, legal e compulsório. O absenteísmo por doença é o que ocorre com mais frequência e o que é mais estudado, pois pode ser visto como um indicador de condição de saúde. O objetivo desse trabalho é avaliar os fatores de risco associados ao absenteísmo escolar em uma escola da Amazônia Brasileira, especialmente os efeitos da poluição atmosférica. Para analisar esses fatores foram utilizados dados de um estudo de painel realizado na cidade de Tangará da Serra, Mato Grosso. O desfecho, ou variável dependente, foi o número de faltas no período escolar, durante os meses de seca da região. As variáveis explicativas investigadas se referiam às características individuais, socioeconômicas, de saúde e ambientais. Foi proposto o uso do Modelo de Regressão de Poisson com função de ligação log. A Superdispersão foi um problema observado nos dados, corrigida utilizando um Modelo ``Quasi-Poisson". Na modelagem dos dados foram propostos seis modelos. Após o ajuste e o diagnóstico dos modelos, decidiu-se pelo modelo com as seguintes variáveis explicativas: Número de com dos da casa (1 com do e 1 banheiro: Referência; Mais com dos: RR = 0, 2 e IC95% = (0, 7 ;1, 5)); Idade de quem cuida ((RR) = 0,991 e IC95% = (0,984;0,997)); Mora perto de uma plantação (Sim: Referência; Não: (RR) = 0,7 9 e IC95% = (0, 23;0, 99)); Nível médio do Pico de Fluxo Expiratório diário ((RR) = 1,002 e IC95% = (1,002;1,003)); Média da Tosse com lag 1 (RR = 1,230 e IC95% = (1,173;1,291)); e Nível do poluente PM10 com lag 3 ((RR) = 1,005 e IC95% = (1,0004;1,010)). Destes resultados, pode-se concluir que os sintomas respiratórios, principalmente a ocorrência de tosse, mostraram forte associação com o absenteísmo escolar, assim como o poluente PM10.

Palavras-Chave: Absenteísmo escolar; Tangará da Serra; Modelo de Regressão de Poisson; Superdispersão; Modelo "Quasi-Poisson".

Título: Análise comparativa da chance de câncer autorreferido nos ambientes urbano e rural do Brasil

Autores: Fernanda Cristina da Silva de Lima; Luz Amanda Melgar Santander; José Rodrigo de Moraes

Resumo: O câncer é responsável por aproximadamente 13% de todas as causas de óbito no mundo, onde mais de 7 milhões de pessoas morrem anualmente desta doença, sendo portanto, um importante problema de saúde pública para países desenvolvidos e em

Page 109: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

109

desenvolvimento. O presente trabalho teve como objetivo estimar e comparar a associação entre o conjunto de características demográficas, socioeconômicas, comportamentais e de saúde, e a chance de câncer autorreferido em adultos (20 anos ou mais de idade), nos ambientes urbano e rural do Brasil em 2008. Essa associação foi realizada por meio do modelo de regressão logística binária, usando os dados da Pesquisa Nacional por Amostra de Domicílios 2008. Entre os principais resultados encontrados deste estudo, verificou-se, tanto na área urbana quanto na rural, que o câncer é uma doença mais autorreferida por adultos: mais velhos, de cor branca, mais escolarizados, que consultaram médico nos últimos 12 meses, que utilizam medicamento de uso contínuo e com piores níveis de saúde autorreferida. Além disso, na área urbana, a chance do adulto reportar câncer é maior para mulheres, adultos residentes na região Sul e adultos com maiores rendimentos. Por outro lado, na área rural, adultos responsáveis pelo domicílio e adultos portadores de pelo menos duas doenças crônicas possuem maior chance de autorreferir câncer.

Palavras-Chave: Câncer autorreferido; Ambiente urbano; Ambiente rural; Modelo logístico binário.

Título: Análise e Aplicação de uma Nova Função de Ligação Assimétrica para Dados com Resposta Binária

Autores: Marangoni, Felipe; Polpo, Adriano

Resumo: Na modelagem de dados cuja característica de interesse é do tipo binária, funções de ligação como Logito, Probito e t de Studant são amplamente utilizadas. Dentre as funções mais comuns, a maioria apresenta ligação simétrica. Entretanto, em determinadas situações, o ajuste do modelo pode ter uma melhora significativa com o uso de funções de ligação assimétricas. O principal enfoque deste trabalho será estudar uma nova função de ligação assimétrica proposta por CHEN et al. (1999) para análise de dados binários com presença de covariáveis. Este trabalho terá por objetivo apresentar os principais conceitos relacionados ao método, a abordagem bayesiana, um estudo de simulação e uma aplicação a dados reais.

Palavras-Chave: Modelo hierárquico bayesiano; Variável latente; Função de ligação assimétrica; Fator de Bayes; Monte carlo via cadeia de markov.

Título: Aperfeiçoamento da estatística de Wald em modelos lineares generalizados heteroscedásticos Autores: Fabiana Uchôa; Denise A. Botter; Mônica C. Sandoval

Resumo: Neste trabalho iremos apresentar fórmulas matriciais para a matriz de covariâncias de segunda ordem dos estimadores de máxima verossimilhança corrigidos pelo viés de primeira ordem em modelos lineares generalizados heteroscedásticos. Estas fórmulas são úteis para a construção de estatísticas de Wald modificadas, as quais serão comparadas com as estatísticas da razão de verossimilhanças e escore e com suas versões corrigidas.

Palavras-Chave: modelos lineares generalizados heteroscedásticos; matriz de covariâncias de segunda ordem; estimadores de máxima verossimilhança corrigidos pelo viés.

Page 110: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

110

Título: Avaliação da eficiência administrativa dos municípios do estado da Paraíba: uma comparação via modelos de regressão linear e modelo de regressão beta

Autores: Andreza Ferreira de Miranda; Tarciana Liberal Pereira Resumo: A eficiência administrativa significa transformar recursos de um dado orçamento em serviços prestados à sociedade. Uma metodologia especificamente para esta questão é a de Data Envelopment Analysis (DEA), onde a cada unidade (que no nosso caso representa cada município) é atribuído um valor que representa seu desempenho relativo. Os escores de eficiência variam entre 0 e 1, e os municípios plenamente eficientes recebem valor igual a 1. Dado que a variável resposta assume valores no intervalo (0,1), foi feita uma transformação logarítmica na variável dependente para que esta assumisse valores na reta real. Os resultados foram obtidos pela plataforma computacional R, que se encontra disponível gratuitamente em http://www.r-project.org./. A fim de indicar aspectos relevantes para a otimização dos gastos municipais, foi feita uma comparação do uso da regressão linear com a regressão beta proposta por Ferrari e Cribari-Neto (2004), em que a modelagem utilizada pela regressão beta apresentou melhor desempenho. Palavras-Chave: DEA; Eficiência administrativa; Regressão linear; Regressão beta.

Título: Capacidade preditiva como critério para determinação do número de componentes principais em Seleção Genômica Ampla

Autores: Filipe Ribeiro Formiga Teixeira; Mayra Marques Bandeira; Moysés Nascimento; Ana Carolina Campana Nascimento; Camila Ferreira Azevedo; Fabyano Fonseca e Silva; Paulo Sávio Lopes; Simone E. F. Guimarães

Resumo: Proposta por Meuwissen et al. no ano de 2001, a seleção genômica tem como principal objetivo de aumentar a eficiência e acelerar o melhoramento genético. Ultimamente estudos neste ramo têm se intensificado devido a abundância de marcadores moleculares no DNA de plantas, animais, etc. Existem várias metodologias diferentes para aplicação da seleção genômica ampla, que associa os dados dos marcadores moleculares SNP’s a características fenotípicas de interesse. Devido à grande abundância desses marcadores, nos deparamos sempre com a multicolinearidade e a dimensionalidade do nosso conjunto de dados, onde muitas vezes encontramos mais variáveis do que indivíduos em estudo. Para contornar esses problemas, existem algumas técnicas estatísticas úteis e que podem ser utilizadas com o objetivo de estudar associações entre dados fenotípicos e genotípicos com um número menor de variáveis, e dentre essas técnicas será abordada a Regressão Via Componentes Principais (PCR), que visa realizar regressões tendo como variável resposta o peso ao abate de uma população F2 de suínos e como variáveis independentes os marcadores moleculares SNP’s. Diante do exposto, esse trabalho tem como principal objetivo avaliar a correlação entre os valores reais e os valores estimados do peso ao abate de suínos como critério para seleção de componentes principais, verificando se é viável estudar as variáveis com base nos componentes.

Palavras-Chave: Peso ao abate; Seleção genômica; Regressão via componentes principais; SNP.

Título: Comparação dos modelos não lineares de Richards e de von Bertalanffy a dados de comprimento do fruto da pereira asiática

Autores: Rick Anderson Freire Mangueira; Maria Cristina Martins; Erasnilson Vieira

Page 111: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

111

Camilo; Taciana Villela Savian

Resumo: Os modelos não lineares são bastante utilizados em estudos de curvas de crescimento ao longo do tempo com frutíferas. Tais estudos são fundamentais para descrever as mudanças ocorridas com o fruto. O modelo de von Bertalanffy e modelo de Richards são alguns dos que são utilizados com tais objetivos. O presente trabalho objetivou comparar o ajuste do modelo de von Bertalanffy e do modelo de Richards aos dados do comprimento do fruto da pereira asiática. Os parâmetros foram estimados utilizando o software R. Para que os resultados obtidos com o ajuste do modelo fossem validados, foi necessário verificar a qualidade do ajuste por meio de uma análise de resíduos que contemplou testes de normalidade, de autocorrelação e estudo de heterocedasticidade, tanto numéricos quanto por meio de gráficos. A comparação dos modelos e escolha do que melhor se ajustou aos dados foi feita pelo critério de Akaike (AIC). Tais análises mostraram que os dois modelos se ajustaram bem aos dados, porém, o modelo de Richards apresentou um menor AIC, assim, sendo escolhido como o melhor em comparação com o modelo de von Bertalanffy.

Palavras-Chave: Modelos de crescimento; von Bertalanffy; Richards; pereira asiática.

Título: Critical points on growth curves in autoregressive and mixed models Autores: José Raimundo de Souza Passos; Sheila Zambello de Pinho; Lídia Raquel de Carvalho; Martha Maria Mischan

Resumo: The adjustment of autoregressive and mixed models to growth data, fits discontinuous functions, which makes it difficult to determine critical points. In this work we propose a new approach to determine the stability critical point of cattle growth using first-order autoregressive model and mixed model with random asymptote, using the deterministic parcel of the models. Three functions were compared, logistic, Gompertz and Richards. The Richards autoregressive model presented the best fit, but the critical growth values were adjusted very early, and to this purpose Gompertz model was more appropriated. Palavras-Chave: nonlinear models; point of growth stability; asymptotic functions; weight-age curves.

Título: Detecção de Clusters Espaciais em Modelos de Regressão Beta Autores: Vanessa S. Santos; Max S. Lima

Resumo: Uma estatística Scan usando o modelo de regressão beta para a detecção de clusters espaciais é proposta, pois em algumas situações, a variável de interesse está continuamente distribuída no intervalo (0,1). Para a estimação dos parâmetros do modelo, foi utilizado o método de Newton-Raphson. A significância do cluster é avaliada usando o valor-p bootstrap. Uma aplicação do método é apresentada usando a taxa de mortalidade infantil no estado do Amazonas-Brasil.

Palavras-Chave: Estatística Scan; Regressão Beta; Valor-p Bootstrap.

Título: Determinantes dos Custos Totais das Empresas Distribuidoras de Energia Elétrica Brasileiras Autores: Elizena das Graças e Silva; Ana Carolina Campana Nascimento; Moysés Nascimento; Patricia Mendes dos Santos; Laís Mayara Azevedo Barroso

Page 112: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

112

Resumo: O objetivo principal deste estudo foi investigar a influência de variáveis sobre os custos totais das empresas distribuidoras de energia elétrica brasileiras ao longo de pontos distintos da distribuição dos custos, e não apenas na média, utilizando para tanto, a metodologia de regressão quantílica. Para essa finalidade utilizou-se dados do ano de 2009 referentes a 60 distribuidoras de energia. Os principais resultados revelaram grande heterogeneidade com relação aos custos dessas empresas. Além disso, que os fatores que influenciam os custos, bem como impacto destes fatores no aumento dos custos totais, não é o mesmo para todas as distribuidoras.

Palavras-Chave: custos; energia elétrica; regressão quantílica.

Título: Estresse ocupacional no Hospital das Clinicas da Universidade Federal de Pernambuco Autores: Auridenes Alves de Oliveira; Glauce da Silva Guerra; Renan Williams Marques Ferreira; Maria Cristina Falcão Raposo

Resumo: Este estudo teve como objetivo principal, avaliar o nível de estresse dos funcionários do Hospital das Clínicas da Universidade Federal de Pernambuco (HC-UFPE) e propor um modelo linear generalizado, para explicar o nível de estresse, sendo considerada que a variável resposta assume distribuição Gamma. As variáveis selecionadas para explicar o nível de estresse foram: sexo, se o funcionário está exercendo a função para a qual foi contratado e, se o funcionário gosta da função que exerce. Palavras-Chave: Estresse Ocupacional; HC-UFPE; Modelo Gamma; Título: Estimativas da proporção de votos de Dilma Rousseff no Nordeste nas eleições de 2010 sob o âmbito do Bolsa Família e aspectos econômicos

Autores: Pedro Monteiro de Almeida Junior; Tatiene Correia de Souza Resumo: O programa Bolsa Família do Governo Federal é apontado por alguns como um determinante nas eleições presidenciais aqui no Brasil. Desde as eleições de 2006, alguns pesquisadores como Souza \& Cribari-Neto (2013) e Zucco (2008), identificaram fortes evidências que o programa contribuiu positivamente para a reeleição do ex-presidente Lula. Como em eleições passadas, também existem fortes evidências que nas eleições de 2010, os programas assistências contribuíram para a vitória da presidente Dilma Rousseff (ZUCCO, 2013). Neste contexto, avaliamos o desempenho da atual presidente Dilma Rousseff nas eleições de 2010, aplicando o modelo de regressão beta proposto por Ferrari \& Cribari-Neto (2004).Calculamos o impacto do Bolsa Família nas eleições de 2010, verificamos que se não houvesse gasto com o Bolsa Família, Dilma perderia aproximadamente 1.369.568 milhões de votos na Região Nordeste nas eleições presidenciais de 2010.

Palavras-Chave: Regressão beta; eleições presidenciais; Bolsa Família; Dilma Rousseff; Título: Inferência em um modelo de regressão com erros de medição sob enfoque estrutural para observações replicadas

Autores: Lorena Yanet Cáceres Tomaya; Mário de Castro

Resumo: Neste trabalho estudamos um modelo de regressão com erros de medição heteroscedásticos sob enfoque estrutural para observações replicadas. A estimação dos

Page 113: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

113

parâmetros do modelo proposto foi efetuada pelos métodos de máxima verossimilhança (MV) e de máxima pseudoverossi- milhança (MPV). Além disso, o comportamento dos estimadores de alguns parâmetros foi analisado por meio de simulações para diferentes números de réplicas. Como ilustração, o modelo foi ajustado a um conjunto de dados reais referentes a medições de elementos químicos em amostras de cerâmicas egípcias.

Palavras-Chave: Enfoque estrutural; Erros heteroscedásticos; Máxima pseudoverossimilhança; Modelos com erros de medição.

Título: Local influence in semiparametric partially nonlinear mixed-effects models Autores: Robson J. M. Machado; Cibele M. Russo

Resumo: The aim of this paper is to develop local influence analysis in a semiparametric partially nonlinear mixed-effets models. This model generalizes the parametric nonlinear mixed-effects models by including a nonparametric function to smooth the mean response curve. Furthermore, the random effects are included linearly to the model, which provides computational advantagens to the estimating procedure, as estimation is usually complicated in nonlinear mixed-effects models. The proposed methodology is illustrated with a pharmacokinetic dataset and the local influence analysis is performed to identify potential influent observations.

Palavras-Chave: nonlinear mixed-effects models; local influence; semiparametric models; smoothing. Título: MODELO DE REGRESSÃO LOGÍSTICA: UMA APLICAÇÃO NA ÁREA EPIDEMIOLÓGICA Autores: Olga Lyda Anglas Rosales Tarumoto; Lígia Fioranti Whitaker; Mário Hissamitsu Tarumoto Resumo: Com taxas crescentes em todo o mundo, um dos principais problemas de saúde entre as mulheres é o câncer de mama. Estima-se que surjam cerca de um milhão de novos casos anualmente. Apesar desse número muito alto, quando diagnosticado precocemente esse problema é 100% curável. A utilização de modelos que possam prever o óbito de pacientes acometidas com essa doença traz benefícios muito grandes para os epidemiologistas, pois dessa forma eles podem tomar certas precauções e decisões que impeçam o óbito de um determinado grupo de pacientes. O objetivo desse trabalho foi aplicar a teoria do Modelo de Regressão Logística a dados sobre o câncer de mama. Dados estes obtidos a partir do ambulatório de oncologia da Santa Casa de Presidente Prudente. Primeiramente foi discutido algumas definições sobre a doença, em seguida foi abordado o Modelo de Regressão Logística Simples, alguns testes de adequabilidade e diagnóstico do modelo. Posteriormente foi apresentada a teoria para o Modelo de Regressão Logística Múltiplo, seus testes e diagnósticos. E por fim, uma breve introdução sobre o Modelo de Regressão Logística Multinomial e Ordinal. A aplicação foi feita através do software SAS, onde foi possível analisar resultados referentes ao modelo completo e ao modelo reduzido.

Palavras-Chave: Regressão Logística; Epidemiologia; Câncer de Mama; Estimação de parâmetros; Testes de Hipóteses.

Título: MODELO PARA PREVISÃO USANDO UM SISTEMA DE INFERÊNCIA FUZZY Autores: Luiz Carlos Benini; José Gilberto Spasiani Rinaldi

Page 114: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

114

Resumo: Neste trabalho utiliza-se de um sistema de inferência fuzzy que incorpora o aprendizado por meio de um conjunto de dados onde as variáveis de entrada estão relacionadas com suas respectivas variáveis de saídas. Takagi e Sugeno foram pioneiros em propor um modelo de sistema de inferência fuzzy, onde são utilizadas entradas e regras fuzzy mas com a saída do sistema sendo conjuntos não-fuzzy. Este modelo é uma excelente ferramenta para modelagem de problemas complexos e não lineares, quando combinado com a estrutura da rede de Sistema de Inferência Fuzzy Neuro Adaptativa (ANFIS). Sistemas de inferência fuzzy são utilizados com base em um conjunto regras, do tipo “se...então”, que representam as entradas e saídas do modelo, associando a capacidade de aprendizado das redes neurais artificiais com o poder de interpretação lingüístico dos sistemas de inferência fuzzy, as quais são capazes de tratar conhecimentos incompletos, incertos ou mesmo conflitantes. É apresentado uma aplicação onde os dados estimados pelo modelo se mostraram correlacionados, indicando boa exatidão para o modelo neuro-fuzzy obtido, onde pode ser verificada a capacidade e a eficiência dos sistemas de inferência fuzzy. Palavras-Chave: Teoria Fuzzy; Sistema Takagi-Sugeno; Sistema de Inferência Neuro-Fuzzy Adaptativa; Agrupamento subtrativo.

Título: Mapeamento da mortalidade Neonatal Precoce em Minas Gerais:Modelagem e SSVS em Modelos Espaciais

Autores: Natália Costa Araújo; Rosangela Helena Loschi Resumo: Um ajuste da taxa de mortalidade neonatal precoce de Minas Gerais a partir de um modelo de regressão Poisson misto onde a estrutura de dependência espacial é introduzida via efeitos aleatórios. Para estes efeitos espaciais assume-se uma distribuição autoregressiva imprópria (ICAR), que correlaciona os efeitos aleatórios que são vizinhos. Adota-se o método de SSVS - Seleção de variáveis via busca estocástica - (introduzido por George e McCulloch, 1993) para a seleção de variáveis, que usa misturas discretas (Marin e Robert, 2007) de densidades como distribuições a priori para os efeitos fixos e atribui uma probabilidade da variável explicativa ser significativa para o modelo. Palavras-Chave: Modelos espaciais; SSVS; Estatística Bayesiana; Título: Modelagem de Eventos Extremos Através da Distribuição Pareto Generalizada Autores: Bárbara Beltrame Bettim; Márcio Luis Lanfredi Viola Resumo: A previsão de eventos extremos ganhou muita importância nos últimos anos devido aos danos e prejuízos que os mesmos podem causar em relação à danos estruturais e ambientais. Assim, utilizamos o modelo de regressão Pareto Generalizado para dados independentes seguindo distribuição Pareto Generalizada e assumindo que os parâmetros possuem relação com covariáveis através de estruturas não lineares. O objetivo deste trabalho é fixar valor um para o parâmetro de locação �e modelar os parâmetros de forma e escala em função das covariáveis relacionadas aos parâmetros. Palavras-Chave: Pareto Generalizada; Eventos Extremos; MLG.

Título: Modelagem de Resultados de Futebol

Autores: Arthur Necchi Corrêa; Luis Ernesto Bueno Salasar; Adriano Kamimura Suzuki Resumo: Nos últimos anos um crescente interesse por modelagem de previsões relacionadas ao futebol vem sendo observado. O entretenimento gerado por este esporte e as apostas acerca dos resultados das partidas são motivos que levaram a este

Page 115: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

115

aumento. As apostas tornaram-se tradição na Europa, principalmente na Inglaterra, onde o valor gasto com esse procedimento tem aumentado drasticamente, é neste contexto que surgem os modelos estatísticos que procuram fornecer boas previsões para resultados de um jogo. Nesse trabalho, no lugar de modelar o número de gols marcados por cada equipe separadamente, vamos nos concentrar na diferença do saldo de gols entre as equipes, utilizando a Distribuição de Skellam. Palavras-Chave: Distribuição de Skellam; Futebol; Diferença de Gols; Diferença de Poisson; Simulação.

Título: Modelagem do IDHM do estado do Rio Grande do Norte via Modelo GAMLSS Autores: Camila Ribeiro da Silva; Pedro Monteiro de Almeida Júnior; Ramon Lima dos Santos; Jodavid de Araújo Ferreira

Resumo: O IDH (Índice de Desenvolvimento Humano) é um índice de caráter universal utilizado para se medir o desenvolvimento humano de países ou regiões. Ele é calculado desde 1990 para todos os países do mundo. A aplicação dessa metodologia na escala municipal recebe o nome de IDHM (Índice de Desenvolvimento Humano Municipal). O IDHM tem por objetivo representar a complexidade de um município em termos do desenvolvimento humano que ele apresenta. Para tanto, são considerados três componentes que são encarados como essenciais para a vida das pessoas, quais sejam: educação, longevidade e renda, sendo que esses componentes são caracterizados por um conjunto de indicadores. Neste contexto, pretende-se realizar uma modelagem do índice de Desenvolvimento Humano Municipal do estado do Rio Grande do Norte, através do modelo de regressão GAMLSS, a fim de identificar os principais fatores que influenciam este Índice.

Palavras-Chave: IDHM; GAMLSS; Rio Grande do Norte.

Título: Modelagem não linear do crescimento do cafeeiro irrigado considerando independência e autocorrelação residual

Autores: Adriele Aparecida Pereira; Tales Jesus Fernandes; Augusto Ramalho de Morais; Myriane Stella Scalco

Resumo: O Brasil apresenta a maior produção de café do mundo, sendo Minas Gerais o estado com o maior parque cafeeiro e produção do país. Desta forma, várias pesquisas nesta área visam analisar o crescimento sob diferentes situações experimentais, com o intuito de propor melhorias no manejo do cafeeiro. Ao utilizar a técnica de medidas repetidas no tempo, as observações sobre a mesma unidade experimental apresentam correlação, o que dá origem a autocorrelação residual, que deve ser considerada nas análises. O objetivo do presente trabalho foi avaliar o ajuste dos modelos Logístico e Gompertz à altura de plantas do cafeeiro, cultivar Rubi MG 1192, cultivadas na densidade de plantio 3333 plantas.ha-1 e irrigadas a 20 kPa e 60 kPa, em função do tempo, considerando estruturas de erros independentes e autocorrelacionados. Para avaliar o melhor ajuste foi utilizado o Critério de informação de Akaike (AIC). Em ambos os regimes de irrigação analisados, a modelagem considerando autocorrelação residual apresentou os melhores resultados. Dentre os modelos analisados, o modelo Gompertz com resíduos autocorrelacionados é considerado o que melhor descreve o crescimento em altura do cafeeiro ao longo do tempo, em ambos os regimes de irrigação, segundo o AIC. Palavras-Chave: autocorrelação residual; cafeeiro irrigado; modelos não lineares;

Page 116: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

116

Título: Modelo Autoregressivo com Defasagens Distribuídas e teste de tendência Man-Kendall aplicado na análise do Índice de Radiação Ultravioleta e Ozônio total na cidade de Natal-RN Autores: Alexandre Boleira Lopo; Maria Helena Constantino Spyrides; Paulo Sérgio Lucio Resumo: O presente trabalho realizou a modelagem do Índice de Radiação Ultravioleta (Índice UV) considerando como variável explicativa a coluna total de ozônio. A metodologia utilizou dados mensais do período de 2001 a 2012 da cidade de Natal (RN), o modelo autoregressivo com defasagens distribuídas (ADL), análise de resíduos e o teste de tendência Mann-Kendall sazonal. O modelo ADL ajustado apresentou resíduos adequados e foi usado para realizar a previsão da variabilidade do índice UV para os próximos dez anos (2013-2023). O teste de Mann-Kendall indicou para os dados observados uma estabilidade do índice UV e tendência de redução da quantidade de ozônio na cidade de Natal e para a projeção feita pelo modelo ADL do índice UV nos próximos dez anos uma tendência de elevação, no entanto e felizmente a recuperação da quantidade de ozônio como resultado do Protocolo de Montreal, em vigor desde 1989, deve conduzir a uma estabilização do índice UV e contrariar esse resultado. Palavras-Chave: modelo ADL; análise de resíduos; protocolo de Montreal. Título: Modelo Logístico Misto com Distribuições Normais Independentes para os Efeitos Aleatórios Autores: Cristiano de Carvalho Santos; Rosangela Helena Loschi

Resumo: O modelo de regressão logística tem sido o método padrão para analisar respostas binárias que ocorrem em diversas áreas ciência. No entanto, seu uso não é recomendável para modelar dados binários de estudos clusterizados, multinível ou longitudinais, pois o modelo é construído considerando que as observações são independentes. O modelo logístico misto, obtido através da introdução de efeitos aleatórios, é uma boa alternativa para modelar a probabilidade de sucesso em situações em que os dados binários são correlacionados. Os efeitos aleatórios também são úteis para acomodar uma eventual variabilidade extra e para representar o efeito das variáveis explicativas que não foram medidas. Assume-se, em geral, que os efeitos aleatórios são normalmente distribuídos e independentes, mas em alguns casos esta suposição pode não ser adequada. Neste trabalho vamos considerar que os efeitos aleatórios possuem uma distribuição na classe Normal Independente. Esta classe de distribuições é formada por distribuições originadas de misturas na escala da distribuição Normal e inclui, além da Normal, as distribuições t-Student, Slash e Normal Contaminada. Estas distribuições são amplamente utilizadas na literatura para modelar dados com presença de valores atípicos, pois possuem caudas mais pesadas do que a distribuição Normal. Utilizamos o algoritmo EM Monte Carlo (EMMC) para estimar os parâmetros de interesse. Este algoritmo é uma alternativa ao algoritmo EM para as situações em que a esperança presente no passo E do algoritmo EM não possui forma analítica conhecida. Para avaliar a implementação computacional do modelo proposto, consideramos um pequeno estudo com dados simulados em que os efeitos aleatórios são gerados de uma distribuição com caudas pesadas e são ajustados modelos considerando as distribuições Normal, t-Student e Normal Contaminada para os efeitos aleatórios. Os autores agradecem a CAPES, FAPEMIG e CNPq pelo apoio financeiro na realização deste trabalho. Palavras-Chave: Modelos Mistos; Modelo Logístico Misto; Distribuições Normais Independentes; Algoritmo EM Monte Carlo; Efeitos Aleatórios.

Page 117: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

117

Título: Modelo de calibração polinomial de ordem 2: aplicado na Química Analítica

Autores: Betsabé Grimalda Blas Achic; Danillo Magalhães Xavier Assunção Resumo: O modelo de calibração linear simples é muito utilizado em diversas áreas de estudo, por exemplo, na física esse modelo é usado na calibração de instrumentos para mensuração de quantidades físicas. Na química analítica utilizamos o modelo de calibração para estimar e obter informações sobre concentrações ou quantidades de substâncias bem como associar medidas empíricas. Nesse processo temos dois estágios, no primeiro os valores de uma variável aleatória dependente (variável reposta) Y correspondem a n valores pré-estabelecidos de uma variável explicativa ou independente X, são observados para estimarmos a função que associa as duas variáveis. Já no segundo estágio, são observados r valores da variável aleatória independente Yo correspondente a um valor desconhecido Xo, que é uma concentração desconhecida de uma solução, assim o principal interesse é estimar Xo, levando em conta as informações de ambos os estágios.

Palavras-Chave: modelo de calibração quadrático; estimador inverso; curva analítica; química analítica.

Título: Modelo de regressão Sinh-Normal

Autores: Rocío Paola Maehara Sánchez, Filidor Edilfonso Vilca Labra Resumo: A família de distribuições Sinh-Normal é uma classe de distribuições simétricas com três parâmetros, e devido à presença destes parâmetros esta família é flexível. Quando a distribuição Sinh-Normal é unimodal, esta distribuição pode ser utilizada em lugar da distribuição normal, e consequentemente nos modelos de regressão. Uma subclasse das distribuições e o log-transformação da distribuição de tempo de fadiga Birnbaum-Saunders. Assim, várias propriedades da distribuição Birnbaum-Saunders e algumas generalizações podem ser obtidas. O principal objetivo deste trabalho é estudar alguns aspectos de estimação e análise de diagnóstico no modelo de regressão Sinh-Normal. A análise de diagnóstico baseia-se na metodologia de Cook (1986). Uma análise de dados é realizado para ver como o modelo proposto pode ser utilizado na prática. Palavras-Chave: Sinh-Normal; Análise de diagnóstico; Influência local; Esquemas de perturbação; Título: Modelo de regressão bivariado Bernoulli-exponencial

Autores: Willian Luís de Oliveira; Carlos Alberto Ribeiro Diniz

Resumo: Neste artigo, apresentamos um novo modelo bivariado misto em que a distribuição da vari�ável resposta discreta é assumida Bernoulli enquanto que a distribuição da variável resposta contínua, condicionada a variável discreta, segue distribuição exponencial. Assumimos que a estrutura da m�édia da variável contínua, condicionada a vari�ável discreta, é baseada na distribuição exponencial bivariada Gumbel tipo I. Desta forma, a dependência entre as vari�áveis resposta �é inserida na estrutura do modelo. Apresentamos as equações de estimação e a matriz de informação observada utilizadas pelo método Newton-Raphson, necessário para encontrar as estimativas de máxima verossimilhança dos parâmetros do modelo. Então, realizamos um estudo de simulação com o objetivo de analisar o comportamento das estimativas de máxima verossimilhança em alguns cenários predeterminados. Por fim, ajustamos o modelo proposto a um conjunto de dados reais, relacionado a internações em hospital. Toda parte computacional é desenvolvida em linguagem R (R Core Team, 2013).

Page 118: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

118

Palavras-Chave: Modelos bivariados; Dependência entre variáveis resposta; Modelos mistos. Título: Modelos Semiparamétricos com Resposta Binomial Negativa

Autores: Fábio H. Oki; Gilberto A. Paula Resumo: Neste trabalho são apresentados métodos de diagnóstico em modelos semiparamétricos com resposta binomial negativa. Foi considerado o modelo com somente uma variável explicativa não paramétrica que foi ajustada através de splines cúbicos. As estimativas de máxima verossimilhança penalizadas foram obtidas através de um procedimento de estimação tipo backfitting. Gráficos normais de probabilidade para o resíduo componente do desvio com bandas de confiança simuladas e diagnóstico de influência local foram desenvolvidos para avaliar a adequabilidade do modelo ajustado e a sensibilidade das estimativas. Finalmente, é apresentado um exemplo ilustrativo em que a máxima diária da concentração média de ozônio por hora (em ppm) em Los Angeles é ajustada através de um modelo com resposta binomial negativa. Palavras-Chave: modelos semiparamétricos; spline cúbico; iInfluência local; Título: Modelos de regressão não lineares para descrição do acúmulo de matéria seca em plantas de alho

Autores: Guilherme Alves Puiatti; Paulo Roberto Cecon; Ana Carolina Ribeiro de Oliveira; Moysés Nascimento; Ana Carolina Campana Nascimento; Fernando Luiz Finger; Mário Puiatti; Fabyano Fonseca e Silva

Resumo: O alho (Allium sativum L.) é de grande valor para todo o mundo devido a seu papel na economia, culinária, nutrição e medicina. Para a realização de um manejo adequado das plantas de alho um estudo da trajetória de crescimento das plantas ou do acúmulo de matéria seca de características relevantes se faz necessário. Diante deste contexto, este trabalho teve como objetivo ajustar e agrupar cinco modelos de regressão não linear (Brody, Gompertz, Logístico, Mitscherlich e von Bertalanffy) utilizados para descrição do acúmulo de matéria seca total em plantas de alho ao longo do tempo. Os dados foram provenientes de um experimento conduzido no delineamento em blocos casualizados, utilizando oito acessos de alho com quatro repetições, sendo que as avaliações foram realizadas aos 60, 90, 120 e 150 dias após o plantio. Os modelos foram ajustados pelo Método dos mínimos quadrados, fazendo uso do processo iterativo de Gauss-Newton. O quadrado médio do resíduo foi utilizado como critério para avaliar a qualidade do ajustamento. Os modelos ajustados para cada acesso foram agrupados utilizando os parâmetros como variáveis. Para todos os oito acessos foram formados dois grupos de modelos mais próximos, dos quais os formados pelos modelos Logístico, Gompertz e von Bertalanffy apresentaram melhores resultados, com estimativas viáveis para interpretação prática e menores valores para o quadrado médio do resíduo. Palavras-Chave: Allium sativum L; Análise de agrupamento; Regressão não linear; Título: Modelos de transição de Markov em experimentos planejados com dados binários longitudinais Autores: Maurício S. Lordêlo; Sônia M. De S. Piedade; Gilenio B. Fernandes; Rosemeire L. Fiaccone

Resumo: Os modelos de transição de Markov constituem uma ferramenta de grande importância para diversas áreas do conhecimento quando são desenvolvidos estudos

Page 119: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

119

com medidas repetidas. Eles caracterizam-se por modelar a variável resposta ao longo do tempo condicionada a uma ou mais respostas anteriores, conhecidos como a história do processo. Além disso, é possível a inclusão de outras covariáveis. No caso da respostas binárias, pode-se construir uma matriz com as probabilidades de transição de um estado para outro. Neste trabalho, duas abordagens diferentes para modelos de transição foram comparadas para avaliar qual estima melhor o efeito causal de tratamentos em um estudo experimental em que a variável resposta é um vetor binário medido ao longo do tempo. Estudos de simulação foram realizados levando em consideração experimentos balanceados com três tratamentos de natureza categórica. Para avaliar qualidade das estimativas, o erro padrão e viés, além do percentual de cobertura foram utilizados. Os resultados mostraram que os modelos de transição marginalizados são mais indicados na situação em que um experimento é desenvolvido com um reduzido número de medidas repetidas. Palavras-Chave: Medidas repetidas; Efeito causal de tratamento; Probabilidades de transição; Título: Método GEE duplo robusto para análise de dados longitudinais ordinais com perda MAR Autores: José Luiz Padilha da Silva; Enrico Antonio Colosimo; Fábio Nogueira Demarqui Resumo: Equações de Estimação Generalizadas (GEE) (Liang & Zeger, 1986) são um método comumente usado para análise de dados longitudinais não gaussianos. Este método possui simplicidade computacional e interpretação marginal dos parâmetros. Contudo, na presença de dados ausentes, é válido apenas sob a forte suposição de perda MCAR (Rubin, 1976). Duas correções podem ser feitas quando o mecanismo de perda é MAR: ponderar os dados observados pela probabilidade inversa de ser observado (WGEE) (Robins et al., 1995) ou realizar imputação múltipla (MIGEE) (Little & Rubin, 1987). Um enfoque recente é o uso de estimadores duplo robusto, que oferecem um grau extra de proteção à especificação incorreta de seu modelo preditivo. Neste trabalho assumimos um modelo de odds proporcionais para a resposta longitudinal ordinal (McCullagh, 1980) e propomos um estimador duplo robusto para dados com perda MAR. Comparamos seu desempenho com o WGEE e MIGEE através de um estudo de simulação de pequenas amostras. Palavras-Chave: Dados ordinais; modelo de odds proporcionais; perda MAR; GEE duplo robusto; Título: QUALIDADE DE VIDA E SATISFAÇÃO COM A SAÚDE DOS ALUNOS DA UFPE Autores: Glauce da Silva Guerra; Claúdia Regina O. P. Lima; Maria de Fátima Galdino da Silveira Resumo: Este estudo deriva-se do interesse de buscar o conhecimento dos principais fatores que influenciam tanto na qualidade de vida quanto na satisfação com a saúde dos alunos da UFPE. Uma vez que identificados os possíveis fatores pode-se desenvolver um trabalho que tente sanar tais problemas. Uma vez que se sabe que o aluno que não está satisfeito com sua vida pessoal provavelmente não conseguirá se empenhar na universidade da forma que deveria. O presente trabalho tem como objetivo modelar a Qualidade de Vida e a Satisfação com a Saúde dos alunos de Graduação da Universidade Federal de Pernambuco (UFPE) do Campus Recife que estavam matriculados na disciplina de Anatomia no semestre 2012.2. As variáveis respostas (Qualidade de Vida e Satisfação com a Saúde) são variáveis que se comportam seguindo a distribuição Bernoulli, ou seja, uma variável binária, que é da classe da família exponencial. Dessa forma os modelos ajustados são uma aplicação do modelo de

Page 120: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

120

regressão logística, sendo considerada a função de ligação logit. Palavras-Chave: Modelo logístico; Qualidade de Vida; Satisfação com a Saúde; Título: Regresión Poisson Geográficamente Ponderada: Una aplicación a datos de cirrosis de la región metropolitana, Chile

Autores: Luisa Rivas Calabrán; Manuel Galea Rojas

Resumo: Regresión Geográficamente Ponderada, GWR, es un método estadístico propuesto por Fotheringham et al. (2002) para el análisis de datos espaciales con distribución normal. Nakaya et al.(2005) desarrollan esta técnica para datos con distribución Poisson. El propósito de este trabajo es aplicar esta metodología para modelar datos de cirrosis en la población masculina de la región metropolitana, RM, de Chile. Comparamos el modelo Poisson convencional con el modelo Poisson Geográficamente Ponderado. Para la estimación de los parámetros se utiliza el algoritmo Fisher score.

Palavras-Chave: Tasa de Mortalidad Estandarizada; Regresión Poisson; Regresión Poisson Geográficamente Ponderada.

Título: Regressão Logística com Erros de Medição Heteroscedásticos Autores: Agatha Sacramento Rodrigues; Silvia Lopes de Paula Ferrari Resumo: Modelos com erros de medição têm sido objetos de estudo nas mais diversas áreas de conhecimento. O principal objetivo deste trabalho consiste no estudo do modelo logístico com erros de medição heteroscedásticos na presença de réplicas das observações. Os métodos de estimação abordados são máxima verossimilhança e máxima pseudoverossimilhança pelo algoritmo EM, SIMEX empírico e calibração da regressão heteroscedástico. Eles serão comparados através de estudos de simulação e as métricas para comparação entre os estimadores serão o viés e a raiz do erro quadrático médio (REQM). Por fim, a proposta é exemplificada com um conjunto de dados reais. Palavras-Chave: Erros de medição heteroscedásticos; Métodos de estimação; Modelo de regressão logística.

Título: Uso de Algoritmo Genético para a otimização do ponto de corte da probabilidade de sucesso estimada do modelo de Regressão Logística Autores: José Edson Rodrigues Guedes Gondim; Joab de Oliveira Lima (in memorian); Paulo José Duarte-Neto

Resumo: Uma das grandes dificuldades no uso de Modelos de Regressão Logística, para fins de classificação, é a determinação, baseado na probabilidade estimada de sucesso, do melhor ponto de corte que produz a melhor classificação possível para o modelo proposto. Neste trabalho será sugerida a utilização de algoritmo genético para encontrar o ponto de corte ótimo que maximize a proporção de acerto. Os resultados referentes às taxas de acerto encontradas foram comparados com as taxas de acerto geradas por outros dois métodos, são eles: (a) um ponto de corte baseado na proporção 0,5, isto é, a classificação prevista para a variável resposta será 0 se P(Y=1) ≤ 0,5 e 1 caso contrário e (b) um ponto de corte baseado na proporção amostral (à priori) de 1’s observada na amostra estudada. As análises mostraram que os pontos de corte gerados pelo algoritmo genético forneceram, em 99,70% dos casos estudados, taxas de classificações corretas

Page 121: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

121

superiores às taxas de acerto produzidas pelos outros dois métodos. Além disso, observou-se que os pontos de corte produzidos pelo algoritmo genético melhoraram a proporção estimada de classificação correta em 19,75% (em média) quando comparada com as dos outros métodos examinados. Os resultados mostraram que é possível encontrar uma regra de classificação mais adequada para a probabilidade estimada de sucesso do Modelo de Regressão Logística e que as técnicas computacionais evolutivas, como algoritmo genético, podem ser muito úteis nesses casos. Palavras-Chave: Regressão Logística; Ponto de Corte; Algorítimo Genético.

Page 122: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

122

Sessão: Planejamento de Experimento e Controle Estatístico de Qualidade

Título: ANÁLISE DO ÍNDICE DE RUPTURAS DE FIOS DE ALGODÃO - COCAMAR COOPERATIVA AGROINDUSTRIAL

Autores: Angélica Maria Tortola Ribeiro; Terezinha Aparecida Guedes Resumo: Minimizar custos no setor empresarial é uma preocupação constante, sendo que investimentos relativos ao aumento da qualidade e lucratividade têm aumentado significativamente nos últimos tempos. A busca incessante pelo crescimento e competitividade tem levado as empresas brasileiras a procurar continuamente ações com o propósito de reduzir custos, além de melhorar a qualidade, qualificar a mão-de-obra e inovar suas produções. Tanto no setor têxtil quanto agrícola, planos de ação têm sido elaborados com esta finalidade. Nas indústrias de fios, por exemplo, a redução de custos pode ser conquistada através da minimização de desperdícios, que dentre outras coisas está associada intrinsecamente à ruptura dos fios. Reduzindo-se a ruptura, reduz-se também o pneumafil e a estopa. Não obstante, no setor agrícola também é possível reduzir custos. Acompanhar o processo de irrigação do solo, tal como fazer um controle do Balanço Hídrico das plantações, acarreta para o agricultor um conhecimento mais aprofundado sobre a situação natural de seu meio de plantio, levando o mesmo a tomar iniciativas preventivas que evitem desperdícios e, conseqüentemente, prejuízos para a indústria. Visando todos estes objetivos, estudos têm sido amplamente realizados a fim de esclarecer e definir aspectos importantes para o meio industrial que possibilitem seu crescimento e aprimoramento de forma satisfatória. Palavras-Chave: Planejamento de Experimentos; Efeitos Principais; Efeitos de Interação; fiação de algodão; Método da Máxima Entropia.

Título: Análise da Superfície de Resposta no Software R Autores: Michelle Valeriano de Lima; Marina Travassos; João Agnaldo do Nascimento Resumo: Este trabalho tem como objetivo apresentar uma análise da superfície de resposta com a utlização do software, com o pacote rsm (Response Surface Methodology). Os dados ilustrativos estão em RODRIGUES (RODRIGUES & IEMMA, 2005) Palavras-Chave: Planejamentos de Experimentos; Planejamentos Fatoriais; Superfície de Resposta.

Título: Análise de falhas numa panificadora

Autores: Raphael Henrique Teixeira da Silva; Daniela Carine Ramires de Oliveira Resumo: As empresas de diversos segmentos existentes no mercado têm uma tendência em controlar seus processos produtivos. Métodos estatísticos são de extrema eficácia para se realizar o acompanhamento de processos e reduzir a variabilidade da produção. Portanto, este trabalho teve como objetivo aplicar ferramentas estatísticas em uma empresa do setor de panificação. A organização estudada tinha uma grande preocupação com relação ao processo de produção do pão de sal. O trabalho teve grande impacto na empresa, pois permitiu uma investigação minuciosa e adequada do processo, proporcionando indicações de erros e possíveis melhorias. Vale resaltar que os gráficos de controle de qualidade propostos foram desenvolvidos em um software estatístico livre, não gerando custos adicionais para a empresa.

Page 123: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

123

Palavras-Chave: Controle estatístico de processos; Gráficos Univariados; Gráficos Multivariados; Software livre R.

Título: Aspectos teórico e prático da análise Estatística de um experimento em blocos casualizados com efeitos aleatórios

Autores: Costa, João Batista Filgueira; Medeiros, Marcos Barros de; Luna, João Gil de Resumo: Este artigo consiste em apresentar uma pequena parte da análise teórica e prática acerca de um delineamento experimental em blocos ao acaso com efeito aleatório e com uma aplicação de um exemplo real, expor resultados obtidos da análise de variância, através de um algorítmo para entrada e saída de dados enfatizando a Estatística computacional no software SAS. Os resultados comentados detalhados. Palavras-Chave: Planejamento de Experimento; Modelo Aleatório ; Análise de Variância; Título: Capability indices for Birnbaum-Saunders processes with applications Autores: Víctor Leiva; Carolina Marchant; Helton Saulo; Fernando Rojas. Resumo: Process capability indices (PCIs) are tools widely used in the industry to determine the quality of their products and the performance of their manufacturing processes. Classic versions of these indices were constructed for processes whose quality characteristics have a normal distribution. In practice, many of these characteristics do not follow this distribution. In such a case, the classic PCIs must be modified to take into account the non-normality. Ignoring the effect of this non-normality can lead to misinterpretation of the process capability and to make bad business decisions. An asymmetric non-normal model that is receiving considerable attention due to its good properties is the Birnbaum-Saunders (BS) distribution. We propose, develop, implement and apply a methodology based on PCIs for BS processes considering estimation, parametric inference, bootstrap and optimization tools. This methodology is implemented in the statistical software R. A simulation study is conducted to evaluate its performance. Real-world case studies with applications for three data sets are carried out to illustrate its potentiality. One of these data sets was already published and is associated with the electronic industry, whereas the other two are unpublished and associated with the food industry. Palavras-Chave: Bootstrapping; data analysis; Monte Carlo simulation; non-normal distribution; quality tools.

Título: Comparação de achocolatados mediante aspectos sensoriais através de uma prática experimental

Autores: Stênio Rodrigues Lima; Felipe Rodrigues Silva; Terssando Lustosa Santos; Wyara Vanesa Moura; Rita de Cássia de L. I Leão.

Resumo: Os achocolatados são alimentos consumidos por pessoas de todas as idades e podem ser encontrados em todo o mundo. As suas características sensoriais e nutricionais, assim como sua conveniência e praticidade, fazem com que o produto seja bem aceito pelo consumidor, Eduardo et al. (2004). A análise sensorial é um método científico utilizado para medir, analisar e interpretar as características dos alimentos que possam ser percebidas pelo sentido do paladar, visão, olfato, tato e audição, utilizando conhecimentos de Ciência de Alimentos, Fisiologia, Psicologia e Estatística, Simpson et al. (1998). A realiza�cão deste trabalho tem como objetivo a realização de uma prática

Page 124: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

124

experimental com intuito de verificar se as marcas de achocolatado de preços mais elevados e mais baixos têm influência na aceitação por parte dos degustadores, quando cruzada com os dois tipos de leite, além de uma comparação com um achocolatado já pronto para consumo. As análises feitas, foram descritivas, análises de variâncias e teste de comparação de médias. O software utilizado para a análise foi o R. Após as análises, observou-se que as misturas M2 e M7 sendo as mais baratas, apresentaram diferenças comparada as demais com relação a cor, obtendo notas baixas. Entretanto para as variáveis sabor e nível de açúcar não foram observadas diferenças significantes com relação às misturas mais caras.

Palavras-Chave: Achocolatados; Análise sensorial; Experimento; Análises de variâncias; Teste de comparação de médias

Título: Desempenho do gráfico de controle T2 de Hotelling sob efeito da autocorrelação com limites de controle ajustado

Autores: Joelton Fonseca Barbosa; Pledson Guedes de Medeiros; Antonio Fernando Branco Costa

Resumo: O gráfico de controle T2 de Hotelling tem sido o principal dispositivo estatístico utilizado no monitoramento de processos multivariados. Atualmente com o desenvolvimento tecnológico dos sistemas de controle e automação possibilitou uma elevada taxa de coleta das informações dos sistemas produtivos em intervalos de tempo muito curto, provocando uma dependência entre os resultados das observações. Este fenômeno, conhecido como autocorrelação, provoca no controle estatístico de processos multivariado uma grande quantidade de alarmes falsos, prejudicando o desempenho do gráfico e violando o pressuposto de independência e da normalidade da distribuição. Neste estudo considerou-se não só a correlação entre duas variáveis, mas também a dependência entre observações de uma mesma variável, isto é, a autocorrelação. Estudou-se, por meio de simulação, o caso bivariado e o efeito da autocorrelação no desempenho do gráfico T2 de Hotelling e obteve-se, por simulação, os limites de controle e depois feita uma análise do desempenho dos gráficos propostos para diferentes estruturas de autocorrelação e correlação. Palavras-Chave: Controle multivariado de processos; autocorrelação; limites de controle; simulação; Título: EFEITOS DA CORRELAÇÃO NOS TESTES F APROXIMADOS DA MANAVA Autores: Katia Alves Campos; Crysttian Arantes Paixão; Augusto Ramalho de Morais. Resumo: Com o objetivo de avaliar a influência da correlação, existente entre as variáveis respostas, nos resultados dos testes F aproximados da análise de variância multivariada foram simulados experimentos, com sete variáveis respostas, considerando-se para a simulação os níveis e os número de variáveis correlacionadas. Para avaliação, foram calculados os quatro critérios: teste do máximo autovalor de Roy, Lâmbda de Wilks, Hotelling e Lawley e Pillai; A avaliação foi realizada contando número de vezes que a hipótese de nulidade foi aceita, calculando a porcentagem de aceitação.O teste de Pillai, divergiu da decisão dos outros três testes aproximados da MANAVA e foi influenciado tanto pela presença de correlação quanto pelo aumento no número de variáveis correlacionadas. Palavras-Chave: simulação; experimento; análise de variância multivariada; delineamento inteiramente casualizado.

Page 125: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

125

Título: GRÁFICO DE CONTROLE PARA O NÚMERO DE NÃO-CONFORMIDADES COM REGRAS SUPLEMENTARES

Autores: André Luiz Sena da Rocha; Pledson Guedes de Medeiros; Linda Lee Ho Resumo: Este trabalho propõe um procedimento de controle on-line de processos por atributos utilizando um gráfico de Shewhart com dois limites (Limite de Controle e de Advertência). Após a produção de m peças, o m-ésimo item é inspecionado. A estatística monitorada é a contagem do número de não-conformidades na peça inspecionada. O processo é parado para ajuste se o número de não conformidades for superior ao limite de controle; ou se nas últimas h inspeções, todos os itens inspecionados apresentarem um número de não-conformidades entre os Limites de Advertência e de Controle; caso contrário, o processo continua. Utilizando-se de propriedades de uma cadeia de Markov Ergódica, foi obtida uma expressão do custo médio por item produzido. Os parâmetros: Intervalo de Inspeção (m), os Limites de Advertência e de Controle (W e C) e o tamanho da sequência (h) são determinados através da minimização do custo médio. Um exemplo numérico ilustra o procedimento proposto.

Palavras-Chave: Controle On-Line de Processos por Atributos; de não-conformidades por item inspecionado; Limite de Advertência; Distribuição Poisson; Cadeia de Markov.

Título: I-otimalidade em critérios compostos para experimentos fatoriais

Autores: Heloisa Maria de Oliveira; Luzia Aparecida Trinca

Resumo: Muitos experimentos visam mais do que um único objetivo a ser analisado e os critérios compostos são funções que incorporam estes objetivos desejáveis ao experimento atribuindo a cada um deles um peso de prioridade. Gilmour e Trinca (2012) apresentaram um grande avanço na área de delineamentos ótimos ao enfocarem a precisão dos estimadores e a estimação do erro puro na função critério, como também a formulação de critérios compostos envolvendo quatro possíveis objetivos experimentais. O objetivo deste trabalho é verificar a eficiência dos delineamentos encontrados pelos critérios compostos que consideram a I-otimalidade com e sem erro puro na sua estrutura.

Palavras-Chave: delineamentos ótimos; critérios compostos; I-otimalidade; erro puro; falta de ajuste.

Título: Metodologia para estudo da variabilidade de métodos analíticos Autores: Fernando Henrique Rosa; Flaviane Peccin Brevi; Jonathan Farinela da Silva Resumo: Todo método de determinação de medidas é suscetível a variações. Identificar e mensurar os fatores que influenciam no processo é fundamental para melhorar a precisão dos resultados. Portanto, dispor de uma metodologia para estimar estes componentes de variação é de grande importância, principalmente em ambientes onde se trabalha com melhoria constante de tecnologia e processos e com taxas de erros ínfimas. O presente trabalho sugere utilizar a Decomposição dos Fatores de Variância, também conhecido como Modelos com Efeitos Aleatórios como metodologia para estimar a variabilidade associadas a cada um desses fatores. A metodologia proposta foi aplicada a uma base de dados real e se mostrou eficaz na mensuração dos fatores que interferem na variabilidade de um método de medição, sendo uma ferramenta efetiva para garantir maior confiabilidade nos resultados reportados pelo laboratório. Palavras-Chave: Componentes de variância; incerteza; delineamento experimental; modelos mistos.

Page 126: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

126

Título: Simulação de cartas de controles utilizando à distribuição empírica da amostra Autores: Claudia Regina Lima; Leandro Ricardo Rodrigues de Lucena. Resumo: Três métodos de avaliação da carta de controle foram propostos para avaliar a carta de controle da distribuição empírica das amostras e as probabilidades de rejeição das cartas que foram comprados com a carta da média. Foram realizadas 1000 simulações de Monte Carlos, em cada simulação foram geradas amostras de tamanhos 3 e 5 para cada uma das nove distribuições de probabilidade utilizadas, em cada uma das distribuições eram feitos os cálculos da média e mediana de cada amostra gerando no final uma amostra de tamanho 25 de médias e medianas para cada distribuição. Verificou-se que as probabilidades de rejeição das cartas de controle diminuem com o tamanho amostral independente da distribuição estudada quando utilizadas as cartas de controle da mediana 1 e média. Para os tamanhos amostrais 3 e 5 as probabilidades de rejeição das cartas de controle foram menores quando utilizadas as distribuições simétricas (N(0,1), t(5) e Logística(0,0.5)) do que em relação as distribuições assimétricas (F(4,25), Weibull(1,0.3), Beta(1,10), chi-quadrado(2), Gamma(3,7) e log-normal(1,0.6)). O método da mediana 1 embora tenha apresentado maiores probabilidades de rejeição das cartas de controle, independente das distribuições de probabilidade em estudo, se mostrou um método alternativo para a carta de controle da média. Palavras-Chave: Cartas de Controle; Medidas Robustas; Poder de Rejeição; Controle Estatístico de Processo.

Título: UM MODELO PARA OS IMPACTOS AMBIENTAIS DO PÓLO GESSEIRO DO ARARIPE Autores: Auridenes Alves de Oliveira; Júlia Maria dos Santos Nascimento Resumo: Este estudo teve como objetivo principal, avaliar os elementos que influenciam na questão dos impactos ambientais sofridos na região gesseira do Araripe - PE. Visando propor um modelo baseado na ANOVA de dois fatores e elencando 8 fatores como problemas do Polo Gesseiro que podem estar, direta ou indiretamente, influenciando na variável impactos ambientais.

Palavras-Chave: Impactos Ambientais; Planejamento de Experimentos; ANOVA de dois fatores;

Page 127: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

127

Sessão: Probabilidade e Processos Estocásticos

Título: Algorithms for Estimation of Variable Length Markov Chains and Simulation

Autores: David Henriques da Matta, Nancy Lopes Garcia

Resumo: There are many studies in the field of linguistics where the interest is to analyze the differences between Brazilian Portuguese and European Portuguese (henceforth BP and EP respectively). Both the BP on EP, have the same words (lexicon). However, these languages have different syntaxes and different prosodies. The key point to distinguish between the languages is to construct a probabilistic model that incorporates the prosody of the language. This is achieved using variable length Markov chains. To better understand this probabilistic model, we discuss here some basic concepts of variable length Markov chains, as well as a simulation study to find evidence whether to use BIC or AIC as the selection criteria of models to tune the pruning constant of the algorithm Context (Rissanen (1983); Buhlman and Wyner (1999)).

Palavras-Chave: Variable Length Markov Chains; Algorithms for Estimation; Simulation.

Título: Algumas Semelhanças Entre Processos Estocásticos e a Integração Funcional na Mecânica Quântica

Autores: Felipe Andrade Velozo; José Alberto Casto Nogales Vera; Lucas Monteiro Chaves; Devanil Jaques de Souza

Resumo: Na formulação da mecânica quântica, encontram-se visceralmente inclusos conceitos de estatística, a que fornece interpretação experimental às leis formuladas para o estudo dos fenômenos a nível microscópico. Neste trabalho vamos expor algumas suspeitas da relação entre a formulação da Mecânica Quântica através de integrais de caminho e o processo estocástico de Wiener.

Palavras-Chave: Interpretação estatística da Mecânica Quântica; Processo estocástico de Wiener; Integral de caminho na Mecânica Quântica.

Título: Comportamento da Ordem da cadeia de Markov de Alcance Variável segundo o tamanho da amostra

Autores: Maria das Vitórias Alexandre Serafim; Manuel Rivelino Gomes de Oliveira; Divanilda Maia Esteves; Paulo José Duarte-Neto

Resumo: O estudo relacionado ao comportamento da ordem de uma cadeia de Markov de Alcance Variável é de fundamental importância para conhecer a ordem de dependência de um certo fenômeno, pois além de conhecer a dependência entre si é possível estimar outros parâmetros e encontrar a Cadeia de Markov que melhor se adapta ao problema em análise. Diante disso, o presente trabalho teve como objetivo avaliar o comportamento da ordem de uma cadeia de Markov de Alcance Variável quando se utiliza diferentes tamanhos de amostra. Sendo assim, utilizou-se uma amostra de dados originais e a partir daí foram simuladas amostras de vários tamanhos diferentes com a mesma matriz de transição e mesma distribuição inicial da amostra original. A análise dos resultados

Page 128: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

128

obtidos mostrou uma grande variabilidade na ordem da cadeia de Markov de Alcance Variável quando se tem diferentes tamanhos de amostra. Palavras-Chave: Cadeia de Markov de Alcance Variável; Ordem da Cadeia; Dimensão da Amostra; Título: Convergence, pricing and hedging under the Heston's stochastic volatility model Autores: Vinícius Siqueira; Dorival Leão; Alberto Ohashi; Daniel Bonetti Resumo: Heston's stochastic volatility model was proposed by Heston and it extends the Black and Scholes model and includes it as a special case. Heston's setting take into account non-lognormal distribution of the assets returns, leverage effect, important mean-reverting property of volatility and it remains analytically tractable. In this work, we used an Euler-Maruyama-type approach to implement a numerical method for approximating the Heston stochastic volatility model based on a simple random discretization method. We show the strong convergence of the numerical method and use Monte Carlo simulation techniques to compare the numerical results with analytic ones. We observe this approach can be used to precify path-dependent and non-path-dependent contingent claims in incomplete markets and to compute hedging strategies in the quadratic criterion of local-risk minimization.

Palavras-Chave: Heston model; Euler-Maruyama method; Stochastic volatility; Pricing; Hedging strategies.

Título: Estudo de Tráfego em Redes de Filas Finitas MGCC Autores: Guilherme D. Carvalho; Renato A. Nascimento; Frederico R. B. Cruz Resumo: Os modelos de estudo de tráfego precisam ser detalhados o bastante para capturar as sutilezas fundamentais envolvidas, mas também suficientemente simples para se enquadrarem bem em um arcabouço de otimização. Nós vamos investigar um modelo de tráfego de veículos, baseado em filas finitas configuradas em redes, acoplado ao modelo do system optimum de Wardrop(SO), que é um dos modelos clássicos para atribuição de tráfego. A importância do modelo SO reside na sua capacidade bem reconhecida de produzir soluções que correspondam ao caminho mais eficiente de uso dos escassos recursos representados pela capacidade de uma rua e uma rodovia. A formulação SO é equivalente a uma situação em que os usuários cooperam entre si, garantindo um funcionamento da rede com custo global mínimo, em termos do tempo total de deslocamento. Tais tempos são modelados por redes de filas finitas M/G/c/c dependentes do estado que é uma fórmula estocástica de estimativa de tempo de viagem que leva em conta os efeitos dos congestionamentos, onde a velocidade de um usuário decai com o aumento de usuários simultâneos no sistema. Resultados preliminares foram obtidos com uma heurística evolucionária que indicaram que a atribuição de tráfego faz sentido e é robusta.

Palavras-Chave: Redes de filas; Filas finitas; Sistemas estocásticos; Problemas de planejamento; Título: Introdução às Equações Diferenciais Estocásticas (EDE) Autores: Rodrigo Conceição Mendes; Rayssa Caroline da Conceição Ribeiro; João dos Santos Protázio Resumo: Neste trabalho, iremos introduzir alguns conceitos básicos pertinentes a uma Equação Diferencial Estocástica (EDE) e mostrar, através de exemplos simples, algumas

Page 129: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

129

características de suas soluções, marcando, principalmente, as principais diferenças existentes entre as soluções de uma Equação Diferencial Ordinária (EDO) clássica e as de uma EDE. Os exemplos gráficos são produzidos pela utilização do aplicativo Scilab . Palavras-Chave: Equação Diferencial Estocástica; Processos de Wiener; Fórmulas de Itô; Título: Modelo de Risco com Dependência entre os Valores das Indenizações e seus Intervalos entre Ocorrências

Autores: Anna Rafaella da Silva Marinho; Debora Borges Ferreira Resumo: Apresentamos um modelo de risco dependente para descrever o excedente de uma carteira de seguros, com base no artigo ''A ruin model with dependence between claim sizes and claim intervals" (Albrecher e Boxma). Obtemos uma expressão exata para a probabilidade de sobrevivência através da Transformada de Laplace da função de sobrevivência do superávit. Ilustramos os resultados obtidos através de exemplos numéricos e investigamos o que acontece ao se ignorar a estrutura de dependência presente no modelo. Estudamos também a probabilidade de sobrevivência para indenizações que possuem distribuição do Tipo Fase, considerando que esta é uma classe de distribuições, computacionalmente tratáveis, bem mais geral. Palavras-Chave: Probabilidade de Sobrevivência; Carteira de Seguros; Transformada de Laplace; Modelo Dependente; Distribuições do Tipo Fase.

Título: Percolação em Infinitas + 1 dimensões

Autores: Rachel Abrahão Ribeiro; Roger William Câmara Silva. Resumo: Neste artigo, examinamos o trabalho de Grimmett e Newman sobre percolação em um grafo cuja quantidade de aglomerados abertos infinitos possui três fases não-triviais, correspondentes à existência de nenhum, infinitos ou um aglomerado. Esse grafo, denominado L, é construído a partir do produto direto de uma árvore regular T com a linha Z, no qual cada elo da árvore está aberto com probabilidade �tau e cada elo da linha, com probabilidade lambda. O objetivo principal é definir, no quadrado unitário, como se comportam as curvas que dividem as três regiões, representativas das três fases, a partir dos possíveis valores do par ordenado (�tau;lambda).

Palavras-Chave: Percolação; Árvore; Transição de fase.

Título: Processos de ramificação binária com aplicações na biologia Autores: Cristel Ecaterin Vera Tapia; Pablo Martín Rodríguez Resumo: Neste trabalho discutimos três exemplos de aplicações recentes de processos de ramificação binária. No primeiro, Schinazi (2006), avalia o risco de resistência às drogas durante un tratamento inducido. No modelo introduzido o interesse é calcular a probabilidade de eradicação de patógenos antes que a resistência apareça. O segundo modelo, introduzido por Bozic et al. (2010), analisa a progressão de um tumor calculando o número de mutações passajeiras em um tumor que tem acumulado certo número de mutações condutoras. Finalmente consideramos un modelo também proposto por Bozic et al. (2013) e o qual descreve a dinámica da progressão do câncer em resposta a uma específica combinação de terapias dadas em simultâneo. Os trabalhos citados estão baseados na construção de processos de ramificação binários convenientemente definidos. Revisamos a formulação matemática desses modelos, os principais resultados

Page 130: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

130

e discutimos possíveis modificações.

Palavras-Chave: Processos de ramificação binária; Resistencia às drogas; Progressión de um tumor; Combinação de terapias.

Título: Retornos à Experiência Profissional na Indústria Farmacêutica Brasileira Autores: Gesiane do Socorro Andrade Leão; Eduardo Pedral Sampaio Fiuza; James Joaquim de Almeida Otterson

Resumo: Este trabalho tem por objetivo investigar evidências de retornos à experiência profissional dos empregados do setor farmacêutico, dos laboratórios fabricantes de medicamentos no Brasil, bem como descrever o estoque de capital humano no setor. Trata-se de um estudo realizado a partir da Relação Anual de Informações Sociais (RAIS), que faz referência a 318 laboratórios observados no período de 1999 a 2009, coletados no ano de 2012, gerenciada pelo Ministério do Trabalho e Emprego (MTE). Para tanto, utilizou-se as técnicas estatísticas: análise descritiva e a modelagem econométrica, baseada em variações da equação de Mincer, que calcula esse estoque a partir de coeficientes de retorno à educação e à experiência profissional. Os resultados da análise descritiva mostram as evoluções etárias entre laboratórios e seus empregados comparando estoque de capital humano para o total de ocupações com as amostras de ocupações especificamente do setor farmacêutico e das ocupações do setor de vendas. O modelo proposto mostra que a estimação de retornos nos salários dos empregados com ocupações do setor farmacêutico em laboratórios produtores de genéricos são afetados negativamente, sendo justificável, visto que tais laboratórios vendem obrigatoriamente os medicamentos genéricos com descontos de até 65%. Palavras-Chave: Econometria; Concorrência; Indústria Farmacêutica Brasileir; CBO's; Salários; Título: Seleção de modelos para segmentação de sequências simbólicas usando máxima verossimilhança penalizada

Autores: Bruno Monte de Castro; Florencia Graciela Leonardi Resumo: O problema de segmentação de sequências tem o objetivo de particionar uma sequência ou um conjunto delas em um número finito de segmentos distintos tão homogêneos quanto possível. Neste trabalho consideramos o problema de segmentação de um conjunto de sequências aleatórias, com valores em um alfabeto $\mathcal{A}$ finito, em um número finito de blocos independentes. Supomos ainda que temos $m$ sequências independentes de tamanho $n$, construídas pela concatenação de $s$ segmentos de comprimento $l^{*}_j$, sendo que cada bloco é obtido a partir da distribuição $\p _j$ em $\mathcal{A}^{l^{*}_j}, \; j=1,\cdots, s$. Além disso denotamos os verdadeiros pontos de corte pelo vetor ${{\bf k}}^{*}=(k^{*}_1,\cdots,k^{*}_{s-1})$, com $k^{*}_i=\sum _{j=1}^{i}l^{*}_j$, $i=1,\cdots, s-1$, esses pontos representam a mudança de segmento. Propomos usar o critério da máxima verossimilhança penalizada para inferir simultaneamente o número de pontos de corte e a posição de cada um desses pontos. Também apresentamos um algoritmo para segmentação de sequências e realizamos algumas simulações para mostrar seu funcionamento e sua velocidade de convergência. Nosso principal resultado é a demonstração da consistência forte do estimador dos pontos de corte quando o $m$ tende ao infinito. Palavras-Chave: Segmentação de sequências; Máxima verossimilhança penalizada; Consistência forte;

Page 131: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

131

Título: Simulação e Convergência do Modelo de Volatilidade Estocástica 3/2 Autores: Ricardo Ferreira, Dorival Leão, Vinícius Siqueira. Resumo: Neste trabalho, nós utilizamos uma abordagem do tipo Euler-Maruyamma para implementar um método numérico para aproximar o modelo de volatilidade estocástica 3/2 baseado em um simples método de discretização aleatória e mostramos a convergência forte do método numérico. Palavras-Chave: Modelo 3/2; Discretização Aleatória; Convergência Estocástica; Título: The Externally Studentized Normal Midrange Distribution Autores: Ben Deivide de Oliveira Batista; Daniel Furtado Ferreira; Lucas Monteiro Chaves Resumo: This work aimed to derive analytic expressions to distribution of the externally studentized midrange, obtaining the cumulative distribution, probability density and quantile functions and generating random values. A second objective was to build an R package for obtaining numerically the probability density, cumulative distribution and quantile functions and make it available to the scientific community. The algorithms were proposed and implemented using Gauss-Legendre quadrature and the Newton-Raphson method in R software, resulting in the SMR package, available for download in the CRAN site. The implemented routines showed high accuracy proved by using Monte Carlo simulations and by comparing results with different number of quadrature points. Regarding to the precision to obtain the quantiles for cases where the degrees of freedom are close to 1 and the percentiles are close to 100%, it is recommended to use more than 64 quadrature points. Palavras-Chave: Midrange; Distribution; Algorithm; R.

Título: The gamma-Dagum distribution

Autores: Jailson de Araújo Rodrigues; Ana Paula Coelho Madeira Silva; Jaime dos santos Filho; Ângela Lima da Silva

Resumo: In this work, a new distribution called the gamma-Dagum is introduced. Some of the main properties of this distribution are derived, including, kth moment, mean, variance, skewness and kurtosis. The estimation of parameters using the methods of moments and maximum likelihood is also discussed. Palavras-Chave: Dagum distribution; gamma distribution; moments.

Page 132: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

132

Sessão: Séries Temporais e Econometria

Título: ANÁLISE DA SÉRIE TEMPORAL DE PRECIPITAÇÃO DO MUNICÍPIO DE PIRACICABA - SP Autores: Manoel Rivelino Gomes de Oliveira, Andre Luiz Pinto dos Santos, Moacyr Cunha Filho, Maria das Vitorias Alexandre Serafim Resumo: A busca de um ajuste da série de precipitação do município de Piracicaba - SP, à um modelo não-linear séries temporais GARCH, pode auxiliar no entendimento do padrão de chuvas neste município. Para tal foram utilizados dados de precipitação pluviométrica, extraídos da base de dados do posto agro meteorológico. A análise, dos resultados obtidos revelou que o modelo GARCH ajustado aos resíduos de um modelo ARMA, torna-se mais poderoso para representar adequadamente a heteroscedasticidade condicional da série temporal hidrológica de Piracicaba. Palavras-Chave: Modelo de Séries Temporais; Modelo GARCH; precipitação; Título: AS AGÊNCIAS DE RATINGS DE RISCO SOBERANO E OS FUNDAMENTOS MACROECONÔMICOS DOS PAÍSES: UM ESTUDO SOBRE AS ATRIBUIÇÕES DE RISCO Autores: Jailson da Conceição Teixeira de Oliveira; Bruno Ferreira Frascaroli Resumo: O rating de risco soberano constitui peça chave para determinar as condições dos mercados de crédito, fundamentais, sobretudo, para o desenvolvimento de países emergentes. O objetivo do presente trabalho foi estudar os determinantes da classificação dos ratings de risco soberano realizadas pelas agências de ratings, mensurando os efeitos de cada variável explicativa. Para tanto, tomou-se os principais fundamentos macroeconômicos dos países que remetem às características de solvência, liquidez, e desenvolvimento e estabilidade econômica e estimou-se um modelo de dados em painel. A ideia central foi testar a hipótese de Cantor e Packer (1996) de que os ratings dos países não tem relação clara com seus fundamentos macroeconômicos. Como principais resultados, obteve-se que para o modelo estimado por efeitos fixos, nem todas as variáveis se mostraram significativas. As estimações através do modelo por efeitos aleatórios diferem das primeiras, na medida em que outras variáveis passaram a ser estatisticamente significativas. Palavras-Chave: Ratings de risco soberano; fundamentos macroeconômicos; dados em painel; Título: Abordagem SSA na Filtragem de S

Autores: Rafael Morais de Souza; Moises Lima de Menezes; Keila Mara Cassiano; Luiz Albino Teixeira Junior; Jose Francisco Moreira Pessanha. Reinaldo Castro Souza Resumo: O objetivo deste artigo é apresentar diferentes métodos para remoção de ruídos de séries temporais com o uso da Análise Espectral Singular (SSA). Para este propósito, foram utilizadas três abordagens na fase de agrupamento SSA: análise de componentes principais (ACP), análise de agrupamentos integrada com ACP e análise gráfica dos vetores singulares. Adicionalmente, testes estatísticos foram realizados a fim de se evidenciar empiricamente a existência de independência estatística e estacionariedade de segunda ordem na série de ruídos removidos. Para ilustrar a aplicação dos métodos, considerou-se a série temporal de Vazão da Usina Hidrelétrica Governador Bento Munhoz, localizada na Bacia do Rio Paraná.

Page 133: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

133

Palavras-Chave: Remoção de Ruídos; Análise Espectral Singular; Decomposição em Valores Singulares; Clusterização Hierárquica; Séries Temporais.

Título: Análise de Séries Temporais do Preço de Venda do Dólar Americano Autores: Saul de Azevedo Souza; Andreza Ferreira de Miranda; Márcio André Veras Machado; Marina Travassos Lopes Resumo: O objetivo central do presente trabalho é avaliar estratégias de modelagem e previsão do preço de venda do dólar americano. A série temporal analisada refere-se ao período de janeiro a dezembro de 2012. Será utilizado o algoritmo de alisamento exponencial de Holt, também utilizaremos a metodologia de Box-Jenkins com os modelos auto-regressivos integrados de médias móveis. Verificou-se que a modelagem de Box e Jenkins obteve maior adequação aos dados observados e possuiu melhor capacidade preditiva para os 12 primeiros dias úteis referentes ao ano de 2013. Palavras-Chave: Dólar americano; séries temporais; alisamento exponencial de Holt; Box e Jenkins.

Título: Análise de Séries Temporais para a Produção de Gás Natural no Amazonas Autores: Casemiro Rodrigues de Souza; Josenete Cavalcante Costa; Ézio Lacerda Lopes Resumo: Introdução: Este artigo apresenta um estudo sobre a produção de gás natural no estado do Amazonas no período de janeiro de 2000 a janeiro 2014 utilizando técnicas de séries temporais. Objetivo: Identificar o modelo mais adequado que corresponde ao período em análise para obter estimativas para realizar previsões de produção para um período de onze meses. Metodologia: A base de dados utilizada foi da Agência Nacional do Petróleo, Gás Natural e Biocombustível (ANP). Foram utilizadas as seguintes ferramentas estatísticas: Teste da raiz unitária para verificar se o processo é estacionário, utilizando os testes de ADF e KPSS. Estimou-se o parâmetro d, onde d é a ordem das diferenças necessárias para tirar a tendência da série, através dos métodos de GPH e Reisen. Após a estimação, gerou-se uma diferenciação no conjunto de dados e depois aplicamos mais uma vez os testes de raízes unitárias. Partimos para a escolha do modelo mais adequado através do Critério de Informações de Akaike (AIC), onde o melhor modelo foi um ARIMA (1,1,2) e por fim foi gerado uma previsão para os onzes meses subsequentes. Todos os resultados foram obtidos através do software estatístico R 2.15.2. Resultados: Verificou-se que a série não segue um processo estacionário, sendo necessário fazer uma diferenciação. Através do Critério de Informações de Akaike (AIC), o modelo mais adequado foi um ARIMA (1,1,2), onde a capacidade de previsão foi satisfatória. Conclusões: O conjunto de dados nos mostrou-se adéqua pelo modelo ARIMA (1,1,2) sendo o modelo utilizado para realizar as possíveis previsões de produção de gás natural. A capacidade de previsão é satisfatória, onde a produção do gás cresce em torno de uma média de 25%. Este trabalho tem bastante importância para o Estado do Amazonas, onde algumas empresas do Pólo Industrial de Manaus (PIM) estão se beneficiando gerando uma economia para elas de 20% a 40% nos custos de geração de energia calorífica.

Palavras-Chave: Gás Natural; Estacionaridade; Modelo ARIMA; Título: Análise generalizada da lacunaridade do regime pluviométrico de Piracicaba - SP Autores: André Luiz Pinto dos Santos; Guilherme Rocha Moreira

Page 134: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

134

Resumo: A lacunaridade é uma medida que estima a distribuição do tamanho de lacunas dentro de um conjunto de dados. Neste trabalho, o objetivo foi utilizar o conceito de lacunaridade para observar mudanças entre os seguimentos com relação à homogeneidade da série temporal do regime pluviométrico do município de Piracicaba - SP, no período compreendido entre janeiro de 1982 a dezembro de 2011. Para isso, foram utilizados 11.330 observações diárias de precipitações, divididos em seis seguimentos. Depois de 2002, o valor da lacunaridade aumenta e depois de 1997 o valor da lacunaridade generalizada (para q = 2) também aumenta indicando uma maior heterogeneidade de períodos de seca e a mudança de regime pluviométrico na região. Palavras-Chave: Lacunaridade; precipitação pluvial; estimativas.

Título: Análise temporal do consumo de energia elétrica residencial no Brasil no período de 2002 a 2013

Autores: Anna Beatriz Adum de Paiva; Luiz Eduardo da Silva Gomes; Resumo: Foi feita uma análise temporal da série mensal do consumo de energia elétrica residencial no Brasil no período de janeiro de 2002 à junho de 2013. Buscamos dois modelos de estimação para a série, o primeiro utilizando a metodologia Box & Jenkins e o segundo utilizando a suavização exponencial de Holt-Winters, comparando seus valores estimados e suas previsões futuras com os valores reais. Palavras-Chave: Energia elétrica; Box & Jenkins; Holt-Winters; Título: Coeficiente de correlação cruzada: Uma aplicação nas séries temporais dos homicídios dolosos e homicídios tentados de Salvador-BA Autores: Aloísio Machado da Silva Filho; Gilney Figueira Zebende; Marcus Fernandes da Silva; Magali Teresopolis Reis Amaral; Resumo: Em decorrência da tendência de crescimento da criminalidade e complexidade na sua manifestação, principalmente, nos grandes centros urbanos é necessário um planejamento com alicerce científico. Este artigo tem como objetivo geral estudar correção cruzada nos dados dos homicídios dolosos e homicídios tentados de Salvador-BA no período de 2004 a 2011, tendo como métodos o DCCA e o expoente de correlação cruzada. Com esse objetivo conseguimos aqui identificar correlação cruzada persistente positiva e componente sazonais nas séries históricas dos homicídios dolosos e homicídios tentados. Palavras-Chave: Correlação cruzada; Séries temporais; Homicídios; Título: Combinação de modelos de previsões de séries temporais via cópula: análise comparativa entre estimadores combinados

Autores: Thaíze Fernandes Oliveira de Assis; Ricardo Tavares Antunes de Oliveira; Paulo Renato Alves Firmino; Tiago Alessandro Espínola Ferreira

Resumo: Estudos sobre incerteza de modelos têm estado na vanguarda da modelagem de séries temporais. Diante de tal incerteza, pesquisadores têm sido desafiados a combinar diversos modelos ajustados a uma mesma série com o intuito de promover previsões agregadas. O presente trabalho apresenta uma análise comparativa entre as previsões agregadas ou estimadores combinados denominados: estimador combinado

Page 135: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

135

Correto (de Cópula), Clássico e Simple Average (SA) construídos levando em consideração várias séries temporais e inúmeros modelos de previsão envolvendo simulações diversas. Especificamente, as distribuições marginais dos erros de previsão de dois modelos são utilizadas para fazer agregação usando a cópula Normal e a cópula de Gumbel. Neste sentido, o estimador combinado Correto é construído levando em consideração qual a distribuição dos erros cometidos pelos modelos, e qual a cópula que respectivamente gerou os erros dos modelos. Enquanto o estimador combinado Clássico é construído assumindo que a estrutura de dependência entre os modelos segue uma normal, assim como, considera-se que os resíduos são normalmente distribuídos. Além disso, será avaliado o desempenho do SA com os estimadores combinados Correto e Clássico. Evidencia-se a partir do estudo, a utilidade do estimador combinado construído via cópula; a robustez do modelo Clássico e a superioridade do modelo Correto e Clássico em relação ao método SA.

Palavras-Chave: Incerteza de Modelos; Cópulas; Estimador Combinado.

Título: Detecção de hot spots futuros de casos de dengue em Minas Gerais Autores: Thiago Rezende dos Santos; Ricardo Tavares Resumo: Este artigo apresenta uma maneira para identificar e detectar hot spots futuros de casos de dengue em Minas Gerais, bem como mapas de risco futuro podem ser construídos através das previsões para as notificações futuras de casos de Dengue. Além disso, é possível estudar e aprender mais sobre a interação entre espaço e tempo dos hot spots. Um monitoramento da dinâmica espacial dessas áreas é realizado com base nas previsões do número de casos de dengue obtidas por modelos de séries temporais (modelos de alisamento exponencial). Se os casos estão distribuídos de forma aleatória ou se existe algumas áreas com quantidade discrepante de casos em relação as demais podem ser avaliados através da estatística Scan espacial de Kulldorff. As previsões são próximas dos dados reais quando avaliamo-nas para os municípios. Baseado na previsão da incidência de dengue para o ano de 2009 para cada município, considerando os dados de Dengue entre 2001 e 2008 em MG/Brasil, mapas de risco são construídos e clusters primários são identificados via a estatística Scan. Os resultados são comparados com os dados reais em 2009 e são muito satisfatórios, fornecendo uma boa estimativa (aproximação). Agradecemos à FAPEMIG pelo suporte financeiro. Palavras-Chave: Incidência de Dengue; Séries Temporais; Modelos de Holt-Winters; Estatística Scan Espacial; Clusters; Título: EXPECTATIVAS ACERCA DA ARRECADAÇÃO DE ICMS NO ESTADO DO RIO GRANDE DO NORTE

Autores: Kéren Hapuque Pessoa Da Costa; Luiz Carlos Santos Junior. Resumo: O Governo, como agente interventor, define através da política econômica tributária como serão cobrados os tributos dos cidadãos e organizações e assim gerar sua própria receita. Dentre os tributos cobrados na esfera estadual tem-se o Imposto sobre Circulação de Mercadorias e Prestação de Serviços (ICMS), considerado a maior fonte de arrecadação de um governo estadual. Diante da importância deste imposto, considera-se fundamental o conhecimento acerca dessa variável por parte dos estados, para que se possa planejar com mais eficiência seus fluxos de caixa orçamentários (tributos menos gastos do governo). Dentro desse contexto, o presente trabalho tem por objetivo estimar os valores de arrecadação do ICMS no Estado Rio Grande do Norte para os anos de 2013 e 2014. Para tanto, realizou-se uma previsão a partir da metodologia matemática

Page 136: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

136

Holt-Winters, uma vez que a literatura aponta que este modelo é o que melhor se adequa à série que apresenta forte tendência e pouca sazonalidade. Os resultados do trabalho, no âmbito descritivo, apontam oscilação na arrecadação de ICMS em virtude dos períodos natalinos (decorrente de grande aumento em compras e vendas, influenciando diretamente nos valores totais arrecadados) enquanto que, no âmbito da modelagem, a previsão de ICMS arrecado pelo estado do RN foi considerada significativa, dada a pequena diferença entre os valores observados e estimados (em 2013, a média desta diferença foi de -2,15%, oscilando ao longo do ano, e chegando em alguns meses a apenas 0,39%). Por fim, sugere-se a elaboração da previsão do ICMS arrecadado segundo a abordagem de outros modelos, para comparação de melhor ajuste para a variável estudada, bem como uma extensão do Método Holt-Winters para prever outras variáveis de arrecadação do estado do RN. Palavras-Chave: Previsão ; Holt-Winters; ICMS arrecadado no RN.

Título: Estimação do impacto do fenômeno El Niño/La Niña na intensidade dos ventos do Nordeste Brasileiro Autores: Carolina Nascimento Nogueira Lima; Cristiano Augusto Coelho Fernandes; Gutemberg Borges França; Gilson Gonçalves de Matos. Resumo: A energia eólica é hoje uma das mais promissoras fontes de energia do mundo por ser limpa e abundante. O estudo de fenômenos que estão relacionados com alterações na circulação atmosférica, como o El Niño, são de extrema importância pela possibilidade de afetar a geração eólica. A fim de explorar o possível efeito de tais fenômenos nos ventos da região Nordeste do Brasil, é realizada uma análise estatística para a quantificação desse efeito através do modelo Generalized Autoregressive Score (GAS). Este permite a modelagem de séries temporais para diferentes distribuições de probabilidade. Nesse estudo, o modelo GAS é aplicado às séries de velocidade do vento a partir da distribuição Gama. Os resultados do modelo mostraram que o El Niño possui influência no comportamento do vento, ainda que esta seja pequena em magnitude. Palavras-Chave: Energia Eólica; El Niño/La Ninã; Modelos GAS; Vento; Título: Medidas de dissimilaridade para o método de classificação de séries temporais baseado em U-estatísticas Autores: Augusto Marcolin; Marcio Valk Resumo: O método de classificação e agrupamento de séries temporais baseado em U-estatísticas tem como característica a dependência de uma medida de dissimilaridade entre séries temporais. Essas medidas são utilizadas como núcleo das U-estatísticas e suas características influenciam diretamente no comportamento da estatística de teste. Na literatura, existem uma grande variedade dessas medidas e o objetivo deste trabalho é realizar um estudo comparativo, através de simulações de monte carlo, para identificar qual medida é mais adequada para o método, considerando-se diferentes tipos de processos estacionários na configuração dos grupos. Palavras-Chave: Séries temporais; Classificação; U-estatística; Título: Modelagem de Box-Jenkins e Alisamento Exponencial de Holt aplicados à série de consumo de gasolina no Brasil no período de 1907 a 2007 Autores: Leonardo de Sousa Paiva; Alexandre Henrique Quadros Gramosa Resumo: Neste trabalho analisamos a série temporal do consumo de gasolina no Brasil

Page 137: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

137

no período de 1907 a 2007, utilizando a metodologia Box-Jenkins e Suavização Exponencial de Holt - SEH. Os dados usados na análise são de 1907 à 2001, os demais foram usados para avaliar a qualidade de previsão dos modelos ajustados. Usamos o Erro Quadrático Médio (EQM) e o Erro Absoluto Percentual Médio (MAPE), para comparar a qualidade do ajuste dos modelos. Palavras-Chave: ARIMA; alisamento exponencial de Holt; EQM; MAPE; Título: Modelagem de séries temporais de consumo de energia elétrica da Universidade Federal de Lavras, correspondentes ao período de 1995 a 2013 Autores: Jair Rocha do Prado; Thelma Sáfadi; Joaquim Paulo da Silva Resumo: A Universidade Federal de Lavras (UFLA), assim como a maioria das universidades no Brasil, passa nos últimos anos por um constante crescimento. Assim, estudos relacionados a séries de consumo de energia elétrica da universidade são importantes. O objetivo deste trabalho é fazer uma análise descritiva e modelar as séries de consumo de energia elétrica em horários de ponta e fora de ponta na UFLA. Os modelos utilizados para modelar as séries foram os de Box e Jenkins. As séries históricas são mensais e compreendem o período de janeiro de 1995 a dezembro de 2013. Os dados de 1995 a 2012 foram considerados para efeito de ajuste de modelos e os dados do ano de 2013 foram utilizados para se selecionar o melhor modelo considerando o menor erro quadrático médio de previsão. Foram realizadas previsões para o ano de 2014 por meio de estimativas pontuais e intervalos de confiança, com o intuito de contribuir com os administradores da universidade nas futuras decisões. Os modelos obtidos para as séries de consumo de energia elétrica proporcionaram resultados satisfatórios considerando a finalidade de previsão. Palavras-Chave: Tendência ; Sazonalidade; Modelos de Box e Jenkins; Consumo de energia elétrica; Previsão.

Título: Modelagem e previsão do índice geral de preços de mercado Autores: Felipe Rodrigues da Silva; Marcelo Bourguignon Pereira Resumo: A relevância de estudar a variação dos preços no contexto de uma economia emergente, com séries temporais, é um grande desafio. Esse desafio torna-se maior no contexto de uma economia cujas características mudam significativamente em curtos intervalos de tempo. Este trabalho teve como objetivo obter um modelo utilizando séries temporais para ajustar e prever o índice geral de preços de mercado (IGP-M) no Brasil, utilizando dados de Setembro de 1994 à Agosto de 2013. Para tanto, empregamos o algoritmo de alisamento exponencial simples de Holt-Winters e a metodologia de Box-Jenkins. Os modelos de previsão foram comparados e avaliados. E por fim, verificamos que o modelo autorregressivo de ordem p=1 apresenta a melhor capacidade preditiva dentre todos os modelos considerados. Palavras-Chave: Séries temporais; Inflação; IGP-M; Plano real; Título: Modelando a Volatilidade da série de retornos das Ações do Banco do Brasil (BBAS3) via modelos ARMA-GARCH

Autores: Eduardo Campana BARBOSA; Thelma SÁFADI; Carlos Henrique Osório SILVA; Rômulo César MANULI

Resumo: Neste trabalho utilizou-se um modelo combinado ARMA-GARCH para estudar a

Page 138: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

138

volatilidade da série de retornos financeiros das ações BBAS3 do Banco do Brasil. A seleção dos modelos ocorreu por meio do Critério de Informação de Akaike (AIC) e pelo teste Ljung-Box para resíduos. O ARMA(2,1) foi selecionado para remover a autocorrelação da série de retornos e então ajustou-se um GARCH(1,1) à seus resíduos para modelar a variância, visto que tal série apresentou heterocedasticidade condicional. Como a distribuição dos retornos apresentava caldas mais densas que a normal (curtose > 3), considerou-se a distribuição do termo aleatório uma t-Student com 5 graus de liberdade. O momento de maior variabilidade dos retornos pode ser explicado pela crise econômica de 2008, iniciada nos Estados Unidos. Palavras-Chave: Retornos; Volatilidade; ARMA; GARCH.

Título: Modelo GARCH COM MUDANÇA DE REGIME MARKOVIANO PARA SÉRIES FINANCEIRAS Autores: WILLIAM GONZALO ROJAS DURÁN; AIRLANE PEREIRA ALENCAR Resumo: Neste trabalho analisaremos a utilização dos modelos de mudança de regime Markoviano para a variância condicional. Estes modelos podem estimar de maneira fácil e inteligente a variância condicional não observada em função da variância anterior e do regime. Utilizamos a série do índice Bovespa entre janeiro de 2003 e abril de 2012 e ajustamos o modelo GARCH(1,1) com mudança de regime seguindo uma cadeia de Markov de primeira ordem, considerando dois regimes. Palavras-Chave: Mudança de Regime Markoviano ; Volatilidade; modelos GARCH; Título: Modelos Gaussianos e lineares generalizados estendidos para previsão de demanda da quantidade de chamadas em centrais de teleatendimento: um estudo de caso Autores: Claudio Lopes; Marcelo Azevedo; Ela Toscano Resumo: O objetivo deste artigo é apresentar e comparar modelos Gaussianos, modelos lineares generalizados e modelos GARMA para a previsão da demanda de quantidade de chamadas recebidas em centrais de teleatendimento. O artigo avalia o uso de modelos lineares generalizados e suas extensões que visam tratar a auto-correlação existente nas series temporais. Um estudo de caso é utilizado para exemplificar a utilização dos modelos propostos, assim como apresentar o modelo GARMA como o melhor candidato em previsão para o estudo de caso. Palavras-Chave: Series temporais; Modelos lineares generalizados; Modelos GARMA; Previsão de demanda; Centrais de teleatendimento; Título: Previsão da produção anual de arroz e feijão no Brasil usando séries temporais Autores: Mirian Fernandes Carvalho Araújo; Valiana Alves Teodoro; Rick Anderson F. Mangueira; Walter Mesquita Filho; Vitor Augusto Ozaki Resumo: O agronegócio brasileiro responde atualmente por cerca de 25% do PIB nacional, gerando 35 milhões de empregos (MAPA, 2013). A produção de grãos é um dos componentes mais importantes deste sistema devido ao constante crescimento da produção de seus diferentes produtos na última década (CONAB, 2013). Utilizou-se o conjunto de dados anuais referente a duas series univariadas, representada por produção de arroz e feijão do Brasil entre os anos agrícolas de 1976/1977 a 2012/2013 (Conab). Para ajustar modelos a uma série temporal observada é necessário remover as fontes de variação não estacionaria. Se a série observada for não estacionaria pode-se tentar

Page 139: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

139

remover a tendência fazendo uma transformação, que consiste em tomar diferenças sucessivas da série original, até obter uma série estacionaria. Este modelo é conhecido por Auto-regressivo integrado de media móvel (ARIMA). Para determinar a ordem adequada de um modelo é recomendado utilizar as funções de autocorrelação (ACF) e função autocorrelação parcial (PACF). Comparou-se diversos modelos da classe ARIMA e identificou um modelo de previsão para os próximos 5 anos de produção anual de arroz e feijão do Brasil. E, posteriormente, comparou esta previsão com as previsões da Conab, e assim escolheu-se um modelo que melhor se aproximou destas previsões. Com base nos valores de U-Theil sugere-se o modelo ARIMA(0;1;1)para a série de produção de arroz e o modelo ARIMA(2;1;0) para a série de produção de feijão. Os modelos ajustados para previsão da produção anual de arroz e feijão foram do tipo ARIMA e apresentaram resultados semelhantes aqueles previstos pela Conab. Palavras-Chave: Agronegócio brasileiro; modelo ARIMA; coeficiente U de Theil; Título: Previsão para a Exportação do Algodão Brasileiro: Uma Comparação entre Modelos de Séries Temporais

Autores: Débora Spenassato; Antonio Cezar Bornia; Andréa Cristina Konrath; Rafael Tezza Resumo: Nos últimos anos, o Brasil tem se destacado entre os cinco maiores exportadores no setor da cotonicultura, influenciando na economia nacional. Neste contexto, o presente estudo tem por objetivo realizar previsões para a exportação do algodão brasileiro para um horizonte de 12 meses. Para isso, compararam-se os modelos ingênuo, suavização exponencial e SARIMA, cujos resultados demonstraram que o modelo SARIMA é o mais adequado para gerar as previsões utilizando os critérios de informação de Akaike (AIC) e U de Theil. O modelo que se adequou melhor aos dados obteve um erro percentual absoluto médio (MAPE) de 3,44%. Os intervalos de predição calculados mostram o risco associado às estimativas, os quais devem ser considerados pelos tomadores de decisão. Assim, pode-se concluir que as previsões são muito úteis para auxiliar no planejamento eficaz e eficiente para a tomada de decisões. Palavras-Chave: Exportação; Algodão brasileiro; Modelos de Previsão; Título: Projeto de filtros para ajuste sazonal robustos a variações na sazonalidade Autores: Marcela Cohen Martelotte; Reinaldo Castro Souza1; Eduardo Antônio Barros Silva Resumo: Os métodos automáticos de dessazonalização são utilizados na maioria dos países para o ajuste sazonal das séries macroeconômicas. Atualmente, o método utilizado pelo IBGE, e um dos métodos mais utilizados no mundo, é o X-11, implementado nos programas da chamada ‘Família X’, na qual o programa mais atual é o X-13ARIMA-SEATS. Tal método pressupõe que o padrão sazonal não se altera com o tempo. Porém, embora esta seja uma suposição razoável, existem muitos casos em que há mudanças graduais na amplitude da componente sazonal, caracterizando a presença de sazonalidade móvel. Para verificar a existência de sazonalidade móvel nas séries temporais macroeconômicas brasileiras, foram pesquisadas 78 séries e os testes identificaram sazonalidade móvel em 40% delas. Dessa forma, é importante haver um método que apresente bom desempenho quando aplicado a dados com essa característica. Sendo assim, este artigo propõe um filtro de ajuste sazonal, projetado no domínio da frequência, adequado tanto para as séries com sazonalidade móvel quanto para as demais. O desempenho do filtro proposto foi avaliado através da utilização de séries temporais simuladas com padrões sazonais baseados nas séries reais. Os

Page 140: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

140

resultados das simulações indicaram as situações nas quais o filtro proposto apresenta um desempenho superior ao do método X-11. Palavras-Chave: Sazonalidade; Sazonalidade móvel; Filtro linear; Título: Séries Temporais de Dados de Composição Provenientes de Pesquisas Amostrais Autores: Eduardo Santiago Rosseti; Denise Britz do Nascimento Silva Resumo: Várias das séries temporais utilizadas por diversos setores da sociedade, como fonte de informação para o conhecimento da realidade ou como base de dados para pesquisa científica, são provenientes de pesquisas repetidas no tempo. No caso de pesquisas por mostragem probabilística, deve-se considerar o efeito que o desenho amostral da pesquisa exerce sobre a série observada, infuenciando diretamente a autocorrelação da série e, consequentemente, o modelo a ser utilizado. Neste trabalho são apresentados modelos multivariados sob a abordagem de extração de sinal na presença de erro amostral para séries que são resultantes de variáveis cujas respostas seguem distribuição multinomial. Os modelos permitemdecompor os efeitos do plano amostral da pesquisa na produção de estimativas de tendência e sazonalidade do sinal associado ao verdadeiro valor populacional. Os dados composicionais utilizados correspondem à situação ocupacional de indivíduos investigada pela Pesquisa Mensal de Emprego do IBGE no período de março de 2002 até dezembro de 2012. Através de modelos estruturais propostos para a série de composição formada proporção de pessoas ocupadas, proporção de pessoas desocupadas e proporção de pessoas fora da força de trabalho são obtidas resultados para a série da taxa de desocupação. Palavras-Chave: Séries de Composição; Pesquisas Repetidas; Erro Amostral; Título: The Copula Opinion Pooling through a Copula-APARCH: An Empirical Application Autores: Fernando Augusto Boeira Sabino da Silva Resumo: The main goal of this work is to introduce the copula opinion pooling (COP) approach. In the first part we combine several techniques used widespread in financial econometrics literature. The temporal dependence of each margin is estimated using an ARMA-APARCH structure. As an application of the methodology, Expected Shortfall for a one day forecast horizon is estimated for the portfolio considered. In the last part a brief simulation is performed using the COP procedure to estimate posterior distributions. Palavras-Chave: Copula Opinion Pooling; Copula-APARCH; Copulas; Título: Time series analysis on the weekday bus ridership in Iowa city from September 1971 to December 1982

Autores: Caroline Tenório Mendes de Aquino; Fumie Kawasaki Resumo: Monthly data of weekday bus ridership in Iowa City from September, 1971 to December, 1982 is analyzed. The data consists of 136 complete observations, obtained from the Data Market website. According to ''Sperling’s Best Places webpage'', Iowa City resembles Ann Arbor (where the University of Michigan - Ann Arbor is located). They are both college towns and 21 to 34-year-olds share about 38% and 41% of the population in Ann Arbor and Iowa City, respectively. Analyzing this time series, it will be possible to gain some insight into the seasonal and trend patterns of demand for the public transportation, the result of which may be applicable to Ann Arbor. It was found that the series has trend and seasonality. The forecast accuracy was studied using linear model and Holt-Winters additive method. Analyzing the forecast accuracy, the Holt-Winters additive method had a better performance than the linear model with trend and seasonality.

Page 141: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

141

Palavras-Chave: Bus Ridership; Holt-Winters Method; Linear Model.

Título: Transformed ARMA with t-student Distribution Autores: Breno Silveira de Andrade; Carlos Alberto Ribeiro Diniz ; Marinho G. Andrade Resumo: A parametric power transformation technique was proposed by Box and Cox (1964) in order to reduce anomalies such as non-symmetry, non-normality and heteroscedasticity. Sakia (1992) proposed other transformations witch have the same aim. In this work, the ARMA models with t-student distribution was used considering that the transformed data has heavier tails than the Gaussian distribution. A simulation study was carried out to observe the influence of choosing the transformed parameter in the model fit. A analysis of a data set from a river flow series is performed. Palavras-Chave: Box-Cox power transformation; Family of transformations; Generalized ARMA model; Generalized linear model; Profile likelihood; Título: Transmissão de preços no mercado de etanol no NE: uma análise do período de 2003 a 2013

Autores: Patricia Soares de Araújo Carvalho; Bruno Ferreira Frascaroli; Murilo Massaru da Silva

Resumo: O presente estudo tem por objetivo analisar a transmissão de preço do etanol anidro e hidratado considerando a existência de custos de transação. Para alcançar este objetivo utilizou-se uma série de preços do etanol anidro e hidratado nos estados de Alagoas e Pernambuco, no período de janeiro de 2003 até dezembro de 2013. A transmissão de preços no mercado do etanol para os estados analisados foi estimada utilizando-se o modelo SETAR (Self-Exciting Threshold Autoregressive) desenvolvido por Tong e Lim e o modelo TVEC (Threshold Error Correction Model). Palavras-Chave: Mercado de Etanol; Custos de transação; Transmissão de Preços; Modelos Threshold; Título: Um estudo do Índice Pluviométrico no município de Flores – PE com uso de séries temporais Autores: Larissa Ribeiro de Andrade; Danielle Gonçalves de Oliveira Prado; Victor Moreira Gonçalves; Rodrigo de Andrade Ferrazza; Juscelia Dias Mendonça Resumo: Fenômenos climáticos como a seca ocorrem periodicamente por toda Terra. O déficit recorrente e prolongado de água tem provocado impactos negativos na economia mundial, refletindo diretamente na qualidade de vida da população. Esse quadro de escassez poderia ser modificado em determinadas regiões, através de uma gestão integrada dos recursos hídricos superficiais e subterrâneos. No entanto, a carência de estudos fundamentais para a avaliação da ocorrência e da potencialidade desses recursos, reduz substancialmente as possibilidades de seu manejo, inviabilizando uma gestão eficiente. Como a seca é um fenômeno causado pela insuficiência de precipitação pluviométrica, o estudo do índice pluviométrico torna-se essencial na tentativa de reduzir os impactos deste fenômeno em determinada região, através de previsões. Uma das regiões brasileiras que sofre com a estiagem é o município de Flores-PE. Com o objetivo de ilustrar o método de análise de séries temporais nesse caso, utilizaremos um conjunto de dados do índice pluviométrico mensais neste município. O primeiro objetivo em uma análise de séries temporais é realizar inferências sobre as propriedades ou características básicas do mecanismo gerador do processo estocástico das observações da série

Page 142: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

142

(Newbold, 1977). Basta, então, que as regularidades contidas nos fenômenos observáveis na série temporal em estudo sejam estabelecidas e, dessa forma, é possível que se construa um modelo matemático representando de forma simplificada a realidade. Para prever valores futuros da série temporal é realizada uma seleção de modelos matemáticos apropriados para essa representação e em seguida seus parâmetros são estimados. O objetivo principal desse trabalho é verificar a relação entre os meses do ano e os períodos marcados pela presença de chuvas, com o intuito de amenizar o entrave ao desenvolvimento socioeconômico e, até mesmo, à subsistência da população da cidade de Flores – PE. Para isso será utilizado técnicas de séries temporais. Palavras-Chave: Seca; Previsão; SARIMA.

Page 143: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

143

Sessão: Teoria da Resposta ao Item

Título: A INFLUÊNCIA DO ITEM “NÃO SE APLICA” NA ESTIMAÇÃO DO GRAU DE MATURIDADE DE EMPRESAS QUANTO ÀS TECNOLOGIAS DE GESTÃO ATRAVÉS DA TRI Autores: Camila Raquel Câmara Lima; Silvia Maria de Freitas; João Welliandre Carneiro Alexandre; Marcos Ronaldo Albertin

Resumo: Com a atual competitividade as empresas procuram uma constante atualização de suas tecnologias, modelos de organização e gestão, dentre outros. Para o bom desempenho das atividades logísticas de uma organização é preciso avaliar o desempenho da mesma no mercado e uma das possibilidades de avaliação de desempenho logístico é o benchmarking. O Sistema de Monitoramento de Arranjos Produtivos (SIMAP), que tem como finalidade o atual benchmarking competitivo, possui uma base de dados de empresas em relação às ferramentas de gestão aplicadas em cada uma delas. Sempre que questionários são utilizados para recolher dados é improvável que todos os entrevistados respondem a todos os itens. Neste estudo, devido a diversidade dos elos e cadeias produtivas das empresas, estes itens sem resposta foram considerados como itens “não aplicáveis”. O presente estudo procurou avaliar a influência do item “não aplicável” na estimação do grau de maturidade das empresas cadastrados no SIMAP. Os dados utilizados no trabalho são provenientes de 46 itens avaliados em 238 empresas. Os dados foram analisados através da Teoria de Resposta ao Item, particularmente o Modelo de Escala Gradual. Foram utilizadas cinco abordagens práticas para avaliar o efeito desse tipo de item na estimação do grau de maturidade das empresas. Os resultados revelados no estudo apresentaram indicativo de que a retirada de itens considerados “não aplicáveis” está associada à perda de eficiência das estimativas. Palavras-Chave: TRI; Itens não aplicáveis; Tecnologias de Gestão; Modelo de Escala Gradual; SIMAP

Título: AJUSTE DE UM MODELO UNIDIMENSIONAL DA TEORIA DA RESPOSTA AO ITEM ÀS PROVAS DE UM CONCURSO VESTIBULAR

Autores: Fernando de Jesus Moreira Junior; Lais Helen Loose; Rafael Tezza

Resumo: O objetivo principal desse trabalho foi verificar a possibilidade de ajustar um Modelo Logístico Unidimensional da TRI aos dados do Processo Seletivo Único (PSU) da Universidade Federal de Santa Maria (UFSM). A análise por meio da TRI mostrou que a grande maioria dos 127 itens se ajustou de forma adequada com o ML2. Não foi possível afirmar que os itens que se mostraram inadequados, segundo esse modelo, tiveram esse desempenho por medirem um outro traço latente relacionado com as matérias, uma vez que todas as matérias apresentaram pelo menos um item com ajuste inadequado. Verificou-se também se os itens do PSU, relacionados aos anos mais avançados do Ensino Médio, eram mais difíceis do que os itens dos anos iniciais. Os resultados mostraram que as provas com questões relativas ao Primeiro e ao Segundo ano do Ensino Médio possuíam praticamente o mesmo nível de dificuldade médio, e a prova com questões relativas ao Terceiro ano possuía um nível de dificuldade médio quase meio desvio padrão abaixo das provas do Primeiro e do Segundo ano. Palavras-Chave: Modelos Unidimensionais da TRI; Concurso Vestibular; Modelo Logístico de Dois Parâmetros

Page 144: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

144

Título: AVALIANDO A EFICIÊNCIA DOS MUNICÍPIOS BRASILEIROS NA GESTÃO DE PROGRAMAS E AÇÕES HABITACIONAIS

Autores: Héliton Ribeiro Tavares; Maria Regina Madruga; Taís Medeiros Silva; Tayani Raiana de Souza Roque; Tarcísio da Costa Lobato

Resumo: Neste trabalho foi utilizado um modelo logístico de dois parâmetros da TRI para estimar um indicador de eficiência na gestão municipal habitacional (IEGMH) para os municípios brasileiros. Os itens considerados no modelo foram obtidos da Pesquisa de Informações Básicas Municipais do ano de 2011 do IBGE, relacionados ao planejamento de ações voltadas pra a gestão habitacional. O município com maior indicador de eficiência fica na região nordeste, e é o município baiano de Santo Antônio de Jesus. Entre os 20 municípios mais eficientes na gestão habitacional, tem-se apenas 4 capitais: Teresina (9a posição), Belo Horizonte (14a posição), Vitória (15a posição) e Fortaleza (20a posição). A maioria dos municípios não tem ações para regularização fundiária e melhoria de Unidades Habitacionais (UH) em convênio com o Governo Estadual, e tem poucas ações para beneficiamento de área rural. Os itens que apresentaram maior poder de discriminação estão relacionados à existência e detalhamento de cadastro com informações de famílias interessadas em programas habitacionais. Palavras-Chave: indicador de eficiência; gestão habitacional; teoria da resposta ao item. Título: Análise de pesquisas na área de testes adaptativos computadorizados multidimensionais Autores: Débora Spenassato, Rafael Tezza, Antonio Cezar Bornia, Andréa Cristina Trierweiller Resumo: O formato tradicional de aplicação de testes para mensuração de um traço latente é por meio de “papel e lápis”. Com o avanço dos recursos tecnológicos, os testes computadorizados acabaram se destacando e ganhando adeptos no mundo todo pela sua praticidade. A união deste recurso com a Teoria da Resposta ao Item (TRI) fornece uma nova forma de aplicação de testes chamados Testes Adaptativos Computadorizados (CAT), que possuem muitas vantagens em relação aos testes tradicionais, melhorando a precisão e reduzindo o número de itens apresentado aos respondentes. Muitos traços latentes, sujeitos à investigação, tem características multidimensionais e se torna importante a avaliação dos instrumentos de forma correta para se ter um teste adequado para mensuração. Portanto, o objetivo deste artigo é realizar uma bibliometria sobre o tema TRI e CAT multidimensionais para mostrar ao leitor um panorama das pesquisas sobre o tema, buscando identificar algumas características relacionadas aos 18 artigos selecionados para análise.

Palavras-Chave: Testes adaptativos computadorizados; Teoria da Resposta ao Item; Modelos multidimensionais; Bibliometria

Título: Criação de uma Escala para Medir Satisfação de Funcionários de Hospitais Públicos no Brasil

Autores: Adriano Ferreti Borgatto; Diego Eller Gomes

Resumo: O presente trabalho apresenta a criação de uma escala para medir a satisfação de funcionários de hospitais públicos por meio da TRI, aplicado em funcionários do hospital universitário da UFSC. Os itens deste instrumento têm 5 categorias de respostas ordinais e, portanto, o modelo de escala gradual de Samejima foi aplicado para a interpretação da escala. Os dados se ajustaram bem ao modelo e a interpretação da

Page 145: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

145

escala foi rica, principalmente para profissionais com traço latente acima do nível 30 da escala. Palavras-Chave: modelo de escala gradual; hospitais públicos; teoria da resposta ao item. Título: ESCALA PARA AVALIAR A ACESSIBILIDADE NAS ESCOLAS DE EDUCAÇÃO BÁSICA. Autores: Denys Cristiano de Oliveira Machado; Pedro Alberto Barbetta; Heliton Ribeiro Tavares Resumo: Grande parcela da população brasileira apresenta algum tipo de restrição de mobilidade segundo censo demográfico realizado pelo IBGE, tendo as escolas brasileiras de educação básica que estar preparadas para garantir igualdade de atendimento a esse público. Valendo-se dos dados do Saeb 2011 e de modelagem estatística empregando a TRI, construiu-se uma escala para avaliar a acessibilidade das escolas públicas brasileiras com turmas do quinto ano e traçar um panorama dos recursos disponíveis em suas estruturas para o atendimento das pessoas com restrição de mobilidade, por unidades da federação.

Palavras-Chave: Acessibilidade; Educação básica; Teoria de resposta ao item. Título: Multidimensional Item Response Theory models with multivariate skew normal latent trait distributions under the centered parameterization: bayesian parameter estimation, structural selection and model fit assessment

Autores: Juan L. G. Padilla; Caio L. N. Azevedo; Victor H. Lachos

Resumo: Item response theory (IRT) models are one of the most important psychometric tools for data analysis. Their applicability range from educational assessment to bilogical essays. The IRT models combine, at least, two sets of unknown quantities: the latent traits (person parameters) and item parameters (related to measurement instruments of interest). The multidimensional IRT (MIRT) models are quite usuefull to analyze data sets involving multiple skills or latent traits which are the case in many of the applications. However, the most of the works available in the literature consider the usual assumption of multivariate (symmetric) normal distribution to model the latent traits, do not handle with the multiple groups framework (few groups with a lot of subjects in each one), do not consider or consider a limited number of model fit assessment tools, do not investigate measurement instrument dimensionality in a detailed way and handle with the model nonidentifiability in a non trivial way. In this work we propose a MIRT multiple group model with multivariate skew normal distributions for model the latent trait of each group under the centered parameterization presenting simple conditions for the model identification. A full Bayesian approach for parameter estimation, structural selection (model comparison and determination of the measurement instrument dimensionality) and model fit assessment is developed through MCMC algorithms. The developed tools are illustrated throug the analysis of a real data set related to 2013 first stage of the University of Campinas admission exam.

Palavras-Chave: Item response theory; Multidimensional models; Multivariate skew normal distribution.

Page 146: Associação Brasileira de Estatística 21º SINAPE - Simpósio ...abe/sinape2014/webroot/files/Resumos... · 2 se conhece sobre a interação dessas plantas transgênicas com as

146

Título: O modelo Beta para resposta contínua limitada em TRI

Autores: COSTA, Reginaldo Pereira; TAVARES, Héliton Ribeiro

Resumo: O objetivo deste estudo foi determinar a modelagem de dados de imagens através da TRI aplicando o Método da Máxima Verossimilhança Marginal (MVM), ainda não disponíveis na literatura. Imagens computacionais geralmente geram grandes bases de dados e a TRI tem surgido como boa possibilidade de solução para vários casos em que o tratamento atual é bastante demorado. Desta forma se propôs um processo de estimação de parâmetros do modelo e foi apresentado resultados de simulação, juntamente com um algoritmo implementado na linguagem de programação MATLAB. Conclui-se que há uma perspectiva de alta eficiência do modelo na detecção de regiões de atividade cerebral através do imagiamento funcional por ressonância magnética – fMRI. Palavras-Chave: Teoria da Resposta ao Item; Distribuição Beta; Máxima Verossimilhança Marginal. Título: Perfil Socioeconômico X Desempenho dos candidatos no Processo Seletivo da UFPA 2013

Autores: Brunno Thadeu Tavares Bittencourt; Maria Regina Madruga; Heliton Ribeiro Tavares Resumo: Este trabalho teve por objetivo estimar um escore socioeconômico para os candidatos do Processo Seletivo da Universidade Federal do Pará do ano de 2013 (PS UFPA 2013), traçando um perfil dos candidatos segundo alguns fatores associados. Com base em um questionário de 26 itens relativos a aspectos socioeconômicos, elaborado pela UFPA e respondido por 9.649 candidatos à uma vaga de graduação na mesma no ano de 2013, foi utilizado um Modelo de Resposta Nominal da Teoria da Resposta ao Item para estimar o escore socioecon mico. Os itens relativos à “renda familiar”, “acesso a microcomputador” e “acesso à internet” foram os que apresentaram maior contribuição para a estimação do nível socioeconômico. Observou-se que, considerando os cursos com pelo menos 50 respondentes do questionário, os cursos de Medicina – Integral e Engenharia Civil – Noturno apresentaram os candidatos com os maiores escores socioeconômicos, já os cursos de Pedagogia – Matutino e Noturno apresentaram os candidatos de menor escore socioeconômico. Observou-se, também, um melhor desempenho no PS UFPA 2013 entre os indivíduos do grupo com maior escore socioeconômico. Com base nos quartis foram construídos, em ordem crescente, os grupos sociais 1, 2, 3 e 4, que apresentaram percentuais de aprovação de 8,5 %, 10,6%, 11,6% e 13,3%, respectivamente. Para todos os grupos observou-se um melhor desempenho dos candidatos do sexo masculino e dos candidatos oriundos da zona urbana. Palavras-Chave: escore socioeconômico; modelo de resposta nominal; desempenho acadêmico.