Anais - 21º SINAPE - Simpósio Nacional de Probabilidade e Estatística - 2014

Calibração e Predição para Dados Obtidos por Espectroscopia no Infravermelho Próximo - Link direto para esse trabalho
Alex Rodrigo dos Santos Sousa; Prof. Dra. Nancy Lopes Garcia

O presente trabalho aborda o problema de calibração e predição de dados obtidos por espectroscopia no infravermelho próximo sob ponto de vista funcional, isto é, concentrações de analitos são estimadas através da suavização de curvas de absorbâncias de cada analito por B-splines. O modelo utilizado é baseado na lei de Beer-Lambert, importante em Quimiometria.
Palavras-Chave: Dados funcionais; Quimiometria; Lei de Beer-Lambert; Splines;


Practical aspects of the estimation of mixture model via Dirichlet Process - Link direto para esse trabalho
Rosineide Ferando da Paz; Luís Aparecido Milan

We review the Dirichlet process mixture model and investigate its performance as a classification method. The first aspect considered is its sensibility to the choice of location parameter of base distribution. The second aspect consider the performance of the model regarding the departure of the parameters of the component distributions. Simulation results with mixture of normal distributions indicate sensibility to location parameters choices and good performance even when component normal distributions differ only in variances. Finally, we apply the method to two data sets.
Palavras-Chave: Dirichlet process; Mixture model; Density estimation; Non-parametric Bayesian; Gibbs sampling;


(In)Segurança Alimentar no Estado do Pará: Uma Aplicação de Regressão Logística - Link direto para esse trabalho
Gustavo Souza da Costa Rocha; Marinalva Cardoso Maciel

Este trabalho tem como objetivo estudar os determinantes da insegurança alimentar no Estado do Pará via regressão logística binária. Para tanto, serão utilizados microdados da PNAD do Suplemento de Insegurança Alimentar do ano de 2009. Dentre os principais resultados, pode-se destacar que ainda continua preocupante os casos de insegurança alimentar grave no Estado do Pará, no ano de 2009. A análise de regressão logística permite explicar grande parte das variações observadas na probabilidade de insegurança alimentar e os resultados da modelagem mostraram que o Estado do Pará apresenta algumas peculiaridades quando comparada com a análise realizada para todo o Brasil e que o rendimento é um fator de suma importância na determinação da insegurança alimentar no Pará.
Palavras-Chave: Segurança Alimentar; Regressao Logística; Pará;


A importância da Educação Estatística em jovens e adultos - Link direto para esse trabalho
Antunes Mendes

Reconhecer a importância do ensino da Educação Estatística em Jovens e Adultos
Palavras-Chave: Educação; Estatística; Jovens e Adultos;


A Bayesian Approach for a New Long-Term Survival Models Underlying Di - Link direto para esse trabalho
Adriano K. Suzuki; Francisco Louzada; Vicente G. Cancho; Gladys D. C. Barriga

In this work we propose a new long-term survival model. We assume that the number of competing causes of the event of interest is assumed to follow a Logarithmic distribution. Our approach enables different underlying activation mechanisms which lead to the event of interest. The model is parametrized in terms of the cured fraction which is then linked to covariates. The proposed model allows for the presence of censored data and covariates. For inferential purpose a bayesian approach via Markov Chain Monte Carlo is considered. The newly developed procedures are illustrated on artificial and real data.
Palavras-Chave: Competing risks; Long-term aging models; Cure rate models; Cured fraction; Logarithmic distribution;


A COM-Poisson type generalization of the binomial distribution and its properties and applications - Link direto para esse trabalho
Patrick Borges; Josemar Rodriguesb; Narayanaswamy Balakrishnanc; Jorge Bazan

Shmueli et al. (2005) introduced a new discrete distribution, called COM-Poisson-binomial distribution, by adding a dispersion parameter to the binomial distribution. However, they did not study the mathematical properties of this family of distributions. In this paper, we investigate in detail this probability distribution; we discuss its moments, probability and moment generating functions and how the dispersion parameter a ects the asymptotic approximation of the COM-Poisson-binomial distribution by the COM-Poisson distribution. The f tting of this model with three data sets is also considered for illustrative purposes. Key words: COM-Poisson-binomial distribution, dependent Bernoulli variables, Correlation coecient, exponential family, Weighted Poisson distributions. 1. Introduction Usually the binomial and Poisson distributions are used to analyze discrete data. However, it seems wise to consider exible alternative models to take into account the overdispersion or underdispersion (see Hinde & Demetrio (1998)). For this reason, the binomial and Poisson distributions have been generalized in several ways to handle the problem of dispersion inherent in the analysis of discrete data that may arise in the presence of aggregation of the individuals. For instance: (i) in plant selection study, the association among two plants arises when they compete for the quantity of nutrients; (ii) in biological study (see Yakovlev & Tsodikov (1996) and Borges et al. (2012)), it is usually assumed that cells in a tissue are independent. However, the biological independence assumption may not be true when the dynamics of the cell population of a normal tissue is considered. It is therefore desirable to construct new models with strong biological interpretation of the dependence incorporated in the carcinogenesis process.
Palavras-Chave: COM Poisson distribution; Weighted Poisson distribution; Exponential family;


A Constituição da Provisão de Devedores Duvidosos Utilizando Aprendizado de Máquina - Link direto para esse trabalho
Fillipe Silva Marinho Mota; Elisalvo Alves Ribeiro; Carlos Alberto Estombelo Montesco;

A necessidade do controle e gerenciamento eficaz do risco fez com que as instituições financeiras passassem a primar pelo aperfeiçoamento das técnicas utilizadas para classificação de clientes, com o desenvolvimento de inúmeros modelos que auxiliam nessa atividade. A constituição da Provisão de Devedores Duvidosos (PDD) é extremamente necessária para auxiliar no controle da rentabilidade das empresas, principalmente das atuantes na área de crédito e financeira. Neste trabalho foram utilizados dados dos clientes de uma empresa que atua na concessão de empréstimo pessoal para avaliar três das técnicas de classificação mais utilizadas pelo mercado. O objetivo era que gerassem uma constituição da PDD seguindo as normas do Banco Central do Brasil (BACEN), diferenciando cada um dos clientes de acordo com a probabilidade de risco de não pagamento para fins de estimativa do provisionamento contra eventuais perdas financeiras, seguindo os percentuais de alocação exigidos.
Palavras-Chave: Provisionamento; Modelagem; Aprendizado de Máquina;


A DESIGUALDADE NUTRICIONAL DURANTE A INFÂNCIA NA AMÉRICA LATINA: EVIDÊNCIAS COM BASE NA EXPERIÊNCIA COLOMBIANA - Link direto para esse trabalho
Karollyna Barbosa Bié;Navarro Mendes Rosa;Mario E. Piscoya Díaz

Nos últimos 50 anos, a América Latina está atravessando por um processo de mudança nos seus indicadores de saúde caracterizado pela redução da mortalidade infantil e um aumento da esperança de vida ao nascer. A nutrição durante a primeira infância parece ser a responsável por tais mudanças. No entanto, dada a configuração de desigualdade social existente nesta região do planeta, essas mudanças não ocorreram uniformemente em todos os setores da população. Este trabalho tem como objetivo avaliar a desigualdade nutricional na América Latina, especificamente na Colômbia. Para isto, aproximaremos as condições de nutrição pela estatura adulta observada. Faremos uso de técnicas da estatística descritiva, assim como de modelos de regressão e de análise de variância. Os resultados sugerem que não houve uma redução na desigualdade nutricional no tempo e que ao mesmo tempo, pessoas com baixa escolaridade, residentes em zonas rurais tem uma menor estatura produto de condições adversas durante a primeira infância. Os resultados sugerem a implementação de ações de Segurança Alimentar e Nutricional para garantir o bem-estar futuro dessas populações.
Palavras-Chave: Antropometria; estatística descritiva; modelos lineares; desenvolvimento econômico;


A Hubbert Diffusion Process - Link direto para esse trabalho
Istoni da Luz Sant'Ana, Patricia Román Román, Francisco Torres Ruiz

A problem of great current interest is to chart accurately the progress of oil production. It is well known that oil exploration is conducted in cycle and, in fact, after the oil production reaches its peak in a specific system, a fatal decline will begin. In this work, we propose a stochastic model, based on the theory of diffusion process, associated with the Hubbert curve. With this model in mind, we intend to give a probabilistic treatment to the one cycle oil production, including the forecasting of its peak and peak-time. After building the model, comprehensive study is presented, including its main characteristics and a simulation of sample paths. The inferential study is carried out on the basis of discrete sampling and includes numerical aspects related to the search of initial solutions to be taken into account for solving the likelihood equations. The possibilities of the new process are illustrated by means of simulated data.
Palavras-Chave: Hubbert curve; Diffusion process; Peak oil;


A IMPORTÂNCIA DA ATIVIDADE FÍSICA PARA A SAÚDE E QUALIDADE DE VIDA: UM ESTUDO ENTRE PROFESSORES, ALUNOS E/OU FUNCIONÁRIOS DA UNIR CAMPUS JI-PARANA - Link direto para esse trabalho
José Paulo Camolez Silva, Joelma Tonete, Rubens Batista de Souza, Greiciely Quinto Alves, Aliadny Natany Tavares, Dilson Evangelista

A atividade física por sua vez, torna-se de grande importância, pois está associada a condições físicas e pela melhoria da saúde dos praticantes podendo manter uma boa saúde mental e corporal. Os objetivos deste trabalho foram analisar os conceito de saúde e os motivos que levam os professores, alunos e/ou funcionários da UNIR-Ji-Paraná a praticar atividades físicas regularmente. Participaram do estudo 129 pessoas que estudam e/ou trabalham na UNIR campus de Ji-Paraná. O questionário utilizado para a coleta de dados foi desenvolvido e validado no Laboratório de Psicologia do Esporte (LAPES-UFMG). O procedimento estatístico realizado foi uma análise fatorial.
Palavras-Chave: Saúde; Atividade Física; Qualidade de Vida;


A MODIFIED VERSION OF THE INFERENCE FUNCTION FOR MARGINS AND INTERVAL ESTIMATION FOR THE BIVARIATE CLAYTON COPULA SUR TOBIT MODEL: A SIMULATION APPROACH - Link direto para esse trabalho
Paulo H. Ferreira; Francisco Louzada

This work extends the analysis of bivariate seemingly unrelated regression (SUR) Tobit model by modeling its nonlinear dependence structure through the Clayton copula. The ability in capturing/modeling the lower tail dependence of the SUR Tobit model where some data are censored (generally, at zero point) is an additionally useful feature of the Clayton copula. We propose a modified version of the inference function for margins (IFM) method (Joe and Xu, 1996), which we refer to as MIFM method, to obtain the estimates of the marginal parameters and a better (unbiased) estimate of the copula association parameter. More specifically, we employ the data augmentation technique in the second stage of the IFM method to generate the censored observations (i.e. to obtain continuous marginal distributions, which ensures the uniqueness of the copula) and then estimate the dependence parameter. Resampling procedures (bootstrap methods) are also proposed for obtaining confidence intervals for the model parameters. A simulation study is performed in order to verify the behavior of the MIFM estimates (we focus on the copula parameter estimation) and the coverage probability of different confidence intervals in datasets with different percentages of censoring and degrees of dependence. The satisfactory results from the simulation (under certain conditions) and empirical study indicate the good performance of our proposed model and methods where they are applied to model the U.S. ready-to-eat breakfast cereals and fluid milk consumption data.
Palavras-Chave: bivariate seemingly unrelated regression (SUR) Tobit model; censoring; Clayton copula; data augmentation; bootstrap confidence intervals;


A Mixed Model for Positive Responses Augmented by Zeros - Link direto para esse trabalho
Mariana Rodrigues-Motta; Diana M. G. Soto; Victor H. Lachos; Filidor V. Labra; Valéria T.Baltar; Eliseu V. Júnior; Regina M. Fisberg; Dirce M.L. Marchioni

We propose a model for positive and zero responses by means of a zero augmented mixed regression model. We focus on responses whose distribution accommodates skewness. A zero-augmented mixture model is proposed to model zero and positive responses simultaneously. The mean of the positive response is modeled in a logarithm scale and the mixture probability in a logit scale, both as a function of fixed and random effects. The random effects link the two random components through their joint distribution and incorporate within subject correlation due to repeated measurements and between-subject heterogeneity. A Bayesian approach is adopted and a MCMC algorithm is designed to obtain posterior distributions of the unknown quantities of interest. A case-deletion influence diagnostics based on appropriate divergence measures is performed. We motivate and illustrate the proposed methodology by means of a da ta set from a 24 hours dietary recall study obtained in the city of São Paulo, Brazil, and present a simulation study to evaluate the performance of the proposed methods.
Palavras-Chave: mixed-models; positive response; zeros;


A New Extended Gamma Generalized Model - Link direto para esse trabalho
Ronaldo V. da Silva; Frank Gomes-Silva; Manoel Wallace A. Ramos; Gauss M. Cordeiro.

We propose a new five-parameter extended gamma generalized model. Some special cases are discussed. We derive some mathematical properties of the proposed distribution including explicit expressions for the quantile function, ordinary and incomplete moments, generating function and R´enyi entropy. The method of maximum likelihood is used to estimate the model parameter. We ilustrate the potentiality of the new model with an application to a real data set.
Palavras-Chave: Beta generalized gamma distribution; Exponentiated gamma distribution; Exponentiated generalized gamma distribution;


A New Extended Normal Model - Link direto para esse trabalho
Gauss Moutinho Cordeiro; Maria do Carmo Soares de Lima; Abraão David Costa do Nascimento.

Various applications in natural science require models more accurate than well-known distributions. In this sense, several generators of new distributions were proposed recently. In this paper, we introduce a new four-parameter extended normal distribution and discuss some of its mathematical properties. The maximum likelihood method is used to estimate the model parameters. Two applications to real data are performed and the results provide evidence that the proposed model outperforms the classical skew normal distribution.
Palavras-Chave: Exponentiated distribution; Maximum likelihood method; Normal distribution; Quantile function;


A Non-Homogeneous Poisson Process geostatistical model - Link direto para esse trabalho
Fidel Ernesto Castro Morales; Lorena Vicini; Luiz K. Hotta; Jorge A. Achcar.

This paper introduces a model for counting data under a space-time context, using nonhomogeneous Poisson processes. The main idea in this work is to include in the intensity function a random component which incorporates the spatial dependence, similarly to the spatial fragility models used in survival analysis. Inferences of interest for the suggested model are obtained under the Bayesian paradigm. To illustrate the usefulness of the proposed model, it was developed a simulation study to test the efficacy of the Markov Chain Monte Carlo (MCMC) in the generation of samples for the joint posterior distribution of the parameters of the model. From this study it was observed that the convergence of MCMC algorithm used to simulate samples for the joint posterior distribution of interest was easily obtained for different scenarios and accurate Bayesian estimates were obtained for the model parameters.
Palavras-Chave: geostatistics; Inference Bayesian; Markov Chain Monte Carlo;


A QUALIDADE DAS DECLARAÇÕES DE NASCIMENTOS DO SEMIÁRIDO BRASILEIRO - Link direto para esse trabalho
Luísa Vieira Souto Maior; Ianne Rafaella Santos Melo; Everlane Suane de A. Silva; Neir Antunes Paes

A região Semiárida brasileira é considerada como a mais afetada pelos problemas sociais e econômicos. Dentre eles, destacam-se os contextos da saúde e demográfico, com as taxas mais altas de natalidade do país. No entanto, os dados de natalidade estão sujeitos a erros, o que pode comprometer a fidedignidade das informações, assim como os cálculos dos indicadores demográficos. Neste contexto, o presente estudo visa avaliar a qualidade dos registros de nascimentos das microrregiões que compõem o Semiárido brasileiro em 2000 e 2010. Para isso, calculou-se a cobertura dos nascidos vivos da região e o percentual de ignorados das variáveis selecionadas da Declaração de Nascidos Vivos. Nota-se que a maior parte dos municípios tem cobertura acima de 90%, sendo classificada como muito bom. . Das variáveis selecionadas as que apresentaram maior percentual de ignorados foram apgar de primeiro minuto e apgar de quinto minuto, mas ambas apresentaram avanço na completitude na década. Conclui-se que houve importantes avanços na qualidade dos dados, tanto em termos da cobertura dos nascidos vivos como no preenchimento das principais variáveis que constam na Declaração de Nascidos da região do Semiárido brasileiro.
Palavras-Chave: Semiárido; Nascimentos; Cobertura;


A Qualidade das Declarações de Óbitos do Semiárido Brasileiro - Link direto para esse trabalho
Alisson dos Santos Silva; Jéssica da Silva Braga; Maizza M. C. E. Fernandes; Neir Antunes Paes.

Os registros dos óbitos fazem parte dos indicadores demográficos e epidemiológicos, que representam ferramentas indispensáveis para a organização do sistema de saúde e formulação de políticas públicas que visam à melhoria das condições de vida de uma população, bem como para a diminuição da mortalidade. A região do semiárido brasileiro é considerada como uma das que apresentam os indicadores de desenvolvimento mais comprometidos do país, com baixos níveis de educação e na economia.
Palavras-Chave: Óbitos; Semiárido Brasileiro; Qualidade da Informação; Cobertura;


A Semiparametric Approach for Joint Modeling of Median and Skewness - Link direto para esse trabalho
Luis Hernando Vanegas; Gilberto A. Paula

In this paper we show through Monte Carlo simulation that ignoring the skewness of the response variable distribution in nonlinear regression models may introduce biases on the parameters estimation and/or on the estimation of the associated variability measures. Therefore, this paper proposes a semiparametric regression model suitable for data set analysis in which the distribution of the response is strictly positive and asymmetric. In this setup, both median and skewness of response variable distribution are explicitly modeled, the median using a nonlinear function and the skewness using a semiparametric function. The proposed model allows for the description of the response using the log-symmetric distribution, which is a generalization of the log-normal distribution and is flexible enough to consider bimodal distributions in particular cases as well as distributions having heavier or lighter tails than those of the log-normal. An iterative estimation process as well as some diagnostic methods (overall and individual goodness-of-fit measures and local influence) are derived. Two data sets previously analyzed under parametric models are reanalyzed using the proposed methodology.
Palavras-Chave: skewness; asymmetric responses; maximum penalized likelihood estimates; semiparametric models; robust estimates;


A Split-Merge MCMC based on Mahalanobis distance for analysis of mixture models with an unknown number of components - Link direto para esse trabalho
Erlandson F. Saraiva; Luís A. Milan

This paper introduces a new split-merge MCMC algorithm for analysis of mixture models with an unknown number of components. In a split proposal each observation is allocated to one of two split components based on probabilities which are calculated according to Mahalanobis distance. Conditional on new proposal allocation new component parameters are generated from a candidate-generating density that is chosen according to known form of posterior distributions of the component parameters. In order to maintain detailed balance equation within each move type, the acceptance probability for split-merge proposals are calculated according to reversible-jump procedure using a "dimension matching" scheme where the Jacobian term is unity. The main advantage of the proposed algorithm is that it is easy to implement, even for the multivariate case, and do not requires the invention of "good" jumping moves to apply it to a new family of mixtures. We illustrate it on both univariate and bivariate data.
Palavras-Chave: Mixture Model; Bayesian Inference; Reversible-jump; Split-Merge update;


A Teoria de Resposta ao Item como Alternativa para Cálculo de um Índice de Felicidade na Terceira Idade - Link direto para esse trabalho
Adriane Donegá; Lúcia Helena Francisco; Márcia Maria Barbosa da Silva; Patricia Valentim; Wellington Luiz Mesa Puerta; Pedro Ferreira Filho

Neste trabalho discutimos a utilização da Teoria da Resposta ao Item (TRI) como alternativa para construção de um índice de felicidade para a terceira idade. O estudo visa avaliar a felicidade em um grupo de indivíduos da terceira idade submetidos a um conjunto de atividade físicas e sociais. Um questionário com dezoito itens cada um com quatro alternativas de resposta em uma escala ordinal foi utilizado antes e após a realização da intervenção. O modelo de resposta gradual de Samejima (1969) é utilizado e os resultados observados demonstram a adequabilidade do uso da TRI neste tipo de problema.
Palavras-Chave: Teoria resposta ao Item; Índice de felicidade; Métodos de comparação;


A combined npx Xbar control chart to monitor the process mean in two-stage sampling - Link direto para esse trabalho
Elvis dos S. Sampaio; Linda Lee Ho; Pledson G. de Medeiros

This paper proposes a new control chart to monitor a process mean employing a combined npx-X control chart. Basically the procedure consists of splitting the sample of size n into two sub-samples n1 and n2 = (n − n1 ) determined by an optimization search. Units of the first sub-sample are evaluated by attributes and plotted in npx control chart. If this chart signs then units of second sub-sample are measured and the monitored statistic plotted in X control chart. If both control charts sign then the process is stopped for adjustment. The possibility of non-inspection in all n items may promote a reduction not only in the cost but also the time spent to examine the sampled items. Performances of the current proposal and single control charts of X and npx are compared. In this study the proposed procedure presents many competitive options for the X control chart for a sample size n and a shift δ from the target mean. The average time to sign (ATS) of the current proposal lower than the values calculated from a single X control chart ( or npx control charts ) points out that the combined control chart is an efficient tool in monitoring process mean.
Palavras-Chave: Process monitoring; control chart; combined control chart;


A distribuição de Amoroso com aplicação em modelos de sobrevivência. - Link direto para esse trabalho
Démerson André Polli

A distribuição de Amoroso foi proposta em 1925. Trata-se de uma distribuição que generaliza uma grande variedade de outras distribuições usadas em engenharia e em análise de sobrevivência, dentre as quais as distribuições Weibull e Gama. Este resumo apresenta a distribuição de Amoroso e implementa um exemplo para dados de sobrevivência.
Palavras-Chave: modelos paramédicos de sobrevivência; distribuição de Amoroso; família de distribuição;


A general class of zero-or-one inflated logit-skew-normal regression models - Link direto para esse trabalho
Guillermo Martínez-Flórez; Germán Moreno-Arenas; Solange Lugo-Buitrago

This paper proposes a general class of regression models for continuous proportions when data is inflated with zeros or/and ones. The proposed models assumes that the response variable has a mixture continuous--discrete distribution with covariates in both the discrete and continuous parts of the model. As revealed by real data applications, models investigated seem to be a valid alternative to the modeling proportions and rates with zero or one inflated.
Palavras-Chave: Proportions; zero-or-one inflated; alpha-power-normal distribution; regression models;


A mixture model for rare and clustered populations under adaptive cluster sampling - Link direto para esse trabalho
Kelly Cristina M. Gonçalves; Fernando A. S. Moura

Rare populations, such as endangered species, drug users and individuals infected by rare diseases, tend to cluster in regions. Adaptive cluster designs are generally applied to obtain information from clustered and sparse populations. The aim of this work is to propose a unit level mixture model for clustered and sparse population when the data are obtained from an adaptive cluster sample. Our approach allows taking into account heterogeneity among units belonging to different clusters. The proposed model is evaluated using simulated data and a real experiment where adaptive samples were drawn from an enumeration of a waterfowl species in a 5,000 km² area of central Florida.
Palavras-Chave: Informative sampling; mixture models; RJMCMC;


AJUSTE DE MODELOS NÃO-LINEARES NO ESTUDO DA NEUTRALIZAÇÃO DA PEÇONHA DA SERPENTE Bothropoides pauloensis PELO EXTRATO AQUOSO Jathropha curcas - Link direto para esse trabalho
Quintiliano Siqueira Schroden Nomelini; Janser Moura Pereira; Luiz Fernando Moreira Izidoro

No Brasil, as serpentes botrópicas são responsáveis pela maioria dos envenenamentos, ocasionando efeitos locais e sistêmicos. Muitos desses provocam danos irreversíveis, mesmo quando tratados convencionalmente. Uma possível alternativa que possa vir auxiliar na minimização dessas situações deletérias é usar plantas medicinais de acordo com a cultura popular. Muitos trabalhos vêm abordando essa teoria e conseguindo resultados promissores. O objetivo deste trabalho foi demonstrar a capacidade do extrato Jatropha curcas inibir a atividade coagulante induzida pela peçonha de Bothropoides pauloensis. Os ensaios de inibição foram realizados a partir de uma mistura de peçonha/extrato em diferentes razões 1:0; 1:1; 1:5; 1:10; 1:20; 1:30; 1:40; e 1:50 (m/m) incubados 30 minutos antes de cada ensaio. Os resultados demonstraram que o extrato de Jatropha curcas foi eficaz na inibição total da atividade coagulante. No presente trabalho ajustou-se modelos de regressão entre níveis de concentração de extrato e tempo de coagulação (segundos). Os modelos ajustados conseguiram captar bem a variação total do tempo de coagulação e com isso conseguiu-se boas modelagens contribuindo para obter bons resultados de valores preditos dentro do intervalo estudado.
Palavras-Chave: Jathropha curcas. ; Modelos não Lineares.; Bothrops pauloensis.; Inibição. ;


AJUSTE DE UM MODELO UNIDIMENSIONAL DA TEORIA DA RESPOSTA AO ITEM ÀS PROVAS DE UM CONCURSO VESTIBULAR - Link direto para esse trabalho
Fernando de Jesus Moreira Junior; Lais Helen Loose; Rafael Tezza

O objetivo principal desse trabalho foi verificar a possibilidade de ajustar um Modelo Logístico Unidimensional da TRI aos dados do Processo Seletivo Único (PSU) da Universidade Federal de Santa Maria (UFSM). A análise por meio da TRI mostrou que a grande maioria dos 127 itens se ajustou de forma adequada com o ML2. Não foi possível afirmar que os itens que se mostraram inadequados, segundo esse modelo, tiveram esse desempenho por medirem um outro traço latente relacionado com as matérias, uma vez que todas as matérias apresentaram pelo menos um item com ajuste inadequado. Verificou-se também se os itens do PSU, relacionados aos anos mais avançados do Ensino Médio, eram mais difíceis do que os itens dos anos iniciais. Os resultados mostraram que as provas com questões relativas ao Primeiro e ao Segundo ano do Ensino Médio possuíam praticamente o mesmo nível de dificuldade médio, e a prova com questões relativas ao Terceiro ano possuía um nível de dificuldade médio quase meio desvio padrão abaixo das provas do Primeiro e do Segundo ano.
Palavras-Chave: Modelos Unidimensionais da TRI; Concurso Vestibular; Modelo Logístico de Dois Parâmetros;


AJUSTES DE MODELOS NÃO LINEARES A DADOS DE CRESCIMENTO VEGETAL-COMPARAÇÃO DE MODELOS - Link direto para esse trabalho
CARVALHO, L.R.1; PEREIRA,G.L.S.1;MISCHAN, M.M.1; SILVA, H.O.F.1; FURTADO, E.L.2

Resumo Modelos não lineares tendem a ser usados quando são sugeridos por considerações teóricas, ou por comportamentos não lineares. Mesmo quando uma aproximação linear é aceitável, um modelo não linear pode ainda ser utilizado para se obter uma interpretação clara dos parâmetros. O objetivo desta pesquisa foi o estudo dos modelos logístico, de Gompertz, von Bertalanffy e de Richards com ajustes em três estruturas de erros: estrutura de efeitos fixos, estrutura com ponderação e de efeitos mistos a dados de volume do tronco de Eucaliptus grandis, obtidos em três regiões de plantio pertencentes a Votorantim Celulose e Papel. Os critérios utilizados para a seleção de modelos foram: Quadrado médio dos resíduos, Critério de informação de Akaike, Peso de Akaike ( Motulsky & Chistopoulos(2004)) Critério de Informação Bayesiano de Schwarz, teste de Breusch Pagan, teste de Durbin Watson e coeficiente de correlação ao quadrado (Schinckel & Craig (2002)). A estrutura com ponderação foi a mais adequada e quanto à escolha do melhor modelo, o de Richards foi o que se mostrou melhor, porém teve um percentual de convergência de 70%, em segundo lugar foi o de Gompertz, com 100% de convergência, em terceiro lugar o von Bertalanffy e por último o logístico, ambos com aproximadamente 100% de convergência. Os pesos de Akaike mostraram que em média a probabilidade do modelo de Richards estar correto era de 0,67 em relação à Gompertz e de 0,60 da Gompertz em relação à von Bertallanfy.
Palavras-Chave: modelos não-lineares; curvas de crescimento; estrutura ponderada;


ANALISE DA INCIDÊNCIA DE INCÊNDIOS SOBRE A FLORA BRASILEIRA AMEAÇADA DE EXTINÇÃO - Link direto para esse trabalho
Felipe Sodré M. Barros

Segundo o Centro de Monitoramento de Conservação Ambiental, uma agência das Nações Unidas para o ambiente, o Brasil faz parte de um seleto grupo de países que abrigam a maioria das espécies da Terra e são, portanto, considerado internacionalmente como Megadiverso. Entretanto, nos dias atuais, há diversas espécies expostas à ameaças pouco conhecidas ou evidenciadas. Nesse sentido, o presente trabalho propõe o resgate de análises espaciais de processos pontuais para evidencia a incidência de incêndios sobre os registros de ocorrência da flora, como uma metodologia possível de ser usada na investigação do status de conservação de tais espécies. Portanto, realizou-se um estudo de caso analisando a incidência dos incêndios ocorridos nos anos de 2012 e 2013 sobre seis espécies já reconhecidas como em extinção: Alcantharea glaziouana, Banisteriopsis hatschbachii, Comanthera harleyi, Dyckia maritima, Micropholis splendens e Thryallis laburnum. Isto possibilitou inferir, de forma objetiva e documentável, que as espécies omanthera harleyi, Dyckia maritima e Thryallis laburnum tiveram incidência elevada de incêndios. Esta informação é elevante na formulação de planos de ação para reverter o quadro de tal ameaça sobre tais espécies.
Palavras-Chave: Flora brasileira ameaçada de extinção; Focos de incêndios florestais; Análise de processos pontuais; Função L;


ANÁLISE DA SÉRIE TEMPORAL DE PRECIPITAÇÃO DO MUNICÍPIO DE PIRACICABA - SP - Link direto para esse trabalho
Manoel Rivelino Gomes de Oliveira, Andre Luiz Pinto dos Santos, Moacyr Cunha Filho, Maria das Vitorias Alexandre Serafim

A busca de um ajuste da série de precipitação do município de Piracicaba - SP, à um modelo não-linear séries temporais GARCH, pode auxiliar no entendimento do padrão de chuvas neste município. Para tal foram utilizados dados de precipitação pluviométrica, extraídos da base de dados do posto agro meteorológico. A análise, dos resultados obtidos revelou que o modelo GARCH ajustado aos resíduos de um modelo ARMA, torna-se mais poderoso para representar adequadamente a heteroscedasticidade condicional da série temporal hidrológica de Piracicaba.
Palavras-Chave: Modelo de Séries Temporais; Modelo GARCH; precipitação;


ANÁLISE DE COMPONENTES PRINCIPAIS PELO GGEBIPLOT NA AVALIAÇÃO DE DADOS DE INTERAÇÕES TRITRÓFICAS EM POPULAÇÕES DE INSETOS - Link direto para esse trabalho
OLIVEIRA, M.C.N. de; WISH, L.N.; SOSA-GÓMEZ, D.R .1Embrapa Soja, Caixa Postal 231, CEP 86001-970 Londrina-PR, e-mail: mcristina.oliveira@embrapa.br

Resumo – Nos últimos anos houve um aumento expressivo das áreas cultivadas com as culturas da soja (Glycine max), do milho (Zea mays) e do algodão (Gossypium hirsutum), como consequência disto tem-se elevado o número de insetos-pragas nas lavouras, como as lagartas desfolhadoras C. includens (Walker, [1858]) e Rachiplusia nu (Guenée, 1852) e algumas espécies de Spodoptera. A presença destas pragas exigem que o seu controle seja rápido, eficiente e de forma sustentável. Uma forma que o Brasil e alguns países, como a Argentina, a China e os Estados Unidos, vêm adotando é o cultivo de plantas geneticamente modificadas com genes expressos da proteína de Bacillus thuringiensis (Bt) como estratégia para o manejo de pragas, com custos de produção reduzidos e menor poluição no meio ambiente. As plantas de soja Bt produzem níveis consideráveis de proteínas Cry1Ac no controle de determinados lepidópteros pragas, mas não são eficazes contra as espécies de Spodoptera. Com esta planta Bt tende-se aumentar a população de inimigos naturais, devido ao uso reduzido de pesticidas, no entanto, nada se conhece sobre a interação dessas plantas transgênicas com as pragas não-alvos da toxina e seus inimigos naturais entomopatogênicos, como o fungo Nomuraea rileyi (Farlow) e os vírus de poliedrose nuclear (NPV). Um estudo entre estes agentes se faz necessário para o maior conhecimento da interação entre a toxina Cry1Ac versus a praga e versus os entomopatógenos para avaliar a existência ou não de comprometimento entre esta tecnologia Bt e as relações com inimigos naturais e seus hospedeiros. Desta forma, o objetivo do trabalho foi avaliar se a atividade dos entomopatógenos, baculovírus (NPV) e N. rileyi, em Spodoptera frugiperda (J. E. Smith, 1797) é influenciada pela presença da toxina Cry1Ac encontrada na soja Bt. Os métodos univariados como a análise de variância e testes de comparações múltiplas de médias (ANOVA e teste de Tukey) e multivariados de análise de Componentes Principais (ACP) e o GGE Biplot foram usados para interpretar estes resultados (Steel & Torrie, 1960, Reis, 2001, Yan et al., 2002, 2003, Mingoti, 2007). Comparando-se os resultados dos métodos univariado e o multivariado com o uso do biplot pode-se afirmar que os mesmos foram equivalentes para avaliar os efeitos dos tratamentos na avaliação da interferência da toxina Cry1Ac da cultivar de soja Bt nos entomopatógenos encontrados nas lavouras. A vantagem da ACP é a redução da dimensão da matriz de dados sem perder informação e melhor interpretação gráfica dos efeitos dos tratamentos pelos biplot do polígono e dos círculos concêntricos elaborados pelo software GGE biplot. Nas variáveis número de ovos, viabilidade de ovos e longevidade não houve interferência do tratamento Dieta artificial + a bactéria HD-73. Novos experimentos devem ser conduzidos para melhor averiguar se existe ou não comprometimento entre esta tecnologia Bt e as relações com inimigos naturais e seus hospedeiros.
Palavras-Chave: multivariada; biplot; GGEBiplot;


ANÁLISE DE SATISFAÇÃO E DESEMPENHO DOS ALUNOS DO CURSO A DISTÂNCIA ALUNO INTEGRADO - Link direto para esse trabalho
TUANY RIBEIRO DOS SANTOS; MARLEY APOLINÁRIO SARAIVA

A educação a distância é um modelo de ensino-aprendizagem que vem se destacando pela sua conveniência e potencialidade. O crescimento acelerado das ofertas de cursos a distância vem gerando preocupações com relação à qualidade desses cursos. Diante disso, seria útil se cada instituição desenvolvesse e utilizasse mecanismos para avaliar a qualidade dos cursos que ofertam. O estudo proposto será realizado utilizando dados das turmas do curso Qualificação em Tecnologia Digital: Aluno Integrado e visa avaliar a qualidade deste curso, segundo a perspectiva dos alunos por meio de indicadores estatísticos que capturem o nível de satisfação com relação a alguns aspectos do curso. Baseado nos dados coletados podemos entender a opinião dos alunos com relação ao formato do curso proposto, além de detectar pontos positivos e negativos, o grau de satisfação, dificuldades e sugestões de melhorias para o mesmo. Além disso, associaremos essas informações com dados socioeconômicos e desempenho dos alunos no curso afim de entender perfis ou mapear relações.
Palavras-Chave: Análise de Satisfação; satisfação curso a distancia; curso aluno integrado;


ANÁLISE DO CONHECIMENTO POLÍTICO DOS UNIVERSITÁRIOS UTILIZANDO TEORIA DE RESPOSTA AO ITEM - Link direto para esse trabalho
Raquel Aoki

Nesse trabalho, será aplicado Teoria de Resposta ao Item (TRI) para investigar se o conhecimento político dos universitários é semelhante ou difere dependendo do sexo, faculdade, área de estudo e se ele participou das manifestações ocorridas em Julho de 2013.
Palavras-Chave: Teoria de Resposta ao Item; Amostragem Estratificada ; Conhecimento Político ;


ANÁLISE DO DESEMPENHO DOS DISCENTES DA UFPE DURANTE O PERÍODO GREVISTA - Link direto para esse trabalho
AURIDENES ALVES; ERIKA CRISTINA DA SILVA; JULIELY RODRIGUES; MARIANA BATISTA; TULIO VERAS; CLÁUDIA REGINA O. P. LIMA

No período de 17 de maio a 5 de setembro de 2012 a Universidade Federal de Pernambuco - UFPE sofreu uma paralização técnico administrativa e de docentes, que afetou não só o calendário acadêmico como a vida no campus de modo geral. A greve interrompeu o período letivo de 2012.1 e os efeitos desta parada puderam ser sentidos durante os períodos seguintes. Desta forma, faz-se necessária a análise do quanto à greve afetou o desempenho dos estudantes dentro da instituição com ferramentas estatísticas, que possam indicar se existe algum fator que possa explicar o comportamento do coeficiente de rendimento dos discentes. O instrumento de avaliação usado neste artigo é o modelo de regressão gama e as variáveis estudadas são os centros acadêmicos e os períodos.
Palavras-Chave: Greve; Desempenho Acadêmico; Modelo de Regressão Gama;


ANÁLISE DO ÍNDICE DE RUPTURAS DE FIOS DE ALGODÃO - COCAMAR COOPERATIVA AGROINDUSTRIAL - Link direto para esse trabalho
Angélica Maria Tortola Ribeiro; Terezinha Aparecida Guedes

Minimizar custos no setor empresarial é uma preocupação constante, sendo que investimentos relativos ao aumento da qualidade e lucratividade têm aumentado significativamente nos últimos tempos. A busca incessante pelo crescimento e competitividade tem levado as empresas brasileiras a procurar continuamente ações com o propósito de reduzir custos, além de melhorar a qualidade, qualificar a mão-de-obra e inovar suas produções. Tanto no setor têxtil quanto agrícola, planos de ação têm sido elaborados com esta finalidade. Nas indústrias de fios, por exemplo, a redução de custos pode ser conquistada através da minimização de desperdícios, que dentre outras coisas está associada intrinsecamente à ruptura dos fios. Reduzindo-se a ruptura, reduz-se também o pneumafil e a estopa. Não obstante, no setor agrícola também é possível reduzir custos. Acompanhar o processo de irrigação do solo, tal como fazer um controle do Balanço Hídrico das plantações, acarreta para o agricultor um conhecimento mais aprofundado sobre a situação natural de seu meio de plantio, levando o mesmo a tomar iniciativas preventivas que evitem desperdícios e, conseqüentemente, prejuízos para a indústria. Visando todos estes objetivos, estudos têm sido amplamente realizados a fim de esclarecer e definir aspectos importantes para o meio industrial que possibilitem seu crescimento e aprimoramento de forma satisfatória.
Palavras-Chave: Planejamento de Experimentos; Efeitos Principais; Efeitos de Interação; fiação de algodão; Método da Máxima Entropia;


ANÁLISE ESPACIAL DA COBERTURA DA ATENÇÃO PRIMÁRIA EM SAÚDE NA CIDADE DE MANAUS - Link direto para esse trabalho
Geraldo Lopes de Souza Júnior; Moisés Branco dos Santos; Odete dos Santos Amaral

Em 2012 a baixa cobertura em atenção primária em saúde na cidade de Manaus era de aproximadamente 30%. Proporção preocupante que demandou um olhar diferenciado dos gestores em saúde. Para uma cidade com mais de 1,8 milhão de habitantes e com recursos contingenciados, era necessário tomar a decisão correta e eleger pontos prioritários para receber melhorias no sistema de saúde básica. A heterogeneidade populacional entre os bairros de Manaus é acentuada, sendo possível encontrarmos tamanhos populacionais diversos, como por exemplos os bairros: Vila Buriti com apenas 1.827 habitantes; bairro Coroado com 51.354 habitantes e; o bairro Jorge Teixeira com 112.879 moradores. Essa variabilidade pode tornar uma inspeção meramente visual pouco confiável. Os métodos clássicos que utilizam taxas dadas pala razão entre o número de casos observados e o número de casos esperados também são bastante afetados por essa discrepância populacional. Métodos científicos mais robustos foram utilizados para eleger zonas prioritárias de atenção. A estatística traz o estudo de aglomerados de eventos, ou casos, espacialmente distribuídos (conglomerados ou clusters espaciais) que têm recebido bastante atenção na literatura. Há vários métodos de detecção de conglomerados. Os métodos mais comuns e usuais partem do pressuposto que existe um mapa dividido em regiões, e que para cada uma dessas regiões é conhecida a população em risco e o número de casos observados. Para efeitos ilustrativos, quando o interesse é avaliar espacialmente a cobertura assistencial das Equipes de Saúde da Família, como é o caso deste trabalho, cada bairro do mapa pode ser entendido como uma área e cada pessoa desta população cadastrada no Programa Saúde da Família pode ser entendida como um caso. O objetivo deste trabalho é fazer uma avaliação espacial da cobertura assistencial das Equipes da Saúde da Família da zona urbana do município de Manaus para o ano de 2012.
Palavras-Chave: Estatística Espacial; Atenção Primária; Cobertura de saúde; SaTScan; Gestão pública;


ANÁLISE ESPACIAL DO DESENVOLVIMENTO SUSTENTÁVEL DOS MUNICÍPIOS CEARENSES - Link direto para esse trabalho
João Felipe Barbosa Araripe Silva; Sílvia Maria Dias Pedro Rebouças; Mônica Cavalcanti Sá de Abreu; Maria da Conceição Rodrigues Ribeiro

O objetivo deste estudo é sistematizar e efetuar análise espacial dos indicadores de desenvolvimento sustentável apresentados nos municípios do Estado do Ceará. O propósito central da pesquisa não é compreender como acontece o desenvolvimento sustentável, mas identificar e analisar as diferenças entre os municípios neste processo de desenvolvimento. A pesquisa é quantitativa e exploratória, desenvolvida mediante análise de dados secundários adquiridos no banco de dados do Instituto Brasileiro de Geografia e Estatística, do Instituto de Pesquisa e Estratégia Econômica do Ceará e do Portal Objetivos de Desenvolvimento do Milênio. Os métodos quantitativos de análise foram estatística descritiva, análise fatorial confirmatória, análise exploratória de dados espaciais, os quais foram utilizados, respectivamente, para calcular um índice de desenvolvimento sustentável, identificar a dependência espacial desse desenvolvimento nos municípios. Os resultados revelam baixo desenvolvimento dos municípios cearenses, sendo os melhores desenvolvimentos em áreas mais urbanas, as quais apresentam concentrações industriais, com fácil acesso a energia, rede de esgoto, água e educação.
Palavras-Chave: Análise Espacial; Desenvolvimento Sustentável; Análise Confirmatória de Dados;


ANÁLISE FATORIAL EM SÉRIES TEMPORAIS DE MATERIAL PARTICULADO (MP10) APLICADA NO GERENCIAMENTO DA QUALIDADE DO AR - Link direto para esse trabalho
Adriano Marcio Sgrancio; Valdério Anselmo Reisen; Edson Zambon Monte

Este trabalho utiliza o modelo fatorial aplicado em series temporais de poluentes atmosféricos (PM10) correlacionadas no tempo para o gerenciamento da rede de monitoramento da qualidade do ar. A análise fatorial (AF) é uma técnica multivariada de ampla utilização em várias áreas do conhecimento para descrever a variabilidade dos dados. É amplamente utilizada em poluição atmosférica como modelo receptor para identificar as fontes de emissão de poluentes e no gerenciamento da qualidade do ar. A técnica de AF é limitada pela hipótese de independência dos dados. Restrição que não ocorre em muitas situações práticas de séries de poluentes autocorrelacionadas no tempo. Nesse contexto, o objetivo deste trabalho é investigar o efeito de diferentes estruturas de correlação do processo vetorial no modelo de AF. A forma de atenuar o efeito da correlação temporal é utilizar o modelo vetorial autoregressivo (VAR) e aplicar o modelo AF. Os resultados apresentados neste trabalho podem ser aplicados em outros estudos que envolvem os modelos de Componentes Principais (CP) e de AF.
Palavras-Chave: Análise fatorial; Séries temporais; Material particulado;


ANÁLISE SOBRE A INCIDÊNCIA DE CÂNCERES E O USO DE AGROTÓXICOS NA REGIÃO OESTE DO PARANÁ POR MEIO DA ESTATÍSTICA ESPACIAL - Link direto para esse trabalho
Kassem Kalife Nege; Silvana Ligia Vincenzi Bortolotti; Afonso Farias de Sousa Júnior; Everton Coimbra de Araújo;, Neusa Idick Scherpinski; Rodrigo Farias da Silva; Ana Paula Favaretto; Vinicius Manzini

Nos últimos anos a utilização de agrotóxicos cresceu de forma exponencial no Brasil, sendo que o agronegócio se tornou totalmente dependente da aplicação deste para uma alta produtividade. Recentemente vários estudos estão sendo realizados para verificar o potencial carcinogênico dos agrotóxicos. Com isso, este estudo objetivou em identificar, coletar, examinar e avaliar informações obtidas por meio da aplicação de questionário, junto ao uso da estatística descritiva bem como da estatística espacial sobre o potencial carcinogênico dos agrotóxicos utilizados na região oeste do Paraná. No total foram entrevistados 162 pacientes diagnosticados com câncer, sendo que a maioria destes (31,5%) residiam no município de Cascavel-PR. De modo geral, mais de 50% dos entrevistados relataram ter contato com agrotóxicos, demonstrando assim, uma problemática em que possivelmente o uso de agrotóxicos possa estar relacionado como uma das causas de câncer na população. Com base nisto, este estudo propõem a criação de programas públicos voltados para os agricultores com o intuito de oferecer alternativas e apoio para que esses consigam reformular o seu processo de produção, substituindo o modo convencional de produção agrícola, por práticas de produção alternativas, como as práticas agroecológicas.
Palavras-Chave: Agrotóxicos; Câncer; Estatística Espacial;


APLICAÇÃO DA ABORDAGEM DE RISCOS COMPETITIVOS EM PACIENTES DIAGNOSTICADOS COM CÂNCER NO ANO DE 2006 NO HOSPITAL DE CLÍNICAS DE PORTO ALEGRE - Link direto para esse trabalho
Natalia Elis Giordani; Luciana Nunes; Isaias Prestes; Jair Ferreira; Suzi Camey

Estudos de sobrevida em pacientes com câncer normalmente são modelados através do tradicional método de análise de sobrevida. Esse, porém, apresenta uma abordagem limitada uma vez que considera como variável resposta apenas um tipo de desfecho, normalmente o óbito por um tipo específico da doença, desprezando o fato de que o óbito de um paciente com câncer pode estar relacionado a diferentes causas. Assim, o objetivo principal deste estudo é utilizar a abordagem de riscos competitivos para analisar a sobrevida da coorte de pacientes com câncer diagnosticado pela primeira vez no Hospital de Clínicas de Porto Alegre no ano de 2006 e acompanhada até o ano de 2011. Como objetivo secundário, pretende-se descrever essa metodologia.
Palavras-Chave: Câncer; Sobrevida; Riscos competitivos;


APLICAÇÃO DA SIMULAÇÃO DE MONTE CARLO PARA O TEMPO DE PRODUÇÃO DE VINHOS - Link direto para esse trabalho
ALINE CASTELLO BRANCO MANCUSO, NICOLE HOLSBACH,LIANE WERNER

O vinho é derivado de um processo natural, obtido pela fermentação alcoólica de uma fruta madura. Tradicionalmente, o nome vinho é reservado somente para a bebida proveniente da uva. Entre os fatores determinantes da qualidade destacam-se a variedade, as condições ambientais da região produtora, o tempo de fermentação, tempo de estocagem e a posição de estoque dos vinhos. Nesse contexto, o objetivo deste trabalho foi analisar o tempo de produção de vinhos para comercialização através de dados simulados. Em uma vinicultura, durante a produção dos vinhos foram analisadas três estações: (i) tempo de fermentação, (ii) tempo de armazenamento em barris de carvalho e (iii) tempo em garrafa. O método de Monte Carlo foi utilizado nas três estações. A simulação do tempo de produção de vinhos até a sua comercialização possibilita ao vinicultor um planejamento mais preciso e acurado de sua produção e da qualidade.
Palavras-Chave: monte carlo; simulação; vinho;


APLICAÇÃO DE COMBINAÇÃO DE PREVISÕES PARA O PREÇO DO TOMATE NO ESTADO DO RIO GRANDE DO SUL - Link direto para esse trabalho
Cecília Brasil Biguelini, Dolurdes Voos, Rodrigo Dullius

O presente trabalho apresenta uma aplicação da metodologia de combinação de previsões para o preço do quilo do tomate no estado do Rio Grande do Sul entre julho de 1994 e março de 2014. Tem como objetivo avaliar o comportamento, em termos de acurácia, de métodos de combinação de previsões, comparando-os com as técnicas que as compõem dentro do contexto de uma série econômica. As técnicas de previsão utilizadas para combinar as séries de previsão foram regressão linear múltipla e o modelo de previsão de série temporal (ARIMA); as técnicas de combinação de previsão foram média aritmética, variância mínima e regressão. Posteriormente, foram calculadas as medidas de acurácia (MSE, MAPE e U de Theil) para verificar quais os modelos que apresentaram melhores resultados. A partir dessas medidas, verificou-se que os melhores ajustes para os dados foram obtidos por meio das técnicas de combinação de previsão. A combinação que apresentou melhores resultados foi a combinação por regressão. Com base nos resultados encontrados, conclui-se que as técnicas de combinação de previsões mostraram-se mais eficientes em termos de acurácia do que os modelos individuais.
Palavras-Chave: Regressão Linear Múltipla; Série Temporal; Combinação de Previsões;


APLICAÇÃO DE MODELOS MISTOS NA ESTIMATIVA VOLUMÉTRICA - Link direto para esse trabalho
Joseilme Fernandes Gouveia; José Antônio Aleixo da Silva; Patrícia Silva Nascimento Barros; Kléber Napoleão Nunes de O. Barros; Jáder da Silva Jale; Macio Augusto de Albuquerque;

O presente estudo teve como objetivo estimar volumes de clones de Eucalyptus urophylla utilizando os modelos lineares mistos. A base de dados foi proveniente do povoamento de clones de Eucalyptus, localizada no Município de Araripina, no semiárido de Pernambuco. O modelo de Schumacher e Hall foi utilizado como testemunha para comparação com os modelos mistos. O modelo linear misto serviu como ferramenta bastante eficaz para modelagem do volume de Eucalyptus urophylla, devido sua flexibilidade, mostrando-se superior ao ajuste do modelo não linear de Schumacher Hall, quando comparado com o valor observado e de acordo com os critérios estabelecidos. Desse modo, acredita-se que o uso desse modelo possa contribuir para a redução dos custos do inventário com aumento de precisão.
Palavras-Chave: modelos volumétricos; modelos lineares mistos; Pólo Gesseiro do Araripe;


APLICAÇÃO DE SÉRIES TEMPORAIS NA ARRECADAÇÃO DE TRÂNSITO NO ESTADO DO PARÁ - Link direto para esse trabalho
Joyce da Silva Macêdo Brabo Natália Cyntia Cordeiro de Souza Marinalva Cardoso Maciel Antonio Carlos da Silva Junior Mário Diego Rocha Valente

Este trabalho tem como principal objetivo estudar o comportamento da série de arrecadações de trânsito no Estado do Pará, no período de Janeiro de 2008 a Dezembro 2012, baseado em metodologia de análise de séries temporais. Verificou-se o efeito de tendência e a identificação do modelo ARIMA Sazonal. A previsão de séries temporais auxilia os gestores na tomada de decisão acerca de resultados futuros, tais como os benefícios oriundos da implementação destes processos de arrecadação, com isso, fica constatado que o Detran tem sido uma instituição de fundamental importância nas contas do estado do Pará.
Palavras-Chave: Sinape; Natal; Estatística;


APLICAÇÃO DO MODELO DE RESPOSTA GRADUAL DE SAMEJIMA DA TEORIA DA RESPOSTA AO ITEM NA AVALIAÇÃO DA PERCEPÇÃO DA SUSTENTABILIDADE DOS MORADORES DO MUNICÍPIO DE MEDIANEIRA-PR - Link direto para esse trabalho
Mateus Mestriner Pituco; Silvana Ligia Vincenzi Botolotti; Afonso Farias de Sousa Júnior; Tiago Santos de Oliveira; Katiane de Oliveira; Pablo Giullian Sarkis Pinto de Menezes

A questão ecológica está em alta e a percepção ambiental pode ser entendida como a tomada de consciência do ambiente, por isso, o objetivo dessa pesquisa é analisar e avaliar a percepção da sustentabilidade dos moradores do município de Medianeira por meio do modelo de Resposta Gradual de Samejima. Para isso, foi elaborado um questionário que foi aplicado a uma amostra de 488 moradores do município de Medianeira, dividido proporcionalmente à população dos bairros. Dos resultados, 32% eram homens e 68% mulheres, com idade entre 16 e 93 anos. Os resultados mostraram a necessidade de agrupamento de categorias, uma vez que, em alguns itens havia poucos respondentes que discordaram. Foram realizadas três calibrações. Os parametros dos itens relevaram que os itens utilizados são considerados “fáceis“. Deste modo, esta aplicacão permitiu reconhecer que o instrumento de medida utilizado carece de itens que avaliam alta percepção de sustentabilidade.
Palavras-Chave: Educação ambiental; Sustentabilidade; Percepção; Teoria da Resposta ao Item;


AVALIANDO A EFICIÊNCIA DOS MUNICÍPIOS BRASILEIROS NA GESTÃO DE PROGRAMAS E AÇÕES HABITACIONAIS - Link direto para esse trabalho
Héliton Ribeiro Tavares; Maria Regina Madruga; Taís Medeiros Silva; Tayani Raiana de Souza Roque; Tarcísio da Costa Lobato

Neste trabalho foi utilizado um modelo logístico de dois parâmetros da TRI para estimar um indicador de eficiência na gestão municipal habitacional (IEGMH) para os municípios brasileiros. Os itens considerados no modelo foram obtidos da Pesquisa de Informações Básicas Municipais do ano de 2011 do IBGE, relacionados ao planejamento de ações voltadas pra a gestão habitacional. O município com maior indicador de eficiência fica na região nordeste, e é o município baiano de Santo Antônio de Jesus. Entre os 20 municípios mais eficientes na gestão habitacional, tem-se apenas 4 capitais: Teresina (9a posição), Belo Horizonte (14a posição), Vitória (15a posição) e Fortaleza (20a posição). A maioria dos municípios não tem ações para regularização fundiária e melhoria de Unidades Habitacionais (UH) em convênio com o Governo Estadual, e tem poucas ações para beneficiamento de área rural. Os itens que apresentaram maior poder de discriminação estão relacionados à existência e detalhamento de cadastro com informações de famílias interessadas em programas habitacionais.
Palavras-Chave: indicador de eficiência; gestão habitacional; teoria da resposta ao item;


AVALIAÇÃO DA EFICIÊNCIA DAS SECRETARIAS DE SEGURANÇA PÚBLICA - Link direto para esse trabalho
Steven Dutt Ross

A manutenção da paz pode ser considerada como fenômeno complexo e resultante de várias determinações possíveis e está relacionada principalmente com a ausência de violência e criminalidade. Nesse sentido, o papel e o escopo principal das secretarias de segurança pública é o combate a esses dois elementos. Todavia, na moderna administração pública é necessário que a ação do Estado seja eficiente, eficaz e efetiva. Desse modo, foi realizada uma modelagem por meio da Análise Envoltória de Dados buscando avaliar a capacidade do Estado de realização de políticas públicas de segurança. As variáveis utilizadas foram: 1 -Tamanho do efetivo policial (policia civil e militar), 2 -Despesa Total Empenhada em segurança pública, 3 – População, 4 - Número de roubos, 5 - Número de homicídios. As principais conclusões foram que a modelagem foi consistente, pois conseguiu separar as Unidades da Federação eficientes e ineficientes. Em outras palavras, o modelo aponta as áreas em que conseguem manter baixa criminalidade e pune aquelas com alto nível de crime e violência. Afirma-se também que o uso de dados defasados em modelagem DEA foi satisfatório, pois foi possível avaliar as unidades da federação em relação à eficiência. Em relação à abordagem com output indesejável, os resultados também foram satisfatórios.
Palavras-Chave: Segurança Pública; Eficiência; Output indesejável; Defasagem temporal;


AVALIAÇÃO DO RENDIMENTO ACADÊMICO DOS ALUNOS DO CURSO DE ESTATÍSTICA DA UNIVERSIDADE FEDERAL DO RIO GRANDE DO NORTE (UFRN) DE 2005 A 2013. - Link direto para esse trabalho
PAULO ROBERTO MEDEIROS DE AZEVEDO; André Possati;Elias Jeferson de Melo Silva;Fidel Henrique Fernandes;Francimário Alves de Lima;Inara Francoyse de Souza Pereira;Joyce Bezerra Rocha;Kalil Eduardo Cunha de Sousa;Luis Ramiro Nogueira do Amaral

Sabemos que uma série de fatores pode influenciar no desempenho dos alunos durante a graduação. Então, com o interesse de descobrir se alguns fatores que achamos relevantes tem influência sobre o rendimento acadêmico dos alunos, elaboramos um questionário e entrevistamos 34 alunos do curso de Estatística da Universidade Federal do Rio Grande do Norte (UFRN), como um laboratório da disciplina de Amostragem. Foi realizada uma amostragem estratificada, dividida em 2 estratos e em cada estrato foi realizada uma amostra aleatória simples. O tamanho da amostra de cada estrato foi calculado com base no Índice de Rendimento Acadêmico (IRA), com utilização das técnicas aprendidas no curso de Amostragem. A partir daí utilizamos dos testes estatísticos Qui-Quadrado, Fisher e de Spearman para verificar as possíveis relações das variáveis pesquisadas com o IRA. Alguns resultados podem ser atribuídos à baixa variabilidade do IRA na amostra, resultando assim em não relação entre alguma variável e o IRA.
Palavras-Chave: Rendimento acadêmico; Estatística; Amostragem;


AVALIAÇÃO DOS FATORES DE RISCO DE ÓBITO DE DOENTES RENAIS DA CIDADE DO RIO DE JANEIRO ATRAVÉS DO MODELO ADITIVO DE AALEN - Link direto para esse trabalho
Luciane Teixeira Passos Giarola; Rejane Corrêa da Rocha2.

De acordo com a Sociedade Brasileira de Nefrologia, as doenças renais matam pelo menos 15 mil pessoas por ano. Mais de 95% da Terapia Renal Substitutiva realizada no país é financiada pelo Sistema Único de Saúde (SUS). Então, optou-se por utilizar dados obtidos a partir do Datasus e originados pelo Sistema de Informações Ambulatoriais para procedimentos de Alto Custo (Apac) para avaliar o risco de óbito de pacientes portadores de Insuficiência Renal. O estudo foi baseado em 861 pacientes submetidos a hemodiálise em 20 unidades de atendimento no Rio de Janeiro, no período de Janeiro de 1998 a Outubro de 2001. Considerou-se neste estudo as variáveis Diabetes como causa da IR e idade, além do sexo, unidade de tratamento e número de salas de diálise na unidade de tratamento. Utilizou-se o modelo aditivo proposto por Aalen em 1980 com o objetivo de investigar a influência das covariáveis em estudo sob o risco de óbito ao longo do tempo. Concluiu-se que, do ponto de vista estatístico, as covariáveis mais relevantes foram idade e diabetes. Ambas apresentaram função de regressão acumulada com inclinação positiva e seu efeito no riso de óbito aumenta com o tempo, conforme esperado.
Palavras-Chave: Diabetes; Insuficiência Renal; Modelo Aditivo de Aalen;


Abordagem Bayesiana na Identificação de Fatores Ativos em Planos Fatoriais 2^k e k^(k-1) sem Réplicas - Link direto para esse trabalho
Isaac Jales Costa Souza; André Luís Santos de Pinho

Um experimento fatorial 2^k é um experimento que envolve dois ou mais fatores, todos eles com dois níveis. Uma das utilidades desse tipo de experimento é na identificação de fatores ativos, ou seja, fatores que influenciam alterações na variável resposta quando alterados seus níveis. Em muitas situações, é inviável fazer um experimento que contenha um número grande de unidades experimentais por questões de custo e tempo. Uma saída para esse problema é a utilização de um plano fatorial sem réplica, o que significa que os tratamentos devem ser aplicados em apenas uma unidade experimental. Este trabalho tem como objetivo apresentar um método bayesiano que auxilie na identificação de fatores ativos em um plano fatorial sem réplica. O método consiste em atribuir uma probabilidade a priori para cada subconjunto possível de fatores e interações ser o conjunto dos fatores e interações ativos. Foram considerados dois conjuntos possíveis de fatores e interações e analisado o método bayesiano para cada um deles. Após isso, foi obtida a probabilidade a posteriori de todas as prioris sob a hipótese de normalidade dos dados, e calculada a probabilidade marginal de cada fator individualmente ser ativo. Foram feitas simulações no software estatístico R versão 3.0.1 a fim de verificar o desempenho do método bayesiano. Constatou-se, através das simulações, que o método bayesiano detecta bem a atividade dos fatores cujos efeitos equivalem a 1,5 desvio padrão da estimativa do efeito para as duas seleções de modelos. De modo geral, o desempenho do método bayesiano é bom. O critério recomendado a se utilizar para considerar ativo um fator é que a posteriori dele seja maior que 40%.
Palavras-Chave: Experimento Fatorial; Método Bayesiano; Simulação;


Absenteísmo escolar na Amazônia: uma aplicação com dados de contagem. - Link direto para esse trabalho
Clarissa Cardoso Oesselmann; Ludmilla da Silva Viana Jacobson.

O absenteísmo escolar é definido como o ato de um estudante se ausentar da escola. A literatura cita vários tipos de absenteísmo, por exemplo por doença, voluntário, legal e compulsório. O absenteísmo por doença é o que ocorre com mais frequência e o que é mais estudado, pois pode ser visto como um indicador de condição de saúde. O objetivo desse trabalho é avaliar os fatores de risco associados ao absenteísmo escolar em uma escola da Amazônia Brasileira, especialmente os efeitos da poluição atmosférica. Para analisar esses fatores foram utilizados dados de um estudo de painel realizado na cidade de Tangará da Serra, Mato Grosso. O desfecho, ou variável dependente, foi o número de faltas no período escolar, durante os meses de seca da região. As variáveis explicativas investigadas se referiam às características individuais, socioeconômicas, de saúde e ambientais. Foi proposto o uso do Modelo de Regressão de Poisson com função de ligação log. A Superdispersão foi um problema observado nos dados, corrigida utilizando um Modelo ``Quasi-Poisson". Na modelagem dos dados foram propostos seis modelos. Após o ajuste e o diagnóstico dos modelos, decidiu-se pelo modelo com as seguintes variáveis explicativas: Número de comôdos da casa (1 comôdo e 1 banheiro: Referência; Mais comôdos: RR = 0,842 e IC95% = (0,478;1,485)); Idade de quem cuida ((RR) ̂ = 0,991 e IC95% = (0,984;0,997)); Mora perto de uma plantação (Sim: Referência; Não: (RR) ̂ = 0,749 e IC95% = (0,623;0,899)); Nível médio do Pico de Fluxo Expiratório diário ((RR) ̂ = 1,002 e IC95% = (1,002;1,003)); Média da Tosse com lag 1 (RR = 1,230 e IC95% = (1,173;1,291)); e Nível do poluente PM10 com lag 3 ((RR) ̂ = 1,005 e IC95% = (1,0004;1,010)). Destes resultados, pode-se concluir que os sintomas respiratórios, principalmente a ocorrência de tosse, mostraram forte associação com o absenteísmo escolar, assim como o poluente PM10.
Palavras-Chave: Absenteísmo escolar; Tangará da Serra; Modelo de Regressão de Poisson; Superdispersão; Modelo "Quasi-Poisson";


Ajuste da Distribuição de Gumbel para a análise de dados de precipitação do município de São João do Cariri-PB - Link direto para esse trabalho
Manoel Rivelino Gomes de Oliveira, Moacyr Cunha Filho, Ana Patrícia Siqueira Tavares Falcão, Ewerton Pereira de Oliveira, Maria Das Vitórias Alexandre Serafim

A precipitação é um integrador complexo das relações naturais entre o tipo climático, temperatura, umidade relativa do ar, velocidade e direção dos ventos e vegetação. Dessa forma, a busca de um ajuste da série de precipitação do município de São João do Cariri-PB, à Distribuição de valor extremo ou de Gumbel, permitirá entender as características dessas chuvas em regiões semiáridas. Para tal foram utilizados dados de precipitação pluviométrica, coletados em uma estação meteorológica. A análise, dos resultados obtidos revela que a Distribuição de Gumbel ajustada aos dados de precipitação representa adequadamente as característica e variabilidade da série em estudo.
Palavras-Chave: Distribuição de Gumbel; ajuste; precipitação;


Ajuste de curvas utilizando Processos Gaussianos - Link direto para esse trabalho
Widemberg da Silva Nobre;José Aílton Alencar Andrade

Quando trabalhamos com modelagem de fenômenos naturais temos o interesse de buscar uma curva (função) que melhor se adeque aos dados que obtemos em uma amostra. Neste trabalho abordamos o ajuste de curvas utilizando Processos Gaussianos (PG), os quais são assim classificados: se para um dado processo, de dimensão infinita, tomarmos um subconjunto qualquer deste, termos que sua distribuição conjunta é Normal (Gaussiana). A metodologia de PG’s em modelagem consiste em atribuirmos uma distribuição a priori como sendo um PG, com funções da média e de covariância, específicas. O processo é desenvolvido com o intuito de definirmos uma distribuição sobre funções, logo o interesse é saber qual a melhor distribuição, dentre todas as possíveis, que melhor se adequa as funções existentes em nosso modelo. Neste trabalho nos restringimos a fazer uma análise prática sobre o ajuste de curvas, em que utilizamos PG’s supondo verossimilhança Normal e t-Student para assim verificarmos, em uma metodologia prática, a robustez de modelagem com PG’s. Rasmussen & Williams (2006, Gaussian Process for Machine Learning, MIT) desenvolvem uma vasta teoria sobre os PG e sua aplicação a aprendizagem de máquinas, bem como alguns estudos de interesse nesta área. Propomos ainda alguns estudos de interesse para o desenvolvimento dos PG’s em modelagem de dados, tais como, a metodologia de diagnósticos para emuladores.
Palavras-Chave: Processos Gaussianos; Normal Multivariada; Modelagem;


Algorithms for Estimation of Variable Length Markov Chains and Simulation - Link direto para esse trabalho
David Henriques da Matta, Nancy Lopes Garcia

There are many studies in the field of linguistics where the interest is to analyze the differences between Brazilian Portuguese and European Portuguese (henceforth BP and EP respectively). Both the BP on EP, have the same words (lexicon). However, these languages have different syntaxes and different prosodies. The key point to distinguish between the languages is to construct a probabilistic model that incorporates the prosody of the language. This is achieved using variable length Markov chains. To better understand this probabilistic model, we discuss here some basic concepts of variable length Markov chains, as well as a simulation study to find evidence whether to use BIC or AIC as the selection criteria of models to tune the pruning constant of the algorithm Context (Rissanen (1983); Buhlman and Wyner (1999)).
Palavras-Chave: Variable Length Markov Chains; Algorithms for Estimation; Simulation;


Algoritmo Boosting em Análise Discriminante Linear de Fisher na classificação de pacientes com CHD. - Link direto para esse trabalho
Gilberto Rodrigues Liska; Marcelo Ângelo Cirillo; Fortunato Silva de Menezes; Guido Gustavo Humada-González.

Classificação compreende uma variedade de problemas, que são resolvidos de várias maneiras. A necessidade de métodos automáticos de classificação surge em várias áreas, desde reconhecimento de vozes, em automóveis modernos, até o reconhecimento de tumores através de chapas de raio-x para auxiliar médicos, passando por classificação de e-mails como legítimos ou spam. Devido a importância e aumento da complexidade de problemas do tipo, existe a necessidade de métodos que forneçam maior precisão e interpreabilidade dos resultados. Entre eles os métodos de Boosting, que surgiram na área da computação, funcionam aplicando-se sequencialmente um algoritmo de classificação a versões reponderadas do conjunto de dados de treinamento, dando maior peso às observações classificadas erroneamente no passo anterior. Sendo assim, objetivou-se estudar a modelagem via Análise Discriminante Linear de Fisher (LDA) e a mesma via algoritmo de Boosting (AdaBoost) no problema de ausência/presença de doença do coração (Coronary Heart Disease - CHD) em pacientes. Os critérios utilizado para afetuar as comparações foram a sensibilidade, especificidade, taxa de falsos positivos e taxa de falsos negativos. O método de Boosting foi aplicado com sucesso em LDA e proporcionou maior taxa de acerto em relação à análise LDA convencional. O algoritmo Boosting em LDA com método de Lachenbruch resultou apresentou melhores valores de sensibilidade, especificidade, taxa de falsos positivos e taxa de falsos negativos em relação ao método LDA convencional, fornecendo, portanto, informações mais precisas e otimistas acerca do problema exposto.
Palavras-Chave: Aprendizado de Máquinas; Análise Multivariada; Classificação de dados; Taxa de erro; AdaBoost;


Algoritmo EM para mistura de distribuições GEV - Link direto para esse trabalho
Cira Etheowalda Guevara Otiniano

As misturas finitas de distribuições são modelos probabilísticos de uma variedade de fenómenos em diversas áreas. No caso das misturas finitas de distribuições de Valor Extremal Generalizado (GEV) as aplicações em finanças e hidrologia surgem naturalmente. Neste trabalho, os estimadores dos parâmetros da mistura de duas componentes GEV são obtidos via o algoritmo EM. Apresentamos também ilustrações numéricas do comportamento dos estimadores obtidos através de simulação.
Palavras-Chave: GEV ; Mistura finita ; Algoritmo EM;


Algoritmos de estimação para Cadeias de Markov de Alcance Variável -aplicações a detecção do ritmo em textos escritos - Link direto para esse trabalho
Maíra Blumer Fatoretto,Nancy Lopes Garcia

A primeira fase de nosso projeto teve como objetivo analisar uma amostra de textos modernos de PE e PB a fim de realizar um aprendizado supervisionado. A fim de verificar a adequabilidade do modelo classificamos alguns textos amostrados e verificamos os erros de predição. A segunda fase consistiu em utilizar esta mesma técnica para classificar textos históricos de Português constantes do corpus Histórico do Português Tycho Brae (www.tycho.iel.unicamp.br/~tycho/corpus/index.html) e identificar o momento de mudança prosódica.
Palavras-Chave: Cadeias de Markov ; detecção do ritmo ; idioma Português ;


Algumas Semelhanças Entre Processos Estocásticos e a Integração Funcional na Mecânica Quântica - Link direto para esse trabalho
Felipe Andrade Velozo; José Alberto Casto Nogales Vera; Lucas Monteiro Chaves; Devanil Jaques de Souza

Na formulação da mecânica quântica, encontram-se visceralmente inclusos conceitos de estatística, a que fornece interpretação experimental às leis formuladas para o estudo dos fenômenos a nível microscópico. Neste trabalho vamos expor algumas suspeitas da relação entre a formulação da Mecânica Quântica através de integrais de caminho e o processo estocástico de Wiener.
Palavras-Chave: Interpretação estatística da Mecânica Quântica; Processo estocástico de Wiener; Integral de caminho na Mecânica Quântica;


An Econometric Analysis of Foreign Trade of the Brazilian Industry during 1999-2005 using Panel Data - Link direto para esse trabalho
Fernando A. Boeira Sabino da Silva

The main goal of this work is to model, using panel data, the dynamic of exportations and importations of brazilian industry. The main results show the importance of foreign framework to explain the brazilian trade results.
Palavras-Chave: Panel Data; Fixed Effects Model; Dynamic Panel Model; Arellano-Bond Estimator;


An evidence of link between default and loss of bank loans from the modeling of competing risks - Link direto para esse trabalho
Mauro Ribeiro de Oliveira Junior; Francisco Louzada.

In this work we propose a method that provides a useful technique to compare relationship between risk involved that takes customer becomes defaulter and debt collection process that might make this defaulter recovered. Through estimation of competitive risks that lead to realization of the event of interest, we showed that there is a positive significant relation between the intensity of default and losses from defaulted loans in collection processes. To reach this goal, we investigate a competing risks model applied to whole credit risk cycle into a bank loans portfolio. We estimated competing causes related to occurrence of default, thereafter, comparing it with estimated competing causes that lead loans to write-off condition. In context of modeling competing risks, we used a specification of Poisson distribution for numbers from competing causes and Weibull distribution for failures times. The likelihood maximum estimation is used for parameters estimation and the model is applied to real data of personal loans.
Palavras-Chave: Survival analysis; Competing risks; Loss given default;


An improved Wald test in dispersion models - Link direto para esse trabalho
Tiago M. Magalhães; Denise A. Botter; Mônica C. Sandoval

In this work, we find the second-order covariance matrix of the bias-corrected maximum likelihood estimator of the regression parameter $\beta$ in dispersion models. Based on this matrix, we modify the Wald test, which improves its performance. We evaluate the results by using a Monte Carlo simulation.
Palavras-Chave: Bias estimator; Covariance matrix; Improved Wald test;


Análise Bayesiana com Dados de Sobrevivência, Usando Distribuições Exponenciais Bivariadas - Link direto para esse trabalho
Carlos Aparecido dos Santos; Bárbara Nascimento Faria

Este trabalho analisa dados de sobrevivência longitudinais correlacionados, usando distribuições exponencias bivariadas. Para isso, utiliza o enfoque Bayesiano para obter os resumos a posteriori dos parâmetros de interesse.
Palavras-Chave: Dados Bivariados; Inferência Bayesiana; Distribuições Exponenciais Bivariadas; Métodos MCMC;


Análise Bayesiana da curva de crescimento dos frutos do cafeeiro - Link direto para esse trabalho
Tales Jesus Fernandes; Adriele Aparecida Pereira; Joel Augusto Muniz;

Os modelos não-lineares são comumente utilizados no estudo de curvas de crescimento. Conhecer e modelar tais curvas possibilita ao pesquisador a identificação dos diferentes estágios envolvidos no desenvolvimento do fruto do cafeeiro. A metodologia Bayesiana tem se tornado cada vez mais uma alternativa na estimação dos parâmetros destes modelos, reduzindo a obtenção de estimativas viesadas e atípicas, mesmo em presença de poucos dados amostrais. O objetivo deste trabalho foi utilizar a metodologia Bayesiana para ajustar o modelo não-linear de Gompertz para dados de crescimento dos frutos do cafeeiro. Os dados analisados foram extraídos de Cunha e Volpe (2011) e correspondem à 14 medições da massa fresca do fruto do cafeeiro obtidas entre 96 e 293 dias após o florescimento (DAF), com espaçamento médio entre elas de 15 dias. A metodologia Bayesiana foi eficiente na estimação dos parâmetros, fornecendo estimativas confiáveis e com interpretação prática e, permitiu a obtenção de intervalos de credibilidade sem utilizar a teoria assintótica.
Palavras-Chave: Café; Gompertz; MCMC; Não linear;


Análise Discriminante via Distribuições Preditivas Aproximadas por Estimadores por Função Núcleo - Link direto para esse trabalho
Diego da Silva Souza

Reconhecimento e classificação de padrões são problemas importantes em uma variedade de áreas científicas, como biologia, psicologia, medicina, visão computacional e etc. Porém este problema não é de fácil solução quando a distribuição de probabilidade dos dados é totalmente desconhecida. Neste trabalho, combinamos o método de estimação de densidades por Função Núcleo com um enfoque Bayesiano e propomos uma nova abordagem para problemas de classificação usando uma Análise Discriminante via Distribuições Preditivas Aproximadas. Estudos de simulação e aplicação em conjuntos de dados reais bastante utilizados na literatura, foram conduzidos como forma de avaliação dos métodos propostos. Os resultados mostraram que a performance dos métodos propostos são competitivos, e em alguns casos significantemente melhor, com os métodos clássicos da literatura, Análise Discriminante Linear(ADL), Análise Discriminante Quadrática(ADQ) e Análise Discriminante Naive Bayes com distribuição Normal(NNBDA).
Palavras-Chave: Análise de Discriminante; Densidade Preditiva; Estimador de Núcleo; Estimação Bayesiana;


Análise Exploratória em Experimentos Crossover - Link direto para esse trabalho
Murilo Cantoni; Ricardo de Albuquerque Colella; Graziela Zabotto; João Guimarães; Pedro Ferreira Filho

Experimentos em diferentes áreas do conhecimento, seja por razões de custo, necessidade de um melhor controle da variabilidade das unidades experimentais sujeitas a diferentes tratamentos ou mesmo por características específicas do estudo (estudos de bioequivalência, por exemplo), utilizam um número não muito grande de unidades experimentais sobre as quais são aplicados os tratamentos em estudo, em diferentes períodos do tempo. Experimentos conduzidos desta forma são denominados "crossover". Em função das suas especificidades , os procedimentos tradicionais de análise exploratória de dados não são suficientes para uma melhor compreensão inicial dos dados observados. Neste trabalho são apresentados e discutidos procedimentos gráficos que possibilitam ter uma melhor visualização dos efeitos dos parâmetros de um modelo crossover. Uma aplicação a dados reais é apresentada ao final do trabalho.
Palavras-Chave: Experimentos crossover; Análise exploratória; Métodos gráficos;


Análise Múltipla de Correspondência e Associação Livre de Palavras como instrumentos auxiliares à metodologia ativa de ensino de Estatística - Link direto para esse trabalho
Alexandre Sousa da Silva; Bruno Francisco Teixeira Simões; Luciane de Souza Velasque; Maria Beatriz Assunção Mendes Cunha; Maria Tereza Serrano Barbosa; Ondina Lúcia Ceppas Resende.

Os professores de Estatística da UNIRIO vêm discutindo e implementando metodologias ativas de ensino e aprendizagem com o objetivo de tornar o aluno mais autônomo e capaz de realizar todas as etapas de uma pesquisa, do planejamento do experimento à realização do relatório, passando pela coleta e análise dos dados. Essas novas metodologias alteram a percepção dos alunos com relação à Estatística, que em alguns cursos não é sempre vista com bons olhos. Na tentativa de identificar os significados latentes da Estatística para os estudantes dos cursos de graduação após experiência com os métodos ativos, foi utilizado neste trabalho Teoria das Representações Sociais (TRS), neste processo o “Teste de Associação Livre de Palavras” (TALP) foi considerado, este, consiste basicamente em enunciação de palavras-estímulos e palavras associadas a estes estímulos. Para análise das palavras enunciadas foi utilizada Análise Múltipla de Correspondência. Os resultados mostras agrupamentos de palavras com relação aos centros.
Palavras-Chave: Análise Múltipla de Correspondência; Teste de Associação Livre de Palavras; Ensino de Estatística;


Análise comparativa da chance de câncer autorreferido nos ambientes urbano e rural do Brasil - Link direto para esse trabalho
Fernanda Cristina da Silva de Lima; Luz Amanda Melgar Santander; José Rodrigo de Moraes;

O câncer é responsável por aproximadamente 13% de todas as causas de óbito no mundo, onde mais de 7 milhões de pessoas morrem anualmente desta doença, sendo portanto, um importante problema de saúde pública para países desenvolvidos e em desenvolvimento. O presente trabalho teve como objetivo estimar e comparar a associação entre o conjunto de características demográficas, socioeconômicas, comportamentais e de saúde, e a chance de câncer autorreferido em adultos (20 anos ou mais de idade), nos ambientes urbano e rural do Brasil em 2008. Essa associação foi realizada por meio do modelo de regressão logística binária, usando os dados da Pesquisa Nacional por Amostra de Domicílios 2008. Entre os principais resultados encontrados deste estudo, verificou-se, tanto na área urbana quanto na rural, que o câncer é uma doença mais autorreferida por adultos: mais velhos, de cor branca, mais escolarizados, que consultaram médico nos últimos 12 meses, que utilizam medicamento de uso contínuo e com piores níveis de saúde autorreferida. Além disso, na área urbana, a chance do adulto reportar câncer é maior para mulheres, adultos residentes na região Sul e adultos com maiores rendimentos. Por outro lado, na área rural, adultos responsáveis pelo domicílio e adultos portadores de pelo menos duas doenças crônicas possuem maior chance de autorreferir câncer.
Palavras-Chave: Câncer autorreferido; Ambiente urbano; Ambiente rural; Modelo logístico binário;


Análise da Evolução de Pacientes Submetidos ao Transplante do Fígado: Uma Abordagem de Modelo Multi-Estado - Link direto para esse trabalho
Juliana Freitas de Mello e Silva; Ludmilla da Silva Viana Jacobson

No Brasil, em 2010, as neoplasias representavam a segunda principal causa de morte e o tumor de fígado destacou-se entre os mais freqüentes. O carcinoma hepatocelular (CHC) é o principal tumor primário do fígado. No mundo, o CHC é o sétimo câncer mais comum e ocupa a terceira posição em mortalidade por câncer. A expectativa de vida para quem contrai o CHC é de aproximadamente 6 meses a partir do diagnóstico e, por isso, o transplante é de extrema importância e urgência. Diante disto, o objetivo do presente estudo é avaliar o tempo até a recidiva e o tempo até o óbito em pacientes que foram submetidos a um transplante por CHC. Na análise dos dados foi estimado um modelo multi-estado para avaliar o risco de transição entre transplante, recidiva e óbito. Foram utilizados os dados do Hospital Federal de Bonsucesso, coletados no período entre janeiro de 2001 e abril de 2012. As variáveis associadas à transição entre transplante e recidiva foram nível de AFP e invasão vascular; com relação à transição entre transplante e óbito, as variáveis associadas foram idade, hepatite C e nódulos; por fim, para a transição entre recidiva e óbito, a variável característica dos nódulos se mostrou associada.
Palavras-Chave: análise de sobrevivência; modelo multi-estado; carcinoma hepatocelular;


Análise da Marcha Humana: uma Abordagem Bayesiana Hierárquica - Link direto para esse trabalho
Amanda Buosi Gazon; Luis Ernesto Bueno Salasar; Adriano Polpo de Campos

A análise do movimento humano é fundamental para estudos que busquem compreender o movimento normal/alterado e para a proposição de programas preventivos ou de reabilitação das alterações do movimento. Em um dos trabalhos pioneiros em que se modela estatisticamente dados de marcha humana, Olshen et al (1989), propõem um modelo de regressão trigonométrica com coeficientes aleatórios para obtenção de bandas de confiança para as curvas dos ângulos de rotação usando o método de reamostragem Bootstrap. O objetivo deste trabalho é construir bandas de credibilidade e predição que caracterizem o movimento de um dado grupo. Para isso, propomos uma abordagem bayesiana hierárquica e utilizamos algoritmos de simulação de Monte Carlo via cadeia de Markov (MCMC) para o processo de estimação.
Palavras-Chave: Modelo Bayesiano Hierárquico; Modelo de Regressão Trigonométrica; Banda de Credibilidade; Banda de Predição;


Análise da Superfície de Resposta no Software R - Link direto para esse trabalho
Michelle Valeriano de Lima; Marina Travassos; João Agnaldo do Nascimento

Este trabalho tem como objetivo apresentar uma análise da superfície de resposta com a utlização do software, com o pacote rsm (Response Surface Methodology). Os dados ilustrativos estão em RODRIGUES (RODRIGUES & IEMMA, 2005)
Palavras-Chave: Planejamentos de Experimentos; Planejamentos Fatoriais; Superfície de Resposta;


Análise da complexidade temporal da umidade relativa, velocidade do vento e temperatura do ar na cidade de Poço Redondo-SE - Link direto para esse trabalho
Diego Vicente de Souza Ferreira; José Rodrigo Santos Silva; Lázaro de Souto Araújo; Antonio Samuel Alves da Silva; Rômulo Simões Cezar Menezes

O estudo da dinâmica dos fenômenos naturais fez com que grupos sociais superassem a condição de meros sujeitos às intempéries naturais e atingissem não somente a compreensão de funcionamento de alguns fenômenos, mas também a condição de utilitários e de manipuladores dos mesmos. Desta forma, a fim de compreender a evolução da complexidade temporal ao longo do tempo, neste trabalho aplicamos o método Sample Entropy (SampEn) para analisar a entropia em séries temporais da temperatura do ar, umidade relativa e velocidade da vento, registradas na estação meteorológica do INPE (Instituto Nacional Brasileiro de Pesquisas Espaciais) em Poço Redondo-SE, Brasil no período de 2005 a 2012. Os valores da entropia observados para a velocidade do vento foram predominantemente maiores que os observados para as demais variáveis. Por sua vez a umidade relativa foi a série menos irregular dentre aquelas estudadas. Ao observarmos a evolução desta estatística no tempo, notamos que as séries são estacionárias, indicando que a variabilidade destas séries não foi alterada, ao longo do período em estudo.
Palavras-Chave: Entropia; Séries temporais; Fatores climáticos;


Análise de Componentes Principais Robusta - Link direto para esse trabalho
Higor Cotta; Valdério Anselmo Reisen

Este trabalho apresenta uma comparação de dois estimadores robustos da dispersão de um conjunto de dados, Sn e Qn propostos por Rousseeuw e Croux (1993) para estimação da matriz de covariância e posterior aplicação da Analise de Componentes Principais em dados com outliers. Os estimadores Sn e Qn tem como principal apelo não dependerem da medida de posição do conjunto de dados. Foram realizadas simulações de computacionais, com diferentes percentuais de outliers e estrutura de covariância, para veri car o comportamento desses estimadores comparados ao estimador usual da covariância. As simulações indicaram que ambos estimadores são alternativas viáveis para ACP na presença de outliers.
Palavras-Chave: Robustez; Outliers; Análise de Componentes Principais;


Análise de Referência Bayesiana para a Distribuição Lognormal Generalizada com Aplicação a Dados de Sobrevivência - Link direto para esse trabalho
Sandra Rêgo de Jesus; Vera Lucia Damasceno Tomazella; Francisco Louzada Neto

A distribuição lognormal generalizado (logNG), que inclui a distribuição lognormal como um caso particular, também é considerada uma ferramenta para obter estimativas robustas, devido à sua flexibi- lidade. Essa distribuição tem sido utilizada com diferentes parametrizações, em contextos diferentes, mas os procedimentos inferenciais para os parâmetros do modelo apresentam problemas. Este trabalho propõe a metodologia da análise de referência Bayesiana para estimar os parâmetros do modelo logNG considerando dados de sobrevivência. Mostra-se que a priori de referência conduz a uma distribuição a posteriori própria. No entanto a priori de Jeffreys conduz a uma posteriori imprópria. A metodologia proposta foi ilustrada em dois conjuntos de dados reais.
Palavras-Chave: Inferência Bayesiana; Distribuição lognormal generalizada; Priori de referência; Priori de Jeffreys; Dados censurados;


Análise de Séries Temporais do Preço de Venda do Dólar Americano - Link direto para esse trabalho
Saul de Azevedo Souza; Andreza Ferreira de Miranda; Márcio André Veras Machado; Marina Travassos Lopes

O objetivo central do presente trabalho é avaliar estratégias de modelagem e previsão do preço de venda do dólar americano. A série temporal analisada refere-se ao período de janeiro a dezembro de 2012. Será utilizado o algoritmo de alisamento exponencial de Holt, também utilizaremos a metodologia de Box-Jenkins com os modelos auto-regressivos integrados de médias móveis. Verificou-se que a modelagem de Box e Jenkins obteve maior adequação aos dados observados e possuiu melhor capacidade preditiva para os 12 primeiros dias úteis referentes ao ano de 2013.
Palavras-Chave: Dólar americano; séries temporais; alisamento exponencial de Holt; Box e Jenkins;


Análise de Séries Temporais para a Produção de Gás Natural no Amazonas - Link direto para esse trabalho
Casemiro Rodrigues de Souza; Josenete Cavalcante Costa; Ézio Lacerda Lopes

Introdução: Este artigo apresenta um estudo sobre a produção de gás natural no estado do Amazonas no período de janeiro de 2000 a janeiro 2014 utilizando técnicas de séries temporais. Objetivo: Identificar o modelo mais adequado que corresponde ao período em análise para obter estimativas para realizar previsões de produção para um período de onze meses. Metodologia: A base de dados utilizada foi da Agência Nacional do Petróleo, Gás Natural e Biocombustível (ANP). Foram utilizadas as seguintes ferramentas estatísticas: Teste da raiz unitária para verificar se o processo é estacionário, utilizando os testes de ADF e KPSS. Estimou-se o parâmetro d, onde d é a ordem das diferenças necessárias para tirar a tendência da série, através dos métodos de GPH e Reisen. Após a estimação, gerou-se uma diferenciação no conjunto de dados e depois aplicamos mais uma vez os testes de raízes unitárias. Partimos para a escolha do modelo mais adequado através do Critério de Informações de Akaike (AIC), onde o melhor modelo foi um ARIMA (1,1,2) e por fim foi gerado uma previsão para os onzes meses subsequentes. Todos os resultados foram obtidos através do software estatístico R 2.15.2. Resultados: Verificou-se que a série não segue um processo estacionário, sendo necessário fazer uma diferenciação. Através do Critério de Informações de Akaike (AIC), o modelo mais adequado foi um ARIMA (1,1,2), onde a capacidade de previsão foi satisfatória. Conclusões: O conjunto de dados nos mostrou-se adéqua pelo modelo ARIMA (1,1,2) sendo o modelo utilizado para realizar as possíveis previsões de produção de gás natural. A capacidade de previsão é satisfatória, onde a produção do gás cresce em torno de uma média de 25%. Este trabalho tem bastante importância para o Estado do Amazonas, onde algumas empresas do Pólo Industrial de Manaus (PIM) estão se beneficiando gerando uma economia para elas de 20% a 40% nos custos de geração de energia calorífica.
Palavras-Chave: Gás Natural; Estacionaridade; Modelo ARIMA;


Análise de Transição Latente na Avaliação de Mudança Longitudinal em Transtornos Psiquiátricos - Link direto para esse trabalho
Lia Terezinha L. P de Moraes; Nila M. S. G. Bahamonde2;Ana Clara P. Campos; Rosemeire L. Fiaccone; Leila Denise A. F. Amorim

Um conjunto de métodos estatísticos tem sido continuadamente expandido, permitindo a discussão de questões sobre mudanças ao longo do tempo de maneira inovadora e informativa. Quando a classificação de um indivíduo pode sofrer alterações ao longo do tempo, o desenvolvimento ocorre como uma sequência de estágios. Uma interessante metodologia para este tipo de avaliação é a Análise de Transição Latente (ou LTA, em inglês), na qual os estágios de desenvolvimento em cada ponto do tempo são denominados “estados latentes”. Ao se utilizar esta técnica de modelagem com medidas repetidas são estimadas para cada ponto do tempo as prevalências dos estados latentes (probabilidades não condicionais), as probabilidades de resposta de cada item (probabilidades condicionais) e as probabilidades de transição. Neste trabalho a metodologia sobre a Análise de Transição Latente (LTA) é sumarizada e aplicada para modelagem de um conjunto de variáveis dicotômicas observadas em dois momentos de tempo no estudo sobre transtornos mentais comuns avaliados pelo questionário SRQ-20 em Salvador nos anos 2005 e 2013, com ênfase na avaliação da transição entre os dois períodos de tempo. Na análise foram considerados modelos com 2 estados latentes, que representam grupos mais ou menos prováveis de mães com suspeita de desordens psiquiátricas, nas diversas dimensões que compõem o quadro de transtornos mentais comuns. Foram estimadas as probabilidades de resposta a cada um dos sintomas para cada categoria de resposta, assumindo-se invariância da mensuração nos dois pontos do tempo, a probabilidade de pertencimento a cada estado latente nos pontos do tempo, e as probabilidades de transição dado o pertencimento a um estado latente em 2005. O estado latente 1 é aquele que engloba as mães com maior propensão a sintomas de ansiedade e depressão, incluindo 42,9% e 43,8%, respectivamente, das mães em 2005 e 2013. Verifica-se que maior parte das mães permanece no mesmo estado de sintomas de ansiedade e depressão. No entanto, 32,4% das mães transitaram do estado latente 1 para o 2 entre 2005 e 2013.
Palavras-Chave: Análise de transição latente; Medidas repetidas; Transtornos mentais;


Análise de agrupamento das espécies de foraminíferos do talude continental da Bahia - Link direto para esse trabalho
Ângela Cristina da Fonseca Mirante; João Domingos Scalon; Tânia Maria Fonseca Araújo; Helisângela Acris Borges de Araújo;Tânia Jussara Silva Santana.

Entre os principais grupos da microfauna marinha utilizados em estudos oceanográficos, os foraminíferos ocupam uma posição bastante significativa, por serem reconhecidos como excelentes indicadores ecológicos e paleoecológicos e, portanto muito utilizados em monitoramentos ambientais. Neste contexto, o presente trabalho teve como objetivo identificar as espécies de foraminíferos predominantes nos sedimentos do talude continental do litoral norte do Estado da Bahia, baseando-se nas similaridades entre o número de indivíduos de cada espécie (Frequência Absoluta) nas diferentes localizações (amostras). A metodologia consistiu na aplicação da técnica multivariada de agrupamento, métodos de Ward e k-Médias, em que foi definida a distância euclidiana ao quadrado como métrica de formação dos grupos. Utilizando o software R (R Development Core Team, 2013) foi obtido o dendrograma que possibilitou observar que o talude continental é caracterizado pela presença predominante das espécies Amphistegina lessonii, Cassidulina laevigata, Cibicides pseudoungerianus e Globigerinoide ruber
Palavras-Chave: análise multivariada ; método Ward; método k-Médias; foraminíferos;


Análise de correlação canônica no estudo de associação entre parâmetros de qualidade da água e condições climáticas - Link direto para esse trabalho
Sergio Augusto Rodrigues; Livia Paschoalino de Campos; Nilza Regina da Silva; Carlos Roberto Padovani

Vários fatores podem contribuir para alterações de alguns parâmetros de monitoramento da qualidade da água potável, destacando-se, em especial, os climáticos tais como temperaturas mensais mínima, máxima e média, radiação solar global, precipitações pluviométricas médias mensais, número de dias chuvosos no mês, umidade relativa do ar, velocidade dos ventos e evaporação. O estudo do comportamento dessas características torna-se relevante para um melhor planejamento agrícola, utilização racional dos recursos hídricos e monitoramento da qualidade da água disponibilizada para a população. A presente pesquisa envolveu características físico-químicas e microbiológicas consideradas importantes para o monitoramento da qualidade da água, analisadas em amostras coletadas diariamente em pontos sorteados da rede de distribuição do município de Botucatu-SP, no período de 2007 a 2011. Entre as variáveis consideradas das características físico-químicas e microbiológicas da água foram analisadas as residuais de cloro, pH, turbidez, cor aparente, flúor, temperatura da água, ocorrência de coliformes totais e o número de unidades formadoras de colônias de bactérias heterotróficas. Considerando que a qualidade físico-química e microbiológica da água depende de alguma forma de características climáticas de uma região, um estudo sobre o comportamento dessas variáveis faz-se necessário pela sua importância para o uso racional da água potável e utilização dos recursos hídricos de forma sustentável. Para isso, utilizou-se a técnica de análise multivariada de dados, mais especificamente, a Análise de Correlação Canônica. Os resultados obtidos indicam uma correlação positiva entre a variável canônica formada pela combinação linear das variáveis climáticas e a variável canônica formada pela combinação linear das variáveis de qualidade da água, apontando um indicativo significativo da influência das condições climáticas nas características da água.
Palavras-Chave: Análise Multivariada; Variáveis climáticas; Qualidade da água; Recursos Hídricos;


Análise de dados antropométricos de pessoas da terceira idade do município de Bagé/RS utilizando o software R - Link direto para esse trabalho
Guilherme Goergen; Alessandra Dutra Brignol

O objetivo deste trabalho é calcular índices estatísticos utilizando o software R a partir de dados antropométricos de pessoas da terceira idade com a finalidade de aumentar o período produtivo e melhorar a qualidade de vida dos idosos possibilitando a produção de produtos direcionados e adequados a este público. Para isso, foram coletadas amostras de características físicas antropométricas de 60 idosos frequentadores do Centro do Idoso, localizado na cidade de Bagé, RS. Diante dos resultados obtidos através desta pesquisa, percebem-se relevantes experiências e observações acerca do envelhecimento humano além da importância da criação deste banco de dados antropométricos para a produção de produtos direcionados para a terceira idade, possibilitando uma melhor qualidade de vida da pessoa idosa.
Palavras-Chave: idosos; ergonomia; estatísticas; IMC;


Análise de dados com riscos semicompetitivos - Link direto para esse trabalho
Elizabeth González Patiño

Em análise de sobrevivência, usualmente o interesse está em estudar o tempo até a ocorrência de um evento. Quando as observações estão sujeitas a mais de um tipo de evento (por exemplo, diferentes causas de óbito) e a ocorrência de um evento impede a ocorrência dos demais, tem-se uma estrutura de riscos competitivos. Em algumas situações, no entanto, o interesse está em estudar dois eventos, sendo que um deles (evento terminal) impede a ocorrência do outro (evento intermediário), mas não vice-versa. Essa estrutura é conhecida como riscos semicompetitivos e foi definida por Fine et al.(2001). Neste trabalho são consideradas duas abordagens para análise de dados com essa estrutura. Uma delas é baseada na construção da função de sobrevivência bivariada por meio de cópulas da família Arquimediana e estimadores para funções de sobrevivência são obtidos. A segunda abordagem é baseada em um processode três estados, conhecido como processo doença-morte, que pode ser especificado pelas funções de intensidade de transição ou funções de risco. Neste caso, considera-se a inclusão de covariáveis e a possível dependência entre os dois tempos observados é incorporada por meio de uma fragilidade compartilhada. Estas metodologias são aplicadas a dois conjuntos de dados reais: um de 137 pacientes com leucemia, observados no máximo de sete anos após transplante de medula óssea, e outro de 1253 pacientes com doença renal crônica submetidos a diálise, que foram observados entre os anos 2009-2011.
Palavras-Chave: riscos semicompetitivos; fragildiade compartilhada; cópulas familia arquimediana; processo doença-morte;


Análise de falhas numa panificadora - Link direto para esse trabalho
Raphael Henrique Teixeira da Silva; Daniela Carine Ramires de Oliveira

As empresas de diversos segmentos existentes no mercado têm uma tendência em controlar seus processos produtivos. Métodos estatísticos são de extrema eficácia para se realizar o acompanhamento de processos e reduzir a variabilidade da produção. Portanto, este trabalho teve como objetivo aplicar ferramentas estatísticas em uma empresa do setor de panificação. A organização estudada tinha uma grande preocupação com relação ao processo de produção do pão de sal. O trabalho teve grande impacto na empresa, pois permitiu uma investigação minuciosa e adequada do processo, proporcionando indicações de erros e possíveis melhorias. Vale resaltar que os gráficos de controle de qualidade propostos foram desenvolvidos em um software estatístico livre, não gerando custos adicionais para a empresa.
Palavras-Chave: Controle estatístico de processos; Gráficos Univariados; Gráficos Multivariados; Software livre R;


Análise de padrões de esquistossomose no Estado do Espírito Santo em 2010 - Link direto para esse trabalho
Higor Henrique Aranda Cotta;Adelmo Inácio Bertolde;Wharley Borges Ferreira;Geraldo Antônio da Silva.

A esquistossomose ainda e uma doença endêmica no Brasil, onde o Espírito Santo e um dos Estados que apresenta os maiores índices dessa doenca. Este trabalho apresenta estudo ecológico com enfoque na análise espacial onde foram avaliados fatores que provavelmente estão associados a esquistossomose. Também, e apresentada uma comparação de alguns modelos completamente bayesianos para estimação do risco de esquistossomose no Espírito Santo no ano de 2010. Os dados foram obtidos do cruzamento das bases de dados do Programa de Controle da Esquistossomose (PCE) e do Sistema de Informação de Agravos de Noti ficação (SINAN). A distribuição espacial da esquistossomose no Estado não é uniforme. Por meio do mapeamento dos riscos estimados pelo método Completamente Bayesiano, foi possível perceber um ganho considerável na interpretação dos casos de esquistossomose.
Palavras-Chave: Esquistossomose ; Modelo Hierárquico; epidemiologia espacial; Modelo Completamente Bayesiano;


Análise de perfis em experimentos com medidas repetidas no tempo para sexo de ovinos. - Link direto para esse trabalho
Alessandra dos Santos, Carlos Tadeu dos Santos Dias

São muito comuns situações em que medidas repetidas avaliadas na parcela ao longo do tempo sejam analisadas como split-plot. No entanto, tal análise nem sempre é correta, visto que é esperado existir correlação das medidas temporais. Assim, técnicas que modelem essa estrutura de correlação devem ser aplicadas para fornecer uma análise mais precisa. Portanto, esta é a proposta deste trabalho, que analisou um experimento com dados de ovinos, machos e fêmeas, da raça Santa Inês, avaliando o peso (em Kg) durante 12 meses e verificando se havia diferença significativa no fator sexo e tempo. Para tal utilizou-se técnicas multivariadas, que levam em consideração a estrutura da matriz de variâncias e covariâncias, visto que o teste de esfericidade não foi satisfeito. Então com a análise de variância multivariada ou análise de perfil, detectou-se diferença significativa no fator sexo e tempo, indicando que os animais tem perfis médios não coincidentes e não horizontais, sendo indicado que os machos diferem das fêmeas atingindo pesos superiores.
Palavras-Chave: teste de esfericidade; análise de perfil; correlação;


Análise de pesquisas na área de testes adaptativos computadorizados multidimensionais - Link direto para esse trabalho
Débora Spenassato, Rafael Tezza, Antonio Cezar Bornia, Andréa Cristina Trierweiller

O formato tradicional de aplicação de testes para mensuração de um traço latente é por meio de “papel e lápis”. Com o avanço dos recursos tecnológicos, os testes computadorizados acabaram se destacando e ganhando adeptos no mundo todo pela sua praticidade. A união deste recurso com a Teoria da Resposta ao Item (TRI) fornece uma nova forma de aplicação de testes chamados Testes Adaptativos Computadorizados (CAT), que possuem muitas vantagens em relação aos testes tradicionais, melhorando a precisão e reduzindo o número de itens apresentado aos respondentes. Muitos traços latentes, sujeitos à investigação, tem características multidimensionais e se torna importante a avaliação dos instrumentos de forma correta para se ter um teste adequado para mensuração. Portanto, o objetivo deste artigo é realizar uma bibliometria sobre o tema TRI e CAT multidimensionais para mostrar ao leitor um panorama das pesquisas sobre o tema, buscando identificar algumas características relacionadas aos 18 artigos selecionados para análise.
Palavras-Chave: Testes adaptativos computadorizados; Teoria da Resposta ao Item; Modelos multidimensionais; Bibliometria;


Análise de sobrevivência de pacientes com câncer de mama com metilação do gene SFN - Link direto para esse trabalho
Rogério Antonio de Oliveira; Hildete Prisco Pinheiro; Danielle Barbosa Brotto; Érika da Costa Prando; José Roberto Fígaro Caldeira; Silvia Regina Rogatto; Cláudia Aparecida Rainho

O estudo das alterações epigenéticas se destaca na biologia molecular do câncer. A metilação do DNA, uma das principais modificações epigenéticas do genoma, foi relacionada com o silenciamento de genes relevantes para o desenvolvimento tumoral. O gene SFN (também chamado de Stratifin) é alvo frequente de silenciamento epigenético em diferentes tipos de tumores humanos. Esse gene está localizado no cromossomo 1p36, codifica a proteína 14-3-3σ que regula negativamente o ciclo celular pelo controle do checkpoint G2/M, sendo portanto classificado como um gene supressor de tumor. O presente estudo comparou a metilação do gene SFN com parâmetros prognósticos (clínicos e histopatológicos), taxas de sobrevida e preditivos de resposta terapêutica em pacientes portadoras de carcinomas mamários. A análise da metilação do gene SFN foi baseada na técnica de MS-PCR (Methylation-Specific Polymerase Chain Reaction). As análises estatísticas basearam-se num grupo de 84 mulheres diagnosticadas com câncer de mama, submetidas a tratamento no Hospital Amaral Carvalho – Jaú-SP. Foram analisados os tempos t de sobrevida, ou seja, o período entre o diagnostico de câncer de mama e a ocorrência do óbito em decorrência do câncer ou em consequência do seu tratamento. O tempo médio de seguimento clínico foi de 94 meses, variando entre 23 e 153 meses. Foram censurados os tempos das pacientes que permaneceram vivas até a data final do seguimento e considerou-se a data referente ao último acompanhamento registrado no prontuário médico como a data da censura para aquelas com perda do seguimento. Considerou-se também como censura as datas dos óbitos não relacionados ao câncer de mama. Para comparar as curvas de sobrevivência devido à presença e ausência de metilação do gene SFN, foram estimadas as curvas de sobrevivência pelo método não-paramétrico de Kaplan-Meier e as diferenças observadas foram avaliadas pelo teste de log-rank. Como análise estatística multivariada, aplicou-se o modelo de Cox para avaliar os efeitos conjuntos de algumas variáveis clínicas e histopatológicas, denotadas pelo vetor z. Aplicou-se o método stepwise para encontrar quais variáveis explicam significativamente a função risco λ(t;z), considerando o nível de significância de 5%. As duas curvas de sobrevivência da presença e ausência de metilação do gene SFN não apresentaram diferenças estatisticamente significativas (valor p = 0,127). Para o modelo de Cox, a variável presença de metástase (valor p = 0,0031) foi a única variável que explica significativamente a função risco para a amostra de mulheres analisadas. É importante ressaltar que aproximadamente 88% de casos são censurados, apesar de um tempo médio de seguimento de 94 meses. Portanto, observa-se que os tratamentos aplicados atualmente no tratamento do câncer têm colaborado para aumentar a expectativa de vida das mulheres diagnosticas com câncer de mama. Entretanto, é necessário realizar novos estudos para se compreender e entender melhor quais são os fatores e os mecanismos genético-biológicos que podem causar a doença e, desta forma, desenvolver estratégias para agir de forma preventiva.
Palavras-Chave: Análise de Sobrevivência; Bioestatística; Epigenética; Biomarcador;


Análise de séries temporais Aplicadas a dados de Precipitação pluvial no Estado da Paraíba. - Link direto para esse trabalho
Cícero Carlos Felix de Oliveira, Oseas Machado Gomes, Pedro Ferreira de Lima, Ricardo Alves de Olinda, David Venancio da Cruz.

O presente estudo preocupou-se em estudar a tendência de mudança da precipitação pluvial no Estado da Paraíba utilizando o teste de Mann-Kendall. Foram analisadas séries temporais de 1962 a 2010. Os resultados mostram que das 69 estações analisadas, apenas sete apresentaram tendências significativas (p-valor < 0,05). Também verificou-se que das setes estações que apresentaram significância estatística, essas mudanças bruscas nas médias de precipitação pluvial, ocorreram entre as décadas de 60 a 80. A análise descritiva dos dados mostrou que todas estações apresentaram coeficientes de assimetria (As > 0), ou seja, assimetria a direita. Observou-se que as localidades, Cruz do Espírito Santo, São Sebastião do Umbuzeiro, Pedra Lavrada e Passagem, apresentaram coeficientes de curtose (K < 0,263), ou seja, a distribuição é do tipo leptocúrtica, enquanto que para as localidade de São João do Tigre (SJT), Camalaú (CA) e Cuité (CU) a distribuição foi do tipo platicúrtica (K > 0,263).
Palavras-Chave: Precipitação; Análise de tendência; Séries Temporais;


Análise do comportamento da velocidade do vento na região Nordeste do Brasil utilizando dados da ERA-40 - Link direto para esse trabalho
Lêda Valéria Ramos Santana; Luiz Henrique Gama Dore de Araújo; Antonio Samuel Alves da Silva; Cláudia Helena Dezotti

O NE possui grande potencial eólico e é caracterizado por quatro sub-regiões (Meio Norte, Sertão, Agreste e Zona da Mata) com características distintas e que afetam no comportamento da velocidade dos ventos. Para avaliar qual distribuição de probabilidade é mais adequada para descrever a variabilidade da velocidade do vento no NE foram utilizados 72 estações da re-análise ERA 40 e testada a aderência destas às distribuições Weibull, Gama Generalizada e Rayleigh. Dentre as distribuições testadas a distribuição Weibull foi a que se ajustou a um maior número de estações assim como melhor representou de forma espacial a estatística p-valor a um nível de 95% de confiança. Ainda para esta distribuição é mostrado o comportamento espacial para os parâmetros de forma e escala estimados pelo método de máxima verossimilhança.
Palavras-Chave: distribuição; re-análise; orografia;


Análise do desempenho do gráfico de controle por grupos (GG) em processos com fluxos correlacionados - Link direto para esse trabalho
Max Brandão de Oliveira; Hérika Brenda Santana da Silva

Os gráficos de controle (GC) foram propostos por Walter A. Shewhart em 1931, tendo como objetivo monitorar um processo de fabricação em série, onde os produtos são originados de um único fluxo de produção. Com o surgimento dos processos paralelos (PP), aqueles cujo produto é produzido simultaneamente em vários fluxos de produção, o monitoramento por meio do GC tradicional de Shewhart (GCS) requer a construção de duas cartas para cada fluxo, uma para o nível da qualidade e outra para variabilidade, significando uma análise individual para cada um deles. No entanto, em 1950, Boyd apresenta os gráficos de controle por grupos (GG), uma nova alternativa com o objetivo de facilitar a inspeção de processos paralelos. O GG consiste na elaboração de um único gráfico para o monitoramento do nível da qualidade e outro para a variabilidade do processo, permitindo efetuar o monitoramento de várias linhas de produção com apenas duas cartas. Porém, ambos os GG e o GCS desconsideram a existência de uma estrutura de correlação entre as linhas produtivas. Este artigo, portanto, tem o objetivo de analisar o desempenho do GG na presença e na ausência de correlação entre os fluxos através de uma algoritmo de simulação. O indicador de desempenho é o número médio de amostras (NMA) até a ocorrência do primeiro alarme falso e o algoritmo foi elaborado com base no método de monte carlo (MMC). Além disso, o estudo considera somente o GG para a média. Resultados apontam que o desempenho do GG com correlação é inferior ao sem correlação, chegando a ser 94; 3% inferior para r = 0; 1 quando comparado com fluxos independentes.
Palavras-Chave: Gráficos por Grupos; Processos paralelos; Fluxos correlacionados; Desempnho;


Análise do poder e erro tipo 1 dos testes t e U de Mann-Whitney sob normalidade, homocedasticidade e heterocedasticidade das variâncias. - Link direto para esse trabalho
Juscelia Dias Mendonça; inícius Raniero Ângelo; Tábata Saturnina Trindade de Morais; Danielle Gonçalves de Oliveira Prado

Para a utilização do teste t de Student, devemos satisfazer as pressuposições de normalidade, independência e homocedasticidade das variâncias das populações amostradas. Estudos mostram que o teste t é robusto o suficiente para considerar desvios de seus pressupostos teóricos, principalmente quando são consideradas: amostras de mesmo tamanho e hipóteses bilaterais.O teste Mann-Whitney por sua vez, exige apenas que, ambas as amostras sejam aleatórias e feitas de forma mutuamente independente entre as duas amostras, além disso, a variável a ser testada, deve ser mensurada no mínimo em escala ordinal. Portanto, o presente trabalho teve como objetivo avaliar e comparar o teste t e o teste U de Mann-Whitney em tomadas de decisões erradas (erro tipo I e erro tipo II). As análises foram realizadas por meio de simulação computacional, sendo sempre em populações normais , com médias e variâncias populacionais iguais e diferentes, sendo que no caso de variâncias populacionais diferentes, foi utilizado o teste t com a aproximação dos graus de liberdade proposto por Satterthwaite (1946). Com Os resultados mostraram que com relação ao Erro Tipo I, o teste t mostrou-se, nas situações analisadas, desempenho superior ao teste de Mann-Withney, tendo em vista que os valores encontrados sempre estiveram dentro do intervalo de confiança estabelecido para proporções. Com relação ao poder, verificou-se que o teste de Mann-Whitney apresentou melhores resultados quando a diferença entre as médias era de um desvio padrão e a razão entre as variâncias foi grande. Já para diferença entre médias entre dois e cinco, o teste t mostrou-se mais poderoso na grande maioria das vezes. Para diferença entre as médias maiores que cinco desvios padrão, ambos os testes tiveram poder 1 ou muito próximo de 1.
Palavras-Chave: Teste t; Teste U de Mann-whitney; Simulação; Comparação entre testes.;


Análise dos dados da utilização do PCR para detecção do HPV em amostras de papanicolau - Link direto para esse trabalho
Cintya Régia Araújo da Fonsêca; Marilia Medeiros da Silva;Paulo Roberto Medeiros de Azevedo;Diego Breno Soares de Lima

Os papilomavírus humano (HPVs) de alto risco são um fator necessário para o desenvolvimento do câncer cervical, sendo o DNA viral detectado em 90 a 99% dos casos. A prevalência mundial da infecção pelo HPV é em torno de 440 milhões de casos. Além da infecção pelo HPV, outros fatores modulam a progressão do câncer cervical como: precocidade das atividades sexuais, primiparidade precoce, multiparidade, elevado número de parceiros sexuais, tabagismo, uso de anticoncepcionais orais e presença do HIV. A infecção genital por Chlamydia trachomatis (CT) é estudada como um co-fator no desenvolvimento de neoplasias intraepiteliais servicais e outras alterações celulares significativas em mulheres com histórico de infecção por HPV. Objetivos: Esse estudo objetivou verificar a prevalência da infecção pelo HPV em uma população de meninas adolescentes de 12 a 19 anos em Natal, Rio Grande do Norte. Métodos: A técnica de PCR (Reação em Cadeia de Polimerase) foi utilizada para a detecção do genoma viral em 132 amostras cervicais de pacientes com lesões sugestivas da infecção pelo HPV. Os dados foram obtidos por questionários, para obtenção dos dados sócio-demográficos, e pela análise clínica laboratorial para a detecção molecular do HPV. Para avaliar os conhecimentos, atitudes e prática das adolescentes sobre o exame de Papanicolau, foram adotadas as seguintes definições: Conhecimento adequado e inadequado, atitude adequada e inadequada e prática adequada e inadequada para o HPV . Analisamos o uso do PCR para detecção do DNA do HPV como teste complementar à atual rotina diagnóstica e trata-se de um estudo transversal cujo desfecho é a positividade ao HPV.
Palavras-Chave: Análise de Dados Categorizados; HPV; Papanicolau; PCR;


Análise dos dados de roubo e homicídio na cidade de Natal-RN no ano de 2013 - Link direto para esse trabalho
Elias Jeferson de Melo Silva;Inara Francoyse de Souza Pereira;Joyce Bezerra Rocha;Kleber Maciel de Farias Júnior;Pledson Guedes de Medeiros;

O ano de 2013 foi considerado como o mais violento dos registrados até hoje no estado do Rio Grande do Norte (RN), segundo dados da Polícia Militar do RN (ver Bernardo, 2014). Com base em dados de roubo do ano de 2013, e homicídios entre os anos de 2011 e 2013 na cidade de Natal- RN, utilizou-se técnicas de Controle Estatístico de Qualidade para monitorar o comportamento destes roubos e homicídios com o uso do Gráfico C para não-conformidades. O monitoramento foi estratificado por Zonas da cidade (Norte, Sul, Leste e Oeste). Para ambas as variáveis de roubo e homicídio, a única Zona que permaneceu estável no ano de 2013 foi a Leste.
Palavras-Chave: Controle Estatístico de Qualidade; Roubo; Homicídio; Zonas de Natal;


Análise e Aplicação de uma Nova Função de Ligação Assimétrica para Dados com Resposta Binária - Link direto para esse trabalho
MARANGONI, Felipe; POLPO, Adriano

Na modelagem de dados cuja característica de interesse é do tipo binária, funções de ligação como Logito, Probito e t de Studant são amplamente utilizadas. Dentre as funções mais comuns, a maioria apresenta ligação simétrica. Entretanto, em determinadas situações, o ajuste do modelo pode ter uma melhora significativa com o uso de funções de ligação assimétricas. O principal enfoque deste trabalho será estudar uma nova função de ligação assimétrica proposta por CHEN et al. (1999) para análise de dados binários com presença de covariáveis. Este trabalho terá por objetivo apresentar os principais conceitos relacionados ao método, a abordagem bayesiana, um estudo de simulação e uma aplicação à dados reais.
Palavras-Chave: Modelo hierárquico bayesiano; Variável latente; Função de ligação assimétrica; Fator de Bayes; Monte carlo via cadeia de markov;


Análise e Correspondência Múltipla na Avaliação dos Padrões de Comportamento dos participantes do Estudo Longitudinal de Saúde do Adulto (ELSA) - Link direto para esse trabalho
Daiane Martins Grugel; Larissa de Eletério Lima; Marília de Sá Carvalho; Aline Araújo Nobre; Jony Arrais Pinto Junior; Enirtes Caetano Prates Melo.

O Estudo Longitudinal de Saúde do Adulto (ELSA-Brasil) e um estudo de coorte multicêntrico e multidisciplinar com a participação de 15.105 funcionários efetivos de seis instituições públicas de pesquisa e ensino superior, que objetiva investigar a incidência e os fatores de risco para doenças crônicas, principalmente as cardiovasculares e o diabetes. O objetivo deste projeto é conhecer o perfil da população dos participantes do projeto ELSA, identificar as relações entre os fatores de risco para doenças crônicas, principalmente as cardiovasculares e o diabetes. Utilizamos como técnica a Análise de Correspondência Múltipla que surge como uma técnica exploratória para a avaliação de variáveis categóricas que converge a matriz de dados em um tipo particular de gráfico. Esta técnica busca detectar grupos de variáveis (ou de indivíduos) mais correlacionados e encontrar os fatores que descrevam a estrutura dos dados de forma a sintetizar as informações. O questionário aplicado aos participantes do projeto ELSA possuía diversas perguntas sobre hábitos alimentares, características sócio-demográficas, história médica, exposição ocupacional, entre outras. Entretanto, o conjunto de variáveis foi subdividido em blocos. O primeiro bloco analisado foi o de características comportamentais dos entrevistados. Esse bloco era composto por questões como a prática de atividade física, hábito de fumar e beber, e hábitos alimentares (consumo de frutas, verduras e legumes). Os resultados que se seguem são referentes ao bloco de características comportamentais. A exposição a fatores de risco comportamentais, como tabagismo, consumo de álcool, alimentação inadequada e sedentarismo, frequentemente se inicia na adolescência e se consolida na vida adulta. Tais fatores aumentam o risco de desenvolvimento da maioria das doenças crônicas não transmissíveis, como as cardiovasculares, diabetes e câncer, principais causas de morbimortalidade na vida adulta. Com base nessas informações, procurou-se entender e conhecer cada variável e o conjunto delas nessa coorte. Foram identificados quatro perfis extremos: 1)pessoas que não fumam, não bebem ou bebem pouco. 2) pessoas que fazem atividade física, são ex fumantes, têm consumo alto ou diário de frutas, verduras e hortaliças e bebem moderadamente; 3) fumantes e bebedores excessivos; 4) não praticam atividade fsica e têm consumo semanal ou raro de frutas, verduras e hortaliças. Além disso, foi possível visualizar a quantidade de indivíduos dessa coorte presente em cada perfil. Apoio: CNPq
Palavras-Chave: Análise de Correspondência Múltilpla; Doenças Crônicas; ELSA; Saúde do Adulto no Brasil; Padrões de Comportamento;


Análise espacial e espaço-temporal da dinâmica do mosquito Aedes aegypti via modelos aditivamente estruturados e inferência bayesiana aproximada - Link direto para esse trabalho
Taynãna César Simões; Claudia Torres Codeço; Aline Araújo Nobre; Álvaro Eiras

Introdução: A heterogeneidade espaço-temporal da incidência da dengue reflete a com- plexidade de fatores de risco envolvidos na transmissão, e em particular, na dinâmica do vetor Aedes aegypti. O entendimento de padrões espacial e/ou temporal da abundância do mosquito pode contribuir de forma significativa para a elaboração de ações que busquem evitar a prolife- ração do vetor, através de campanhas direcionadas para as áreas de maior infestação, bem como priorizar épocas do ano em que a abundância seja diferencial. Métodos e Resultados: Índices de abundância foram obtidos de armadilhas de captura de Ae. aegypti grávidas, monitoradas ao longo de 90 semanas, no município de Governador Vala- dares (MG). Covariáveis climáticas, demográficas, socioambientais, e índices larvários foram considerados. Como ferramentas analíticas, foram utilizados modelos lineares generalizados, modelos lineares generalizados mistos, e modelos hierárquicos bayesianos, incorporando estru- turas de correlação espaciais e espaço-temporais . A inferência sobre os parâmetros foi feita de forma aproximada pelo método determinístico INLA (Integrated Nested Laplace Approximati- ons).O modelo de efeitos aleatórios com melhor ajuste incorporou apenas o efeito espacialmente estruturado da localização das armadilhas. O modelo com covariáveis considerou a distância do local da armadilha até à margem do rio Doce; abundância de mosquitos Culex e Ae. albopictus fêmeas na armadilha; altitude do local que a armadilha foi implantada em relação ao nível do mar; índices larvários em recipientes tais como vasos e pratos de plantas com água, garrafas retornáveis, materiais de construção, calhas, ralos, piscinas não-tratadas, e de água elevados e ligados à rede de abastecimento; densidade populacional e de pessoas por domicílio nos es- tratos. O modelo espaço-tempo de melhor significância prática incorporou os quatro efeitos aleatórios principais, o termo de interação entre espaço estruturado e tempo não estruturado,além das covariáveis abundância de Culex e Ae. albopictus; densidade populacional e pessoas por domicílio; densidade larvária em revervatórios móveis, tais como vasos e pratos de plan- tas com água (IT R(B)); interação entre pessoas por domicílio e IT R(B); umidade (lag2) e a abundância de Ae. aegypti na semana precedente. Conclusão: Foi possível caracterizar a distribuição da abundância do Ae. aegypti fêmea adulta, através de termos aleatórios estruturados e não estruturados no espaço e tempo, e atra- vés de covariáveis socioambientais, demográficas, climáticas e entomológicas. Os dados não mostraram a presença de conglomerados, sugerindo ações focais em domicílios com alta infes- tação.
Palavras-Chave: Modelos espaço-temporais; Aedes aegypti; INLA;


Análise espacial e modelagem ZIP aplicadas aos dados de tuberculose de Vitória-ES - Link direto para esse trabalho
Adelmo I. Bertolde; Carolina M. M. Sales; Gabriela F. Nunes; Bárbara Dias; Ethel N. Maciel

Realizou-se neste trabalho uma análise espacial e ajuste de modelo Poisson com correção para excesso de zeros (ZIP) em 588 casos de tuberculose no município de Vitória-ES, entre 2009 a 2011, por setor censitário. Os dados referentes à doença foram obtidos junto a Secretaria de Vigilância em Saúde do Ministério da Saúde do Brasil (SVS/MS) e a base cartográfica e populacional foi obtida do Censo 2010 do IBGE. O mapa de incidência obtido a partir do estimador empirical Bayes local se apresentou como melhor alternativa ao mapa das taxas brutas, por apresentar menor flutuação aleatória, indicando assim áreas prioritárias melhor definidas. O ajuste do modelo ZIP, apesar de o baixo poder explicativo, resultou em que as variáveis alfabetismo e renda apresentaram efeito estatístico significativo para a explicação da ocorrência de tuberculose e na probabilidade de ocorrência de falsos zeros, respectivamente. Ficou evidente que a distribuição espacial dos casos de tuberculose no município de Vitória não é homogênea e que, portanto, os resultados deste trabalho podem ser úteis na tomada de decisão que visem ao tratamento adequado para os doentes a fim de quebrar a cadeia de transmissão da doença.
Palavras-Chave: Tuberculose; Modelo ZIP; Análise Espacial;


Análise espacial sobre o comportamento da mortalidade infantil, e suas componentes, no Estado de Pernambuco - Link direto para esse trabalho
Claudia Jakelline Barbosa e Silva; Suzana Marta Cavenaghi

Este estudo refere-se à pesquisa acerca do padrão espacial dos componentes neonatal e pós-neonatal da mortalidade infantil no Estado de Pernambuco, Brasil, nos anos 2000 e 2010. As probabilidades de morte infantil foram estimadas mediante o cotejo dos arquivos de óbitos e de nascidos vivos. A unidade de análise do padrão espacial foi constituída pelos 185 municípios do Estado. Para análise de autocorrelação espacial foram utilizados: Moran “global” e Moran local. Todos os componentes da mortalidade infantil evidenciaram autocorrelação espacial estatisticamente significativa em 2000 assim como em 2010. No período pós-neonatal, os municípios de risco concentram-se nas regiões da Zona da Mata e Agreste Pernambucano em 2000. Já em 2010 estavam concentradas no Agreste, Sertão e região do São Francisco Pernambucano. No período neonatal precoce os municípios de maior risco estavam concentrados nas regiões do São Francisco e do Sertão Pernambucano em 2000, em 2010 esta região se espalhou um pouco mais, mas permaneceu predominante nestas regiões. Para o coeficiente neonatal tardio em 2000 o padrão de ocorrência é de poucos municípios com alto risco, já em 2010 é bem heterogêneo, havendo distritos de alto risco distribuídos em todas as regiões do Estado.
Palavras-Chave: Mortalidade Infantil; Análise Espacial; Componentes Etários;


Análise generalizada da lacunaridade do regime pluviométrico de Piracicaba - SP - Link direto para esse trabalho
André Luiz Pinto dos Santos;Guilherme Rocha Moreira.

A lacunaridade é uma medida que estima a distribuição do tamanho de lacunas dentro de um conjunto de dados. Neste trabalho, o objetivo foi utilizar o conceito de lacunaridade para observar mudanças entre os seguimentos com relação `a homogeneidade da série temporal do regime pluviométrico do município de Piracicaba - SP, no período compreendido entre janeiro de 1982 a dezembro de 2011. Para isso, foram utilizados 11.330 observações diárias de precipitações, divididos em seis seguimentos. Depois de 2002, o valor da lacunaridade aumenta e depois de 1997 o valor da lacunaridade generalizada (para q = 2) também aumenta indicando uma maior heterogeneidade de períodos de seca e a mudança de regime pluviométrico na região.
Palavras-Chave: Lacunaridade;; precipitação pluvial;; estimativas.;


Análise multifractal das correlações cruzadas entre séries temporais de precipitação e vazão - Link direto para esse trabalho
Evelyn Souza Chagas; Bárbara Camboim Lopes de Figueirêdo; Profº. Dr. Wilson Rosa de Oliveira Junior

Sistemas hídricos são compostos por vários componentes (precipitação, o escoamento, a evaporação, a transpiração, a infiltração, etc) e exibem um comportamento não linear, com todos os componentes individuais exibindo um comportamento não linear também. Apesar da não linearidade dos processos hidrológicos ter sido reconhecida por muitos anos, o desenvolvimento recente do poder computacional e tecnologias de aquisição de dados proporcionam ferramentas poderosas para avaliar os métodos existentes e desenvolver novas técnicas mais eficientes para estudar a variabilidade espacial e temporal e a complexidade desses fenômenos. Considerando-se que a precipitação é o fator natural que mais influencia o regime de fluxo de vazão, neste trabalho estuda-se a relação não linear entre os componentes do sistema hidrológico, através da análise de correlações multifractais de séries temporais individuais de precipitação e vazão, assim como correlações cruzadas entre os dois processos. Para isto, são aplicados os métodos Multifractal Detrended Fluctuation Analysis (MF-DFA) e Multifractal Detrended Cross-Correlation Analysis (MF-DXA) em séries temporais diárias de precipitação e vazão registradas na Bacia Piracicaba, a qual está localizada no estado de São Paulo, Brasil. Os resultados mostram que séries temporais da precipitação e vazão possuem correlações e correlações cruzadas multifractais indicadas pelo comportamento das medidas multifractais: expoente de Hurst generalizado, expoente de Rényi e espectro multifractal. O espectro multifractal obtido pela análise de correlação cruzada (MF-DXA) é semelhante ao espectro multifractal da precipitação. Esta diferença poderia ser relacionada ao uso da terra e o tipo de solo que afeta o processo de evaporatranspiração, e consequentemente todo o ciclo hidrológico da bacia.
Palavras-Chave: Multifractalidade; Correlação de longo alcance; Correlação cruzada;


Análise multivariada de dados Poisson composto longitudinais - Link direto para esse trabalho
Rubem Kaipper Ceratti; Afrânio Márcio Corrêa Vieira

On studies about the blend of volatile organic compounds, released due to the damage caused by herbivorous insects, usually produce a number of mass concentration of theses compounds (say 30, 50 or higher), correlated each other, what partially describes the metabolic route stimulated by the damage stimulus. These measures are asymmetric with a probability to occur zero values. Furthermore, the stimuli are experiment-based and longitudinal measures are taken, trying to identify significant factors and/or time point that are scientifically relevant. In this work will be presented a proposal of multivariate data analysis, based on generalized linear mixed models[1] where the multivariate response will be assumed as Tweedie’s compound Poisson distribution[2]. The modeling strategy adopted was all-pairwise mixed models as well a pseudo-likelihood approach to reconstruct the covariance response matrix, already adjusted for non normality, experimental design structure and longitudinal correlations. It means that traditional multivariate analysis as PCA, factor and cluster analysis can be produced, bringing light to a complex data structure where, usually, univariate analyses are made. The package pair.mglmm for R computing environment was produced based on cplm and doParallel packages. These packages allow fitting compound Poisson mixed models using parallel computing on multicores processors. Simulations where done to evaluate the computational effort and it can be concluded that even for higher number of multivariate responses, the modeling is feasible, where the full multivariate approach isn’t possible . These models were applied on a cotton plant study, where 25 chemical compound mass where measured on 4 time points, under a completely randomized experimental design with 5 treatments. The results were promising in the biological control research area as well as methodological approach for biostatisticians.
Palavras-Chave: Modelos Lineares Generalizados Mistos; Família Tweedie de Distribuições; Análise Multivariada; Pseudo verossimilhança; Controle biológico;


Análise probabilística do risco de contaminação de batatas por pesticidas - Link direto para esse trabalho
Rosineide Fernando da Paz; Carlos Alberto Ribeiro Diniz; Lourival Costa Paraíba; Ricardo Antonio Almeida Pazianotto

Para os seres humanos, os vegetais são componentes fundamentais em dietas saudáveis. No entanto, eles também podem ser fontes de substâncias não desejáveis, por exemplo, se contiverem concentrações signicativas de pesticidas. Neocotinoides são pesticidas utilizados largamente em plantações de batatas e são bons exemplos de substâncias que poderiam ser encontradas em tubérculos de plantas de batatas. Um modelo matemático descrito por um sistema de equações diferenciais ordinárias e parciais que simula a absorção de pesticida do solo por batatas foi utilizado para simular concentrações de pesticidas em batatas e um modelo estatístico que descreve a distribuição de batatas no perfil do solo foram combinados para estimar a probabilidade do risco de contaminação de batatas por pesticidas. Os modelos combinados descrevem a probabilidade do risco de batatas colhidas após aplicações de pesticidas apresentarem concentrações de pesticidas acima de valores limites aceitáveis. O método de análise de risco foi ilustrado supondo-se que batatas foram cultivadas com o neocotinoide imidacloprid, um inseticida largamente utilizado em todo o mundo em cultivos de batatas.
Palavras-Chave: análise de risco; inseticidas; contaminação; segurança alimentar; tubérculos;


Análise temporal do consumo de energia elétrica residencial no Brasil no período de 2002 a 2013. - Link direto para esse trabalho
Anna Beatriz Adum de Paiva; Luiz Eduardo da Silva Gomes;

Foi feita uma análise temporal da série mensal do consumo de energia elétrica residencial no Brasil no período de janeiro de 2002 à junho de 2013. Buscamos dois modelos de estimação para a série, o primeiro utilizando a metodologia Box & Jenkins e o segundo utilizando a suavização exponencial de Holt-Winters, comparando seus valores estimados e suas previsões futuras com os valores reais.
Palavras-Chave: Energia elétrica; Box & Jenkins; Holt-Winters;


Aperfeiçoamento da estatística de Wald em modelos lineares generalizados heteroscedásticos - Link direto para esse trabalho
Fabiana Uchôa; Denise A. Botter; Mônica C. Sandoval

Neste trabalho iremos apresentar fórmulas matriciais para a matriz de covariâncias de segunda ordem dos estimadores de máxima verossimilhança corrigidos pelo viés de primeira ordem em modelos lineares generalizados heteroscedásticos. Estas fórmulas são úteis para a construção de estatísticas de Wald modificadas, as quais serão comparadas com as estatísticas da razão de verossimilhanças e escore e com suas versões corrigidas.
Palavras-Chave: modelos lineares generalizados heteroscedásticos; matriz de covariâncias de segunda ordem; estimadores de máxima verossimilhança corrigidos pelo viés;


Aperfeiçoamento do teste gradiente em modelos lineares generalizados - Link direto para esse trabalho
Tiago Moreira Vargas; Silvia Lopes de Paula Ferrari; Artur José Lemonte

Neste trabalho apresentamos uma expansão para a função de distribuição da estatística gradiente sob a hipótese nula até ordem $n^{-1}$, onde $n$ é o tamanho da amostra, para modelos lineares generalizados com parâmetro de dispersão desconhecido. Esta expansão depende de cumulantes do logaritmo da função de verossimilhança. Fórmulas matriciais de fácil computação para essas quantidades são derivadas aqui. A partir dessa expansão, propomos uma estatística gradiente corrigida por um fator de correção tipo-Bartlett que possui distribuição $\chi^2$ até ordem $n^{-1}$. Estudos de simulação são feitos com o intuito de verificar a performance desta estatística corrigida e compará-la com a versão não corrigida da estatística gradiente, e com as estatísticas da razão de verossimilhança e escore, bem como suas respectivas versões corrigidas, e com a estatística de Wald.
Palavras-Chave: Correção de Bartlett; Correção tipo-Bartlett; Estatística Gradiente; Modelos Lineares Generalizados;


Aplicação Da Cadeia De Markov Para Ranqueamento De Sites - Link direto para esse trabalho
Jaudir Aguiar Almeida Júnior; Igor Daniel Costa; Bárbara de Oliveira Aguiar; Maria de Fátima Ferreira Almeida; Renato Afonso Cota Silva

O presente trabalho busca apresentar aplicações de maneira introdutória dos processos Markovianos, em específico a cadeia de Markov, mostrando a eficiência que sua utilização proporciona.
Palavras-Chave: Cadeia de Markov; Ordenação Pagerank; Processos Markovianos;


Aplicação da Análise de Cluster para identificar municípios em situação de Vulnerabilidade Social no Amazonas - Link direto para esse trabalho
Josenete Cavalcante Costa Ezio Lacerda Lopes Casemiro Rodrigues de Souza

O presente estudo tem por objetivo verificar através de técnicas estatísticas à situação de Vulnerabilidade Social nos municípios do Amazonas nas dimensões como: renda, ciclo de vida e escolaridade. Como metodologia utilizou-se, fonte dados do IBGE com base no Censo Demográfico 2010 para obter os indicadores e os índices de vulnerabilidade na escala municipal. Para identificar os municípios que se encontram em situação de vulnerabilidade, foi utilizado à análise de Agrupamento (Cluster) por meio da técnica hierárquica que tem como objetivo dividir a população em grupos similares entre si, com respeito às características (índices) que foram medidas. O método de análise para a geração dos resultados (clusters) foi de Ward e a distancia Euclidiana. O Dendograma foi gerado como procedimento de agrupamentos para melhor ilustração da partição final. Os valores do índice de vulnerabilidade social (IVS) variam entre zero (0 indicando nenhuma) e um (1 alta) e para gerar a escala de classificação de vulnerabilidade (nenhum, muito baixa, baixa, média, alta e muito alta) em que os clusters se encontram, foi obtida pela amplitude do intervalo de classe para construção de tabela de frequencia. Os resultados geraram uma partição de seis (g=6) clusters de um conglomerado de 62 observações. Obtivemos um grupo com o mínimo de dois (2) municípios agrupados e um máximo de dezenove (19). Dos 6 grupos encontrados, têm-se o 6º grupo com os municípios de Manaus e Presidente Figueiredo que apresentam os menores IVS com média geral de 0,2135, e o grupo 3 destacam-se pelos maiores IVS com média geral de 0,4867. Dos 62 municípios, na dimensão renda 45% encontra-se em situação de média vulnerabilidade; no Ciclo de Vida 60% em alta; e na escolaridade 23% em situação de baixa vulnerabilidade. Dentre as três dimensões, o Ciclo de vida é o que eleva o IVS em todos os grupos atingindo 38 municípios (61%) com índices acima de 0,666 classificados com alta vulnerabilidade social. Podemos concluir que através da aplicação da análise de agrupamento, foi possível identificar municípios grupos homogêneos com os maiores e menores problemas de vulnerabilidade. Para tanto, de forma a permitir o desejo de ações locais focalizadas, especialmente por parte do poder público municipal, é possível gerar um instrumento de definição de áreas prioritárias para o direcionamento de políticas publicas, em especial as de combate a pobreza.
Palavras-Chave: Indicadores; Análise Agrupamento ; Vulnerabilidade Social;


Aplicação da Estatística Multivariada no Processo de Ensino e Aprendizagem - Link direto para esse trabalho
Jailton Paulo Araújo; Pedro Luciano de Oliveira Gomes; Carla A. Vivacqua

análise de dados multivariados afim de identificar habilidades individuais em alunos, auxiliando o professor no processo de ensino e aprendizagem.
Palavras-Chave: Habilidades; Métodos Estatísticos; Análise de dado;


Aplicação de Aprendizado Estatístico em Medicina na UFRJ - Link direto para esse trabalho
Cachimo Combo ASSANE; Emilia Matos do NASCIMENTOS; Basilio de Bragança PEREIRA.

Neste trabalho mostramos a aplicação das técnicas de aprendizado estatístico na pesquisa médica, no âmbito da integração entre pesquisadores da área clínica e estatística. Algumas aplicações de aprendizado estatístico são apresentadas, como resultados de artigos publicados em parceria com pesquisadores do Hospital Universitário Clementino Fraga Filho (HUCFF/UFRJ), teses de doutorado e mestrado na área de medicina. A relevância deste trabalho se dá na medida em que possibilite a identificação dos fatores prognósticos clínicos relacionados a cada estudo, auxiliando no tratamento e no diagnóstico.
Palavras-Chave: Aprendizado Estatístico; Classificação; fatores de risco;


Aplicação do teste de Goodman na identificação de características associadas ao interesse em participar de um programa alternativo para melhoria do trânsito - Link direto para esse trabalho
Sergio Augusto Rodrigues; Keila Rodrigues de Moura

O trânsito é um dos principais problemas da era moderna, no entanto dificilmente as pessoas deixariam o conforto do automóvel particular por alternativas coletivas. O carpooling ou carona solidária é uma alternativa sustentável para melhoria do trânsito, pois pode contribuir para a redução do número de veículos circulando nas vias públicas e, consequentemente, com o meio ambiente. O objetivo desse trabalho é avaliar a aceitação do carpooling entre os alunos de uma faculdade da cidade de Botucatu, bem como identificar as características associadas ao interesse em participar de um programa de carona solidária. Para isso, um estudo observacional por meio de um levantamento amostral foi realizado entre os alunos de uma instituição pública de ensino superior, utilizando um questionário estruturado para coleta dos dados, sendo a amostra de alunos obtida através de um processo aleatório. Após a coleta dos dados, os mesmos foram analisados por meio de técnicas de estatística descritiva e pelo teste de Goodman para estudar a associação entre as variáveis. Verificou-se que apenas 5,5% dos alunos entrevistados não teriam interesse em dar carona a algum colega ou funcionário da instituição e que o gênero, faixa etária, período que estuda e a propriedade de um veículo não estão associados ao interesse em participar de um programa de carona solidária.
Palavras-Chave: Carpooling; Mobilidade Urbana; Políticas públicas; Teste de Goodman;


Aprendendo a retratar a sua realidade: jovens meninas fazendo ciências exatas - Link direto para esse trabalho
Ana Maria Nogales Vasconcelos; Marília Miranda Forte Gomes; Cauan Braga da Silva Cardoso; Ana Paula Rodrigues Berçot.

Atendendo a chamada pública do CNPq nº 18/2013 - MCTI/CNPq/SPM/PR/Petrobrás - Meninas e jovens fazendo Ciências Exatas, Engenharias e Computação, que pretende estimular estudantes do gênero feminino à ingressarem em cursos de exatas, o Departamento de Estatística da UnB, junto ao Laboratório de Produção e Desenvolvimento do Núcleo de Estudos Urbanos e Regionais e o Observatório da Juventude da UnB, buscou incentivar as alunas do Centro de Ensino Médio 01 do Paranoá a ingressarem no curso de graduação em Estatística. As alunas conheceram a Universidade, aprenderam mais sobre os cursos de exatas e, em especial, o curso de Estatística. O presente projeto tem como objetivo ensinar estatística de forma lúdica e intuitiva e, assim, atrair mais alunas e alunos do C.E.M. 01 do Paranoá em uma feira de ciências a ser realizada na escola pelas próprias alunas participantes do projeto.
Palavras-Chave: CNPq; UnB; Paranoá; Meninas; Estatística;


Aproximação da Transformada dos Momentos de Tchebichef para Compressão de Imagem - Link direto para esse trabalho
Paulo A. M. Oliveira; Renato J. Cintra; Fábio M. Bayer;

Para aplicações de descorrelação de dados, como em compressão de imagens, o uso de transformadas lineares, como a análise de componentes principais (PCA), é de fundamental importância. Contudo, a PCA pode ser impraticável em aplicações de compressão de imagem e vídeo, por sua matriz de transformação depender dos dados de entrada. Neste sentido, a transformada dos momentos de Tchebichef (TMT) se torna uma alternativa de baixo custo computacional para descorrelação de dados. Neste trabalho, uma nova aproximação de baixa complexidade computacional para a TMT é introduzida. A transformada proposta é livre de multiplicações e requer uma quantidade reduzida de adições e deslocamentos de bits. A avaliação numérica em compressão de imagens evidencia o bom desempenho da transformada proposta em altas taxas de compressão.
Palavras-Chave: TMT aproximada; otimização multicritério; algoritmos rápidos; compressão de imagens;


Aproximações de distribuições marginais a posteriori utilizando o método INLA. - Link direto para esse trabalho
Douglas Roberto Mesquita Azevedo; Vanessa Bielefeldt Leotti Torman

Atualmente, os métodos de Estatística Bayesiana estão ganhando uma maior visibilidade pelos pesquisadores, devido a sua simples estrutura e a sua alta aplicabilidade nas mais diversas áreas do conhecimento. Sua aplicação no entanto exige um bom suporte computacional, pois os cálculos algébricos em geral são inviáveis. A maioria dos modelos ajustados utilizando Estatística Bayesiana são analiticamente impossíveis de serem resolvidos. Para driblar essa barreira muitos recursos numéricos e computacionais foram apresentados. Os métodos que mais se difundiram foram os métodos de simulação. Estes métodos conseguem obter resultados satisfatórios, porém com o contraponto de em determinados casos precisarem de longas cadeias para obter convergência, o que torna o processo demorado. No ano de 2009 um novo método determinístico foi proposto, o método INLA. Este método é aplicável numa grande gama de modelos, chamados de Modelos Latentes Gaussianos. O desempenho do método e o tempo computacional são satisfatórios, tendo resultados similares aos métodos de simulação de forma muito mais rápida, além de não ser necessário a verificação de convergência. Este trabalho tem por objetivo ilustrar de maneira acessível, através de exemplos, a matemática inserida no método INLA, e ao mesmo tempo, servir como um breve tutorial sobre os comandos deste método utilizando o pacote R-INLA do software estatístico R.
Palavras-Chave: Inferência Bayesiana; INLA; Aproximações determinísticas;


Aproximações para DCT Baseadas no Algoritmo de Loeffler - Link direto para esse trabalho
D. F. G. Coelho; R. J. Cintra; F. M. Bayer; S. Kulasekera; A. Madanayake

Uma nova classe de aproximações para a transformada discreta do cosseno (DCT) de comprimento 8 é proposta. A nova classe é baseada na parametrização do algoritmo rápido de Loeffler. Por meio de um um procedimento de otimização multicritério, baseada em figuras de mérito como medidas de proximidade em relação a DCT e de codificação, novas transformadas eficientes, na fronteira de Pareto, são propostas. Essas transformadas eficientes apresentam boas propriedades em termos de aproximação com a DCT, baixa complexidade aritmética, ortogonalidade e bom desempenho em compressão de imagens. Mostra-se que as transformadas propostas superam aproximações no estado da arte em diversas métricas consideradas.
Palavras-Chave: DCT; Aproximações; Algoritmo de Loeffler; Otimização Multicritério; Compressão de Imagens;


Aspectos teórico e prático da análise Estatística de um experimento em blocos casualizados com efeitos aleatórios - Link direto para esse trabalho
Costa, João Batista Filgueira; Medeiros, Marcos Barros de; Luna, João Gil de

Este artigo consiste em apresentar uma pequena parte da análise teórica e prática acerca de um delineamento experimental em blocos ao acaso com efeito aleatório e com uma aplicação de um exemplo real, expor resultados obtidos da análise de variância, através de um algorítmo para entrada e saída de dados enfatizando a Estatística computacional no software SAS. Os resultados comentados detalhados.
Palavras-Chave: Planejamento de Experimento; Modelo Aleatório ; Análise de Variância;


Associação entre as respostas de métodos adaptabilidade e estabilidade baseados em regressão - Link direto para esse trabalho
Regiane Teodoro do Amaral; Moysés Nascimento; Ana Carolina Campana Nascimento; Laís Mayara Azevedo Barroso

– O objetivo deste trabalho foi realizar um estudo da associação entre as respostas dos métodos de adaptabilidade e estabilidade de Eberhart e Russell (1966) e de Cruz et al., (1989) por meio da análise de correspondência simples. Para isso, foram utilizados dados advindos de um experimento em blocos casualizados com 2 repetições, provenientes da avaliação da produção de matéria seca de 92 cultivares de alfafa em 20 cortes, realizados no período de novembro de 2004 a junho de 2006. A técnica de análise de correspondência mostrou-se eficaz para o estudo da associação das respostas dos métodos de adaptabilidade e estabilidade. Para os dois métodos comparados, as categorias mais associadas foram desfavorável previsível (DP) e desfavorável imprevisível (DIC).
Palavras-Chave: Análise de correspondência simples; Eberhart & Russell (1966); melhoramento vegetal; Cruz, Torres e Vencovsky (1989); Alfafa;


Atendimento pós-exposição ao vírus da raiva: adequação da conduta - Link direto para esse trabalho
Adriana Mayumi Moriwaki; Rosangela Getirana Santana; Emerson Barili; Taqueco Teruya Uchimura; Nelson ShozoUchimura.

Objetivo: Avaliar o tratamento profilático do primeiro atendimento anti-rábico pósexposição. Métodos: Estudo transversal, descritivo e analítico, com dados do Sistema de Informação de Agravos de Notificação. Analisados 39.087 atendimentos, excluídos 1.091 (2,79%) casos de re-exposição e pré-exposição, resultando em 37.996 atendimentos pós- exposição. Realizadaanálise de regressão logística para adequação de conduta. Resultados: Observou-se predomínio da raça branca (83,93 %), sexo masculino (54,58 %), ensino fundamental (66,13 %), idades entre 20-59 anos (45,0%), seguido por 0 a 12 anos (32,88%) e residentes na zona urbana (91,97%). Considerou-se 15.500 (41,56%) atendimentos inadequados, 10.587 (28,11%) atendimentos deficitários, ou o paciente não recebeu o tratamento necessário, e 5.013 (13,44%) pacientes receberam atendimento mais do que o necessário para a profilaxia anti-rábica. Conclusão: A profilaxia pós-exposição da raiva foi considerada inadequada necessitando de uma melhor abordagem na admissão e atenção no preenchimento dos registros de dados. Descritores: Profilaxia pós-exposição; Raiva; Avaliação. Introdução A raiva humana transmitida por cães é considerada uma doença negligenciada, passível de ser eliminada na América Latina e Caribe através de uma série de estratégias como a vacinação canina, a profilaxia pré e pós-exposição.(1) A Organização Mundial de Saúde relata a realização de mais de 15 milhões de profilaxias pós-exposição (PPE) e o progressivo aumento de atendimentos ao longo dos últimos anos. Estudos referem aumento no gasto econômico para a referida profilaxia sem a diminuição correspondente no número de casos da raiva humana. (2-4) A profilaxia no primeiro atendimento pós-exposição (PPE) é muito eficaz se o tratamento for instituído prontamente com cuidados das feridas, administração local de imunoglubulina e vacinação.(5)No Brasil, no período de 2000 a 2009, aproximadamente 425.400 pessoas por ano buscaram atendimentos devido a exposição e destas, 64% receberam algum tipo de tratamento profilático(6), enquanto na América Latina verificou-se que 25,4% dos indivíduos atendidos nos serviços de saúde receberam tratamento antirrábico.(1) Na série histórica do tratamento antirrábico no Paraná no período de 2002 a 2008, verificou-se um aumento de atendimentos antirrábicos, com 29.361 atendimentos em 2002, e em 2008, 38.477 casos foram notificados para o tratamento antirrábico.(7)Por outro lado, entre 1998 a 2009 foram notificados 218 casos de raiva no Brasil e 144 (66,0%) não receberam a Profilaxia Pós-exposição da raiva (PPE) por desconhecer a necessidade da profilaxia ou pela dificuldade de acesso aos serviços de saúde, além disso, 23 (10,5%) casos que receberam a PPE, foram a óbito por receberem tratamento inadequado.(6) Segundo a Organização Mundial de Saúde cerca de 50% dos pacientes a turismo no exterior não fazem o tratamento no local e esperam retornar a seu país para iniciar a assistência a PPE sendo considerados como atendimentos incompletos ou inadequados.(8) A PPE da raiva em alguns casos pode não ser necessária, depende de uma avaliação de risco realizada por um profissional da saúde, para a tomada de uma conduta mais criteriosa e aplicação do PPE de não vacinar os pacientes como verificado em estudo realizado em Marseille, França de 1994 a 2005 que representou uma economia de 177.600 euros.(9) Diante do exposto, o objetivo do presente estudo foi o de avaliar a adequabilidade da conduta profilática no primeiro atendimento antirrábico pós-exposição, ocorridos em 2010, no Estado do Paraná. Metodologia Foi realizado um estudo transversal, descritivo-analítico quantitativo utilizando a análise univariada e o modelo da regressão logística para avaliar a adequabilidade na profilaxia pós-exposição à raiva. Os dados foram extraídos do Sistema de Informação de Agravos de Notificação (SINAN) com registros dos casos de doenças e agravos de notificação compulsória,(10) dados estes preenchidos em Fichas Individuais de Notificação (FIN) nas unidades de saúde.Foram coletados 37.996 registros do banco de dados do SINAN no período de 01 de janeiro de 2010 a 31 de dezembro de 2010. Foram analisados todos os dados do primeiro atendimento antirrábico e a conduta adotada, sendo excluídos os registros de atendimentos subsequentes. A variável de desfecho foi a adequação da conduta adotada no primeiro atendimento antirrábico que é a resultante da somatória das variáveis: grau da lesão (grave ou leve), ferimento (único, múltiplo e sem ferimento), profundidade (superficial, profunda e dilacerante), tipo de exposição (mordedura, arranhadura, lambedura, contato indireto), localização da lesão (mucosas, cabeça, mãos, tronco, membros superiores e inferiores) e condição do animal (sadio, suspeito, raivoso, morto ou desaparecido no momento do atendimento) segundo as Normas Técnicas para Tratamento Antirrábico Humano.(5) O tratamento foi considerado Adequado quando a análise de todas as variáveis estavam de acordo com a conduta determinada pelas Normas Técnicas, caso contrário seria considerada Inadequado. Destaca-se que para a Conduta Inadequada foi elaborada uma categorização para os casos em que foram realizados procedimentos a mais do que o necessário (Tratamento Excessivo) e para os casos em que faltou a realização de procedimentos (Tratamento Deficitário) conforme o protocolo do Ministério da Saúde. Os dados foram coletados pelo programa TabWin®, armazenados no Programa Excel,® e posteriormente analisados no Programa Statistica 8.0®. Foram realizadas análises descritivas através de frequências simples e para testar as associações de interesse foram realizadas análises univariadas através do teste do qui-quadrado de Pearson e posteriormente a análise multivariada com intervalo de confiança de 95% e nível de significância <0,05. O desenvolvimento do estudo atendeu as normas nacionais e internacionais de ética em pesquisa envolvendo seres humanos. Resultados Foram analisados 39.087 atendimentos, sendo excluídos 1.091 (2,79%) casos de atendimentos de reexposição e pré-exposição, resultando em 37.996 atendimentos antirrábicos pós-exposição, destes 41,56% (15.500) apresentaram conduta inadequada quando comparados ao tratamento profilático antirrábico proposto pelo Ministério da Saúde. Quanto às características sóciodemográficas da população houve predominância da raça branca (83,93%), sexo masculino (54,58%), baixa escolaridade com apenas ensino fundamental (66,13%), idade predominante de 20 a 59 anos (45,0%) seguida de 0 a 12 anos (32,88%) e residentes na zona urbana (91,97%). O ferimento único foi mais prevalente (57,02%), seguido de ferimento múltiplo (40,07%) sendo a maioria por mordedura (82,36%) em localização mais frequente nos membros inferiores (29,50%), com a lesão superficial (51,22%), lembrando que alguns pacientes podem ter mais de um tipo de exposição e localização da lesão. Neste estudo, todas as variáveis que estiveram associadas ao desfecho foram mantidas no modelo de regressão multivariada. O modelo foi dividido em blocos, de acordo com as características da variável devido ao grande número de atendimentos, e assim foi criado o modelo com informações referentes a lesão e o modelo referente ao animal agressor. As variáveis que apresentaram correlação significativa na análise multivariada ajustadas para o sexo, idade, escolaridade, raça e zona de moradia, com a variável desfecho adequação da conduta, foram consideradas fatores que colaboram e intensificam a ocorrência do evento. Assim, em relação às características do ferimento, 41,96% (9.091) dos ferimentos únicos apresentaram condutas inadequadas, destacando que o acidente sem ferimento apresentou OR= 4,14 (IC 3,02-5,68) 4 vezes mais chances de inadequação da conduta, se comparado a indivíduos com ferimentos múltiplos. A mordedura com 40,25% de inadequação mostrou-se como fator de risco com OR=1,72 (IC 1,57-1,89), ou seja, os indivíduos que sofreram ferimento por mordedura aumentaram em 72% o risco de receber tratamento inadequado. Os ferimentos localizados em membros inferiores apresentaram 46,79% (6.874) de condutas inadequadas. Foram considerados fatores de risco, os ferimentos localizados na cabeça/pescoço (OR=1,81; IC 1,64-1,99), mãos e pés (OR=1,28; IC 1,19 - 1,38) e tronco (OR=1,18; IC 1,07-1,30). Com relação à profundidade da lesão observou-se que 19.703 (51,22%) atendimentos foram superficiais com 45,92% (9.047) de condutas inadequadas. A respeito dos animais agressores, o cão foi o principal agressor com 93,27% (34.796) do total de atendimentos, e consequentemente foi o que apresentou maior número de casos de inadequação da conduta com 41,00% (14.267). As pessoas que sofreram agressão por outros tipos de animais apresentaram maior risco de receber a tratamento inadequado com 2,27 vezes mais chances quando comparados aos que sofreram agressão por felinos e entre os outros tipos de animais incluem os primatas, herbívoro doméstico, raposa, gambá, capivara, quati, tartaruga, suínos, bovinos, rato, cavalo, pato, coelho, aranha, lagarto, hamster, tatu, equinos, paca, esquilo, ariranha, lontra, jumento, cotia, javali e ovelha. A condição do animal sadio foi a mais prevalente com 81,31% (30.266) do total, assim como de condutas inadequadas com 33,58% (10.158), a condição do animal suspeito apresentou maior risco, ou seja, indivíduos que sofreram agressão por animais suspeitos apresentaram 12,11 vezes mais chances de apresentar a conduta inadequada em comparação aos indivíduos que sofreram agressão por animais sadios. A conduta que apresentou maior risco de inadequação foi a dispensa de tratamento, ou seja, indivíduos que foram dispensados do tratamento apresentaram 207,88 vezes mais chances de ter a conduta inadequada quando comparados aos que receberam vacina e indicação de observação do animal por 10 dias. Na análise comparativa das condutas adotadas pelos serviços de saúde do estado do Paraná com as do Ministério da Saúde identificou-se que a observação e vacina foram as mais prevalentes com 20.763 (55,66%) atendimentos e a dispensa de tratamento, menos prevalente com 1.114 (2,98%) atendimentos (Tabela 1). Do total dos casos, 21.798 (58,44%) foram avaliados como adequados, e 15.500 (41,56%) como atendimentos inadequados sendo 10.587 (28,11%) atendimentos deficitários, ou seja, o paciente não recebeu o tratamento necessário, e 5.013 (13,44%) atendimentos onde o paciente recebeu tratamento excessivo, ou seja além do necessário (Tabela 1e 2). Tabela 1. Condutas adotadas pelo serviço de saúde, segundo a conduta estabelecida pelo Ministério, Paraná, 2010. Conduta adotada pelo serviço de saúde Conduta estabelecida pelo Ministério da Saúde Dispensa do tratamento Observação do animal Observação e vacina Vacina Soro e Vacina Total n (%) n (%) n (%) n (%) n (%) n (%) Dispensa do tratamento 21 (1,88) 386 (34,65) 524 (47,04) 42 (3,77) 141 (12,66) 1114 (2,98) Observação do animal 100 (1,11) 3751 (41,85) 4857 (54,19) 10 (0,11) 246 (2,74) 8964 (24,03) Observação e vacina 178 (0,85) 2162 (10,42) 16607 (79,99) 72 (0,34) 1744 (8,40) 20763 (55,66) Vacina 165 (3,09) 406 (7,61) 1739 (32,61) 558 (10,46) 2465 (46,23) 5333 (14,29) Soro e vacina 43 (3,82) 7 (0,62) 187 (16,64) 26 (2,31) 861 (76,61) 1124 (3,04) Total 507 (1,36) 6712 (18,00) 23914 (64,12) 708 (1,89) 5457 (14,63) 37298* * 698 casos estavam sem informação da conduta Tabela 2. Atendimentos segundo indicação de tratamento excessivo, adequado e deficitário, Paraná, 2010. Indicação do tratamento Excessivo n (%) Adequado n (%) Deficitário n (%) Total n Dispensa do tratamento 486 (96,86) 21 (3,14) - 507 Observação do animal 2.575 (38,36) 3.751 (55,88) 386 (5,76) 6.712 Vacina 26 (3,67) 558 (78,82) 124 (17,51) 708 Observação e vacina 1.926 (8,05) 16.607 (69,45) 5.381 (22,50) 23.914 Soro e vacina - 861 (15,78) 4.596 (84,22) 5.457 Total 5.013 (13,44) 21.798 (58,45) 10.487 (28,11) 37.298 Conclusão Este estudo permitiu identificar que 41,56% de condutas de profilaxia pós-exposição antirrábicas foram inadequadas no ano de 2010 no Estado do Paraná quando comparadas as normas do Ministério da Saúde. Portanto, este trabalho serve de alerta para as autoridades públicas para educação em saúde tanto para a capacitação dos profissionais de saúde, no sentido de melhorar o atendimento profilático antirrábico, quanto para a população em geral, pois a raiva é uma doença com alta letalidade e apresenta graves sequelas aos indivíduos infectados. A educação continuada aos profissionais de saúde deve abordar a melhoria na investigação dos casos levando em consideração, não só as características da lesão como também a condição e o animal agressor para a correta conduta profilática e a diminuição dos tratamentos antirrábicos desnecessários. Outro ponto a ser aperfeiçoado é o preenchimento correto das fichas de atendimentos antirrábicos que apresentam grande quantidade de falta de informação, dificultando a realização de estudos sobre o tema. A cura da raiva humana ainda é um objetivo não alcançado e desafia novas pesquisas inovadoras. Referências 1. Vigilato MA, Clavijo A, Knobl T, Silva HM, Cosivi O, Schneider MC et al. Progress towards eliminating canine rabies: policies and perspectives from Latin America and the Caribbean.Philos Trans R SocLond B Biol Sci. 2013; 368(1623):20120143. 2. World Health Organization (WHO). Rabies.WHO 2013 [citado 2013 Out 17]. Disponível em: http://www.who.int/rabies/human/situation/en/index.html#. 3. Lardon Z, Watier L, Brunet A, Bernède C, Goudal M, Dacheux L, et al. Imported episodic rabies increases patient demand for and physician delivery of antirabies prophylaxis. PLoSNegl Trop Dis. 2010; 4(6):e723. 4. Tenzin, Wangdi K, Ward MP. Human and animal rabies prevention and control cost in Bhutan, 2001-2008: the cost-benefit of dog rabies elimination. Vaccine. 2012; 31(1):260-70. 5. Warrell MJ. Current rabies vaccines and prophylaxis schedules: Preventing rabies before and after exposure. Travel Medicine andInfectiousDisease. 2012; 10(3):162– 163. 6. Brasil. Ministério da Saúde. Secretaria de Vigilância em Saúde. Protocolo de tratamento da raiva humana no Brasil. Série A. Normas e manuais técnicos. Brasília(DF), 2011. 7. Paraná (Estado). Secretária da Saúde. Raiva Animal e Profilaxia da Raiva. Dados do Paraná. [citado 2012 Mar 15]. Disponível em: http://www.saude.pr.gov.br/modules/conteudo/conteudo.php?conteudo=1435. 8. Uwanyligira M, Landry P, Genton B, Valliere S De. Rabies Postexposure Prophylaxis in Routine Practice in View of the New Centers for Disease Control and Prevention and World Health Organization Recommendations. Clin. Infect. Dis. 2012; 55(15):201-205. 9. Gautret P, Soula G, Adamou H, Soavi M, Delmont J, Rotivel Y et al. Rabies Postexposure prophylaxis, Marseille, France, 1994-2005. Emerg. Infec. Dis. 2008 september; 14(9):1452-1454. 10. Brasil. Ministério da Saúde. Gabinete do Ministro. Portaria n.º 104, de 25 de janeiro de 2011. Diário Oficial da União (DOU) Brasilia (DF) nº 168, Seção 1, págs. 50 e 51, de 25 de janeiro de 2011
Palavras-Chave: cirlene; maria; perles;


Avaliação Esportiva Utilizando Tecnicas Multivariadas: Construção de Indicadores e Sistema Online - Link direto para esse trabalho
Alexandre C. Maiorano; Francisco Louzada Neto

O principal objetivo do trabalho é apresentar ferramentas estatísticas que permitam a comparação de indivíduos em uma determinada modalidade esportiva. Particularmente, o estudo exposto é voltado à avaliação de desempenho em futebol, utilizando métodos univariados e multivariados. A abordagem univariada é dada pela metodologia Z-CELAFISCS, desenvolvida com o propósito de identificar talentos no esporte. As abordagens multivariadas são dadas pela construção de indicadores, mais especificamente por meio da Análise de Componentes Principais, Análise Fatorial e Cópulas. A obtenção desses indicadores possibilita a redução da dimensionalidade do estudo, fornecendo melhor interpretação dos resultados e melhor comparabilidade entre o desempenho e rankeamento dos indivíduos. Para facilitar a utilização da metodologia aqui estudada, um sistema estatístico online, chamado de i-Sports, foi construído.
Palavras-Chave: Avaliação Esportiva; Metodologia Z-CELAFISCS; Análise de Componentes Principais; Análise Fatorial; Teoria de Cópulas;


Avaliação da eficiência administrativa dos municípios do estado da Paraíba: uma comparação via modelos de regressão linear e modelo de regressão beta. - Link direto para esse trabalho
Andreza Ferreira de Miranda; Tarciana Liberal Pereira

A eficiência administrativa significa transformar recursos de um dado orçamento em serviços prestados à sociedade. Uma metodologia especificamente para esta questão é a de Data Envelopment Analysis (DEA), onde a cada unidade (que no nosso caso representa cada município) é atribuído um valor que representa seu desempenho relativo. Os escores de eficiência variam entre 0 e 1, e os municípios plenamente eficientes recebem valor igual a 1. Dado que a variável resposta assume valores no intervalo (0,1), foi feita uma transformação logarítmica na variável dependente para que esta assumisse valores na reta real. Os resultados foram obtidos pela plataforma computacional R, que se encontra disponível gratuitamente em http://www.r-project.org./. A fim de indicar aspectos relevantes para a otimização dos gastos municipais, foi feita uma comparação do uso da regressão linear com a regressão beta proposta por Ferrari e Cribari-Neto (2004), em que a modelagem utilizada pela regressão beta apresentou melhor desempenho.
Palavras-Chave: DEA; Eficiência administrativa; Regressão linear; Regressão beta;


Avaliação da eficiência técnica relativa dos hospitais da Região Norte do Brasil utilizando modelos de fronteira estocástica de produção. - Link direto para esse trabalho
Aluno: Leonardo Brandão Freitas do Nascimento; Orientador: Prof. Dr. James Dean Oliveira dos Santos Jr.

O objetivo deste trabalho é avaliar o grau de eficiência produtiva do setor público hospitalar em 124 hospitais da Região Norte do Brasil do ano de 2011, identificar os potênciais insumos e consequentemente auxiliar os gestores nas tomadas de decisões. Para tanto, é necessária a utilização de ferramentas racionais devido a certas dificuldades existentes em analisar o setor público. Neste trabalho, apresentamos um dos modelos clássicos de fronteira estocástica como ferramenta para a identificação da eficiência hospitalar. Os resultados obtidos mostram que os insumos considerados na literatura trazem algumas distorções. Com base nisto, concluímos que diferentes conjuntos de recursos devem ser levados em consideração na análise da eficiência hospitalar.
Palavras-Chave: Eficiência hospitalar; Região Norte do Brasil; Modelos de fronteira estocástica de produção;


Avaliação da precipitação diária do estado de Sergipe utilizando análise de lacunaridade - Link direto para esse trabalho
Leandro Ricardo Rodrigues de Lucena; Tatijana Stosic

A precipitação pluviométrica diária do estado de Sergipe foi avaliada em 19 estações meteorológicas no período de 01 de janeiro de 2006 a 31 de julho de 2012 utilizando a análise de lacunaridade considerando os limiares de 0, 5 e 10 mm de precipitação. Observou-se que para pequenos espaços de tempo os valores de lacunaridade apresentaram maiores valores do que em relação a períodos de avaliação mais longos independente do limiar adotado. Através do expoente β de lacunaridade e utilizando a análise de k-means foram encontrados dois grupos de estações meteorológicas, um grupo com as estações litorâneas e outro grupo formado pelas estações do sertão do estado.
Palavras-Chave: Precipitação; Lacunaridade; Sergipe;


Avaliação da proficiência em inglês acadêmico através de um teste adaptativo informatizado - Link direto para esse trabalho
Vanessa Rufino da Silva; Mariana Cúri

Este trabalho descreve as etapas de transformação de um exame de proficiência em inglês (EPI), utilizado no programa em Ciências da Computação e Matemátia Computacional (CCMC) de pós-graduação do ICMC-USP, em um teste adaptativo informatizado (TAI) baseado em um modelo da Teoria de Resposta ao Item (TRI). O formato do EPI desde o ano de 2002, a estrutura dos dados coletados com suas aplicações semestrais e os resultados de uma simulação para verificar a qualidade de recuperação dos traços latentes em um TAI serão brevemente descritos para esclarecer sua utilização como alicerce do TAI implementado. O software TAI-PI (Teste Adaptativo Informatizado para Proficiência em Inglês) foi implementado em Java e o SQLite foi utilizado para armazenamento do banco de dados. A metodologia estatística adotada considerou o modelo de resposta gradual unidimensional, o critério de Kullback-Leibler para seleção de itens, o método de estimação da esperança a posteriori os traços latentes e a abordagem Shadow test para imposição de restrições (de conteúdo e tamanho da prova, por exemplo) na composição do teste de cada indivíduo. Os resultados de uma aplicação real do TAI-PI a alunos de mestrado do CCMC em novembro de 2013 são apresentados, evidenciando a boa qualidade da nova metodologia de avaliação informatizada.
Palavras-Chave: teste adaptativo computadorizado; teoria de resposta ao item; shadow test;


Avaliação de critérios de seleção no modelo beta autorregressivo de médias móveis - Link direto para esse trabalho
Renata Rojas Guerra; Fábio Mariano Bayer

Este trabalho tem como objetivo avaliar numericamente, via simulações de Monte Carlo, o desempenho de critérios de seleção no modelo beta autorregressivo de médias móveis ($\beta$ARMA). O $\beta$ARMA é útil para modelagem e previsão de variáveis contínuas no intervalo (0,1) observadas ao longo do tempo. A variável de interesse é assumida possuir distribuição beta, em que o parâmetro de média é modelado por meio de uma estrutura autorregressiva e de médias móveis, envolvendo uma função de ligação e parâmetros desconhecidos. Para a avaliação numérica em amostras de tamanho finito foram considerados critérios de seleção consistentes.Os critérios considerados foram o AIC, o BIC e o HQ, assim como suas respectivas versões corrigidas para pequenas amostras: AICc, BICc e HQc. Percebeu-se a superioridade de desempenho do critério BIC na identificação do modelo verdadeiro, sendo o critério indicado para a seleção de modelos $\beta$ARMA. O AIC, como esperado, tendeu a sobreidentificar a ordem do modelo verdadeiro, principalmente nas amostras de tamanhos menores.
Palavras-Chave: critérios de seleção; modelo beta ARMA; seleção de modelos; séries temporais; simulação de Monte Carlo;


Avaliação de dimensionalidade para medir qualidade da interface de websites comerciais - Link direto para esse trabalho
Rafael Tezza; Antonio Cezar Bornia; Débora Spenassato; Fernando de Jesus Moreira Junior

O presente trabalho apresenta uma sistemática estatística para avaliar dimensionalidade de um construto desenvolvido para mensurar qualidade de interfaces de websites comerciais. O conceito adotado de qualidade em websites é o de um conjunto de características técnicas e não técnicas de um sistema web, os quais permitem ao usuário realizar seus objetivos em um website de forma acessível, eficiente e agradável. Como características técnicas entende-se usabilidade/navegabilidade, apresentação da informação, acessibilidade e interatividade do sistema. Como características não técnicas entende-se design, estética, apelo visual/comercial, confiabilidade, hedonismo, empatia. Para isso, utiliza-se de análise fatorial restrita e análise fatorial de informação plena (full information) assim como análise paralela e ANOVA. Como resultado quatro dimensões são encontradas em um conjunto de 44 itens.
Palavras-Chave: dimensionalidade; qualidade; website;


Avaliação de híbridos de milho utilizando o modelo AMMI - Link direto para esse trabalho
Luciano Antonio de Oliveira; Alessandra Querino da Silva; Carlos Pereira da Silva; Joel Jorge Nuvunga; Andrezza Kellen Alves Pamplona

Neste trabalho, aplicou-se o modelo de efeitos principais aditivos e interação multiplicativa (AMMI) para avaliar estabilidade e adaptabilidade em híbridos de milho referente a produtividade de espigas despalhadas. A partir dos resultados das análises foi possível identificar genótipos e ambientes que menos contribuem para a interação e ainda combinações positivas entre genótipos e ambientes, visando recomendações regionalizadas.
Palavras-Chave: Modelo AMMI; Biplot; Interação GE;


Avaliação do nível de saúde dos municípios do Estado da Bahia através de Mapas Auto-Organizáveis - Link direto para esse trabalho
Aline Carvalho da Silva Andrea Andrade Prudente; André Luis Santiago Maia; Caio Batalha Dias de Oliveira; Gecynalda Soares da Silva Gomes; Giovana Oliveira Silva.

Na área de Saúde Pública, um dos interesses é obter índices que se traduzem em informação relevante para a quantificação e a avaliação de informações em saúde. O objetivo do trabalho é criar grupos homogêneos quanto ao nível de saúde por meio de Redes Neurais SOM (Mapas Auto-organizáveis), a partir de um "Índice do Nível de Saúde" para os municípios da Bahia, em 2011, criados através de análise fatorial. As informações referentes às variáveis, por município, foram obtidas no sítio DATASUS. O estudo começou com 38 variáveis para cada um dos 417 municípios baianos. Utilizando-se a técnica estatística de Análise Fatorial, foram identificados oito fatores. O Fator 1 agrega variáveis relacionadas com cobertura vacinal e foi denominado por "Índice do Nível de Saúde".
Palavras-Chave: Estatística Computacional; Estatística Multivariada; Mapas auto-organizáveis ;


Avaliação do poder do teste usado para comparação de duas matrizes de covariâncias normais na presença de correlação por meio do método de monte Carlo - Link direto para esse trabalho
Vanessa Siqueira Peres da Silva; Daniel Furtado Ferreira

Este trabalho tem por objetivo avaliar o poder do teste t_c para comparação de duas matrizes de covariâncias normais na presença de correlação, que é uma generalização do teste de Morgan (1939) e Pitman (1939) para o caso multivariado, considerando a situação de q = 2 populações, com o intuito de compará-lo com os testes apresentados por Jiang e Sarkar (1998) (W_2 e W_5) e Jiang et al. (1999) (LRT, LRT_1, LRT_2 e LRT_3). Para isso utilizou-se um estudo de simulação Monte Carlo com diferentes tamanhos de amostras, matrizes de covariâncias e nível nominal de significância fixado em 5%, computando-se as taxas de poder. Quando n=100 pode-se dizer que os testes LRT, LRT_1, LRT_2, LRT_3, W_2 e W_5 resultam taxas de poder aproximadamente iguais a 1. O teste t_c apresentou taxas de poder menor que os demais, e é recomendado apenas para grandes amostras, pois nesse caso se equivale aos demais testes apresentados ou aproxima dessa equivalência.
Palavras-Chave: Matrizes de Covariâncias; Simulação Monte Carlo; Poder;


Bayesian Inference and Diagnostics in Zero-Inflated Generalized Power Series Regression Model - Link direto para esse trabalho
Gladys D.C. Barriga, Vicente G. Cancho

The paper provides a Bayesian analysis for the zero-inflated regression models based on the generalized power series distribution. The approach is based on Markov chain Monte Carlo methods. The residual analysis is discussed and case-deletion influence diagnostics are developed for the joint posterior distribution, based on the ψ-divergence, which includes several divergence measures such as the Kullback-Leibler , J-distance, L1 norm and χ2-square in zero-inflated general power series models. The methodology is reflected in a dataset collected by wildlife biologists in a state park in California.
Palavras-Chave: Bayesian analysis; count data; regression model; zero-inflated model.;


Bayesian estimation of population size under closed capture-recapture model using binomial mixture distributions - Link direto para esse trabalho
George Lucas Moraes Pezzott; Luis Ernesto Bueno Salasar; José Galvão Leite.

In this work, we consider bayesian estimation of the unknown number of elements in a closed population through a capture-recapture model with heterogeneity among individuals. The basic model assumption is that the capture probabilities depends on the individuals but not on the sampling occasions. Using the frequentist paradigm, Burnham and Overton (1978) assumed the capture probabilities of individuals to be i.i.d random variables with distribution function F and proposed a jacknife estimator for the number of elements in the population. Similarly to Burnham and Overton (1978), we suppose the capture probabilities of individuals are i.i.d observation from a finite discrete distribution. Under noninformative prior specification, we propose a Gibbs sampling procedure with data augmentation (Diebolt and Robert, 1994) to draw inferences for the parameters. The methods are illustrated with two literature real data sets.
Palavras-Chave: Capture-recapture model; Mixture model; Bayesian inference; Gibbs sampling;


Bayesian semi-parametric symmetric models for binary data - Link direto para esse trabalho
Marcio Augusto Diniz; Carlos Alberto de Braganca Pereira; Adriano Polpo

This work proposes a general Bayesian semi-parametric model to binary data. It is considered symmetric prior probability curves as an extension for discussed ideas from Basu and Mukhopadhyay (1998) using the Blocked Gibbs sampler which is more general than the Polya Urn Gibbs sampler. The semi-parametric approach allows to incorporate the uncertainty around the F distribution of the latent data and modeling heavy-tailed or light-tailed distributions than that prior proposed. In particular, the Bayesian semi-parametric Logistic model is introduced which enables one to elicit prior distributions for regression coefficients from information about odds ratios what is quite interesting in applied research. Then, this framework opens several possibilities to deal with binary data in the Bayesian perspective.
Palavras-Chave: Bayesian Semi-parametric; Logistic model; Dirichlet process;


Bayesian truncated nonlinear beta regression model - Link direto para esse trabalho
Carolina Costa Mota Paraíba; Natalia Bochkina; Carlos Alberto Ribeiro Diniz

Truncated regression models arise in many applications where it is not possible to observe the values of the response variable that are above or below certain thresholds. In this paper we propose a Bayesian truncated nonlinear regression model, assuming that the response variable follows a truncated beta distribution and that its location parameter is parametrized by a nonlinear continuous and twice differentiable function of unknown parameters and covariates. Bayesian estimates and credible intervals are computed based on draws from the posterior distribution of parameters obtained using an MCMC procedure. Posterior predictive checks, Bayesian standardized residuals and a Bayesian influence measures are considered to check model adequacy, outliers and influential observations. Results based on simulated data are provided to assess the frequentist properties of Bayesian estimates under the proposed models. A real data set on soil-water retention is analyzed using the proposed model.
Palavras-Chave: truncated beta distribution; Bayesian nonlinear regression; Bayesian diagnostic;


Breve análise do declínio da fecundidade no Nordeste - Link direto para esse trabalho
Suelem Torres de Freitas; Conceição de Maria Silva do Vale; Marciano dos Santos Matos; Valmária Rocha da Silva Ferraz

A fecundidade no Brasil vem declinando e causando constantes preocupações, visto que seus níveis e tendências influenciam fortemente o crescimento populacional. A heterogeneidade brasileira evidencia a multiplicidade de fatores e distinções envolvidos em cada região, nessa redução. A região Nordeste é uma das menos desenvolvidas economicamente e sofre diferenças bruscas nesse indicador. Portanto, o objetivo desse estudo é fornecer informações, que contribuam para a ampliação de pesquisas, estudos e discussões sobre o comportamento reprodutivo da mulher nordestina. Para a realização dessa pesquisa utilizou-se como base principal de informações as referentes aos Censos Demográficos, realizados pelo IBGE. Dessa forma, confirmou-se que a fecundidade na Região Nordeste, a modelo do país, vem apresentando tendência declinante com níveis abaixo da reposição populacional. Porém esse declínio não ocorre uniformemente entre os diferentes espaços e categorias socioeconômicas. As variáveis educação, renda e mercado de trabalho feminino possuem relação inversa com o nível de fecundidade. Quanto às variáveis cor e situação de domicílio, averigou-se que as mulheres brancas, possuem os menores níveis de fecundidade e aquelas que moram nas áreas rurais estão com níveis semelhantes aos da zona urbana. O panorama para os anos popostos é que a fecundidade continue decaindo, em toda a região e estratos sociais. A redução da fecundidade implica efeitos sobre diversos fatores sociais. Dessa forma, com o intuito de atender as demandas sociais de maneira eficaz, a clareza dessa estrutura demográfica é de plena relevância, possibilitando através de intervenções, uma melhor qualidade de vida para a população como um todo.
Palavras-Chave: fecundidade; Nordeste; fatores socioeconômicos; qualidade de vida;


CLASSIFICAÇÃO DE OBJETOS UTILIZANDO TÉCNICAS DE DETECÇÃO DE OUTLIERS E ANÁLISE DE COMPONENTES PRINCIPAIS - Link direto para esse trabalho
Manoel R. Sena Jr., Marília I. R. Nogueira

Resumo O principal objetivo das técnicas de classificação é associar um novo objeto a um grupo previamente estabelecido, com base em um conjunto de informações obtidas desse conjunto, chamado de conjunto de treinamento. Em qualquer conjunto de dados com múltiplas variáveis, seja ele grande ou pequeno, é necessário que se faça antes da aplicação de qualquer técnica estatística, uma análise muito cuidadosa de seus componentes. Isso é importante, pois podem existir objetos que não condizem com a distribuição do restante dos dados, isto é, pontos que se destacam quanto a uma ou mais variáveis do estudo e que podem prejudicar a modelagem estatística dos dados da amostra e, portanto, a análise do comportamento dos mesmos. Técnicas que detectam esses elementos podem ser usadas na classificação de objetos, contribuído assim, para reduzir as taxas de erros. Tendo em vista tudo isso, propomos um estudo simples de dados aplicando técnicas de Análise Discriminante e técnicas de Detecção de Observações Aberrantes em Classificação de Objetos, medidos através das taxas de erros estimadas por simulação de cada técnica de detecção. Assim, obtemos resultados satisfatórios no que se refere aos modelos utilizados, distância de Mahalanobis robusta e o método interativo The Forward Search de Atkison e Riani (2004), podendo concluir que o método é o mais adequado à situação utilizada. Entretanto, em situações em que o número de variáveis ou características do objeto é grande faz-se necessário uma seleção delas, devido a singularidade da matriz covariâncias amostral, que ocorre quando o número de observações do conjunto de treinamento é pequeno ou moderado, quando comparados ao número de características. Esse trabalho aborda duas formas de solucionar esse problema: a primeira faz uso do coeficiente de variação, em que seleciona-se variáveis com menores coeficientes, e a segunda faz uso da Análise de Componentes Principais para reduzir a dimensão da matriz. Um banco de dados de Iris e assinaturas são usados para testar a eficiência dos métodos.
Palavras-Chave: Reconhecimento de Padrões; Verificação de Assinaturas; Classificação; Análise Discriminate;


COMPARAÇÂO ENTRE AS IFES A PARTIR DOS INDICADORES DO TRIBUNAL DE CONTAS DA UNIÃO E DO ÍNDICE GERAL DE CURSOS (TCUxIGC) - Link direto para esse trabalho
Oliveira, France E. G. de ; Silva, Joelma M. da ; Araujo, Juliely R. de ; Medeiros, Patrícia de S.; Campos, Jansen D. da S.

Hoje em dia a necessidade de acompanhar a gestão dos orgãos públicos vem crescendo gradativamente. Este artigo tem objetivo de analisar a relação entre os indicadores do TCU e do ICG-INEP, das Instituições Federais de Ensino Supeior (IFES). Os resultatos indicaram que os indicadores do TCU que influenciam no calculo do IGC foram a Taxa de Sucesso na Graduação (TSG) e o Custo Corrente no período de 2009 à 2012.
Palavras-Chave: Avaliação; Ensino Superioe; Eficiência; TCU; ICG;


COMPARAÇÕES DA ESTIMAÇÃO DE DENSIDADE KERNEL MULTIDIMENSIONAL - Link direto para esse trabalho
Jucarlos Rufino de Freitas; Getulio Jose Amorim do Amaral

Sabe-se que o kernel bidimensional é um caso especial do kernel multidimensional. Em ambos os casos existe o interesse em encontrar o parâmetro de suavizamento h, que controla a estimação de densidade. O objetivo do presente trabalho é avaliar a estimação de densidade comparando-a com outras alternativas.
Palavras-Chave: Estimador Kernel Multidimensional ; Densidade normal bivariada,; Densidade Normal Bivariada Estimada; Parâmetro de Alisamento;


CONSTRUÇÃO E VALIDAÇÃO DE UM MODELO DE CLASSIFICAÇÃO DE RISCO DE CRÉDITO. - Link direto para esse trabalho
BRUNO PINHEIRO DE ANDRADE;RAFAEL BRÁZ AZEVEDO FARIAS.

A análise de crédito é uma técnica bastante comum na área financeira. Quando uma instituição financeira vende um crédito a um cliente ela estará comprando um risco, em que esse risco é medido pela probabilidade do cliente não cumprir com suas obrigações (Sicsú, 2010). A fim de prever o risco em uma operação de crédito, foi desenvolvido o modelo de risco de crédito por meio de análise de regressão logística. A partir desses modelos de crédito as instituições financeiras vendem crédito a um risco menor maximizando os lucros com segurança. Esse trabalho visa apresentar as principais técnicas estatísticas para uma análise de risco de crédito, tais como: desenvolver e validar o modelo. Esta técnica foi aplicada no banco de dados conhecido da literatura German Credit. A modelagem e os resultados encontrados na aplicação, mostram que o modelo ajustado conseguiu classificar bem os indivíduos e o modelo é válido para outras amostras.
Palavras-Chave: Análise de crédito; Análise de regressão logística; Modelo de risco;


CONTINUIDADE DAS PROBABILIDADES DE TRANSIÇÃO DE PROCESSOS DE RENOVAÇÃO OBTIDOS POR AGREGAÇÃO DE ESTADOS - Link direto para esse trabalho
Walter Augusto Fonseca de Carvalho

Este trabalho é dedicada ao estudo dos processos de renovação binários obtidos como agregação de estados a partir de processos Markovianos com alfabeto finito. Utilizamos uma abordagem matricial para obter condições sob as quais o processo agregado pertence a cada uma das seguintes classes: (1) Markoviano de ordem finita, (2) Processo de ordem infinita com probabilidades de transição contínuas.
Palavras-Chave: Transformação Agregante; Processo Markoviano Oculto; Processos de Renovação; Agregabilidade;


Capability indices for Birnbaum-Saunders processes with applications - Link direto para esse trabalho
Víctor Leiva; Carolina Marchant; Helton Saulo; Fernando Rojas.

Process capability indices (PCIs) are tools widely used in the industry to determine the quality of their products and the performance of their manufacturing processes. Classic versions of these indices were constructed for processes whose quality characteristics have a normal distribution. In practice, many of these characteristics do not follow this distribution. In such a case, the classic PCIs must be modified to take into account the non-normality. Ignoring the effect of this non-normality can lead to misinterpretation of the process capability and to make bad business decisions. An asymmetric non-normal model that is receiving considerable attention due to its good properties is the Birnbaum-Saunders (BS) distribution. We propose, develop, implement and apply a methodology based on PCIs for BS processes considering estimation, parametric inference, bootstrap and optimization tools. This methodology is implemented in the statistical software R. A simulation study is conducted to evaluate its performance. Real-world case studies with applications for three data sets are carried out to illustrate its potentiality. One of these data sets was already published and is associated with the electronic industry, whereas the other two are unpublished and associated with the food industry.
Palavras-Chave: Bootstrapping; data analysis; Monte Carlo simulation; non-normal distribution; quality tools;


Capacidade preditiva como critério para determinação do número de componentes principais em Seleção Genômica Ampla - Link direto para esse trabalho
Filipe Ribeiro Formiga Teixeira;Mayra Marques Bandeira;Moysés Nascimento;Ana Carolina Campana Nascimento;Camila Ferreira Azevedo;Fabyano Fonseca e Silva;Paulo Sávio Lopes;Simone E. F. Guimarães.

Proposta por Meuwissen et al. no ano de 2001, a seleção genômica tem como principal objetivo de aumentar a eficiência e acelerar o melhoramento genético. Ultimamente estudos neste ramo têm se intensificado devido a abundância de marcadores moleculares no DNA de plantas, animais, etc. Existem várias metodologias diferentes para aplicação da seleção genômica ampla, que associa os dados dos marcadores moleculares SNP’s a características fenotípicas de interesse. Devido à grande abundância desses marcadores, nos deparamos sempre com a multicolinearidade e a dimensionalidade do nosso conjunto de dados, onde muitas vezes encontramos mais variáveis do que indivíduos em estudo. Para contornar esses problemas, existem algumas técnicas estatísticas úteis e que podem ser utilizadas com o objetivo de estudar associações entre dados fenotípicos e genotípicos com um número menor de variáveis, e dentre essas técnicas será abordada a Regressão Via Componentes Principais (PCR), que visa realizar regressões tendo como variável resposta o peso ao abate de uma população F2 de suínos e como variáveis independentes os marcadores moleculares SNP’s. Diante do exposto, esse trabalho tem como principal objetivo avaliar a correlação entre os valores reais e os valores estimados do peso ao abate de suínos como critério para seleção de componentes principais, verificando se é viável estudar as variáveis com base nos componentes.
Palavras-Chave: Peso ao abate; Seleção genômica; Regressão via componentes principais; SNP;


Censored Linear Regression Models for Irregularly Observed Longitudinal Data using the Multivariate-t Distribution - Link direto para esse trabalho
Aldo W. M. Garay; Víctor H. Lachos D.

In AIDS studies it is quite common to observe viral load measurements collected irregularly over time. Moreover, these measurements can be subjected to some upper and/or lower detection limits depending on the quantification assays and, in many situations, the measurements can also present a heavy-tail behavior. Motivated by this situation, we develop a likelihood-based inference for a censored longitudinal model based on the multivariate Student-t distribution. To model the autocorrelation existing among irregularly observed measures, a damped exponential correlation structure (DEC) is adopted. An EM-type algorithm is developed for computing the maximum likelihood estimates, obtaining as a by product the standard errors of the fixed effects. The proposed algorithm uses closed-form expressions at the E-step, that rely on formulas for the mean and variance of a truncated multivariate Student-t distribution. Our method is applied to a HIV viral load dataset from a longitudinal AIDS study. In addition, a simulation study is conducted to examine the performance of the proposed method when a particular correlation structure is assumed.
Palavras-Chave: Censored data; HIV viral load; ECM Algorithm; longitudinal data;


Classificador Genético-Fuzzy Para Diagnóstico de Hanseníase - Link direto para esse trabalho
Sandro Sperandei, Marcelo Ribeiro-Alves

Introdução: A hanseníase é uma doença bacteriana que afeta preferencialmente as células de Schwann dos nervos periféricos e os macrófagos da pele, podendo causar deformidades e incapacidades. Seu diagnóstico molecular sugere o uso de sistemas fuzzy. Objetivo: Desenvolver um classificador genético-fuzzy para diagnóstico de hanseníase. Materiais e Métodos: Biópsias de pele de 77 indivíduos, contendo casos e não-casos, foram obtidas e experimentos de qPCR foram realizados para quatro marcadores genômicos do M. Leprae: 16s, SodA, Ag85b e RLEP. Três conjuntos fuzzy foram criados para cada marcador, utilizando os experimentos de qPCR como suporte. Dois classificadores foram desenvolvidos e o conjunto de regras fuzzy foi selecionado por meio de algoritmos genéticos. Resultados: Para o diagnóstico de duas classes (caso x não-caso), foi observada uma acurácia de 0,88, com sensibilidade de 0,95, especificidade de 0,60 e AUCROC de 0,78 com a seleção de 50 regras. O classificador com quatro classes de saída apresentou acurácia de 0,66. Conclusão: Enquanto o diagnóstico binário apresenta resultados semelhantes a outros métodos diagnósticos, a principal vantagem do uso dos conjuntos fuzzy observada neste trabalho está na capacidade de diagnóstico das diversas apresentações clínicas para a hanseníase.
Palavras-Chave: Hanseníase; Lógica Fuzzy; Algoritmos Genéticos; Classificador;


Classifying archaeological fragments with Bayesian networks - Link direto para esse trabalho
Melaine Cristina de Oliveira; Andressa Soreira; Carlos Alberto de Bragança Pereira; Victor Fossaluza

The objective of the present work is to classify an archeological fragment as coming from one of a predetermined set of possible origins, Indian tribes: Guarani, Jacadigo and Kadiwéu. A database with information from ceramic fragments found in different sites, located in Lalima village, Mato Grosso do Sul, were collected. A database with information about different technological traditions on many ceramic fragments from Lalima was considered. The research´s expertise provided precise classification of about 760 pieces into the above three traditions. A supervised model of classification was created in order to infer the origin, among the above three, of other set of 2100 fragments. Bayesian nets were the basis for defining our model. Bayesian networks are directed acyclic graphs that properly represent the dependency between a set of random covariates with their joint probability distribution. We consider that our approach provides a robust classification technique since it provides the probability of a new fragment was originated from one of the three archeological communities with its group of technological tradition. Also, if the probability of technological tradition indicates low probabilities for all three groups, there could be an indication of the presence of an additional community. Comparison with alternative methods to build the networks was also presented.
Palavras-Chave: Bayesian networks; Archeological data; Classification; Bayesian inference;


Coeficiente de correlação cruzada: Uma aplicação nas séries temporais dos homicídios dolosos e homicídios tentados de Salvador-BA - Link direto para esse trabalho
Aloísio Machado da Silva Filho; Gilney Figueira Zebende; Marcus Fernandes da Silva; Magali Teresopolis Reis Amaral;

Em decorrência da tendência de crescimento da criminalidade e complexidade na sua manifestação, principalmente, nos grandes centros urbanos é necessário um planejamento com alicerce científico. Este artigo tem como objetivo geral estudar correção cruzada nos dados dos homicídios dolosos e homicídios tentados de Salvador-BA no período de 2004 a 2011, tendo como métodos o DCCA e o expoente de correlação cruzada. Com esse objetivo conseguimos aqui identificar correlação cruzada persistente positiva e componente sazonais nas séries históricas dos homicídios dolosos e homicídios tentados.
Palavras-Chave: Correlação cruzada; Séries temporais; Homicídios;


Cognitive-Constructivism, Quine, Dogmas of Empiricism, and Muenchhausen’s Trilemma - Link direto para esse trabalho
Julio M. Stern

Abstract: The Bayesian research group at University of Sao Paulo has been exploring a specific version of Cognitive Constructivism - Cog-Con - that has, among its most salient features, a distinctive “objective” character. Cog-Con is supported by a specially designed measure of statistical significance, namely, ev(H | X) - the Bayesian epistemic value of sharp hypotheses H, given the observed data X. This article explores possible parallels or contrasts between Cog-Con and the epistemological framework developed by the philosopher Willard van Orman Quine.
Palavras-Chave: Bayesian Statistics; Sharp Hypotheses; Significance Measures; Epistemology ; Philosophy of Science;


Combinação de modelos de previsões de séries temporais via cópula: análise comparativa entre estimadores combinados. - Link direto para esse trabalho
Thaíze Fernandes Oliveira de Assis; Ricardo Tavares Antunes de Oliveira; Paulo Renato Alves Firmino; Tiago Alessandro Espínola Ferreira.

Estudos sobre incerteza de modelos têm estado na vanguarda da modelagem de séries temporais. Diante de tal incerteza, pesquisadores têm sido desafiados a combinar diversos modelos ajustados a uma mesma série com o intuito de promover previsões agregadas. O presente trabalho apresenta uma análise comparativa entre as previsões agregadas ou estimadores combinados denominados: estimador combinado Correto (de Cópula), Clássico e Simple Average (SA) construídos levando em consideração várias séries temporais e inúmeros modelos de previsão envolvendo simulações diversas. Especificamente, as distribuições marginais dos erros de previsão de dois modelos são utilizadas para fazer agregação usando a cópula Normal e a cópula de Gumbel. Neste sentido, o estimador combinado Correto é construído levando em consideração qual a distribuição dos erros cometidos pelos modelos, e qual a cópula que respectivamente gerou os erros dos modelos. Enquanto o estimador combinado Clássico é construído assumindo que a estrutura de dependência entre os modelos segue uma normal, assim como, considera-se que os resíduos são normalmente distribuídos. Além disso, será avaliado o desempenho do SA com os estimadores combinados Correto e Clássico. Evidencia-se a partir do estudo, a utilidade do estimador combinado construído via cópula; a robustez do modelo Clássico e a superioridade do modelo Correto e Clássico em relação ao método SA.
Palavras-Chave: Incerteza de Modelos; Cópulas; Estimador Combinado;


Comparação de achocolatados mediante aspectos sensoriais através de uma prática experimental - Link direto para esse trabalho
Stênio Rodrigues Lima; Felipe Rodrigues Silva; Terssando Lustosa Santos; Wyara Vanesa Moura; Rita de Cássia de L. I Leão.

Os achocolatados são alimentos consumidos por pessoas de todas as idades e podem ser encontrados em todo o mundo. As suas características sensoriais e nutricionais, assim como sua conveniência e praticidade, fazem com que o produto seja bem aceito pelo consumidor, Eduardo et al. (2004). A análise sensorial e um método científico utilizado para medir, analisar e interpretar as características dos alimentos que possam ser percebidas pelo sentido do paladar, visão, olfato, tato e audição, utilizando conhecimentos de Ciência de Alimentos, Fisiologia, Psicologia e Estatística, Simpson et al. (1998). A realizacão deste trabalho tem como objetivo a realizacão de uma prática experimental com intuito de verificar se as marcas de achocolatado de preços mais elevados e mais baixos têm influência na aceitação por parte dos degustadores, quando cruzada com os dois tipos de leite, além de uma comparação com um achocolatado ja pronto para consumo. As análises feitas, foram descritivas, análises de variâncias e teste de comparação de médias. O software utilizado para a análise foi o R. Após as análises, observou-se que as misturas M2 e M7 sendo as mais baratas, apresentaram diferenças comparada as demais com relação a cor, obtendo notas baixas. Entretanto para as variáveis sabor e nível de açúcar não foram observadas diferenças significantes com relação as misturas mais caras.
Palavras-Chave: Achocolatados; Análise sensorial; Experimento; Análises de variâncias; Teste de comparação de médias;


Comparação de estimadores em Modelos de Resposta ao Item: um estudo de simulação - Link direto para esse trabalho
Helen Indianara Seabra Gomes; Thamara Rúbia Almeida de Medeiros ; Heliton Ribeiro Tavares

Resumo: Este trabalho apresenta um estudo do processo de estimação em Teoria da Resposta ao Item (TRI) em seus diversos aspectos, enfatizando o processo de Máxima Verossimilhança (MV) e Máxima Verossimilhança Marginal (MVM) com Algoritmo EM. Para testar as Implementações dos processos de estimação dos parâmetros dos itens foi feito um estudo minucioso dos métodos que são utilizados pela TRI que atualmente são adotados na área de Avaliação Educacional. Além disso, foi construído um gerador de bases de dados adotando-se o Modelo Logístico de três parâmetros (ML3) e realizadas simulações numéricas. Utilizou-se o aplicativo BILOG-MG, visando identificar qual método possui a melhor estimação das habilidades. Verificou-se que os métodos estudados apresentam vícios distintos para diferentes níveis da habilidade, possibilitando sugerir um estimador combinado com melhor precisão.
Palavras-Chave: Teoria da resposta ao item; Habilidades; Estimação;


Comparação de modelos: formação de critérios e alternativas - Link direto para esse trabalho
Elayne Penha Veiga, Mario Javier Ferrua Vivanco

Neste trabalho será apresentada a base para a construção de um critério para comparação de modelos e quais os critérios mais utilizados, tais como AIC (Akaike, 1974) e BIC (Schwarz, 1978), bem como uma opção baseada no preditivismo: a Medida L (Ibrahim e Laud, 1994), baseada em conceitos preditivos como a Densidade Preditiva em sua definição, e com este, comparando o que é predito ao que é observado para fazer a escolha entre modelos.
Palavras-Chave: Comparação de modelos; Informação de Kullback-Leibler; Preditivismo; Medida L;


Comparação dos modelos não lineares de Richards e de von Bertalanffy a dados de comprimento do fruto da pereira asiática - Link direto para esse trabalho
Rick Anderson Freire Mangueira; Maria Cristina Martins; Erasnilson Vieira Camilo; Taciana Villela Savian

Os modelos não lineares são bastante utilizados em estudos de curvas de crescimento ao longo do tempo com frutíferas. Tais estudos são fundamentais para descrever as mudanças ocorridas com o fruto. O modelo de von Bertalanffy e modelo de Richards são alguns dos que são utilizados com tais objetivos. O presente trabalho objetivou comparar o ajuste do modelo de von Bertalanffy e do modelo de Richards aos dados do comprimento do fruto da pereira asiática. Os parâmetros foram estimados utilizando o software R. Para que os resultados obtidos com o ajuste do modelo fossem validados, foi necessário verificar a qualidade do ajuste por meio de uma análise de resíduos que contemplou testes de normalidade, de autocorrelação e estudo de heterocedasticidade, tanto numéricos quanto por meio de gráficos. A comparação dos modelos e escolha do que melhor se ajustou aos dados foi feita pelo critério de Akaike (AIC). Tais análises mostraram que os dois modelos se ajustaram bem aos dados, porém, o modelo de Richards apresentou um menor AIC, assim, sendo escolhido como o melhor em comparação com o modelo de von Bertalanffy.
Palavras-Chave: Modelos de crescimento; von Bertalanffy; Richards; pereira asiática;


Comparação empírica de modelos multidimensionais da teoria da resposta ao item - Link direto para esse trabalho
Rafael Tezza; Antonio Cezar Bornia; Débora Spenassato; Andréa Cristina Trierweiller

Vários modelos para medir traços latentes multidimensionais têm sido desenvolvidos e aplicados com a finalidade de identificar o modelo mais adequado para as mais diversas configurações de traços latentes multidimensionais tanto hierárquica quanto não hierárquica. O presente artigo tem como objetivo comparar as estruturas hierárquicas e não hierárquicas de três modelos multidimensionais da teoria da resposta ao item, tendo como base dados reais referentes da qualidade de interfaces web de comércio eletrônico. Os modelos comparados foram o unidimensional múltiplo, multidimensional compensatório e o bi-fatorial.
Palavras-Chave: teoria da resposta ao item multidimensional; comparação de modelos; bi-fatorial; qualidade; websites;


Complementary Weibull Modified Power Series Distribution - Link direto para esse trabalho
Cynthia Tojeiro; Gleici Perdoná; Francisco Louzada

In this paper, we introduce a new class of distributions, denominated the complementary Weibull modified power series distributions (CWMPS), which is obtained by compounding Weibull and modified power series distributions on a latent complementary risks scenarios. In this case the lifetime associated with a particular risk is not observable, rather we observe only the maximum lifetime value among all risks. This new class contains several distributions as particular case, such as: complementary exponential geometric \citep{roman}, complementary exponential poisson [Cancho and Louzada, 2010], complementary weibull geometric [Tojeiro and Louzada, 2012], among others. The hazard function of our class can be increasing, decreasing and upside-down shape among others. The properties of the proposed distribution are discussed, including a formal prove of its probability density function and explicit algebraic formulas for its reliability and failure rate functions, moments, density of order statistics and their moments. We provide expressions for the R\'enyi and Shannon entropies. The parameter estimation is based on the usual maximum likelihood approach an EM algorithm. We obtain the observed information matrix and discuss inferences issues. Special distributions are studied in some detail. We report the results of a misspecification simulation study performed in order to assess the extent of misspecification errors when testing the Weibull modified power series distributions against ours complementary one in presence of different sample size and censoring percentage. The flexibility and potentiality of the new distribution is illustrated by means of two real data set and some discussions on models selection criteria are given.
Palavras-Chave: Complementary risks; Power series modified distribution; Weibull Distribution; Failure rate;


Comportamento assintótico: relação entre o tamanho da amostra e a qualidade do ajuste. - Link direto para esse trabalho
Guilherme Dias Malvão;Jessica Kubrusly

Este trabalho apresenta um estudo sobre a probabilidade de cobertura do intervalo de confiança de Wald para os parâmetros das distribuições de Bernoulli, Geométrica e Poisson. A probabilidade de cobertura e calculada através de simulação de Monte Carlo. Os resultados encontrados através da simulação foram comparados com os resultados teóricos encontrados na literatura. Também foi analisado a variação da probabilidade de cobertura em função do tamanho da amostra e do parâmetro da distribuição. Em particular, para a distribuição de Bernoulli foi analisada a performance de mais um intervalo de confiança assintótico, o intervalo de Wald Adaptado. Foi possível constatar que este tem melhor desempenho que o intervalo de Wald tradicional.
Palavras-Chave: Simulação de Monte Carlo; Análise assintótica; Probabilidade de cobertura; Intervalo de confiança;


Comportamento da Ordem da cadeia de Markov de Alcance Variável segundo o tamanho da amostra - Link direto para esse trabalho
Maria das Vitórias Alexandre Serafim; Manuel Rivelino Gomes de Oliveira; Divanilda Maia Esteves; Paulo José Duarte-Neto

O estudo relacionado ao comportamento da ordem de uma cadeia de Markov de Alcance Variável é de fundamental importância para conhecer a ordem de dependência de um certo fenômeno, pois além de conhecer a dependência entre si é possível estimar outros parâmetros e encontrar a Cadeia de Markov que melhor se adapta ao problema em análise. Diante disso, o presente trabalho teve como objetivo avaliar o comportamento da ordem de uma cadeia de Markov de Alcance Variável quando se utiliza diferentes tamanhos de amostra. Sendo assim, utilizou-se uma amostra de dados originais e a partir daí foram simuladas amostras de vários tamanhos diferentes com a mesma matriz de transição e mesma distribuição inicial da amostra original. A análise dos resultados obtidos mostrou uma grande variabilidade na ordem da cadeia de Markov de Alcance Variável quando se tem diferentes tamanhos de amostra.
Palavras-Chave: Cadeia de Markov de Alcance Variável; Ordem da Cadeia; Dimensão da Amostra;


Cook's distance for generalized linear mixed models - Link direto para esse trabalho
Luis Gustavo Bastos Pinho; Juvêncio Santos Nobre; Julio da Motta Singer

Consideramos uma extensão da distância de Cook para modelos lineares mistos generalizados com o objetivo de identificar observações com alta influência no valor condicional predito para a variável resposta. A distância proposta pode ser decomposta em três fatores que ajudam a distinguir entre influência na estimação de efeitos fixos e efeitos aleatórios. Influência conjunta e condicional também foram avaliadas. Uma aproximação de primeira ordem para agilizar os cálculos é apresentada e uma simulação de Monte Carlo ilustra a capacidade da técnica proposta. Uma aplicação em um conjunto de dados usado na literatura é apresentada para exemplificar como a técnica proposta é utilizada na prática.
Palavras-Chave: GLMM; Diagnóstico; Alavancagem; Distância de Cook;


Correlações de longo alcance em séries temporais da velocidade do vento em Pernambuco via análise multifractal - Link direto para esse trabalho
Bárbara Camboim Lopes de Figueirêdo; Evelyn Souza Chagas; Guilherme Rocha Moreira

Neste trabalho estudaram-se correlações de longo alcance das séries temporais de velocidade do vento registradas em 12 estações meteorológicas durante o período de 2008 a 2011 no estado de Pernambuco aplicando-se o método Multifractal Detrended Fluctuation Analysis (MF-DFA) nas séries temporais horárias. Todas as séries analisadas mostraram as propriedades multifractais. Foram calculadas medidas multifractais, o expoente de Hurst, o expoente de Rényi e o espectro multifractal. Para todas estações as larguras do espectro multifractal foram maiores para a rajada que para a velocidade, indicando uma multifractalidade mais forte. Estes resultados contribuem para uma melhor compreensão da natureza dos processos estocásticos geradores da dinâmica do vento, necessária para o desenvolvimento de modelos confiáveis para predição da variabilidade temporal do vento e dos diversos fenômenos influenciados pelo mesmo.
Palavras-Chave: vento; série temporal; multifractalidade;


Correção de Alta Ordem do Viés do Estimador de Máxima Verossimilhança - Link direto para esse trabalho
Waldemar Araújo de Santa Cruz Oliveira Júnior; Klaus Leite Pinto Vasconcellos

Uma técnica de correção de viés foi proposta por Firth, que consiste em fazer uma correção preventiva e para isso ele sugere fazer uma translação na função escore. Inspirados na generalização da equação proposta por Bartllet, usamos a expansão de Taylor da função inversa da função escore para propor uma nova técnica de estimação, que consiste em generalizar a ideia desenvolvida por Firth, no sentido de desenvolver sequências de estimadores com vieses de ordem de magnitude O(n−(h+2)); para qualquer h = 0; 1; 2;... As avaliações numéricas confirmam que essa técnica proposta neste trabalho de fato gera estimadores cujos vieses têm ordem magnitude O(n−3):
Palavras-Chave: Correção de Viés; Teoria Assintótica; Estatística Matemática; Inferência Estatística;


Correção de Bartlett bootstrap para a estatística da razão de verossimilhanças no modelo de regressão beta inflacionado - Link direto para esse trabalho
Laís Helen Loose; Fábio Mariano Bayer; Tarciana Liberal Pereira

O modelo de regressão beta tem como objetivo permitir a modelagem de respostas que pertencem ao intervalo (0,1), como taxas ou proporções. No entanto, em situações práticas a presença de zeros e/ou uns é comumente observada. Para dados com essa característica o modelo de regressão beta inflacionado é adequado. Nestes modelos, os testes de hipóteses são frequentemente realizados baseados na estatística da razão de verossimilhanças. Os valores críticos são obtidos de aproximações assintóticas, o que pode conduzir a distorções de tamanho em amostras de tamanho finito. Neste sentido, o presente trabalho propõe a correção de Bartlett bootstrap para a estatística da razão de verossimilhanças no modelo de regressão beta inflacionado. Por meio de simulações de Monte Carlo é comparado o desempenho em amostras finitas da correção de Bartlett bootstrap com o teste da razão de verossimilhanças usual e com o ajuste de Skovgaard já proposto na literatura. Os resultados numéricos evidenciam o bom desempenho da correção de Bartlett bootstrap proposta. Ao final do trabalho também é apresentada uma aplicação a dados reais.
Palavras-Chave: correção de Bartlett bootstrap; melhoramentos em pequenas amostras; regressão beta inflacionada; teste da razão de verossimilhanças;


Correção de Viés por Bootstrap - Link direto para esse trabalho
Verônica Maria Cadena Lima; Juliana Marambaia Maia; Giovana Oliveira Silva

Neste trabalho, a distribuição Weibull Modificada, proposta por Lai, Xie & Murthy (2003), é considerada. Esta distribuição pode ser usada para modelar dados de sobrevivência cuja função taxa de falha tem a forma de banheira. Três estratégias númericas (bootstrap paramétrico, não-paramétrico e não-paramétrico baseado num vetor de reamostragem) para correção de viés dos estimadores de máxima verossimilhança dos parâmetros da distribuição Weibull Modificada são consideradas. Resultados de simulação mostram que as correções de viés via bootstrap não-paramétrico são mais eficazes em pequenas amostras.
Palavras-Chave: correção de viés; método bootstrap; estimador de máxima verossimilhança;


Correção de taxas brutas de homicídios causados por arma de fogo, na região sudeste, período de 2006 a 2010, em cada estado, através de estimadores Bayesianos empíricos. - Link direto para esse trabalho
Henrique José de Paula Alves; Marcelo Silva de Oliveira

Mapas de taxas (ou mapas temáticos) são frequentemente usados para a análise da dispersão espacial do risco de ocorrência de um determinado evento quando os dados estão dispostos a partir de contagens por áreas. Um grande problema associado ao uso de taxas brutas é a alta instabilidade que apresentam quanto à ocorrência de eventos raros em pequenas populações. Como alternativa, o uso de estimadores Bayesianos empíricos para corrigir essas taxas é comumente indicado. Taxas Bayesianas empíricas podem utilizar informações de toda a região ou da vizinhança para estimar o risco de ocorrência em cada área. Neste trabalho aplicamos o cálculo destas taxas a dados reais de homicídios dos municípios dos quatro estados da região sudeste disponíveis na base de informações do Ministério da Saúde (DATASUS). Observamos que a utilização de estimadores Bayesianos empíricos na correção de taxas brutas é fundamental para o ordenamento mais adequado das regiões em relação ao risco. As regiões com população muito baixa tiveram a magnitude da incidência alterada significativamente e as de população alta praticamente mantiveram-se igual à taxa bruta. A implementação dessas análises e o cálculo de taxas corrigidas e a visualização dos mapas foram feitas usando o software estatístico livre R, através dos pacotes ``maptools'' e ``spdep''.
Palavras-Chave: estimadores de Bayes empíricos; taxas de homicídio; mapas temáticos;


Criação de uma Escala para Medir Satisfação de Funcionários de Hospitais Públicos no Brasil - Link direto para esse trabalho
Adriano Ferreti Borgatto; Diego Eller Gomes

O presente trabalho apresenta a criação de uma escala para medir a satisfação de funcionários de hospitais públicos por meio da TRI, aplicado em funcionários do hospital universitário da UFSC. Os itens deste instrumento têm 5 categorias de respostas ordinais e, portanto, o modelo de escala gradual de Samejima foi aplicado para a interpretação da escala. Os dados se ajustaram bem ao modelo e a interpretação da escala foi rica, principalmente para profissionais com traço latente acima do nível 30 da escala.
Palavras-Chave: modelo de escala gradual; hospitais públicos; teoria da resposta ao item;


Critical points on growth curves in autoregressive and mixed models - Link direto para esse trabalho
José Raimundo de Souza Passos; Sheila Zambello de Pinho; Lídia Raquel de Carvalho; Martha Maria Mischan.

The adjustment of autoregressive and mixed models to growth data, fits discontinuous functions, which makes it difficult to determine critical points. In this work we propose a new approach to determine the stability critical point of cattle growth using first-order autoregressive model and mixed model with random asymptote, using the deterministic parcel of the models. Three functions were compared, logistic, Gompertz and Richards. The Richards autoregressive model presented the best fit, but the critical growth values were adjusted very early, and to this purpose Gompertz model was more appropriated.
Palavras-Chave: nonlinear models; point of growth stability; asymptotic functions; weight-age curves;


Definição de escore para avaliação da qualidade das areias das praias - Link direto para esse trabalho
Antonio de Castro Bruni, Karla Cristiane Pinto, Claudia Conde Lamparelli

No presente estudo foram considerados os dados da qualidade microbiológica das areias de 18 praias do litoral paulista de 2011 a 2013. Em 2011 os meses monitorados foram Janeiro e Fevereiro, já em 2012 e 2013 o período foi estendido até a primeira semana de Abril. As praias avaliadas em 2013 foram: Prumirim, Tenório e Grande em Ubatuba, Indaiá e Martim de Sá em Caraguatatuba, Baraqueçaba e Maresias em São Sebastião, Sino em Ilhabela, Enseada em Bertioga, Pitangueiras e Enseada em Guarujá, Boqueirão em Santos, Gonzaguinha em São Vicente, Boqueirão e Vila Mirim em Praia Grande, Central em Mongaguá, Sonho em Itanhaém e São João Batista em Peruíbe. Os indicadores de contaminação fecal monitorados foram coliformes termotolerantes (CTt) e os enterococos. Esses dois parâmetros foram empregados conjuntamente para qualificar as areias secas das praias. Um Modelo Linear Geral Multivariado (MLGM) foi ajustado visando quantificar a importância dos fatores: mês, praia e anos. Com essa abordagem podemos corrigir médias para acessar os efeitos isolados do mês, do ano e das praias. A aplicação da técnica multivariada de Cluster Hierárquico indicou a existência de três grupos que refletiam a densidade dos indicadores de contaminação fecal nas amostras de areia. Um escore padronizado, baseado no grau de contaminação das areias pelos dois indicadores, foi criado e aplicado aos dados possibilitando, através dele, criar um ranking da qualidade das areias das praias paulistas. A praia melhor qualificada foi Prumirim e a pior foi Tenório, ambas situadas em Ubatuba. As praias com piores qualidades da areia foram: Tenório (Ubatuba), Pitangueiras (Guarujá), Grande (Ubatuba) e Boqueirão (Santos). Aquelas que apresentaram as melhores qualidades da areia foram: Prumirim (Ubatuba), Indaiá (Caraguatatuba), Sonho (Itanhaém), Martim de Sá (Caraguatatuba), Baraqueçaba (São Sebastião) e Sino (Ilhabela). O mês de Janeiro, devido ao grande afluxo de turistas, apresentou resultados diferenciados em relação aos demais meses, sendo o pior deles em termo de contaminação por coliformes termotolerantes. Esse comportamento não se repete com os enterococos quem mantém um mesmo nível no verão. Os dados de 2013 indicaram uma piora nas condições das areias das praias monitoradas em relação aos anos anteriores.
Palavras-Chave: Qualidade da areia; Praias Paulistas; Coliformes termotolerantes; Enterococos; Escore de qualidade;


Desafios do ensino de Estatística na Licenciatura em Matemática - Link direto para esse trabalho
Marcos Nascimento Magalhães

O ensino de Estatística na Educação Básica faz parte da disciplina de Matemática, conforme está previsto nos Parâmetros Curriculares Nacionais do MEC. Uma boa formação em Estatística de futuros professores é uma ação estratégica importante para a ampliação da presença da Estatística na sociedade. Um desafio a ser enfrentado é a melhoria da qualidade do ensino de Estatística oferecido nas faculdades e universidades que são as formadoras desses professores. Nesse sentido, apresentamos neste artigo algumas atividades desenvolvidas na disciplina Estatística para Licenciatura I, do curso de Licenciatura do Instituto de Matemática e Estatística da Universidade de São Paulo. Discutimos, também, três dificuldades relacionadas com o conhecimento de distribuições: reconhecer a existência de eventos não equiprováveis, compreender a existência da aleatoriedade em dados coletados e distinguir entre distribuições empírica e teórica de variáveis. As atividades desenvolvidas em 2013 parecem ter contribuído para uma melhor aprendizagem dos estudantes.
Palavras-Chave: licenciatura em matemática; estatística básica; ensino de estatística;


Desempenho de Gráficos de Controle Não Paramétricos para Medidas Individuais: Um Estudo Comparativo - Link direto para esse trabalho
Alan de Paiva Loures; Lupércio França Bessegato; Fernando Luiz Pereira de Oliveira

Controle estatístico do processo (CEP) é uma poderosa coleção de ferramentas de resolução de problemas que são importantes para se alcançar a estabilidade do processo. Desde sua origem, o gráfico de controle de Shewhart é uma poderosa ferramenta estatística A operação dos gráficos de controle consiste na coleta periódica de itens produzidos, analisando-os de acordo com alguma característica de interesse. Um gráfico de controle típico é uma representação gráfica de uma característica de qualidade, medida ou calculada a partir de uma amostra versus o número da amostra ou o tempo. A característica de qualidade pode ser um atributo ou uma variável. O gráfico contém uma linha central (LC), representando o valor médio da característica de qualidade, e duas outras linhas horizontais, chamadas limite superior de controle (LSC) e limite inferior de controle (LIC). Escolhe-se a amplitude do intervalo entre LSC e LIC de maneira que, quando o processo estiver operando sob controle, praticamente todos os pontos amostrais estejam em seu interior. Enquanto os pontos amostrais estiverem dentro dos limites de controle, considera-se que o processo esteja sob controle, não sendo necessária nenhuma ação. Entretanto, a ocorrência de um ponto fora desses limites é interpretada como evidência de que o processo está fora de controle, exigindo a descoberta e a eliminação da causa ou causas especiais responsáveis por essa ocorrência. No presente estudo é considerada a situação não paramétrica para medidas individuais em que a função de distribuição subjacente, F é desconhecida, É analisado o desempenho de gráficos de controle por medidas individuais construídas por intermédio das metodologias de bootstrap e de núcleos estimadores da função de distribuição. São utilizadas três diferentes metodologias para obtenção do parâmetro de suavidade das estimativas por núcleo. A determinação dos limites de controle baseia-se em observações obtidas na denominada Fase I, na qual são coletados os dados da característica de qualidade de interesse, para a estimação dos limites de controle. O desempenho dos gráficos de controle é avaliado principalmente em termos do comprimento médio da sequência.
Palavras-Chave: Gráficos de Controle; Técnica bootstrap; Núcleo estimador;


Desempenho do gráfico de controle T2 de Hotelling sob efeito da autocorrelação com limites de controle ajustado - Link direto para esse trabalho
Joelton Fonseca Barbosa; Pledson Guedes de Medeiros; Antonio Fernando Branco Costa

O gráfico de controle T2 de Hotelling tem sido o principal dispositivo estatístico utilizado no monitoramento de processos multivariados. Atualmente com o desenvolvimento tecnológico dos sistemas de controle e automação possibilitou uma elevada taxa de coleta das informações dos sistemas produtivos em intervalos de tempo muito curto, provocando uma dependência entre os resultados das observações. Este fenômeno, conhecido como autocorrelação, provoca no controle estatístico de processos multivariado uma grande quantidade de alarmes falsos, prejudicando o desempenho do gráfico e violando o pressuposto de independência e da normalidade da distribuição. Neste estudo considerou-se não só a correlação entre duas variáveis, mas também a dependência entre observações de uma mesma variável, isto é, a autocorrelação. Estudou-se, por meio de simulação, o caso bivariado e o efeito da autocorrelação no desempenho do gráfico T2 de Hotelling e obteve-se, por simulação, os limites de controle e depois feita uma análise do desempenho dos gráficos propostos para diferentes estruturas de autocorrelação e correlação.
Palavras-Chave: Controle multivariado de processos; autocorrelação; limites de controle; simulação;


Detecção de Clusters Espaciais em Modelos de Regressão Beta - Link direto para esse trabalho
Vanessa S. Santos; Max S. Lima

Uma estatística Scan usando o modelo de regressão beta para a detecção de clusters espaciais é proposta, pois em algumas situações, a variável de interesse está continuamente distribuída no intervalo (0,1). Para a estimação dos parâmetros do modelo, foi utilizado o método de Newton-Raphson. A significância do cluster é avaliada usando o valor-p bootstrap. Uma aplicação do método é apresentada usando a taxa de mortalidade infantil no estado do Amazonas-Brasil.
Palavras-Chave: Estatística Scan; Regressão Beta; Valor-p Bootstrap;


Detecção de hot spots futuros de casos de dengue em Minas Gerais - Link direto para esse trabalho
Thiago Rezende dos Santos; Ricardo Tavares

Este artigo apresenta uma maneira para identificar e detectar hot spots futuros de casos de dengue em Minas Gerais, bem como mapas de risco futuro podem ser construídos através das previsões para as notificações futuras de casos de Dengue. Além disso, é possível estudar e aprender mais sobre a interação entre espaço e tempo dos hot spots. Um monitoramento da dinâmica espacial dessas áreas é realizado com base nas previsões do número de casos de dengue obtidas por modelos de séries temporais (modelos de alisamento exponencial). Se os casos estão distribuídos de forma aleatória ou se existe algumas áreas com quantidade discrepante de casos em relação as demais podem ser avaliados através da estatística Scan espacial de Kulldorff. As previsões são próximas dos dados reais quando avaliamo-nas para os municípios. Baseado na previsão da incidência de dengue para o ano de 2009 para cada município, considerando os dados de Dengue entre 2001 e 2008 em MG/Brasil, mapas de risco são construídos e clusters primários são identificados via a estatística Scan. Os resultados são comparados com os dados reais em 2009 e são muito satisfatórios, fornecendo uma boa estimativa (aproximação). Agradecemos à FAPEMIG pelo suporte financeiro.
Palavras-Chave: Incidência de Dengue; Séries Temporais; Modelos de Holt-Winters; Estatística Scan Espacial; Clusters;


Detecção de outliers e análise de resíduos bayesiana em modelos espaciais - Link direto para esse trabalho
Viviana das Graças Ribeiro Lobo; Thaís Cristina Oliveira da Fonseca

Neste trabalho, são propostos métodos de diagnóstico e análise de resíduos para detecção de outliers num contexto espacial. O resíduo bayesiano padronizado espacial é escrito para três modelos (Normal, T-student e GLG). Outros métodos propostos na literatura para detecção de outliers tais como concordância preditiva e teste de Savage-Dickey são abordados e comparados em exemplos simulados.
Palavras-Chave: detecção de outliers; estatística espacial; análise de resíduos;


Determinantes dos Custos Totais das Empresas Distribuidoras de Energia Elétrica Brasileiras - Link direto para esse trabalho
Elizena das Graças e Silva; Ana Carolina Campana Nascimento; Moysés Nascimento; Patricia Mendes dos Santos; Laís Mayara Azevedo Barroso

O objetivo principal deste estudo foi investigar a influência de variáveis sobre os custos totais das empresas distribuidoras de energia elétrica brasileiras ao longo de pontos distintos da distribuição dos custos, e não apenas na média, utilizando para tanto, a metodologia de regressão quantílica. Para essa finalidade utilizou-se dados do ano de 2009 referentes a 60 distribuidoras de energia. Os principais resultados revelaram grande heterogeneidade com relação aos custos dessas empresas. Além disso, que os fatores que influenciam os custos, bem como impacto destes fatores no aumento dos custos totais, não é o mesmo para todas as distribuidoras.
Palavras-Chave: custos; energia elétrica; regressão quantílica;


Determinantes socioeconômicos do vestibular na região Centro-Oeste do Brasil: Evidências a partir do processo seletivo 2013 -I da UFG - Link direto para esse trabalho
Alex Rodrigues Lima; Mario Piscoya Díaz

. A educação superior é ainda um investimento em capital humano que contribui positivamente nas condições de vida futuras de um individuo. No entanto, em países onde a desigualdade social é grande, o acesso a serviços educativos de qualidade é afetado pelo nível socioeconômico do individuo. Este trabalho tem como objetivo principal identificar os determinantes socioeconômicos do sucesso no vestibular no Estado de Goiás, Brasil. Para isso utilizamos modelos de regressão para dados de sobrevivência, e técnicas da estatística multivariada. Os resultados obtidos sugerem que o efeito de dimensões econômicas como a escolaridade dos pais, a escola de procedência e o bem-estar material não são mais relevantes quando incorporamos características como o estado civil e a condição empregatícia do candidato.
Palavras-Chave: Vestibular; Nível Socioeconômico; Análise de Sobrevivência;


Determinação espectroscópica do nitrogênio, fósforo e pótassio presente no solo por meio de modelo logístico - Link direto para esse trabalho
Rayane Santos Leite; Abraão de Paula Taveira; Andreza Jardelino da Silva; Ana Patricia Bastos Peixoto.

As técnicas espectroscópicas têm sido cada vez mais utilizadas agricultura e em alimentos industriais nas últimas décadas. Os métodos de análise clássicos, ou seja, laboratórios de análises das amostras de alimentos, do solo ou da planta são caras, demoradas e exigem muito trabalho, tanto na coleta da amostra, quanto pela avaliação em laboratório. Para suprir estes problemas, várias técnicas instrumentais, como reflectância, espectroscopia, espectroscopia de fluorescência, etc., tem sido utilizada para a determinação da composição dos produtos. Estas técnicas analíticas são relativamente vantajosas, uma vez que são rápidas e não destrutivas. O objetivo deste trabalho é o de apresenta um modelo de regressão não linear para a predição de nitrogênio, fósforo e potássio, nas concentrações que contêm fertilizante NPK, respectivamente presentes nas amostras, para tanto foi ajustado o modelo logístico com três parâmetros. O uso de um modelo apropriado para inferir sobre o elemento de estudo é de fundamental importância, verificando-se neste trabalho, que o ajuste do modelo logístico com três parâmetros foi satisfatório, a menos da medida de curvatura do efeito do parâmetro, indicando que pode representar o comportamento dos nutrientes no solo. Outros modelos não lineares e/ou parametrizações do modelo logístico devem ser testadas para tentar encontrar melhor ajuste dos modelos não lineares aos dados.
Palavras-Chave: modelos não lineares; medidas de curvatura; fertilizantes;


Diagnostics for censored mixed-effects models using the multivariate t-distribution - Link direto para esse trabalho
Dipankar Bandyopadhyay; Larissa A. Matos; Luis M. Castro; Victor H. Lachos

In biomedical studies on HIV RNA dynamics, the viral loads generate repeated measures that are often subjected to (upper and lower) detection limits, and hence these responses are either left- or right-censored. Linear and non-linear mixed-effects censored (LMEC/NLMEC) models are routinely used to analyze these longitudinal data, with normality assumptions for the random effects and residual errors. However, the derived inference may not be robust when these underlying normality assumptions are questionable, specially presence of outlier- s and thick-tails. Motivated by this, Matos et al. (2013b) recently proposed an exact EM- type algorithm for LMEC/NLMEC models using a multivariate Student’s-t distribution, with closed-form expressions at the E-step. In this paper, we develop influence diagnostics for LMEC/NLMEC models using multivariate Student’s-t density, based on the conditional ex- pectation of the complete data log-likelihood which eliminates the complexity associated with the approach of Cook (1977, 1986) for censored mixed-effects models. The new method- ology is illustrated through an application to a longitudinal HIV dataset using the NLMEC framework. In addition, a simulation study is presented, which explores the accuracy of the proposed measures in detecting influential observations in heavy-tailed censored data under different perturbation schemes.
Palavras-Chave: Censored data; Case-deletion diagnostics; ECM algorithm; Linear mixed-effects model; Multivariate t;


Dimensionamento Amostral Para Usar Resultados Assintóticos - Link direto para esse trabalho
Pedro Henrique Ferreira Simas; Gregório Saravia Atuncar

Apresentamos neste trabalho os resultados obtidos usando simulações, de grande parte, da implementação do artigo de Boos e Hughes-Oliver. É estabelecida uma relação entre a perda na probabilidade de cobertura de intervalos de confiança e o coeficiente de assimetria(estimado). Apresentamos sugestões para determinar tamanhos amostrais visando usar resultados assintóticos.
Palavras-Chave: Teorema Central do Limite; Probabilidade de cobertura; Dimensionamento; Intervalo de Confiança;


Discriminação entre as Distribuições Inversa-Gaussiana e Log-Normal - Link direto para esse trabalho
Danielle Peralta; Josmar Mazucheli

As distribuições Inversa-Gaussiana e Log-Normal são duas distribuições bastante utilizadas na análise de dados de sobrevivência principalmente quando estas apresentam elevado grau de assimetria. Em muitas situações práticas elas competem entre sí na modelagem de um mesmo conjunto de dados. Neste artigo busca-se discriminá-las utilizando o teste da razão das verossimilhanças e oito outros baseados em estatísticas usadas para avaliar a qualidade do ajuste. Via simulações Monte Carlo e considerando-se vários cenários calculou-se a probabilidade de correta seleção. O estudo de simulação mostrou que em alguns cenários os métodos avaliados apresentam uma baixa probabilidade de correta seleção, mesmo para tamanhos de amostra razoavelmente grandes.
Palavras-Chave: Distribuição Inversa Gaussiana; distribuição Log-Normal; razão das verossimilhanças; função de distribuição empírica; probabilidade de correta seleção;


Distribuição Beta Aplicada em Dados Biológicos - Link direto para esse trabalho
Andreza Jardelino da Silva; Tiago Almeida de Oliveira

A romã é uma fruta muito antiga, sendo considerada o fruto do paraíso e um tipo de espécie mais adaptável a determinadas áreas. Ela está presente desde os primórdios, estando associada às paixões e à fecundidade. Para os judeus, a romã é um símbolo religioso onde se tem a crença de que o ano novo que chega sempre será melhor do que aquele que vai embora. Um modelo indicado em situações em que a variável resposta está distribuída de forma contínua dentro do intervalo $(0,1)$ podendo ser explicada com variáveis por meio de uma regressão, será o modelo beta. O presente trabalho tem por objetivo avaliar o indice de severidade da doença (Xanthomonas axonopodis pv. punicae) que acomete Romãs (Punica granatum L.) comparando diferentes distritos e variedades da fruta utilizando a distribuição beta.
Palavras-Chave: Modelos Lineares Generalizados; Indice de Severidade ; Distribuição Beta;


Distribuição Birnbaum-Saunders Tri-paramétrica - Link direto para esse trabalho
Terezinha K. de A. Ribeiro; Michelli Barros; Areli M. da Silva; Manoel Santos-Neto

Neste trabalho, estudamos uma generalização da distribuição Birnbaum-Saunders, proposta por Owen (2006). Inferência estatística para os parâmetros do modelo são apresentadas, bem como, análise de diagnóstico baseado no método de influência local. O comportamento dos estimadores foram avaliados por meio de estudos de simulação de Monte Carlo. Além disso, realizamos uma comparação entre as estimativas intervalares assintóticas e as estimativas intervalares obtidas via bootstrap. Por fim, aplicamos a teoria estudada a um conjunto de dados reais.
Palavras-Chave: distribuição Birnbaum-Saunders generalizada; método de máxima verossimilhança; bootstrap;


Distribuição Geométrica Half-Normal Potência com fração de cura. - Link direto para esse trabalho
Yolanda Gómez Olmos; Heleno Bolfarine

Neste trabalho considera-se o modelo de cura geométrico em Rodrigues et al. (2009) usando para S(.), a função de sobrevivência das células carcinogênicas, uma extensão da distribuição half-normal baseada na distribuição do máximo de uma amostra aleatória é utilizada, em que esta distribuição pertence à família de distribuições introduzida por Pescim et al.(2010) . É discutida a estimação de máxima verossimilhança do modelo. O modelo é ajustado a um banco de dados real (Melanoma), comparando-lo com o modelo Geométrico Birbaum-Saunders.
Palavras-Chave: Distribuição half-normal; Modelo de cura geométrico; Distribuição do máximo de uma amostra; Máxima verossimilhança;


Distribuição Kumaraswamy-Exponencial para Análise de Dados de Sobrevivência - Link direto para esse trabalho
Amanda Morales Eudes; Vera Lucia Damasceno Tomazella, Cirdêmia Costa Feitosa

Na literatura, diversas distribuições conhecidas são utilizadas para acomodar dados de tempos de falha, porém, grande parte destas distribuições não é capaz de acomodar taxas de falha não monótonas. Kumaraswamy (1980) propôs uma nova distribuição de probabilidade capaz de acomodar tais taxas e, baseada nela, mais recentemente Cordeiro e de Castro (2009) propuseram uma nova família de distribuições generalizadas, a Kumaraswamy-Generalizada (Kum-G). Esta distribuição além de ser flexível, contém distribuições com funções de risco unimodal e em forma de banheira, como mostrado por Pascoal et al. (2011). Neste artigo, nós apresentamos a distribuição Kumaraswamy-Exponencial (Kum-Exp) para analisar dados de tempo de vida dos indivíduos em risco, sendo que este modelo é caso particular da família de distribuições Kum-G. Algumas propriedades desta distribuição serão apresentadas, assim como o método adequado de estimação para os parâmetros do modelo, de forma clássica e também bayesiana. A nova distribuição é ilustrada com dois conjuntos de dados encontrados na literatura.
Palavras-Chave: Análise de sobrevivência; Distribuição Kumaraswamy-Exponencial; abordagem bayesiana;


Distribuição Odd log-logística Weibull - Link direto para esse trabalho
José Nilton da Cruz; Gauss M. Cordeiro; Edwin M. M. Ortega; Morad Alizadeh.

Fornecer uma família ampla de distribuições é sempre precioso para a estatística. Neste contexto, Cruz et al.(2013) propuseram uma família de distribuições, a família Odd log-logística (OLL), que pode ser obtida pela adição de um parâmetro de forma à distribuições contínuas. Estes autores, apresentaram propriedades matemáticas gerais da família Odd log-logística, incluindo os momentos ordinários e incompletos, funções quantílica e geradora, valores extremos assintóticos, estatísticas de ordem e dois tipos de entropias. Neste trabalho, é apresentada a distribuição Odd log-logística Weibull (OLLW), um caso especial da família de distribuições OLL obtida pela adição de um parâmetro de forma considerando como distribuição de base a distribuição de Weibull. Uma das grandes vantagens da distribuição OLLW é que sua função de risco assume as formas unimodais e banheira. A potencialidade da distribuição Odd log-logística Weibull é demonstrada por meio da aplicação em dois conjuntos de dados reais.
Palavras-Chave: log-logística; Teste da razão de verossimilhança; Odd log-logística Weibull;


Distribuição Weibull Exponencial de Zografos - Link direto para esse trabalho
Patrícia Silva Nascimento Barros, Kleber Napoleão Nunes de O. Barros, Cícero Carlos R. de Brito, Joseilme Fernandes Gouveia, Wilson Rosa de Oliveira Junior

A distribuição Weibull é muito popular para dados em modelagem de vida. Muitas modificações da distribuição Weibull foram propostas nos últimos anos. Zografos apresenta uma introdução a família gama-generalizada de distribuições. Daí tem-se, como proposta, a distribuição Weibull Exponencial de Zografos (WEZ). A WEZ tem a distribuição Weibull, exponencial e Rayleigh como casos particulares. Um tratamento compreensivo das propriedades matemáticas da WEZ é feita, sendo encontradas as expressões para a função de distribuição, função densidade, função de risco, função geradora de momentos, média, variância, coeficiente de assimetria e curtose. Ajustou-se um modelo WEZ para um conjunto de dados reais e comparou-se com os modelos Weibull (W), Fréchet (F), Beta Fréchet (BF), Gama (G) e Beta Exponencial Generalizada (BGE). Para todos os critérios o melhor ajuste foi da WEZ. Dessa forma a distribuição Weibull Exponencial de Zografos pode ser utilizada para ajustar dados de análise de sobrevivência.
Palavras-Chave: Distribuição Weibull ; Família gama-generalizada; DistribuiçãWeibull Exponencial de Zografos;


Distribuição Weibull: Uma aplicação aos modelos de degradação - Link direto para esse trabalho
Jéssica da Assunção Almeida; Fábio Nogueira Demarqui

O acesso à confiabilidade de dispositivos é, tradicionalmente, baseado em testes de vida acelerados. No entanto, em uma gama de situações envolvendo produtos altamente confiáveis, pouca informação acerca da confiabilidade destes produtos pode ser acessada, visto que um número significativamente reduzido de falhas é observado durante o período em que o produto permanece sob teste. Em situações nas quais é razoável a suposição de que as falhas são induzidas por um mecanismo de degradação, é possível acessar a confiabilidade de dispositivos através da informação proveniente do seu mecanismo de degradação, obtida após um período de monitoramento dos dispositivos sob investigação. Neste trabalho um conjunto de dados real foi analisado com o intuito de ilustrar como dados de degradação podem ser utilizados para se acessar a confiabilidade de produtos. Os dados de degradação foram modelados através do método analítico e o método aproximado. Para ambos os métodos, a distribuição Weibull foi assumida para modelar a distribuição do tempo até a falha, e abordagens frequentista e Bayesiana foram consideradas. O ajuste dos diferentes modelos foi realizado através dos softwares estatísticos R e OpenBugs. Com base nos modelos ajustados foram obtidas medidas importantes no estudo de confiabilidade, como a função de confiabilidade e percentis da distribuição do tempo de vida dos produtos. Finalmente, foi observado que, para o conjunto de dados analisado, os métodos analítico e aproximado apresentaram resultados similares, independentemente da abordagem (frequentista ou Bayesiana) adotada. Este trabalho é desenvolvido com auxílio financeiro da FAPEMIG.
Palavras-Chave: Confiabilidade; Inferência Bayesiana; Método Analítico; Método Aproximado ; Métodos MCMC;


Distribuições Bimodais Assimétricas com aplicação à dados de células mamárias cancerígenas - Link direto para esse trabalho
Andressa Nunes Siroky; Heleno Bolfarine

Este trabalho estuda uma nova família de distribuições proposta por Bolfarine et. al (2013) que pode ser visto como uma extenção do modelo Gaussiano generalizado introduzido por Durrans (1992). Estimação pelos métodos de máxima verossimilhança é considerada. Aplicações a dados reais ilustram a utilidade do modelo estudado.
Palavras-Chave: distribuição bimodal; assimetria; inferência; verossimilhança;


Distribuições Uniformizadas em Análise de Sobrevivência - Link direto para esse trabalho
Josenildo de Souza Chaves

Neste trabalho propomos uma formulação de distribuições uniformizadas de probabilidade para representar o tempo de vida e o tempo de censura em análise de sobrevivência. A metodologia é ilustrada utlilizando a distribuição uniforme-Weibull considerando o modelo de mistura padrão com fração de cura. Um caso particular utilizado por alguns autores é dado pela distribuição uniforme-exponencial.
Palavras-Chave: distribuições uniformizadas,; distribuição uniforme-Weibull,; análise de sobrevivência,;


EFEITOS DA CORRELAÇÃO NOS TESTES F APROXIMADOS DA MANAVA - Link direto para esse trabalho
Katia Alves Campos; Crysttian Arantes Paixão; Augusto Ramalho de Morais.

Com o objetivo de avaliar a influência da correlação, existente entre as variáveis respostas, nos resultados dos testes F aproximados da análise de variância multivariada foram simulados experimentos, com sete variáveis respostas, considerando-se para a simulação os níveis e os número de variáveis correlacionadas. Para avaliação, foram calculados os quatro critérios: teste do máximo autovalor de Roy, Lâmbda de Wilks, Hotelling e Lawley e Pillai; A avaliação foi realizada contando número de vezes que a hipótese de nulidade foi aceita, calculando a porcentagem de aceitação.O teste de Pillai, divergiu da decisão dos outros três testes aproximados da MANAVA e foi influenciado tanto pela presença de correlação quanto pelo aumento no número de variáveis correlacionadas.
Palavras-Chave: simulação; experimento; análise de variância multivariada; delineamento inteiramente casualizado;


ENSINAR E APRENDER ESTATÍSTICA: UMA PROPOSTA PEDAGÓGICA - Link direto para esse trabalho
Suzi Samá Pinto; Mauren Porciúncula Moreira da Silva

Este trabalho tem como objetivo refletir sobre o ensino da estatística através da proposta pedagógica de Projetos de Aprendizagem. A avaliação do desenvolvimento das diversas etapas dos Projetos de Aprendizagem foi fundamental para compreender sua contribuição na construção dos conceitos estatísticos pelos estudantes de graduação. A análise dos dados levantados no instrumento de avaliação envolveu métodos quantitativos e qualitativos. O Ensino da Estatística através dos Projetos de Aprendizagem possibilitou aos estudantes vivenciarem as várias fases de uma pesquisa, partindo de um tema de seu interesse e aplicando os conteúdos que iam sendo trabalhados na sala de aula de Estatística. Também possibilitou conviver e lidar com as inseguranças inerentes ao próprio pesquisar, e contribuir na formação de indivíduos com iniciativa, autonomia, conscientes dos problemas da atualidade e da importância do trabalho em equipe.
Palavras-Chave: Ensino de Estatística; Projeto de Aprendizagem; Ensino de Graduação; Análise qualitativa e quantitativa;


ESCALA PARA AVALIAR A ACESSIBILIDADE NAS ESCOLAS DE EDUCAÇÃO BÁSICA. - Link direto para esse trabalho
Denys Cristiano de Oliveira Machado - Inep. Pedro Alberto Barbetta - UFSC. Heliton Ribeiro Tavares - UFPA.

Grande parcela da população brasileira apresenta algum tipo de restrição de mobilidade segundo censo demográfico realizado pelo IBGE, tendo as escolas brasileiras de educação básica que estar preparadas para garantir igualdade de atendimento a esse público. Valendo-se dos dados do Saeb 2011 e de modelagem estatística empregando a TRI, construiu-se uma escala para avaliar a acessibilidade das escolas públicas brasileiras com turmas do quinto ano e traçar um panorama dos recursos disponíveis em suas estruturas para o atendimento das pessoas com restrição de mobilidade, por unidades da federação.
Palavras-Chave: Acessibilidade; Educação básica; Teoria de resposta ao item;


ESCORE DE QUALIDADE NA GESTÃO MUNICIPAL DA SAÚDE: USO DO MODELO LOGÍSTICO DE 2 PARÂMETROS DA TRI. - Link direto para esse trabalho
Tais Medeiros Silva; Maria Regina Madruga; Héliton Ribeiro Tavares; Tarcísio da Costa Lobato.

Com o objetivo de mensurar a qualidade na gestão da saúde dos municípios brasileiros, foi utilizado o um modelo da Teoria da Resposta ao Item (TRI), para estimar um escore associado a esta qualidade. Com base no questionário da pesquisa de informações básicas municipais – MUNIC 2011, do IBGE, foram selecionados 15 itens relacionados ao planejamento e ações municipais voltados para a melhoria da saúde. Com base nas estimativas dos parâmetros dos itens, observou-se que 3 itens relacionados à oferta de serviço privado para atendimento odontológico, atendimento psicológico e consulta médica especializada, tiveram maior poder de discriminar entre os municípios de maior e menor escore. A existência de maternidade é um item presente em municípios de todos os níveis, mas tal presença aumenta dentre os municípios de maior escore. Os itens relativos à existência de plano municipal de saúde, laboratório de análises clínicas e unidade de emergência foram os mais “fáceis”, ou seja, os municípios de alto e baixo escore tem alta probabilidade de responder afirmativamente. O escore estimado sugeriu a presença de 5 grupos de municípios, sendo o grupo de melhor gestão composto por apenas 147 municípios, com 45,5% deles distribuídos na Região Sul.
Palavras-Chave: escore de qualidade; teoria da resposta ao item; saúde municipal;


ESTABILIDADE EM ANÁLISE DE AGRUPAMENTO VIA REAMOSTAGEM “BOOTSTRAP” - Link direto para esse trabalho
Mácio Augusto de Albuquerque; Joseilme Fernandes; Pablo Lourenço Ribeiro de Almeida; Edwirde Luiz Silva

Objetivou-se propor uma sistemática para o estudo e a interpretação da estabilidade dos métodos em análise de agrupamento, através de vários algoritmos de agrupamento em dados de vegetação. Utilizou-se dados provenientes de um levantamento na Mata da Silvicultura, da Universidade Federal de Viçosa-MG. Para análise de agrupamento foram estimadas as matrizes de distância de Mahalanobis com base nos dados originais e via reamostragem “bootstrap” e aplicados os métodos da ligação simples, ligação completa, médias das distâncias, e do Ward. A Para a detecção de associação entre os métodos foi aplicado o teste qui-quadrado a 1 e 5% de probabilidade. Para os diversos métodos de agrupamento foi obtida a correlação cofenética. Os resultados de associação dos métodos foram semelhantes, indicando em princípio que qualquer algoritmo de agrupamento estudado está estabilizado e existem, de fato, grupos entre os indivíduos observados. No entanto, observou-se que os métodos são coincidentes, com base nas matrizes de Mahalanobis a partir dos dados originais e “bootstrap”. A sistemática proposta é promissora para o estudo e a interpretação da estabilidade dos métodos de análise de agrupamento em dados de vegetação.
Palavras-Chave: análise multivariada; bootstrap; hierárquicos aglomerativos;


ESTATÍSTICA NO ENSINO MÉDIO: UM OLHAR INTERDISCIPLINAR A PARTIR DO ENEM - Link direto para esse trabalho
Fábio dos Santos Jardim; Luciana Neves Nunes

Este trabalho tem por objetivo dissertar, no âmbito da Educação Matemática, sobre os conhecimentos de Estatística básica de um grupo de alunos do 3º ano do Ensino Médio do Colégio de Aplicação da UFRGS, escola federal situada na cidade de Porto Alegre. A partir de uma atividade prática, com foco na proposta interdisciplinar defendida pelo Exame Nacional do Ensino Médio (ENEM), foi realizado um estudo de caso que tratasse de responder a questões relacionadas ao pensamento estatístico utilizado de forma empírica e ao entendimento dos alunos quanto à relevância do Ensino de Estatística
Palavras-Chave: Ensino de Estatística; Estatística no Ensino Médio; Interdisciplinaridade no ENEM; Estudo de Caso;


ESTIMATIVA DO TAMANHO ÓTIMO DE PARCELAS PARA TESTE DE GERMINAÇÃO DE SEMENTES DA ESPÉCIE ASTRONIUM FRAXINIFOLIUM - Link direto para esse trabalho
Douglas Silva Oliveira; Alexandre Antônio Franzão; Corolina Juvelina Alves; Denise Garcia de Santana; Quintiliano Siqueira Schroden Nomelini

Estudos envolvendo a determinação do tamanho ótimo de parcela são importantes no planejamento experimental e sua caracterização de forma otimizada permite a obtenção de resultados com mais precisão. No entanto esse tamanho não pode ser generalizado, pois deve considerar as características e especificidades de cada espécie, cultivar, local, variáveis a serem analisadas e métodos utilizados. Por esta razão, o objetivo do presente trabalho foi a utilização do Método da Máxima Curvatura Modificado e Modelo de Regressão Linear com Platô, para a espécie Astronium fraxinifolium, em 3 lotes de variabilidades distintas para a determinação de tamanho ótimo de parcela para esta espécie. Considerou-se ensaio em branco e condições ambientais idênticas de todas as unidades experimentais básicas (UEB), com instalação dos experimentos de acordo com a metodologia proposta como sendo a melhor para teste de germinação dessa espécie segundo Nomellini (2012). Verificou-se para esta espécie que o Modelo de Regressão Linear com Platô reduziu os tamanhos de parcela de forma drástica e prejudicial, sendo adequado para a mesma o Método da Máxima Curvatura Modificado, e reforçando a necessidade da utilização de mais de um método para a determinação dos tamanhos de parcela.
Palavras-Chave: Teste de Germinação; Tamanho Ótimo de Parcela; Astronium fraxinifolium;


ESTIMATIVA DO TAMANHO ÓTIMO DE PARCELAS PARA TESTE DE GERMINAÇÃO DE SEMENTES DA ESPÉCIE Acacia polyphylla D.C. - Link direto para esse trabalho
Carolina Juvelina Alves; Douglas Silva Oliveira; Alexandre Antônio Franzão; Denise Garcia de Santana; Quintiliano Siqueira Schroden Nomelini

Estudos envolvendo a determinação do tamanho ótimo de parcela são importantes no planejamento experimental e sua caracterização de forma otimizada permite a obtenção de maior precisão nesses resultados. No entanto esse tamanho não pode ser generalizado, pois deve considerar as características e especificidades de cada espécie, cultivar, local, variáveis a serem analisadas e métodos utilizados. Por esta razão, o objetivo do presente trabalho foi a utilização das metodologias: Método da Máxima Curvatura Modificado, Modelo de Regressão Linear com Platô, e Modelo de Regressão Quadrático com Platô, para a espécie Acacia polyphylla D.C., em 3 lotes de variabilidades distintas para a determinação de tamanho ótimo de parcela para esta espécie. Considerou-se ensaio em branco e condições ambientais idênticas de todas as unidades experimentais básicas (UEB), com instalação dos experimentos de acordo com a metodologia proposta como sendo a melhor para teste de germinação dessa espécie segundo Nomellini (2012). Verificou-se para esta espécie que os Modelos de Regressão (Linear e Platô) reduziram os tamanhos de parcela de forma drástica e prejudicial, sendo adequado para a mesma o Método da Máxima Curvatura Modificado, e reforçando a necessidade da utilização de mais de um método para a determinação dos tamanhos de parcela.
Palavras-Chave: Teste de Germinação; Tamanho Ótimo de Parcela; Acacia polyphylla D.C.;


ESTIMATIVAS DECORRENTES DA REGRESSÃO LINEAR DE ESTUDO EPIDEMIOLÓGICO: O IMPACTO DA CORREÇÃO PELO EFEITO DE DESENHO - Link direto para esse trabalho
Luma Fabiane Almeida; Andréa Maria Eleutério de Barros Lima Martins; Marise Fagundes Silveira; Alfredo Maurício Batista de Paula; Fernanda de Oliveira Ferreira; Efigênia Ferreira e Ferreira; Desirée Sant' Ana Haikal.

Avaliou-se o impacto da correção pelo efeito de desenho nas estimativas decorrentes de uma amostra por conglomerados de estudo epidemiológico em saúde bucal conduzido entre 780 adultos (35-44 anos). Foram apresentadas estimativas não corrigidas e corrigidas pelo desenho amostral, as diferenças relativas entre amplitude dos intervalos de confiança (IC-95%), erro padrão (EP) e coeficientes de regressões linear (β). Apresentou-se ainda o Efeito do Desenho (Deff) e os valores p. A variável dependente referiu-se ao número de perdas dentárias por cárie. Houve diferença de até 119% no β da regressão linear. Houve divergência quanto à associação de uma variável na regressão linear múltipla. Desconsiderar o desenho amostral nas análises resultou em subestimação da variabilidade aferida pelo maior erro padrão. Com isso, as estimativas corrigidas apresentam-se mais imprecisas. Recomenda-se a correção pelo efeito do desenho e a apresentação dos valores de Deff nas análises decorrentes de amostras por conglomerados em estudos epidemiológicos em saúde bucal.
Palavras-Chave: Amostragem; Efeito de Desenho; Regressão Linear; Saúde Bucal. ; Análise por Conglomerados;


ESTRESSE OCUPACIONAL NO HOSPITAL DAS CLINICAS DA UNIVERSIDADE FEDERAL DE PERNAMBUCO - Link direto para esse trabalho
Auridenes Alves de Oliveira; Glauce da Silva Guerra; Renan Williams Marques Ferreira; Maria Cristina Falcão Raposo

Este estudo teve como objetivo principal, avaliar o nível de estresse dos funcionários do Hospital das Clínicas da Universidade Federal de Pernambuco (HC-UFPE) e propor um modelo linear generalizado, para explicar o nível de estresse, sendo considerada que a variável resposta assume distribuição Gamma. As variáveis selecionadas para explicar o nível de estresse foram: sexo, se o funcionário está exercendo a função para a qual foi contratado e, se o funcionário gosta da função que exerce.
Palavras-Chave: Estresse Ocupacional; HC-UFPE; Modelo Gamma;


ESTUDO DO APRENDIZADO DE ESTATÍSTICA NO ENSINO FUNDAMENTAL - Link direto para esse trabalho
Rafael Pereira Cavalcante; Claudia Regina O.de Paiva Lima

Este trabalho teve como objetivo, demonstrar uma didática diferente no ensino da estatística do ensino fundamental, de maneira que venha a auxiliar os professores no jeito de lecionar a estatística aplicando-a em diferentes áreas de ensino de forma criativa e compreensiva para que os alunos possam vir a desenvolver um melhor senso critico e uma capacidade de interpretar dados.
Palavras-Chave: Estatística no Ensino Fundamental; Novo Método de Ensino; Preparação dos Professores;


ESTUDO DO MODELO DE REGRESSÃO PARA DISTRIBUIÇÃO SEMI-NORMAL GENERALIZADA E WEIBULL, PARA DADOS DE TEMPOS DE VIDA - Link direto para esse trabalho
Mariana de Almeida Gomes; José Carlos Fogo

Trabalhos recentes em análise de sobrevivência têm introduzido novos modelos, mais versáteis e que acomodam diferentes tipos de curvas de risco. O modelo de Weibull, amplamente difundido, mostrou-se incapaz de ajustar riscos não monótonos (COORAY e ANANDA, 2008). Modelos de Weibull modificado e generalizações de outras distribuições tem sido introduzidos na literatura nos últimos anos, dos quais destacamos (CORDEIRO et al, 2010), (PESCIM et al, 2010), (CORDEIRO E CASTRO, 2009). Cooray e Ananda (2008) introduziram o modelo semi-normal generalizado (SNG) como opção ao modelo de Weibull, para acomodar curvas de risco não monótonas. Este trabalho visa estudar e comparar o modelo de regressão Weibull, com o modelo de regressão semi-normal generalizado, aplicado a dados de sobrevivência. Para isso, foram realizadas simulações a fim de estudar o comportamento dos estimadores de máxima verossimilhança. Pelos resultados obtidos verificamos que o modelo de regressão SNG apresentou performance muito boa. Além das simulações um exemplo com dados reais foi apresentado, no qual o modelo proposto (SNG) apresentou melhor desempenho.
Palavras-Chave: Análise de Sobrevivência; Distribuição Semi-Normal Generalizada; modelo de Weibull; modelo de regressão para tempos de vida;


ESTUDO SOBRE A EVASÃO E O TEMPO ATÉ A FORMATURA DOS ALUNOS DO CURSO DE ESTATÍSTICA DA UFPR - Link direto para esse trabalho
Bruno Rosevics; Estevão B. Prado; Suely R. Giolo

Nesse trabalho, foram analisados os dados dos alunos que ingressaram no curso de graduação em Estatística da Universidade Federal do Paraná (UFPR) no período de 1991 a 2010. Como dois currículos nortearam o curso neste período (1991 e 2006), análise foi realizada para cada um deles. O currículo 1991 compreende alunos ingressos entre 1991 e 2005 (período este anterior à implantação do Processo Seletivo Estendido (PSE)) e o currículo 2006, os ingressos entre 2006 e 2010, já com o PSE. O processo seletivo estendido compreende, além das duas fases que compõem o vestibular da UFPR, uma terceira fase em que o aluno é avaliado durante 6 meses em duas disciplinas. Tal processo tem como um de seus objetivos reduzir a taxa de evasão. O objetivo desse trabalho foi analisar características que estão associadas à evasão e ao tempo até a formatura dos alunos mencionados. Para isso, foi utilizado o modelo de mistura com fração de cura. De modo geral, o modelo mostrou ajuste satisfatório para ambos os currículos, tendo como principais variáveis para o componente de sobrevivência o IRA e tipo de ingresso e para o componente logístico o IRA e idade.
Palavras-Chave: Evasão; Graduação em Estatística; Análise de sobrevivência; Modelo de mistura; Fração de cura;


EVASÃO NA UNIVERSIDADE FEDERAL DA PARAÍBA: UM ESTUDO DE CASO UTILIZANDO O MODELO DE REGRESSÃO LOGÍSTICA - Link direto para esse trabalho
Camila Ravena de Oliveira; Hemílio Fernandes Campos Coêlho

O presente trabalho tem o objetivo de desenvolver um estudo de caso sobre o fenômeno da evasão escolar na Universidade Federal da Paraíba. No âmbito internacional, a evasão no ensino superior tem sido bastante discutida. No Brasil, esta temática vem sendo objeto de estudo científico desde a década de 80, e em média verifica-se uma grande quantidade de estudos que abordam o tema como um dos grandes problemas para gerenciamento de recursos e avaliação de qualidade de cursos nas instituições. A partir dos dados obtidos junto a todos os campi da Universidade Federal da Paraíba– UFPB, o presente trabalho apresenta propostas de construção de indicadores de evasão escolar, comparando os métodos tradicionais de cálculo com métodos que consideram o uso de um modelo de regressão logística. Para análise dos dados, foram considerados dados de alunos ingressantes, concluintes, retidos, evadidos e dados socioeconômicos, os quais foram obtidos da Superintendência de Tecnologia da Informação da UFPB (STI – UFPB) para o período compreendido entre os anos de 2002 até 2012.
Palavras-Chave: evasão escolar; taxa de evasão; regressão logística;


EXPECTATIVAS ACERCA DA ARRECADAÇÃO DE ICMS NO ESTADO DO RIO GRANDE DO NORTE - Link direto para esse trabalho
Kéren Hapuque Pessoa Da Costa; Luiz Carlos Santos Junior.

O Governo, como agente interventor, define através da política econômica tributária como serão cobrados os tributos dos cidadãos e organizações e assim gerar sua própria receita. Dentre os tributos cobrados na esfera estadual tem-se o Imposto sobre Circulação de Mercadorias e Prestação de Serviços (ICMS), considerado a maior fonte de arrecadação de um governo estadual. Diante da importância deste imposto, considera-se fundamental o conhecimento acerca dessa variável por parte dos estados, para que se possa planejar com mais eficiência seus fluxos de caixa orçamentários (tributos menos gastos do governo). Dentro desse contexto, o presente trabalho tem por objetivo estimar os valores de arrecadação do ICMS no Estado Rio Grande do Norte para os anos de 2013 e 2014. Para tanto, realizou-se uma previsão a partir da metodologia matemática Holt-Winters, uma vez que a literatura aponta que este modelo é o que melhor se adequa à série que apresenta forte tendência e pouca sazonalidade. Os resultados do trabalho, no âmbito descritivo, apontam oscilação na arrecadação de ICMS em virtude dos períodos natalinos (decorrente de grande aumento em compras e vendas, influenciando diretamente nos valores totais arrecadados) enquanto que, no âmbito da modelagem, a previsão de ICMS arrecado pelo estado do RN foi considerada significativa, dada a pequena diferença entre os valores observados e estimados (em 2013, a média desta diferença foi de -2,15%, oscilando ao longo do ano, e chegando em alguns meses a apenas 0,39%). Por fim, sugere-se a elaboração da previsão do ICMS arrecadado segundo a abordagem de outros modelos, para comparação de melhor ajuste para a variável estudada, bem como uma extensão do Método Holt-Winters para prever outras variáveis de arrecadação do estado do RN.
Palavras-Chave: Previsão ; Holt-Winters; ICMS arrecadado no RN;


Educação ambiental nos cursos técnicos integrados do Câmpus Ji-Paraná: usando a estatística descritiva para mostrar a visão dos alunos. - Link direto para esse trabalho
Leonardo Mota de Andrade; Samuel Carmo da Silva

O presente trabalho apresenta os resultados obtidos do estudo realizado, com alunos dos cursos técnicos integrados ao ensino médio do IFRO/Câmpus Ji-Paraná sobre os principais fatores que têm dificultado a inserção da educação ambiental na prática pedagógica. Para verificação destas informações, foram utilizadas técnicas da Estatística Descritiva, tais como a coleta, tabulação e apresentação de dados. Os dados foram coletados, organizados, tabulados e apresentados em forma de tabelas e gráficos para uma melhor interpretação. Ao final da pesquisa, chegou-se a conclusão que a não inserção da educação ambiental na prática pedagógica se deve à falta de discussão do tema.
Palavras-Chave: Estatística; Meio ambiente; Prática pedagógica;


Effectiveness and Cost-Effectiveness of Cytosponge Screening for Barrett's Esophagus - Link direto para esse trabalho
Tatiana Benaglia; Linda D. Sharples; Rebecca C. Fitzgerald; Georgios Lyratzopoulos

Barrett’s esophagus is a condition which reflects an abnormal change in the cells of the lower portion of the esophagus. It is most diagnosed in people with long-term gastroesophageal reflux disease (GERD) and it increases the risk of developing esophageal adenocarcinoma, a highly lethal cancer. Diagnosis of Barrett’s requires endoscopy followed by biopsy. If precancerous cells are found through surveillance, they can be treated. Therefore, early detection of Barrett’s esophagus could enable appropriate treatment to prevent oesophageal adenocarcinoma. However, endoscopy is an invasive and relatively expensive procedure requiring medical expertise and specialist facilities. A new non-endoscopic device, called the Cytosponge, shows to be minimally invasive and a potencial screening method for Barrett’s. It could be used in general practice or an outpatient clinic. In this sense, we propose a model to evaluate its potential population health impact and its cost-effectiveness in the context of the UK health system guidelines. We developed a model that comprises a decision tree (for screening strategies) followed by a Semi-Markov model (for management strategies) and uses microsimulation to track cohorts of 50 years old men followed up to age 99 or intervening death. Here we show that the Cytosponge screening is cost-effective compared to endoscopic screening in different scenarios. We estimated that screening by cytosponge would reduce the number of cases of incident esophageal adenocarcinoma by 19%, compared with 17% for screening by endoscopy. The model encompasses the natural history of the disease, screening method, uptake rate, treatment strategy, post treatment status, and surveillance. Surveillance is a crucial feature when performing a cost-effectiveness analysis due to its periodicity and high cost. However, no other model used before was able to include it. The model inputs are prevalence of Barrett’s oesophagus, accuracy of the screening, progression/regression rates between Barrett’s oesophagus sub-types, and mortality. The findings strongly suggest that use of Cytosponge can have wide-ranging benefits in helping preventing esophageal adenocarcinoma deaths.
Palavras-Chave: Cost-Effectiveness; Microsimulation; Esophageal Cancer; Barrett's Esophagus; Sensitivity Analysis;


Ensaio Computacional sobre o Modelo Gama Generalizado em Processamento de Imagens SAR - Link direto para esse trabalho
Ramon Lima; Abraão D. C. Nascimento; Renato J. Cintra; Alejandro C. Frery

Sistemas de radar de abertura sintética têm sido utilizados em sensoriamento remoto. Tais sistemas podem produzir imagens com alta resolução espacial; entretanto, estas imagens são contaminadas por uma interferência, denominada speckle. Este ruído dificulta o reconhecimento de padrões em imagens SAR por análise visual e/ou pelo uso de métodos clássicos. Assim, a proposta de técnicas especializadas é uma importante etapa de pre-processamento de imagens SAR. Recentemente, uma versão da distribuição gama generalizada foi aplicada com sucesso para descrever dados SAR de intensidade. Este artigo fornece uma discussão detalhada sobre estimação por máxima verossimilhança (MV) para os parâmetros do modelo gama generalizado aplicado a imagens SAR. Em particular, dois estimadores em forma fechada são propostos para os parâmetros do modelo gama generalizado (sendo um deles o número de looks). Um estudo de simulação Monte Carlo é realizado para quantificar a performance das estimativas de MV. Finalmente, uma aplicação a dados reais é realizada. Resultados apresentam evidências em duas direções, (i) o uso do modelo gama generalizado é mais recomendado do que o gama em regiões com textura mais intensa e (ii) as estimativas MV (realização do estimador proposto) para o número de looks são menos viesadas do que as obtidas através do modelo gama.
Palavras-Chave: Sistemas SAR; Modelo gama generalizada; Estimação MV; Parametrização de Li et al.;


Estimativa de máxima verossimilhança do tamanho populacional a partir de um modelo de captura-recaptura com heterogeneidade - Link direto para esse trabalho
George Lucas Moraes Pezzott, Luis Ernesto Bueno Salasar, José Galvão Leite

Neste trabalho, consideramos a estimação do número de indivíduos em uma população fechada. O processo de estimação do tamanho populacional é baseado no método de captura-recaptura. O modelo probabilístico adotado acomoda situações em que a probabilidade de captura não depende das ocasiões de amostragem e que cada indivíduo é um elemento que faz parte de uma partição disjunta quanto à sua probabilidade de detecção. Propomos um processo iterativo para obtenção das estimativas de máxima verossimilhança em que utilizamos o algoritmo EM na estimação dos parâmetros perturbadores. Avaliamos a performance do algoritmo proposto em um estudo de simulação com dados articiais e aplicamos o método em dois conjuntos de dados reais da literatura.
Palavras-Chave: Método de captura-recaptura; Função de verossimilhança; Modelo de mistura; Algoritmo EM.;


Estimação do impacto do fenômeno El Niño/La Niña na intensidade dos ventos do Nordeste Brasileiro - Link direto para esse trabalho
Carolina Nascimento Nogueira Lima; Cristiano Augusto Coelho Fernandes; Gutemberg Borges França; Gilson Gonçalves de Matos.

A energia eólica é hoje uma das mais promissoras fontes de energia do mundo por ser limpa e abundante. O estudo de fenômenos que estão relacionados com alterações na circulação atmosférica, como o El Niño, são de extrema importância pela possibilidade de afetar a geração eólica. A fim de explorar o possível efeito de tais fenômenos nos ventos da região Nordeste do Brasil, é realizada uma análise estatística para a quantificação desse efeito através do modelo Generalized Autoregressive Score (GAS). Este permite a modelagem de séries temporais para diferentes distribuições de probabilidade. Nesse estudo, o modelo GAS é aplicado às séries de velocidade do vento a partir da distribuição Gama. Os resultados do modelo mostraram que o El Niño possui influência no comportamento do vento, ainda que esta seja pequena em magnitude.
Palavras-Chave: Energia Eólica; El Niño/La Ninã; Modelos GAS; Vento;


Estimação do tamanho populacional a partir de um modelo de captura-recaptura com heterogeneidade. - Link direto para esse trabalho
George Lucas Moraes Pezzott; Luis Ernesto Bueno Salasar; José Galvão Leite

Neste trabalho, consideramos a estimação do número de erros em um software provenientes de uma população fechada. O processo de estimação do tamanho populacional é baseado no método de captura-recaptura, que consiste em examinar o software, em paralelo, por certo número de revisores. O modelo probabilístico adotado acomoda situações em que os revisores são independentes e homogêneos (igualmente eficientes) e que cada erro é um elemento que faz parte de uma partição disjunta quanto à sua probabilidade de detecção. Propomos um processo iterativo para obtenção das estimativas de máxima verossimilhança em que utilizamos o algoritmo EM na estimação dos parâmetros perturbadores. Estimativas dos parâmetros populacionais também foram obtidas sob o enfoque Bayesiano, onde utilizamos simulações de Monte Carlo em Cadeias de Markov (MCMC) através do algoritmo Gibbs sampling com a inserção de variáveis latentes nas distribuições condicionais a posteriori. As duas abordagens foram aplicadas em dados simulados e em dois conjuntos de dados reais da literatura.
Palavras-Chave: Modelo de captura-recaptura; Modelo de mistura; Erros de software; Algoritmo EM; Gibbs sampling;


Estudo Online da Dinâmica Espaço-temporal de Crimes através de Dados da Rede Social Twitter - Link direto para esse trabalho
Larissa Sayuri Futino Castro dos Santos; Marcos Oliveira Prates; Erica Rodrigues Castilho

Entender a dinâmica criminal é essencial para criação de políticas públicas mais adequadas para o controle dos diversos tipos de crimes. Neste estudo, procura-se mapear a ocorrência de crimes no estado de São Paulo através da coleta de postagens na rede social Twitter. A partir da informação dos dados coletados e através de métodos de aprendizado de máquina, o trabalho tem como objetivo classificar, de forma inteiramente automatizada, a ocorrência ou nâo de um evento de crime na região citada. Assim, pode-se visualizar aspectos espaço temporais da distribuição dos diversos tipos de crimes de maneira dinâmica, pois as coletas podem ser realizadas de forma online. Nesse trabalho, apresentamos a forma empregada para coleta de tweets e os m étodos de aprendizado de máquina para classificação dos tweets. Inicialmente, são utilizadas e apresentadas três técnicas de classificação de textos conhecidas como: Naive-Bayes, KNN (K vizinhos mais próximos) e Árvore de Decisão. Um estudo de validação cruzada foi realizado em cada uma das técnicas e essas são comparadas sob o ponto de vista da eficiência de classificação e tempo computacional. Os autores agradecem à FAPEMIG pela ajuda financeira.
Palavras-Chave: Mineração de Texto; Twitter; KNN; Naive Bayes; Árvore de Decisão;


Estudo comparativo entre as proporções de evasão nos cursos técnicos na modalidade subsequente e concomitante do IFNMG- Campus Montes Claros –Uma discussão sobre o método clássico e o método bayesiano - Link direto para esse trabalho
Maria Fátima Ferreira Almeida; Gerson Rodrigues dos Santos; Igor Daniel Costa; Magaly Stefânia Almeida.

Observando o grande número de evadidos nos cursos técnicos do IFNMG-Campus Montes, buscou-se estatatísticas para comparar se as proporções que estão associadas ao número de alunos que ingressam nos cursos técnicos e o número de alunos que evadem são iguais nas duas modalidades de ensino, subsequente e concomitante com o uso de teste de comparação das proporções binomiais das populações de estudantes na modalidade concomitante e na modalidade subsequente. Este trabalho tem o objetivo de apresentar uma discussão acerca do método clássico utilizando estatísticas de teste de comparação entre proporção independentes e o método bayesiano. Podemos perceber que para este caso o método clássico apresentou resultados que permiitiram admitir evidências da diferença na proporção de evadidos no ensino subsequente cuja modalidade apresentam maiores taxas de evasão em comparação com a modalidade concomitante no período de 2010 a 2013.
Palavras-Chave: Proporções binomiais, ; Teste de proporção; método; comparação; estimação clássica e bayesiana;


Estudo de Cenários de Coleta na Metodologia de Censo Demográfico Contínuo - Link direto para esse trabalho
Álvaro Frota

Dentro do Projeto “Estudo da Metodologia de Censo Demográfico Contínuo” - EMCDC - do Instituto Brasileiro de Geografia e Estatística - IBGE - estudou-se cinco cenários de coleta visando-se possíveis otimizações no quadro de pessoal que realizará o trabalho de campo.
Palavras-Chave: Estatísticas Públicas; Censo Demográfico; Censo Demográfico Contínuo; Coleta Domiciliar de Dados;


Estudo do comportamento probabilístico espacial para a amplitude térmica no Nordeste brasileiro - Link direto para esse trabalho
Antonio Samuel Alves da Silva; José Rodrigo Santos Silva; Lêda Valéria Ramos Santana; Rômulo Simões Cezar Menezes

Foram analisadas séries diárias (discriminadas mensalmente) de amplitude térmica para 94 estações distribuídas na região Nordeste (NE) do Brasil disponível pelo Instituto Nacional de Meteorologia (INMET) com o intuito de verificar quais dentre as distribuições, Weibull, Beta, Normal, Log-Normal, Gama e Gumbel, obtiveram melhor aderência aos dados. Por meio do teste de Kolmogorv-Smirnov obtivemos os p-valores para diferentes níveis de significância (1,5,10 e 20%) e concluímos que a distribuição Weibull se ajustou a um maior número de estações para o mês de janeiro, enquanto a distribuição Beta foi a que melhor se ajustou aos demais meses. Também é analisado espacialmente, sobre uma escala de p-valores e a níveis de significância de 1,5,10 e 20%, a forma como se molda a distribuição Weibull para o mês de janeiro e Beta para os meses restantes.
Palavras-Chave: Temperatura; Modelos Probabilísticos; IDW;


Estudo e implementação da função de crescimento adaptada a espécie Schizolobium Amazonicus (vulgo Paricá). - Link direto para esse trabalho
Rodrigo Cesar Freitas da Silva; João Marcelo Brazão Protázio

Todos sabemos que as potencialidades socioeconômicas, medicinais, e produtivas dos recursos florestais da Amazônia são ainda desconhecidos. Este é um fato e por isso é necessário que se invista em material humano fundamentalmente local, com a finalidade de se formar técnicos com vasto conhecimento da realidade amazônica, a fim de maximizar o aproveitamento sustentável de seus recursos naturais. Diante disso, é fundamental que se crie tecnologias para a Amazônia que venham mitigar a formação de um ferramental teórico e técnico, voltado às suas reais necessidades. Mesmo se tendo consciência dessa realidade, quase nada se tem feito ao longo de décadas para minimizar este problema. É comum vê-se empregado na Amazônia e sem nenhuma adaptação, tecnologias que foram desenvolvidas exclusivamente para outras realidades e com isso, induzindo algumas vezes a resultados adversos à nossa realidade. Diante disso, como meta principal temos a de criar um modelo baseado em indivíduos (IBM Model) espacialmente explícito que seja capaz de simular especificamente a dinâmica de crescimento de espécies oriundas de florestas nativas do norte do Brasil e não copiar modelos pré existentes adaptados apenas à outras realidades. Esperamos que a implementação deste modelo venha somar conhecimento à nossa região e que ele gere também discussões sobre nossas outras necessidades. Neste trabalho iremos apresentar um modelo ajustado à espécie Schizolobium parahyba var. Amazonicus, que é um espécie de grande importância econômica para a região norte do Brasil.
Palavras-Chave: Regressão não Linear; Schizolobium amazonicus; Função de Crescimento; Modelamento;


Estudo e implementação da função de crescimento adaptada a espécie Teca (Tectona grandis) - Link direto para esse trabalho
Jaciane Sousa Rodrigues; Sandra Regina Figueiredo de Miranda; João Marcelo Brazão Protázio.

Todos sabemos que as potencialidades socioeconômicas, medicinais, e produtivas dos recursos florestais da Amazônia são ainda desconhecidos. Este é um fato e por isso é necessário que se invista em material humano fundamentalmente local, com a finalidade de se formar técnicos com vasto conhecimento da realidade amazônica, a fim de maximizar o aproveitamento sustentável de seus recursos naturais. Diante disso, é fundamental que se crie tecnologias para a Amazônia que venham mitigar a formação de um ferramental teórico e técnico, voltado às suas reais necessidades. Mesmo se tendo consciência dessa realidade, quase nada se tem feito ao longo de décadas para minimizar este problema. É comum vê-se empregado na Amazônia e sem nenhuma adaptação, tecnologias que foram desenvolvidas exclusivamente para outras realidades e com isso, induzindo algumas vezes a resultados adversos à nossa realidade. Diante disso, como meta principal temos a de criar um modelo baseado em indivíduos (IBM Model) espacialmente explícito que seja capaz de simular especificamente a dinâmica de crescimento de espécies oriundas de florestas nativas do norte do Brasil e não copiar modelos pré existentes adaptados apenas à outras realidades. Esperamos que a implementação deste modelo venha somar conhecimento à nossa região e que ele gere também discussões sobre nossas outras necessidades. Neste trabalho iremos apresentar um modelo ajustado à espécie Tectona grandis (vulgo Teca), que é um espécie de grande importância econômica para a região norte do Brasil.
Palavras-Chave: IBM Model; Manejo; Replantio; Modelagem Biológica; BTectona grandis;


Estudo para comparar estimadores no ajuste do modelo Weibull - Link direto para esse trabalho
Francimário Alves de Lima; Dione Maria Valença

A distribuição Weibull está entre as mais utilizadas para ajustar dados referentes ao tempo de vida tanto em estudos das engenharias com respeito a durabilidades de itens como em estudo das áreas médica ou biológica, referentes à sobrevivência de indivíduos. A estimação dos parâmetros da Weibull é frequentemente realizada pelo método da máxima verossimilhança que não fornece estimadores não viciados para os parâmetros nem uma forma analítica para os estimadores. Neste trabalho estudamos três abordagens para estimar o parâmetro de forma da Distribuição Weibull: i) Com base na verossimilhança perfilada; ii) com base em uma modificação da verossimilhança perfilada (Yang e Xie, 2003) e iii) através de um estimador consistente, obtido analiticamente (Teimouri e Nadarajah, 2012). Realizamos um estudo de simulação para comparar o viés relativo dos estimadores. Aplicamos os resultados para o ajuste do modelo Weibulll a dados referentes ao tempo até a primeira falha de poços de petróleo.
Palavras-Chave: Distribuição Weibull; Verossimilhança perfilada; Parâmetro de forma;


Evidências estatísticas sobre a existência de uma guerra cambial - Link direto para esse trabalho
Ângelo Santos Alves; Léo da Rocha Ferreira

O objetivo principal deste artigo é investigar a existência e os principais agentes de uma possível guerra de moedas após a crise econômica de 2008 sob uma perspectiva estatística. Para isso foram utilizadas técnicas estatísticas multivariadas, em contraponto às técnicas univariadas geralmente empregadas. A amostra de dados utilizada compreende Janeiro de 2000 à Dezembro de 2012, totalizando 3263 observações de 23 cotações diárias de taxas de câmbio nominais dos principais parceiros comerciais dos EUA. Considerando os dados utilizados e sob a ótica predominantemente estatística, há fortes evidências da existência de uma guerra cambial no início do ano de 2010, provocada essencialmente por países asiáticos e outros com economias baseada em exportações. Entretanto, seus impactos ainda são incertos e fonte de futuras pesquisas.
Palavras-Chave: Guerra Cambial; Desvalorização Competitiva; Manipulação Cambial; Guerra Comercial; Crise Financeira;


Evolução e associação das doenças respiratórias. Estudo de caso: Piauí - Link direto para esse trabalho
Terssando Lustosa Santos; Jeremias da Silva Leão; Rita de Cássia de L. I. Leão.

As doenças respiratórias afetaram a sociedade há séculos, muito antes da Revolução Industrial. Essas patologias são consideradas a grande causa do aumento de morbidade e mortalidade que afetam todas as faixas etárias, com impacto notável no sistema de saúde, econômico e social das populações em geral. Pesquisa vem sendo divulgadas, as quais revelam que existe uma relação entre as internações por doenças respiratórias com diversos fatores como a poluição do ar, por exemplo. No presente trabalho, foram analisados os dados de morbidade e mortalidade por doenças respiratórias referente à população do estado do Piauí da região Nordeste do Brasil no período compreendido entre 1998 à 2007, foram realizadas análises descritivas, teste de correlações e de tendência linear, como também, o teste de associação de Cochran Mantel Haenszel para verificar causa e efeito. Observou-se um aumento significativo no número das taxas de internações no estado durante o período estudado. As faixas etárias que mais ocorreram número de internações foram "Igual e menores que 4 anos" e "Maior que 4 até 69 anos". E também foi possível visualizar uma associação das doenças respiratórias com, a faixa etária e o sexo da população em análise.
Palavras-Chave: Doenças Respiratórias; Morbidade; Mortalidade; Análises descritivas; Teste de associação;


Explorando alternativas para a calibração dos pesos amostrais da Pesquisa Nacional por Amostra de Domicílios - Link direto para esse trabalho
Charles Martín Miguel Ruiz; Pedro Luis do Nascimento Silva

A Pesquisa Nacional por Amostra de Domicílios (PNAD) é executada pelo Instituto Brasileiro de Geografia e Estatística (IBGE) com o propósito de conhecer as principais caraterísticas demográficas e socioeconômicas da população brasileira. Os pesos básicos da PNAD são calibrados mediante o método da pós-estratificação, usando como informações auxiliares as projeções da população para cada Unidade da Federação segundo tipo de área (região metropolitana e não metropolitana). Neste artigo explora-se outro método de calibração conhecido como raking que leva em consideração as projeções populacionais utilizadas na pós-estratificação e adicionalmente as projeções por sexo e grupos de idade para o total do país. A calibração por pós-estratificação produz estimativas das frequências relativas por grupos de idade que, ao ser comparadas com as projeções de população, mostram a existência de sub-cobertura das crianças de 0 a 9 anos e de jovens de 20 a 29 anos, e sobre-cobertura dos adultos de 50 anos ou mais de idade. Os problemas de cobertura mencionados foram corrigidos com o método de calibração alternativo baseado no raking. Esse método produz estimativas das frequências relativas por sexo e grupos de idade que coincidem com as respectivas projeções da população. A comparação entre as estimativas dos indicadores obtidas pela calibração por pós-estratificação e raking revelaram que existem diferenças entres as estimativas da taxa de analfabetismo produzidas por ambos os métodos. No caso dos outros indicadores analisados, não há diferenças importantes. Não entanto, a comparação entre os coeficientes de variação das estimativas mostrou que, em geral, eles são menores quando se aplica a calibração por raking, o qual significa um ganho de precisão em relação à pós-estratificação.
Palavras-Chave: Calibração; Raking; Pós-estratificação; Pesos amostrais;


Exploring ARA and ARI Classes of Imperfect Repair Models - Link direto para esse trabalho
Enrico A. Colosimo; Maria Luíza G. de Toledo; Marta A. Freitas; Gustavo L. Gilardoni

An appropriate maintenance policy is essential to reduce expenses and risks related to equipment failures. A fundamental aspect to be considered when specifying such policies is to understand the behavior of the failure intensity for the systems under study. The usual assumptions of minimal or perfect repair at failures are not adequated for many real world systems, requiring the application of imperfect repair (IR) models. In this paper, the classes ARA and ARI of IR models proposed by Doyen and Gaudoin (2004) are explored. Likelihood functions for such models are derived, assuming Power Law Process and a general memory order. Based on this, punctual and interval parametric estimates were obtained for a real dataset involving failures in trucks used by a mining company for models with different memories. BIC value was used as the criteria for model selection, namely, shape and scale parameters for PLP, They provided evidences that the trucks tend to fail more frequently over time, justifying the necessity for preventive maintenance, and also, that the repairs after failures tend to leave the equipment in a state between as good as new and as bad as old. These results are a valuable information for the mining company, and can be used to support decision making regarding preventive maintenance policy.
Palavras-Chave: repairable systems; Poisson process; BIC;


Exponentiated Modified Weibull Model with Long Term Survival: A hazard Models to Cancer Problems - Link direto para esse trabalho
Gleici Castro Perdona, Hayala C. S. Cavenague, Cleyton Zanardo , Francisco Louzada, Fernanda Maris Peria, Thais O. Gozzo

In this paper, we discuss a family Modified Weibull of hazard model to breast cancer problematic. The breast cancer is addressed here by the high incidence and lack of knowledge in survival among women worldwide. The model is very flexible, and accommodate several particular cases. Inference procedure is based on maximum likelihood. A simulation study is performed in order to verify the frequentists properties of the maximum likelihood estimation procedure and alternative intervals.Two real examples on breast cancer is addressed.
Palavras-Chave: Hazard modeling; Cure rate; breast cancer; Weibull; survival;


FATORES CAUSAIS DE ÓBITOS POR LEPTOSPIROSE - Link direto para esse trabalho
Gelilza Salazar Costa; Igor Sá Soares; Adrilayne dos Reis Araújo; Edson Marcos Leal Soares Ramos

A leptospirose é um grave problema para a saúde pública. É uma doença causada por uma bactéria chamada Leptospira presente na urina de ratos e outros animais, transmitida ao homem principalmente nas enchentes. Este trabalho tem como objetivo, apresentar o perfil dos pacientes e identificar os principais fatores que causam o óbito dos pacientes com Leptospirose, no Estado do Pará, no período de janeiro de 2007 a maio de 2013. As metodologias utilizadas foram a Análise Exploratória de Dados e a Regressão Logística Binária Múltipla, por meio dos resultados se observou que o sexo mais acometido pela doença é o masculino (76,43%) e indivíduos com alteração respiratória, insuficiência renal e alterações cardíacas têm cerca de 2 vezes mais chances de evoluir a óbito comparado aos que não apresentaram estes sinais.
Palavras-Chave: Regressão Logística; Saúde Pública; Insuficiência Renal;


FORECASTING TIME SERIES WITH INTEGER VALUES - Link direto para esse trabalho
Luz Milena Zea Fernández; Klaus Leite Pinto Vasconcellos

O estudo das séries temporais é um dos tópicos mais importantes da Estatística, tendo como propósito principal o desenvolvimento de métodos para modelagem de dados que exibem correlação ao longo do tempo. Tais modelos nos permitem fazer previsões. Dentro desta área, séries temporais de valores inteiros têm chamado a atenção dado que podem ser observadas em muitos contextos. Nas últimas três décadas tem aumentado o interesse em propor metodologias para estudar séries temporais de valores inteiros, incluindo métodos para obter previsões coerentes. Neste trabalho concentramo-nos em propor e estudar novos procedimentos para fazer previsões nos chamados processos autorregressivos de primeira ordem de valores inteiros, Integer-valued first-order Autoregressive Process (INAR(1)), e nos processos autorregressivos de primeira ordem condicionalmente heteroscedásticos de valores inteiros, Integer-valued first-order Autoregressive Conditional Heteroskedasticity Processes (INARCH(1)). No processo INAR(1) fornecemos uma expressão analítica para o valor esperado da parte inteira da média condicional um passo à frente. Além disso, estudamos o comportamento de três preditores coerentes considerando diferentes cenários e também estudamos seu poder preditivo considerando dados modelados incorretamente. Apresentamos uma forma diferente de definir o processo INARCH(1) baseada no operador thinning Poisson. Começamos definindo o operador thinning Poisson e, a seguir, encontramos e provamos várias das suas propriedades. Além disso, fornecemos uma demonstração da existência e unicidade da distribuição marginal do processo INARCH(1) e apresentamos algumas propriedades da distribuição condicional h passos à frente. Adicionalmente, propomos previsões um, dois e h passos à frente. Propomos a moda e a mediana estimadas de uma distribuição Poisson como previsões um passo à frente. Embora a moda da distribuição Poisson tenha uma expressão analítica simples, não existe uma expressão para a mediana. Assim, nós propomos uma aproximação simples da mediana, a qual tem bom desempenho; encontramos algumas de suas propriedades tais como a média e a variância limites e demonstramos que a aproximação é fracamente e fortemente condicionalmente consistente. Também provamos que ela é fracamente consistente e fortemente consistente. Finalmente apresentamos uma forma de obter intervalos de previsão e estudamos o desempenho das previsões propostas usando simulação de Monte Carlo. Para ambos os processos nós ilustramos as metodologias de previsão estudadas e propostas com exemplos de dados reais que já têm sido estudados considerando outras metodologias.
Palavras-Chave: Modelo INARCH(1); Operador thinning Poisson ; Previsão; Séries temporais discretas;


Fatores Associados aos Casos Notificados e Confirmados de Câncer de Mama no Município de Belém/PA - Link direto para esse trabalho
Débora Fernanda Castro Vianna Oliveira; Adelaine Brandão Soares; Silvia dos Santos de Almeida

O objetivo deste trabalho é analisar estatisticamente os casos notificados de Câncer de Mama no município de Belém/ PA, no período de janeiro de 2011 a Dezembro de 2013. Os dados são referentes às notificações confirmadas desta patologia maligna, onde neles foram aplicados a Análise Exploratória dos Dados e a Análise de Correspondência. Dentre os principais resultados, pode-se destacar que a maior parte dos pacientes notificados com câncer de mama na cidade de Belém do Pará, é solteiro (38,68%) e possui o ensino médio completo (34,67%). Destaca-se também que a maioria dos pacientes teve o caráter da doença eletiva (64,76%) e tipo de alta por iniciativa médica (84,24%). Os pacientes viúvos diagnosticados com câncer de mama estão associados com a faixa etária de 66 a 76 anos, ao nível de confiança de 99,98%. Assim, como os pacientes alfabetizados que também possuem idade de 66 a 76 anos aos níveis de confiança de 99,99%. Em relação ao tipo de alta e ao caráter da doença, verifica-se que os pacientes diagnosticados com câncer de mama que evoluíram a óbito estão associados ao caráter da doença urgente, com nível de confiança de 100,00%.
Palavras-Chave: Câncer de Mama; Patologia Maligna; Doença Eletiva;


Ferramentas para Formatação e Verificação de Microdados de Pesquisas - Link direto para esse trabalho
Pedro Luis do Nascimento Silva; João Victor Pacheco Dias

O projeto teve por objetivo desenvolver ferramentas na linguagem do Sistema SAS, capazes de gerar versões dos microdados de pesquisas domiciliares do IBGE, disponibilizados pela PNAD, prontas para uso em três diferentes sistemas: SAS, SPSS e R. Foram também desenvolvidas ferramentas capazes de automatizar algumas tarefas mínimas de verificação dos arquivos de microdados gerados.
Palavras-Chave: PNAD; microdados; formatação; dicionário; macro;


Fitting non-linear mixed models to messy longitudinal data - Link direto para esse trabalho
Julio M. Singer; Carmen D.S. André; Francisco M.M. Rocha; Talita Zerbini

Non-linear mixed models are useful in many practical longitudinal data problems, especially when they are derived from subject matter theoretical considerations, usually in the form of differential equations, or when the response approaches an asymptote. Although many alternatives are available in the literature, examples are generally based on regular and well behaved data. Fitting such models to messy data may be associated with problems such as failure of convergence of the computational algorithms or lack of diagnostic tools. We consider data from an observational study conducted at the School of Medicine of the University of São Paulo in which a new method to estimate the time since death (postmortem interval) is proposed. In particular, the attenuation of the density of intra-cardiac hypostasis (concentration of red cells in the vascular system by gravity) obtained from a series of tomographic images was observed in the thoraces of 21 bodies of hospitalized patients with known time of death. The images were obtained at different instants and not always at the same conditions for each body, generating a set of messy data. We use segmented regression, Mitscherlich and exponential linearizable mixed models to represent the evolution of the response along time since death, commenting on the advantages and caveats of each approach. We show that the results lead to very similar conclusions but that the linearizable exponential mixed model is more flexible and may profit from the well established theory, fitting algorithms and diagnostic tools.
Palavras-Chave: Autopsy; Computer tomography; Diagnostics; Hypostasis; Postmortem interval;


Frailty models power variance function (PVF) with cure fraction and latent risk factors negative binomial - Link direto para esse trabalho
Vinicius Fernando Calsavara; Vera Lúcia Damasceno Tomazella; Mário de Castro de Andrade Filho

Extension of survival models with cure rate that take into account the probability of an individual to be cured, can be classified within the classical mixture cure rate model Berkson & Gage (1952) or stochastic model with tumor latency developed by Yakovlev & Tsodikov (1996) and extended to a hierarchical structure by Chen et al. (1999). In this paper, we developed a cure rate model with a frailty term in latent risks. This model is an extension of the unified long-term survival models by Rodrigues et al. (2009). It is more flexible in terms of dispersion and by quantify the unobservable heterogeneity. Parameters estimation is discussed through the maximum likelihood estimation procedure. Furthermore, a simulation study and an application to a real data set illustrates the applicability of the proposed model.
Palavras-Chave: Competing risks; Cure rate models; Frailty models; Long-term survival models; Power variance function distribution;


Functional regression models with dependence on derivatives - Link direto para esse trabalho
J.C.S. de Miranda

We study functional regression models with dependence on derivatives of the covariates. Estimation using orthonormal series expansions of the functional parameters is presented. Product connexion and differential connexion coefficients are used to reduce the functional models to algebraic systems of equations. Minimization of the sum of the squares of the L2 norm of the residuals is shown to be equivalent to the minimization of the sum of squared residuals in the algebraic representation. O.L.S. estimation is applied to the systems of algebraic equations associated to these models and the expressions for the estimators are obtained. Extensions to more general settings are discussed.
Palavras-Chave: Non linear functional regression models; Dependence on derivatives; Orthonormal series expansions;


Funções Densidade de Probabilidade para Descrição da Distribuição Diamétrica de Povoamentos de Eucalyptus spp. - Link direto para esse trabalho
Ramon Lima dos Santos; Luiz Medeiros de Araújo Lima Filho; Ulisses Umbelino dos Anjos

Objetivou-se neste trabalho avaliar Funções Densidade de Probabilidade no ajuste da distribuição diamétrica da espécie Eucalyptus spp. Os dados utilizados neste estudo provieram de experimento realizado no Módulo de Experimentação Florestal implantado na Estação Experimental do Instituto Agronômico de Pernambuco na Chapada do Araripe - PE. O experimento foi conduzido em um delineamento inteiramente casualizado, composto por 15 clones de Eucalyptus spp., totalizando 1189 árvores sobreviventes. Para avaliar a distribuição diamétrica de Eucalyptus spp foram ajustadas as seguintes distribuições de probabilidade: Gama, Gama Generalizada, Log-logística exponenciada geométrica tipo I, Hiperbólica, Beta, Weibull e Log-normal. Os ajustes foram avaliados através dos resultados do teste de bondade de ajuste de Kolmogorov-Smirnov (k-s). A função Log-logística exponenciada geométrica tipo I obteve o melhor ajuste de acordo com o teste k-s.
Palavras-Chave: Eucalyptus spp; distribuição diamétrica; distribuições de probabilidade;


Funções de covariância espacial multivariada não separáveis - Link direto para esse trabalho
Rafael Santos Erbisti;Thais Cristina Oliveira Fonseca;Mariane Branco Alves

O objetivo deste trabalho é introduzir um modelo de covariância não separável para dados multivariados espaciais. A aplicação de modelos espaciais tem crescido substancialmente em diversas áreas, como, por exemplo, nas ciências ambientais, ciências climáticas e agricultura. Para o desenvolvimento de modelos espaciais multivariados é necessário especificar uma função de covariância cruzada válida, que define a dependência entre componentes do vetor resposta. Entretanto, sabe-se que funções de covariância cruzada não são simples de serem especificadas. Este trabalho propõe um modelo espacial de covariância não separável baseado na combinação convexa de funções de covariância separáveis. A partir de algumas proposições foi observado que a estrutura de covariância encontrada é válida e flexível. Além disso, a matriz de covariância não necessariamente será simétrica.
Palavras-Chave: Estrutura de covariância; covariância cruzada; Modelos espaciais multivariados;


GRÁFICO DE CONTROLE PARA O NÚMERO DE NÃO-CONFORMIDADES COM REGRAS SUPLEMENTARES - Link direto para esse trabalho
André Luiz Sena da Rocha; Pledson Guedes de Medeiros; Linda Lee Ho

Este trabalho propõe um procedimento de controle on-line de processos por atributos utilizando um gráfico de Shewhart com dois limites (Limite de Controle e de Advertência). Após a produção de m peças, o m-ésimo item é inspecionado. A estatística monitorada é a contagem do número de não-conformidades na peça inspecionada. O processo é parado para ajuste se o número de não conformidades for superior ao limite de controle; ou se nas últimas h inspeções, todos os itens inspecionados apresentarem um número de não-conformidades entre os Limites de Advertência e de Controle; caso contrário, o processo continua. Utilizando-se de propriedades de uma cadeia de Markov Ergódica, foi obtida uma expressão do custo médio por item produzido. Os parâmetros: Intervalo de Inspeção (m), os Limites de Advertência e de Controle (W e C) e o tamanho da sequência (h) são determinados através da minimização do custo médio. Um exemplo numérico ilustra o procedimento proposto.
Palavras-Chave: Controle On-Line de Processos por Atributos; de não-conformidades por item inspecionado; Limite de Advertência; Distribuição Poisson; Cadeia de Markov;


Generalized Normal ARMA Model - Link direto para esse trabalho
Eder Angelo Milani; Marinho G. Andrade; Carlos Alberto Ribeiro Diniz

Using the generalized normal distribution, introduced by Nadarajah (2005), and the ideas of the GARMA model, introduced by Benjamin et al. (2003), we develop an autoregressive process called the generalized normal ARMA model (GN-ARMA). This new model is a alternative to model time series which have heavier or lighter tails than the normal distribution. Some properties of the processes are discussed, estimation of parameters is addressed and a method for forecasting a value of the dependent variable is proposed. Simulation studies are developed and a real dataset involving streamflow is analysed using both model, the usual ARMA model and the GN-ARMA model.
Palavras-Chave: Time series; Generalized normal distribution; ARMA models; GARMA models;


Genetic Algorithm for Constrained Optimization with Stochastic Feasibility Region with Application to Vehicle Path Planning - Link direto para esse trabalho
Adriano Z. Zambom; Julian A. Collazos; Ronaldo Dias.

In real-time trajectory planning for unmanned vehicles, on-board sensors, radars and other instruments are used to collect information on possible obstacles to be avoided and pathways to be followed. Since, in practice, observations of the sensors have measurement errors, the stochasticity of the data has to be incorporated into the models. In this work, we consider using a genetic algorithm for the constrained optimization problem of nding the trajectory with minimum length between two locations, avoiding the obstacles on the way. To incorporate the variability of the sensor readings, we propose a more general framework, where the feasible regions of the genetic algorithm are stochastic. We propose using a smooth penalty function based on the Gaussian distribution, facilitating the borders of the feasible regions to be reached by the algorithm
Palavras-Chave: Constrained optimization; Stochastic feasible regions; Penalty function; autonomous vehicle; nonparametric curve estimation;


Gráfico EWMA das diferenças em relação ao nível-base do processo para o controle da média em Processos Multicanal - Link direto para esse trabalho
Simões,Bruno Francisco Teixeira ; Epprecht, Eugenio Kahn.

Os Gráficos de Controle de Grupos (GCG), desenvolvidos por Boyd (1950), são as técnicas mais utilizadas para o Controle Estatístico de Processos Multicanal (Pyzdek, 1992 e Montgomery, 2001). A proposta deste artigo é propor e analisar o desempenho da versão EWMA do GCG proposto em Epprecht et al. (2011) para o controle da componente individual de variação de Processos Multicanal. Em termos de desempenho, o esquema proposto será comparado aos esquemas EWMA de Rt de Mortell e Runger (1995) e MEWMA de S2 de Runger et al. (1996) no caso de alterações na média de um canal individual. São apresentadas e comparadas as medidas de desempenho considerando o controle por observações individuais e por amostras de tamanho igual a quatro. Na maioria dos casos, o GCG de EWMA proposto é mostrado como um dos mais eficientes para alterações de magnitude pequena a moderada na média (0.5≤δ≤1.5).
Palavras-Chave: Processos Multicanal; Controle estatístico da média; Componente individual de variação; Gráfico de Controle de Grupos; EWMA;


Gráficos CUSUM Ajustados ao Risco para Monitoramento de Tempos de Sobrevivência com Fração de Cura - Link direto para esse trabalho
Jocelânio Wesley de Oliveira; Dione Maria Valença; Pledson Guedes de Medeiros

Neste trabalho estudamos o uso de técnicas de Controle Estatístico de Processos (CEP) para monitoramento de tempos de sobrevivência. Diferentemente de aplicações na área industrial, em que a população em estudo é considerada homogênea, o CEP na área de saúde admite a heterogeneidade e leva em consideração características particulares de pacientes que, antes de se submeterem a um procedimento médico, podem apresentar diferentes riscos de morte. Nessa perspectiva, alguns autores propõem o uso de um gráfico de controle CUSUM ajustado ao risco (RAST CUSUM) para monitorar resultados clínicos em que a resposta é o tempo até a ocorrência de um evento e está sujeita a censura à direita. No entanto, os modelos adotados não consideram a possibilidade de fração de cura. Neste estudo propomos estender esta abordagem considerando um modelo de sobrevivência com fração de cura. Para tanto, admitimos as distribuições log-logística e Weibull como exemplos. Finalmente, realizamos um estudo de simulação com a distribuição Weibull para obter limites de controle ótimos e avaliar o desempenho do gráfico que propomos em comparação com o RAST CUSUM sem fração de cura. Como resultado, notamos que o gráfico RAST CUSUM sem fração de cura se mostra inadequado ao ser aplicado em dados com fração de cura, mas o gráfico RAST CUSUM com fração de cura parece ter desempenho similar se aplicado em dados sem fração de cura.
Palavras-Chave: Análise de Sobrevivência; Controle Estatístico de Processos; Fração de cura; RAST CUSUM;


Hidden Markov model with second-order dependence - Link direto para esse trabalho
Daiane A Zuanetti; Luiz A Milan

We propose an extention of hidden Markov model to second-order Markov dependence in the observable random process and propose Bayesian methods to estimate the parameters of the model. We verify the performance of the estimation procedure using simulated data and apply the method to segmentation of bacteriophage lambda genome. Tests with real data show an improved fitting when compared with first order HMMs.
Palavras-Chave: Hidden Markov model; second-order dependence; MCMC; gene modelling;


Homicídio na Área Urbana de Belém do Pará - Link direto para esse trabalho
Silvia dos Santos de Almeida ; Monique Kelly Tavares Gomes; Débora Fernanda Castro Vianna Oliveira; Wilson José Barp

O homicídio é um grave problema de segurança pública. Atualmente, o homicídio se configura um pro¬blema endêmico em nosso país. Neste sentido e extremamente útil identificar os bairros da área urbana do município de Belém, com maior número de ocorrência de crime de homicídio, permitindo assim ações preventivas por parte dos órgãos competentes no combate à violência contra o cidadão. A área de estudo fica localizada no Estado do Pará e refere-se à área urbana do município de Belém. Com a finalidade de analisar os padrões dos homicídios ocorridos na área urbana do Município de Belém, no período de 2007 a 2010, foram gerados mapas temáticos que levam em consideração a quantidade e a taxa de homicídio nos bairros. De onde pode-se afirmar que, com exceção dos bairros Tenoné, Tapanã, Fátima e Reduto, as quantidades de homicídios apresentaram-se ligeiramente constantes e a incidência de homicídios se concentrou mais em alguns bairros do que em outros. Além disso, com o mapeamento dos homicídios pode-se observar a dinâmica deste crime violento e perceber que a distribuição do crime de homicídio não é uniforme e que o mesmo aumentou ao longo dos anos.
Palavras-Chave: Mapeamento; Incidência; Crime;


Homogeneity tests for 2×2 contingency tables - Link direto para esse trabalho
Natália Lombardi de Oliveira; Adriano Polpo de Campos

Using the likelihood ratio statistic, we develop a significance index, called P-value, to test the hypothesis of homogeneity in 2×2 contingency tables. The P-value does not depend on asymptotic distributions, and is based on the elimina- tion of the nuisance parameter. Therefore, we obtain the exact distribution of the likelihood ratio statistic in a way that is, moreover, compatible with the likelihood principle. For a better understanding of significance indices to test homogeneity, we perform a study comparing the P-value with some frequentist indices (likelihood ratio test, chi-square test) and with the Full Bayesian Significance Test (FBST). This comparative study shows an interesting relation between all the analysed indices, Bayesian and frequentist.
Palavras-Chave: Chi-square test; FBST; likelihood ratio test; P-value; significance idices;


I-otimalidade em critérios compostos para experimentos fatoriais - Link direto para esse trabalho
Heloisa Maria de Oliveira; Luzia Aparecida Trinca

Muitos experimentos visam mais do que um único objetivo a ser analisado e os critérios compostos são funções que incorporam estes objetivos desejáveis ao experimento atribuindo a cada um deles um peso de prioridade. Gilmour e Trinca (2012) apresentaram um grande avanço na área de delineamentos ótimos ao enfocarem a precisão dos estimadores e a estimação do erro puro na função critério, como também a formulação de critérios compostos envolvendo quatro possíveis objetivos experimentais. O objetivo deste trabalho é verificar a eficiência dos delineamentos encontrados pelos critérios compostos que consideram a I-otimalidade com e sem erro puro na sua estrutura.
Palavras-Chave: delineamentos ótimos; critérios compostos; I-otimalidade; erro puro; falta de ajuste;


IMPACTO DAS DISCIPLINAS MÉTODOS ESTATÍSTICOS I E II Impacda disciplina metodos estatistico I e II no curso de estatistica - Link direto para esse trabalho
Carlos Virgilio Andre Pinho

Este trabalho apresenta um estudo sobre o impacto das disciplinas Métodos Estatísticos I e II no desempenho dos alunos do curso de Estatística. Essas duas disciplinas são relativamente novas, pois foi incorporado ao curso de estatística apenas em 2004, para preencher a lacuna existente na formação dos alunos, melhorando assim sua fluência nos conceitos básicos e o desenvolvimento nas disciplinas profissionalizantes. Foram feitas duas pesquisas censitárias com os discentes de Métodos Estatístico I e II com objetivo de saber o nível de satisfação dos mesmos, se freqüentam a monitoria; se trabalham, todas levando em conta a nota da 1ª avaliação. O banco de dados utilizado neste trabalho foi gentilmente cedido pela coordenação de estatística, nele contendo informações sobre todos os alunos matriculados no semestre de 2007. Observou-se um grande aumento dos alunos que freqüentam a monitoria na turma de ME II em relação à turma de ME I, isso fruto dos esforços dos professores e monitores ao longo do semestre anterior. Observou-se também que as melhores notas apresentam associação positiva com não trabalhar, ler o material à medida que o assunto é apresentado em sala de aula, grau de satisfação elevado com as disciplinas, resultados esses, de certa forma, esperados. A outra parte da pesquisa foi realizada com os professores específicos das disciplinas: inferência; amostragem; planejamento de experimento; estatística não paramétrica e dados categorizados. A pesquisa foi censitária, pois o número de professores envolvidos era de apenas oito. O resultado da pesquisa dos professores revelou que, de uma forma geral, há uma percepção positiva dos professores em relação ao impacto das disciplinas de Métodos Estatísticos I e II.
Palavras-Chave: Metodo Estatistico; Estatistica; curso de graduação;


INDICE DE CARÊNCIA SOCIAL E SUA RELAÇÃO COM A HANSENIASE: UMA ABORDAGEM MULTIVARIADA E ESPACIAL - Link direto para esse trabalho
Samara Viana Costa; Cristiane Alves dos Santos; Walenda Silva Tostes; Monique Kelly Tavares Gomes.

A incidência da hanseníase é fortemente influenciada pelo ambiente e correlacionada com o baixo desenvolvimento sócioeconômico. Apesar de todos os esforços, ela ainda é considerada um problema de saúde pública no Brasil. Neste sentido o presente estudo apresentou o problema da doença no estado do Pará, com o objetivo de identificar a existência da associação entre a condição de carência social em que a população vive e a taxa de detecção da hanseníase, e, ainda apresentar a distribuição espacial dessa endemia entre os municípios do estado, por meio das técnicas Análise Fatorial e Geoestatistica. De modo geral, observou-se uma distribuição heterogênea nos casos da hanseniase, valendo ressaltar que o estado do Pará não apresentou nenhuma área de baixo risco de detecção da doença.
Palavras-Chave: taxa de detecção da hanseníase; índice de carência social; análise fatorial; geoestatística;


INFERÊNCIA BAYESIANA EM MODELOS SEMIPARAMÉTRICOS ADITIVOS ELÍPTICOS GENERALIZADOS - Link direto para esse trabalho
Luz Marina Rondón Poveda; Heleno Bolfarine

Estudamos neste trabalho a inferência e diagnóstico sob o enfoque Bayesiano de modelos de regressão com erros independentes seguindo distribuição normal, $t$-Student, slash, Laplace e hiperbólica simétrica (Barndoff-Nielsen (1977)), estas distribuições são obtidas a través da família de distribuições de mistura normal na escala. Nestes modelos o parâmetro de locação bem como o de dispersão incluem componentes não paramétricos aditivos descritos a través de B-splines. Vale salientar que estes modelos, chamados neste trabalho de Modelos Semiparamétricos Aditivos Elípticos Generalizados (MSAEG), generalizam as componentes sistemática (uma vez que eles consideram simultaneamente efeitos paramétricos lineares e não paramétricos) e aleatória (pois eles consideram para o erro aleatório distribuições obtidas como mistura de escala normal) dos modelos estudados por Aitkin (1987), Verbyla (1993), Cepeda e Gamerman (2001) e Xu e Zhang (2013).
Palavras-Chave: Modelos semiparametricos; Distribuições de mistura normal na escala; B-splines; algoritmo MCMC; componentes não parametricos;


Identidade de modelos não lineares para comparação de curvas de crescimento de machos da raça Tabapuã - Link direto para esse trabalho
Antonio Policarpo Souza Carneiro; Elisabeth Regina de Toledo; Raphael Fernandes Soares Alves; Joel Augusto Muniz; Paulo Luiz Souza Carneiro; Carlos Henrique Mendes Malhado; Raimundo Martins Filho; Fabyano Fonseca e Silva.

O objetivo deste trabalho foi comparar curvas de crescimento de bovinos machos da raça Tabapuã de diferentes regiões de produção do Nordeste do Brasil, utilizando teste de identidade de modelos não­lineares. Foram analisados dados de peso de 3.695 machos da raça Tabapuã, originários de cinco regiões do Nordeste brasileiro: Maranhão, Gado Algodão, Mata Agreste, Sertão e Itapetinga­Valadares. Após ajuste do modelo Brody, foi aplicado o teste da razão de verossimilhança, com aproximação de qui­quadrado, para avaliar a igualdade de parâmetros de curvas de crescimento entre regiões do Nordeste. O modelo reduzido com igualdade da taxa de maturidade para algumas regiões, com 14 parâmetros, foi o mais adequado para descrever o crescimento dos animais. As curvas de crescimento têm taxas de maturidade comum aos grupos de regiões de produção: Gado Algodão e Mata Agreste, Maranhão e Itapetinga­Valadares, e Sertão. Não é adequada a utilização de uma única curva para descrever o crescimento de bovinos machos da raça Tabapuã nas cinco regiões de produção do Nordeste brasileiro.
Palavras-Chave: Modelo Brody; Nordeste brasileiro; regiões de produção; teste da razão de verossimilhança;


Identificação da estrutura latente de reprovações em um curso de Estatística utilizando modelos para redes sociais - Link direto para esse trabalho
Marcos Sousa Goulart;Gustavo da Silva Ferreira

Este trabalho analisa dados de reprovação em disciplinas a fim de permitir a visualização da estrutura de reprovações em uma Instituição de Ensino Superior no Rio de Janeiro. Utilizando um modelo de espaços latentes para redes sociais, modelou-se a probabilidade de existência de uma relação entre as reprovações nas disciplinas do curso de graduação em Estatística da Escola Nacional de Ciências Estatísticas como função de efeitos aleatórios latentes. Os resultados permitiram visualizar e interpretar a influência da reprovação nas diferentes disciplinas do curso, identificando pequenos agrupamentos de disciplinas a partir dos padrões latentes observados.
Palavras-Chave: espaço latente; redes sociais; disciplinas; reprovação;


Identificação de Espécies do Gênero Acestrorhynchus - Link direto para esse trabalho
Vanessa Soreira; Ronaldo Marcelino Gonçalves de Souza; Victor Fossaluza

A classificação das espécies de peixes do gênero \textit{Acestrorhynchus} atualmente é feita baseando-se somente na localização geográfica em que os peixes são encontrados. O objetivo desse trabalho é propor uma nova classificação baseada no exame de características morfológicas, a fim de determinar quantas e quais espécies podem ser reconhecidas, como diferenciá-las e, consequentemente, verificar se o método de classificação atual separa os indivíduos em grupos semelhantes ao grupos formados pela classificação que leva em conta fatores biológicos dos peixes. Para cumprir este objetivo, foi utilizada a análise hierárquica de agrupamentos pelo método de Ward \citep{Johnson:02, Mardia:80}, a fim de obter agrupamentos o mais heterogêneo possível entre eles, e o mais homogêneo possível dentro deles, de acordo com as a variáveis estudadas.
Palavras-Chave: análise multivariada; análise de agrupamento; análise de dependência; taxonomia; acestrorhynchus;


Identificação de conglomerados espaciais de acidentes de trânsito no DF através de varredura baseada em vizinhanças - Link direto para esse trabalho
João Ricardo Eliseu; André Luiz Fernandes Cançado

O principal objetivo do trabalho é identificar conglomerados de acidentes no mapa rodoviário do DF, formado por rodovias divididas em trechos rodoviários (espaços geométricos delimitados), segundo o Sistema Rodoviário do Distrito Federal, 2012. Para tanto, métodos alternativos ao Scan Circular são propostos, considerando a particularidade da distribuição dos dados de acidentes, que são delimitados pelos contornos das rodovias. Comparamos tais métodos através de conglomerados artificiais quanto ao poder do teste, análise de sensibilidade e o valor preditivo positivo. Finalmente, apresentamos uma aplicação com dados reais, onde os quatro métodos são utilizados para detectar conglomerados espaciais com dados de acidentes fatais de 2012, em rodovias distritais sob circunscrição do DER/DF. Os métodos utilizam-se da mesma estatística de teste. Todavia não fazem uso da distância Euclidiana como critério de construção de conglomerados. Os métodos criados selecionam os conglomerados por um critério topológico, mais especificamente sob a ótica de adjacência ou vizinhança entre os trechos rodoviários.
Palavras-Chave: Estatística scan; Conglomerados espaciais; Acidentes de trânsito;


Impactos da Implementação do Programa de Ações Afirmativas no Perfil e Aproveitamento Acadêmico dos Alunos Ingressos na UFSCar - Link direto para esse trabalho
Estela Maris Pereira Bereta, Pedro Ferreira Filho

A Universidade Federal de São Carlos aprovou e implementou seu Programa de Ações Afirmativas a partir de dezembro de 2006. Como parte deste Programa foi estabelecido um Sistema de Reserva de Vagas para os Processos Seletivos para Ingresso de alunos na Instituição. Por este Sistema entre 2008 e 2010, pelo menos 20% das vagas deverias ser preenchidas por estudantes que cursaram ensino médio exclusivamente em escolas publicas das quais pelo menos 35% deveriam ser preenchidas por estudantes auto declarados pretos o pardos. Entre 2011 e 2013 esta proporção deveria ser de 40% e a partir de 2014 até 2017 de 50%. Neste trabalho é estudado o impacto deste sistema no perfil dos alunos ingressos na UFSCar comparando-se uma série histórica entre 1994 e 2012, bem como compara-se o aproveitamento acadêmico entre optantes ou não pelo sistema de reserva de vagas nos anos de 2008 e 2009. Em linhas observou-se um aumento do percentual de aluno com maiores faixas etárias, que exerciam atividade remunerada e que cursaram ensino médio no período noturno e que, no geral, alunos optantes ou não pelo sistema de reserva de vagas concluem o curso nas mesmas proporções de ingresso.
Palavras-Chave: Ações Afirmativas; Processo Seletivo; Avaliação Educacional;


Implementação Em Python Da Análise Discriminante De Fisher E Aplicação Como Classificador Para Reconhecimento De Padrões - Link direto para esse trabalho
Bárbara de Oliveira Aguiar; Jaudir Aguiar Almeida Júnior; Igor Daniel Costa; Maria de Fátima Ferreira Almeida; Renato Afonso Cota Silva

Reconhecimento de Padrões (RP),trata-se da classificação e da descrição de objetos, e possui várias aplicações em áreas científicas e tecnológicas. Neste trabalho propõe-se a implementação da análise Discriminante de Fisher em Python e a sua aplicação na última etapa do RP, a classificação.
Palavras-Chave: Reconhecimento de Padrões; Análise Discriminante; Python;


Improving Shewhart-type Generalized Variance Control Charts for Multivariate Process Variability Monitoring using Cornish-Fisher Quantile Correction, Meijer-G Function and Other Tools - Link direto para esse trabalho
Emanuel P. Barbosa ; Mario A. Gneri ; Ariane Meneguetti

This paper presents an improved version of the Shewhart-type generalized variance |S| control chart for multivariate process dispersion monitoring, based on the Cornish-Fisher quantile formula for non-normality correction of the traditional normal based 3-sigma chart limits. Also, the exact sample distribution of |S| and its quantiles (chart exact limits) are obtained through the Meijer-G function , and an auxiliary control chart is introduced in order to avoid non detection of certain changes in the process covariance matrix. The performance of the proposed new chart is compared in terms of false alarm risk, with the traditional normal chart and with the exact distributed chart for dimensions 2 and 3. The proposed new chart is illustrated with two numerical examples
Palavras-Chave: Control Chart; Variability Monitoring; Multivariate Process; Cornish-Fisher;


Imputation and Estimation under Nonignorable Nonresponse for Household Surveys with Missing Covariate Information - Link direto para esse trabalho
Danny Pfeffermann; Anna Sikov

In this paper we develop and apply new methods for handling not missing at random (NMAR) nonresponse. We assume a model for the outcome variable under complete response and a model for the response probability, which is allowed to depend on the outcome and auxiliary variables. The two models define the model holding for the outcomes observed for the responding units, which can be tested. Our methods utilize information on the population totals of some or all of the auxiliary variables in the two models, but we do not require that the auxiliary variables are observed for the nonresponding units. We develop an algorithm for estimating the parameters governing the two models and show how to estimate the distributions of the missing covariates and outcomes, which are then used for imputing the missing values for the nonresponding units and for estimating population means and the variances of the estimators. We also consider several test statistics for testing the model fitted to the observed data and study their performance, thus validating the proposed procedure. The new developments are illustrated using simulated data and a real data set collected as part of the Household Expenditure Survey carried out by the Israel Central Bureau of Statistics in 2005.
Palavras-Chave: Respondents distribution; Horvitz- Thompson type estimator; Calibration; Bootstrap;


Imputação de observações em experimentos genótipo ambiente utilizando a decomposição por valores singulares - Link direto para esse trabalho
Marisol García Peña; Sergio Arciniegas Alarcón; Carlos Tadeu dos Santos Dias

Um problema comum em experimentos multiambientes são as combinações ausentes genótipo-ambiente. O objetivo desse trabalho é propor um novo algoritmo de imputação determinística a partir da modificação do método de validação cruzada de Gabriel. O método utiliza a decomposição por valores singulares (DVS) de uma matriz e foram testadas três alternativas com diferentes escolhas das componentes da DVS sobre um conjunto completo de dados reais, fazendo retiradas aleatórias. Para avaliar a qualidade das imputações foram utilizadas as correlações e o quadrado médio do desvio entre as estimativas e os dados experimentais verdadeiros. A metodologia proposta não precisa de pressuposições distribucionais, estruturais e não depende do mecanismo de ausência nos dados.
Palavras-Chave: Imputação; Interação Genótipo-Ambiente; DVS;


Indicadores da Qualidade Estrutural da Rodovia Federal BR 316 - Link direto para esse trabalho
Irlando Ricardo Monteiro Lopes; Edson Marcos Leal Soares Ramos; Silvia dos Santos de Almeida; Cristiane Nazaré Pamplona de Souza; Henrique Antônio Monteiro Lopes

O acidente de trânsito, em diversos países, tem sido considerado como um problema de saúde pública, o que gera grande preocupação e esforços no sentido de criar políticas que venham a frear os índices cada vez mais crescentes, que trazem prejuízos sociais e financeiros a todos. Diante disto, este trabalho tem como objetivo investigar de que forma a precariedade estrutural da Rodovia Federal BR 316, entre os quilômetros mais críticos do Estado do Pará e do Brasil (KM 0 ao 10), potencializou a ocorrência de acidentes de trânsito nos anos de 2009 a 2012. Para isso, utilizou-se a técnica estatística multivariada análise de componentes principais com o intuito de criar diversos indicadores capazes de avaliar a qualidade da Rodovia Federal BR 316. Durante o processo de desenvolvimento dos indicadores da qualidade, levou-se em consideração características estruturais da pista, canteiro, acostamento, retorno e passarela em ambos os sentidos de tráfego da BR 316. A partir dos indicadores desenvolvidos pode-se verificar que os sentidos crescente e decrescente da via possuem, de forma geral, qualidades diferentes. Ressalta-se o fato de que nos trechos considerados ruins, além da falta de atenção, a principal causa de acidentes é o defeito na via, afirmando que a precariedade da infraestrutura da rodovia potencializa as ocorrências de acidentes de trânsito.
Palavras-Chave: Infraestrutura; Índice de Qualidade; BR 316;


Inferência Bayesiana aproximada para a distribuição de Rosenblatt - Link direto para esse trabalho
Plinio L.D. Andrade; Laura, L.R. Rifo

A distribuição de Rosenblatt é uma família uniparamétrica que surge no chamado Teorema não central do limite, incluindo as distribuições normal e qui-quadrado, bem como somas ponderadas de variáveis qui-quadrado. Tal distribuição não tem forma analítica tratável e seus momentos, cumulantes e distribuição empírica foram recentemente estudadas. Neste trabalho propomos uma metodologia Bayesiana para obter inferências para essa família baseada na chamada computação Bayesiana aproximada ou ABC, de approximate Bayesian computation, comparando a performance de algumas estatísticas usadas no processo de estimação.
Palavras-Chave: distribuição de Rosenblatt; algoritmo ABC; computação Bayesiana aproximada;


Inferência Bayesiana em Modelos de regressão Beta e Beta Inflacionados - Link direto para esse trabalho
Danilo Covaes Nogarotto; Caio Lucidius Naberezny Azevedo

No presente trabalho desenvolvemos ferramentas de inferência bayesiana para modelos de regressão beta e beta inflacionados, em relação a estimação paramétrica e diagnóstico. Trabalhamos com modelos de regressão beta não inflacionados, inflacionados em zero ou um e inflacionados em zero e um. Devido a impossibilidade de obtenção analtica das posteriores de interesse, tais ferramentas foram desenvolvidas através de algoritmos MCMC. Para os parâmetros da estrutura de regressão e para o parâmetro de precisão exploramos a utilizacão de prioris comumente empregadas em modelos de regressão, bem como prioris de Je ffreys e de Je ffreys sob independência. Para os parâmetros das componentes discretas, consideramos prioris conjugadas. Realizamos diversos estudos de simulacão considerando algumas situacões de interesse prático com o intuito de comparar as estimativas bayesianas com as frequentistas e também de estudar a sensibilidade dos modelos a escolha de prioris. Um conjunto de dados da area psicométrica foi analisado para ilustrar o potencial do ferramental desenvolvido. Os resultados indicaram que ha ganho ao se considerar modelos que contemplam as observacões inflacionadas ao invés de transformá-las a fim de utilizar modelos não inflacionados.
Palavras-Chave: Regressão Beta Inflacionada; Inferência Bayesiana; Métodos MCMC; priori de Jeffrey;


Inferência Bayesiana no modelo Weibull discreto em dados com presença de censura - Link direto para esse trabalho
Gabriel Hideki Vatanabe Brunello; Eduardo Yoshio Nakano

Este trabalho apresenta uma inferência bayesiana da distribuição Weibull discreta em dados com presença de censuras. Foi proposto também um teste de significância genuinamente bayesiano (FBST − Full Bayesian Significance Test) para testar o seu parâmetro de forma. As distribuições a posteriori dos parâmetros foram obtidas por meio de simulações via Markov Chain Monte Carlo (MCMC) e a metodologia desenvolvida foi ilustrada em simulações e aplicada em um conjunto de dados sobre o tempo de sobrevivência de homens diagnosticados com AIDS. Todas as simulações e obtenções das estimativas foram realizadas através do software free R.
Palavras-Chave: Análise de Sobrevivência; FBST; Inferência Bayesiana; MCMC; Testes de Hipóteses;


Inferência Bayesiana para uma extensão assimétrica do modelo de Grubbs - Link direto para esse trabalho
Fábio Rocha da Silva; Lourdes C. Montenegro

O modelo de Grubbs é utilizado para comparar vários instrumentos de medição, e é comum supor que os termos aleatórios seguem uma distribuição normal. Neste trabalho estudamos aspectos de inferência bayesiana para o modelo de Grubbs, onde o valor não observado da covariável (variável latente) segue uma distribuição normal assimétrica (Montenegro et. al. (2010)). As estimativas a posteriori dos parâmetros do modelo em estudo são calculados através do amostrador de Gibbs. Os resultados e métodos desenvolvidos neste trabalho são ilustrados através de um conjunto de dados.
Palavras-Chave: normal assimétrica; amostrador de Gibbs ; modelo de Grubbs;


Inferência em Modelos de Quase-Verossimilhança para Dados de Contagem com Excesso de Zeros, Sobredispersão e Dependência Espacial - Link direto para esse trabalho
Carla Zeline R. Bandeira; Max S. de Lima

Neste trabalho é proposto um novo modelo para dados de contagem com excesso de zeros, sobredispersão e dependência espacial. Para acomodar simultaneamente essas características, utilizou-se uma quase verossimilhança inflacionada de zeros (QIZ), onde a dependência espacial é incorporada no processo de estimação através das equações de estimação generalizadas (GEE). O algoritmo de estimação usado nesse processo foi o ES (Expectation-Solution), os intervalos de confiança para os parâmetros são obtidos via Inferência Bootstrap. Uma ilustração do método é feita usando dados de casos de Haseníase no Estado do Amazonas-Brasil.
Palavras-Chave: Inflação de Zeros; Sobredispersão; Dependência Espacial; Quase Verossimilhança; Inferência Bootstrap;


Inferência em um modelo de regressão com erros de medição sob enfoque estrutural para observações replicadas - Link direto para esse trabalho
Lorena Yanet Cáceres Tomaya; Mário de Castro

Neste trabalho estudamos um modelo de regressão com erros de medição heteroscedásticos sob enfoque estrutural para observações replicadas. A estimação dos parâmetros do modelo proposto foi efetuada pelos métodos de máxima verossimilhança (MV) e de máxima pseudoverossi- milhança (MPV). Além disso, o comportamento dos estimadores de alguns parâmetros foi analisado por meio de simulações para diferentes números de réplicas. Como ilustração, o modelo foi ajustado a um conjunto de dados reais referentes a medições de elementos químicos em amostras de cerâmicas egípcias.
Palavras-Chave: Enfoque estrutural; Erros heteroscedásticos; Máxima pseudoverossimilhança; Modelos com erros de medição;


Integração Numérica via Método de Monte Carlo - Link direto para esse trabalho
Fabiano Carvalho da Costa; Elis Aparecida Ribeiro de Lima; Maria Cláudia Costa de Oliveira; Karen Laryssa Da Cruz Teles; Prof. Dr. rer. nat. João Marcelo Brazão Protázio;

Neste trabalho propomos um método baseado em simulação (Método de Monte Carlo) para obter soluções aproximadas de integrais que não são possíveis ou complicadas de se obter de forma analítica. Tais integrais surgem naturalmente em vários campo das ciências e a obtenção dessas soluções são de extrema importância. No projeto de iniciação científica teremos de calcular o volume da intersecção entre duas superfícies gaussianas, um problema que explicitamente não tem solução. Apresentaremos aqui um experimento para mostrar que o método baseado em simulações é uma forma fácil e viável de se obter de maneira aproximada estas integrais.
Palavras-Chave: Integração; Método de Monte Carlo; Probabilidade; ZOI; FON;


Introdução ao CEP Multivariado com Apoio Computacional - Link direto para esse trabalho
Beatriz Ferreira Buzá; Prof. Dr. Francisco Louzada Neto

A competição cada vez mais acirrada, a complexidade dos negócios, o aumento nas exigências do consumidor e da produtividade, além do avanço das tecnologias, levaram gradativamente as empresas a investir mais na qualidade de seus produtos. Neste contesto surge o Controle Estatístico de Processo (CEP), que consiste em um conjunto de ferramentas utilizadas na obtenção da estabilidade do processo e na melhoria da capacidade através da redução da variabilidade. O CEP pode ser aplicado a qualquer tipo de processo que envolva uma sequência de passos repetitivos. Contudo, na maioria dos contextos reais é comum que a qualidade de um processo seja refletida através de um conjunto de variáveis que normalmente apresentam associação entre si. Nestes casos, a abordagem multivariada deve ser empregada para resultar em conclusões mais adequadas. Tanto para dados agrupados quanto para dados não agrupados, o controle da média de um processo, por exemplo, pode ser feito por meio do gráfico T² de Hotelling, que detecta em uma ou mais variáveis em análise, mudanças na média. Além disso, ao se fazer uso, não somente das variáveis referentes à qualidade de um processo, mas também de variáveis de entrada, por exemplo, variáveis associadas às condições iniciais de equipamentos ou insumos, métodos baseados em modelo de regressão podem ser usados no monitoramento da qualidade. Abordaremos também o método baseado em componentes principais, que além de identificar se existe ou não falha no controle, auxilia na detecção das variáveis responsáveis por esse desajuste, possibilitando intervenções específicas no processo, visando melhorar a qualidade do produto. As técnicas apresentadas serão exemplificadas através de um conjunto de dados artificiais, utilizando para tanto o software STATISTICA versão 12 (lançada em Abril de 2013). Figuras com o passo-a-passo detalhado da análise de CEP Multivariado no software escolhido serão apresentadas ao longo deste material, facilitando o entendimento prático do CEP Multivariado.
Palavras-Chave: CEP Multivariado; STATISTICA; T² de Hotelling; Regressão; Componentes Principais;


Introdução aos Modelos Aditivos Generalizados - Link direto para esse trabalho
Rodney Vasconcelos Fonseca; Juvêncio Santos Nobre; Rafael Bráz Azevedo Farias

Os modelos lineares generalizados (MLG) consistem em uma extensão do modelo linear de regressão, abrangendo uma maior classe de modelos, o que permite uma grande abrangência do MLG à diversas situações em que se deseja fazer análise de regressão. Algumas vezes porém, as variáveis explicativas podem ter uma relação com a variável resposta que seja difícil da classe de modelos lineares captar, o que pode ser solucionado utilizando métodos não paramétricos de regressão, os quais não exigem suposições sobre a distribuição dos dados ou sobre a forma funcional do modelo, sendo uma alternativa de modelagem que evita problemas de inadequações por suposições sobre os dados, tendo como objetivo encontrar uma função de suavização, que explique a variável resposta em função das covariáveis. Nesse contexto, os modelos aditivos generalizados (MAG) consistem em uma união entre MLG e métodos não paramétricos de regressão, no qual funções de suavização são utilizadas nas covariáveis para explicar uma função da média da variável resposta, sendo o objetivo deste trabalho apresentar os principais conceitos do MAG e apresentar um exemplo de aplicação do mesmo com intuito de tornar o método mais conhecido entre a comunidade científica.
Palavras-Chave: Modelos aditivos generalizados; Regressão não-paramétrica; Splines cúbicos;


Investigação dos fatores explicativos que influenciam na hipertensão arterial sistêmica gestacional - Link direto para esse trabalho
Wagner Jorge Firmino da Silva; Sharlene Neuma Henrique da Silva ; Ingritty Daysiane Torres Barbosa

A hipertensão arterial sistêmica é uma doença crônica, que uma vez não tratada e controlada adequadamente pode levar a complicações, que podem atingir alguns órgãos e sistemas. No sistema nervoso central podem ocorrer infartos, hemorragia e encefalopatia hipertensiva. No coração, pode ocorrer cardiopatia isquêmica (angina), insuficiência cardíaca, aumento do coração e em alguns casos morte súbita. No sistema vascular, podem ocorrer entupimentos e obstruções das artérias carótidas, aneurisma de aorta e doença vascular periférica dos membros inferiores. No sistema visual, pode ocorrer retinopatia que reduz muito a visão dos pacientes. Logo, o objetivo foi avaliar os principais fatores em mulheres que desenvolveram hipertensão arterial sistêmica durante a gestação, a partir de dados nutricionais, clínicos, socioeconômico e de estilo de vida. Com os dados disponíveis, um modelo de regressão logística binária foi ajustado, revelando que os fatores explicativos renda individual, fumo, hipertensão arterial sistêmica prévia e faixa etária foram mais significativos dentro todos os fatores analisados.
Palavras-Chave: hipertensão arterial sistêmica; gestantes; regressão logística;


Likelihood Based Inference for Multivariate Skew Scale Mixtures of Normal Distributions - Link direto para esse trabalho
Clécio S. Ferreira; Heleno Bolfarine; Victor Hugo Lachos

Scale mixtures of normal distribution are often used as a challenging class for statistical procedures of symmetrical data. Ferreira et al. (2011) defined a univariate skewed version of these distributions, that offers a much needed flexibility by combining both skewness with heavy tails. In this paper, we develop a multivariate version of the skew scale mixtures of normal distributions, with emphasis on the skew--t-Student, skew--slash and skew--contaminated normal distributions. The main virtue of the members of this family of distributions is that they are easy to simulate from and they also supply genuine EM algorithms for maximum likelihood estimation. The observed information matrix is developed to provision of standard errors. Results obtained from simulated data sets are reported illustrating the usefulness of the proposed methodology.
Palavras-Chave: Multivariate Scale Mixtures of Normal Distributions; Skew distributions; EM-algorithm;


Likelihood Based Inference for Quantile Regression Using the Asymmetric Laplace Distribution - Link direto para esse trabalho
Luis Benites Sánchez; Victor Hugo Lachos; Filidor Vilca Labra

To make inferences about the shape of a population distribution, the widely popular mean regression model, for example, is inadequate if the distribution is not approximately Gaussian (or symmetric). Compared to conventional mean regression (MR), quantile regression (QR) can characterize the entire conditional distribution of the outcome variable, and is more robust to outliers and misspecification of the error distribution. We present a likelihood-based approach to the estimation of the regression quantiles based on the asymmetric Laplace distribution (ALD), a choice that turns out to be natural in this context. The ALD has a nice hierarchical representation which facilitates the implementation of the EM algorithm for maximumlikelihood estimation of the parameters at the pth level with the observed information matrix as a byproduct. Inspired by the EM algorithm, we develop case-deletion diagnostics analysis for QR models, following the approach of Zhu et al. (2001). This is because the observed data log–likelihood function associated with the proposed model is somewhat complex (e.g., not differentiable at zero) and by using Cook’s well-known approach it can be very difficult to obtain case-deletion measures. The techniques are illustrated with both simulated and real data. In particular, in an empirical comparison, our approach out-performed other common classic estimators under a wide array of simulated data models and is flexible enough to easily accommodate changes in their assumed distribution. The proposed algorithm and methods are implemented in the R package ALDqr()
Palavras-Chave: Quantile regression model; EM algorithm; Case-deletion model; asymmetric Laplace distribution;


MODELAGEM CONJUNTA DOS DIÂMETROS EXTERNO E INTERNO DO RECHEIO DE UMA BALA USANDO O GRÁFICO T2 DE HOTELLING - Link direto para esse trabalho
Edimária Géssica Ferreira da Silva; Francimário Alves de Lima; Kalil Eduardo Cunha de Sousa; Pledson Guedes de Medeiros

Este estudo trata do monitoramento conjunto do diâmetro interno e externo do recheio de uma bala de uma Fábrica X utilizando o gráfico T2 de Hotelling com Observações Individuais. Quando temos autocorrelação em alguma das variáveis de interesse, há uma violação nos pressupostos do gráfico T2 de Hotelling, o que implica em uma grande quantidade de alarmes falsos. Para verificar isso calcula-se a função de autocorrelação e determina-se o intervalo entre observações a ser usado para o uso do gráfico T2 de Hotelling em observações individuais. Finalmente, decompõe-se a estatística T2 para checar qual a variável influenciou a causa especial observada.
Palavras-Chave: T2 de Hoteling; Autocorrelação; Observações Individuais;


MODELAGEM DA DISTRIBUIÇÃO ESPACIAL DE ORIFÍCIOS DE FORRAGEAMENTO DO CUPIM SUBTERRÂNEO Syntermes spp. POR PROCESSOS PONTUAIS - Link direto para esse trabalho
Alexandre dos Santos; Alexandre Arnhold; Ronald Zanetti

Os cupins são considerados pragas iniciais da cultura do eucalipto e tem ganhado maior importância devido à expansão da cultura sobre áreas de pastagens. Para obter mapas de infestação e realizar manejo integrado deste inseto é necessário conhecer a sua distribuição espacial. O objetivo do presente trabalho foi determinar a distribuição espacial de orifícios de forrageamento de Syntermes spp. por processos pontuais em uma área de 0,48ha em uma pastagem, no município de Corinto, Minas Gerais. Nesta área, realizou-se a identificação e mapeamento de todos os orifícios de forrageamento no interior de amostras de 5m de raio, dentro de parcelas alternadas de 10x10m e 20x20m. A posição dos orifícios de forrageamento foi submetida à função K não homogênea de Ripley e uma análise de Monte Carlo com 999 simulações para estabelecer os envelopes superiores e inferiores de confiança (α=0.05). Posteriormente, os dados foram submetidos a ajuste pelo processo agregado de Matérn. O teste com a função K de Ripley demonstrou que o processo é aleatório e não homogêneo até 5m e pode ser modelado pela abordagem estatístico-espacial de processos pontuais. O ajuste do processo agregado de Matérn resultou que orifícios destes cupins possuem 0,2 orifícios de forrageamento pais/m2 que se distribuem de maneira aleatória na área, circundados por 7,95 orifícios filhos (μ) num raio de 3,14m (R).
Palavras-Chave: processos pontuais; agregado de Matérn ; manejo integrado de pragas;


MODELAGEM DA PRECIPITACAO PLUVIOMETRICA EM VITÓRIA DA CONQUISTA, USANDO REDES NEURAIS ARTIFICIAIS - Link direto para esse trabalho
Jaime dos Santos Filho; Fernando Ribeiro Cassiano; Elmiro S. de Oliveira Júnior; Edcarlos Miranda de Souza; Thelma Sáfadi

A modelagem é uma série de procedimentos utilizados para representar os fenômenos de forma simplificada. A modelagem probabilística tem sido usada no estudo dos fenômenos hidrológicos como uma importante ferramenta para prever os impactos dos diferentes períodos de precipitação pluviométrica. As redes neurais artificiais podem ser utilizadas para a modelagem de fenômenos hidrológicos e servir auxiliar na tomada de decisões por parte do governo e das entidades competentes, propiciando o planejamento de ações preventivas mais consistentes e efetivas. O principal objetivo deste trabalho é a modelagem de dados mensais de precipitação pluviométrica utilizando Redes Neurais Artificiais pelo uso do software SCILAB 5.3.3, na cidade de Vitória da Conquista, Bahia. Para esse estudo foi utilizado o toolbox ANN (Artificial Neural Network Toolbox), do ambiente Scilab, que implementa funções para análise de sinais utilizando redes neurais. Os dados analisados foram obtidos junto ao Instituto Nacional de Meteorologia através da Estação Meteorológica (OMM: 83344), na cidade de Vitória da Conquista - BA, e possui as seguintes coordenadas geográficas: 14º 50´53´ de latitude Sul e 40º 50´19´de longitude Oeste, a uma altitude de 874,81m. A série histórica utilizada foi coletada no período de 21 anos, de janeiro de 1993 á novembro de 2013. Após a execução da rede foi possível, a partir dos gráficos gerados de previsão e erro quadrático médio, comprovamos a eficiência das Redes Neurais Artificiais.
Palavras-Chave: Modelagem matemática; Chuvas; Teoria das probabilidades; Inteligência artificial;


MODELAGEM E MONITORAMENTO DAS NOTIFICAÇÕES DE DENGUE - Link direto para esse trabalho
Franciely Farias da Cunha; José Luiz de Carvalho Lisboa; Edson Marcos Leal Soares Ramos; Adrilayne dos Reis Araújo

Este estudo tem como objetivo monitorar e modelar o número de notificações de dengue no estado do Pará, no período de janeiro de 2007 a julho de 2013. Para isso, utilizou-se as técnicas Controle Estatístico da Qualidade e a Análise de Séries Temporais. Inicialmente, realizou-se o teste de normalidade, no qual verificou-se que os dados seguem distribuição normal, em seguida, construiu-se o Gráfico de Controle de Séries Temporais para monitorar e avaliar as notificações de Dengue no período em estudo. Assim, a partir do gráfico de controle de séries temporais, pôde-se verificar que as notificações de dengue no estado do Pará, encontra-se fora de controle estatístico, devido a grande incidência e letalidade dos casos em diversos municípios paraenses, no ano de 2010. Portanto, os resultados apontam a necessidade dos órgãos de saúde pública adotar medidas de controle e prevenção da doença em questão.
Palavras-Chave: monitorar; incidência; letalidade;


MODELAGEM PARA OS CASOS DE ÓBITO POR DENGUE - Link direto para esse trabalho
Franciely Farias da Cunha; José Luiz de Carvalho Lisboa; Edson Marcos Leal Soares Ramos; Adrilayne dos Reis Araújo

A dengue é um dos principais problemas de saúde pública, sendo que o número de casos da doença continua crescendo exponencialmente no mundo todo. Neste sentido, o objetivo deste estudo é descrever e modelar estatisticamente os fatores que influenciam no óbito de pacientes com dengue no Estado do Pará, no período de janeiro de 2007 a julho de 2013. Para isso, utilizou-se as técnicas estatísticas Análise Exploratória de Dados e a Regressão Logística Binária. Destaca-se que a maior parte dos casos de dengue foram notificados no ano de 2011, a doença é predominante em adultos, na faixa etária de 20 a 29 anos, que não concluiu o ensino fundamental. Pacientes que apresentam manifestações hemorrágicas tem 4 vezes mais chance de evoluir a óbito em relação aos pacientes que não apresentaram esse sintoma e os pacientes que residem na zona urbana tem 2 vezes mais chance de evoluir a óbito comparado com aqueles pacientes que residem na zona rural. Valores das estimativas dos parâmetros das variáveis: manifestações hemorrágicas e zona de residência foram significativas ao nível de significância de 5%. Dessa forma, os fatores relacionados à dengue são de grande risco para o óbito do paciente.
Palavras-Chave: Fatores; Risco; Significativas;


MODELO ESTATÍSTICO PARA ESTIMAR PROPRIEDADE PETROFÍSICA - Link direto para esse trabalho
Eduardo Henrique Silveira de Araújo, Departamento de Estatística – DEST/UFRN, ehsa@ccet.ufrn.br; Adrião Duarte Dória Neto, Departamento de Engenharia de Computação e Automação - DCA/UFRN, adriao@dca.ufrn.br; Francisca de Fátima do Nascimento, Doutoranda em Ciência e Engenharia de Petróleo – UFRN, fátima@ccet.ufrn.br; Francisco Pinheiro Lima-Filho, Departamento de Geologia – DG/UFRN, pinheiro@geolgia.ufrn.br

Neste trabalho apresentamos uma proposta metodológica para estimar a porosidade de camadas sedimentares, de forma indireta, o que pode representar um salto tecnológico no uso do método GPR para a caracterização de afloramentos análogos a reservatórios petrolíferos. Todo trabalho teve como objetivo desenvolver uma metodologia de modelagem do comportamento da variabilidade dos dados das propriedades. Para tanto foi utilizado modelo estatístico de regressão múltipla em conjunto com técnica de sistema inteligente para estimar valores de porosidade, tendo como base os dados de aquisições de GPR e dados de variáveis eletromagnéticas de materiais siliciclásticos, dispostos em estratos que simulam o ambiente sedimentar.
Palavras-Chave: Regressão Múltipla; Redes Neurais Artificiais; Porosidade; GPR;


MODELO PARA PREVISÃO USANDO UM SISTEMA DE INFERÊNCIA FUZZY - Link direto para esse trabalho
Luiz Carlos Benini; José Gilberto Spasiani Rinaldi

Resumo: Neste trabalho utiliza-se de um sistema de inferência fuzzy que incorpora o aprendizado por meio de um conjunto de dados onde as variáveis de entrada estão relacionadas com suas respectivas variáveis de saídas. Takagi e Sugeno foram pioneiros em propor um modelo de sistema de inferência fuzzy, onde são utilizadas entradas e regras fuzzy mas com a saída do sistema sendo conjuntos não-fuzzy. Este modelo é uma excelente ferramenta para modelagem de problemas complexos e não lineares, quando combinado com a estrutura da rede de Sistema de Inferência Fuzzy Neuro Adaptativa (ANFIS). Sistemas de inferência fuzzy são utilizados com base em um conjunto regras, do tipo “se...então”, que representam as entradas e saídas do modelo, associando a capacidade de aprendizado das redes neurais artificiais com o poder de interpretação lingüístico dos sistemas de inferência fuzzy, as quais são capazes de tratar conhecimentos incompletos, incertos ou mesmo conflitantes. É apresentado uma aplicação onde os dados estimados pelo modelo se mostraram correlacionados, indicando boa exatidão para o modelo neuro-fuzzy obtido, onde pode ser verificada a capacidade e a eficiência dos sistemas de inferência fuzzy.
Palavras-Chave: Teoria Fuzzy; Sistema Takagi-Sugeno; Sistema de Inferência Neuro-Fuzzy Adaptativa; Agrupamento subtrativo;


MODELOS DINÂMICOS PARA DADOS CIRCULARES - Link direto para esse trabalho
Mariana Raniere Neves

Este trabalho objetiva aplicar metodologias disponíveis na literatura e desenvolver possíveis alternativas para o estudo de dados direcionais. Em particular, tem-se interesse em dados direcionais observados temporalmente e propõe-se, para sua análise, modelos dinâmicos com estruturas observacionais baseadas em distribuições circulares, como por exemplo a Von Mises e Wrapped Normal. Pretende-se implementar e analisar o desempenho de métodos computacionais como MCMC, Linear Bayes e métodos de reamostragem a esse tipo de modelo.
Palavras-Chave: Dados Circulares; Inferência Bayesiana ; Modelos Dinâmicos;


MORTALIDADE INFANTIL NO MUNICÍPIO DO RIO DE JANEIRO: DISTRIBUIÇÃO ESPACIAL E ASSOCIAÇÃO COM AS CONDIÇÕES DE VIDA DA POPULAÇÃO NOS TRIÊNIOS DE 2000-2002 E 2009-2011 - Link direto para esse trabalho
Danielle Soares de Oliveira; Ismael Henrique da Silveira; Lívia Azevedo Bahia; Maria Beatriz Assunção Mendes da Cunha; Washington Leite Junger

A taxas de mortalidade infantil (TMI) vêm decrescendo no país e no mundo. Entretanto, essa redução ocorre de forma desigual, conforme o contexto em questão. Identificar o padrão de distribuição das TMI no bairros do Rio de Janeiro e sua associação com as condições de vida da população nos triênios 2000-2 e 2009-11. Para tanto, as informações foram agrupadas pelos bairros do município. A TMI foi calculada para dois cenários, correspondentes aos triênios 2000-2 e 2009-11. Os indicadores socioeconômicos foram baseados em dados dos Censos do IBGE de 2000 e 2010, e abrangeram as dimensões educação, renda, saneamento e moradia. A associação entre a TMI e os indicadores foram analisadas através do ajuste de um Modelo Linear Generalizado (MLG) seguindo a distribuição de Poisson. Os resultados corroboram que maiores TMI coexistem com piores condições socioeconômicas.
Palavras-Chave: Mortalidade infantil; Análise espacial; Associação; Modelo de poisson;


Mapeamento da mortalidade Neonatal Precoce em Minas Gerais:Modelagem e SSVS em Modelos Espaciais - Link direto para esse trabalho
Natália Costa Araújo; Rosangela Helena Loschi

Um ajuste da taxa de mortalidade neonatal precoce de Minas Gerais a partir de um modelo de regressão Poisson misto onde a estrutura de dependência espacial é introduzida via efeitos aleatórios. Para estes efeitos espaciais assume-se uma distribuição autoregressiva imprópria (ICAR), que correlaciona os efeitos aleatórios que são vizinhos. Adota-se o método de SSVS - Seleção de variáveis via busca estocástica - (introduzido por George e McCulloch, 1993) para a seleção de variáveis, que usa misturas discretas (Marin e Robert, 2007) de densidades como distribuições a priori para os efeitos fixos e atribui uma probabilidade da variável explicativa ser significativa para o modelo.
Palavras-Chave: Modelos espaciais; SSVS; Estatística Bayesiana;


Mapeamento da mortalidade neonatal precoce em Minas Gerais: o uso da censura para contornar o problema do sub-registro - Link direto para esse trabalho
Guilherme Lopes de Oliveira; Rosangela Helena Loschi.

Neste trabalho apresentamos um mapeamento da mortalidade neonatal precoce (MNP) em hospitais do SUS no estado de Minas Gerais entre 1999 e 2001. Utilizamos um modelo de regressão Poisson misto censurado com efeitos aleatórios para acomodar a dependência espacial entre as regiões. A inclusão de censura no modelo foi necessária para tratar adequadamente os dados relacionados às áreas suspeitas de subnotificação. Apresentamos um dos critérios construídos para a determinação das regiões censuradas analisados. Os riscos relativos (RR) de MNP estimados via modelo censurado são comparados com aquelas obtidos a partir de modelos não censurados apresentados na literatura. Conclui-se que a inclusão de censuras no modelo fornece melhores estimativas para os RR e tais estimativas são concordantes, independente do critério de censura utilizado.
Palavras-Chave: Mortalidade neonatal precoce; Dados censurados; Distribuição a priori CAR; Subnotificação de dados;


Medidas de dissimilaridade para o método de classificação de séries temporais baseado em U-estatísticas - Link direto para esse trabalho
Augusto Marcolin; Marcio Valk

O método de classificação e agrupamento de séries temporais baseado em U-estatísticas tem como característica a dependência de uma medida de dissimilaridade entre séries temporais. Essas medidas são utilizadas como núcleo das U-estatísticas e suas características influenciam diretamente no comportamento da estatística de teste. Na literatura, existem uma grande variedade dessas medidas e o objetivo deste trabalho é realizar um estudo comparativo, através de simulações de monte carlo, para identificar qual medida é mais adequada para o método, considerando-se diferentes tipos de processos estacionários na configuração dos grupos.
Palavras-Chave: Séries temporais; Classificação; U-estatística;


Metodologia para estudo da variabilidade de métodos analíticos - Link direto para esse trabalho
Fernando Henrique Rosa; Flaviane Peccin Brevi; Jonathan Farinela da Silva

Todo método de determinação de medidas é suscetível a variações. Identificar e mensurar os fatores que influenciam no processo é fundamental para melhorar a precisão dos resultados. Portanto, dispor de uma metodologia para estimar estes componentes de variação é de grande importância, principalmente em ambientes onde se trabalha com melhoria constante de tecnologia e processos e com taxas de erros ínfimas. O presente trabalho sugere utilizar a Decomposição dos Fatores de Variância, também conhecido como Modelos com Efeitos Aleatórios como metodologia para estimar a variabilidade associadas a cada um desses fatores. A metodologia proposta foi aplicada a uma base de dados real e se mostrou eficaz na mensuração dos fatores que interferem na variabilidade de um método de medição, sendo uma ferramenta efetiva para garantir maior confiabilidade nos resultados reportados pelo laboratório.
Palavras-Chave: Componentes de variância; incerteza; delineamento experimental; modelos mistos;


Mistura de Distribuições e Aplicação - Link direto para esse trabalho
Ednário Barbosa de Mendonça; Divanilda Maia Esteves

Na estatística, um modelo de mistura é um modelo probabilístico usado para representar a presença de sub-populações dentro de uma populacão geral, sem exigir que um conjunto de dados observados deva identificar as sub-populações que determinada observação individual venha a pertencer. Neste trabalho são apresentados os principais conceitos que envolvem à teoria de mistura de distribuições, conceitos esses relacionados a misturas finitas, momentos das misturas finitas e seus parâmetros, algoritmo EM e misturas finitas discretas e contínuas. Também toma parte deste projeto de iniciação científica, a aplicação dos conceitos vistos sobre misturas em um conjunto de dados do pacote "datasets" do software R Core Team (2012), o qual se refere ao tempo de espera entre erupções do gêiser Old Faithful no Yellowstone National Park, estado de Wyoming nos EUA.
Palavras-Chave: Modelo de mistura; misturas finitas; algoritmo EM;


Modelagem Conjunta de Dados Longitudinais e Dados de Sobrevivência de Pacientes com Insuficiência Cardíaca Congestiva - Link direto para esse trabalho
Diana C. Franco-Soto; Antonio C. Pedroso-de-Lima; Julio M. Singer.

Consideramos a modelagem conjunta de medidas longitudinais e tempos de sobrevivência, motivados por um estudo realizado no Instituto do Coração (InCor), São Paulo, Brasil, cujo objetivo é avaliar o impacto do Peptídeo Natriurético Tipo-B (BNP) coletado em diferentes instantes sobre a sobrevida de pacientes com Insuficiência Cardíaca Congestiva (ICC). Empregamos um modelo linear de efeitos mistos para explicar a resposta longitudinal e um modelo Birnbaum-Saunders para descrever os tempos de sobrevivência, estendendo algumas das abordagens existentes para acomodar indivíduos sem observações longitudinais. Derivamos os estimadores de máxima verossimilhança dos parâmetros do modelo e testes de hipóteses sobre tais parâmetros são obtidos por meio de resultados de inferência assintótica. O modelo conjunto proposto é aplicado ao conjunto de 1609 pacientes com ICC, dos quais 1080 não têm nenhuma medição de BNP. Os resultados sugerem que a inclusão de medições longitudinais de uma resposta apropriada pode ser utilizada para melhorar a análise dos dados de sobrevivência.
Palavras-Chave: Dados longitudinais; Dados de sobrevivência; Modelagem conjunta; Modelo Birnbaum-Saunders; Modelo linear de efeitos mistos;


Modelagem da Estrutura Diamétrica através de Modelos Probabilísticos de uma Floresta Tropical Nativa no Município de Santarém-Pará-Brasil - Link direto para esse trabalho
Mônica dos Santos Silva; Erika Priscila Silva Meireles; Paulo Cerqueira dos Santos; João Marcelo Brazão Protázio

Este trabalho teve como objetivo principal fazer um estudo do modelamento da estrutura diamétrica de uma floresta tropical nativa situado na estação experimental de Curuá-Una, distante 110 Km do município de Santarém no Estado do Pará, através de distribuições probabilísticas conhecidas como Gama, Weibull e Log-Normal. Para tanto utilizou-se os Talhões 3 e 9 considerando-se todos os indivíduos (espécies com DAP (Diâmetro a altura do peito) maiores ou iguais a 45cm. Outro objetivo, não menos importante, perpassa pela utilização de dois softwares a saber, a planilha eletrônica Excel e software estatístico R, com o intuito de futuras comparações. Como resultado preliminares a distribuição que melhor ajustou-se foi a Gama.
Palavras-Chave: Modelamento; Floresta tropical; Amazônia;


Modelagem da ocorrência de Dengue na Bahia em 2012 - Link direto para esse trabalho
Lorena Ribeiro Nunes Moreira; Denise Nunes Viola.

Conhecer a distribuição espacial da dengue é de grande importância na área da saúde, pois permite identificar os locais com epidemia da doença e, consequentemente, o local com maior concentração de mosquitos. Para a construção do mapa, inicialmente é necessário verificar se existe padrão espacial. A superfície da incidência de dengue é construída utilizando técnicas de geoestatística. A existência de padrão espacial em Geoestatística é comumente verificada através do semivariograma e do envelope simulado, porém este nem sempre pode ser utilizado, uma vez que exige alguns pressupostos. Uma maneira alternativa de verificar a existência de padrão espacial é utilizando uma adaptação do Teste de Aleatorização de Mantel (VIOLA, 2007). O teste de aleatorização não tem contra indicação e pode ser utilizado em amostras pequenas, sem restrição de uso para amostras não aleatórias. Para realizar este teste, comparam-se o valor de uma estatística observada para os dados originais com os valores desta estatística após a aleatorização das observações e o p-valor é dado pela proporção de vezes que a estatística dos dados aleatorizados foi maior ou igual à estatística obtida com os dados originais. No teste de Mantel, a estatística utilizada é o coeficiente de correlação entre os elementos de duas matrizes. Neste trabalho foram utilizados os locais de notificação da dengue do Estado da Bahia coletados no site do Sistema de Informação de agravos de notificação (SINAN). A variável utilizada foi a razão entre o número de notificações e a população por município. O objetivo deste trabalho é identificar se existe padrão espacial e modelar a superfície de incidência de dengue no Estado da Bahia.
Palavras-Chave: Estatística espacial.; Dengue.; Epidemia.;


Modelagem de Box-Jenkins e Alisamento Exponencial de Holt aplicados à série de consumo de gasolina no Brasil no período de 1907 a 2007 - Link direto para esse trabalho
Leonardo de Sousa Paiva; Alexandre Henrique Quadros Gramosa

Neste trabalho analisamos a série temporal do consumo de gasolina no Brasil no período de 1907 a 2007, utilizando a metodologia Box-Jenkins e Suavização Exponencial de Holt - SEH. Os dados usados na análise são de 1907 à 2001, os demais foram usados para avaliar a qualidade de previsão dos modelos ajustados. Usamos o Erro Quadrático Médio (EQM) e o Erro Absoluto Percentual Médio (MAPE), para comparar a qualidade do ajuste dos modelos.
Palavras-Chave: ARIMA; alisamento exponencial de Holt; EQM; MAPE;


Modelagem de Eventos Extremos Através da Distribuição Pareto Generalizada - Link direto para esse trabalho
Bárbara Beltrame Bettim; Márcio Luis Lanfredi Viola

A previsão de eventos extremos ganhou muita importância nos últimos anos devido aos danos e prejuízos que os mesmos podem causar em relação à danos estruturais e ambientais. Assim, utilizamos o modelo de regressão Pareto Generalizado para dados independentes seguindo distribuição Pareto Generalizada e assumindo que os parâmetros possuem relação com covariáveis através de estruturas não lineares. O objetivo deste trabalho é fixar valor um para o parâmetro de locação e modelar os parâmetros de forma e escala em função das covariáveis relacionadas aos parâmetros.
Palavras-Chave: Pareto Generalizada; Eventos Extremos; MLG;


Modelagem de Resultados de Futebol - Link direto para esse trabalho
Arthur Necchi Corrêa; Luis Ernesto Bueno Salasar; Adriano Kamimura Suzuki

Nos últimos anos um crescente interesse por modelagem de previsões relacionadas ao futebol vem sendo observado. O entretenimento gerado por este esporte e as apostas acerca dos resultados das partidas são motivos que levaram a este aumento. As apostas tornaram-se tradição na Europa, principalmente na Inglaterra, onde o valor gasto com esse procedimento tem aumentado drasticamente, é neste contexto que surgem os modelos estatísticos que procuram fornecer boas previsões para resultados de um jogo. Nesse trabalho, no lugar de modelar o número de gols marcados por cada equipe separadamente, vamos nos concentrar na diferença do saldo de gols entre as equipes, utilizando a Distribuição de Skellam.
Palavras-Chave: Distribuição de Skellam; Futebol; Diferença de Gols; Diferença de Poisson; Simulação;


Modelagem de Superfície de Resposta para Dados de Contagem - Link direto para esse trabalho
Francisco Jucelino Matos Júnior; Sílvia Maria de Freitas

A Superfície de Resposta Metodologia (Response Surface Metodology - RSM) é um procedimento sequencial e extenso, que utiliza várias ferramentas de análise para encontrar respostas sobre as condições de trabalho do sistema, encontrar as soluções ótimas de um processo, de acordo com as limitações de sua produção. O principal objetivo da Metodologia de Superfície de Resposta é permitir que o pesquisador não só entenda o mecanismo de algum sistema, mas também para encontrar as suas condições ideais deste sistema. O processo de estimativa para alcançar os resultados pode ser classificado como tendo uma elevada eficiência, quando o delineamento experimental e as ferramentas de métodos são bem aplicados. Este processo é baseado em uma resposta contínua e procedimento desta estimativa começa pela escolha de um modelo devido à sua região experimental, para encontrar uma solução ótima, também conhecida como estacionário ponto. Em muitas áreas do conhecimento científico é frequentemente confrontado com a investigação em unidades experimentais que apresentam resultados de contagem. Em geral, os dados desta natureza são modelados dentro do método estatístico, usando a distribuição Binomial Negativa ou a distribuição de Poisson. Em geral, dados de contagem são modelados por Poisson ou binomial negativa associada a modelos de regressão, que são casos especiais de Modelos Lineares Generalizados ( GLM ). O objetivo deste trabalho é fazer uma exploração inferencial através da estimativa pontual e intervalar, para modelos RSM para dados de contagem, do ponto de vista de MLG, para estudar o precisão do ponto estacionário .
Palavras-Chave: Modelos Lineares Generalizados; Dados de Contagem; Métodos de Superfície de Resposta;


Modelagem de séries temporais de consumo de energia elétrica da Universidade Federal de Lavras, correspondentes ao período de 1995 a 2013 - Link direto para esse trabalho
Jair Rocha do Prado; Thelma Sáfadi; Joaquim Paulo da Silva

A Universidade Federal de Lavras (UFLA), assim como a maioria das universidades no Brasil, passa nos últimos anos por um constante crescimento. Assim, estudos relacionados a séries de consumo de energia elétrica da universidade são importantes. O objetivo deste trabalho é fazer uma análise descritiva e modelar as séries de consumo de energia elétrica em horários de ponta e fora de ponta na UFLA. Os modelos utilizados para modelar as séries foram os de Box e Jenkins. As séries históricas são mensais e compreendem o período de janeiro de 1995 a dezembro de 2013. Os dados de 1995 a 2012 foram considerados para efeito de ajuste de modelos e os dados do ano de 2013 foram utilizados para se selecionar o melhor modelo considerando o menor erro quadrático médio de previsão. Foram realizadas previsões para o ano de 2014 por meio de estimativas pontuais e intervalos de confiança, com o intuito de contribuir com os administradores da universidade nas futuras decisões. Os modelos obtidos para as séries de consumo de energia elétrica proporcionaram resultados satisfatórios considerando a finalidade de previsão.
Palavras-Chave: Tendência ; Sazonalidade; Modelos de Box e Jenkins; Consumo de energia elétrica; Previsão;


Modelagem e previsão do índice geral de preços de mercado - Link direto para esse trabalho
Felipe Rodrigues da Silva; Marcelo Bourguignon Pereira

A relevância de estudar a variação dos preços no contexto de uma economia emergente, com séries temporais, é um grande desafio. Esse desafio torna-se maior no contexto de uma economia cujas características mudam significativamente em curtos intervalos de tempo. Este trabalho teve como objetivo obter um modelo utilizando séries temporais para ajustar e prever o índice geral de preços de mercado (IGP-M) no Brasil, utilizando dados de Setembro de 1994 à Agosto de 2013. Para tanto, empregamos o algoritmo de alisamento exponencial simples de Holt-Winters e a metodologia de Box-Jenkins. Os modelos de previsão foram comparados e avaliados. E por fim, verificamos que o modelo autorregressivo de ordem $p=1$ apresenta a melhor capacidade preditiva dentre todos os modelos considerados.
Palavras-Chave: Séries temporais; Inflação; IGP-M; Plano real;


Modelagem não linear do crescimento do cafeeiro irrigado considerando independência e autocorrelação residual. - Link direto para esse trabalho
Adriele Aparecida Pereira; Tales Jesus Fernandes; Augusto Ramalho de Morais; Myriane Stella Scalco.

O Brasil apresenta a maior produção de café do mundo, sendo Minas Gerais o estado com o maior parque cafeeiro e produção do país. Desta forma, várias pesquisas nesta área visam analisar o crescimento sob diferentes situações experimentais, com o intuito de propor melhorias no manejo do cafeeiro. Ao utilizar a técnica de medidas repetidas no tempo, as observações sobre a mesma unidade experimental apresentam correlação, o que dá origem a autocorrelação residual, que deve ser considerada nas análises. O objetivo do presente trabalho foi avaliar o ajuste dos modelos Logístico e Gompertz à altura de plantas do cafeeiro, cultivar Rubi MG 1192, cultivadas na densidade de plantio 3333 plantas.ha-1 e irrigadas a 20 kPa e 60 kPa, em função do tempo, considerando estruturas de erros independentes e autocorrelacionados. Para avaliar o melhor ajuste foi utilizado o Critério de informação de Akaike (AIC). Em ambos os regimes de irrigação analisados, a modelagem considerando autocorrelação residual apresentou os melhores resultados. Dentre os modelos analisados, o modelo Gompertz com resíduos autocorrelacionados é considerado o que melhor descreve o crescimento em altura do cafeeiro ao longo do tempo, em ambos os regimes de irrigação, segundo o AIC.
Palavras-Chave: autocorrelação residual; cafeeiro irrigado; modelos não lineares;


Modelagem paramétrica na de censura informativa: Um estudo de simulação - Link direto para esse trabalho
Paulo Cerqueira dos Santos Junior, Enrico Antônio Colosimo, Fábio Nogueira Demarqui.

O mecanismo de censura é um ponto crucial nas análises de dados de sobrevivência (ver Leung (1997)). A maioria dos métodos em análise de sobrevivência supõe o mecanismo de censura não-informativo, ou seja, os tempos até o evento de interesse e o de censura são independentes (a distribuição dos tempos de censura não carregam informação dos parâmetros da distribuição dos tempos de falha). Entretanto em alguns casos essa suposição é violada, métodos que incorporem estruturas para situações em que o mecanismo de censura é informativo são necessários. Em situações em que pacientes saem do estudo por razões relacionadas ao tipo de terapia e consequentemente tem o fim do seu acompanhamento, pode-se considerar que a censura é informativa, pois a razão da censura está relacionada com o tempo de sobrevivência futuro. Outros exemplos são situações em que a falha é causada por eventos secundários e assim registradas como observações censuradas (Lagakos (1979)). Basicamente, a censura informativa ocorre quando observações censuradas são mais (ou menos) propensas a experimentar um evento específico das observações restantes no futuro (Collett (2003)). Propostas em utilizar modelos de fragilidade sob a suposição de censura informativa também foram consideradas. No trabalho de Huang \emph{et. al} (2002) foi desenvolvido outro modelo de fragilidade para dados em conglomerados, que permite uma maior flexibilidade e grau de dependência entre a falha e censura, e mais tarde em Huang et. al (2004), a proposta de um teste para verificar a presença da censura informativa. Nesse trabalho, será assumido que os tempos de falha T e censura C são condicionalmente independentes dado uma fragilidade Z e as covariáveis. A fragilidade será incluída na modelagem para captar a dependência entre os tempos de falha e de censura associados a cada indivíduo, e dessa forma, incorporar o mecanismo de censura informativo na modelagem. Assumiu-se a distribuição da fragilidade como sendo Gama e realizou-se um estudo de simulação sob uma abordagem completamente paramétrica, com o uso do modelo Weibull. A implementação computacional foi realizada no software OxMetrics 6.
Palavras-Chave: Fragilidade; Censura informativa; Verossimilhança Marginal;


Modelando a Volatilidade da série de retornos das Ações do Banco do Brasil (BBAS3) via modelos ARMA-GARCH - Link direto para esse trabalho
Eduardo Campana BARBOSA; Thelma SÁFADI; Carlos Henrique Osório SILVA; Rômulo César MANULI

Neste trabalho utilizou-se um modelo combinado ARMA-GARCH para estudar a volatilidade da série de retornos financeiros das ações BBAS3 do Banco do Brasil. A seleção dos modelos ocorreu por meio do Critério de Informação de Akaike (AIC) e pelo teste Ljung-Box para resíduos. O ARMA(2,1) foi selecionado para remover a autocorrelação da série de retornos e então ajustou-se um GARCH(1,1) à seus resíduos para modelar a variância, visto que tal série apresentou heterocedasticidade condicional. Como a distribuição dos retornos apresentava caldas mais densas que a normal (curtose > 3), considerou-se a distribuição do termo aleatório uma t-Student com 5 graus de liberdade. O momento de maior variabilidade dos retornos pode ser explicado pela crise econômica de 2008, iniciada nos Estados Unidos.
Palavras-Chave: Retornos ; Volatilidade; ARMA; GARCH;


Modelando dados de contagem sobredisperso - Link direto para esse trabalho
Emerson Barili; Juliana V.C.M. Perles; Omar C. N. Pereira; Isolde Previdelli; Rosˆangela G. Santana.

O objetivo do presente trabalho ´e investigar os modelos de regress˜ao Poisson, quasi-Poisson e binomial negativo da classe da fam´ılia exponencial, utilizando dados de contagem sobredispersos da doenc¸a Diabetes Mellitus. O artigo apresentado por Hoef e Boveng (2007) sobre modelos de regress˜ao de quasi-verossimilhanc¸a norteia a metodologia aqui adotada para responder algumas hip´oteses de um experimento conduzido pela Professora Juliana do Departamento de Farmacologia da UEM. Cada vez mais pesquisas na ´area da sa´ude tem sido realizadas, no intuito de encontrar mecanismos de prevenc¸ ˜ao e diagn´osticos de doenc¸as crˆonicas como ´e o caso da Diabetes Mellitus (DM).
Palavras-Chave: Poisson; Dispersão; Neurônios;


Modelando numero de cigarros consumidos atraves de um modelo Hurdle com efeitos aleatorios - Link direto para esse trabalho
Gabriel Franco; Orientadora: Profa. Mariana R. Motta

O objetivo deste estudo é ajustar o número de cigarros consumidos por dia através de um modelo Hurdle, onde a barreira (hurdle) é o fato de o indivíduo ser ou não fumante. No caso em que é fumante, o número de cigarros consumidos por dia condicionado ao efeito aleatório da família tem distribuição binomial negativa truncada em zero. O modelo de regressão Hurdle binomial negativa truncada em zero é então ajustado, utilizando efeitos aleatórios para acomodar a correlação entre indivíduos de uma mesma família. O diagnóstico desse modelo é feito através do gráfico envelope, utilizando a esperança e a variância condicionais calculadas. As variáveis explanatórias utilizadas são sexo, idade e consumo de bebida alcoólica. Os dados são parte do projeto "Corações de Baependi", um estudo longitudinal conduzido pelo Laboratorio de Cardiologia e Genética Molecular do Incor/USP.
Palavras-Chave: Modelo linear misto generalizado; Binomial negativa truncada em zero; Modelo Hurdle;


Modeling reliability data using non-gaussian state space models - Link direto para esse trabalho
Thiago Rezende dos Santos; Dani Gamerman; Glaura C. Franco

This paper presents a likelihood structure, encountered in several reliability models, that consists on a decomposition of data information in stages or times, thus leading to latent parameters. Piecewise exponential models, proportional hazards models and a few software reliability models are among the models in this unifying framework. Latent states are related across stages through a non-Gaussian state space model framework. A distinctive feature of the models is their mathematical tractability, allowing for the exact computation of the marginal likelihood function, despite the non-Gaussianity of the state-space. Real-life examples illustrate the approach and reveal some advantages of our approach. Agradecemos à FAPEMIG pelo suporte financeiro.
Palavras-Chave: Software reliability; state-space; Non-Gaussian filtering; Bayesian; Proportional hazards;


Modelling performance of students with bivariate generalized linear mixed models - Link direto para esse trabalho
Gabriel Franco ; Hildete P. Pinheiro; Mariana R. Motta

We propose a bivariate generalized linear mixed models (GLMM) to evaluate the performance of undergraduate students from the State University of Campinas (Unicamp). For each student we have the nal GPA score as well as the number of courses he/she failed during his/her Bachelor's degree. The courses are separated in three categories: Required (R), Elective (E) and Extracurricular courses (Ex). Therefore, for each variable each student may have at most three measures. In this model we need to take into account the within student correlation between required, elective and extracurricular courses as well as the correlation between the GPA score and the number of courses failed. The main purpose of this study is the sector of High School education from which college students come - Private or Public. Because of armative action programs being implemented by the Brazilian government to include more students from Public Schools in the Universities, there is a great interest in studies of performance of undergraduate students according to the sector of High School of which they come from. The data comes from the State University of Campinas (Unicamp), a public institution, in the State of S~ao Paulo, Brazil and one of the top universities in Brazil. The socioeconomic status and academic data of more than 10,000 students admitted to Unicamp from 2000 through 2005 forms the study database.
Palavras-Chave: multivariate generalized mixed models; multivariate analysis; zero inflated models;


Modelo AMMI e AMMI ponderado na análise da Interação Genótipo x Ambiente em milho - Link direto para esse trabalho
Tatiana Oliveira Gonçalves de Assis; Carlos Tadeu dos Santos Dias; Paulo Canas Rodrigues

Características genéticas de culturas agrícolas podem ser influenciadas pelo ambiente, interferindo na produtividade. Sendo assim, pesquisadores desenvolvem estudos que visam entender como ocorre a interação genótipo e ambiente (IGA) a fim de fornecer instrumentos que possam melhorar a produtividade. Neste trabalho utilizamos o modelo de efeitos principais aditivos e interação multiplicativa (AMMI) e uma generalização deste, que permite ter em consideração a heterogeneidade da variância do erro ao longo dos ambientes, o modelo AMMI ponderado, ou W-AMMI. Os resultados mostraram que a utlização do modelo W-AMMI permite confirmar algumas relações entre genótipos e ambientes, e evitar alguns erros de modelação para ambientes com variâncias do erro muito altas ou muito baixas. Além disso, o ambiente 3 se apresentou como o mais estável utilizando o modelo W-AMMI.
Palavras-Chave: modelo AMMI; modelo W-AMMI; ensaios multi-ambientais; decomposição em valores simgulares; interação entre genótipo e ambiente;


Modelo Autoregressivo com Defasagens Distribuídas e teste de tendência Man-Kendall aplicado na análise do Índice de Radiação Ultravioleta e Ozônio total na cidade de Natal-RN - Link direto para esse trabalho
Alexandre Boleira Lopo; Maria Helena Constantino Spyrides; Paulo Sérgio Lucio

O presente trabalho realizou a modelagem do Índice de Radiação Ultravioleta (Índice UV) considerando como variável explicativa a coluna total de ozônio. A metodologia utilizou dados mensais do período de 2001 a 2012 da cidade de Natal (RN), o modelo autoregressivo com defasagens distribuídas (ADL), análise de resíduos e o teste de tendência Mann-Kendall sazonal. O modelo ADL ajustado apresentou resíduos adequados e foi usado para realizar a previsão da variabilidade do índice UV para os próximos dez anos (2013-2023). O teste de Mann-Kendall indicou para os dados observados uma estabilidade do índice UV e tendência de redução da quantidade de ozônio na cidade de Natal e para a projeção feita pelo modelo ADL do índice UV nos próximos dez anos uma tendência de elevação, no entanto e felizmente a recuperação da quantidade de ozônio como resultado do Protocolo de Montreal, em vigor desde 1989, deve conduzir a uma estabilização do índice UV e contrariar esse resultado.
Palavras-Chave: modelo ADL; análise de resíduos; protocolo de Montreal.;


Modelo Dinâmico Beta Inflacionado de Zero e Um - Link direto para esse trabalho
Leandro Tavares Correia; Cibele Queiroz da-Silva; Heleno Bolfarine

A abordagem Bayesiana de modelos dinâmicos têm se destacado como uma importante área da estatística nos últimos anos. Esta abordagem se estende através da implementação de uma equação de evolução, capaz de governar a evolução temporal dos regressores. Esta classe é capaz de abranger muitos dos principais problemas envolvendo variações no tempo e espaço, inclusive os modelos de séries temporais. Este trabalho consiste em uma extensão dos modelos dinâmico beta utilizando a distribuição beta inflacionada de zero-e-um para modelagem de séries de taxas ou proporções que incluem valores extremos.
Palavras-Chave: Modelo dinâmico; Beta inflacionada de zeros e uns; Abordagem Bayesiana; Mistura de distribuições;


Modelo Espaço-Temporal para a Análise da Abundância dos Vetores da Dengue - Link direto para esse trabalho
Ana Carolina Carioca da Costa; Aline Araújo Nobre; Cláudia Torres Codeço; Nildimar Alves Honório

Atualmente, o controle da dengue está centrado na redução da densidade vetorial, uma vez que o mosquito é o único elo vulnerável da cadeia de transmissão. O uso de novas abordagens na vigilância entomológica da dengue é de extrema relevância, tendo em vista a ineficiência dos atuais métodos de vigilância. Sob essa perspectiva, o presente estudo visa analisar, do ponto de vista bayesiano, a distribuição espaço-temporal dos índices de infestação obtidos a partir de armadilhas de oviposição e avaliar a relação entre a abundância de ovos e fatores climáticos e ambientais. A área de estudo abrangeu o campus Manguinhos da Fundação Oswaldo Cruz, localizado no Rio de Janeiro. Na região de estudo foram definidas 8 áreas sentinelas para o monitoramento contínuo de formas imaturas de Aedes aegypti e Aedes albopictus. Em cada área sentinela foram implantadas 30 armadilhas de oviposição. As coletas foram realizadas semanalmente no período de novembro de 2010 a agosto de 2012, totalizando 89 semanas. A relação entre a abundância de ovos e fatores climáticos e ambientais foi avaliada através de um modelo espaço-temporal inflacionado de zeros. A inferência paramétrica foi realizada de forma aproximada através do algoritmo INLA (Integrated Nested Laplace Approximations). Os índices de infestação indicaram a presença de oviposições ao longo de todo o período de estudo. A temperatura mínima se mostrou significativa para explicar a abundância de ovos em apenas uma área. A distância entre as armadilhas e o limite mais próximo do campus evidenciou que regiões densamente povoadas ou localizadas na proximidade de vias com tráfego intenso apresentam maior abundância de ovos. Os dados foram caracterizados por uma fraca dependência temporal e uma correlação espacial moderada. Foram detectados padrões espaciais consistentes com a densidade populacional humana em todas as áreas sentinelas. Os resultados encontrados sugerem que seria necessário conduzir a vigilância na área de estudo a partir de vistorias semanais em armadilhas alocadas, no máximo, a cada 20 metros. Embora o monitoramento realizado através de armadilhas de oviposição seja insuficiente para eliminar o principal vetor, Aedes aegypti, pode reduzir os índices de infestação. A utilização do método INLA permite que a inferência seja realizada eficientemente do ponto de vista computacional e possibilita a incorporação do modelo proposto em sistemas de vigilância e monitoramento.
Palavras-Chave: Modelagem espaço-temporal; INLA; Dengue; Vigilância entomológica; Armadilhas de oviposição;


Modelo GARCH COM MUDANÇA DE REGIME MARKOVIANO PARA SÉRIES FINANCEIRAS - Link direto para esse trabalho
WILLIAM GONZALO ROJAS DURÁN; AIRLANE PEREIRA ALENCAR

Neste trabalho analisaremos a utilização dos modelos de mudança de regime Markoviano para a variância condicional. Estes modelos podem estimar de maneira fácil e inteligente a variância condicional não observada em função da variância anterior e do regime. Utilizamos a série do índice Bovespa entre janeiro de 2003 e abril de 2012 e ajustamos o modelo GARCH(1,1) com mudança de regime seguindo uma cadeia de Markov de primeira ordem, considerando dois regimes.
Palavras-Chave: Mudança de Regime Markoviano ; Volatilidade; modelos GARCH;


Modelo Hierárquico Bayesiano Multivariado para Mapeamento da Taxa de Mortalidade por Câncer nas Microrregiões do Estado de São Paulo - Link direto para esse trabalho
Suelen Umbelino da Silva; Aparecida D. P. Souza; Vilma M. Tachibana

A modelagem de dados de área tem sido tema de diversas pesquisas em Estatística nas últimas décadas. Os modelos espaço-temporais têm sido utilizados para lidar com esse tipo de dados de um modo natural, uma vez que muitas vezes envolvem processos que têm transições no tempo e no espaço. O avanço da tecnologia e, simultaneamente, de métodos estatísticos têm permitido a elaboração de modelos cada vez mais estruturados para a descrição de fenômenos aleatórios complexos, cuja ideia é descrever, de forma realista, a estrutura de correlação presente nos dados, o que pode ser feito através do uso de modelos hierárquicos dinâmicos. Dada a importância do tema modelagem de fenômenos espaço-temporais, neste trabalho são estudadas propostas recentes apresentadas na literatura, envolvendo modelos autoregressivos condicionais multivariados para capturar a estrutura espacial e modelos dinâmicos para capturar a estrutura temporal. Como aplicação da metodologia em estudo explora-se a distribuição espacial da taxa de mortalidade pelos cânceres de maior importância quantitativa, a saber o de traqueia, brônquios e pulmão, feminino de mama, de lábios, cavidade oral e faringe, de estômago e de cólon, por microrregiões administrativas do estado de São Paulo, considerando o período 1998 até 2010. Os resultados da aplicação de um modelo bayesiano hierárquico multivariado para os dados evidenciaram as regiões centro e norte como sendo as de maior risco de mortalidade pelos cânceres estudados, além de mostrar que existe forte correlação espacial entre quatro deles, o que constitui um resultado importante para os órgãos do sistema de saúde, que tem como função direcionar e alocar recursos para o tratamento e diagnóstico de tais doenças. Como se trata de modelos com estrutura complexa, para o procedimento de inferência, são utilizados métodos de Monte Carlo via Cadeias de Markov.
Palavras-Chave: Modelo Hierárquico Bayesiano; Modelo Autorregressivo Condicional (CAR) Multivariado; Simulação Estocástica; Taxa de Mortalidade por Câncer;


Modelo Hierárquico Log-Logístico Aplicado ao Estudo do Tempo de Vida de Pacientes Tratados com Antifúngicos - Link direto para esse trabalho
Simone Demeis Braguim, Carlos Aparecido dos Santos

Descoberta na década de 1990, a Linezolida foi liberada para uso em alguns países a partir de 2000, sendo que, no Brasil, esta droga começou a ser utilizada apenas em 2007. Por ser um antibiótico sintético de amplo aspectro e, em geral, bacteriostático, seu uso por curto período de tempo e considerado seguro. Entretanto, o uso da droga de forma indiscriminada vem preocupando os pesquisadores da área médica ja que não se conhece todos dos possíveis efeitos a longo prazo. Com o intuito de estudar o tempo de uso deste antibiótico, além dos efeitos causados por este, foram coletados dados de pacientes sob tratamento entre os anos de 2008 a 2010 no Hospital Universitário de Maringá (HUM). Neste estudo consideramos a variável resposta tempo de internamento dos pacientes na UTI e para descrever o comportamento desta, foi proposto o modelo hierárquico log-logístico. Para estimação dos parâmetros foram geradas três cadeias usando para isto métodos MCMC. Além disso, gráficos e alguns testes foram considerados para análise do ajuste e convergência destas cadeias.
Palavras-Chave: Análise Bayesiana; Modelo Hierárquico; Log-Logístico;


Modelo Hierárquico Robusto para o Risco Coletivo - Link direto para esse trabalho
Pamela Massiel Chiroque Solano; Fernando Antonio da Silva Moura

Neste trabalho propõem-se modelos hierárquicos robustos para o risco coletivo com sobredispersão e sob o paradigma bayesiano. Deste modo, obtém-se estimadores robustos do prêmio de um seguro que não são muito influenciados pelas observações aberrantes e nem pela sobredispersão. Assume-se que os valores agregados dos sinistros tenham uma distribuição com cauda à direita mais pesada do que a usualmente empregada. Em particular, consideramos que a distribuição do logaritmo dos valores agregados dos sinistros seguem uma distribuição T-student. Uma distribuição a priori de Jeffreys para o grau de liberdade é obtida e examinada. Além disso, propõe-se uma modificação na distribuição do número de sinistros para incorporar uma possível sobredispersão. Uma distribuição a priori de referência para o parâmetro de sobredispersão é obtida e analisada. Com o objetivo de calcular o prêmio justo, usando a teoria de decisão bayesiana, adota-se a função de utilidade "Desvio absoluto modificado", sendo esta adequada para dados com valores aberrantes. Para avaliar a capacidade preditiva do modelo e a estimação dos parâmetros, uma análise com dados simulados é realizada. Finalmente, apresenta-se uma aplicação para um conjunto de dados reais. A comparação de modelos e o cálculo do valor do prêmio são feitos considerando-se a distribuição preditiva a qual incorpora toda a incerteza envolvida.
Palavras-Chave: priori de Jeffreys, ; priori de referência; teoria de decisão; CRPS (Continuous ranked probability score); DIC, Bayes Fator;


Modelo Logístico Misto com Distribuições Normais Independentes para os Efeitos Aleatórios - Link direto para esse trabalho
Cristiano de Carvalho Santos; Rosangela Helena Loschi

O modelo de regressão logística tem sido o método padrão para analisar respostas binárias que ocorrem em diversas áreas ciência. No entanto, seu uso não é recomendável para modelar dados binários de estudos clusterizados, multinível ou longitudinais, pois o modelo é construído considerando que as observações são independentes. O modelo logístico misto, obtido através da introdução de efeitos aleatórios, é uma boa alternativa para modelar a probabilidade de sucesso em situações em que os dados binários são correlacionados. Os efeitos aleatórios também são úteis para acomodar uma eventual variabilidade extra e para representar o efeito das variáveis explicativas que não foram medidas. Assume-se, em geral, que os efeitos aleatórios são normalmente distribuídos e independentes, mas em alguns casos esta suposição pode não ser adequada. Neste trabalho vamos considerar que os efeitos aleatórios possuem uma distribuição na classe Normal Independente. Esta classe de distribuições é formada por distribuições originadas de misturas na escala da distribuição Normal e inclui, além da Normal, as distribuições t-Student, Slash e Normal Contaminada. Estas distribuições são amplamente utilizadas na literatura para modelar dados com presença de valores atípicos, pois possuem caudas mais pesadas do que a distribuição Normal. Utilizamos o algoritmo EM Monte Carlo (EMMC) para estimar os parâmetros de interesse. Este algoritmo é uma alternativa ao algoritmo EM para as situações em que a esperança presente no passo E do algoritmo EM não possui forma analítica conhecida. Para avaliar a implementação computacional do modelo proposto, consideramos um pequeno estudo com dados simulados em que os efeitos aleatórios são gerados de uma distribuição com caudas pesadas e são ajustados modelos considerando as distribuições Normal, t-Student e Normal Contaminada para os efeitos aleatórios. Os autores agradecem a CAPES, FAPEMIG e CNPq pelo apoio financeiro na realização deste trabalho.
Palavras-Chave: Modelos Mistos; Modelo Logístico Misto; Distribuições Normais Independentes; Algoritmo EM Monte Carlo; Efeitos Aleatórios;


Modelo de Classificação de Risco de Crédito e Cálculo da Probabilidade de Descumprimento (PD) - Link direto para esse trabalho
Aline Rodrigues Machado; Douglas Campos; Fabio Augusto Scalet Medina; Edson Luiz de Carvalho Barbosa

Por meio da Circular no 3.648, de 4 de março de 2013, o BACEN estabeleceu os requisitos mínimos para o cálculo da parcela relativa às exposições ao risco de crédito sujeitas ao cálculo do requerimento de capital mediante sistemas internos de classificação do risco de crédito (abordagens IRB). No capítulo VI da referida norma, o BACEN discorre sobre a categoria varejo e logo na Seção I já define grupos homogêneos de risco. Segundo os preceitos de Basiléia II, o parâmetro PD deve ser calculado para cada grupo homogêneo. O objetivo desse trabalho é apresentar uma proposta metodológica para classificação de exposições de varejo em grupos homogêneos de risco utilizando a técnica Árvore de Decisão e estimação do parâmetro PD para cada grupo homogêneo via Boostrap. Os grupos homogêneos criados ficaram coerentes e mostraram-se diferenciados com relação às estimativas de PD. Assim, cumpriu-se o objetivo desse estudo e o estabelecido na referida circular e comprovou-se que as técnicas Árvore de Decisão e Bootstrap são eficientes e robustas para segregar uma carteira de exposições em Grupos Homogêneos de Risco e cálculo da PD.
Palavras-Chave: Árvore de Decisão; Bootstrap; Basiléia II; Grupos Homogêneos de Risco; Probabilidade de Descumprimento;


Modelo de Decisão Bayesiana para Portfolio de Investimentos - Link direto para esse trabalho
Patrícia Viana da Silva; Kamylla Rodrigues Leandro

Os investimentos em ativos financeiros envolvem decisões sobre onde e como aplicar o patrimônio de acordo com o risco de mercado, ou seja, dependendo do comportamento do investidor frente ao risco que deve ser assumido para obter o retorno desejado. Tanto para o especulador quanto para o pequeno investidor a garantia de preservação ou de evolução do patrimônio depende do risco assumido. Uma forma de definir esse risco é verificar como se comporta a variação dos retornos do ativo ao longo do tempo. Neste trabalho, o problema se refere a escolha de uma carteira de investimentos com base em indicadores econômicos. Um modelo empírico é utilizado e também um modelo normal multivariado ambos com base em Teoria da Decisão e Inferência Bayesiana. São propostas funções de perda em função do ganho esperado do investidor e uma aplicação é apresentada para os ativos Índice de Energia Elétrica (IEE) e IBOVESPA considerando o Índice Geral de Preços do Mercado (IGP-M). Os dados utilizados são referentes ao período de abril de 2011 a março de 2013.
Palavras-Chave: Inferência Bayesiana; Teoria da Decisão; Risco de Bayes; IEE; IBOVESPA;


Modelo de Rating Scoring Utilizando Regressão Logística - Link direto para esse trabalho
Elton Gonçalves Teixeira; Felipe Nôvo Nino; Lisiane Priscila Roldão Selau

A demanda por crédito está cada vez maior, seja por necessidade, por oportunidade ou até mesmo pela facilidade. Muitas empresas buscam crédito para reformarem seus estabelecimentos, abrir novos pontos, realizar pagamentos de folha, abastecer o estoque, entre outros motivos. Em dezembro de 1999 o Banco Central do Brasil torna pública a Resolução 2.682/99 do Conselho Monetário Nacional onde determina que as instituições financeiras e demais instituições autorizadas a funcionar por esta autarquia devem classificar as operações de crédito em ordem crescente de risco. Nesse sentido, o objetivo deste estudo é propor um modelo de classificação de operações de crédito (Rating Scoring) baseado em dados cadastrais de pessoas jurídicas, utilizando a técnica de regressão logística. Os percentuais para provisão obtidos com o modelo construído são bastante próximos aos estipulados pela resolução.
Palavras-Chave: Regressão Logistica; Rating Scoring; Resolução 2.682/99; Pessoa Jurídica;


Modelo de Regressão Beta com Erro de Medida Multiplicativo Log-Normal - Link direto para esse trabalho
Eveliny Barroso da Silva; Carlos Alberto Ribeiro Diniz; Jalmar Manuel Farfan Carrasco

Neste trabalho, propomos o modelo de regressão beta com erro de medida multiplicativo log-normal. Alguns métodos de estimação são estudados. Tais métodos têm como princípio a estimação por máxima pseudo-verossimilhança. Para controlar problemas de identificabilidade do modelo, que é usual é modelos com erro de medida nas variáveis, estimamos a variância do erro de medida via dados replicados. Um estudo de simulação foi feito para ilustrar os resultados das estimações para cada método.
Palavras-Chave: Modelos de regressão beta; modelos com erros nas covariáveis; pseudo-verossimilhança;


Modelo de Regressão Beta: abordagens paramétrica e semiparamétrica - Link direto para esse trabalho
Alisson de Oliveira Silva; Jodavid de Araújo Ferreira; Camila Ribeiro da Silva.

Com a redução da mortalidade infantil pós-neonatal, principalmente por intervenções nos seus principais fatores a exemplo das doencas diarréicas, a mortalidade infantil neonatal precoce que compreende as mortes no período de 0 a 7 dias de vida, passou a ser o principal componente responsável por mais da metade dos óbitos no primeiro ano de vida. No Brasil nota-se uma grande disparidade das desigualdades sociais, sendo um fator decisivo para que a mortalidade infantil neonatal precoce ocorra de maneira diferenciada nas regiões do país, concentrando as maiores taxas no eixo Norte-Nordeste e em menores proporções no Centro-Sul. Com base nisso, realizou-se uma comparação dos modelos de regressão beta e beta semiparamétrico com base na estrutura dos modelos aditivos generalizados para posição, escala e forma (GAMLSS) a fi m de identi ficar os principais fatores de risco dessas taxas. Com base nos critérios AIC, BIC, GD e pseudo-R2 constatou-se a superioridade do modelo beta semiparamétrico.
Palavras-Chave: Mortalidade infantil; Mortalidade infantil neonatal precoce; Regressão beta; GAMLSS;


Modelo de Risco com Dependência entre os Valores das Indenizações e seus Intervalos entre Ocorrências - Link direto para esse trabalho
Anna Rafaella da Silva Marinho; Debora Borges Ferreira

Apresentamos um modelo de risco dependente para descrever o excedente de uma carteira de seguros, com base no artigo ''A ruin model with dependence between claim sizes and claim intervals" (Albrecher e Boxma). Obtemos uma expressão exata para a probabilidade de sobrevivência através da Transformada de Laplace da função de sobrevivência do superávit. Ilustramos os resultados obtidos através de exemplos numéricos e investigamos o que acontece ao se ignorar a estrutura de dependência presente no modelo. Estudamos também a probabilidade de sobrevivência para indenizações que possuem distribuição do Tipo Fase, considerando que esta é uma classe de distribuições, computacionalmente tratáveis, bem mais geral.
Palavras-Chave: Probabilidade de Sobrevivência; Carteira de Seguros; Transformada de Laplace; Modelo Dependente; Distribuições do Tipo Fase;


Modelo de análise de sobrevivência para avaliações audiométricas de motoristas de uma empresa agrícola - Link direto para esse trabalho
Miriam Harumi Tsunemi; Fernanda Zucki; Renata Fernandes

A prevenção da perda auditiva em ambiente de trabalho é de grande importância por ser uma doença irreversível e que afeta negativamente a qualidade de vida do indivíduo. Nesta pesquisa, avaliaram-se os prontuários de motoristas com queixas auditivas de uma empresa do ramo agrícola do município de Lençóis Paulista/SP baseado no Programa de Prevenção de Riscos Ambientais. As informações avaliadas foram idade, tempo de exposição ao ruído e aos hidrocarbonetos e exames de audiometria tonal liminar de referência. Com o objetivo de avaliar a influência da idade e do tempo de exposição do hidrocarboneto sobre os limiares auditivos, ajustaram-se os modelos de sobrevivência para dados grupados (riscos proporcionais e logístico) apresentados por Colosimo e Giolo (2006) pois os limiares apresentam escalas fixas. A partir desse modelo, verificou-se que os efeitos da idade e do tempo de exposição ao ruído combinado ao hidrocarboneto foram significativos na perda de audição nos modelos de riscos proporcionais e logísticos e, desse modo, salienta-se a importância de ações voltadas na prevenção da exposição dos trabalhadores a esses fatores de risco.
Palavras-Chave: dados audiométricos; análise de sobrevivência para dados grupados; perda de audição;


Modelo de calibração polinomial de ordem 2: aplicado na Química Analítica. - Link direto para esse trabalho
Betsabé Grimalda Blas Achic; Danillo Magalhães Xavier Assunção

O modelo de calibração linear simples é muito utilizado em diversas áreas de estudo, por exemplo, na física esse modelo é usado na calibração de instrumentos para mensuração de quantidades físicas. Na química analítica utilizamos o modelo de calibração para estimar e obter informações sobre concentrações ou quantidades de substâncias bem como associar medidas empíricas. Nesse processo temos dois estágios, no primeiro os valores de uma variável aleatória dependente (variável reposta) Y correspondem a n valores pré-estabelecidos de uma variável explicativa ou independente X, são observados para estimarmos a função que associa as duas variáveis. Já no segundo estágio, são observados r valores da variável aleatória independente Yo correspondente a um valor desconhecido Xo, que é uma concentração desconhecida de uma solução, assim o principal interesse é estimar Xo, levando em conta as informações de ambos os estágios.
Palavras-Chave: modelo de calibração quadrático; estimador inverso; curva analítica; química analítica;


Modelo de mistura com efeitos aleatórios bivariados: usando outras ligações na cura - Link direto para esse trabalho
Diego I. Gallardo Mateluna; Heleno Bolfarine; Antonio C. Pedroso de Lima

A maioria dos estudos com fração de cura no contexto de análise de sobrevivência relacionam a chance de cura com as covariáveis usando a ligação logística, a qual é simétrica. Outras alternativas na literatura são a ligação probito (também simétrica) e a ligação complementar log-log. Nós avaliamos o uso de ligações assimétricas desde que o principal objetivo do estudo seja a estimação da fração de cura. Adicionalmente, nós supomos que os indivíduos são tratados em clínicas e que cada clínica pode ter um efeito sobre os pacientes curados e também os não curados. É implementado o algoritmo EM conjugado com um procedimento de estimação REML no passo M. Comparação de modelos é feita através de AIC e BIC. Um estudo de simulação é conduzido e também é apresentado uma aplicação a um banco de dados de literatura.
Palavras-Chave: Modelo de mistura; Efeitos aleatórios bivariados; REML; fração de cura;


Modelo de regressão Sinh-Normal - Link direto para esse trabalho
Rocío Paola Maehara Sánchez, Filidor Edilfonso Vilca Labra

A família de distribuições Sinh-Normal é uma classe de distribuições simétricas com três parâmetros, e devido à presença destes parâmetros esta família é flexível. Quando a distribuição Sinh-Normal é unimodal, esta distribuição pode ser utilizada em lugar da distribuição normal, e consequentemente nos modelos de regressão. Uma subclasse das distribuições e o log-transformação da distribuição de tempo de fadiga Birnbaum-Saunders. Assim, várias propriedades da distribuição Birnbaum-Saunders e algumas generalizações podem ser obtidas. O principal objetivo deste trabalho é estudar alguns aspectos de estimação e análise de diagnóstico no modelo de regressão Sinh-Normal. A análise de diagnóstico baseia-se na metodologia de Cook (1986). Um análise de dados é realizado para ver como o modelo proposto pode ser utilizado na prática.
Palavras-Chave: Sinh-Normal; Análise de diagnóstico; Influência local; Esquemas de perturbação;


Modelo de regressão autoregressivo Binomial bivariado inflacionado de zeros - Link direto para esse trabalho
Natália Manduca Ferreira; Carlos Alberto Ribeiro Diniz

Problemas envolvendo dados de contagem podem resultar em conjunto de dados com uma grande quantidade de zeros. Quando utilizamos distribuicões usuais, como Poisson, Binomial ou Binomial Negativa, em conjuntos com excesso de zeros, análises estatísticas podem apresentar-se errôneas. As distribuições mais indicadas para este caso são as compostas por uma mistura de distribuições, sendo uma degenerada no ponto zero e outra que se adequaria aos dados caso não houvesse a inflação de zeros. Neste artigo utilizaremos a distribuição Binomial bivariada inflacionada de zeros para construir o modelo de regressão autoregressivo Binomial bivariado inflacionado de zeros. A estrutura de regressão é modelada por meio de uma função de ligação. Uma estrutura de correlação autoregressiva é assumida nos componentes aleatórios que compõem o modelo a ser utilizado. A estimação dos parâmetros é feita via algoritmo EM, sendo a parte computacional realizada em linguagem Ox.
Palavras-Chave: Modelos zero inflacionados; Binomial bivariada; efeito aleatório;


Modelo de regressão bivariado Bernoulli-exponencial - Link direto para esse trabalho
Willian Luís de Oliveira; Carlos Alberto Ribeiro Diniz

Neste artigo, apresentamos um novo modelo bivariado misto em que a distribuição da variável resposta discreta é assumida Bernoulli enquanto que a distribuição da variável resposta contínua, condicionada a variável discreta, segue distribuição exponencial. Assumimos que a estrutura da média da variável contínua, condicionada a variável discreta, é baseada na distribuição exponencial bivariada Gumbel tipo I. Desta forma, a dependência entre as variáveis resposta é inserida na estrutura do modelo. Apresentamos as equações de estimação e a matriz de informação observada utilizadas pelo método Newton-Raphson, necessário para encontrar as estimativas de máxima verossimilhança dos parâmetros do modelo. Então, realizamos um estudo de simulação com o objetivo de analisar o comportamento das estimativas de máxima verossimilhança em alguns cenários predeterminados. Por fim, ajustamos o modelo proposto a um conjunto de dados reais, relacionado a internações em hospital. Toda parte computacional é desenvolvida em linguagem R (R Core Team, 2013).
Palavras-Chave: Modelos bivariados; Dependência entre variáveis resposta; Modelos mistos;


Modelo de sobrevivência de Cox aplicado na seleção genômica ampla de suínos - Link direto para esse trabalho
Vinicius Silva dos Santos; Marcos Deon Vilela de Resende; Fabyano Fonseca e Silva; Sebastião Martins Filho; Elisabeth Regina de Toledo

Este trabalho teve o objetivo de comparar as metodologias de seleção genômica via BLUP (GBLUP) usando o modelo linear misto normal e o modelo de sobrevivência de Cox, aplicados aos dados reais de idade ao abate de uma população F2 de suínos, em que a variável resposta foi o tempo em dias, do nascimento até o abate do animal e as covariáveis: 238 marcadores SNPs, sexo e lote de manejo. Os dados foram previamente corrigidos para seus efeitos fixos e a acurácia do método foi calculada com base na correlação dos postos dos valores genéticos genômicos preditos em ambos os modelos com os valores fenotípicos corrigidos. A análise foi repetida considerando menor número de marcadores SNPs que apresentassem maiores efeitos em módulo. Os resultados demonstraram concordância na predição dos valores genéticos genômicos e na estimação dos efeitos de marcadores para ambos os modelos na situação de dados não censurados e normalidade. A seleção de marcas permitiu um aumento nas correlações entre os postos dos valores genéticos genômicos preditos pelo modelo linear e pelo modelo de fragilidade de Cox com os valores fenotípicos corrigidos, sendo que para a característica analisada, 120 marcadores foram suficientes para maximizar a capacidade preditiva.
Palavras-Chave: fragilidade; dados censurados; modelos mistos; SNP;


Modelo log-gama generalizado com fração de cura: implementação computacional - Link direto para esse trabalho
Rumenick Pereira da Silva; Dione Maria Valença

Em análise de sobrevivência a variável em estudo, comumente, é o tempo até a ocorrência de um determinado evento de interesse. Este tempo é denominado tempo de vida ou de falha e pode ser, por exemplo, o tempo até que um paciente venha a óbito devido a alguma doença, ou ainda o tempo até que um cliente abandone uma determinada instituição financeira. A teoria usual assume que, se observado por um longo período de tempo todos os indivíduos irão falhar em algum momento. Mas, em algumas situações uma proporção da população pode não estar mais sujeita à ocorrência deste evento e, por mais longo que seja o tempo de observação, o evento nunca ocorrerá para esta parte da população. Neste sentido, alguns modelos foram propostos e são conhecidos na literatura como modelos com fração de cura ou com longa duração. Tendo em vista estes aspectos o objetivo deste trabalho é propor uma rotina amigável em linguagem R através do pacote flexsurv (JAKSON, 2014) para estimar os parâmetros do modelo log-gama generalizado com fração de cura e avaliar via simulação o desempenho destas implementações, considerando diferentes cenários. Nota-se que, os resultados das simulações foram satisfatórios, pois para todos os cenários as médias das estimativas dos parâmetros associados, respectivamente, a fração de cura e o tempo médio foram bem próximas do verdadeiro valor, e seus respectivos EP e REQM foram valores relativamente pequenos e próximos, o que garante a pouca variabilidade das estimativas das réplicas e pequenos vieses.
Palavras-Chave: Análise de Sobrevivência; flexsurv versus implementação computacional; Modelos log-gama generalizado com fração de cura; Estudo de simulação e aplicação;


Modelo unibimodal simétrico-asimétrico con aplicación al estudio del VIH - Link direto para esse trabalho
Guillermo Martínez-Florez; Germán Moreno-Arenas; Solange Lugo-Buitrago

Se definen dos nuevas distribuciones de probabilidad: modelo unibimodal simétrico con función de riesgo proporcional a la distribución normal y modelo unibimodal asimétrico con función de riesgo proporcional a la distribución normal asimétrica. Estos modelos permiten ajustar datos censurados con comportamiento bimodal y altos (o bajos) niveles de curtosis comparado con la curtosis de la distribución normal y altos (o bajos) niveles de asimetría. Además, se estiman los parámetros de los modelos por máxima verosimilitud y se determina la matriz de información observada. La flexibilidad de la nueva distribución se ilustra ajustando un conjunto de datos reales: el número de moléculas de ARN VIH-1 por mililitros de sangre medida en personas con pruebas confirmadas de presencia del VIH.
Palavras-Chave: Bimodalidad; Límite de detección; Función de riesgo proporcional; ARN VIH-1; HAART;


Modelos Aditivos Generalizados Funcionais: método de estimação e predição para respostas binárias - Link direto para esse trabalho
José Roberto Silva dos Santos; Larissa Ávila Matos; Julián A. Collazos

Neste trabalho estudamos o modelo aditivo generalizado funcional (FGAM) proposto por Febrero-Bande e Gonzáles-Manteiga (2012). Tal modelo constitui-se em uma extensão dos modelos aditivos generalizados multivariados que permite lidar com covariáveis funcionais. Apresentamos uma versão do algoritmo "local scoring and backfitting" que permite o tratamento de dados funcionais e a estimação não-paramétrica da função de ligação. Comparamos a performance do modelo FGAM e do método de estimação com outras propostas existentes na literatura, considerando resposta binária. As simulações apontaram que o modelo FGAM superou os demais modelos na maioria dos cenários analisados. Por último, uma aplicação ao conjunto de dados Tecator (Ferraty e Vieu, 2006) é apresentada.
Palavras-Chave: Dados Funcionais; Modelos Aditivos Generalizados; Modelos Lineares Generalizados;


Modelos Combinados AR-GARCH governados por distribuicões estáveis - Link direto para esse trabalho
Thiago do Rêgo Sousa

Estendemos a aplicação do modelo combinado AR-GARCH governado por distribuicões GEV e apresentado por Zhao et. al. (2011) para um modelo governado por distribuicões estaveis, ja que estas distribuicões podem ser utilizadas para modelar dados de finanças, incluindo os eventos extremos. Exploramos o método Bayesiano e de Máxima verossimilhança para estimação dos modelos com inovações GEV e estável. Posteriormente, investigamos as condicões de estacionariedade de um modelo mais geral ARMA- power-GARCH com inovacões estáveis proposto por Rachev et. al. (2002) e derivamos as condicões de estacionariedade para um modelo assimetrico ARMA-APARCH com inovacões estaveis. A estimação do modelo geral ARMA-APARCH com inovações GEV e estável foi mplementada em um novo pacote chamado GEVStableGarch disponível no CRAN do software R.
Palavras-Chave: ARMA; GARCH; Distribuições estáveis; GEV; Estacionariedade;


Modelos Gaussianos e lineares generalizados estendidos para previsão de demanda da quantidade de chamadas em centrais de teleatendimento: um estudo de caso - Link direto para esse trabalho
Claudio Lopes; Marcelo Azevedo; Ela Toscano

O objetivo deste artigo é apresentar e comparar modelos Gaussianos, modelos lineares generalizados e modelos GARMA para a previsão da demanda de quantidade de chamadas recebidas em centrais de teleatendimento. O artigo avalia o uso de modelos lineares generalizados e suas extensões que visam tratar a auto-correlação existente nas series temporais. Um estudo de caso é utilizado para exemplificar a utilização dos modelos propostos, assim como apresentar o modelo GARMA como o melhor candidato em previsão para o estudo de caso.
Palavras-Chave: Series temporais; Modelos lineares generalizados; Modelos GARMA; Previsão de demanda; Centrais de teleatendimento;


Modelos Probabilísticos Para Pacientes com Câncer do Colo do Útero, no Estado do Pará no Período de Janeiro de 2011 a Dezembro de 2013 - Link direto para esse trabalho
Adelaine Brandão Soares; Elissandra Sobreira de Araujo Souza; Sandra Souza Lima

O objetivo deste trabalho é analisar estatisticamente as internações de pacientes com câncer do colo do útero e identificar os fatores de risco que contribuem para o óbito, em um hospital de referência no estado do Pará, no período de 2011 a 2013. Foram analisadas 790 internações de pacientes, oriundos da região metropolitana de Belém e da região nordeste do estado do Pará, realizada hospital de referência estadual. Foi utilizada a análise de regressão logística múltipla para identificar os fatores de risco que contribuem para o óbito. A taxa de óbito nas internações foi de 25%, a faixa etária com maior frequência foi de 40 a 49 anos (27%), o tempo médio de internação foi de 16,47 dias e 54% moravam na região metropolitana de Belém. Os pacientes que residiam na região metropolitana têm 1,72 vezes mais chance de ir a óbito do que os pacientes que moravam na zona urbana. A chance de ocorrência de o óbito ser maior em pacientes residentes na capital do que no interior, pode ser justificado pela dificuldade de acesso das pacientes, do interior do estado, tem em conseguir ser internada.
Palavras-Chave: câncer do colo do útero; ocorrência de óbito; Regressão Logística Binária;


Modelos Semiparamétricos com Resposta Binomial Negativa - Link direto para esse trabalho
Fábio H. Oki; Gilberto A. Paula

Neste trabalho são apresentados métodos de diagnóstico em modelos semiparamétricos com resposta binomial negativa. Foi considerado o modelo com somente uma variável explicativa não paramétrica que foi ajustada através de splines cúbicos. As estimativas de máxima verossimilhança penalizadas foram obtidas através de um procedimento de estimação tipo backfitting. Gráficos normais de probabilidade para o resíduo componente do desvio com bandas de confiança simuladas e diagnóstico de influência local foram desenvolvidos para avaliar a adequabilidade do modelo ajustado e a sensibilidade das estimativas. Finalmente, é apresentado um exemplo ilustrativo em que a máxima diária da concentração média de ozônio por hora (em ppm) em Los Angeles é ajustada através de um modelo com resposta binomial negativa.
Palavras-Chave: modelos semiparamétricos; spline cúbico; iInfluência local;


Modelos Weibull generalizada e log-normal generalizada para dados grupados e censurados: uma aplica - Link direto para esse trabalho
Liciana Vaz de Arruda Silveira; Jose Nilton da Cruzy; Jose Eduardo Corrente; Tânia Ruiz; José Raimundo de Souza Passos

O envelhecimento populacional, fato incontestável da demografia brasileira nas últimas décadas, tornou o estudo dos idosos da maior importância para o planejamento social da população que desponta neste século com este novo perfil. A literatura refere-se a diferença na sobrevivência de coortes de idosos observados segundo algumas variáveis. No município de Botucatu, São Paulo foram conduzidos inquéritos populacionais nos anos de 2003, 2006 e 2010, com o objetivo de avaliar a sobrevida de idosos (Ruiz et al, 2006). Os dados obtidos com este estudo presentaram muitos empates, sendo assim, resolveu-se tratá-los como grupados (Chalita et al, 2002). Assim, o objetivo deste trabalho foi desenvolver a análise de dados de sobrevivência para modelos paramétricos mais gerais, tais como, Weibull generalizada e log-normal generalizada, para dados grupados e censurados e aplicá-los aos dados da coorte de idosos, considerando como "eventos" a morte por todas as causas e algumas especiais. O uso destes modelos torna-se uma alternativa interessante ao modelo de riscos proporcionais de Cox podendo resultar em melhores ajustes. Os modelos, de Cox, Weibul generalizada e log-normal generalizada, foram aplicados aos dados e comparados os seus ajustes através do critério de informação de Akaike (AIC). A análise foi feita separadamente para cada gênero, pois os segmentos feminino e masculino da população apresentam comportamentos bastante distintos com relação a sobrevida. Comparando os valores de critério AIC, o modelo Weibull generalizado se ajustou melhor os dados, considerando-se cada sexo. As co-variáveis ​​que foram importantes na definição do modelo de Weibull generalizado foram no caso do sexo feminino, mais velhos do que 69 anos (p < 0,0001), diabetes (p = 0,0029) e têm doença cardiovascular (p <0,0001) e, no caso do sexo masculino, idade mais de 69 anos (p = 0,0002), diabetes (p = 0,0008), com doença circulatória (p <0,0001) e ter outra fonte de renda (p = 0,0259).
Palavras-Chave: modelo de Cox; Sobrevida de idosos; modelo lognormal generalizada;


Modelos da Teoria de Resposta ao Item Multidimensionais Assimétricos de Grupos Múltiplos para Respostas Dicotômicas sob um Enfoque Bayesiano - Link direto para esse trabalho
Juan Leonardo Padilla Gomez; Caio Lucidius Naberezny Azevedo

No presente trabalho propõe-se novos modelos da Teoria de Resposta ao Item Multidimensional (TRIM) para respostas dicotômicas ou dicotomizadas considerando uma estrutura de grupos múltiplos. Para as distribuições dos traços latentes de cada grupo, propõe-se uma nova parametrização da distribuição normal assimétrica multivariada centrada, que combina as propostas de Lachos (2004) e de Arellano-Valle et.al (2008), a qual não só garante a identificabilidade dos modelos aqui introduzidos, mas também facilita a interpretação e estimação dos seus parâmetros. Portanto, nosso modelo representa uma alternativa interessante, para solucionar os problemas de falta de identificabilidade encontrados por Matos (2010) e Nojosa (2008), nos modelos multidimensionais assimétricos de um único grupo por eles desenvolvidos. Estudos de simulação, considerando vários cenários de interesse prático, foram conduzidos a fim de avaliar o potencial da tríade: modelagem, métodos de estimação e ferramentas de diagnósticos. Os resultados indicam que os modelos considerando a assimetria nos traços latentes, em geral, forneceram estimativas mais acuradas que os modelos tradicionais. Para a seleção de modelos, utilizou-se o critério de informação deviance (DIC), os valores esperados do critério de informação de Akaike (EAIC) e o critério de informação bayesiano (EBIC). Em relação à verificação da qualidade do ajuste de modelos, explorou-se alguns métodos de checagem preditiva a posteriori, os quais fornecem meios para avaliar a qualidade tanto do instrumento de medida, quanto o ajuste do modelo de um ponto de vista global e em relação à suposições específicas, entre elas a dimensão do teste. Com relação aos métodos de estimação, adaptou-se e implementou-se vários algoritmos MCMC propostos na literatura para outros modelos, inclusive a proposta de aceleração de convergência de González (2004), os quais foram comparados em relação aos aspectos de qualidade de convergência através do critério de tamanho efetivo da amostra de Sahu (2002). A análise de um conjunto de dados reais, referente à primeira fase do vestibular da UNICAMP de 2013 também foi realizada.
Palavras-Chave: Teoria de Resposta ao Ítem Multidimensional; Inferência Bayesiana; Identificabilidade; Distribuição Normal Assimétrica Multivariada; Parametrização Centrada;


Modelos da Teoria de Resposta ao Item assimétricos de grupos múltiplos para respostas politômicas nominais e ordinais sob um enfoque bayesiano - Link direto para esse trabalho
Eduardo Vargas Ferreira; Caio Lucidius Naberezny Azevedo

No presente trabalho propõem-se novos modelos da Teoria de Resposta ao Item para respostas politômicas nominais e ordinais (graduais), via dados aumentados, para grupos múltiplos. Para a modelagem das distribuições dos traços latentes de cada grupo, considera-se normais assimétricas centradas. Tal abordagem, além de acomodar a característica de assimetria aos dados, ajuda a garantir a identificabilidade dos modelos estudados, a qual é tratada tanto sob a ótica frequentista quanto bayesiana. Com relação aos métodos de estimação, desenvolveu-se procedimentos bayesianos através de algoritmos de Monte Carlo via cadeias de Markov (MCMC), utilizando o algoritmo de Gibbs (DAGS), com a verossimilhança aumentada (dados aumentados) e Metropolis-Hastings, considerando a verossimilhança original. As implementações computacionais foram escritas em linguagem C++, integradas ao ambiente computacional, gráfico e estatístico R, viabilizando rotinas gratuitas, de código aberto e alta velocidade no processamento, essenciais à difusão de tais metodologias. Para a seleção de modelos, utilizou-se o critério de informação deviance (DIC), os valores esperados do critério de informação de Akaike (EAIC) e o critério de informação bayesiano (EBIC). Em relação à verificação da qualidade do ajuste de modelos, explorou-se a checagem preditiva a posteriori, que fornece meios concretos de se avaliar a qualidade do instrumento de medida (prova, questionário etc), qualidade do ajuste do modelo de um modo global, além de indícios de violações de suposições específicas. Estudos de simulação, considerando diversas situações de interesse prático, indicam que os modelos e métodos de estimação produzem resultados bastante satisfatórios, com superioridade dos modelos assimétricos com relação ao simétrico (o qual assume simetria das distribuições das variáveis latentes). A análise de um conjunto de dados reais, referente à primeira fase do vestibular da UNICAMP de 2013, ilustra o potencial da tríade: modelagem, métodos de estimação e ferramentas de diagnósticos, desenvolvida neste trabalho.
Palavras-Chave: Teoria da resposta ao item; Modelos politômicos; Distribuição normal assimétrica; Algoritmos MCMC; Dados aumentados;


Modelos de Box e Jenkins de previsão para uma série de precipitação da cidade de Pedro Afonso - TO. - Link direto para esse trabalho
Bruno S. CASTRO; Roziane S. SANTOS; Vania C. MOTA; Fernando L. CARDOSO4.

Tem-se observado o crescente aumento de estudos relacionados à área de microclima, sendo que, uma das principais variáveis analisada é a precipitação, pois ela exerce grande influencia no regime climático de uma região, com implicação direta sobre o balaço hídrico e, uma intervenção indireta na temperatura do ar, do solo, na umidade e na radiação incidente. Vários trabalhos buscam explicar e entender essa variável através métodos estatísticos. Este trabalho tem como objetivo modelar uma série de precipitação mensal da cidade de Pedro Afonso - Tocantins para o período de março de 1994 até dezembro de 2011 através da metodologia de Box e Jenkins. A seleção desta cidade se deu por ter uma base de dados razoável para aplicação desta metodologia. Os dados para este estudo foram obtidos no Banco de Dados Meteorológicos para Ensino e Pesquisa - BDMEP. Para estimativa do modelo de Box e Jenkins foi proposto um modelo SARIMA(p,d,q)x(P,D,Q)S. O melhor ajuste foi um modelo ARMA((8,12),(11,12))12. Contudo, neste trabalho ainda não foi possível encontrar um modelo de séries temporais que atenda todos os pressupostos. Logo, ainda é preciso mais estudos entre a metodologia de Box e Jenkins e a variável precipitação para encontrar um modelo que possa atender todos os pressupostos.
Palavras-Chave: Box e Jenkins; Serie Temporal; Precipitação;


Modelos de Mistura de Distribuições para Populações Heterogêneas - Link direto para esse trabalho
Carolina Valani Cavalcante; Kelly Cristina Mota Gonçalves

Modelos de mistura de distribuições são de grande aplicabilidade em problemas de modelagem de fenômenos observados em populações que se comportam de maneira heterogênea, ou seja, são compostas por subpopulações. Durante esta monogra fia realiza-se um estudo acerca do ajuste desta classe de modelos, com base na abordagem Bayesiana, para dois casos distintos, o caso em que o número de subpopulações é conhecido e quando este é desconhecido. Para tanto são apresentados os principais conceitos de Inferência Bayesiana úteis para o desenvolvimento deste trabalho. Em particular, o interesse concentra-se na inferência acerca de modelos de mistura Normais univariados. Neste caso, como a distribuição a posteriori do vetor paramétrico tem forma analtica desconhecida são necessários algoritmos de simulação estocástica, como os métodos de Monte Carlo via Cadeias de Markov. No entanto, no caso em que o número de subpopulações é desconhecido, tais métodos nãoo podem ser aplicados e uma opção é usar o algoritmo Monte Carlo via Cadeias de Markov com saltos reversíveis. Uma aplicação a dados arti ciais é feita com o objetivo de comparar a performance das duas abordagens, ou seja, número de subpopulações conhecido ou não. Os resultados obtidos mostram que, como esperado, fi xar este número no valor verdadeiro produz os resultados mais e ficientes. Por outro lado, quando não se tem ideia sobre este número, considerá-lo também um parâmetro e estimá-lo é a melhor solução em termos de estimação e previsão, perdendo pouco para a primeira abordagem. Para a implementação destas técnicas foi utilizado o comando NMixMCMC presente no pacote mixAK do software R. Além disso, também aplicou-se ambas as técnicas a um conjunto de dados reais.
Palavras-Chave: subpopulações; Inferência Bayesiana; mistura de distribuições; RJMCMC;


Modelos de Tucker3 em Biometria: analises de experimentos com três fatores - Link direto para esse trabalho
Lúcio Borges de Araújo; Mirian Fernandes Carvalho Araujo; Carlos Tadeu dos Santos Dias

Os experimentos multi-ambientais (MET) são conduzidos através de vários locais para os principais produtos agrícolas no mundo, constituindo um passo caro mas essencial para a liberação de um novo genótipo de um produto agrícola e, consequentemente, a recomendação de cultivares. Considere a situação em que os METs são avaliados através de vários anos (ou seja, genótipos x locais x anos) (GLA), em que os dados podem ser organizados em arranjo de três entradas onde, neste caso, as entradas se referem a genótipos, locais ou anos. O presente trabalho tem como objetivo propor um estudo sistemático e interpretação de uma resposta variável em relação a três fatores, usando o modelo Tucker3, bem como o gráfico joint biplot. O método proposto parece eficiente e adequado para a separação de resposta padrão e de ruído contido num arranjo de três entradas, bem como permite a sua interpretação. O gráfico joint plot facilita o estudo e interpretação da estrutura de dados e fornece informações adicionais sobre estes. Em nossa aplicação o objetivo é identificar as combinações de genótipos, locais e anos que contribui ou não para um alto rendimento de cultivares de feijão.
Palavras-Chave: Multiway; componentes principais; joint biplot;


Modelos de regressão não lineares para descrição do acúmulo de matéria seca em plantas de alho - Link direto para esse trabalho
Guilherme Alves Puiatti; Paulo Roberto Cecon; Ana Carolina Ribeiro de Oliveira; Moysés Nascimento; Ana Carolina Campana Nascimento; Fernando Luiz Finger; Mário Puiatti; Fabyano Fonseca e Silva

O alho (Allium sativum L.) é de grande valor para todo o mundo devido a seu papel na economia, culinária, nutrição e medicina. Para a realização de um manejo adequado das plantas de alho um estudo da trajetória de crescimento das plantas ou do acúmulo de matéria seca de características relevantes se faz necessário. Diante deste contexto, este trabalho teve como objetivo ajustar e agrupar cinco modelos de regressão não linear (Brody, Gompertz, Logístico, Mitscherlich e von Bertalanffy) utilizados para descrição do acúmulo de matéria seca total em plantas de alho ao longo do tempo. Os dados foram provenientes de um experimento conduzido no delineamento em blocos casualizados, utilizando oito acessos de alho com quatro repetições, sendo que as avaliações foram realizadas aos 60, 90, 120 e 150 dias após o plantio. Os modelos foram ajustados pelo Método dos mínimos quadrados, fazendo uso do processo iterativo de Gauss-Newton. O quadrado médio do resíduo foi utilizado como critério para avaliar a qualidade do ajustamento. Os modelos ajustados para cada acesso foram agrupados utilizando os parâmetros como variáveis. Para todos os oito acessos foram formados dois grupos de modelos mais próximos, dos quais os formados pelos modelos Logístico, Gompertz e von Bertalanffy apresentaram melhores resultados, com estimativas viáveis para interpretação prática e menores valores para o quadrado médio do resíduo.
Palavras-Chave: Allium sativum L; Análise de agrupamento; Regressão não linear;


Modelos de regressão para ajuste do acúmulo de massa seca de cultivar de feijoeiro - Link direto para esse trabalho
Augusto Ramalho de Morais; Laís Mesquita Silva; Guido Gustavo Humada Gonzalez; Messias José Bastos de Andrade; Neiva Maria Batista Vieira

O objetivo desse trabalho foi modelar o crescimento da cultivar de feijoeiro Jalo por meio do acumulo de matéria seca, avaliado em diferentes épocas e densidades de plantio. O experimento foi conduzido no delineamento experimental em blocos casualizados, com três repetições, sendo os tratamentos dispostos em esquema fatorial, constituídos pelas combinações dos níveis dos fatores densidade de semeadura (75, 145, 215, 285 e 355 mil plantas por hectare) e épocas de avaliação (13, 23, 33, 43, 53, 63 dias após emergência) por peso de matéria seca total (haste, flor, vagem e grão). Os dados foram submetidos à análise de variância, após a qual procedeu-se ao estudo das interações significativas por meio de análise de regressão utilizando-se vários modelos não lineares. Os modelos logístico com as parametrizações y=a/(1+b.exp(k.t)) e y=a+(b-a)/(1+exp(t-k)) apresentaram melhores critérios de qualidade de ajuste.
Palavras-Chave: curva de crescimento; modelo logístico; regressão não linear; massa seca;


Modelos de regressão t-Tobit com erros nas covariáveis - Link direto para esse trabalho
Gustavo Henrique M. A. Rocha; Rosangela H. Loschi; Reinaldo B. Arellano-Valle

Este trabalho visa propor um modelo linear com erro nas covariáveis onde a variável resposta é censurada. Respostas censuradas e erros nas covariáveis são frequentemente observadas em econometria, biometria e muitas outras áreas. Propomos um modelo robusto considerando uma distribuição t-Student multivariada para modelar o comportamento conjunto das covariáveis e dos erros. A inferência é feita sob os paradigmas clássico e bayesiano. Construímos um algoritmo do tipo EM para aproximar os estimadores de máxima verossimilhança. As distribuições a posteriori foram aproximadas utilizando o procedimento de aumento de dados. Um estudo Monte Carlo é feito para comparar o comportamento dos estimadores em diversos cenários.
Palavras-Chave: regressão censurada; distribuição t-multivariada; aumento de dados; algoritmo ECM;


Modelos de riscos competitivos mistos aplicados ao estudo de longevidade - Link direto para esse trabalho
Rafael Pimentel Maia; Rodrigo Labouriau

Neste trabalho é introduzido uma classe de modelos de sobrevivência mistos multivariados, tanto para tempo contínuo quanto para discreto, com complexa estrutura de covariâncias, aplicados, em particular, em estudos de longevidade no contexto de genética quantitativa. Os métodos multivariados apresentados aqui compõem um conjunto de ferramentas de grande importância para o estudo de problemas de riscos competitivos, em que mais de uma causa de morte é observada. Tais métodos permitem tanto a caracterização de mecanismos genéticos associados a taxa de mortalidade para cada possível causa de morte, quanto o estudo da correlação entre os possíveis mecanismos genéticos. Além disso, os métodos apresentados são implementados de tal forma que permitem a análise de grandes e complexas bases dados, muito comum em estudos aplicados na área de genética quantitativa.
Palavras-Chave: modelos multivariados; riscos competitivos; genética quantitativa; modelos de dispersão;


Modelos de transição de Markov em experimentos planejados com dados binários longitudinais - Link direto para esse trabalho
Maurício S. Lordêlo; Sônia M. De S. Piedade; Gilenio B. Fernandes; Rosemeire L. Fiaccone

Os modelos de transição de Markov constituem uma ferramenta de grande importância para diversas áreas do conhecimento quando são desenvolvidos estudos com medidas repetidas. Eles caracterizam-se por modelar a variável resposta ao longo do tempo condicionada a uma ou mais respostas anteriores, conhecidos como a história do processo. Além disso, é possível a inclusão de outras covariáveis. No caso da respostas binárias, pode-se construir uma matriz com as probabilidades de transição de um estado para outro. Neste trabalho, duas abordagens diferentes para modelos de transição foram comparadas para avaliar qual estima melhor o efeito causal de tratamentos em um estudo experimental em que a variável resposta é um vetor binário medido ao longo do tempo. Estudos de simulação foram realizados levando em consideração experimentos balanceados com três tratamentos de natureza categórica. Para avaliar qualidade das estimativas, o erro padrão e viés, além do percentual de cobertura foram utilizados. Os resultados mostraram que os modelos de transição marginalizados são mais indicados na situação em que um experimento é desenvolvido com um reduzido número de medidas repetidas.
Palavras-Chave: Medidas repetidas; Efeito causal de tratamento; Probabilidades de transição;


Modelos dinâmicos via Filtro e partículas - Link direto para esse trabalho
Igor Ferreira do Nascimento, Gustavo Gomes Basso

O filtro de partículas é uma técnica de estimação numérica online para os modelos dinâmicos.
Palavras-Chave: Filtro de partículas; Inferência bayesiana; Métodos numéricos;


Modelos lineares generalizados dinâmicos - métodos seqüenciais bayesianos - Link direto para esse trabalho
Carlos Tadeu Pagani Zanini; Mariane Branco Alves; Helio S. Migon

O presente trabalho consta de aplicações de diferentes metodologias sequenciais de estimação de parâmetros sob o ponto de vista bayesiano em Modelos Dinâmicos Lineares Generalizados e em Modelos Hierárquicos Lineares Generalizados. No caso específico de Modelos Dinâmicos, tem-se o intereesse em estimar processos autorregressivos na evolução de componentes do vetor de estados. As metodologias desenvolvidas serão aplicadas a conjuntos de dados artificialmente simulados e, posteriormente, a dados reais.
Palavras-Chave: Modelos Dinâmicos; Inferência Bayesiana; Modelos Hierárquicos Lineares Generalizados; Linear Bayes;


Modelos lineares generalizados mistos aplicados a dados de equinos submetidos a anestesias e analgésicos - Link direto para esse trabalho
Maicon Vinícius Galdino; Liciana Vaz de Arruda Silveira; José Carlos de Figueiredo Pantoja

O presente trabalho tem como objetivo principal comparar a proporção de um determinado tipo de comportamento animal (“olhar o flanco”) com relação a diferentes tratamentos e momentos. Os tratamentos utilizados foram: (1) animais anestesiados, (2) animais anestesiados com analgesia prévia, (3) animais anestesiados e submetidos à orquiectomia com analgesia pós-operatória e (4) animais anestesiados e submetidos à orquiectomia com analgesia prévia. Os momentos considerados foram: antes do procedimento cirúrgico ou anestésico, 4 horas após a recuperação anestésica e antes da administração de analgésicos nos animais do tratamento (3), duas horas após o momento 2 e 24 horas após a cirurgia. Para tal foi utilizado modelos lineares generalizados mistos e verificamos que as covariáveis consideradas no experimento foram significativas ao nível de 0,05.
Palavras-Chave: Anestesia; Analgésico; Modelos lineares generalizados mistos;


Modelos mistos em medidas repetidas de pacientes em hemodiálise crônica - Link direto para esse trabalho
Omar C. N. Pereira; Emerson Barili; Rosângela G. Santana; Isolde Previdelli

Este estudo teve por objetivo analisar dados de concentração de cálcio no sangue de pacientes com doença renal crônica submetidos à banhos de diálise com três concentrações de cálcio, 3,5mEq/L, 3,0mEq/L e 2,5mEq/L durante 4 anos consecutivos. A metodologia adotada para este estudo foi a de modelos mistos. Durante o processo de escolha do modelo e definição da estrutura de covariância, os métodos de estimação utilizados foram o ML e o REML. Para o modelo misto ajustado, a estrutura de covariância que melhor se adequou aos dados foi a Toeplitz. Houve evidências concomitantes entre a clínica e a estatística de que o tratamento com concentração de 3;0mEq/L de cálcio foi o banho de diálise mais racional.
Palavras-Chave: Modelos Mistos; Hemodiálise; Cálcio;


Modelos para dados grupados e censurados: comparação usando fator de Bayes - Link direto para esse trabalho
Sophia Lanza de Andrade; Liciana Vaz de Arruda Silveira; Luciano Barbosa

Em Análise de Sobrevivência, é comum a ocorrência de dados grupados e censurados. Dentre os possíveis modelos adaptados a este tipo de dados, tem-se o Modelo logístico e o Modelo de Cox. A comparação entre o ajuste destes dois modelos pode ser feita utilizando o teste escore proposto por Colosimo et al. (2001), Bootstrap não paramétrico ou critérios de informação de Akaike (AIC). Uma alternativa a estas técnicas é a utilização do Fator de Bayes. Neste artigo temos interesse em utilizar o teste escore para discriminar os modelos estudados, incluir o fator de Bayes e aplicar a metodologia a um conjunto de dados referente a uma manifestação clínica da doença e Chagas, conhecida como megacolo chagásico (Almeida, 1996).
Palavras-Chave: Análise de Sobrevivência; dados grupados e censurados; Modelo logístico; Modelo de Cox para dados grupados e censurados; fator de Bayes;


Monitoramento de Elementos Químicos em Liteira via Gráfico de Controle Multivariado T2 de Hotelling - Link direto para esse trabalho
Cristiane Nazaré Pamplona de Souza; Edson Marcos Leal Soares Ramos; Vanessa Mayara Souza Pamplona; Francisco de Assis Oliveira

A liteira é um suporte necessário ao desenvolvimento dos ecossistemas, apresentando diversos elementos químicos que contribuem para a nutrição e crescimento das plantas. Neste sentido, o trabalho tem como objetivo verificar quais meses de coleta de Liteira nos ecossistemas Virola Surinamensis e Floresta Sucessional, influenciam para a divergência do fluxo da matriz biogeoquímica e quais elementos químicos estão contribuindo para o aumento de cada amostra. Para tanto, foram coletadas 20 amostras de liteira de cada ecossistema e analisados os elementos químicos K, Ca, Mg, Mn, Fe, Cu e Zn. Diante disso, construiu-se dois gráficos de controle T² de Hotelling e a decomposição para cada ecossistema, o qual observa-se que o fluxo da matriz biogeoquímica para a liteira em ambos ecossistemas, contém elementos químicos alterados nos meses de julho e agosto de 1996, janeiro, abril, novembro e dezembro de 1997, março de 1998 e fevereiro de 1999. Verifica-se ainda que no ecossistema Virola Surinamensis, no mês de abril/1997 os elementos causadores de tal alteração são o cálcio e o manganês, no mês de março/1998, destaca-se o ferro e no mês de fevereiro/1999 o cobre. Na Floresta Sucessional, no mês de julho/1996 o elemento que provoca a alteração no fluxo da matriz biogeoquímica para a liteira é o cálcio, no mês de agosto/1996 destaca-se o manganês, em janeiro/1997 o zinco e no mês de novembro/1997 destaca-se o ferro, no mês de dezembro/1997 o potássio é o elemento que mais contribui para a alteração da amostra de liteira e em fevereiro/1999 destaca-se o cobre. Conclui-se que o cálcio, o ferro e o cobre são os principais elementos responsáveis pela divergência química nos dois ecossistemas estudados.
Palavras-Chave: Gráfico de Controle T² de Hotelling; Virola Surinamensis; Floresta Sucessional;


Multidimensional Item Response Theory models with multivariate skew normal latent trait distributions under the centered parameterization: bayesian parameter estimation, structural selection and model fit assessment - Link direto para esse trabalho
Juan L. G. Padilla; Caio L. N. Azevedo; Victor H. Lachos

Item response theory (IRT) models are one of the most important psychometric tools for data analysis. Their applicability range from educational assessment to bilogical essays. The IRT models combine, at least, two sets of unknown quantities: the latent traits (person parameters) and item parameters (related to measurement instruments of interest). The multidimensional IRT (MIRT) models are quite usuefull to analyze data sets involving multiple skills or latent traits which are the case in many of the applications. However, the most of the works available in the literature consider the usual assumption of multivariate (symmetric) normal distribution to model the latent traits, do not handle with the multiple groups framework (few groups with a lot of subjects in each one), do not consider or consider a limited number of model fit assessment tools, do not investigate measurement instrument dimensionality in a detailed way and handle with the model nonidentifiability in a non trivial way. In this work we propose a MIRT multiple group model with multivariate skew normal distributions for model the latent trait of each group under the centered parameterization presenting simple conditions for the model identification. A full Bayesian approach for parameter estimation, structural selection (model comparison and determination of the measurement instrument dimensionality) and model fit assessment is developed through MCMC algorithms. The developed tools are illustrated throug the analysis of a real data set related to 2013 first stage of the University of Campinas admission exam.
Palavras-Chave: Item response theory; Multidimensional models; Multivariate skew normal distribution;


MÉTODO DE MONTE CARLO VIA CADEIAS DE MARKOV (MCMC) UMA APLICAÇÃO DO ALGORITMO DE METROPOLIS HASTING - Link direto para esse trabalho
Francisca de Fátima do N. Silva; Paulo Sérgio Lucio; Adrião Duarte Dória Neto; Eduardo Henrique Silveira de Araújo.

Este trabalho apresenta uma breve descrição do Método de Monte Carlo via cadeias de Markov (MCMC) e uma aplicação do algoritmo Metropolis Hastings junto aos dados de produção de óleo para um determinado reservatório de um campo petrolífero. A título de ilustração do algoritmo será utilizada a variável injeção de gás (Ig), onde o objetivo será estimar a probabilidade de se injetar ou não gás no reservatório a fim de estimular a produção de óleo.
Palavras-Chave: Monte Carlo; Cadeias de Markov; Metropolis Hastings; Injeção de gás; petróleo;


MÉTODOS DE PREVISÃO DA DEMANDA DE PACIENTES NA EMERGÊNCIA DE UM HOSPITAL PÚBLICO - Link direto para esse trabalho
Aline Castello Branco Mancuso; Rosa Kucyk

A previsão de demanda é um dos principais fatores para a eficiência de uma emergência hospitalar, afetando diretamente os pacientes. Quanto maior a acurácia da previsão, melhor será o planejamento para um adequado atendimento. Neste contexto, diferentes métodos de previsões podem ser comparados. Aplicado aos dados da demanda de pacientes em uma emergência de um hospital público, o objetivo principal deste trabalho é averiguar o melhor modelo de previsão em termos de acurácia dentre as técnicas de previsões individuais: Box-Jenkins e alisamento exponencial; e os modelos de combinação: média simples, variância mínima e regressão. As medidas empregadas para a escolha do método mais preciso são: MAE, MAPE, RMSE e o coeficiente U de Theil. O modelo com melhor acurácia foi o de combinação por regressão.
Palavras-Chave: previsão de demanda; combinação de previsões; emergência médica;


MÉTODOS MULTIVARIADOS NA AVALIAÇÃO DE IMAGENS RADIOGRÁFICAS DE SEMENTES - Link direto para esse trabalho
Isabel Cristina Costa Leite; Thelma Sáfadi; Maria Laene Moreira de Carvalho

O uso de imagens de raios X de sementes é uma ferramenta importante na análise da qualidade de lotes de sementes. Neste trabalho foram processadas imagens de sementes de girassol (Helianthus annuus L.), radiografadas no Laboratório de Análise de Sementes do Departamento de Agricultura da Universidade Federal de Lavras. O estudo teve como objetivo aplicar a análise de componentes principais (PCA) e a análise de componentes independentes (ICA) na decomposição das imagens radiográficas de sementes de modo a se obter uma representação das imagens com dimensão reduzida. A análise discriminante foi usada para classificar as sementes segundo diferentes níveis de qualidade física, diferenciando sementes cheias de sementes com algum tipo de dano ou deformação. A classificação obteve um acerto global de 82% e diferenças mínimas entre o uso de PCA e ICA. Os resultados mostraram que a metodologia proposta pode contribuir para uma avaliação rápida e menos subjetiva de imagens radiográficas de sementes.
Palavras-Chave: análise discriminante; ICA; imagens radiográficas de sementes; PCA; qualidade de sementes;


MÉTODOS PARA IMPUTAÇÃO DE DADOS FALTANTES EM SÉRIES TEMPORAIS DE CONCENTRAÇÕES DE MATERIAL PARTICULADO INALÁVEL (PM10) - Link direto para esse trabalho
Wanderson de Paula Pinto; Valdério Anselmo Reisen; Adriano Marcio Sgrancio

Este trabalho apresentou um estudo de metodologias para imputação de dados faltantes em séries temporais de poluição atmosférica. O principal objetivo foi avaliar e comparar a performace de métodos univariados e multivariados para imputação de dados faltantes em uma série temporal das concentrações médias diárias de Material Particulado Inalável (PM10) monitorada no Bairro de Jardim Camburi, Vitória, E.S., Brasil, compreendida entre 01 de janeiro de 2003 e 31 de dezembro de 2004. As Concentrações do poluente foi obtida junto ao Instituto Estadual de Meio Ambiente e Recursos Hídricos (IEMA). Em particular, nota-se que ambos procedimentos fornecem bons resultados para porcentagem de 5% de dados faltantes. Para porcentagens maiores os melhores resultados foram obtidos através do algoritmo EM (expectation-maximisation).
Palavras-Chave: Material Particulado inalável; Dados faltantes; Séries temporais;


Método GEE duplo robusto para análise de dados longitudinais ordinais com perda MAR - Link direto para esse trabalho
José Luiz Padilha da Silva; Enrico Antonio Colosimo; Fábio Nogueira Demarqui

Equações de Estimação Generalizadas (GEE) (Liang & Zeger, 1986) são um método comumente usado para análise de dados longitudinais não gaussianos. Este método possui simplicidade computacional e interpretação marginal dos parâmetros. Contudo, na presença de dados ausentes, é válido apenas sob a forte suposição de perda MCAR (Rubin, 1976). Duas correções podem ser feitas quando o mecanismo de perda é MAR: ponderar os dados observados pela probabilidade inversa de ser observado (WGEE) (Robins et al., 1995) ou realizar imputação múltipla (MIGEE) (Little & Rubin, 1987). Um enfoque recente é o uso de estimadores duplo robusto, que oferecem um grau extra de proteção à especificação incorreta de seu modelo preditivo. Neste trabalho assumimos um modelo de odds proporcionais para a resposta longitudinal ordinal (McCullagh, 1980) e propomos um estimador duplo robusto para dados com perda MAR. Comparamos seu desempenho com o WGEE e MIGEE através de um estudo de simulação de pequenas amostras.
Palavras-Chave: Dados ordinais; modelo de odds proporcionais; perda MAR; GEE duplo robusto;


Métodos computacionais para realização de e ca inferência bayesiana em modelos dinâmicos e a lineares generalizados - Link direto para esse trabalho
Mariana Raniere Neves; Carlos Tadeu Pagani Zanini; Mariane Branco Alves

A concentração de poluentes na atmosfera tem sido apontada, por vários estudos, como um fator que influencia na saúde e na qualidade de vida das pessoas. Quantificar o efeito de poluentes sobre desfechos epidemiológicos, bem como seu comportamento ao longo do tempo são questões de grande relevância, não apenas para o estatístico, mas também para os órgãos públicos que administram a area de saúde. Neste âmbito, o presente trabalho se propõe a estudar o efeito da concentração de monóxido de carbono, conjuntamente com fatores climáticos, sobre óbitos diários de crianças com menos de 5 anos por doença respiratória na cidade de São Paulo ocorridas entre o dia Janeiro de 1994 e Dezembro de 1997. Para isso, utilizou-se a abordagem paramétrica bayesiana. Os modelos propostos pertencem à classe dos Modelos Dinâmicos Lineares Generalizados (MLDG), onde para a variável resposta, por se tratar de uma contagem, é assumida ter distribuição Poisson. Dada a falta de solução analítica para estimação dos parâmetros destes modelos, é necessário utilizar métodos aproximados para realização de inferência. Nesse sentido, escolheu-se utilizar os Métodos de Monte Carlo via Cadeias de Markov e o método Linear Bayes. Os resultados obtidos segundo as duas abordagens são comparados, ressaltando as vantagens e desvantagens decorrentes do uso de ambas.
Palavras-Chave: Inferência Bayesiana; Linear Bayes; Métodos de Monte Carlo; Modelos Dinâmicos; Epidemiologia;


Métodos de Distribuição Livre para o Ajuste de Modelos de Estrutura de Covariância para Dados Amostrais Longitudinais - Link direto para esse trabalho
Leandro Vitral Andraos ; Marcel de Toledo Vieira

Neste trabalho são estudados métodos estatísticos com o apoio de ferramentas computacionais para o estudo de dados do tipo painel da pesquisa British Househould Panel Survey (BHPS). Procedimentos de inferência estatística para parâmetros de modelos de efeitos mistos são avaliados considerando diferentes estruturas longitudinais de covariância. Comparações entre métodos de estimação que consideram o plano amostral complexo e aqueles que o ignoram são realizadas através de um estudo de simulação e o comportamento de estimadores que tem como base funções de ajuste é avaliado. São considerados os seguintes métodos de estimação pontual: máxima verossimilhança, máxima pseudo verossimilhança e mínimos quadrados generalizados de distribuição livre. O desempenho dos estimadores também é avaliado considerando cenários em que os dados são gerados a partir de diferentes distribuições de probabilidade, incluindo tanto distribuições simétricas quanto assimétricas.
Palavras-Chave: dados do tipo painel; modelos de efeitos mistos; estruturas de covariância; funções de ajuste; inferência para dados amostrais complexos;


Métodos de adaptabilidade e estabilidade fenotípica na presença de erros assimétricos - Link direto para esse trabalho
Laís Mayara Azevedo Barroso; Moysés Nascimento; Ana Carolina Campana Nascimento; Regiane Teodoro do Amaral

No melhoramento genético de plantas, quando o objetivo é selecionar ou recomendar cultivares para o plantio, o estudo da interação entre genótipo x ambiente não fornece informações pormenorizadas sobre o comportamento de cada cultivar diante das variações ambientais. Assim, análises de adaptabilidade e estabilidade são necessárias para a identificação e recomendação de materiais superiores em diferentes ambientes. A literatura apresenta diversos métodos com esse objetivo, porém não existem estudos sobre o comportamento de tais metodologias quando os valores fenotípicos apresentam comportamento assimétrico. Desta forma, este trabalho teve por objetivo avaliar duas metodologias baseadas em regressão para análise da adaptabilidade fenotípica. Especificamente, foram avaliados os métodos de Eberhart e Russell (1966) e regressão não paramétrica. Foram simulados valores fenotípicos com diferentes distribuições (simétrica, assimétricas à direita e à esquerda). Apesar da regressão não paramétrica utilizar para obtenção dos estimadores as medianas, a mesma não consegue tratar a presença de fenótipos assimétricos, sendo necessário estudos de metodologias que contemplem tal situação de maneira adequada.
Palavras-Chave: Regressão não paramétrica; Eberhart e Russell; simulação de dados;


Métodos estatísticos aplicados à uma indústria automobilística - Link direto para esse trabalho
Raphael Henrique Teixeira da Silva; Daniela Carine Ramires de Oliveira

Visitas técnicas a empresas da região de São João del Rei-MG têm mostrado que o monitoramento de características do processo vem sendo realizado sob uma perspectiva univariada, isto é, as empresas monitoram o processo construindo gráficos de controle de qualidade univariados para cada característica individualmente. No entanto, os processos analisam várias variáveis e as mesmas podem estar correlacionadas. Embora a aplicação de gráficos de controle univariados seja uma solução possível, a literatura mostra que isso não é eficaz e pode levar a conclusões errôneas. Além disso, verifica-se na rotina desses processos o uso de tamanho de amostra variável. A teoria e implementação computacional das versões multivariadas dos gráficos de controle são apresentadas em sua maioria quando o tamanho amostral é fixo. Devido a dificuldade de se obter essas duas informações simultaneamente na literatura, as empresas apresentam resistência ao uso dessas versões multivariadas para o controle de qualidade de seus produtos. Nesse contexto, esse trabalho apresenta a teoria e implementação computacional no software livre R do gráfico T² de Hotelling (versão multivariada do gráfico Xbarra de Shewhart), quando o tamanho da amostra é variável. Adicionalmente, o gráfico T² de Hotelling é empregado de forma satisfatória a um estudo de caso de uma empresa que produz itens de segurança para automóveis na região de São João del Rei-MG.
Palavras-Chave: Estatística T²; Limite superior de controle; Controle estatístico de qualidade; Controle estatístico de processos; Gráfico de controle multivariado;


Métodos para avaliar o efeito de dispersão em experimentos - Link direto para esse trabalho
Carla Almeida Vivacqua; Joyce Bezerra Rocha

Este artigo resume e apresenta um método para identificar efeitos de dispersão em experimentos fatoriais 2^k não replicados, envolvendo analise de resíduos, analises gráficas e transformações logarítmicas. E também outro método para identificação dos efeitos de dispersão em experimentos replicados. Para ambos os casos são apresentados exemplos práticos.
Palavras-Chave: Experimento Fatorial; Replicação; Análise de variância; Variabilidade;


New Stochastic Orders based on the Inactivity Time - Link direto para esse trabalho
S. Yasaei Sekeh, G.R. Mohtashami Borzadaran, A. H. Rezaei Roknabadi

Measure of uncertainty in past lifetime distribution is particularly suitable measure to describe the information in problems related to ageing properties of reliability theory based on distribution of components or systems. This measure has been de ned by Ruiz and Navarro (1996) on using the physical signi cance. In this paper, we introduce a new measure related to the moment orders and de ne new stochastic orders based on that. We also provide some stochastic comparisons with other certain well-known ageing stochastic orders. Finally, a few properties for series systems and mixture with respect to de ned measures are discussed.
Palavras-Chave: Inactivity time,; Stochastic orders, ; Moment inactivity time,; Series system, ; Mixture;


Nonlinear mixed modelling of soil water retention curves - Link direto para esse trabalho
Aline de Holanda Nunes Maia; Márcia Thaís de Melo Carvalho; Lammert Bastiaans; Pepijn Adrianus Johannes van Oort; Holger Meinke

We present and discuss the use of nonlinear mixed (NLM) models to simulate soil water retention dynamics based on experimental data. Traditionally, such curve-fitting involved isolated and treatment-specific function fitting using fixed-effect nonlinear models. This has four main disadvantages: i) the experimental design is ignored; ii) comparison of SWRC between treatments via formal statistical tests is not possible due to the absence of an error structure that accounts for overall variance within treatments; iii) autocorrelation among random errors of moisture measurements in the same sample unit under different matric potentials is neglected, leading to incorrect quantification of model uncertainty; and vi) the soil-related spatial variability cannot be fully accounted for. Herein, we discuss advantages and limitations of the use of nonlinear mixed (NLM) model as an alternative to the usual isolated fitting. As an example, we present a study developed to investigate the effect of carbonised biomass (biochar) on the water retention capacity of a sandy soil in Nova Xavantina, Mato Grosso.
Palavras-Chave: nonlinear models; uncertainty assessment; soil water retention dynamics;


Nonparametric Conditional Density Estimation in a High-Dimensional Regression Setting - Link direto para esse trabalho
Rafael Izbicki; Ann B. Lee

There has been an increased interest in estimating the full density f(z|x) of a random variable Z given a high-dimensional random vector x; in, e.g., cosmology and economics, the regression E[Z|x] is sometimes not informative enough because of multi-modality and asymmetry of f(z|x). Currently, there are no effective ways of estimating f(z|x) when x are complex, high-dimensional objects such as images or spectra. We propose a novel nonparametric estimator of f(z|x) that takes advantage of lower-dimensional structure (e.g., submanifolds and cluster structure) in x. Our estimator is based on an expansion onto the eigenfunctions of a kernel-based operator, which are smooth and adapted to the underlying geometry of the data. These eigenfunctions are also orthogonal, and hence allow a fast implementation and tuning of parameters. Additionally, they provide a useful tool for data visualization. We derive rates of convergence and demonstrate the effectiveness of the method by numerical examples, including an application to photometric redshift prediction of galaxies.
Palavras-Chave: High-Dimensional Data; Nonparametric Statistics; Spectral Methods;


Níveis de retorno de temperatura máxima via teoria de valores extremos para planejamento de produção do tomateiro - Link direto para esse trabalho
Guido Gustavo Humada-González; Gilberto Rodrigues Liska; Augusto Ramalho de Morais; Marcelo Ângelo Cirillo; Luiz Alberto Beijo; Líder Ayala Aguilera

A temperatura do ar é de extrema importância para o crescimento, desenvolvimento e produtividade das culturas. Para qualquer espécie vegetal, o conhecimento da variação da temperatura ao longo do ano, no local em que a cultura é cultivada, mostra-se imprescindível para o sucesso de uma atividade agrícola.Como exemplo, o tomate é bastante sensível a temperaturas extremas, sendo que a cultura requer, durante o ciclo, temperaturas superiores a 10 ºC e inferiores a 35 ºC, e ainda, para cada fase do desenvolvimento requer uma faixa ótima de temperatura. Uma estratégia para a análise de eventos extremos é a teoria de valores extremos, que assume a distribuição Gumbel como adequada para eventos que envolvam máximos. Sendo assim, objetivou-se estimar os níveis máximos de temperatura do ar do município de San Lorenzo - Paraguai, utilizando a distribuição Gumbel. Os resultados apontam que a distribuição Gumbel foi ajustada com sucesso às séries quinzenais máximas do município referido, no período estudado, os menores níveis de retorno estimados compreendem o período do inverno e os maiores no período do verão. Considerando-se o mês de dezembro, em um tempo médio de 2 anos espera-se que ocorra pelo menos uma temperatura máxima superior a 37,7°C, já para um período maior à 10 anos esse valor é ainda maior, com provável ocorrência de temperatura máxima de 40,7°C. Baseado nos tempos de retorno estudado não é recomendado produzir tomate a campo aberto nos meses de setembro a março.
Palavras-Chave: Distribuição Gumbel; Solanum Lycopersicum; Temperatura;


O Ensino de Estatística em um nono ano do ensino fundamental: uma abordagem interdisciplinar versando sobre o tema água e desenvolvimento sustentável - Link direto para esse trabalho
Jarbas Dionísio Camargo; Luciana Neves Nunes

O presente trabalho tem como objetivo apresentar os principais resultados obtidos em uma prática de ensino realizada no segundo semestre de 2013, com um grupo de alunos do 9° ano do ensino fundamental na cidade de Esteio, Rio Grande do Sul. As atividades foram realizadas com o propósito de investigar possíveis contribuições de uma abordagem interdisciplinar versando sobre o tema água e desenvolvimento sustentável para aprendizagem significativa em Estatística e Matemática. Visando identificar se os objetivos foram atingidos, à luz da teoria da aprendizagem significativa de David Ausubel, realizou-se um estudo exploratório descritivo do material produzido durante as aulas, além da análise de anotações via relatório da prática. Assim, caracterizando-se essa pesquisa como sendo um estudo de caso. Os resultados obtidos permitiram concluir que o projeto interdisciplinar apresentou algumas contribuições para a aprendizagem significativa de conceitos matemáticos e de estatística no referido nível de ensino.
Palavras-Chave: Ensino de Estatística; Projeto interdisciplinar; Aprendizagem significativa;


O Filtro de Kalman Estendido na Assimilação de Dados por Imagem de Ressonância Magnética Funcional. - Link direto para esse trabalho
Alice Nabiça Moraes; Raul Barbosa Eluan; Valcir João da Cunha Farias.

A assimilação de dados usando o filtro de Kalman estendido foi aplicada para obter o parâmetros do modelo hemodinâmico de dados de fMRI, os resultados, até o momento, são relativamente bons.
Palavras-Chave: Filtro de Kalman estendido; Assimilação de dados; fMRI;


O Net Promoter Escore (NPS) como indicador de avaliação institucional - Link direto para esse trabalho
Paulo Ricardo Cosme Bezerra

O objetivo do trabalho é avaliar a relação dos não clientes e clientes com o SEBRAE RN e percepções sobre a participação com os serviços oferecidos pela instituição. O Net Promoter Score (NPS) — é uma metodologia que mede o sentimento do cliente. Lançado por Fred Reichheld, o NPS avalia a probabilidade de um cliente comprar novamente da sua empresa, ou de indicar seus serviços a um amigo. Reichheld (2006) desenvolveu a metodologia NPS, que funciona com base em uma única questão ao cliente que avalia tanto a probabilidade de recompra quanto a de indicação: "Em uma escala de zero a 10, qual a probabilidade de indicar a um amigo ou colega?" As respostas fornecidas pelos clientes são classificadas da seguinte forma: detratores, são clientes que tiveram experiências ruins com a marca, influenciam negativamente outros clientes; passivos, clientes que tiveram experiências boa e ruins com a marca, não influenciam positivamente, nem negativamente; promotores, clientes que tiveram experiências boas com a marca e, influenciam positivamente outros clientes. O NPS é calculado subtraindo-se a percentagem de questionados que são rotulados como "Depreciadores" da percentagem de questionados que são rotulados como "Promotores": % de Promotores - % de Depreciadores = NPS e o Net Promoter Score pode variar de -100 a 100. Metodologia da pesquisa: Através de questionário estruturado, foram realizadas 823 entrevistas, incluindo os segmentos de a) não clientes – empreendedores em geral e b) clientes do SEBRAE RN – empreendedores cadastrados no SIAC (Sistema de Informação e Atendimento ao Cliente – mínimo de três atendimentos por ano). Quanto aos resultados verificamos que não há diferença significativa entre clientes (56,5%) e não clientes (57,5%) do SEBRAE RN e há diferença significativa entre os resultados para o média obtida pelo SEBRAE nacional.
Palavras-Chave: Avaliação; Probabilidade; Indicadores;


O Perfil dos Crimes de Roubo na Cidade de Belém - Link direto para esse trabalho
Débora Fernanda Castro Vianna Oliveira; Silvia dos Santos de Almeida

Este trabalho tem como objetivo apresentar um estudo sobre o crime de roubo na cidade de Belém apresentando o perfil das vítimas e quais variáveis estão relacionadas com este tipo de crime, no ano 2010. As técnicas da estatística utilizadas foram análise exploratória de dados e análise de correspondência. Foram obtidos como resultados que a maioria das vítimas é do sexo feminino, da raça parda, com idade de 15 a 25 anos, com ensino médio completo, os crimes de roubo ocorreram em via pública, com dois agressores, utilizando bicicleta como meio de locomoção e arma de fogo para praticar o crime, a maioria das vítimas não registraram ocorrência policial, das vítimas que registraram, a maioria realizou em posto policial e das vítimas que não registraram a ocorrência policial, não realizaram por considerar que nada seria resolvido. Por meio da análise de correspondência, observou-se que as vítimas do crime de roubo do sexo masculino, está associado tanto com a faixa etária de 48 a 58 anos quanto com a faixa etária de 59 a 69 anos, verificou-se ainda que os crimes de roubo ocorridos na sexta está associado com o turno da noite e os que ocorrem no sábado está associado com o turno da madrugada, acredita-se que por ser final de semana quando as pessoas tendem a passear, por vezes estas ficam mais suscetíveis a ações de criminosos.
Palavras-Chave: Vítimas; Ocorrência Policial; Crime;


O USO DA METODOLOGIA DE DADOS FALTANTES EM SÉRIES TEMPORAIS COM APLICAÇÃO A DADOS DE CONCENTRAÇÃO DE (PM10) OBSERVADOS NA REGIÃO DA GRANDE VITÓRIA - Link direto para esse trabalho
Wanderson de Paula Pinto; Valdério Anselmo Reisen; Taciana Toledo de Almeida Albuquerque

Dados da poluição atmosférica apresentam, em geral, observações faltantes. Esta pesquisa apresenta um estudo de metodologias para estimação da função de autocorrelação na presença de dados faltantes, baseados no trabalho de Yajima e Nishino (1999). Contempla também algumas técnicas para imputação de dados faltantes baseadas no uso do algoritmo EM, proposto por Dempster (1977), e nos modelos de séries temporais ARIMA de Box e Jenkins. Ensaios de simulações com quadro proporções de dados faltantes foram realizadas para comparar os erros quadráticos médios dos estimadores propostos. O estudo empírico evidenciou que o método de estimação sugerido apresenta bom desempenho em termos de medidas de erro quadrático médio. Como ilustração da metodologia proposta, duas séries temporais de concentrações de Material Particulado Inalável (PM10) emitida na Região da Grande Vitória, E.S., Brasil, são analisadas.
Palavras-Chave: Material Particulado inalável; Função de autocorrelação; Dados faltantes;


O USO DA METODOLOGIA DE DADOS FALTANTES EM SÉRIES TEMPORAIS COM APLICAÇÃO A DADOS DE CONCENTRAÇÃO DE (PM10) OBSERVADOS NA REGIÃO DA GRANDE VITÓRIA - Link direto para esse trabalho
Wanderson de Paula Pinto; Valdério Anselmo Reisen; Taciana Toledo de Almeida Albuquerque

Dados da poluição atmosférica apresentam, em geral, observações faltantes. Esta pesquisa apresenta um estudo de metodologias para estimação da função de autocorrelação na presença de dados faltantes, baseados no trabalho de Yajima e Nishino (1999). Contempla também algumas técnicas para imputação de dados faltantes baseadas no uso do algoritmo EM, proposto por Dempster (1977), e nos modelos de séries temporais ARIMA de Box e Jenkins. Ensaios de simulações com quadro proporções de dados faltantes foram realizadas para comparar os erros quadráticos médios dos estimadores propostos. O estudo empírico evidenciou que o método de estimação sugerido apresenta bom desempenho em termos de medidas de erro quadrático médio. Como ilustração da metodologia proposta, duas séries temporais de concentrações de Material Particulado Inalável (PM10) emitida na Região da Grande Vitória, E.S., Brasil, são analisadas.
Palavras-Chave: Material Particulado inalável; Função de autocorrelação; Dados faltantes;


O erro amostral da Taxa de Fecundidade Total calculado pelo método P/F de Brass. - Link direto para esse trabalho
LUIZ ANDRE RIBEIRO ZARDO; EDUARDO SANTIAGO ROSSETI

Indicadores demográficos em geral são demandados para suprir informações populacionais para alguma determinada região. A fecundidade é uma importante componente na composição do crescimento populacional, pois, relaciona-se com o número de filhos que as mulheres terão, em média, durante sua vida fértil. Indicadores demográficos, em geral, são calculados com base em dados de registros de estatísticas vitais, censos demográficos e pesquisas amostrais. No Brasil, o Instituto Brasileiro de Geografia e Estatística (IBGE) utiliza o método indireto P/F de Brass para estimar a Taxa de Fecundidade Total (TFT) com base em dados provenientes ora do Censo Demográfico ora da Pesquisa Nacional por Amostra de Domicílios (PNAD), em ambos os casos utiliza-se a estimação por amostragem, cujas amostras envolvem planos amostrais complexos. Este trabalho tem por objetivo avaliar o erro amostral associado à TFT estimada pelo método P/F de Brass a partir dos microdados da PNAD de 2012, obtendo suas estimativas pontuais e seus respectivos coeficientes de variação e intervalo de confiança, por meio da incorporação dos pesos e do plano amostral da PNAD-2012.
Palavras-Chave: erro amostral; fecundidade; metodo P/F de Brass;


O impacto da migração sobre a distribuição de renda da região norte - Link direto para esse trabalho
Maria de Nazaré Cardoso do Carmo; Marinalva Cardoso Maciel

Este trabalho tem como objetivo estudar a distribuição de renda da Região Norte e os impactos migratórios, em 2011. Inicialmente é caracterizado o perfil do imigrante comparando com o de não migrante. Evidenciou-se que na zona rural da Região Norte a maioria da população é composta de migrantes e em dois Estados – Rondônia e Roraima – a maioria da população é migrante. Os resultados do modelo de regressão apontaram que os indivíduos migrantes têm em média salários superiores aos dos indivíduos nascidos na região Norte com características similares indicando que há seleção positiva dos migrantes nortistas.
Palavras-Chave: Migração; Distribuição de renda; Região Norte;


O motivo pelo qual os canais de TV fechada não estão disponibilizando o áudio original na programação: um estudo com alunos da Universidade Federal de Goiás. - Link direto para esse trabalho
Mayhara Freitas Santiago

Antigamente o acesso a canais de TV fechados era bem restrito (Contudo, em todo o Brasil, eram contabilizados, em setembro de 2000, 2,8 milhões de assinantes, apenas 300 mil a mais do que em fins de 1997. Previsões da Anatel na versão 2000 do documento Perspectivas para a Ampliação e Modernização do Setor de Telecomunicações), pois o preço da TV por assinatura era alto. Por essa razão, apenas uma minoria da população no Brasil tinha acesso a esse tipo de serviço. Com o passar do tempo à oferta de serviço de televisão por assinatura foi aumentando ao mesmo, a demanda por tal serviço foi aumentando também, sendo que hoje em dia uma grande parcela da população brasileira, conta com o beneficio da TV por assinatura em casa. A tendência atual do mercado é a diversificação de produtos que permitam capturar uma maior quantidade de clientes. Isto originou que às empresas disponibilizarem pacotes de TV por assinatura, com menores valores, possibilitando que mais pessoas contratarem esse serviço. Porem os canais disponibilizados na TV por assinatura, geralmente são de outros países não lusófonos. Para aumentar a audiência desses canais, as principais empresas atuantes no mercado brasileiro oferecem hoje a dublagem da programação (Quem pressiona por esse serviço é a classe C, que elevou o número de assinantes, hoje estimado pela Anatel em 38 milhões de pessoas. A aposta no áudio em português tem se mostrado promissora. Os canais dublados, como o TNT e o Telecine Pipoca, lideram o ranking dos mais vistos da TV por assinatura. A Fox foi pioneira e, desde 2007, todo o conteúdo do seu horário nobre é dublado. Miguel Oliva, diretor da HBO, diz que "a classe média realmente pressionou pela dublagem". De olho nesse público, foi criado um segundo canal (o HBO 2), somente para programas dublados.). Os “canais de TV por assinatura” são os canais que não são disponibilizados nas frequências aberta. Para ter acesso à programação desses canais, a população deve pagar por um serviço que normalmente está conformado por pacotes de canais de outros países. O Brasil é um dos maiores mercadores da América Latina, cerca de 36 milhões de lares estão adotando os canais fechados, com pelo menos um aparelho de TV. Atualmente, as operadoras de TV por assinatura no Brasil estão usando muito uma técnica chamada “legendagem refalada”. O problema dessa técnica é que causa muitos erros na produção das legendas, especialmente quando se trata de palavras homófonas. “Como, por exemplo: (ela tinha X é latinha)”. A maioria das pessoas não sabe se a tradução das falas de filmes, séries ou reality shows são corretas. Mas por que os canais fechados de TV estão disponibilizando o áudio em português?
Palavras-Chave: TV fechada; sondagem; classes socias;


O uso do modelo logístico para descrever o índice de maturação da jabuticaba Sabará, segundo a incidência solar. - Link direto para esse trabalho
Alessandra dos Santos,Simone Daniela Sartorio,Taciana Villela Savian, Luana Yoneda Coletti, Marcel Bellato Spósito

Vários fenômenos reais, sejam eles físicos, químicos ou biológicos são melhor representados por modelos não lineares, pois seus parâmetros apresentam explicações biológicas, visto que na maioria das situações partem de equações diferenciais. Além disso, normalmente estes modelos apresentam menor número de parâmetros quanto comparados com modelos lineares. Neste trabalho, apresenta-se o ajuste de modelos logísticos na modelagem da relação existente entre o índice de maturação da jabuticaba Sabará com relação ao fatores luminosidade e dias após a antese. Dados provindos de 6 dias de colheitas, em 5 plantas com separacão de quadrantes (norte, sul, leste e oeste), conforme posicão do sol. Verificou-se que existe diferença significativa do quadrante sul quando comparado com os demais, apresentando menor maturação ao longo dos dias. Logo, conclui-se que a luz solar influencia na maturação dos frutos.
Palavras-Chave: Modelo logístico; coeficiente de predição; dependência espacial;


Observatório Empresarial dos Pequenos Negócios - Link direto para esse trabalho
Paulo Ricardo Cosme Bezerra

Um "Observatório" é um dispositivo de observação criado por organismos, para acompanhar a evolução de um fenômeno, de um domínio ou de um tema estratégico, no tempo e no espaço. Na origem de um observatório deve existir uma problemática que possa ser traduzida sob a forma de objetivos, que permitam definir indicadores, cujo cálculo necessita a integração de dados e permita a realização de sínteses. Com o objetivo de analisar informações estatísticas sobre e para os pequenos negócios potiguares, com valor agregado, o SEBRAE RN, está implementando o observatório empresarial dos pequenos negócios potiguares. Objetivo Geral: Tratar dados de origem primária e secundária, agregando valor aos dados, para o aprimoramento dos produtos do SEBRAE/RN, desenvolver a competitividade dos pequenos negócios, propiciar a geração de emprego e renda no Rio Grande do Norte por meio da elaboração de estudos, pesquisas, diagnósticos, cenários e tendências sobre o ambiente dos pequenos negócios, no Rio Grande do Norte, visando identificar as ameaças e oportunidades da região, com vistas a fundamentar a atuação estratégica do SEBRAE/RN. Além de promover a gestão do conhecimento e a inteligência empresarial. Objetivos específicos: · Acompanhar cenários: tendências, ameaças e oportunidades; · Produzir informação, analisar e criar inteligências; · Implementar sistemas de medição de avaliação de desempenho; · Formular, elaborar e promover a realização de estudos, pesquisas, diagnósticos e prospecção de mercado como forma de atualizar e sintonizar o SEBRAE/RN com tendências atuais e inovadoras no mundo dos negócios; · Instituir base de dados sobre os pequenos negócios utilizando diversas fontes de informações, envolvendo as principais variáveis descritivas de situação e da presença desse segmento de empresa na economia; · Manter uma base de dados sobre o universo das MPEs do RN; · Estabelecer parcerias com outras instituições de pesquisa para troca de informações. Alguns estudos, pesquisas e diagnósticos desenvolvidos: · Negócios potiguares: Mapeamento dos empreendimentos urbanos do Rio Grande do Norte; · Terceira Idade: Visão Mercadológica de um Mercado em Expansão; · Perfil doa negócios do Corredor Comercial da Av. Engenheiro Roberto Freire da cidade de Natal/RN; · A construção civil na Grande Natal: um estudo exploratório; · Avaliação do impacto da seca na região do semi-árido Potiguar.
Palavras-Chave: Observatório; Estatísticas oficiais; Estudos longitudinais;


Obtaining adjusted prevalence ratios from logistic regression model in cross-sectional studies - Link direto para esse trabalho
Leonardo Soares Bastos, Raquel de Vasconcellos Carvalhaes de Oliveira, Luciane Velasque

In the last decades, it has been discussing the use of epidemiological prevalence ratio (PR) rather than odds ratio as a measure of association to be estimated in cross-sectional studies. It discusses the main difficulties in use of statistical models for the calculation of PR: convergence problems, availability of adequate tools and assumptions not appropriate. The goal of this study is to develop a function to calculate the true PR and its confidence interval in statistical software R. We used 3 examples and compared the crude and adjusted estimative of PR, with the estimates obtained by use of log- binomial, Poisson regression and the prevalence odds ratio (POR). The PR obtained from the function resulted in values close enough to those obtained by log- binomial and Poisson, while the POR overestimated the PR. The model here implemented showed the following advantages: no numerical instability; assumes probability distribution appropriate and, it is availability in a free R statistical package.
Palavras-Chave: GLM; Binomial; Poisson; Log-Binomial; Prevalence;


Oferta de vagas no Ensino Superior e o analfabetismo explicam as diferenças de renda entre as microrregiões de Pernambuco? - Link direto para esse trabalho
Juliely Rodrigues de Araujo; Patrícia de Souza Medeiros; France E. G. de Oliveira; Joelma Mayara da Silva; Jansen Dodô da Silva Campos

O objetivo deste trabalho é analisar a influência da quantidade de vagas oferecidas pelas universidades na renda média da população ativa. O modelo ajustado para explicar as diferenças de renda por microrregião revela que um aumento de 10% na taxa de analfabetismo diminuiria em R$207,00 a renda média da região, enquanto o aumento da oferta de vagas em 10/ 10.000 habitantes diminuiria a renda em R$5,62, revelando que a expansão de vagas está ocorrendo nas regiões de mais baixa renda.
Palavras-Chave: ensino superior; vagas; analfabetismo; renda;


On the Performance of Wavelet-Based Long-Memory Parameter Estimation - Link direto para esse trabalho
Lucas Massaroppe, Flavio Caduda, Luiz A. Baccalá

After reviewing wavelet techniques used to estimate the long memory parameter d used in ARFIMA models, Monte Carlo simulations are used to evaluate the performance of different discrete wavelet transforms under various mother wavelet choices. By comparing computed small sample bias, standard deviations and mean-square errors from the different methods, MODWPT's (Maximum Overlap Discrete Wavelet Packet Transform) is shown to outperform all other options under a minimum mean-square error criterion using the D(4) wavelet filter.
Palavras-Chave: Fractionally integrated models; Long-memory; Wavelets;


Otimização de um Sistema de Elevadores via Simulação de Eventos Discretos - Link direto para esse trabalho
Fabio Mascarenhas Loureiro; Jessica Q. Kubrusly

Em diversos problemas de otimização algumas variáveis levadas em consideração são aleatórias, como a demanda por um certo produto ou o nível de precipitação em uma certa região. Nesses casos o problema passa a ser de otimização estocástica e solucioná-los de forma analítica é bastante complicado. Diante disto, a proposta deste trabalho é realizar um estudo, via simulação por eventos discretos, de um sistema de elevadores convencional frente uma forma diferenciada de trabalho, levando em consideração as taxas de chegadas dos clientes de forma homogênea e não homogênea ao longo do dia. O auxílio da simulação fez com que o ambiente estudado levasse em consideração diversas variáveis de forma conjunta, tais como tempo de permanência no sistema de cada cliente, tamanho da fila, tempo de deslocamento do elevador, entre outras, que o tornaram mais próximos de um sistema real. Com isto, constatou-se que não existe um sistema ótimo, mas sim um sistema mais adequado a realidade de cada ambiente.
Palavras-Chave: Simulação por Eventos Discretos; Geração de Variáveis Aleatórias; Processo de Poisson;


Otimização na seleção entre famílias de cana-de-açúcar por meio do uso de redes neurais artificiais - Link direto para esse trabalho
Édimo Fernando Alves Moreira; Jaqueline Gonçalves Fernandes; Luiz Alexandre Peternelli; Ethel Fernandes de Oliveira Peternelli

Um dos grandes desafios nos programas de melhoramento genético de cana-de-açúcar é a seleção eficiente de genótipos nas fases iniciais. Esse desafio advém da grande quantidade de genótipos avaliados e da dificuldade operacional da pesagem das parcelas do experimento, necessária nos principais métodos de seleção. O objetivo deste trabalho é utilizar modelos de redes neurais para seleção de famílias promissoras em cana-de-açúcar com base nos caracteres indiretos altura de colmos (AC), diâmetro de colmos (DC) e número de colmos (NC) – variáveis de entrada da rede – e o resultado do processo de seleção via TCHr (Tonelada de Cana por Hectare real), utilizada como variável de saída, e compará-los com a seleção de famílias acima da média geral para a variável tonelada de cana por hectare estimada (TCHe). A análise foi feita em dois diferentes cenários: com simulação e sem simulação. A rede neural usada neste trabalho foi uma rede de múltiplas camadas (Multilayer Perceptron - MLP) com uma camada intermediária entre a camada de entrada e a camada de saída. A seleção via TCHe foi feita selecionando as famílias que apresentaram TCHe acima da média geral fenotípica. Para comparação e avaliação dos métodos empregados foi utilizada a taxa de erro aparente (TEA) obtidas a partir da matriz de confusão. A modelagem via redes neurais, quando do uso da simulação para compor o conjunto de treinamento, fornece menor taxa de erro aparente quando comparada a estratégia usualmente utilizada, que é baseada na estimação da variável tonelada de cana por hectare. Modelos de redes neurais podem ser utilizados para seleção entre famílias de cana-de-açúcar, contornando assim o problema de pesagem no campo e otimizando o processo de seleção de famílias promissoras em cana-de-açúcar.
Palavras-Chave: Melhoramento vegetal; Saccharum spp; simulação;


PANORAMA DA EVASÃO NA UFPE- segundo diferentes métodos de cálculo - Link direto para esse trabalho
Erika Cristina da Silva; Jansen Dodo da Silva Campos; Maria Cristina Falcão Raposo

A Evasão é a saída definitiva do aluno do curso de origem sem concluí-lo. Existem três tipos de evasão: Evasão da Instituição , Evasão do Curso que se caracteriza quando o aluno opta pela transferência de curso na mesma instituição; e Evasão do Sistema que ocorre quando o aluno não se matricula ou abandona o curso. O objetivo deste estudo é medir a evasão na UFPE usando dois métodos distintos, quais sejam: o método de fluxo (coorte) e o um método adaptado de Lobo (2012). Os resultados foram analisados por área de conhecimento, e foram realizadas previsões quatro anos à frente através de um modelo auto-regressivo, que constatou que a taxa de evasão tende a cair.
Palavras-Chave: Evasão; previsões; medição;


PET Estatística - Um Instrumento de Apoio e Fortalecimento do Projeto Pedagógico do Curso de Bacharelado em Estatística da UFSCar - Link direto para esse trabalho
Adriane Donegá; Gretta Rossi Ferreira; Paula Ianishi; Victor Vinicius Fernandes; Pedro Ferreira Filho

O Programa de Educação Tutorial (PET), coordenado pela SESU/MEC, atua sobre a graduação e está orientado para o desenvolvimento de ações de caráter interdisciplinar e obtenção de conhecimentos práticos, objetivando a formação de cidadãos com ampla visão do mundo e responsabilidade social. O PET Estatística iniciou suas atividades em 2006 e tem como foco de atuação contribuir com a consolidação e aperfeiçoamento do Projeto Pedagógico do Curso (PPC). As atividades desenvolvidas pelo Grupo têm por objetivo desenvolver alternativas para a complementação da formação dos alunos para além da grade curricular. Dentre as atividades atuais do grupo podem ser destacadas: apoio a disciplinas iniciais, grupos de estudos, minicursos, seminários, iniciação científica, PET-Visita e participação e organização de eventos. Os resultados obtidos pelo programa têm sido bastante satisfatórios, seja do ponto de vista da formação dos alunos que dele participam, seja do ponto de vista dos demais alunos através das atividades de complementação de formação desenvolvidas de acordo com Projeto Pedagógico do Curso.
Palavras-Chave: Programa de Educação Tutorial; Projeto Pedagógico do Curso; Atividade de extensão;


PREVENDO OS ÍNDICES PLUVIOMÉTRICOS DO MUNICÍPIO DE SERRANÓPOLIS DO IGUAÇU UTILIZANDO AS TÉCNICAS DE BOX E JENKINS - Link direto para esse trabalho
Keyla Malacarne; Juliane Andressa Camatti; Silvana Ligia Vincenzi Bortolotti; Fernando de Jesus Moreira Junior

O presente artigo aborda um estudo de séries temporais utilizando o modelo de Box & Jenkins. Os dados utilizados foram fornecidos pela cooperativa agroindustrial Lar de Serranópolis do Iguaçu, sendo esses, índices pluviométricos do mês de janeiro a dezembro dos anos de 2008 a 2013. Este trabalho teve como objetivo obter uma capacidade de previsão para auxiliar os produtores no desenvolvimento de suas lavouras. Aplicando modelo de Box & Jenkins identificou que há três modelos que podem ser ajustados. Após todas as análises, concluiu-se que o modelo teve uma ótima capacidade de previsão
Palavras-Chave: Séries temporais; Modelo de Box e Jenkins; Índices pluviométricos;


PROCESSOS DE RENOVAÇÃO OBTIDOS POR AGREGAÇÃO DE ESTADOS A PARTIR DE UM PROCESSO MARKOVIANO - Link direto para esse trabalho
Walter Augusto Fonseca de Carvalho

Esta tese é dedicada ao estudo dos processos de renovação binários obtidos como agregação de estados a partir de processos Markovianos com alfabeto nito. Na primeira parte, utilizamos uma abordagem matricial para obter condições sob as quais o processo agregado pertence a cada uma das seguintes classes: (1) Markoviano de ordem nita, (2) processo de ordem innita com probabilidades de transição contínuas, (3) processo Gibbsiano. A segunda parte trata da distância  d entre processos de renovação binários. Obtivemos condições sob as quais esta distância pode ser atingida entre tais processos.
Palavras-Chave: Transformação Agregante ; Processo Markoviano Oculto; Processos de Renovação; Agregabilidade; Distância d-bar;


PROPOSTA DE ENSINO DE ESTATÍSTICA EM UMATURMA DE NONO ANO DO ENSINO FUNDAMENTAL COM USO DO PROGRAMA R-COMMANDER - Link direto para esse trabalho
Luís Henrique Pio de Almeida; Aline Castello Branco Mancuso; Luciana Neves Nunes

Muitas pesquisas estão sendo realizadas na área de ensino de Matemática que apontam a necessidade e os ganhos educacionais no estudo e no ensino de conceitos estatísticos. Neste contexto, este trabalho traz a análise e a proposta de uma atividade para estudantes do Ensino Fundamental. O principal objetivo deste trabalho foi planejar e aplicar uma sequência didática, envolvendo o uso do programa R-Commander, que estimulasse os alunos no interesse e compreensão dos conceitos estatísticos. Em termos metodológicos, a pesquisa empregada classifica-se como estudo de caso, realizada em uma escola estadual de Porto Alegre (RS) com uma turma do Nono ano do Ensino Fundamental. Esta proposta se enquadra no cenário de investigação descrito por Skovsmose (2001) e nos moldes da modelagem Matemática. A análise dos dados coletados foi baseada nos princípios da Educação Estatística. A partir dos resultados obtidos foi possível se observar que a modelagem matemática aliada ao uso do R-commander foi uma combinação favorável para uma boa abordagem do ensino de Estatística.
Palavras-Chave: Ambientes de Aprendizagem; Educação Estatística; Modelagem Matemática.; R-Commander;


Passeios Aleatórios - Link direto para esse trabalho
Thiago Ramos Biondo;Pablo Martín Rodriguez

Este trabalho tem como objetivo discutir propriedades de um processo estocástico clássico da teoria de probabilidades, o passeio aleatório. Serão apresentados os conceitos de recorrência e transiência e serão estudadas variações do processo original. A discução será complementada com alguns exemplos como o modelo de filas e o problema da ruína do jogador.
Palavras-Chave: Passeios Aleatórios; Recorrência e transiência; Ruína do Jogador;


Percolação em Infinitas + 1 dimensões - Link direto para esse trabalho
Rachel Abrahão Ribeiro; Roger William Câmara Silva.

Neste artigo, examinamos o trabalho de Grimmett e Newman sobre percolação em um grafo cuja quantidade de aglomerados abertos in nitos possui três fases não-triviais, correspondentes a existência de nenhum, in finitos ou um aglomerado. Esse grafo, denominado L, é construído a partir do produto direto de uma árvore regular T com a linha Z, no qual cada elo da árvore está aberto com probabilidade tau e cada elo da linha, com probabilidade lambda. O objetivo principal é de finir, no quadrado unitário, como se comportam as curvas que dividem as três regiões, representativas das três fases, a partir dos possíveis valores do par ordenado (tau;lambda).
Palavras-Chave: Percolação; Árvore; Transição de fase;


Perfil Socioeconômico X Desempenho dos candidatos no Processo Seletivo da UFPA 2013 - Link direto para esse trabalho
Brunno Thadeu Tavares Bittencourt; Maria Regina Madruga; Heliton Ribeiro Tavares

Este trabalho teve por objetivo estimar um escore socioeconômico para os candidatos do Processo Seletivo da Universidade Federal do Pará do ano de 2013 (PS UFPA 2013), traçando um perfil dos candidatos segundo alguns fatores associados. Com base em um questionário de 26 itens relativos a aspectos socioeconômicos, elaborado pela UFPA e respondido por 9.649 candidatos à uma vaga de graduação na mesma no ano de 2013, foi utilizado um Modelo de Resposta Nominal da Teoria da Resposta ao Item para estimar o escore socioeconômico. Os itens relativos à “renda familiar”, “acesso a microcomputador” e “acesso à internet” foram os que apresentaram maior contribuição para a estimação do nível socioeconômico. Observou-se que, considerando os cursos com pelo menos 50 respondentes do questionário, os cursos de Medicina – Integral e Engenharia Civil – Noturno apresentaram os candidatos com os maiores escores socioeconômicos, já os cursos de Pedagogia – Matutino e Noturno apresentaram os candidatos de menor escore socioeconômico. Observou-se, também, um melhor desempenho no PS UFPA 2013 entre os indivíduos do grupo com maior escore socioeconômico. Com base nos quartis foram construídos, em ordem crescente, os grupos sociais 1, 2, 3 e 4, que apresentaram percentuais de aprovação de 8,5 %, 10,6%, 11,6% e 13,3%, respectivamente. Para todos os grupos observou-se um melhor desempenho dos candidatos do sexo masculino e dos candidatos oriundos da zona urbana.
Palavras-Chave: escore socioeconômico; modelo de resposta nominal; desempenho acadêmico;


Perfil do Delito Roubo em Belém, Estado do Pará - Link direto para esse trabalho
Lorena Maria Amoras Corrêa; Silvia de Almeida dos Santos; Débora Fernanda Castro Vianna Oliveira

Dentre as diversas formas de controle social que visam a convivência entre os sujeitos que compõem a sociedade, há aquela que impõe aos indivíduos a proibição à prática de determinadas condutas, e quem infringe esta proibição comete um delito, dentre os delitos, o de roubo é um dos que mais acontecem na atualidade. Neste sentido este artigo se propõe a traçar o perfil do delito roubo na região metropolitana de Belém, no Estado do Pará, partir de estatística descritiva. Com este estudo foi possível ter ciência de que os bairros que mais ocorreram o delito roubo em 2012 foram Guamá, Jurunas, Marambaia, Marco, Pedreira e São Brás, e que independente do dia da semana o turno que mais ocorre o delito é à noite, e normalmente sem instrumento.
Palavras-Chave: Subtrair; Roubo ; Delito;


Perfil dos aposentados no Brasil nas últimas duas décadas: utilizando decomposição de Oaxaca-Blinder em modelo Logit - Link direto para esse trabalho
Maria Kelly Venezuela; Regina Madalozzo; Fernanda Guinsburg Mendes

De acordo com dados da PNAD (Pesquisa Nacional por Amostra de Domicílios), em 1992, a quantidade de homens aposentados acima de 53 anos economicamente ativos correspondia a 32%. Duas décadas depois - 2011, essa proporção caiu para 25%. Observando apenas esses percentuais, não fica claro saber quais características influenciaram mais para um aposentado ofertar seu trabalho: Morador de alguma região do Brasil? Renda a mais além do valor da aposentadoria? Idade? Ou Anos de estudos? Entre essas e outras características, o objetivo deste trabalho é entender se há e qual é o perfil de aposentados que continuam economicamente ativos ou não durante essas duas últimas décadas. Para isso, utilizamos uma modificação da técnica de decomposição desenvolvida por Oaxaca (1973) e Blinder (1973) aplicada ao modelo Logit (Nielsen, 1998). Os modelos serão estimados via STATA e as técnicas de diagnostico via plataforma R (www.r-project.org).
Palavras-Chave: regressão logística; decomposição de Oaxaca-Blinder; aposentadoria; mercado de trabalho brasileiro;


Peso de bebês ao nascer: análise preditiva baseada em modelos mistos - Link direto para esse trabalho
Ana Paula Zerbeto; Viviana Giampaoli.

A partir de uma seleção das características clínicas e socioeconômicas de gestantes que influenciam no peso de seus bebês ao nascer é possível prever o peso de um recém-nascido. Com esse intuito, ajustou-se o modelo de regressão beta misto e as estimativas dos parâmetros deste modelo foram utilizadas na análise preditiva dos dados. Para esta finalidade fez-se uso do melhor preditor empírico, o qual apresentou bons resultados.
Palavras-Chave: peso de recém-nascidos; modelo beta misto; melhor preditor empírico;


Pessoas com deficiência: o que encontramos atrás da inclusão - Link direto para esse trabalho
PAULO TADEU MEIRA E SILVA DE OLIVIERA

É considerado, atualmente, como um facto ao longo da história, que pessoas com deficiência sempre existiram (Silva, 1986). Paulatinamente, a sociedade tem percebido que, além de caridade e assistência, tais pessoas devem ser incluídas em programas e políticas públicas que poderiam melhorar o seu potencial produtivo (Garcia, 2010). Desde 1970, em todo o mundo, e desde 1990, no Brasil, tem sido reconhecida a importância do desenvolvimento de raciocínio probabilístico, ou seja, a necessidade de romper com a cultura determinista, através da inserção de noções de Probabilidade e Estatística no conteúdo de matemática no ensino básico e nos níveis secundários. Além disso, estatísticas é utilizado atualmente em diversas áreas do conhecimento, inclusive em estudos quantitativos sobre educação e deficiência, dando apoio a um melhor acesso à educação, trabalho, saúde e outros direitos humanos, necessário para todas as pessoas, quer tenham ou não deficiência. No século XX, a educação foi assumida como uma responsabilidade social, tornando-se um direito de todos os indivíduos e adicionando novas preocupações, constituindo uma política orientada sob novos paradigmas, a chamada educação inclusiva. Esta tem sido considerada, no Brasil, desde a última década do século XX, e hoje, tornou-se um assunto muitas vezes discutido em vários segmentos da sociedade (Santos, 2010). Em termos estatísticos, o IBGE (Instituto Brasileiro de Geografia e Estatística) em 2010, estima que existiam no Brasil 45.606.048 pessoas com pelo menos uma deficiência, sendo 41.830.812 com idade acima de 15 anos, de acordo com a RAIS (Relação Anual de Informações Sociais) do Ministério do Trabalho, nesse mesmo ano, existiam 44.068.535 trabalhadores registrados, entre os quais 306.048 eram pessoas com deficiência com mais de 15 anos de idade, distribuídos por sexo (masculino e feminino); nível de instrução (fundamental incompleto, fundamental completo entre e secundário incompleto, entre colégio secundário e incompleto e completo grau completo ou mais), e com diferentes tipos de deficiência (física, para ouvir, ver, intelectual, múltipla e reabilitado (somente RAIS)). Com o intuito de corrigir essa distorção, o governo brasileiro, via Congresso Nacional, aprovou em 1993 a Lei de Cotas, uma ação afirmativa exigindo de todas as empresas públicas e privadas contratassem obrigatoriamente pessoas com deficiência em um percentual que varia entre 2-5% do número de funcionários registrados na empresa. Esta lei, se todas as empresas respeitassem em 2010, deveriam haver cerca de 950 mil pessoas com deficiência de acordo com a RAIS, sob a Lei de Cotas. Mesmo assim, este valor representaria cerca de 3% das pessoas com deficiência com carteira assinada, de acordo com os dados do IBGE. A fim de oferecer suporte técnico para que possa melhor incluir essas pessoas, é necessário analisar diversas situações, tais como, possíveis defasagens existentes entre pessoas com deficiência e que não têm deficiência, examinando os resultados obtidos nos dados do Censo do IBGE e da RAIS, a partir de 2010. Então, é necessário ter em conta as diferenças importantes, nomeadamente o grupo de pessoas com deficiência completa, em comparação com aqueles com deficiência severa e, também, outras variáveis tais como fundo de educação e renda, no Brasil (Bussab e Morettin, 2013). É importante destacar que, nos últimos anos, muito tem sido obtido através da mobilização de grupos de pessoas envolvidas neste segmento, direitos para as pessoas com deficiência, tais como educação, emprego, transporte, recreação, saúde e outros. Porém, ainda existe um longo caminho a percorrer antes que as pessoas com deficiência possam ser consideradas, de fato, incluído na sociedade. Neste trabalho, pretendemos mostrar situações, que mesmo depois de várias campanhas, diversos problemas que não deixam claros para que essas pessoas sejam melhores incluídas, como verificado a partir de dados da RAIS e do IBGE.
Palavras-Chave: Pessoas com deficiência; dados IBGE; dados RAIS; Lei de Cotas; Educação Estatística;


Poder de controle, benefícios privados e normas de proteção ao investidor: uma análise de companhias brasileiras - Link direto para esse trabalho
Felipe dos Santos Ronco; Wagner Oliveira Monteiro

O presente estudo tem por objetivo mensurar o diferencial de preços das ações com e sem direito a voto de emissão de 31 companhias brasileiras, no intervalo de janeiro de 2006 a dezembro de 2011, e identificar o impacto de normas recentes de proteção ao investidor na alteração do referido diferencial de preços, por meio de estimações econométricas, levando em consideração igualmente outras variáveis significativas, de modo a estabelecer, diante dos resultados apresentados, uma relação entre tais normas protetivas e a extração de benefícios privados do poder de controle.
Palavras-Chave: Poder de Controle; Dados em Painel; Efeitos Fixos;


Possíveis fatores explicativos para satisfação de estudantes universitários com a organização de seus cursos - Link direto para esse trabalho
Sharlene Neuma Henrique da Silva; Maria Cristina Falcão Raposo

A qualidade da instituição, a qualidade do curso de Graduação, o envolvimento e a satisfação dos alunos são fatores que determinam o perfil e desempenho dos profissionais que ingressam em um mercado de trabalho cada vez mais competitivo e exigente. O nível de satisfação dos estudantes com relação ao ensino universitário é uma maneira de conhecer o ponto de vista do estudante e obter informações para melhorar a qualidade do ensino e da aprendizagem. O objetivo principal deste estudo é avaliar o nível de satisfação dos estudantes de Graduação, em especial quanto à organização de seu curso na Universidade Federal de Pernambuco (UFPE). Um modelo de regressão logística utilizado para estimar a probabilidade dos estudantes estarem satisfeitos com a organização de seus cursos, revelou que no Campus Recife há maior insatisfação dos alunos com a organização do curso em comparação com os Campi do Interior e ainda que à medida que aumenta a quantidade de semestres letivos cursados eles tendem a avaliar o curso mais rigorosamente.
Palavras-Chave: Satisfação; Ensino superior; Organização do curso;


Precise Hypothesis Testing of the Hardy-Weinberg Equilibrium: A comparison between FBST and BRC - Link direto para esse trabalho
Lia Hanna Martins Morita; Vitor Marchi; Vera Lucia Tomazella.

Many of the problems which traditionally have been formulated in terms of hypothesis testing are really complex decision problems on model choice, whose appropriate solution naturally depends on the structure of the problem. In this work, a probability model for the formation of genotypes from two alleles is given and expressed in terms of two parameters, "alpha" and "beta"; "alpha" = 0 corresponding to Hardy-Weinberg equilibrium (Lindley, 1988). A particular scientifi c hypothesis of genetical equilibrium is discussed, special attention is paid to considering that in some genetical applications the proportion of A alleles is known fairly precisely before sampling, the posterior distribution of "alpha" considering "beta" known is found providing estimation of "alpha" . The corresponding precise hypothesis testing problem is considered through Bayesian viewpoint using the Bayesian Reference Criterion (BRC) proposed by Bernardo and Rueda (2002) and Full Bayesian Signi cance Test (FBST) proposed for Pereira and Stern (1999). These procedures are Bayesian alternatives to the usual signi cance test or equivalently, to p-values. The results are illustrated using a example with data previously analyzed in the literature.
Palavras-Chave: Reference Analysis; Hardy-Weinberg equilibrium; Precise hypothesis testing; Information-Theory; Full Bayesian Signi;


Predição da concentração de ozônio na região da Grande Vitória, Espírito Santo, utilizando o modelo ARMAX-GARCH - Link direto para esse trabalho
Edson Zambon Monte; Taciana Toledo de Almeida Albuquerque; Valdério Anselmo Reisen

O objetivo deste trabalho foi estimar a concentração horária de ozônio na região da Grande Vitória, Espírito Santo, Brasil, utilizando o modelo ARMAX/GARCH, para o período 01/01/2011 a 31/12/2011. Foram utilizados dados da rede de monitoramento do Instituto Estadual de Meio Ambiente e Recursos Hídricos (IEMA), sendo escolhidas três estações: Laranjeiras, Enseada do Suá e Cariacica. Adotou-se alguns parâmetros medidos nas estações como variáveis explicativas da concentração de ozônio, a saber: temperatura, umidade relativa, velocidade do vento e concentração de dióxido de nitrogênio. Estas foram significativas e melhoram o ajuste do modelo estimado. As predições horárias para o dia 31.12.2011 (reservado para verificar a acurácia do modelo) revelaram-se muito próximas dos valores observados, sendo que as estimativas, em geral, seguiram a trajetória diária da concentração de ozônio. No mais, em comparação aos modelos ARMA e ARMAX, o modelo ARMAX-GARCH revelou-se mais eficaz na predição de episódios de poluição de ozônio (concentração horária superior a 80 µg/m3), reduziu o número de falsos alarmes estimados e apresentou menor taxa de ocorrência de episódios não detectados.
Palavras-Chave: Ozônio; Poluição do ar; Séries temporais; ARMAX; GARCH;


Predição de valores genéticos por meio de Redes Neurais Artificiais - Link direto para esse trabalho
Gabi Nunes Silva; Rafael Simões Tomaz; Vinícius Quintão Carneiro; Cosme Damião Cruz

O trabalho foi realizado com o propósito de utilizar as redes neurais artificiais (RNA) como metodologia alternativa para predição de valores e ganhos genéticos. Em contraste com os métodos convencionais de seleção, o uso da inteligência artificial permite que o pesquisador agregue outras estatísticas, além da média fenotípica, ao processo de seleção. Para avaliar a eficiência da rede na predição, foram considerados cinco cenários simulados, com coeficiente de variação de 15%, média igual a 100 e herdabilidades de 40 %, 50%, 55%, 65% e 70%. Cada cenário consistiu em 100 genótipos. Na arquitetura de rede utilizada, adotou-se como entrada os valores das médias fenotípicas, máximo, mínimo, desvio padrão, coeficiente de variação, soma dos ranks, a estatística Pi e os valores codificados dos genótipos, e como saída desejada o valor genético verdadeiro. Para todos os cenários, a seleção por meio da RNA apresentou maior acurácia que a obtida via metodologias convencionais de seleção. Os resultados obtidos demonstram o grande potencial das Redes Neurais Artificiais como metodologia alternativa de predição nos programas de melhoramento. Demonstraram ainda que a utilização de dados simulados apresenta grande aplicabilidade quando se deseja gerar ou replicar informações representativas de um genótipo.
Palavras-Chave: Inteligência artificial; Seleção; Simulação;


Prevendo o resultado das eleições brasileiras de 2010/2014 - Link direto para esse trabalho
Neale Ahmed El Dash

Modelos de previsão eleitoral tentam prever o resultado de uma eleição. Tais previsões podem ser feitas muito antes da eleição (um ano ou mais) e muito próximas ao dia da eleição (alguns dias antes). Essas previsões podem utilizar desde metodologias muito simples até modelos estatísticos multivariados altamente sofisticados. Previsão eleitoral tem muitas aplicações na prática. De fato, reduzir a incerteza sobre qual candidato vai ganhar a eleição pode ser uma importante vantagem estratégica para os tomadores de decisão no setor privado, bem como para todos nós. Os exemplos são muitos, mas incluem as empresas de serviços financeiros que apostam em moeda ou ações, as empresas que querem fazer investimentos de capital de longo prazo, e os partidos políticos que escolhem o candidato mais viável. Em última análise, a previsão da eleição é uma ferramenta fundamental na avaliação do risco político associado a qualquer decisão específica. Alguns fatores relevantes tornam as eleições brasileiras complexas de prever. Os fatores mais importantes são a existência de poucas eleições democráticas (6) e o pequeno histórico de pesquisas eleitorais no país. Adicionando-se a esse contexto a enorme quantidade de partidos políticos, em conjunto com a constante troca de legenda por políticos, e a dimensão continental do Brasil com a suas realidades locais bem distintas, a previsão eleitoral no país se torna particularmente complexa. Usualmente, os modelos de previsão eleitoral se dividem em dois tipos: modelos de agregação, os quais agregam pesquisas eleitorais, e os modelos estruturais, os quais incluem como preditoras variaveis economicas e conjunturais. Esses dois tipos de modelos são bem diferentes na prática, com aspectos positicos e negativos. Os modelos de agregação podem ser vistos como dinâmicos, eles são capazes de captar todas as mudanças na intenção de voto que ocorrem durante um ciclo eleitoral. Por outro lado, os modelos estruturais conseguem utilizar informação histórica e conjuntoral sobre as eleições, captando tendências que se repetem em diferentes ciclos eleitorais. Os modelos de agregaçao são melhores para prever a intenção de voto em um particular momento do tempo, porém quando o interesse está em fazer previsões para o resultado da eleição, as informações economicas e conjunturais captadas pelos modelos estruturais se mostram essênciais. Quanto mais distante da eleição a previsão é feita, quanto mais importante são as informações históricas. A maioria desses modelos para previsão eleitoral foram desenvolvidos para prever a eleição americana. Como existem diversas diferenças entre a eleição americana e a brasileira, não é possível aplicar diretamente esses modelos ao contexto brasileiro. Nessa apresentaçao esses diferentes modelos serão apresentados, e discutirei como combinar esses dois tipos de modelo utilizando inferência bayesiana, permitindo que previões sejam feitas para qualquer dia do ciclo eleitoral, especialmente para o dia da eleição. Também discutirei como os modelos da literatura foram adaptados para o caso particular do Brasil. Serão apresentadas previsões para o cíclo eleitoral de 2010, realizadas em diferentes momentos do tempo. Também apresentarei uma previsão para o ciclo eleitoral de 2014, condicionada as informações existem até o Julho de 2014.
Palavras-Chave: pesquisas eleitorais; previsão; inferência bayesiana;


Previsão da concentração de ozônio troposférico utilizando modelo de rede neural na Região Metropolitana de São Paulo - Link direto para esse trabalho
Yoshio Yanagi; Thiago De Russi Colella; Clarice Aico Muramoto; Ricardo Anazia

O ozônio é um poluente atmosférico que não é emitido diretamente para a atmosfera. É formado pelas reações fotoquímicas entre os óxidos de nitrogênio e compostos orgânicos voláteis. A sua presença, em altas concentrações, afeta a saúde da população de diversas formas: causa doenças no sistema respiratório, além de irritação nos olhos e nariz. Pode, também, causar danos à vegetação. Para este estudo foi considerado o padrão nacional de qualidade do ar para o ozônio (1 hora) de 160 µg/m3. Objetivo: O objetivo foi desenvolver um modelo capaz de prever, com antecedência de um dia, o nível de concentração máximo de ozônio na Região Metropolitana de São Paulo (RMSP). Metodologia: O método foi baseado em uma rede neural artificial. Os dados usados operacionalmente foram provenientes de modelos de previsão meteorológica (Modelo Eta 40 Km), executados pelo CPTEC/INPE. Conclusão: O modelo apresentou, no geral, alto percentual de acerto (94,4%), entretanto a probabilidade de prever concentrações altas, POD, foi baixa (31%). A explicação pode estar no fato de terem ocorridos poucos eventos de ozônio alto no período analisado (2005 a 2011). Com a inclusão de outras variáveis no modelo pode ocorrer melhora nos resultados. A primeira inclusão foi considerando o óxido de nitrogênio (NO) e o dióxido de nitrogênio (NO2). Os resultados obtidos indicaram melhora nas estatísticas.
Palavras-Chave: rede neural artificial; previsão; poluente atmosférico; ozônio; saúde;


Previsão da produção anual de arroz e feijão no Brasil usando séries temporais - Link direto para esse trabalho
Mirian Fernandes Carvalho Araújo; Valiana Alves Teodoro; Rick Anderson F. Mangueira; Walter Mesquita Filho; Vitor Augusto Ozaki

O agronegócio brasileiro responde atualmente por cerca de 25% do PIB nacional, gerando 35 milhões de empregos (MAPA, 2013). A produção de grãos é um dos componentes mais importantes deste sistema devido ao constante crescimento da produção de seus diferentes produtos na última década (CONAB, 2013). Utilizou-se o conjunto de dados anuais referente a duas series univariadas, representada por produção de arroz e feijão do Brasil entre os anos agrícolas de 1976/1977 a 2012/2013 (Conab). Para ajustar modelos a uma série temporal observada é necessário remover as fontes de variação não estacionaria. Se a série observada for não estacionaria pode-se tentar remover a tendência fazendo uma transformação, que consiste em tomar diferenças sucessivas da série original, até obter uma série estacionaria. Este modelo é conhecido por Auto-regressivo integrado de media móvel (ARIMA). Para determinar a ordem adequada de um modelo é recomendado utilizar as funções de autocorrelação (ACF) e função autocorrelação parcial (PACF). Comparou-se diversos modelos da classe ARIMA e identificou um modelo de previsão para os próximos 5 anos de produção anual de arroz e feijão do Brasil. E, posteriormente, comparou esta previsão com as previsões da Conab, e assim escolheu-se um modelo que melhor se aproximou destas previsões. Com base nos valores de U-Theil sugere-se o modelo ARIMA(0;1;1)para a série de produção de arroz e o modelo ARIMA(2;1;0) para a série de produção de feijão. Os modelos ajustados para previsão da produção anual de arroz e feijão foram do tipo ARIMA e apresentaram resultados semelhantes aqueles previstos pela Conab.
Palavras-Chave: Agronegócio brasileiro; modelo ARIMA; coeficiente U de Theil;


Previsão da qualidade seminal através de regressão logística e árvores de classificação - Link direto para esse trabalho
Caroline Tenório Mendes de Aquino; Rondey Vasconcelos Fonseca; Ana Maria Souza de Araujo

A fertilidade masculina pode ser influenciada por diversas variáveis, e o estudo dos principais fatores que atuam sobre ela pode ser útil para realizar diagnósticos em pacientes, assim como na ação preventiva. Técnicas de classificação possuem grande utilidade em diversas áreas de pesquisa, como por exemplo, em aplicações em saúde. Com este trabalho pode-se verificar o comportamento de dois métodos de classificação: regressão logística e árvores de classificação, comparando-os quanto ao desempenho na predição do diagnóstico da qualidade seminal de voluntários de uma pesquisa. Pode-se observar que a taxa de erro dos dois métodos foi relativamente baixa para o conjunto de dados analisado, porém houve grande diferença nos valores de sensibilidade devido ao baixo número de observações com a característica de interesse (diagnóstico alterado), o que poderia ser um indício de que um tamanho de amostra maior fosse necessário para uma melhor estimação dessa taxa, sobretudo para doenças com baixa prevalência.
Palavras-Chave: Qualidade Seminal; Árvores de classificação; Regressão Logística;


Previsão de Pedidos de Peças de Reposição por Cadeias de Markov - Link direto para esse trabalho
Mônica Cristina Bogoni Savian; Cátia Michele Tondolo; Conrado Couto Lara Ferreira; Luciane Flores Jacobi;

Esse estudo utilizará a análise de dados relacionados à previsão de demanda intermitente para a gestão de peças de reposição de aeronaves de asas rotativas adquiridas pelo Depósito Especial Alfandegário (DEA) da Diretoria de Material de Aviação do Exército (DMAvEx), de onde foram obtidos os dados. Foram codificadas 840 peças diferentes com pedidos realizados ou não por ano, das quais serão avaliadas as 50 com maior número de itens solicitados pelo DEA/DMAvEX , que correspondem as 5,95% mais pedidas. As análises foram realizadas utilizando a planilha eletrônica Excel e o software R (R Core Team, 2012). Foram estabelecidas quais as chances de cada uma das 50 peças serem solicitadas ou não no próximo ano.
Palavras-Chave: Previsão;; Demanda intermitente;; Aeronaves de asas rotativas;; Processos não-determinísticos;;


Previsão para a Exportação do Algodão Brasileiro: Uma Comparação entre Modelos de Séries Temporais - Link direto para esse trabalho
Débora Spenassato; Antonio Cezar Bornia; Andréa Cristina Konrath; Rafael Tezza

Nos últimos anos, o Brasil tem se destacado entre os cinco maiores exportadores no setor da cotonicultura, influenciando na economia nacional. Neste contexto, o presente estudo tem por objetivo realizar previsões para a exportação do algodão brasileiro para um horizonte de 12 meses. Para isso, compararam-se os modelos ingênuo, suavização exponencial e SARIMA, cujos resultados demonstraram que o modelo SARIMA é o mais adequado para gerar as previsões utilizando os critérios de informação de Akaike (AIC) e U de Theil. O modelo que se adequou melhor aos dados obteve um erro percentual absoluto médio (MAPE) de 3,44%. Os intervalos de predição calculados mostram o risco associado às estimativas, os quais devem ser considerados pelos tomadores de decisão. Assim, pode-se concluir que as previsões são muito úteis para auxiliar no planejamento eficaz e eficiente para a tomada de decisões.
Palavras-Chave: Exportação; Algodão brasileiro; Modelos de Previsão;


Produção científica e sua relação com o perfil dos docentes da UFPE - Link direto para esse trabalho
Patrícia de Souza Medeiros; Priscila Gonçalves da SIlva; France E. G. de Oliveira; Joelma Mayara da SIlva; Juliely R. de Araujo

O objetivo desta pesquisa foi analisar/quantificar a produção científica dos departamentos da UFPE de acordo com o seu perfil dos docentes do ano de 2012. Para cada professor, foi analisado o número de artigos publicados no período de 2010 à 2012 através da plataforma Lattes, e ajustado um modelo de regressão linear identificando as variáveis que mais influenciam na produção científica .
Palavras-Chave: Produção científica; Docente; Perfil curricular; Modelo de regressão;


Proposta de testes de comparações múltiplas baseadas na distribuição da midrange estudentizada externamente - Link direto para esse trabalho
Ben Deivide de Oliveira Batista; Daniel Furtado Ferreira

A proposta do presente trabalho é construir testes com base em quantis da distribuição da midrange estudentizada externamente, nos moldes dos testes originais de Tukey, SNK e Duncan. Duas estratégias serão consideradas neste trabalho. A primeira terá de avaliar as taxas de erro tipo I por experimento dos testes de comparações múltiplas propostos. A segunda será delineada para avaliar o poder dos testes. Em ambos os casos, será usada simulação Monte Carlo. Em cada simulação serão aplicados os testes de comparação múltipla em um nível nominal pré-estabelecido de significância alpha, verificando se a hipótese nula será ou não rejeitada. Este processo, em cada caso, será repetido N=2000 vezes e a proporção de experimentos com pelo menos uma decisão incorreta, no primeiro caso, é a taxa de erro tipo I por experimento empírica e, no segundo caso, a proporção de decisões (rejeições) corretas é o poder empírico. Nenhum resultado, além dos resultados teóricos, foi obtido até o momento.
Palavras-Chave: Teste de hipótese; Midrange; Comparações múltiplas;


Propriedades estatísticas e matemáticas da distribuição Pareto tipo IV e sua aplicação em dados censurados - Link direto para esse trabalho
Paulo H. D. Silva; Thiago M. Carvalho; Cira E. G. Otiniano; Eduardo Y. Nakano

Apresentamos neste trabalho algumas propriedades estatísticas e matemáticas do modelo Pareto tipo IV, tais como os momentos ordinais, momentos centrais, função característica e entropia de Renyi. As estimativas dos parâmetros do modelo foram obtidas dentro de um contexto de Análise de Sobrevivência e a metodologia foi ilustrada em simulações realizadas através do software R.
Palavras-Chave: Análise de sobrevivência; Momentos; Entropia de Renyi; Função Característica; Pareto tipo IV ;


Prática experimental na avaliação do tempo de desintegração de um medicamento efervescente em diferentes configurações - Link direto para esse trabalho
Alexandre Henrique Quadros Gramosa; Leonardo de Sousa Paiva; Rita Lima Leão

Neste trabalho buscou-se desenvolver uma prática experimental a partir da análise do tempo de desintegração de um comprimido efervescente. Os procedimentos metodológicos levaram em consideração um delineamento em esquema fatorial. Foram utilizadas 3 réplicas oriundas das combinações dos níveis e fatores estudados. Uma análise descritiva e a ANOVA foram utilizados para detectar possíveis diferenças significativas nas variações de respostas com as mudanças dos tratamentos.
Palavras-Chave: Delineamento; Fatorial; Medicamento; Efervescente; Prática;


QUALIDADE DE VIDA E SATISFAÇÃO COM A SAÚDE DOS ALUNOS DA UFPE - Link direto para esse trabalho
Glauce da Silva Guerra; Claúdia Regina O. P. Lima; Maria de Fátima Galdino da Silveira

Este estudo deriva-se do interesse de buscar o conhecimento dos principais fatores que influenciam tanto na qualidade de vida quanto na satisfação com a saúde dos alunos da UFPE. Uma vez que identificados os possíveis fatores pode-se desenvolver um trabalho que tente sanar tais problemas. Uma vez que se sabe que o aluno que não está satisfeito com sua vida pessoal provavelmente não conseguirá se empenhar na universidade da forma que deveria. O presente trabalho tem como objetivo modelar a Qualidade de Vida e a Satisfação com a Saúde dos alunos de Graduação da Universidade Federal de Pernambuco (UFPE) do Campus Recife que estavam matriculados na disciplina de Anatomia no semestre 2012.2. As variáveis respostas (Qualidade de Vida e Satisfação com a Saúde) são variáveis que se comportam seguindo a distribuição Bernoulli, ou seja, uma variável binária, que é da classe da família exponencial. Dessa forma os modelos ajustados são uma aplicação do modelo de regressão logística, sendo considerada a função de ligação logit.
Palavras-Chave: Modelo logístico; Qualidade de Vida; Satisfação com a Saúde;


Questões práticas com ajustes de modelos uni e multidimensionais da teoria da resposta ao item - Link direto para esse trabalho
Pedro A. Barbetta; Ligia M. V. Trevisan; Dalton F. de Andrade; Heliton Tavares; Tânia C. Arantes de Macedo Azevedo

Coloca-se em questão a dimensionalidade de uma prova multidisciplinar através do ajuste de modelos unidimensionais e multidimensionais da teoria da resposta ao item. A aplicação é a prova da primeira fase do vestibular da UNESP – 2012. Verifica-se, inicialmente, a presença de um fator dominante e de pequena diferenciação entre as áreas do conhecimento exploradas na prova, já que o modelo unidimensional e o modelo bifatorial tiveram melhor ajuste do que o modelo multidimensional com fatores separados por áreas do conhecimento. Assim, a prova é adequada para a atribuição de nota única ao candidato com propósitos de classificação. Por outro lado, é mostrado como um modelo multidimensional (TRIM), sem restrição nos parâmetros, permite verificar o que a prova está medindo, além de poder posicionar avaliados e itens num espaço multidimensional interpretável.
Palavras-Chave: Teoria da resposta ao item multidimensional (TRIM); Posicionamento de itens e avaliados; Vestibular da UNESP;


REGRESSÃO LOGÍSTICA APLICADA NA ANÁLISE COMPARATIVA ENTRE TIMES DE FUTEBOL DE ROBÔS - Link direto para esse trabalho
André Luiz Carvalho Ottoni; Marcos Santos de Oliveira; Lara Toledo Cordeiro.

Nos últimos anos, o desenvolvimento de máquinas e sistemas inteligentes tem contribuído para a solução de diversos problemas da sociedade. A tecnologia atual permite a realização de tarefas desde cirurgias pela internet até a exploração espacial assistida por robôs. A robótica congrega diversas áreas do saber e está presente em diversos setores da sociedade. Uma importante organização internacional que promove o desenvolvimento da robótica é a RoboCup. Esta organização foi criada para promover a Inteligência Artificial, a robótica e campos correlacionados. A categoria de simulação 2D da RoboCup simula partidas de futebol de robôs autônomos. Nesta liga não existem robôs e/ou agentes físicos, todo o ambiente e agentes são simulados. Uma das vertentes de pesquisa do futebol 2D é a análise estatística. Isso porque, o futebol é um dos esportes mais difíceis de analisar quantitativamente devido à complexidade do jogo e ao fluxo quase contínuo da bola durante uma partida. Dessa forma, se faz necessária a adoção de metodologias estatísticas para verificar e comparar as performances dos times de futebol de robôs. Nesse aspecto, o presente artigo teve sua principal meta de investigação aplicar a teoria de regressão logística e o índice de razão de chances na análise do desempenho de times de futebol de robôs 2D da RoboCup. O objetivo foi encontrar qual configuração do time teria maior chance de vitória. O índice de razão de chances foi adotado como indicador comparativo entre os grupos, de tal forma que, quanto maior é esse índice, maior é a probabilidade do time alcançar sucesso em um jogo de futebol 2D.
Palavras-Chave: Regressão Logística; Robótica; RoboCup;


REGRESSÃO LOGÍSTICA APLICADA NA ANÁLISE DO APRENDIZADO POR REFORÇO - Link direto para esse trabalho
André Luiz Carvalho Ottoni; Marcos Santos de Oliveira

O aprendizado por reforço é um formalismo da Inteligência Artificial que permite a um agente aprender a partir da sua interação com o ambiente no qual ele está inserido. A aprendizagem ocorre à medida que o agente observa suas interações com o ambiente e com seus próprios processos de tomada de decisão. No aprendizado por reforço, quanto mais complexo o ambiente, isto é, quanto maior o número de ações ou a quantidade de agentes, maior é a capacidade computacional necessária para resolver o problema. Dessa forma, verificar o processo de convergência de um sistema de aprendizado por reforço é importante a fins de evitar esforços computacionais desnecessários. Nos últimos anos, os autores deste trabalho vêm estudando algumas metodologias estatísticas para avaliar o comportamento de sistemas multiagentes. O principal estudo de caso adotado é o futebol de robôs simulado da RoboCup1. O objetivo principal desse trabalho foi verificar a análise de convergência do aprendizado por reforço via modelos de regressão logística. Procurou-se avaliar a convergência do algoritmo Q-learning aplicado em um time de futebol de robôs simulado. Na etapa experimental foram simuladas 600 partidas de futebol de robôs na plataforma de RcSoccerSim da RoboCup. A simulação foi feita adotando o time UaiSoccer2D (UFSJ), vice-campeão brasileiro da categoria de simulação 2D da RoboCup. O adversário escolhido foi o time Ri-one (Japão). O código do UaiSoccer2D foi adaptado para realizar o experimento com o aprendizado por reforço. Ao final de cada partida foi armazenado o resultado final do jogo (vitória ou não vitória) e número de toques na bola de cada robô (jogador) na partida. Com as análises dos modelos de regressão logísticos construídos foi possível verificar o ponto de estabilização do aprendizado por reforço. Em pesquisas futuras, a regressão logística será abordada para identificar a influência de cada jogador e o setor (defesa, meio-de-campo e ataque) no resultado no final da partida.
Palavras-Chave: Regressão Logística; Aprendizado por Reforço; RoboCup;


RENDIMENTOS NO ESTADO DO PARÁ: EVIDÊNCIAS DA REGRESSÃO QUANTÍLICA - Link direto para esse trabalho
Fernanda Duarte Maia; Marinalva Cardoso Maciel; Maria Claudia Costa de Oliveira.

O mercado de trabalho brasileiro vem sofrendo nos últimos anos diversas transformações em decorrência da abertura comercial, inovações tecnológicas e alterações na legislação trabalhista. Estas mudanças têm impactado de forma positiva o mercado de trabalho, pois as desigualdades de rendimentos entre os mais ricos e os mais pobres vem diminuindo. Considerando a escassez de trabalhos sobre o mercado de trabalho na Amazônia, o presente trabalho visa determinar os fatores que impactam o rendimento de trabalhadores no Estado do Pará, a partir dos microdados da PNAD, referente aos anos de 2006 e 2011, por meio da técnica de regressão quantílica. Os resultados evidenciam que, de fato, as variáveis explicativas responderam de forma diferenciada a depender da faixa de rendimento que o indivíduo se encontra. nos quantis mais elevados as variáveis que melhor explicaram os rendimentos foram o gênero e a cor da pele. Já nos quantis inferiores, cor da pele, pouco influenciou nos rendimentos, comparados a outras variáveis como “participar do segmento de mercado de trabalho formal” Palavras Chaves: Rendimentos, Regressão Quantílica, Estado do Pará.
Palavras-Chave: Rendimentos; Regressão Quantílica; Estado do Pará;


Reduccion de sesgo en la EMV de la distribucion MSN - Link direto para esse trabalho
Jaime Arrué Alvarez; Reinaldo Arellano Valle; Héctor Gómez Geraldo

El modelo Skew normal generalizado con parámetros lambda 1 y lambda 2, denotada SGN(lambda 1; lambda 2), pertenece a una clase de distribuciones denominada skew simétricas. En este trabajo se estudia el modelo SGN(lambda 1; 1), en adelante denotaremos por MSN(lambda), el cual presenta problemas de estimación en el parámetro de forma. En particular, para tamaños de muestra pequeño el EMV es infinito con probabilidad positiva. Para superar el problema, aplicaremos el método de Firth que consiste en utilizar una función score modi ficada para estimar el parámetro y como resultado el EMV modi cado es siempre finito. Se considera el enfoque de cuasi-verosimilitud para los intervalos de confi anza. Cuando el modelo presenta parámetros de localización y escala, combinamos el método mencionado con la estimación máxima verosimil de estos parámetros.
Palavras-Chave: función score modificada; cuasi-verosimilitud; método de Firth;


Redução do Vício na Estimação de Parâmetros em Processos k-Factor GARMA com Adição de Outliers - Link direto para esse trabalho
Danilevicz, I. M.;Bisognin, C.

O principal objetivo deste trabalho é debater sobre métodos paramétricos de estimação dos parâmetros para os processos estocásticos k-Factor GARMA com a presença de outliers aditivos. Para tanto realizou-se um estudo de simulação, no qual comparou-se os resultados de diferentes métodos de estimação em séries contaminadas por diferentes quantidades de outliers e com diferentes magnitudes. A análise do comportamento dos estimadores foi feita utilizando-se a média, o vício, o erro quadrático médio e a variância. Também propomos novas versões nos estimadores paramétricos para diminuir o vício e o erro quadrático médio. Finalmente utilizou-se estas mesmas medidas para comparar a robustez destes estimadores frente ao progressivo aumento de outliers e sua magnitude.
Palavras-Chave: Longa dependência; Contaminação por Mistura; Outliers; Estimação Paramétrica;


Regresión Poisson Geográficamente Ponderada: Una aplicación a datos de cirrosis de la región metropolitana, Chile - Link direto para esse trabalho
Luisa Rivas Calabrán; Manuel Galea Rojas

Regresión Geográficamente Ponderada, GWR, es un método estadístico propuesto por Fotheringham et al. (2002) para el análisis de datos espaciales con distribución normal. Nakaya et al.(2005) desarrollan esta técnica para datos con distribución Poisson. El propósito de este trabajo es aplicar esta metodología para modelar datos de cirrosis en la población masculina de la región metropolitana, RM, de Chile. Comparamos el modelo Poisson convencional con el modelo Poisson Geográficamente Ponderado. Para la estimación de los parámetros se utiliza el algoritmo Fisher score.
Palavras-Chave: Tasa de Mortalidad Estandarizada; Regresión Poisson; Regresión Poisson Geográficamente Ponderada;


Regressão Logística Binária Aplicada aos Casos de Tétano Acidental no Estado do Pará no Período de Janeiro de 2007 a Julho de 2013 - Link direto para esse trabalho
Igor Sá Soares; José Luiz de Carvalho Lisboa; Franciely Farias da Cunha; Adrilayne dos Reis Araújo

Apesar de o tétano ser uma doença imunoprevinível, ainda se observa uma grande quantidade de pessoas acometidas pela doença no mundo. A ocorrência da doença é mais frequente em regiões onde a cobertura vacinal da população é baixa e o acesso à assistência médica é limitado causando um problema de saúde pública principalmente em países subdesenvolvidos. A prevenção por meio do controle da vacinação da população infantil e o reforço a cada dez anos são necessários para erradicar a doença na população. Neste sentido o objetivo deste trabalho é verificar quais os sintomas que influenciam no óbito dos pacientes com tétano acidental via regressão logística binária e descrever algumas das características epidemiológicas da doença. Os dados em estudo são referentes aos casos notificados de Tétano Acidental no Estado do Pará, no período de janeiro de 2007 a julho de 2013. Como resultado pode-se destacar que a maioria das pessoas confirmadas com tétano acidental nunca tomou vacina antitetânica e residem em áreas urbanas, além disso, pessoas com presença de rigidez abdominal possuem cerca de três vezes mais chance de evoluir a óbito comparado a quem não apresenta este sintoma.
Palavras-Chave: Clostridium tetani; Regressão Logística Binária; Saúde Coletiva;


Regressão Logística com Erros de Medição Heteroscedásticos - Link direto para esse trabalho
Agatha Sacramento Rodrigues; Silvia Lopes de Paula Ferrari

Modelos com erros de medição têm sido objetos de estudo nas mais diversas áreas de conhecimento. O principal objetivo deste trabalho consiste no estudo do modelo logístico com erros de medição heteroscedásticos na presença de réplicas das observações. Os métodos de estimação abordados são máxima verossimilhança e máxima pseudoverossimilhança pelo algoritmo EM, SIMEX empírico e calibração da regressão heteroscedástico. Eles serão comparados através de estudos de simulação e as métricas para comparação entre os estimadores serão o viés e a raiz do erro quadrático médio (REQM). Por fim, a proposta é exemplificada com um conjunto de dados reais.
Palavras-Chave: Erros de medição heteroscedásticos; Métodos de estimação; Modelo de regressão logística;


Regressão Ordinal Bayesiana - Link direto para esse trabalho
Leonardo Oliveira Gois Cella

Este trabalho apresenta a inferência do modelo de regressão ordinal, considerando a ligação Logit e a abordagem da verossimilhança multinomial. Foi proposta uma reparametrização do modelo de regressão. As inferências foram realizadas dentro de um cenário bayesiano fazendo-se o uso das técnicas de MCMC (Markov Chain Monte Carlo). São apresentadas estimativas pontuais dos parâmetros e seus respectivos intervalos HPD, assim como um teste de significância genuinamente bayesiano – $FBST$ (Full Bayesian Significance Test) para os parâmetros de regressão. A metodologia adotada foi aplicada em dados simulados e ilustrada por um problema genético que verificou a influência de um certo tipo de radiação na ocorrência de danos celulares. A abordagem da verossimilhança multinomial combinada à reparametrização do modelo é de fácil tratamento devido ao aumento da capacidade computacional e do avanço dos métodos MCMC. Além disso, o $FBST$ se mostrou um procedimento simples e útil para testar a significância dos coeficientes de regressão, motivando assim a utilização de uma abordagem bayesiana na modelagem de dados ordinais.
Palavras-Chave: verossimilhança multinomial; Logit; MCMC; HPD; FBST;


Regressão Ordinal Bayesiana - Link direto para esse trabalho
Leonardo Oliveira Gois Cella

Este trabalho apresenta a inferência do modelo de regressão ordinal, considerando a ligação Logit e a abordagem da verossimilhança multinomial. Foi proposta uma reparametrização do modelo de regressão. As inferências foram realizadas dentro de um cenário bayesiano fazendo-se o uso das técnicas de MCMC (Markov Chain Monte Carlo). São apresentadas estimativas pontuais dos parâmetros e seus respectivos intervalos HPD, assim como um teste de significância genuinamente bayesiano – $FBST$ (Full Bayesian Significance Test) para os parâmetros de regressão. A metodologia adotada foi aplicada em dados simulados e ilustrada por um problema genético que verificou a influência de um certo tipo de radiação na ocorrência de danos celulares. A abordagem da verossimilhança multinomial combinada à reparametrização do modelo é de fácil tratamento devido ao aumento da capacidade computacional e do avanço dos métodos MCMC. Além disso, o $FBST$ se mostrou um procedimento simples e útil para testar a significância dos coeficientes de regressão, motivando assim a utilização de uma abordagem bayesiana na modelagem de dados ordinais.
Palavras-Chave: FBST; intervalos HPD; Logit; Verossimilhança Multinomial; MCMC;


Relação entre as desigualdades probabilísticas de Bell, de Clauser Horne-Shimony-Holt e Wigner e suas aplicações na Mecânica Quântica - Link direto para esse trabalho
Felipe Andrade Velozo; José Alberto Casto Nogales Vera; Lucas Monteiro Chaves; Devanil Jaques de Souza

Em 1964, John S. Bell (em resposta ao paradoxo de Einstein, Podolsky e Rosen) publica um artigo em que desenvolve uma desigualdade envolvendo correlação estatística e a partir da suposição de que a Mecânica Quântica seja uma teoria estatística, portanto dever-se-ia possuir uma variável aleatória envolvida com as observações, ou seja, uma variável em que, se houvesse a possibilidade de conhecer seu valor, o resultado do experimento seria completamente previsível, portanto a falta de previsibilidade do experimento seria devida a ignorância sobre o valor que tal variável assume na realização do experimento. Porém ao usar a fórmula obtida pelo cálculo de probabilidades no experimento de Mecânica Quântica, encontra um conjunto de valores em que a desigualdade é violada, e logo conclui que os axiomas de probabilidade de Kolmogorov [2] não são suficientes para descrever fenômenos quânticos. Este trabalho visa demonstrar que tal conclusão foi obtida através do uso equivocado dos axiomas de Kolmogorov em desigualdades que eram tratadas como distintas, porém será mostrado que estão relacionadas.
Palavras-Chave: Violação da desigualdade de Bell; Violação da desigualdade de Clauser-Horne-Shimony-Holt; Violação da desigualdade de Wigner; Axiomas de Kolmogorov;


Resolução do exemplo clássico do Lema de Borel-Cantelli: o Problema do Macaco - Link direto para esse trabalho
Sérgio Felipe Abreu de Britto Bastos; Petrucio Viana; Renata de Freitas

Neste trabalho, apresentamos resoluções formais detalhadas de 5 versões do Problema do Macaco, da Teoria das Probabilidades. Nestas resoluções, utilizamos apenas os conceitos e resultados básicos da Teoria das Probabilidades, tanto sobre espaços amostrais finitos quanto sobre espaços amostrais enumeráveis. Todas as “probabilidades finitas” são calculadas por aplicações diretas da definição de probabilidade e o cálculo das “probabilidades infinitas” envolvem, principalmente, os resultados sobre a continuidade da probabilidade e o Lema de Borel-Cantelli.
Palavras-Chave: Lema de Borel-Cantelli; Teoria das Probabilidades; Teorema do Macaco Infinito; Eventos Cilíndricos; Espaços amostrias enumeráveis e não enumeráveis;


Retornos à Experiência Profissional na Indústria Farmacêutica Brasileira - Link direto para esse trabalho
Gesiane do Socorro Andrade Leão; Eduardo Pedral Sampaio Fiuza; James Joaquim de Almeida Otterson

Este trabalho tem por objetivo investigar evidências de retornos à experiência profissional dos empregados do setor farmacêutico, dos laboratórios fabricantes de medicamentos no Brasil, bem como descrever o estoque de capital humano no setor. Trata-se de um estudo realizado a partir da Relação Anual de Informações Sociais (RAIS), que faz referência a 318 laboratórios observados no período de 1999 a 2009, coletados no ano de 2012, gerenciada pelo Ministério do Trabalho e Emprego (MTE). Para tanto, utilizou-se as técnicas estatísticas: análise descritiva e a modelagem econométrica, baseada em variações da equação de Mincer, que calcula esse estoque a partir de coeficientes de retorno à educação e à experiência profissional. Os resultados da análise descritiva mostram as evoluções etárias entre laboratórios e seus empregados comparando estoque de capital humano para o total de ocupações com as amostras de ocupações especificamente do setor farmacêutico e das ocupações do setor de vendas. O modelo proposto mostra que a estimação de retornos nos salários dos empregados com ocupações do setor farmacêutico em laboratórios produtores de genéricos são afetados negativamente, sendo justificável, visto que tais laboratórios vendem obrigatoriamente os medicamentos genéricos com descontos de até 65%.
Palavras-Chave: Econometria; Concorrência; Indústria Farmacêutica Brasileir; CBO's; Salários;


Selecionador de Características para classificação de sinais de EEG e construção de Interfaces Cérebro-Máquina - Link direto para esse trabalho
Murilo Coutinho Silva; George Freitas von Borries

A classificação de sinais de eletroencefalografia (EEG) vem sendo muito estudada recentemente para proporcionar aplicações como as Interfaces-Cérebro Máquina. Parte fundamental do processo de classificação é a chamada "extração de características" dos sinais de EEG. Na literatura, diversas técnicas de extração de características foram apresentadas e, entretanto, não existe uma técnica que supere as demais em todas as situações. Para solucionar este problema, este trabalho apresenta um novo algoritmo que seleciona automaticamente as melhores características obtidas por várias técnicas de extração simultaneamente, produzindo um conjunto ótimo e reduzido de características que não é necessariamente o mesmo para cada aplicação. Pelo uso do novo algoritmo, todas as técnicas já apresentadas na literatura e as técnicas futuras podem ser combinadas para produzir o melhor e mais poderoso conjunto de características gerando taxas de classificação excelentes. Neste trabalho, o selecionador de características é testado utilizando vários conjuntos de dados reais obtendo as melhores taxas de classificação quando comparado a outras técnicas de classificação de dados de EEG.
Palavras-Chave: Eletroencefalografia; Máquina de suporte vetorial; Interface Cérebro-Máquina; Aprendizado estatístico de máquina;


Seleção de genótipos em testes multiambientais por métodos tradicionais e por inferência Bayesiana - Link direto para esse trabalho
Adhemar Sanches; Lina Maria Ramos Molina; José Miguel Cotes Torres

Há vasta literatura em estudos de interação genótipo x ambientes em testes multiambientais envolvendo os conceitos de adaptabilidade e estabilidade na seleção de genótipos. Neste estudo são apresentados resultados da aplicação de dois métodos tradicionais quais sejam, de Eberhart e Russel (1966) e de Annicchiarico (1992), e de outro método com base na Inferência Bayesiana desenvolvido por Cotes (2004). Os resultados referem-se à avaliação de 12 genótipos de arroz cultivados sob condições de solos, com e sem inundação, visando a seleção de materiais com adaptação ampla ou específica. Os dados para as análises foram obtidos em oito experimentos conduzidos nos Estados de Meta, Tolima e Huila, localizados na região leste da Colômbia, durante os anos de 2005 e 2006. O principal objetivo deste trabalho foi mostrar o potencial da Inferência Bayesiana nas análises de testes multiambientais em estudos da interação genótipo x ambientes, considerando-se que nem sempre se tem experimentos balanceados, bem como as usuais suposições de normalidade e homocedasticidade dos dados.
Palavras-Chave: testes multiambientais; seleção de genótipos; inferência Bayesiana;


Simulação de cartas de controles utilizando à distribuição empírica da amostra - Link direto para esse trabalho
Claudia Regina Lima; Leandro Ricardo Rodrigues de Lucena.

Três métodos de avaliação da carta de controle foram propostos para avaliar a carta de controle da distribuição empírica das amostras e as probabilidades de rejeição das cartas que foram comprados com a carta da média. Foram realizadas 1000 simulações de Monte Carlos, em cada simulação foram geradas amostras de tamanhos 3 e 5 para cada uma das nove distribuições de probabilidade utilizadas, em cada uma das distribuições eram feitos os cálculos da média e mediana de cada amostra gerando no final uma amostra de tamanho 25 de médias e medianas para cada distribuição. Verificou-se que as probabilidades de rejeição das cartas de controle diminuem com o tamanho amostral independente da distribuição estudada quando utilizadas as cartas de controle da mediana 1 e média. Para os tamanhos amostrais 3 e 5 as probabilidades de rejeição das cartas de controle foram menores quando utilizadas as distribuições simétricas (N(0,1), t(5) e Logística(0,0.5)) do que em relação as distribuições assimétricas (F(4,25), Weibull(1,0.3), Beta(1,10), chi-quadrado(2), Gamma(3,7) e log-normal(1,0.6)). O método da mediana 1 embora tenha apresentado maiores probabilidades de rejeição das cartas de controle, independente das distribuições de probabilidade em estudo, se mostrou um método alternativo para a carta de controle da média.
Palavras-Chave: Cartas de Controle; Medidas Robustas; Poder de Rejeição; Controle Estatístico de Processo;


Simulação do Funcionamento de uma Loteria - Link direto para esse trabalho
Natan Sant' Anna Borges; Nadine Melloni Neumann; Clarissa Cardoso Oesselmann; Guilherme Dias Malvão; Jessica Quintanilha Kubrusly; Marcela Martins da Serra Vilela Pinto

Este trabalho propõe o uso do Método de Monte Carlo para resolver problemas de otimização que envolvem variáveis aleatórias. O trabalho se baseia no exemplo de um sistema de uma loteria. Este sistema foi simulada a partir da Simulação por Eventos Discretos e os resultados analisados a fim de determinar quantos funcionários (caixas) seriam ideias para o funcionamento da loteria em questão. Os resultados foram capazes de indicar o quanto caótico o sistema pode se tornar se o número de funcionários não for adequado. Além disso a partir da simulação realizada foi possível sugerir um número adequado de funcionário. Com isso o método se mostrou eficiente no auxílio a tomada de decisões.
Palavras-Chave: Simulação; Geração de Variáveis Aleatórias ; Método de Monte Carlo;


Simulação e Convergência do Modelo de Volatilidade Estocástica 3/2 - Link direto para esse trabalho
Ricardo Ferreira, Dorival Leão, Vinícius Siqueira.

Neste trabalho, nós utilizamos uma abordagem do tipo Euler-Maruyamma para implementar um método numérico para aproximar o modelo de volatilidade estocástica 3/2 baseado em um simples método de discretização aleatória e mostramos a convergência forte do método numérico.
Palavras-Chave: Modelo 3/2; Discretização Aleatória; Convergência Estocástica;


Sistema Online i-Sports - Link direto para esse trabalho
Alexandre C. Maiorano; Anderson Ara; Francisco Louzada Neto

O principal objetivo do trabalho é apresentar um sistema online inovador, construído a partir de softwares livres e de ferramentas estatísticas que permitem a comparação de indivíduos em qualquer modalidade esportiva. Particularmente, o estudo exposto é voltado à avaliação de desempenho em futebol, utilizando métodos univariados e multivariados. A abordagem univariada é dada pela metodologia Z-CELAFISCS e as multivariadas são dadas pela construção de indicadores utilizando Análise de Componentes Principais, Análise Fatorial e Cópulas. O sistema criado exibe diversos relatórios dinâmicos que permitem observarmos os resultados dos indivíduos nos testes e quais são os mais aptos à prática desse esporte.
Palavras-Chave: Avaliação Esportiva; Sistema Estatístico Online; Métodos Univariados e Multivariados;


Slashed generalized half-normal distribution - Link direto para esse trabalho
Neveka M. Olmos; Héctor Varela; Heleno Bolfarine; Héctor W. Gómez

In this paper we propose an extension of the generalized half-normal distribution studied in Cooray and Ananda (2008). This new distribution is defined by considering the quotient of two random variables, the one in the numerator being a generalized half normal distribution and the one in the denominator being a power of the uniform distribution on $(0,1)$, respectively. The resulting distribution has greater kurtosis than the generalized half normal distribution. The density function of this more general distribution is derived jointly with some of its properties and moments. We discuss stochastic representation, maximum likelihood and moments estimation. A real data application is presented where the model fitting is implemented by using maximum likelihood estimation producing better results than the classic Birnbaum-Saunders model.
Palavras-Chave: Generalized half-normal distribution; slash distribution; slashed half-normal; kurtosis;


Software R para Análise de Classes Latentes - Link direto para esse trabalho
Pétala Gardênia da S. E. Tuy; Marcus Elias Silva Freire; Nila M. S. G. Bahamonde; Leila Denise A. F. Amorim.

A análise de classes latentes (LCA, Latent Class Analysis, em inglês) é usada para identificar subgrupos, tipos ou categorias de indivíduos de uma população em estudo e permite identificar padrões de resposta com base em características observadas, relacionando-as a um conjunto de classes latentes. Uma das maiores dificuldades encontradas para disseminação do uso dos métodos relacionados a análises de classes latentes é a limitada literatura sobre como pode ser feita sua implementação em softwares estatísticos, além do que os programas que são direcionados exclusivamente para uso destes métodos possuem custo elevado. O objetivo deste trabalho é discutir LCA usando quatro bibliotecas disponíveis no software estatístico R, ressaltando as vantagens e limitações de cada uma delas. Uma aplicação relacionada ao diagnóstico de carcinoma no colo do útero é apresentada e implementada nestas bibliotecas.
Palavras-Chave: dados categorizados; variáveis latentes; software R;


Software Winstats: Uma Possibilidade Para o Ensino e Aprendizagem de Probabilidade no Ensino Médio - Link direto para esse trabalho
Camila Cristina Lopes, Simone Maffini Cerezer

Tendo em vista que o ensino da Probabilidade é essencial para a formação e desenvolvimento pessoal dos alunos, pois desenvolve habilidades de análise crítica e argumentação, é imprescindível que se leve em consideração uma prática pedagógica voltada para aquisição dessas habilidades. Ainda, diante do atual cenário tecnológico, há a necessidade de um ensino que concilie o desenvolvimento do raciocínio e da criatividade com as tecnologias. Assim, os objetivos deste trabalho consistem em investigar as contribuições do software Winstats para o ensino de Probabilidade no Ensino Médio e propor atividades que contribuam para uma aprendizagem expressiva. Trata-se de uma pesquisa bibliográfica qualitativa em que os resultados foram obtidos a partir da exploração do software e da elaboração de atividades para o ensino de Probabilidade utilizando o Winstats. O Winstats é um software livre e pode ser utilizado no Ensino Fundamental, Médio e Superior, dispondo de um grande número de ferramentas. As atividades propostas utilizam diferentes experimentos aleatórios e visam auxiliar na compreensão, através de simulações, da definição de probabilidade como frequência relativa. Acredita-se que atividades realizadas desta forma possam ajudar o aluno a desenvolver habilidades e/ou competências que contemple a construção do conhecimento e uma educação para a cidadania.
Palavras-Chave: Ensino de Probabilidade; Tecnologias; Software Winstats;


Software para suporte ao aprendizado básico de estatística - Link direto para esse trabalho
Démerson André Polli

A oferta de software voltado ao público de estudantes e docentes de estatística básica sempre foi escassa. Os softwares com interface mais amigáveis, em geral, são pacotes comerciais com um custo alto para estudantes e professores. Por outro lado, os softwares livres em geral são complicados para um estudante de estatística elementar (em particular para aqueles que não são das áreas de exatas). Este texto resume algumas das alternativas de código aberto ou livres para uso em cursos elementares.
Palavras-Chave: educação estatística; softwares estatísticos; R Markdown; Shiny; IpeaGEO;


Split-merge procedure to estimate mixture models - Link direto para esse trabalho
Daiane A Zuanetti; Luiz A Milan

A mixture model with dependent variables generalizes some others specific models. We propose the split-merge MCMC procedure to estimate, jointly, its number of components, parameters and the component from which each observation comes from. We employ a Binomial mixture model as our main example, but the methodology is not specific to it. The performance of the method is checked on simulated and real datasets.
Palavras-Chave: mixture models; dependent variables; split-merge MCMC;


Statistical analysis of NIR spectroscopy data - Link direto para esse trabalho
Ronaldo Dias; Nancy L. Garcia;Guilherme Ludwig; Marley A. Saraiva

Calibration and multivariate, simultaneous prediction for NIR spectroscopy data are performed based on a functional interpretation of the Beer-Lambert formula. For each chemical sample, the resulting spectrum is the summation of overlapped absorption spectra from each analyte plus a Gaussian error resulting in a continuous curve. We assume that each individual spectrum can be expanded as a linear combination of B-splines basis. Departures from the standard error models are discussed through simulations. In particular, how correlated errors impact on the calibration step and consequently on the analytes' concentration prediction, and how the estimates can be improved with a proper covariance estimation step. A jackknife method for improved inference on prediction values is developed. Finally, two publicly available datasets are analyzed.
Palavras-Chave: B-splines; leave-one-out jacknife; square error of prediction;


Séries Temporais de Dados de Composição Provenientes de Pesquisas Amostrais - Link direto para esse trabalho
Eduardo Santiago Rosseti; Denise Britz do Nascimento Silva

Várias das séries temporais utilizadas por diversos setores da sociedade, como fonte de informação para o conhecimento da realidade ou como base de dados para pesquisa científi ca, são provenientes de pesquisas repetidas no tempo. No caso de pesquisas por mostragem probabilística, deve-se considerar o efeito que o desenho amostral da pesquisa exerce sobre a série observada, infuenciando diretamente a autocorrelação da série e, consequentemente, o modelo a ser utilizado. Neste trabalho são apresentados modelos multivariados sob a abordagem de extração de sinal na presença de erro amostral para séries que são resultantes de variáveis cujas respostas seguem distribuição multinomial. Os modelos permitemdecompor os efeitos do plano amostral da pesquisa na produção de estimativas de tendência e sazonalidade do sinal associado ao verdadeiro valor populacional. Os dados composicionais utilizados correspondem à situação ocupacional de indivíduos investigada pela Pesquisa Mensal de Emprego do IBGE no período de março de 2002 até dezembro de 2012. Através de modelos estruturais propostos para a série de composição formada proporção de pessoas ocupadas, proporção de pessoas desocupadas e proporção de pessoas fora da força de trabalho são obtidas resultados para a série da taxa de desocupação.
Palavras-Chave: Séries de Composição; Pesquisas Repetidas; Erro Amostral;


Sífilis Congênita: Casos de Monitoramento no Estado do Pará - Link direto para esse trabalho
Vanessa Ferreira Monteiro; Edson Marcos Leal Soares Ramos; Vanessa Mayara Souza Pamplona

Este trabalho tem como objetivo monitorar os casos de sífilis congênita, notificados no Estado do Pará, no período de janeiro de 2007 a julho de 2010. Para tanto, inicialmente, foi utilizado o gráfico de controle para amplitude móvel para monitorar a variabilidade das notificações de sífilis congênita, onde se pôde observar que não houve nenhuma notificação da doença fora dos limites (superior e inferior) de controle, indicando que a variabilidade das notificações de sífilis congênita está sob controle estatístico no período em estudo. Em seguida, construiu-se o gráfico de controle para observações individuais para monitorar o nível (número médio) das notificações de sífilis congênita, onde verificou-se que as notificações mensais da doença encontram-se fora de controle estatístico, destacando-se o mês de julho de 2010 por apresentar o número de notificações abaixo do limite inferior de controle, caracterizando um comportamento atípico neste mês, além disso, não há aleatoriedade no número de notificações acima e abaixo da linha central, isto é, o número de notificações de sífilis congênita apresenta tendência crescente. Então, com o objetivo de detectar pequenas mudanças no deslocamento da média de notificações foi construído o gráfico de controle para médias móveis exponencialmente ponderada, onde verificou-se que no ano de 2007, o número de notificações no mês de julho ficou abaixo do limite inferior de controle, já no período de maio a julho de 2009, a média do número de notificações de sífilis congênita no Estado do Pará está acima do limite superior de controle, indicando um possível surto da doença neste período. Portanto, pode-se concluir que os órgãos responsáveis pela segurança pública no estado do Pará, devem adotar melhores estratégias para o combate a essa enfermidade que é a sífilis congênita.
Palavras-Chave: Saúde Pública; Sífilis Congênita; Gráfico de Controle;


TESTE DE DIAGNÓSTICO BASEADO EM ANÁLISE DE REGRESSÃO LOGÍSTICA. - Link direto para esse trabalho
Renata Soares da Costa; José Ailton Alencar Andrade

O modelo de regressão logística é frequentemente utilizado em situações em que a variável resposta é de natureza dicotômica. Tal modelo é um caso particular dos modelos lineares generalizados, com componente aleatório binomial e função de ligação \textit{logit}, e modela a probabilidade de um evento ocorrer em função de outras variáveis preditoras. Este trabalho tem como finalidade abordar a metodologia do modelo logístico, bem como ajustar um modelo para a predição de pré-eclâmpsia em mulheres grávidas, além de levar em consideração as técnicas de qualidade de ajuste do modelo de regressão, os testes de diagnóstico e a avaliação dos possíveis pontos \textit{outliers}. O modelo ajustado atendeu às expectativas de qualidade do ajuste, tendo uma eficiência de aproximadamente 83\% em discriminar mulheres que têm ou não pré-eclâmpsia, sensibilidade de 74,2\% e especificidade de 73,9\%. Tendo essas taxas como referência, concluiu-se que pacientes submetidas ao modelo estatístico que produzam probabilidade superior a 0,06 são classificadas como doentes.
Palavras-Chave: Análise de Regressão Logística; Pré-eclâmpsia; Teste de diagnóstico;


TEXT MINING: UM ESTUDO A PARTIR DO TWITTER UTILIZANDO O R - Link direto para esse trabalho
Gabriel Luiz Andriotti da Silva; Lisiane Priscila Roldão Selau

A cada dia, mais dados são armazenados por computadores poderosos e capazes de processar muita informação. Com isso, cresce a necessidade de utilizar toda essa informação no processo de tomada de decisão. Estima-se que 80% da informação que uma organização dispõe esteja no formato de texto. Além disso, o advento das redes sociais na web possibilitou um ambiente virtual em que milhões de usuários publicam dados pessoais, opiniões e preferências, tornando-se uma fonte preciosa de informação. Diante desse cenário, a descoberta de conhecimento em texto torna-se uma ferramenta importante para extrair informação a partir de bases textuais sem a necessidade de leitura. Nesse sentido, o objetivo deste trabalho é utilizar a abordagem de Text Mining, desde a extração até a análise dos dados, e mostrar uma aplicação da técnica com dados do Twitter. Utilizando o software R, foram extraídas as publicações do Twitter da Zero Hora – jornal local – num período de quase 3 meses, e foi construída uma nuvem de palavras com os termos mais frequentes. E, através da técnica de Clustering, os tweets foram agrupados conforme seus relacionamentos.
Palavras-Chave: Text Mining; Software R; Twitter;


Tempo de Permanência de Alunos no Curso de Estatística da UFBA: Uma Análise de Tempos Discretos - Link direto para esse trabalho
Giovana Oliveira Silva; Maristela Dias de Oliveira

Em geral, os cursos de Estatística no Brasil experimentam uma alta taxa de evasão, baixa concorrência e alta reprovação nas disicplinas iniciais do curso, principalmente as de Matemática. Devido à sequência a ser cumprida, uma reprovação numa única disciplina pode representar um atraso de um ano para a formatura, o que dilata o tempo de permanência original da grade curricular do aluno. Esse tempo de permanência é uma variável aleatória de natureza discreta, já que a conclusão do curso deve coincidir com o final do semestre letivo, especificado no calendário acadêmico da universidade. Este trabalho propõe analisar o tempo de permanência dos alunos do curso de Bacharelado em Estatística da Universidade Federal da Bahia, através de ajustes de modelos de sobrevivência em tempos discretos.
Palavras-Chave: Tempo de Permanência de alunos; Análise de Sobrevivência; Tempos Discretos; Modelo Geométrico;


Teste qui-quadrado de Pearson aplicado ao número de acidentes com armas de fogo na cidade de Campina Grande/PB - Link direto para esse trabalho
Carla Caroline Carvalho Silva; Jessica Raphaelly Silva Barreto; Abraão de Paula Taveira; Paulo Henrique Montini dos Santos Ribeiro; Tiago Almeida de Oliveira

A estatística qui-quadrado é um teste de hipóteses que se destina a calcular um valor da dispersão para duas variáveis nominais, avaliando-se a associação existente entre variáveis qualitativas. é um teste não paramétrico, ou seja, não depende dos parâmetros populacionais, como média e variância. O princípio básico deste método é comparar proporções, isto é, as possíveis divergências entre as frequências observadas e esperadas para um certo atributo. De posse destas informações, este trabalho teve como objetivo verificar se os acidentes por arma de fogo se distribuem de forma uniforme entre e dentro dos anos de 2009 à 2013, utilizando-se para isto, o teste de não paramétrico de qui-quadrado. Os resultados obtidos podem ser considerados como norteadores para as autoridades no sentido de planejamento de suas operações e campanhas visando o combate aos atos ilícitos que resultem nestes acidentes. Houve aumento dos acidentes por armas de fogo em todos os meses pesquisados através dos anos de 2009 a 2013, e nos anos de 2011 e 2012 os acidentes se comportaram de forma uniforme entre os meses de janeiro a dezembro.
Palavras-Chave: Teste qui-quadrado; Frequências observadas; Valor esperado;


Testes básicos para verificação de variação significativa no volume pluviométrico em Piracicaba entre o início e final do séculos XX. - Link direto para esse trabalho
Pedro Ferreira de Lima Cícero Carlos Felix de Oliveira Cláudio Tadeu Cristiano

Para avaliar se existe evidências de variação no volume da precipitação pluviométrica média ao comparar anos iniciais do século XX com os finais, foram usados dados coletados pela estação pluviométrica na base de Piracicaba do Departamento de Ciências Exatas da Escola Superior de Agricultura Luiz de Queiroz (ESALQ) em São Paulo entre os anos de 1917 e 2012. Foram realizados testes de normalidade para os dados usando o teste de normalidade de Lilliefor, teste de igualdade de médias além do teste de igualdade de variâncias. Também foi realizado um teste de comparação de proporções de anos com volume pluviométrico superior a 1300 mm/ano. Nenhum dos testes realizados apresentou diferença significativa
Palavras-Chave: Precipitação; Piracicaba; Inferência; Variação; Clima;


Testes de especificação para função de ligação em modelos para dados binários - Link direto para esse trabalho
Diego Ramos Canterle; Fábio Mariano Bayer

Este trabalho aborda a utilização do teste RESET para verificação da correta especificação da função de ligação em modelos para dados binários. Para realização do teste RESET serão consideradas as tradicionais estatísticas da razão de verossimilhanças, Wald e escore, além da recente estatística gradiente. A avaliação de desempenho dos testes de adequacidade da função de ligação foi realizada por meio de simulações de Monte Carlo. Foram verificadas os desempenhos, tamanho e poder, dos quatro testes considerados em amostras de tamanho finito, assim como avaliada a distribuição das estatísticas de teste em pequenas amostras. Pode-se verificar que os mesmos se comportam de diferentes maneiras, de acordo com a função de ligação utilizada e os diferentes tamanhos amostrais. O desempenho da estatística gradiente se mostrou superior, principalmente nos menores tamanhos amostrais.
Palavras-Chave: Modelos lineares generalizados; Função de ligação; Teste RESET; Estatística gradiente; Simulação de Monte Carlo;


Testing inference in accelerated failure time models - Link direto para esse trabalho
Francisco M.C. Medeiros; Antônio H.M. da Silva-Júnior; Dione M. Valença; Silvia L.P. Ferrari

We address the issue of performing hypothesis testing in accelerated failure time models for noncensored and censored samples. The performances of the likelihood ratio test and a recently proposed test, the gradient test, are compared through simulation. The gradient test features the same asymptotic properties as the classical large sample tests, namely, the likelihood ratio, Wald and score tests. Additionally, it is as simple to compute as the likelihood ratio test. Unlike the score and Wald tests, the gradient test does require the computation of the information matrix, neither observed nor expected. Our study suggests that the gradient test is more reliable than the other classical tests when the sample is of small or moderate size
Palavras-Chave: Accelerated failure time models; Gradient test; Likelihood ratio test; Random censoring; Simulation;


The Birnbaum-Saunders power series family of distributions - Link direto para esse trabalho
Marcelo Bourguignon; Rodrigo Bernardo Silva; Gauss Cordeiro

We propose a new family of distributions by compounding the Birnbaum-Saunders and power series distributions. We provide important mathematical properties such as moments, order statistics, estimation of the parameters and inference for large sample. The new family includes as special cases the baseline distribution and the usual inference procedures can be adopted. Two special cases of the new family are investigated with some details. We fit the proposed model using maximum likelihood estimation to a real data set to illustrate its flexibility.
Palavras-Chave: Birnbaum-Saunders distribution; Maximum likelihood estimation; Power series distribution;


The Copula Opinion Pooling through a Copula-APARCH: An Empirical Application - Link direto para esse trabalho
Fernando Augusto Boeira Sabino da Silva

The main goal of this work is to introduce the copula opinion pooling (COP) approach. In the first part we combine several techniques used widespread in financial econometrics literature. The temporal dependence of each margin is estimated using an ARMA-APARCH structure. As an application of the methodology, Expected Shortfall for a one day forecast horizon is estimated for the portfolio considered. In the last part a brief simulation is performed using the COP procedure to estimate posterior distributions.
Palavras-Chave: Copula Opinion Pooling; Copula-APARCH; Copulas;


The Externally Studentized Normal Midrange Distribution - Link direto para esse trabalho
Ben Deivide de Oliveira Batista; Daniel Furtado Ferreira; Lucas Monteiro Chaves

This work aimed to derive analytic expressions to distribution of the externally studentized midrange, obtaining the cumulative distribution, probability density and quantile functions and generating random values. A second objective was to build an R package for obtaining numerically the probability density, cumulative distribution and quantile functions and make it available to the scientific community. The algorithms were proposed and implemented using Gauss-Legendre quadrature and the Newton-Raphson method in R software, resulting in the SMR package, available for download in the CRAN site. The implemented routines showed high accuracy proved by using Monte Carlo simulations and by comparing results with different number of quadrature points. Regarding to the precision to obtain the quantiles for cases where the degrees of freedom are close to 1 and the percentiles are close to 100%, it is recommended to use more than 64 quadrature points.
Palavras-Chave: Midrange; Distribution; Algorithm; R;


The Sinh-Normal/Independent Nonlinear Regression Model - Link direto para esse trabalho
Filidor Vilca Labra; Camila Borelli Zeller; Gauss M. Cordeiro

The Normal/Independent family of distributions is an attractive class of symmetric heavy-tailed density functions. They have a nice hierarchical representation to make inferences easily. We propose the Sinh-Normal/Independent distribution which extends the Sinh-normal distribution (Rieck, 1989). We discuss some of its structural properties that generalize those of the Birnbaum-Saunders distribution. Further, we introduce the Sinh-Normal/Independent nonlinear regression model based on a similar set-up of Lemonte and Cordeiro (2009). We develop an EM-algorithm for maximum likelihood estimation of the model parameters. In order to examine the robustness of this flexible class against outlying observations, we perform a simulation study and analyze a real data set to illustrate the usefulness of the new model.
Palavras-Chave: EM-algorithm; Nonlinear regression; Robust estimation; Scale mixture of normal distributions; Sinh-normal distribution;


The Transmuted Log-Logistic Distribution: Modeling, Inference and an Application to a Polled Tabapua Race Time up to First Calving Data - Link direto para esse trabalho
Daniele Cristina Tita Granzotto; Francisco Louzada

In this study, we propose a new lifetime distribution by using a quadratic rank transmutation map in order to add a new parameter to the log-logistic distribution. We provide a comprehensive description of the properties of the proposed distribution along with its reliability study. The usefulness of the transmuted log-logistic distribution for modeling reliability data is illustrated on a polled Tabapua race time up to first calving data.
Palavras-Chave: Log-logistic distribution; Transmuted map; Reliability analysis;


The Transmuted Normal Distribution: Structural Properties and Applications - Link direto para esse trabalho
Maria do Carmo Soares de Lima; Gauss Moutinho Cordeiro; Rodrigo Rossetto Pescim.

A new three-parameter distribution called the transmuted normal model is defi ned and studied. Various mathematical properties of the new distribution including moments, quantiles, and mean deviations are derived. Maximum likelihood techniques are used to fit the new model and emphasize its usefulness. Based on two criteria, the proposed model provides a better than the normal and skew-normal distributions.
Palavras-Chave: Mean deviation ; Moment; Normal distribution; Quantile; Transmuted distribution;


The censored bimodal skew-power normal model with an application to plasma HIV-1 RNA - Link direto para esse trabalho
Guillermo Martínez-Flórez; Germán Moreno-Arenas; Solange Lugo-Buitrago

We introduce the censored bimodal skew-normal model for adjust censored data with bimodality and high levels of skewness and kurtosis. Various structural properties of the new distribution are derived, including its moments. The model parameters are estimated by maximum likelihood and the observed information matrix is derived. An application of the new model to analysis of the plasma HIV-1 RNA measurement is presented for illustrative purpose.
Palavras-Chave: Censored; skew-normal; limit of detection; HIV-1 RNA; HAART;


The gamma-Dagum distribution - Link direto para esse trabalho
Jailson de Araújo Rodrigues; Ana Paula Coelho Madeira Silva; Jaime dos santos Filho; Ângela Lima da Silva

In this work, a new distribution called the gamma-Dagum is introduced. Some of the main properties of this distribution are derived, including, kth moment, mean, variance, skewness and kurtosis. The estimation of parameters using the methods of moments and maximum likelihood is also discussed.
Palavras-Chave: Dagum distribution; gamma distribution; moments;


The likelihood-ratio measure - Link direto para esse trabalho
Alexandre G Patriota

P -values do not respect the logical consequence (entailment) and this feature feeds some controversies about their usage. The entailment condition is required to maintain a special type of coherence over the space of null hypotheses. The present paper revisits the likelihood ratio approach that satisfies the entailment condition and presents some properties not well explored of this methodology, for a given observed sample. Its applicability in testing sharp and non-sharp statistical null hypotheses is discussed. Furthermore, a comparison with the Bayesian approach is established and an extension to h competing hypotheses is discussed. The theory is applied for testing if the genotype frequencies of a given population are under the Hardy-Weinberg equilibrium, under inbreeding restrictions or under outbreeding restrictions.
Palavras-Chave: Classical Statistics; Evidence Measure; Hypothesis testing; Likelihood ratio statistics; Possibility theory;


Time series analysis on the weekday bus ridership in Iowa city from September 1971 to December 1982 - Link direto para esse trabalho
Caroline Tenório Mendes de Aquino; Fumie Kawasaki

Monthly data of weekday bus ridership in Iowa City from September, 1971 to December, 1982 is analyzed. The data consists of 136 complete observations, obtained from the Data Market website. According to ''Sperling’s Best Places webpage'', Iowa City resembles Ann Arbor (where the University of Michigan - Ann Arbor is located). They are both college towns and 21 to 34-year-olds share about 38% and 41% of the population in Ann Arbor and Iowa City, respectively. Analyzing this time series, it will be possible to gain some insight into the seasonal and trend patterns of demand for the public transportation, the result of which may be applicable to Ann Arbor. It was found that the series has trend and seasonality. The forecast accuracy was studied using linear model and Holt-Winters additive method. Analyzing the forecast accuracy, the Holt-Winters additive method had a better performance than the linear model with trend and seasonality.
Palavras-Chave: Bus Ridership; Holt-Winters Method; Linear Model ;


Transformações Lineares de Baixa Complexidade para Descorrelação de Dados - Link direto para esse trabalho
Raíza S. Oliveira; Renato J. Cintra; Fábio M. Bayer; Leandro C. Souza

A análise de componentes principais (PCA) é altamente utilizada para descorrelação de dados e redução de dimensionalidade. Contudo, o uso da PCA pode ser impraticável em aplicações em tempo real, ou em equipamentos de baixo poder de processamento, devido ao alto custo computacional requerido. Neste contexto, a transformada discreta do cosseno (DCT) se torna uma alternativa de baixo custo para descorrelação de dados. A DCT é uma aproximação assintótica para a PCA que independe dos dados de entrada, sendo possível o desenvolvimento de algoritmos rápidos que a implementem. O presente trabalho apresenta um método, para determinar aproximações computacionalmente eficientes para DCT. O método propostobusca minimizar o ângulo entre as linhas da matriz da DCT exata e as linhas da matriz da transformada aproximada, quando as linhas são interpretadas como vetores. As transformadas resultantes são ortogonais e de baixa complexidade aritmética. Considerando diversas figuras de mérito clássicas, uma das transformadas propostas apresenta o melhor desempenho quando comparada à outras aproximações da DCT encontradas na literatura. Neste trabalho, também é proposto o uso de estatísticas circulares para avaliação da qualidade de transformadas aproximadas. sendo que a transformada proposta se destaca também nesta análise. Uma aplicação prática no campo de compressão de imagens demonstra a relevância prática das transformadas propostas.
Palavras-Chave: transformada discreta do cosseno; algoritmo guloso; compressão de imagens;


Transformações de Box-Cox e escores de Blom para correção da heterogeneidade de variâncias - Link direto para esse trabalho
Gislane Natália de Souza Miranda, Raphael Fernandes Soares Alves, Elisabeth Regina de Toledo, Antonio Policarpo Souza Carneiro, Gerson Rodrigues dos Santos, Carlos Henrique Mendes Malhado

Estudos sobre crescimento tem mostrado que a variabilidade do peso aumenta em função da idade, fenômeno denominado inflação de variância. A heterogeneidade de variâncias quando ignorada pode ocasionar a redução da precisão dos valores genéticos preditos e a redução da resposta à seleção, o que resulta em classificação menos precisa dos animais, prejudicando a escolha de futuros reprodutores e, consequentemente, o progresso genético e a rentabilidade dos rebanhos comerciais. Uma alternativa que pode ser aplicada na correção de heterogeneidade de variâncias é a transformação dos dados. O objetivo deste trabalho foi avaliar o efeito da idade sobre a heterogeneidade de variâncias para peso de bovinos da raça Tabapuã, criados na região Nordeste, bem como avaliar a eficiência da transformação de dados para corrigir a heterogeneidade de variâncias. Foram utilizados dados da raça Tabapuã do Nordeste brasileiro, coletados a partir de 1970, provenientes do controle de desenvolvimento ponderal da Associação Brasileira de Criadores de Zebu, com informações relativas a pesos ajustados para 205, 365 e 550 dias de idade. Tanto as médias quanto as variâncias para peso aumentaram em função da idade, apresentando heterogeneidade de variâncias significativa (P <0,01), pelo teste de Bartlett. As transformações de Box-Cox e em escores de Blom foram efetivas na correção da heterogeneidade de variâncias fenotípicas entre idades para pesos de bovinos em algumas regiões de produção do Nordeste.
Palavras-Chave: Escores de Blom; Box-Cox; Inflação de variâncias; Tabapuã;


Transformed ARMA with t-student Distribution - Link direto para esse trabalho
Breno Silveira de Andrade ; Carlos Alberto Ribeiro Diniz ; Marinho G. Andrade

A parametric power transformation technique was proposed by Box and Cox (1964) in order to reduce anomalies such as non-symmetry, non-normality and heteroscedasticity. Sakia (1992) proposed other transformations witch have the same aim. In this work, the ARMA models with t-student distribution was used considering that the transformed data has heavier tails than the Gaussian distribution. A simulation study was carried out to observe the influence of choosing the transformed parameter in the model fit. A analysis of a data set from a river flow series is performed.
Palavras-Chave: Box-Cox power transformation; Family of transformations; Generalized ARMA model; Generalized linear model; Profile likelihood;


Transição da Escola para o Emprego no Estado do Pará: Uma análise quantitativa - Link direto para esse trabalho
Lorena Suellen Pinheiro Russo; Marinalva Cardoso Maciel; Leonardo Antônio V. da Costa

Este trabalho aborda a Transição do indivíduo na faixa etária de 18 a 30 anos, da escola para o mercado de trabalho, no Estado do Pará, no ano de 2007. A literatura relata que a transição da escola para o trabalho no Brasil não é a principal forma de entrada para a vida adulta. Isto porque o índice de evasão escolar é alto e também devido ao fato de que a educação formal não pode ser vista como principal método de qualificação para o trabalho. Esse trabalho traça um perfil-socioeconômico dos indivíduos atravessando esse processo. Em particular, analisa a influência das características dos pais no processo de transição dos filhos. Para tanto utiliza a técnica de Análise de Sobrevivência, utilizada para estimar e interpretar as funções de sobrevivência e/ou tempo de falha. A partir da comparação das curvas de sobrevivência foi possível constatar que a entrada no mercado de trabalho ocorre mais cedo para os homens, além disso, indivíduos que residem na região metropolitana demoram mais tempo na escola do que os que residem em região não-metropolitana. A Regressão de Cox evidenciou que características dos pais são relevantes no processo de transição dos filhos para a vida adulta.
Palavras-Chave: Análise de sobrevivência; Transição Escola-emprego; Análise quantitativa;


Técnicas Estatísticas utilizadas na Modelagem de Risco Operacional – Uma breve abordagem - Link direto para esse trabalho
Natalia Raquel Pires Nava; Eduardo Yoshio Nakano

A Carta Circular Bacen 3.647 de março/2013 estabelece os requisitos mínimos para utilização da abordagem avançada na modelagem do risco operacional pelas instituições financeiras. O modelo interno, também conhecido como modelo AMA (Advanced Measurement Approach), deve contemplar quatro elementos, a saber: Base de Dados Interna (BDI), Base de Dados Externa (BDE), Análise de Indicadores e Análise de Cenários, além de manter um sistema de gerenciamento de riscos condizente com o porte da instituição. Ao longo deste trabalho, serão abordadas técnicas estatísticas utilizadas na modelagem de cada um desses elementos, além de abordar instrumentos estatísticos utilizados na Gestão de Riscos e cálculo de alocação de capital.
Palavras-Chave: Risco Operacional; AMA; Gestão de Riscos; Alocação de capital;


Técnicas de Agrupamento por Otimização em Análise Estatística de Formas de Objetos (AEFO) - Link direto para esse trabalho
Assis, E. C.; Sousa, C. S.; Amaral, G. J. A.; Souza, R. M. C. R.

A AEFO é uma área relativamente recente em estatística e caracterizase pelo tipo de dado estudado. Em AEFO o dado disponível para o pesquisador é a foto de um objeto e a análise estatística é feita em um espaço não euclidiano. Neste artigo, será introduzido um método de agrupamento por otimização, adequado para o contexto de AEFO. Os métodos de otimização em agrupamento já têm sido muito utilizados. Porém, no contexto de AEFO estes métodos precisam ser adaptados, o que produz uma metodologia específica para a AEFO.
Palavras-Chave: Formas; Agrupamento; Métodos de Otimização; Morfometria;


UM ESTUDO DE CORRELAÇÃO ENTRE O ÍNDICE GERAL DE CURSOS E A PRODUÇÃO CIENTÍFICA - Link direto para esse trabalho
Joelma Mayara da Silva; Juliely Rodrigues de Araujo; Patrícia de Souza Medeiros; France E. G. de Oliveira; Priscila Gonçalves da Silva

As Universidades são avaliadas em sua qualidade por diversos rankins e neste trabalho foi analisada a correlação entre o IGC-INEP e a produção científica avaliada através da quantidade de publicações, citações e índice H, disponíveis na base de dados da Web of Science. Os resultados da análise das maiores universidades do Brasil revelaram correlações positivas entre o IGC e a quantidade de publicações, citações e índice H, para todos os anos no período 2007 à 2012.
Palavras-Chave: Avaliação; Publicação; Ranking;


UM ESTUDO SOBRE A TESE DA “MALDIÇÃO DOS RECURSOS NATURAIS” NOS MUNICÍPIOS BRASILEIROS ABUNDANTES EM RECURSOS MINERAIS - Link direto para esse trabalho
Hugo Ernandes Saldanha Correia; Marinalva Cardoso Maciel; Michelle da Costa Santana; Adejard Gaia Cruz; Maurílio de Abreu Monteiro

Este trabalho tem como objetivo verificar se a tese da “maldição dos recursos naturais” se coaduna com dinâmicas sociais, econômicas e espaciais nos municípios brasileiros abundantes em recursos minerais, no ano de 2010. Para proceder à análise, foram selecionadas variáveis relacionadas aos seguintes temas: crescimento econômico, desenvolvimento humano, desigualdade de renda, educação, habitação, saúde e trabalho. Inicialmente identificamos os municípios abundantes em recursos minerais de acordo com sua arrecadação da CFEM (Compensação Financeira pela Exploração de Recursos Minerais), e para o tratamento dos dados utilizou-se a análise fatorial e o teste de médias para amostras independentes. Evidenciou-se que os municípios abundantes em recursos minerais é, em média, menos desigual, tem um melhor crescimento econômico, desenvolvimento humano e um melhor acesso à saúde e educação. Portanto, conclui-se que os municípios brasileiros abundantes em recursos minerais, por arrecadarem mais compensação financeira pela exploração de recursos minerais, se apresentaram mais eficientes, em 2010, no sentido de direcionar o excedente desses recursos ao atendimento das necessidades socioeconômicas. Contradizendo a hipótese básica do trabalho, de que a abundância de recursos naturais estaria negativamente correlacionada com a qualidade dos processos de desenvolvimento.
Palavras-Chave: Indústria extrativa; Recursos minerais; Crescimento econômico;


UM INDICADOR DE QUALIDADE NA GESTÃO EDUCACIONAL DOS MUNICÍPIOS BRASILEIROS ATRAVÉS DE UM MODELO DA TRI - Link direto para esse trabalho
Tayani Raiana de Souza Roque; Maria Regina Madruga;Héliton Ribeiro Tavares

Com base nos dados da Pesquisa de Informações Básicas Municipais – MUNIC, do ano de 2011 do IBGE, relativos às ações e planejamentos na área de Educação dos 5.565 municípios brasileiros, foi estimado um Indicador de Qualidade na Gestão Educacional para cada município, a partir do ajuste do Modelo Logístico de dois parâmetros da TRI. Com o indicador obtido foi possível caracterizar os municípios brasileiros em 5 grupos, sendo o grupo de melhor gestão educacional composto por 131 municípios, assim distribuídos: 36,6% da região Sudeste, 26,7% da região Sul, 16,8% da região Nordeste, 13,0% da região Centro-Oeste e 6,9% da região Norte. Dentre os 20 itens considerados no modelo, os itens que mais contribuíram para a discriminação dos municípios foram a existência de Plano Municipal de Educação, Plano Municipal de Educação para o Ensino Fundamental e para a Educação Infantil. Observou-se, também, que a maioria dos municípios, independente do grupo, não tem ações para manutenção de lésbicas, gays, bissexuais, travestis e transexuais nas escolas e não tem planejamento educacional em nível de Educação indígena.
Palavras-Chave: indicador de qualidade na gestão educacional; teoria da resposta ao item; caracterização dos municipios;


UM MODELO DE BEHAVIORAL SCORING UTILIZANDO ANÁLISE DE SOBREVIVÊNCIA - Link direto para esse trabalho
Jonas de Souza Pacheco; Lisiane Priscila Roldão Selau; Álvaro Vigo

A utilização de modelos de credit scoring mostra-se benéfica por diversos fatores, como consistência nas decisões, automatização na concessão, aumento no volume de análises e capacidade de monitorar e administrar o risco de uma carteira de crédito. Várias técnicas estatísticas podem ser utilizadas para a construção desses modelos e dentre elas destaca-se a análise de sobrevivência. Essa técnica apresenta a vantagem de poder prever quando ocorrerá o evento de interesse, diferente de outras técnicas tradicionalmente utilizadas, como a regressão logística. Nesse sentido, o objetivo do presente artigo é apresentar um método, composto de cinco etapas, para a construção de modelos comportamentais utilizando a técnica de análise de sobrevivência. Ao realizar-se a comparação entre o modelo atualmente utilizado pela empresa, proveniente de um bureau externo, e o modelo utilizando análise de sobrevivência, construído com o método proposto, têm-se uma melhora de aproximadamente 20% na discriminação entre bons e maus pagadores.
Palavras-Chave: Crédito; Behavioral scoring; Análise de sobrevivência;


UM MODELO PARA OS IMPACTOS AMBIENTAIS DO PÓLO GESSEIRO DO ARARIPE - Link direto para esse trabalho
Auridenes Alves de Oliveira; Júlia Maria dos Santos Nascimento

Este estudo teve como objetivo principal, avaliar os elementos que influenciam na questão dos impactos ambientais sofridos na região gesseira do Araripe - PE. Visando propor um modelo baseado na ANOVA de dois fatores e elencando 8 fatores como problemas do Polo Gesseiro que podem estar, direta ou indiretamente, influenciando na variável impactos ambientais.
Palavras-Chave: Impactos Ambientais; Planejamento de Experimentos; ANOVA de dois fatores;


UMA ABORDAGEM BAYESIANA PARA O MODELO DE VON BERTALANFFY APLICADOS A CRESCIMENTO DE CARANGUEJO. - Link direto para esse trabalho
Magali Teresopolis R. Amaral; Carlos Eduardo Rocha Alencar; Fúlvio Aurélio Morais.

Neste artigo as abordagens clássicas e bayesianas serão proposta para ajustar o crescimento de um conjunto de dados de captura do caranguejo Ucides Cordatus no município de Porto do Mangue (Rio Grande do Norte, Brasil), por meio do modelo de crescimento de Von Bertalanffy para dados de idade versus comprimento da carapaça. Nesta proposta uma parte da amostra dos pares de dados é selecionada de forma aleatória e usada como amostra de treinamento para o modelo de curva de crescimento contemplado nesse trabalho. Os ajustes serão realizados por meio de duas metodologias: a abordagem clássica e bayesiana. Na primeira etapa, a abordagem clássica em que as estimativas de mínimos quadrados são calculadas usando-se o método de Gauss Newton, já na segunda etapa apontamos a utilização de uma metodologia bayesiana com densidades a priori não informativas de Jeffreys e a utilização de técnicas de simulação de Monte Carlo em Cadeia de Markov (MCMC) para calculo dessas estimativas. Todos os resultados clássicos e bayesianos serão comparados.
Palavras-Chave: Curvas de crescimento; Método bayesiano; Priori de Jeffreys; Simulação MCMC;


UMA RELAÇÃO ENTRE DESVIOS PADRÕES E MÉDIAS EM ESTUDOS ELEGÍVEIS, EXCLUÍDOS E INCLUÍDOS EM UMA META-ANALISE - Link direto para esse trabalho
José Fausto de Morais

A meta-análise envolve a revisão quantitativa e síntese de resultados de estudos independentes, porém relacionados pela temática. No processo de combinação de resultados a comparação de desvios padrões é usual. O objetivo deste estudo é discutir uma relação entre o desvio padrão de um conjunto de dados e o desvio padrão e a média de duas partes desse conjunto. O problema foi proposto em uma revisão sistemática com meta-análise envolvendo tratamentos da artroplastia total do joelho.
Palavras-Chave: Meta-análise; Relação ; Desvio-Padrão;


UTILIZANDO REDES NEURAIS ARTIFICIAIS MLP PARA CLASSIFICAÇÃO DE CÉLULAS CANCERÍGENAS EM AMOSTRAS DE TECIDOS MAMÁRIOS - Link direto para esse trabalho
Elisalvo Alves Ribeiro; Anderson Filgueira Farias; Methanias Colaço Júnior; Carlos Alberto Estombelo Montesco

Comparar o desempenho dos algoritmos de RNA MLP, Backpropagation Padrão, Backpropagation com Momento, Quikprop e Rprop para classificar dados de células mamárias cancerígenas. Os algoritmos foram analisados quanto ao seu desempenho em relação às métricas de sensibilidade, especificidade, acurácia, erro, precisão e índice Kappa. Dentre os algoritmos analisados, o que apresentou melhor desempenho foi o backpropagation padrão com uma precisão de 80% e uma acurácia de 81,25%.
Palavras-Chave: Redes Neurais Artificiais; Classificação; células cancerígenas;


UTILIZAÇÃO DE REGRESSÃO LOGÍSTICA NA VERIFICAÇÃO DA QUALIDADE DE VIDA DE IDOSOS RESIDENTES NO MUNICÍPIO DE JI-PARANÁ-RO - Link direto para esse trabalho
Rubens Batista de Souza, Greiciely Quinto Alves, Aliadny Natany Tavares, Joelma Tonete, Jose Paulo Camolez Silva, Dilson Henrique Ramos Evangelista

O objetivo desta pesquisa foi analisar a qualidade de vida em idosos residentes no município de Ji-Paraná-RO, participantes do Centro de Convivência de Idosos. O instrumento utilizado na obtenção dos dados para verificar a qualidade de vida em idosos foi à versão abreviada em português do questionário WHOQOL-BREF e WHOQOL-OLD da Organização Mundial da Saúde (OMS). A amostra é composta de 100 idosos com faixa etária superior a 60 anos. A análise dos dados apropriou-se de técnicas de Regressão Logística. Neste estudo, a variável dependente corresponde à qualidade de vida boa ou ruim dos idosos participantes do Centro de Convivência. As variáveis independentes são as facetas do módulo WHOQOL-OLD: Funcionamento do Sensório - FS, Autonomia - AUT, Atividades Passadas, Presentes e Futuras - PPF, Participação Social - PSO, Morte e Morrer -MEM e Intimidade - INT. Os resultados obtidos no modelo ajustado indicam que somente uma das variáveis preditoras – PPF, ao nível de 0,05 foi estatisticamente significativa para estimar a probabilidade de uma boa qualidade de vida.
Palavras-Chave: Qualidade de Vida; Idoso; Regressão Logística;


Um Estudo dos Homicídios na Cidade de Belém do Pará - Link direto para esse trabalho
Débora Fernanda Castro Vianna Oliveira; Lorena Maria Amoras Corrêa; Silvia dos Santos de Almeida

O homicídio é reconhecido socialmente como um ato de extrema violência e de grave violação dos direitos à vida e à segurança. Neste sentido, este trabalho se propõe a apresentar um perfil do crime de homicídio na cidade de Belém, a partir da estatística descritiva, afim de contribuir cientificamente no sentido de auxiliar a atuação das instituições de segurança pública no enfrentamento da questão da violência e da criminalidade em Belém. Dentre os principais resultados, pode-se destacar que a maioria das vítimas de homicídio é do gênero masculino (92,33%), o fato ocorre em via pública (85,23%), no domingo (23,12%), no turno da noite (49,13%), sendo cometido com arma de fogo (81,02%) e a causa presumível é ódio ou vingança (90,85%).
Palavras-Chave: Violência; Segurança Pública; Criminalidade;


Um Modelo Bayesiano Para Dados de Sobrevivência com Fração de Cura e Erro nas Covariáveis - Link direto para esse trabalho
Brian Alvarez Ribeiro de Melo; Heleno Bolfarine

Neste trabalho, apresentamos o modelo de sobrevivência com fração de cura quando uma das covariáveis é medida com erro, apresentado por Mizoi et al. (2007), avaliado sob a perspectiva Bayesiana. O modelo é construído considerando a distribuição Weibull para os riscos competitivos e utilizando a verossimilhança corrigida, apresentada em Nakamura (1990). Resultados provenientes de simulações mostram boas propriedades do estimador de Bayes dos coeficientes de regressão e o modelo também é aplicado à uma base de dados sobre melanoma maligno. A estimação é feita de forma direta, utilizando o software OpenBUGS.
Palavras-Chave: Análise de Sobrevivência; Inferência Bayesiana ; Modelos com fração de cura; Covariáveis com erro de medida; Modelo tempo de promoção;


Um Novo Modelo de Sobrevivência com Fração de Cura: Uma Abordagem Bayesiana - Link direto para esse trabalho
Katherine E. C. Zavaleta ; Vicente G. Cancho; Adriano K. Suzuki

Neste trabalho de sobrevivência foi proposto um novo modelo de sobrevivência com fração de cura. O modelo foi desenvolvido desde uma perspectiva biológica onde foi assumido, que o número inicial de causas competitivas (lesões ou células alteradas) de um evento de interesse segue uma distribuição Séries de Potências Zero Inflacionadas (SPZI). Além disso é desenvolvido procedimentos inferênciais desde uma abordagem Bayesiana usando métodos Monte Carlo em Cadeias de Markov (MCMC). Como aplicação utilizamos um conjunto de dados reais apresentado em Kersey et al. (1987).
Palavras-Chave: Distribuição Serie de potência; Distribuição Zero Inflacionada; Análise de sobrevivência; Inferência Bayesiana;


Um algoritmo reversible-jump MCMC com propostas ejeção-absorção para processamento de imagens - Link direto para esse trabalho
Alexandre Pitangui Calixto; Erlandson Ferreira Saraiva; Luís Aparecido Milan.

Propomos um novo algoritmo MCMC para processamento de imagens. O algoritmo é desenvolvido considerando que o número de componentes K é desconhecido. Para atualizar K, utilizamos as propostas denominadas de ejeção-absorção (EA), que são desenvolvidas com base nos dados observados e mudam o número de componentes K na vizinhança K-1 e K+1, respectivamente. A probabilidade de aceitação para as propostas EA é calculada de acordo com a probabilidade de aceitação reversible-jump, utilizando um procedimento onde o jacobiano da transformação é igual a 1 e a densidade geradora de candidatos é dada pela distribuição a posteriori dos parâmetros do modelo. Uma vantagem do método proposto é que este é desenvolvido com base nos dados observados, ao contrário dos métodos usuais, onde o procedimento de atualização de K é baseado nas variáveis não observáveis. Isto torna o método proposto mais eficiente, pois as propostas EA podem ser rapidamente desenvolvidas e testadas, novas componentes são ``criadas'' com base em informações provenientes de clusters de observações e os parâmetros das novas componentes são gerados das distribuições a posteriori.
Palavras-Chave: Reversible Jump Markov Chain Monte Carlo; Modelo Potts; Algoritmo Swendsen-Wang; Slice Sampling; Distribuição de Gibbs;


Um novo resíduo em modelos de regressão inflacionados no zero - Link direto para esse trabalho
Gustavo H. A. Pereira; Denise A. Botter; Mônica C. Sandoval

Modelos de regressão inflacionados no zero são desenvolvidos para ajustar variáveis resposta que podem assumir o valor zero com probabilidade maior do que a permitida por conhecidas distribuições de probabilidade. Neste trabalho, o interesse recai em variáveis resposta que podem assumir o valor zero com probabilidade positiva e apresentam distribuição contínua em algum intervalo do conjunto dos números reais positivos. Diversos trabalhos teóricos nessa classe de modelos têm sido desenvolvidos e essa classe tem aplicações em várias diferentes áreas. Porém, ainda não há na literatura um resíduo com boas propriedades para realizar análise de diagnóstico do componente contínuo dos modelos de regressão inflacionados no zero. Este trabalho introduz um resíduo para realizar análise de diagnóstico do componente contínuo de modelos de regressão inflacionados no zero. Estudos de simulação de Monte Carlos são utilizados para comparar o resíduo proposto com o existente na literatura para o caso do modelo de regressão beta inflacionado no zero. Os resultados sugerem que o resíduo proposto tem melhores propriedades que o resíduo existente.
Palavras-Chave: Análise de diagnóstico; Modelos de regressão inflacionados; Regressão beta;


Uma Aplicação de Modelos de Sobrevivência Bivariados Baseados em Cópulas Archimedianas - Link direto para esse trabalho
Marco Antonio de Oliveira, Adriano Kamimura Suzuki

Neste trabalho consideramos modelos baseados nas cópulas arquimedianas de Clayton e Frank para modelar a dependência de dados de sobrevivência bivariados na presença de covariáveis e observações censuradas. Para fins inferenciais, realizamos uma abordagem bayesiana usando métodos Monte Carlo em Cadeias de Markov (MCMC). Com o objetivo de detectar observações influentes nos dados analisados foi utilizado o método bayesiano de análise de influência caso a caso baseado na divergência psi. Mostramos a aplicabilidade dos modelos propostos a conjuntos de dados simulados e reais. Todas as implementações computacionais foram realizadas utilizando os sistemas OpenBUGS e R por meio do pacote BRugs.
Palavras-Chave: Análise de Sobrevivência; Cópulas Archimedianas; Divergência psi; Inferência Baysiana;


Uma Aplicação do Modelo de Regressão Poisson à Previsão de Resultados de Jogos de Futebol - Link direto para esse trabalho
Olá Marco, se sim coloque nós dois como autores. Ciro Alexandre Olivieri Filho1; Adriano Kamimura Suzuki2 1 Aluno 2 Orientador

Previsões de resultados de jogos de futebol são de grande interesse por parte dos torcedores e imprensa e tem sido o foco de várias pesquisas encontradas na literatura, como exemplo Dyte & Clarke (2000), Suzuki et al. (2009), Brillinger (2008), Karlis & Ntzoufras (2009) e Lee (1997). Neste trabalho, sob uma abordagem bayesiana, realizamos uma aplicacão do modelo de regressão Poisson para prever os resultados do Campeonato Inglês de 2012-2013. Assumimos que o número de gols marcado por cada time em uma partida são independentes e seguem uma distribuicão Poisson univariada, em que a média reflete a força do ataque, defesa e casa. Antes do início de cada rodada do returno, calculamos as probabilidades de vitória, empate e derrota dos times em cada uma das partidas simples e, por meio de um procedimento de simulacão, obtemos a probabilidade de um determinado time se classificar para a UEFA Champions League, sagrar-se campeão como também de ser rebaixado para a segunda divisão. Todas as implementações computacionais foram realizadas utilizando os sistemas WinBUGS e R por meio do pacote R2WinBUGS.
Palavras-Chave: Futebol; Inferência Bayesiana; Previsão; Regressão Poisson; Simulação;


Uma abordagem bayesiana de um modelo de regressão linear múltipla com resposta truncada para análise de transições eletrônicas de íon terra rara - Link direto para esse trabalho
Quintiliano Siqueira Schroden Nomelini; Matheus Bartolo Guerrero; Maria Luiza Maes; Valdeir Antônio Silvava; José Waldemar da Silva

A força de oscilador de uma transição eletrônica é um exemplo de variável aleatória truncada na área de física. Esta variável depende de uma combinação linear de elementos da matriz de Judd-Ofelt. Tais elementos são os níveis das variáveis explicativas ou regressoras em um modelo de regressão linear múltipla e os parâmetros deste modelo são chamados de parâmetros de intensidade de Judd-Ofelt. A natureza da variável descrita justifica o uso de distribuições com tal característica. Neste trabalho foi adotado a distribuição normal truncada para o ajuste do modelo, via inferência bayesiana. Verificou-se que a análise bayesiana é flexivel para a modelagem de dados em análise de transições eletrônicas de íon terra rara. O resumo da informação obtida a partir da amostra e da informação a priori para cada parâmetro por meio de uma distribuição a posteriori é um atrativo para o uso da inferência bayesiana. Estas informações são obtidas a partir de amostras realizadas por meio do método de Monte Carlo via Cadeia de Markov. A implementação do algoritmo foi realizada com o auxílio do software R.
Palavras-Chave: normal truncada; inferência bayesiana; íon terra rara;


Uma abordagem para monitorar dados de contagem utilizando Regressão poisson por componentes principais - Link direto para esse trabalho
Danilo Marcondes Filho, Ângelo Márcio Oliveira Sant’Anna

Cartas de controle baseadas em modelos de regressão são úteis para monitorar processos em que a variável resposta varia em função de ajustes em variáveis de processo. Sua utilização permite o monitoramento da estrutura de correlação entre as variáveis de processo e a variável resposta através dos resíduos do modelo ajustado a partir de dados históricos do processo. Entretanto, esta estratégia está restrita a dados oriundos de variáveis de processo não correlacionadas significativamente. Caso contrário, variáveis de processo colineares e que guardam informação substancial sobre da variabilidade da variável resposta podem ficar ausentes no ajuste do modelo de regressão. Este artigo propõe uma estratégia para monitorar dados de contagem que combina Regressão de Poisson e Análise por Componentes Principais (ACP). Nesta estratégia, as variáveis colineares são transformadas em variáveis não correlacionadas via ACP, e uma Regressão de Poisson da variável de contagem sobre os eescores da ACP é ajustada. Uma carta de controle de resíduos do modelo é utilizada para detectar descontroles presentes no processo que afetam a relação das variáveis de processo com a variável resposta. O procedimento é ilustrado através de um estudo de caso simulado.
Palavras-Chave: Regressão Poisson; Carta de controle para Regressão; Análise de Componentes Principais; Regressão ACP;


Uma aplicação de Cadeias Markovianas de Memória Variável em genética - Link direto para esse trabalho
André Arantes Ramos; Carolina Thompson Silveira Mello; Márcio Luis Lanfrendi Viola; Paulo Benatti Alves.

Estudos em genética são de extrema importância pois a partir deles pode-se entender o funcionamento do corpo e como as doenças se originam. Tendo em vista esta importância, um estudo em relação a neuropatia óptica hereditária de Leber iniciou-se para entender suas complicações e possíveis causas. O presente trabalho apresenta uma modelagem dos genes MT-ND1, MT-ND4, MT-ND4L e MT-ND6 através de Cadeias Markovianas de Memória Variável a fim de entender um pouco mais da doença e de criar um critério que classificará indivíduos como doentes ou não doentes. Esses genes foram selecionados pois mutações específicas neles apresentam uma alta correlação com a doença em estudo.
Palavras-Chave: Cadeias Markovianas de Memória Variável; Neuropatia Óptica Hereditária de Leber; Genética;


Uma aplicação de Modelos Autorregressivos de Defasagens Distribuídas - Link direto para esse trabalho
Camila Barbosa Moraes Rodrigues; Maria Sílvia de Assis Moura

Este trabalho tem por objetivo investigar a associação entre casos de dengue e variáveis meteorológicas, com a expectativa de que os resultados obtidos possam contribuir para o controle do vetor transmissor dessa doença. Para isso foram utilizadas técnicas estatísticas envolvendo Modelos Autorregressivos de Defasagens Distribuídas. Esta análise foi feita a partir de um conjunto de dados real referente ao problema levantado.
Palavras-Chave: dengue; variáveis meteorológicas; modelos de regressão;


Uma metodologia inspirada quanticamente para o aprimoramento do poder de discriminação de dados - Link direto para esse trabalho
Rosilda Benício de Souza; Emeson J. S. Pereira; Tiago A. E. Ferreira

Este trabalho apresenta uma nova metodologia para aprimorar o poder de discriminação de dados, baseado no Teorema de Cover, inspirado quanticamente. Seja P um problema de classificação não linearmente separável, onde é dado um conjunto de dados com algumas classes. O processo proposto consiste em incrementar a dimensão do conjunto de dados a fim de tentar tornar o problema P em um problema de classificação linearmente separável. Neste processo também é suposto que o conjunto de dados original é um observável no mundo quântico, i.e., o conjunto de dados original (números reais) é criado a partir de uma medida do valor esperado de um estado de um sistema quântico (números complexos). Portanto, a metodologia aplica um Algoritmo Genético (AG) para buscar a aplicação inversa da medida do valor esperado, transformando números reais em números complexos, voltando do mundo clássico para o mundo quântico, sujeito à restrição de conservação de magnitude, ou conservação de energia. Depois disso, no mundo quântico, a técnica de Análise de Componentes Principais (PCA) é aplicada para selecionar um conjunto mínimo de características para criar uma classificação correta dos dados. A seguir, uma Rede Neural Artificial é aplicada para aprender a transformação que conduz quaisquer novas observações do mundo clássico para o mundo quântico. Métodos tradicionais de classificação como K-means, KNN e LDA são aplicados aos problemas de classificação em duas condições: conjunto de dados originais e conjunto de dados transformados com a metodologia proposta. A comparação dos resultados de classificação é apresentada, indicando um aprimoramento no poder de discriminação dos dados quando a metodologia proposta é aplicada.
Palavras-Chave: Classificação; Teorema de Cover; Computação Quântica; Poder de discriminação; Sistemas Inteligentes;


Uma metodologia para a extensão de histórico de produção eólica - Link direto para esse trabalho
Luiz Armando dos Santos Aleixo; Álvaro de Lima Veiga Filho; Cássio Freitas Pereira de Almeida

Um dos principais problemas para a expansão do uso da energia eólica é a escassez de dados. No Brasil, exige-se um histórico de pelo menos 30 anos de produção para a certificação de um parque eólico. No entanto, é muito improvável que esses dados estejam disponíveis. Um recurso frequente é o de utilizar um histórico de medidas locais com uma duração bastante inferior (por exemplo 2 anos) e estendê-lo para 30 anos através do uso de modelos estatísticos. O objetivo dessa dissertação é propor e estudar o desempenho de uma metodologia de extensão de histórico baseada em um modelo de regressão linear. Como ilustração, a metodologia foi aplicada a 4 parques eólicos localizados no nordeste do Brasil.
Palavras-Chave: Produção eólica; Stepwise; Regressão;


Uso de Algoritmo Genético para a otimização do ponto de corte da probabilidade de sucesso estimada do modelo de Regressão Logística - Link direto para esse trabalho
José Edson Rodrigues Guedes Gondim, UFRPE; Joab de Oliveira Lima (in memorian), UFPB; Paulo José Duarte-Neto, UFRPE

Uma das grandes dificuldades no uso de Modelos de Regressão Logística, para fins de classificação, é a determinação, baseado na probabilidade estimada de sucesso, do melhor ponto de corte que produz a melhor classificação possível para o modelo proposto. Neste trabalho será sugerida a utilização de algoritmo genético para encontrar o ponto de corte ótimo que maximize a proporção de acerto. Os resultados referentes às taxas de acerto encontradas foram comparados com as taxas de acerto geradas por outros dois métodos, são eles: (a) um ponto de corte baseado na proporção 0,5, isto é, a classificação prevista para a variável resposta será 0 se P(Y=1) ≤ 0,5 e 1 caso contrário e (b) um ponto de corte baseado na proporção amostral (à priori) de 1’s observada na amostra estudada. As análises mostraram que os pontos de corte gerados pelo algoritmo genético forneceram, em 99,70% dos casos estudados, taxas de classificações corretas superiores às taxas de acerto produzidas pelos outros dois métodos. Além disso, observou-se que os pontos de corte produzidos pelo algoritmo genético melhoraram a proporção estimada de classificação correta em 19,75% (em média) quando comparada com as dos outros métodos examinados. Os resultados mostraram que é possível encontrar uma regra de classificação mais adequada para a probabilidade estimada de sucesso do Modelo de Regressão Logística e que as técnicas computacionais evolutivas, como algoritmo genético, podem ser muito úteis nesses casos.
Palavras-Chave: Regressão Logística; Ponto de Corte; Algorítimo Genético;


Uso de Modelos de Regressão Stepwise para Escolha de Variáveis Relevantes em Estudo de Educação - Link direto para esse trabalho
Daniel Tyszka Junior

Estudo que visa investigar a relação de variáveis de professores com o desempenho de seus alunos com base nas informações da  Aneb – Avaliação Nacional da Educação Básica. Por meio do uso de modelos de regressão linear, buscamos encontrar os fatores característicos dos professores que relacionam-se com a nota do aluno, utilizando o método stepwise para determinar quais as variáveis mais relevantes para o modelo e concluímos com uma análise básica dos efeitos dos níveis de cada fator explicativo na variável de interesse.
Palavras-Chave: Regressão Linear; Educação; Stepwise;


Utilização da TRI para estimação de Parâmetros de Distribuição Latente: Uma Aproximação - Link direto para esse trabalho
Thamara Rúbia Almeida de Medeiros; Helen Indianara Seabra Gomes; Heliton Ribeiro Tavares

Neste trabalho propomos um método para estimação de habilidades médias de uma distribuição latente em Modelos de Resposta ao Item. Consideramos o caso em que temos apenas duas populações em estudo, submetidas a testes com alguns itens comuns. A proposta é baseada em uma função da diferença das proporções de acertos das duas populações, relativa aos itens comuns. O estudo foi realizado via simulação com R=1000 réplicas. São apresentados alguns resultados de quando consideramos o mesmo conjunto de itens nas R réplicas, bem como quando variamos os itens a cada réplica ou mantemos apenas uma parte fixada. Também é feita uma análise de resíduos, além uma exploração baseada no tamanho da amostra.
Palavras-Chave: Teoria da resposta ao item; habilidades; vantagem de acertos;


VALIDAÇÃO DE DIGNÓSTICO PARA MANUTENÇÃO PREVENTIVA DE POÇO DE PETRÓLEO VIA MODELO DE TEMPO DE FALHA ACELERADA - Link direto para esse trabalho
Wanderson Laerte de Oliveira Carvalho; Dione Maria Valença

Neste trabalho, apresentamos uma proposta de teste diagnóstico capaz de identificar os poços de petróleo necessitados de manutenção preventiva, baseado em algumas características pertinentes dos poços. O teste está diretamente associado ao ajuste de um modelo de tempo de falha acelerada (MTFA), que estima as relações entre as características dos poços e seus tempos de funcionamento até ocorrência da primeira falha. A regra de decisão do teste proposto é a probabilidade de o poço falhar nas próximas 10.000; 20.000 ou 30.000 unidades de tempo ser maior que 0,3 ; 0,3 ou 0,4 respectivamente. Utilizamos a área sob a curva ROC como medida resumo do desempenho do teste, para validação. Como resultado, a área abaixo da curva ROC foi de 72%, 75% chegando à 88%. Concluímos que o teste apresenta uma boa capacidade de identificar poços em iminência de falha.
Palavras-Chave: Análise de Sobrevivência; Modelo de tempo de falha acelerada; Poços de petróleo; Validação; Curva ROC;


VIOLÊNCIA DE JOVENS NA REGIÃO SEMIÁRIDA BRASILEIRA: A DIALOGICIDADE ENTRE AS CONDIÇÕES DE VIDA E A MORTALIDADE POR AGRESSÕES - Link direto para esse trabalho
Everlane Suane de Araújo da Silva; Neir Antunes Paes

RESUMO A violência entendida como resultado, entre outras causas, das desigualdades sociais, tornouse não apenas um problema para a segurança social, mas também um problema de saúde pública de grandes proporções no mundo contemporâneo, em particular para os jovens em países como o Brasil. A região Semiárida brasileira é a maior do mundo em termos de densidade populacional e extensão, com 22 milhões de habitantes em 2010. Assim, foi realizado um estudo ecológico abordando a mortalidade por Agressão em 137 Microrregiões do Semiárido brasileiro, para jovens do sexo masculino, no ano de 2010. As fontes de dados utilizadas foram extraídas do Sistema de Informações sobre Mortalidade do Ministério da Saúde, do Instituto Brasileiro de Geografia e Estatística, e do Programa das Nações Unidas para o Desenvolvimento. Dois indicadores foram calculados para cada Microrregião: taxas de mortalidade padronizadas por violência e um indicador chamado brechas redutíveis de mortalidade, o equivalente a risco atribuível. Foi investigada a correlação entre as taxas de mortalidade padronizadas por Agressões e um conjunto de 154 indicadores que expressam as condições de vida. 18 deles foram considerados significativos. Por meio da técnica multivariada – Análise Fatorial – construiu-se um indicador sintético, o qual foi classificado em quatro estratos refletindo diferentes condições de vida. Os resultados mostraram que Microrregiões com altos valores de taxas de mortalidade por Agressão estavam presentes em todos os estratos, contrariando, assim, alguns estudos que associam elevadas taxas de mortalidade por Agressão à baixa condição de vida. O estudo permitiu levantar questões e gerar uma base de dados para subsidiar os gestores na identificação das regiões mais vulneráveis e, assim, contribuir para o processo de tomada de decisão para apoiar o desenvolvimento e a implementação de políticas públicas racionais mais eficientes para combater a mortalidade por violência da população do Semiárido brasileiro. DESCRITORES: Mortalidade por Agressão. Condição de vida. Jovens. Semiárido brasileiro. Análise Multivariada.
Palavras-Chave: Semiárido brasileiro; Mortalidade por Agressão; Análise Multivariada; Condição de vida; Jovens;


Variações bootstrap do AIC em regressão beta - Link direto para esse trabalho
Fábio Mariano Bayer; Francisco Cribari-Neto

O critério de informação de Akaike (AIC) é um critério de seleção de modelos largamente utilizado em aplicações práticas. O AIC é um estimador do valor esperado da log-verossimilhança, sendo uma medida de discrepância entre o modelo verdadeiro e o modelo candidato estimado. No entanto, em pequenas amostras o AIC é viesado e tende a selecionar modelos com alta dimensionalidade. Para contornar esse problema nós propomos novos critérios de seleção para serem usados em pequenas amostras, denominados \textit{bootstrap likelihood quasi-CV} (BQCV) e sua modificação 632QCV. Comparamos os desempenhos dos critérios propostos, do AIC e de suas diversas variações que utilizam log-verossimilhança bootstrap por meio de um extensivo estudo de simulação. O estudo numérico considera inúmeros cenários para a seleção em pequenas amostras de modelos de regressão beta com dispersão constante e com dispersão variável. Os resultados mostram que as variações bootstrap do AIC em regressão beta são boas alternativas para a seleção de modelos em pequenas amostras. Pode-se verificar que o uso da log-verossimilhança bootstrap diminui o problema da sobre-especificação do AIC na seleção de modelos. Dentre as diversas variações do AIC investigadas os critérios propostos, BQCV e 632QCV, destacaram-se, apresentando os melhores desempenhos na seleção de modelos em muitos cenários considerados. Apresentamos uma aplicação a dados reais, em que a seleção do modelo de regressão beta com dispersão variável é feita utilizando os critérios de seleção propostos.
Palavras-Chave: AIC; bootstrap; critérios de seleção; regressão beta; validação cruzada;


Verossimilhança hierárquica em modelos de Sobrevivência - Link direto para esse trabalho
William Nilson de Amorim; Gisela Tunes; Antonio Carlos Pedroso de Lima

Os métodos de estimação para modelos de fragilidade vêm sendo bastante discutidos na literatura estatística devido a sua grande utilização em estudos de Análise de Sobrevivência. Vários métodos de estimação de parâmetros dos modelos foram desenvolvidas: procedimentos de estimação basados no algoritmo EM, cadeias de Markov de Monte Carlo, processos de estimação usando verossimilhança parcial, verossimilhança penalizada, quasi-verossimilhança, entro outros. Uma alternativa que vem sendo utilizada atualmente é a utilização da verossimilhança hierárquica. O objetivo principal deste trabalho é estudar as vantagens e desvantagens da verossimilhança hierárquica para a inferência em modelos de fragilidade em relação a verossimilhança penalizada, método atualmente mais utilizado. Além disso, rotinas computacionais e estudos de simulação serão desenvolvidos, bem como aplicação a dados reais.
Palavras-Chave: Modelos de fragilidade; verossimilhança hierárquica; verossimilhança penalizada ;


Verossimilhanças Marginal e Condicional com Parâmetros de Perturbação - Link direto para esse trabalho
Josemir R. Almeida; Elisângela R. Almeida; Eliardo G. Costa

O uso da verossimilhança na estimação de parâmetros é tema de grande discussão na inferência estatística e devido a necessidade cada vez maior de adaptar tais funções a problemas diversos surgem modelos com parâmetros que não são de interesse, os parâmetros de perturbação. Neste artigo abordamos o problema de fazer inferência para parâmetros de interesse de modo a controlar os de perturbação com enfoque na verossimilhança marginal e condicional. Exemplos são apresentados para ilustrar as abordagens.
Palavras-Chave: Parâmetros de perturbação; Verossimilhança marginal; Verossimilhança condicional;


Violência escolar nas redes e privadas de ensino da região norte - Link direto para esse trabalho
Luana Andressa Freitas Ribeiro Peres; Marinalva Cardoso Maciel.

O presente trabalho tem como objetivo estudar a violência escolar nas redes de ensino da Região Norte a partir dos microdados do SAEB de 2011. Considerando que a violência escolar é um dos fenômenos cada vez mais preocupantes na sociedade brasileira, é importante a realização de estudos sobre essa temática, especialmente na Região Norte, que é carente de estudos na área. Assim, o trabalho busca avaliar se existe diferença nos índices de violências entre as redes de ensino públicas e privadas da Região Norte. A partir da análise exploratória, evidenciou-se que na maioria das escolas adotam como modo de prevenir a violência o uso de grades e muros, seguido de vigilância noturna. Identificou-se também que o tráfico e consumo de drogas como o maior indicador do evento de violência nas escolas do Norte. Através do teste de proporção, observou-se que existe diferença nos índices de violência entre as escolas públicas e privadas da Região Norte.
Palavras-Chave: Violência ; escola pública e privada; Região Norte;


Volatilidade no mercado italiano: um estudo comparativo utilizando modelos da família GARCH - Link direto para esse trabalho
Uriel Moreira Silva; Frank Magalhães de Pinho

In this work, a comparison of the performances of several GARCH models for modelling log-return volatility is made for the assets of the 5 most representative companies (as of 30/09/2013) in the benchmark stock market index for the Borsa Italiana, the FTSE-MIB. These companies roughly represent 50.60\% of the index, and are: Ente Nazionale Idrocarburi, UniCredit, Assicurazioni Generali, Ente Nazionale per l'energia ELettrica and Intesa Sanpaolo. The sample used is composed of closing prices for the assets of each company, with data ranging from 1/1/2003 up to 12/30/2011. Model performances are compared in-sample through information criteria, such as AIC, BIC, SIC and HQC, obtained under the hypothesis of gaussian, t-Student, skew-t and GED distributions. The obtained results show that the models with the best in-sample performance belong to the FIAPARCH class, allowing for the presence of long-memory and asymmetry on log-return volatility.
Palavras-Chave: Volatilidade; Modelos GARCH; FTSE-MIB;


Zero-Modified Models for Count Data - Link direto para esse trabalho
Katiane S. Conceição; Francisco Louzada

In this work, we present a family of distributions for count data, the so called Zero-Modified Power Series, which is an extension of the Power Series distributions family whose support starts at zero. This extension consists in modifying the probability of observing zero of each Power Series distribution, allowing the new zero-modified distribution appropriately accommodate datasets which have any amount of zero observations (for instance, zero-inflated or zero-deflated datasets). Power Series distributions included in the Zero-Modified Power Series family are: Poisson, Generalized Poisson, Geometric, Binomial, Negative Binomial and Generalized Negative Binomial. We present properties and particularities of the new family of distributions for count data. In addition, we introduce the Zero-Modified Power Series regression models and propose a Bayesian approach considering information matrix priori. Simulation studies are presented in order to illustrate the methodology developed in this work. Two real datasets, corresponding to leptospirosis notifications in cities of Bahia State at Brazil, are analyzed. As well as three datasets from the literature. We emphasize that the proposed Zero-Modified Power Series family distributions and their regression versions can accommodate sets of count data without any previous knowledge about the characteristic of zero-inflation (-deflation) present in the dataset.
Palavras-Chave: Count Data; Zero-Inflated Data; Zero-Deflated Data; Power Series Distribution; Zero-Modified Power Series Regression Model;


Zero-Modified Power Series Distributions - Link direto para esse trabalho
Katiane S. Conceição; Marinho G. Andrade; Francisco Louzada

In this paper we introduce the Zero-Modified Power Series distributions family, a new class of discrete distributions for modeling datasets exhibiting overdispersion or underdispersion beyond zero-inflated or zero-deflated proportion. The new class of distributions is very flexible and has the Power Series and Zero-Truncated Power Series distributions as particular cases. The probability mass function and characterizations of this new class are presented. The distribution parameters are estimated via maximum likelihood method. The use of this new family of distributions is illustrated in three real datasets.
Palavras-Chave: Power Series Distribution; Zero-Truncated Distributions; Zero-Inflated Dataset; Zero-Deflated Dataset;


passeio aleatório com armadilhas - Link direto para esse trabalho
Renato Santos da Silva; Orientador: Pablo Martín Rodríguez.

Neste trabalho discutimos uma modificação do passeio aleatório, assumindo a existência de armadilhas em cada vértice. Calculamos quantidades de interesse e apresentamos simulações do processo.
Palavras-Chave: passeio; aleatório; armadilhas;


relação entre Preensão da força manual, testes motores e a maturação sexual em ambos os sexos em escolares de Macau/RN e Diogo Lopes/RN. - Link direto para esse trabalho
Sylvirãnia Vilar Guerra Waleska C. Euflausino

O presente estudo teve como objetivo verificar a relação entre a preensão manual e as variáveis: sexo, peso, idade, estatura, IMC, força abdominal, forças dos membros superiores e inferiores e maturação sexual. Foram avaliadas 100 crianças na faixa etária de 7 a 17 anos de idade, de ambos os sexos. Como instrumento de coleta foram utilizados o teste do Auto Tanner, para avaliar a maturação sexual, um dinamômetro JAMAR para avaliar a força de preensão manual, o teste de impulsão horizontal avaliador da potência de membros inferiores, arremesso de medicine ball 2 kg para aferir potência de membros superiores e o teste de resistência abdominal para medir a força abdominal. Foram realizados testes de associação qui-quadrado, testes de correlação e ajuste de modelo de regressão múltipla. Como resultado da regressão, obteve-se como variáveis explicativas da preensão manual o sexo, o peso, o IMC, as forças dos membros inferiores e superiores e os estágios de 2 a 5 da maturação sexual.
Palavras-Chave: Preensão manual; Maturação; Modelo;


ÍNDICE GLICÊMICO E CARGA GLICÊMICA DA DIETA DE MULHERES PORTADORAS DE NEOPLASIA MAMÁRIA SOB TRATAMENTO QUIMIOTERÁPICO - Link direto para esse trabalho
Elisete C. Q. Aubin; Nágila R. T. Damaceno; Fernanda K. P. Patricio; Julio A. Z. Trecenti

A dieta alimentar de um indivíduo está associado com a etiologia da neoplasia mamária, sendo considerados fatores de risco o consumo elevado de gordura e carnes, em detrimento da baixa ingestão de frutas, vegetais e fibras. Neste estudo, 25 pacientes atendidas no Hospital A C Camargo, todas portadoras da neoplasia mamária e que seriam submetidas ao tratamento quimioterápico foram acompanhadas. Esse grupo de pacientes foi acompanhada em 3 instantes de tempo: antes da quimioterapia (T0); logo após o tratamento quimioterápico (T1); 2 meses depois da quimioterapia (T2). Em cada momento, obtiveram-se diversas informações da paciente, tais como, variáveis relacionadas à composição corporal da paciente (IMC e porcentual de gordura), valor do ângulo de fases, que indica o nível de atividade celular; cálculo do índice glicêmico (IG) e da carga glicêmica (CG), que representam a qualidade e quantidade de carboidrato ingerido com base em recordatórios alimentares de 24 horas, índice de Karnofsky, que delimita escores para a saúde e qualidade de vida da paciente. O objetivo principal do estudo foi verificar a influência das variáveis IG e CG, relacionadas ao carboidrato ingerido pela paciente, com o ângulo de fase e com porcentual de gordura das mulheres antes, durante e após a quimioterapia. Para ângulo de fase foram ajustados quatro modelos de regressão: linear múltipla com resposta Gaussiana, linear generalizado com resposta normal inversa, linear múltipla Gaussiano com efeitos aleatórios e mínimos quadrados generalizados com estrutura de correlação uniforme. Para porcentual de gordura, considerou-se o ajuste de regressão linear múltipla Gaussiano e distribuição beta com ligação logística. De acordo com o ângulo de fase, IG e CG apresentam associação negativa com o ângulo de fase em T1, ou seja, logo após a quimioterapia; o percentual de gordura (em T1 e T2) e o IMC são associados ao ângulo de fase particularmente em T2 (IMC em todos T0), ou seja, dois meses após o tratamento. De acordo com o porcentual de gordura, o IMC foi significante em todos os modelos para explicar o porcentual de gordura, e somente nos dois primeiros momentos; o IG apareceu significante somente no modelo beta, no momento T0, antes da quimioterapia.
Palavras-Chave: Ângulo de fase; Modelos GAMLSS; Porcentual de gordura; Regressão linear múltipla ;


Índice de Acidente de Trânsito na Rodovia Federal BR 316 - Link direto para esse trabalho
Henrique Antônio Monteiro Lopes; Silvia dos Santos de Almeida; Edson Marcos Leal Soares Ramos; Irlando Ricardo Monteiro Lopes; Cristiane Nazaré Pamplona de Souza

A Organização Mundial da Saúde constatou um crescimento de 24% do número total de óbitos por acidentes com transporte no período de 2002 a 2010 e previu que esta estatística aumentaria se medidas de segurança e conscientização não forem adotadas. Este fato justifica o presente artigo que tem como objetivo a identificação dos fatores que potencializaram os acidentes de trânsito com vítimas fatais na rodovia BR 316 nos quilômetros 21 ao 278, no período de 2010 a 2012. Em vista disto, adota metodologia baseada em explorações teóricas aliadas a análises de informações provenientes do banco de dados da Polícia Rodoviária Federal, tratados com técnicas estatísticas descritivas e multivariadas que possibilitaram a formulação de um Índice de Acidentes de Trânsitos para a rodovia BR 316. A partir deste índice, constatou-se que a rodovia BR 316 é uma via cuja maioria dos intervalos quilométricos apresentam alta probabilidade de ocorrência de acidentes com vítimas, motivados por fatores de ordem estrutural, ambiental, humana e social. Diante disto, conclui-se que o trânsito deve ser tratado como uma questão de saúde e segurança pública.
Palavras-Chave: Rodovia BR 316; Trânsito; Acidentes;


Índice de Vulnerabilidade Juvenil dos Municípios Goianos - IVJ - Link direto para esse trabalho
Marley Apolinario Saraiva; Tallyta Carolyne Martins da Silva; Murilo Rosa Macedo

O Índice de Vulnerabilidade Juvenil (IVJ) é uma medida que busca avaliar as condições de vida em que se desenvolvem e adentram à vida adulta os jovens em cada um dos 246 municípios goianos. A elaboração do Índice de Vulnerabilidade Juvenil foi possível por meio da técnica de estatística multivariada de Análise Fatorial e os municípios foram divididos em cinco grupos de acordo com o grau de vulnerabilidade juvenil. Constatou-se que a maior parte do Estado possui vulnerabilidade juvenil entre média e altíssima. O índice obtido pode ser uma ferramenta utilizada pelos gestores públicos. Em especial, os jovens dos municípios das regiões de planejamento do Entorno do Distrito Federal, Norte e Nordeste Goiano carecem de maior assistência estatal, pois são as regiões que apresentaram os maiores valores do IVJ.
Palavras-Chave: Vulnerabilidade Social; Análise Multivariada; Juventude;