Modelo funcional heterocedástico com erro nas variáveis

Em muitas situações práticas as variâncias de ambas as medidas são diferentes para cada nível de concentração. Nesta seção estudaremos o modelo funcional heterocedástico com erros nas variáveis, descrevendo as principais características do modelo e quais suposições são necessárias para utilizar tal modelo. A distribuição conjunta de ($ Y_i,X_i$) é dada por

$\displaystyle \left( \begin{array}{c} Y_i\\ X_i \end{array} \right) \sim N_2\le...
...\begin{array}{cc} \lambda_i & 0 \\ \cdot & \kappa_i \end{array} \right] \right)$ (4)

as variáveis $ Y_i$ e $ X_i$ têm a mesma interpretação que no caso homocedástico, $ \alpha$ é o viés aditivo e $ \beta$ o viés multiplicativo, $ \lambda_i$ e $ \kappa_i$ são variâncias conhecidas de $ Y_i$ e $ X_i$ para $ i = 1,\ldots, n$ respectivamente. Assim o logarítmo da função de verossimilhança é dada por

$\displaystyle \ell($$\displaystyle \mbox{\boldmath {$\theta$}}$$\displaystyle ) = \sum_{i \in I } \ell_{i}($$\displaystyle \mbox{\boldmath {$\theta$}}$$\displaystyle ),$ (5)

sendo

$\displaystyle \ell_{i}($$ \theta$$\displaystyle )=-log(2\pi)-\frac{1}{2}log(\kappa_i)-\frac{1}{2}log(\lambda_i)-\...
...y_{i}-\alpha - \beta x_{i})^2}{2\lambda_i}-\frac{(X_{i} - x_{i})^2}{2\kappa_i},$

e o parâmetro $ \theta$$ =($$ \beta$$ ,$$ x$$ )^{\top}$, $ \beta$$ = (\alpha, \beta)^{\top}$ e $ x$$ =(x_1,\ldots, x_n)^{\top}$. A log-verossimilhança ([*]) é limitada, pois as variâncias são conhecidas. Ripley e Thompson (1987) consideram o modelo heterocedástico acima e derivam os estimadores para $ \alpha$ e $ \beta$, a partir da verossimilhança perfilada que se obtém substituindo $ x_i$ por $ \hat{x}_i = \dfrac{\kappa_i \beta (Y_i - \alpha)+\lambda_i X_i}{\beta^2 \kappa_i + \lambda_i}$, pois $ \hat{x}_i$ maximiza ([*]) em relação a $ x_i$. Os autores também propuseram testes marginais para $ \alpha$ e $ \beta$, sendo que as variâncias usadas para o teste são obtidas por analogia a metodologia de mínimos quadrados, que não são consistentes assintóticamente. Em Galea et al 2003 encontram estimativas consistentes para a matriz de covariâncias de $ \hat{\alpha}$ e $ \hat{\beta}$ baseadas na teoria de estimação para parâmetros incidentais, ver Mak, usando a verossimilhança perfilada. Os autores demonstram que as estimativas para $ \alpha$ e $ \beta$ são

$\displaystyle \hat{\beta} = \dfrac{ \renewcommand {\arraystretch}{0.4}
\display...
...a})} \mbox{ \ , \ } \hat{\alpha}=\bar{Y}_{\omega}-\hat{\beta}\bar{X}_{\omega},
$

sendo que

$\displaystyle \bar{Y}_{\omega}= \renewcommand {\arraystretch}{0.4}
\displaystyl...
...ray}\renewcommand {\arraystretch}{1} \dfrac{\omega_i\bar{Y}_{i}}{\sum \omega_i}$    , $\displaystyle \bar{X}_{\omega}= \renewcommand {\arraystretch}{0.4}
\displaystyl...
...ray}\renewcommand {\arraystretch}{1}\dfrac{\omega_i \hat{X}_{i}}{\sum \omega_i}$

e

$\displaystyle \omega_i=\dfrac{1}{\lambda_i + \beta^2 \kappa_i}$ , $\displaystyle i = \{1,2,\ldots,n\}$

Para se obter as estimativas de máxima verossimilhança faz-se necessário um método iterativo. O algoritmo proposto pelos autores segue os seguintes passos: (1) Inicia-se o procedimento iterativo com $ v=0$ e os valores iniciais $ \alpha^{(0)} = 0$    , $ \beta^{(0)} = 1$, (2) calcule $ \hat{x}_i^{(v)}$, (3) calcule $ \hat{\beta}^{(v)}$ e $ \hat{\alpha}^{(v)}$, (4) incremente uma unidade a $ v$, (5) repita os passos 2, 3 e 4 até a convergência. A matriz de covariâncias assintótica para os estimadores é obtida calculando

Var\begin{displaymath}(\hat{\mbox{\boldmath {$\beta$}}})=1/n W^{-1}VW^{-1}=
\left[
...
...sigma_{\beta \alpha} & \sigma_{\beta \beta}
\end{array}\right],\end{displaymath}

sendo que

$\displaystyle W = 1/n \sum_{i=1}^{n} E\left\{\dfrac{\partial^2 \ell^{p}(\mbox{\...
...dmath {$\theta$}})}{\partial \mbox{\boldmath {$\beta$}}}\right)^{\top}\right\} $

Galea et al 2003 mostram que os elementos da matriz de covariâncias assintótica de $ \hat{\mbox{\boldmath {$\beta$}}}$ são

$\displaystyle \sigma_{\alpha \alpha} = \dfrac{1}{\sum \omega_i} + \dfrac{\bar{x...
...mega}^2}{SS_{\omega}} + nk\left(\dfrac{\bar{x}_{\omega}}{SS_{\omega}}\right)^2,$

$\displaystyle \sigma_{\alpha \beta} = \sigma_{\beta \alpha} = - \dfrac{\bar{x}_{\omega}}{SS_{\omega}}\left(1 + \dfrac{nk}{SS_{\omega}}\right)$    e

$\displaystyle \sigma_{\beta \beta}= \dfrac{1}{SS_{\omega}}\left(1 + \dfrac{nk}{SS_{\omega}}\right)$

sendo que

$\displaystyle SS_{\omega}= \sum \omega_i (x_i - \bar{x}_{\omega})^2$    , $\displaystyle \bar{x}_{\omega}= \dfrac{\sum \omega_i x_i}{\sum \omega_i}$    e $\displaystyle k = 1/n\sum \omega_i^2 \lambda_i\kappa_i.$

Para estimar Var$ (\hat{\mbox{\boldmath {$\beta$}}})$ consistentemente, basta substituir $ \alpha$, $ \beta$, $ x_i$ e $ x_i^2$ por $ \hat{\alpha}$, $ \hat{\beta}$, $ \hat{x}_i$ e $ \hat{x}_i^2 - \lambda_i\kappa_i \hat{\omega}_i$, respectivamente que são as estimativas obtidas no último passo do processo iterativo. A estimativa para $ \omega_i$ é dada por $ \hat{\omega}_i=\lambda_i + \hat{\beta}^2\kappa_i$. De forma analoga ao caso homocedástico, é possível usar a estatística de Wald para testar se o método novo mensura sem viés a concentração desejada.

Os modelos acima podem ser estendidos para o caso em que existem vários métodos a serem validados. Galea et al 2003 também derivam os estimadores para este caso, usando a verossimilhança perfilada, e propõe uma estatística de Wald para testar o viés dos métodos.

patriota 2006-04-16