domingo, 1 de agosto de 2010

Reparametrización de un Modelo de Rango Incompleto


Cuando consideramos un modelo de rango incompleto (o modelo de diseño) se considera una reparametrización del mismo. Esto con el fin "estimar" los parámetros con las técnicas de rango completo. Una definición clásica de una reparametrización podría ser la siguiente:

Definición (Reparametrización) Considere un modelo \(Y=X\beta+\varepsilon\), donde \(X\) es \(n\times p\) de rango \(r\). Sea \(L\) de tamaño \(p\times m\) matriz conocida y sea \(\theta=L^t\beta\). Denótese la \(i\)-ésima columna de \(L\) por \(l_i\) tal que \(L=[l_1,\ldots,l_m]\). Entonces \(L^t\beta\) se define como una reparametrización del vector \(\beta\) por el vector \(\theta\) si y solo si cada \(\theta_i=l_i^t\beta\) es estimable para \(i=1,\ldots,m\), donde \(L\) tiene rango \(r\) , y \(r=m\); esto es, \(\theta\) es un conjunto base de funciones estimables.

Observando la definición debemos encontrar un conjunto base de funciones estimables. Una manera práctica de encontrar un conjunto de funciones estimables es utilizando el Teorema de la Descomposición Espectral el cual dice de la siguiente manera

Teorema (Descomposición Espectral) Sea \(A\) una matriz simétrica de orden \(n\). Existe una matriz ortogonal \(P\) tal que \(A=P\Lambda P\), donde \(\Lambda=\text{diag}(\lambda_1,\ldots,\lambda_n)\) es una matriz diagonal cuyos elementos en la diagonal son los valores propios de \(A\). Las columnas de \(P\) son los vectores propios de \(A\) correspondientes a cada \(\lambda_i\).

Demostración. Ver Basilevsky (1983, Teorema 5.8).

Usando el teorema anterior podemos descomponer la matriz \(X^t X\) de la siguiente manera
\[ X^t X =P\text{diag}(\Lambda,0)P,\]
donde \(\Lambda\) es una matriz diagonal de tamaño \(r\times r\) cuyos elementos de la diagonal son los valores propios no nulos de \(X^tX\), \(0\) es una matriz nula de tamaño \((p-r)\times(p-r)\), \(P\) es una matriz ortonormal de vectores propios ortonormales de \(X^tX\).

Sea \(P\) una partición de \(P=[P_1\mid P_2]\), donde \(P_1\) es de orden \(p\times r\) cuyas columnas son los valores propios ortonormales de \(X^tX\) correspondientes a los elementos de la diagonal de \(\Lambda\), y \(P_2\) es de tamaño \(p\times (p-r)\) cuyas columnas son nulas correspondientes a los valores propios nulos, cuya multiplicidad es de \((p-r)\). De la ecuación anterior tenemos que
\[\begin{bmatrix}P_1^t \\ P_2^t \end{bmatrix}X^tX[P_1\mid P_2]=\text{diag}(\Lambda,0)\]
Por lo tanto,
\[\begin{aligned}P_1^tX^tXP_1&=\Lambda\\P_2^tX^tXP_2&=0\end{aligned}\]
De donde \(XP_1\) es de tamaño \(n\times r\) y de rango \(r\) y \(XP_2=0\). Ahora reescribiendo el modelo tenemos que
\[\begin{aligned}Y&=X\beta+\varepsilon\\ &=XPP^t\beta+\varepsilon\\ &=[XP_1\mid XP_2]\begin{bmatrix}P_1^t\\P_2^t\end{bmatrix}\beta+\varepsilon\\
&=[XP_1\mid 0]\begin{bmatrix}P_1^t\beta\\P_2^t\beta\end{bmatrix} +\varepsilon\\
&=XP_1P_1^t \beta +\varepsilon\end{aligned}\]
Sea \(\tilde{X}=XP_1\) y \(\tilde{\beta}=P_1^t\beta\). Por lo tanto tenemos que
\[Y=\tilde{X}\tilde{\beta}+\varepsilon\]
Notese que el último modelo es un modelo de rango completo ya que es de rango columna completo.

Referencias

Basilevsky, A. (1983). Applied Matrix Algebra in the Statistical Sciences. North-Holland, New York.

Graybill, F. (1976). Theory and Application of the Linear Model. Duxbury, Canada.

Khuri, A. (2010). Linear Model Methodology. Chapman & Hall/CRC, New York.

Ver también: Inversa generalizada

No hay comentarios:

Publicar un comentario