Método delta - Delta method

En estadística , el método delta es un resultado relativo a la distribución de probabilidad aproximada para una función de un estimador estadístico asintóticamente normal a partir del conocimiento de la varianza límite de ese estimador.

Historia

El método delta se derivó de la propagación del error , y la idea subyacente se conoció a principios del siglo XIX. Su aplicación estadística se remonta a 1928 por TL Kelley . JL Doob presentó una descripción formal del método en 1935. Robert Dorfman también describió una versión del mismo en 1938.

Método delta univariante

Si bien el método delta se generaliza fácilmente a un entorno multivariado, la motivación cuidadosa de la técnica se demuestra más fácilmente en términos univariados. Aproximadamente, si hay una secuencia de variables aleatorias X n que satisfacen

donde θ y σ 2 son constantes de valores finitos y denota convergencia en la distribución , entonces

para cualquier función g que satisfaga la propiedad de que g ′ ( θ ) existe y tiene un valor distinto de cero.

Prueba en el caso univariante

La demostración de este resultado es bastante sencilla bajo el supuesto de que g ′ ( θ ) es continua . Para comenzar, usamos el teorema del valor medio (es decir, la aproximación de primer orden de una serie de Taylor usando el teorema de Taylor ):

donde se encuentra entre X n y θ . Tenga en cuenta que dado que y , debe ser que y dado que g ′ ( θ ) es continuo, al aplicar el teorema de mapeo continuo se obtiene

donde denota convergencia en probabilidad .

Reordenando los términos y multiplicando por da

Ya que

Por supuesto, se sigue inmediatamente de la apelación al teorema de Slutsky de que

Con esto concluye la prueba.

Prueba con un orden explícito de aproximación

Alternativamente, se puede agregar un paso más al final, para obtener el orden de aproximación :

Esto sugiere que el error en la aproximación converge a 0 en probabilidad.

Método delta multivariado

Por definición, un estimador B consistente converge en probabilidad a su valor verdadero β , y a menudo se puede aplicar un teorema del límite central para obtener una normalidad asintótica :

donde n es el número de observaciones y Σ es una matriz de covarianza (simétrica positiva semidefinida). Supongamos que queremos estimar la varianza de una función escalar de valor h del estimador B . Manteniendo solo los dos primeros términos de la serie de Taylor y usando la notación vectorial para el gradiente , podemos estimar h (B) como

lo que implica que la varianza de h (B) es aproximadamente

Se puede usar el teorema del valor medio (para funciones de valor real de muchas variables) para ver que esto no depende de tomar una aproximación de primer orden.

Por tanto, el método delta implica que

o en términos univariados,

Ejemplo: la proporción binomial

Suponga que X n es binomial con parámetros y n . Ya que

podemos aplicar el método Delta con g ( θ ) = log ( θ ) para ver

Por lo tanto, aunque para cualquier n finito , la varianza de en realidad no existe (ya que X n puede ser cero), la varianza asintótica de sí existe y es igual a

Tenga en cuenta que como p> 0 , as , con probabilidad convergiendo a uno, es finito para n grande .

Además, si y son estimaciones de diferentes tarifas de grupo a partir de muestras independientes de tamaños n y m , respectivamente, a continuación, el logaritmo de la estimación del riesgo relativo tiene varianza asintótica igual a

Esto es útil para construir una prueba de hipótesis o para hacer un intervalo de confianza para el riesgo relativo.

Forma alternativa

El método delta se usa a menudo en una forma que es esencialmente idéntica a la anterior, pero sin la suposición de que X n o B es asintóticamente normal. A menudo, el único contexto es que la variación es "pequeña". Entonces, los resultados solo dan aproximaciones a las medias y covarianzas de las cantidades transformadas. Por ejemplo, las fórmulas presentadas en Klein (1953, p. 258) son:

donde h r es el r -ésimo elemento de h ( B ) y B i es el i -ésimo elemento de B .

Método delta de segundo orden

Cuando g ′ ( θ ) = 0, no se puede aplicar el método delta. Sin embargo, si g ′ ′ ( θ ) existe y no es cero, se puede aplicar el método delta de segundo orden. Por la expansión de Taylor,, de modo que la varianza de se basa en hasta el cuarto momento de .

El método delta de segundo orden también es útil para realizar una aproximación más precisa de la distribución de 'cuando el tamaño de la muestra es pequeño. . Por ejemplo, cuando sigue la distribución normal estándar, se puede aproximar como la suma ponderada de una normal estándar y un chi-cuadrado con un grado de libertad de 1.

Ver también

Referencias

Otras lecturas

enlaces externos