En estadística , el método delta es un resultado relativo a la distribución de probabilidad aproximada para una función de un estimador estadístico asintóticamente normal a partir del conocimiento de la varianza límite de ese estimador.
Historia
El método delta se derivó de la propagación del error , y la idea subyacente se conoció a principios del siglo XIX. Su aplicación estadística se remonta a 1928 por TL Kelley . JL Doob presentó una descripción formal del método en 1935. Robert Dorfman también describió una versión del mismo en 1938.
Método delta univariante
Si bien el método delta se generaliza fácilmente a un entorno multivariado, la motivación cuidadosa de la técnica se demuestra más fácilmente en términos univariados. Aproximadamente, si hay una secuencia de variables aleatorias X n que satisfacen
donde θ y σ 2 son constantes de valores finitos y denota convergencia en la distribución , entonces
para cualquier función g que satisfaga la propiedad de que g ′ ( θ ) existe y tiene un valor distinto de cero.
Prueba en el caso univariante
La demostración de este resultado es bastante sencilla bajo el supuesto de que g ′ ( θ ) es continua . Para comenzar, usamos el teorema del valor medio (es decir, la aproximación de primer orden de una serie de Taylor usando el teorema de Taylor ):
donde se encuentra entre X n y θ . Tenga en cuenta que dado que y , debe ser que y dado que g ′ ( θ ) es continuo, al aplicar el teorema de mapeo continuo se obtiene
donde denota convergencia en probabilidad .
Reordenando los términos y multiplicando por da
Ya que
Por supuesto, se sigue inmediatamente de la apelación al teorema de Slutsky de que
Con esto concluye la prueba.
Prueba con un orden explícito de aproximación
Alternativamente, se puede agregar un paso más al final, para obtener el orden de aproximación :
Esto sugiere que el error en la aproximación converge a 0 en probabilidad.
Método delta multivariado
Por definición, un estimador B consistente converge en probabilidad a su valor verdadero β , y a menudo se puede aplicar un teorema del límite central para obtener una normalidad asintótica :
donde n es el número de observaciones y Σ es una matriz de covarianza (simétrica positiva semidefinida). Supongamos que queremos estimar la varianza de una función escalar de valor h del estimador B . Manteniendo solo los dos primeros términos de la serie de Taylor y usando la notación vectorial para el gradiente , podemos estimar h (B) como
lo que implica que la varianza de h (B) es aproximadamente
Se puede usar el teorema del valor medio (para funciones de valor real de muchas variables) para ver que esto no depende de tomar una aproximación de primer orden.
Por tanto, el método delta implica que
o en términos univariados,
Ejemplo: la proporción binomial
Suponga que X n es binomial con parámetros y n . Ya que
podemos aplicar el método Delta con g ( θ ) = log ( θ ) para ver
Por lo tanto, aunque para cualquier n finito , la varianza de en realidad no existe (ya que X n puede ser cero), la varianza asintótica de sí existe y es igual a
Tenga en cuenta que como p> 0 , as , con probabilidad convergiendo a uno, es finito para n grande .
Además, si y son estimaciones de diferentes tarifas de grupo a partir de muestras independientes de tamaños n y m , respectivamente, a continuación, el logaritmo de la estimación del riesgo relativo tiene varianza asintótica igual a
Esto es útil para construir una prueba de hipótesis o para hacer un intervalo de confianza para el riesgo relativo.
Forma alternativa
El método delta se usa a menudo en una forma que es esencialmente idéntica a la anterior, pero sin la suposición de que X n o B es asintóticamente normal. A menudo, el único contexto es que la variación es "pequeña". Entonces, los resultados solo dan aproximaciones a las medias y covarianzas de las cantidades transformadas. Por ejemplo, las fórmulas presentadas en Klein (1953, p. 258) son:
donde h r es el r -ésimo elemento de h ( B ) y B i es el i -ésimo elemento de B .
Método delta de segundo orden
Cuando g ′ ( θ ) = 0, no se puede aplicar el método delta. Sin embargo, si g ′ ′ ( θ ) existe y no es cero, se puede aplicar el método delta de segundo orden. Por la expansión de Taylor,, de modo que la varianza de se basa en hasta el cuarto momento de .
El método delta de segundo orden también es útil para realizar una aproximación más precisa de la distribución de 'cuando el tamaño de la muestra es pequeño.
. Por ejemplo, cuando sigue la distribución normal estándar, se puede aproximar como la suma ponderada de una normal estándar y un chi-cuadrado con un grado de libertad de 1.
Ver también
Referencias
Otras lecturas
enlaces externos