covarianza - Covariance


De Wikipedia, la enciclopedia libre

En teoría de la probabilidad y estadísticas , covarianza es una medida de la variabilidad conjunta de dos variables aleatorias . Si los valores mayores de una variable corresponden principalmente con los mayores valores de la otra variable, y lo mismo vale para los valores menores, (es decir, las variables tienden a mostrar un comportamiento similar), la covarianza es positiva. En el caso contrario, cuando los mayores valores de una variable corresponden principalmente a los valores menores de la otra, (es decir, las variables tienden a mostrar un comportamiento opuesto), la covarianza es negativa. El signo de la covarianza, por tanto, muestra la tendencia en la relación lineal entre las variables. La magnitud de la covarianza no es fácil de interpretar porque no es normalizada y por lo tanto depende de las magnitudes de las variables. La versión normalizada de la covarianza , el coeficiente de correlación , sin embargo, muestra por su magnitud la fuerza de la relación lineal.

A debe distinguir entre (1) la covarianza de dos variables aleatorias, que es una población parámetro que se puede ver como una propiedad de la distribución de probabilidad conjunta , y (2) la muestra de covarianza, que además de servir como un descriptor de la muestra, también sirve como un estimado valor del parámetro de la población.

Definición

La covarianza entre dos conjuntamente distribuido verdadero -valued variables aleatorias X y Y con finitos segundos momentos se define como el producto esperado de sus desviaciones de sus valores individuales esperado:

donde E [ X ] es el valor esperado de X , también conocido como la media de X . La covarianza veces también se denota σ XY o σ ( X, Y ) , en analogía con la varianza . Mediante el uso de la propiedad de linealidad de las expectativas, esto puede ser simplificado al valor esperado de su producto menos el producto de sus valores esperados:

Sin embargo, cuando , esta última ecuación es propenso a la cancelación catastrófica cuando computarizada con coma flotante aritmética y por lo tanto debe evitarse en los programas de ordenador, cuando los datos no se ha centrado antes. Numéricamente algoritmos estables deben ser preferidos en este caso.

Para vectores aleatorios y , la m × n cruz covarianza matriz es igual a

donde m T es la transposición del vector (o matriz) m .

El ( i , j ) elemento -ésimo de esta matriz es igual a la covarianza cov ( X i , Y j ) entre el i componente escalar -ésimo de X y la j -ésima componente escalar de Y . En particular, cov ( Y , X ) es la transpuesta de cov ( X , Y ) .

Para un vector de m distribuidas conjuntamente variables aleatorias con segundos momentos finitos, su matriz de covarianza (también conocida como la matriz de varianza-covarianza ) se define como

Variables aleatorias cuya covarianza es cero se llaman no correlacionados . Del mismo modo, los componentes de vectores aleatorios cuya matriz de covarianza es cero en cada entrada de fuera de la diagonal principal son también llamados no correlacionado.

Las unidades de medida de la covarianza cov ( X , Y ) son los de X veces los de Y . Por el contrario, los coeficientes de correlación , que dependen de la covarianza, son un adimensional medida de la dependencia lineal. (De hecho, los coeficientes de correlación pueden simplemente ser entendidos como una versión normalizada de la covarianza.)

Las variables discretas

Si el par variable aleatoria ( X , Y ) puede tomar los valores ( x i , y i ) para i = 1, ..., n , con probabilidades iguales 1 / n , a continuación, la covarianza se puede escribir de forma equivalente en términos de los medios y como

También se puede expresar de forma equivalente, sin referirse directamente a los medios, como

Más en general, si hay n posibles realizaciones de ( X , Y ), es decir, ( x i , y i ) para i = 1, ..., n , pero posiblemente con probabilidades desiguales p i , entonces la covarianza es

Discrete ejemplo variable aleatoria

Supongamos que X y Y tienen el siguiente función de masa de probabilidad conjunta , en la que los seis células centrales dan la probabilidades f ( x , y ) de las seis realizaciones hipotéticos ( x , y ) = (1, 1), (1, 2) , (1, 3), (2, 1), (2,2), y (2, 3):

y
f ( x , y ) 1 2 3 f X ( x )
1 1/4 1/4 0 1/2
X 2 0 1/4 1/4 1/2
f Y ( y ) 1/4 1/2 1/4 1

X puede asumir dos valores (1 y 2), mientras que Y puede adoptar tres (1, 2, y 3). Sus medios son y las desviaciones estándar de las poblaciones de X e Y son , y luego:

propiedades

  • La varianza es un caso especial de la covarianza en el que las dos variables son idénticas (es decir, en la que una variable siempre toma el mismo valor que la otra):
  • Si X , Y , W , y V son variables aleatorias de valor real y un , b , c , d son constantes ( "constante" en este contexto significa no aleatoria), entonces los siguientes hechos son una consecuencia de la definición de covarianza :
Para una secuencia X 1 , ..., X n de variables aleatorias, y las constantes de un 1 , ..., un n , tenemos
  • Una identidad útil para calcular la covarianza entre dos variables aleatorias es la identidad de la covarianza Hoeffding:
donde es la función de distribución conjunta del vector aleatorio y son los marginales .

Una identidad más general para matrices de covarianza

Deje que X sea un vector aleatorio con matriz de covarianza Σ ( X ) , y dejar que A sea una matriz que puede actuar sobre X . La matriz de covarianza del producto matriz-vector AX es:

Este es un resultado directo de la linealidad de expectativa y es útil cuando se aplica una transformación lineal , tal como una transformación de blanqueamiento , a un vector.

Uncorrelatedness e independencia

Si X y Y son independientes , entonces su covarianza es cero. Esto es consecuencia de que en virtud de la independencia,

Lo contrario, sin embargo, no es cierto en general. Por ejemplo, deja que X se distribuye de manera uniforme en [-1, 1] y dejar que Y  = X 2 . Claramente, X y Y son dependientes, pero

En este caso, la relación entre Y y X no es lineal, mientras que la correlación y covarianza son medidas de la dependencia lineal entre dos variables. Este ejemplo muestra que si dos variables están correlacionadas, eso no implica, en general, que son independientes. Sin embargo, si dos variables están en forma conjunta distribuyen normalmente (pero no si son meramente individual distribuidos normalmente ), uncorrelatedness hace implicaría la independencia.

Relación con los productos internos

Muchas de las propiedades de covarianza se puede extraer elegantemente mediante la observación de que satisface propiedades similares a las de un producto interno :

  1. bilineal : para las constantes a y b de variables aleatorias y X , Y , Z , cov ( aX  +  pORZ ) =  un  cov ( XZ ) +  b  cov ( YZ );
  2. simétrica: cov ( XY ) = cov ( YX );
  3. positiva semi-definida : σ 2 ( X ) = cov ( XX ) ≥ 0 para todas las variables aleatorias X , y cov ( XX ) = 0 implica que X es una variable aleatoria constante ( K ).

De hecho estas propiedades implican que la covarianza define un producto interno sobre el espacio cociente vector obtenido tomando el subespacio de variables aleatorias con segundo momento finito y la identificación de cualquiera de los dos que difieren por una constante. (Esta identificación se convierte en el semi-definitud positiva por encima en definitud positivo.) Ese espacio cociente vector es isomorfo al subespacio de variables aleatorias con segundo momento finito y significa cero; en ese subespacio, la covarianza es exactamente el L 2 producto interno de funciones reales en el espacio de muestra.

Como resultado, para las variables aleatorias con varianza finita, la desigualdad

ejerce a través de la desigualdad de Cauchy-Schwarz .

Prueba: Si σ 2 ( Y ) = 0, entonces se cumple trivialmente. De lo contrario, dejar que la variable aleatoria

Entonces nosotros tenemos

El cálculo de la covarianza muestral

Las covarianzas de muestra entre K variables basadas en N observaciones de cada uno, extraídas de una población de otra manera no observada, están dados por la K -by- K matriz con las entradas

que es una estimación de la covarianza entre la variable j y la variable k .

La media de la muestra y la matriz de covarianza de muestra son estimaciones insesgadas de la media y la matriz de covarianza de la vector aleatorio , un vector cuyo j -ésimo elemento ( j = 1, ..., K ) es una de las variables aleatorias. La razón la matriz de covarianza de muestra tiene en el denominador en lugar de es esencialmente que la media de la población no se conoce y se sustituye por la media muestral . Si la media de la población es conocida, la estimación no sesgada análoga se da por

comentarios

La covarianza a veces se llama una medida de "dependencia lineal" entre las dos variables aleatorias. Eso no significa lo mismo que en el contexto del álgebra lineal (véase la dependencia lineal ). Cuando la covarianza se normaliza, se obtiene el coeficiente de correlación de Pearson , que da a la bondad del ajuste para la mejor función lineal posible que describe la relación entre las variables. En este sentido covarianza es un medidor lineal de la dependencia.

aplicaciones

En la genética y la biología molecular

Covarianza es una medida importante en la biología . Ciertas secuencias de ADN se conservan más que otros entre las especies, y por lo tanto para el estudio de estructuras secundaria y terciaria de las proteínas , o de ARN estructuras, las secuencias se comparan en especies estrechamente relacionadas. Si se encuentran cambios en la secuencia o ningún cambio en absoluto se encuentran en no codificante de ARN (tal como microARN ), las secuencias se encuentran para ser necesario para motivos estructurales comunes, tales como un bucle de ARN. En genética, la covarianza sirve de base para el cálculo de la matriz de relaciones genéticas (GRM) (también conocido como el parentesco de la matriz), lo que permite la inferencia sobre la estructura de la población de la muestra sin parientes cercanos conocidos, así como la inferencia sobre la estimación de la heredabilidad de los rasgos complejos.

En economía financiera

Covarianzas juegan un papel clave en la economía financiera , especialmente en la teoría de cartera y en el modelo de valoración de activos financieros . Las covarianzas entre rendimientos diversos activos se usan para determinar, bajo ciertos supuestos, las cantidades relativas de diferentes activos que los inversores deberían (en un análisis normativo ) o se predice que (en un análisis positivo ) elegir, para en un contexto de diversificación .

En la asimilación de datos meteorológicos y oceanográficos

La matriz de covarianza es importante para estimar las condiciones iniciales necesarias para el funcionamiento de los modelos de previsión del tiempo. La 'matriz de covarianza del error de predicción' se construye típicamente entre perturbaciones en torno a un estado medio (ya sea un climatológica o media del conjunto). La 'matriz de covarianza del error de observación' está construido para representar la magnitud de los errores de observación combinados (en la diagonal) y los errores correlacionados entre las mediciones (fuera de la diagonal). Este es un ejemplo de su aplicación generalizada para el filtrado de Kalman y más general de estimación de estado para sistemas variables en el tiempo.

en micrometeorología

La covarianza eddy técnica es una técnica de medición atmosféricos clave en la que la covarianza entre la desviación instantánea de la velocidad vertical del viento a partir del valor medio y la desviación instantánea de la concentración de gas es la base para el cálculo de los flujos turbulentos verticales.

En la extracción de características

La matriz de covarianza se utiliza para capturar la variabilidad espectral de una señal.

Ver también

referencias

enlaces externos