Variable aleatoria multivariante - Multivariate random variable

En probabilidad y estadística , una variable aleatoria multivariante o un vector aleatorio es una lista de variables matemáticas cuyo valor se desconoce, ya sea porque el valor aún no se ha producido o porque existe un conocimiento imperfecto de su valor. Las variables individuales en un vector aleatorio se agrupan porque todas son parte de un único sistema matemático; a menudo representan propiedades diferentes de una unidad estadística individual . Por ejemplo, si bien una persona determinada tiene una edad, altura y peso específicos, la representación de estas características de una persona no especificada dentro de un grupo sería un vector aleatorio. Normalmente, cada elemento de un vector aleatorio es un número real .

Vectores aleatorios se utilizan a menudo como la implementación subyacente de diversos tipos de agregados variables aleatorias , por ejemplo, una matriz aleatoria , árbol azar , secuencia aleatoria , proceso estocástico , etc.

Más formalmente, un vector aleatorio es un vector de columna (o su transposición , que es un vector fila ) cuyos componentes son escalares -valued variables aleatorias en el mismo espacio de probabilidad como el uno al otro, donde es la espacio de muestra , es la sigma álgebra (la colección de todos los eventos), y es la medida de probabilidad (una función que devuelve la probabilidad de cada evento ).

Distribución de probabilidad

Cada vector aleatorio da lugar a una medida de probabilidad con el álgebra de Borel como sigma-álgebra subyacente. Esta medida también se conoce como distribución de probabilidad conjunta, distribución conjunta o distribución multivariante del vector aleatorio.

Las distribuciones de cada una de las variables aleatorias componentes se denominan distribuciones marginales . La distribución de probabilidad condicional de dado es la distribución de probabilidad de cuándo se sabe que es un valor particular.

La función de distribución acumulativa de un vector aleatorio se define como

 

 

 

 

( Ecuación 1 )

donde .

Operaciones sobre vectores aleatorios

Los vectores aleatorios pueden someterse a los mismos tipos de operaciones algebraicas que los vectores no aleatorios: suma, resta, multiplicación por un escalar y toma de productos internos .

Transformaciones afines

De manera similar, se puede definir un nuevo vector aleatorio aplicando una transformación afín a un vector aleatorio :

, donde es una matriz y es un vector de columna.

Si es una matriz invertible y tiene una función de densidad de probabilidad , entonces la densidad de probabilidad de es

.

Mapeos invertibles

De manera más general, podemos estudiar mapeos invertibles de vectores aleatorios.

Sea un mapeo uno a uno de un subconjunto abierto de sobre un subconjunto de , tengamos derivadas parciales continuas en y sea el determinante jacobiano de cero en ningún punto de . Suponga que el vector aleatorio real tiene una función de densidad de probabilidad y satisface . Entonces el vector aleatorio es de densidad de probabilidad

donde denota la función del indicador y set denota el soporte de .

Valor esperado

El valor esperado o la media de un vector aleatorio es un vector fijo cuyos elementos son los valores esperados de las respectivas variables aleatorias.

 

 

 

 

( Ecuación 2 )

Covarianza y covarianza cruzada

Definiciones

La matriz de covarianza (también llamada segundo momento central o matriz de varianza-covarianza) de un vector aleatorio es una matriz cuyo ( i, j ) ésimo elemento es la covarianza entre la i- ésima y la j- ésima variables aleatorias. La matriz de covarianza es el valor esperado, elemento por elemento, de la matriz calculada como , donde el superíndice T se refiere a la transposición del vector indicado:

 

 

 

 

( Ecuación 3 )

Por extensión, la matriz de covarianza cruzada entre dos vectores aleatorios y (que tiene elementos y que tiene elementos) es la matriz

 

 

 

 

( Ecuación 4 )

donde nuevamente la expectativa de la matriz se toma elemento por elemento en la matriz. Aquí el elemento ( i, j ) ésimo es la covarianza entre el elemento i- ésimo de y el elemento j- ésimo de .

Propiedades

La matriz de covarianza es una matriz simétrica , es decir

.

La matriz de covarianza es una matriz semidefinida positiva , es decir

.

La matriz de covarianza cruzada es simplemente la transpuesta de la matriz , es decir

.

Falta de correlación

Dos vectores aleatorios y se denominan no correlacionados si

.

No están correlacionados si y solo si su matriz de covarianza cruzada es cero.

Correlación y correlación cruzada

Definiciones

La matriz de correlación (también llamada segundo momento ) de un vector aleatorio es una matriz cuyo elemento ( i, j ) ésimo es la correlación entre la i ésima y la j ésima variables aleatorias. La matriz de correlación es el valor esperado, elemento por elemento, de la matriz calculada como , donde el superíndice T se refiere a la transposición del vector indicado:

 

 

 

 

( Ecuación 5 )

Por extensión, la matriz de correlación cruzada entre dos vectores aleatorios y (que tiene elementos y que tiene elementos) es la matriz

 

 

 

 

( Ecuación 6 )

Propiedades

La matriz de correlación está relacionada con la matriz de covarianza por

.

De manera similar para la matriz de correlación cruzada y la matriz de covarianza cruzada:

Ortogonalidad

Dos vectores aleatorios del mismo tamaño y se denominan ortogonales si

.

Independencia

Dos vectores aleatorios y se llaman independientes si para todos y

donde y denota las funciones de distribución acumulativa de y y denota su función de distribución acumulativa conjunta. Independencia de ya menudo se denota por . Escrito por componentes, y se llaman independientes si para todos

.

Función característica

La función característica de un vector aleatorio con componentes es una función que asigna cada vector a un número complejo. Está definido por

.

Otras propiedades

Expectativa de una forma cuadrática

Se puede esperar una forma cuadrática en el vector aleatorio de la siguiente manera:

donde es la matriz de covarianza de y se refiere a la traza de una matriz, es decir, a la suma de los elementos en su diagonal principal (de arriba a la izquierda a abajo a la derecha). Dado que la forma cuadrática es un escalar, también lo es su expectativa.

Prueba : Sea un vector aleatorio con y y sea ​​una matriz no estocástica.

Luego, con base en la fórmula de la covarianza, si denotamos y , vemos que:

Por eso

lo que nos deja para mostrar que

Esto es cierto sobre la base del hecho de que se pueden permutar matrices cíclicamente cuando se toma una traza sin cambiar el resultado final (por ejemplo :) .

Vemos que

Y desde

es un escalar , entonces

trivialmente. Usando la permutación obtenemos:

y al conectar esto a la fórmula original obtenemos:

Expectativa del producto de dos formas cuadráticas diferentes

Se puede esperar el producto de dos formas cuadráticas diferentes en un vector aleatorio gaussiano de media cero de la siguiente manera:

donde nuevamente es la matriz de covarianza de . Nuevamente, dado que ambas formas cuadráticas son escalares y, por lo tanto, su producto es un escalar, la expectativa de su producto también es un escalar.

Aplicaciones

Teoría de la cartera

En la teoría de carteras en finanzas , un objetivo a menudo es elegir una cartera de activos de riesgo de manera que la distribución del rendimiento de la cartera aleatoria tenga propiedades deseables. Por ejemplo, uno podría querer elegir el rendimiento de la cartera que tenga la variación más baja para un valor esperado dado. Aquí, el vector aleatorio es el vector de rendimientos aleatorios de los activos individuales, y el rendimiento de la cartera p (un escalar aleatorio) es el producto interno del vector de rendimientos aleatorios con un vector w de ponderaciones de cartera: las fracciones de la cartera colocadas en los respectivos activos. Dado que p = w T , el valor esperado del rendimiento de la cartera es w T E ( ) y se puede demostrar que la varianza del rendimiento de la cartera es w T C w , donde C es la matriz de covarianza de .

Teoría de la regresión

En regresión lineal teoría, tenemos datos de n observaciones sobre una variable dependiente y y n observaciones sobre cada uno de k variables independientes x j . Las observaciones de la variable dependiente se apilan en un vector de columna y ; las observaciones de cada variable independiente también se apilan en vectores de columna, y estos últimos vectores de columna se combinan en una matriz de diseño X (que no denota un vector aleatorio en este contexto) de observaciones de las variables independientes. Luego se postula la siguiente ecuación de regresión como descripción del proceso que generó los datos:

donde β es un vector postulado fijo pero desconocido de k coeficientes de respuesta, ye es un vector aleatorio desconocido que refleja influencias aleatorias sobre la variable dependiente. Mediante alguna técnica elegida, como los mínimos cuadrados ordinarios , se elige un vector como una estimación de β, y la estimación del vector e , denotado , se calcula como

Luego, el estadístico debe analizar las propiedades de y , que se ven como vectores aleatorios, ya que una selección aleatoriamente diferente de n casos para observar habría dado lugar a valores diferentes para ellos.

Serie de tiempo vectorial

La evolución de un vector aleatorio k × 1 a lo largo del tiempo se puede modelar como una autorregresión vectorial (VAR) de la siguiente manera:

donde la observación del vector i -períodos atrás se llama i -ésimo rezago de , c es un  vector k × 1 de constantes ( intersecciones ), A i es una matriz k  ×  k invariante en el tiempo y es un  vector aleatorio k × 1 de términos de error .

Referencias

Otras lecturas

  • Stark, Henry; Woods, John W. (2012). "Vectores aleatorios". Probabilidad, estadística y procesos aleatorios para ingenieros (Cuarta ed.). Pearson. págs. 295–339. ISBN   978-0-13-231123-6 .