Distribución de probabilidad conjunta - Joint probability distribution
Parte de una serie de estadísticas |
Teoría de probabilidad |
---|
Dadas las variables aleatorias , que se definen en un espacio de probabilidad , la distribución de probabilidad conjunta para es una distribución de probabilidad que da la probabilidad de que cada una de ellas caiga en cualquier rango particular o conjunto discreto de valores especificados para esa variable. En el caso de solo dos variables aleatorias, esto se denomina distribución bivariada , pero el concepto se generaliza a cualquier número de variables aleatorias, dando una distribución multivariante .
La distribución de probabilidad conjunta se puede expresar en términos de una función de distribución acumulativa conjunta y en términos de una función de densidad de probabilidad conjunta (en el caso de variables continuas ) o una función de masa de probabilidad conjunta (en el caso de variables discretas ). Estos, a su vez, pueden usarse para encontrar otros dos tipos de distribuciones: la distribución marginal que da las probabilidades para cualquiera de las variables sin referencia a ningún rango específico de valores para las otras variables, y la distribución de probabilidad condicional que da las probabilidades para cualquier variable. subconjunto de las variables condicionadas a valores particulares de las variables restantes.
Ejemplos de
Saca de una urna
Suponga que cada una de las dos urnas contiene el doble de bolas rojas que bolas azules, y ninguna otra, y suponga que se selecciona una bola al azar de cada urna, con los dos sorteos independientes entre sí. Sean y sean variables aleatorias discretas asociadas con los resultados del sorteo de la primera urna y la segunda urna, respectivamente. La probabilidad de sacar una bola roja de cualquiera de las urnas es 2/3 y la probabilidad de sacar una bola azul es 1/3. La distribución de probabilidad conjunta se presenta en la siguiente tabla:
A = rojo | A = azul | P (B) | |
---|---|---|---|
B = rojo | (2/3) (2/3) = 4/9 | (1/3) (2/3) = 2/9 | 4/9 + 2/9 = 2/3 |
B = azul | (2/3) (1/3) = 2/9 | (1/3) (1/3) = 1/9 | 2/9 + 1/9 = 1/3 |
PENSILVANIA) | 4/9 + 2/9 = 2/3 | 2/9 + 1/9 = 1/3 |
Cada una de las cuatro celdas internas muestra la probabilidad de una combinación particular de resultados de los dos sorteos; estas probabilidades son la distribución conjunta. En cualquier celda, la probabilidad de que ocurra una combinación particular es (dado que los sorteos son independientes) el producto de la probabilidad del resultado especificado para A y la probabilidad del resultado especificado para B. Las probabilidades en estas cuatro celdas suman 1, como siempre es cierto para las distribuciones de probabilidad.
Además, la última fila y la columna final dan la distribución de probabilidad marginal para A y la distribución de probabilidad marginal para B, respectivamente. Por ejemplo, para A, la primera de estas celdas da la suma de las probabilidades de que A sea roja, independientemente de la posibilidad de que B en la columna de arriba de la celda ocurra, como 2/3. Por lo tanto, la distribución de probabilidad marginal para da las probabilidades incondicionales de , en un margen de la tabla.
Lanzamiento de monedas
Considere el lanzamiento de dos monedas justas ; sean y sean variables aleatorias discretas asociadas con los resultados del primer y segundo lanzamiento de moneda, respectivamente. Cada lanzamiento de moneda es una prueba de Bernoulli y tiene una distribución de Bernoulli . Si una moneda muestra "cara", la variable aleatoria asociada toma el valor 1 y, en caso contrario, toma el valor 0. La probabilidad de cada uno de estos resultados es 1/2, por lo que las funciones de densidad marginal (incondicional) son
La función de masa de probabilidad conjunta de y define probabilidades para cada par de resultados. Todos los resultados posibles son
Dado que cada resultado es igualmente probable, la función de masa de probabilidad conjunta se convierte en
Dado que los lanzamientos de la moneda son independientes, la función de masa de probabilidad conjunta es el producto de los marginales:
Tirando un dado
Considere el lanzamiento de un dado normal y calcule si el número es par (es decir, 2, 4 o 6) y no. Además, sea si el número es primo (es decir, 2, 3 o 5) y si no.
1 | 2 | 3 | 4 | 5 | 6 | |
---|---|---|---|---|---|---|
A | 0 | 1 | 0 | 1 | 0 | 1 |
B | 0 | 1 | 1 | 0 | 1 | 0 |
Entonces, la distribución conjunta de y , expresada como una función de masa de probabilidad, es
Estas probabilidades necesariamente suman 1, ya que la probabilidad de que ocurra alguna combinación de y es 1.
Ejemplo de la vida real
Considere una instalación de producción que llene botellas de plástico con detergente para ropa. Se miden el peso de cada botella (Y) y el volumen de detergente que contiene (X).
Distribución de probabilidad marginal
Si se define más de una variable aleatoria en un experimento aleatorio, es importante distinguir entre la distribución de probabilidad conjunta de X e Y y la distribución de probabilidad de cada variable individualmente. La distribución de probabilidad individual de una variable aleatoria se denomina distribución de probabilidad marginal. En general, la distribución de probabilidad marginal de X se puede determinar a partir de la distribución de probabilidad conjunta de X y otras variables aleatorias.
Si la función de densidad de probabilidad conjunta de la variable aleatoria X e Y es , la función de densidad de probabilidad marginal de X e Y, que define la distribución marginal , viene dada por:
,
donde la primera integral está sobre todos los puntos en el rango de (X, Y) para los cuales X = x y la segunda integral está sobre todos los puntos en el rango de (X, Y) para los cuales Y = y.
Función de distribución acumulativa conjunta
Para un par de variables aleatorias , la función de distribución acumulada conjunta (CDF) viene dada por
|
|
( Ecuación 1 ) |
donde el lado derecho representa la probabilidad de que la variable aleatoria tome un valor menor o igual que y que tome un valor menor o igual a .
Para variables aleatorias , la CDF conjunta viene dada por
|
|
( Ecuación 2 ) |
La interpretación de las variables aleatorias como un vector aleatorio produce una notación más corta:
Función de densidad articular o función de masa
Caso discreto
La función de masa de probabilidad conjunta de dos variables aleatorias discretas es:
|
|
( Ecuación 3 ) |
o escrito en términos de distribuciones condicionales
donde es la probabilidad de dar eso .
La generalización del caso de dos variables anterior es la distribución de probabilidad conjunta de variables aleatorias discretas que es:
|
|
( Ecuación 4 ) |
o equivalente
- .
Esta identidad se conoce como la regla de la probabilidad de la cadena .
Dado que estas son probabilidades, en el caso de dos variables
que se generaliza para variables aleatorias discretas para
Caso continuo
La función de densidad de probabilidad conjunta para dos variables aleatorias continuas se define como la derivada de la función de distribución acumulada conjunta (véase la ecuación 1 ):
|
|
( Ecuación 5 ) |
Esto es igual a:
donde y son las distribuciones condicionales de dado y de dado respectivamente, y y son las distribuciones marginales para y respectivamente.
La definición se extiende naturalmente a más de dos variables aleatorias:
|
|
( Ecuación 6 ) |
Nuevamente, dado que estas son distribuciones de probabilidad, uno tiene
respectivamente
Caso mixto
La "densidad conjunta mixta" se puede definir donde una o más variables aleatorias son continuas y las otras variables aleatorias son discretas. Con una variable de cada tipo
Un ejemplo de una situación en la que se puede desear encontrar la distribución acumulativa de una variable aleatoria que es continua y otra variable aleatoria que es discreta surge cuando se desea utilizar una regresión logística para predecir la probabilidad de un resultado binario Y condicionado a la valor de un resultado distribuido continuamente . Se debe usar la densidad conjunta "mixta" al encontrar la distribución acumulativa de este resultado binario porque las variables de entrada se definieron inicialmente de tal manera que no se podría asignar colectivamente ni una función de densidad de probabilidad ni una función de masa de probabilidad. Formalmente, es la función de densidad de probabilidad de con respecto a la medida del producto en los respectivos soportes de y . Cualquiera de estas dos descomposiciones se puede utilizar para recuperar la función de distribución acumulativa conjunta:
La definición se generaliza a una mezcla de números arbitrarios de variables aleatorias discretas y continuas.
Propiedades adicionales
Distribución conjunta para variables independientes
En general, dos variables aleatorias y son independientes si y solo si la función de distribución acumulada conjunta satisface
Dos variables aleatorias discretas y son independientes si y solo si la función de masa de probabilidad conjunta satisface
para todos y .
Mientras crece el número de eventos aleatorios independientes, el valor de probabilidad conjunta relacionado disminuye rápidamente a cero, de acuerdo con una ley exponencial negativa.
De manera similar, dos variables aleatorias absolutamente continuas son independientes si y solo si
para todos y . Esto significa que adquirir cualquier información sobre el valor de una o más de las variables aleatorias conduce a una distribución condicional de cualquier otra variable que sea idéntica a su distribución incondicional (marginal); por tanto, ninguna variable proporciona información sobre ninguna otra variable.
Distribución conjunta para variables condicionalmente dependientes
Si un subconjunto de las variables es condicionalmente dependiente dado otro subconjunto de estas variables, entonces la función de masa de probabilidad de la distribución conjunta es . es igual a . Por lo tanto, se puede representar de manera eficiente mediante las distribuciones de probabilidad de menor dimensión y . Estas relaciones de independencia condicional se pueden representar con una red bayesiana o funciones de cópula .
Covarianza
Cuando se definen dos o más variables aleatorias en un espacio de probabilidad, es útil describir cómo varían juntas; es decir, es útil medir la relación entre las variables. Una medida común de la relación entre dos variables aleatorias es la covarianza. La covarianza es una medida de la relación lineal entre las variables aleatorias. Si la relación entre las variables aleatorias no es lineal, es posible que la covarianza no sea sensible a la relación, lo que significa que no relaciona la correlación entre dos variables.
La covarianza entre la variable aleatoria X e Y, denotada como cov (X, Y), es:
Correlación
Existe otra medida de la relación entre dos variables aleatorias que a menudo es más fácil de interpretar que la covarianza.
La correlación simplemente escala la covarianza por el producto de la desviación estándar de cada variable. En consecuencia, la correlación es una cantidad adimensional que se puede utilizar para comparar las relaciones lineales entre pares de variables en diferentes unidades. Si los puntos en la distribución de probabilidad conjunta de X e Y que reciben probabilidad positiva tienden a caer a lo largo de una línea de pendiente positiva (o negativa), ρ XY está cerca de +1 (o −1). Si ρ XY es igual a +1 o −1, se puede demostrar que los puntos de la distribución de probabilidad conjunta que reciben probabilidad positiva caen exactamente a lo largo de una línea recta. Se dice que dos variables aleatorias con correlación distinta de cero están correlacionadas. Similar a la covarianza, la correlación es una medida de la relación lineal entre variables aleatorias.
La correlación entre la variable aleatoria X e Y, denotada como
Distribuciones con nombre importantes
Las distribuciones conjuntas con nombre que surgen con frecuencia en las estadísticas incluyen la distribución normal multivariada , la distribución estable multivariante , la distribución multinomial , la distribución multinomial negativa , la distribución hipergeométrica multivariada y la distribución elíptica .
Ver también
- Programación bayesiana
- Árbol de Chow – Liu
- La probabilidad condicional
- Cópula (teoría de la probabilidad)
- Teorema de desintegración
- Estadística multivariante
- Interferencia estadística
- Distribución independiente por pares
Referencias
enlaces externos
- "Distribución conjunta" , Enciclopedia de Matemáticas , EMS Press , 2001 [1994]
- "Distribución multidimensional" , Encyclopedia of Mathematics , EMS Press , 2001 [1994]
- Una introducción moderna a la probabilidad y la estadística: entender por qué y cómo . Dekking, Michel, 1946-. Londres: Springer. 2005. ISBN 978-1-85233-896-1 . OCLC 262680588.
- "Función conjunta de densidad continua" . PlanetMath .
- Mathworld: función de distribución conjunta