Momento (matemáticas) - Moment (mathematics)

En matemáticas , los momentos de una función son medidas cuantitativas relacionadas con la forma del gráfico de la función . Si la función representa la masa, entonces el primer momento es el centro de la masa y el segundo momento es la inercia rotacional . Si la función es una distribución de probabilidad , entonces el primer momento es el valor esperado , el segundo momento central es la varianza , el tercer momento estandarizado es la asimetría y el cuarto momento estandarizado es la curtosis . El concepto matemático está estrechamente relacionado con el concepto de momento en física.

Para una distribución de masa o probabilidad en un intervalo acotado , la colección de todos los momentos (de todos los órdenes, de 0 a ) determina de forma única la distribución ( problema de momentos de Hausdorff ). No ocurre lo mismo en intervalos ilimitados ( problema del momento de hamburguesa ).

A mediados del siglo XIX, Pafnuty Chebyshev se convirtió en la primera persona en pensar sistemáticamente en términos de los momentos de las variables aleatorias .

Importancia de los momentos

El n -ésimo momento bruto (es decir, momento alrededor de cero) de una distribución se define por

dónde

El n momento -ésimo de un verdadero -valued función continua f ( x ) de una variable real acerca de un valor c es la integral

Es posible definir momentos para variables aleatorias de una manera más general que momentos para funciones con valores reales; vea momentos en espacios métricos . El momento de una función, sin mayor explicación, generalmente se refiere a la expresión anterior con c = 0.

Para el segundo momento y momentos superiores, el momento central (momentos alrededor de la media, siendo c la media) generalmente se usa en lugar de los momentos alrededor de cero, porque proporcionan información más clara sobre la forma de la distribución.

También se pueden definir otros momentos. Por ejemplo, el n- ésimo momento inverso con respecto a cero es y el n -ésimo momento logarítmico con respecto a cero es

El n -ésimo momento alrededor de cero de una función de densidad de probabilidad f ( x ) es el valor esperado de X  n y se denomina momento bruto o momento bruto . Los momentos alrededor de su media μ se denominan momentos centrales ; estos describen la forma de la función, independientemente de la traducción .

Si f es una función de densidad de probabilidad , entonces el valor de la integral anterior se llama n -ésimo momento de la distribución de probabilidad . De manera más general, si F es una función de distribución de probabilidad acumulada de cualquier distribución de probabilidad, que puede no tener una función de densidad, entonces el n -ésimo momento de la distribución de probabilidad viene dado por la integral de Riemann-Stieltjes

donde X es una variable aleatoria que tiene esta distribución acumulativa F , y E es el operador de expectativa o la media.

Cuando

se dice que el momento no existe. Si existe el n -ésimo momento con respecto a cualquier punto, también existe el ( n - 1) -ésimo momento (y, por tanto, todos los momentos de orden inferior) con respecto a cada punto.

El momento cero de cualquier función de densidad de probabilidad es 1, ya que el área bajo cualquier función de densidad de probabilidad debe ser igual a uno.

Importancia de los momentos (brutos, centrales, normalizados) y acumulativos (brutos, normalizados), en relación con las propiedades nombradas de las distribuciones
Momento
ordinal
Momento Acumulante
Crudo Central Estandarizado Crudo Normalizado
1 Significar 0 0 Significar N / A
2 - Diferencia 1 Diferencia 1
3 - - Oblicuidad - Oblicuidad
4 - - (Non-exceso o histórico) kurtosis - Exceso de curtosis
5 - - Hyperskewness - -
6 - - Hipertensión - -
7+ - - - - -

Significar

El primer momento crudo es la media , generalmente denotada

Diferencia

El segundo momento central es la varianza . La raíz cuadrada positiva de la varianza es la desviación estándar

Momentos estandarizados

El normalizado n momento ésimo momento central o estandarizado es el n -ésimo momento central dividida por σ n ; el n -ésimo momento central normalizado de la variable aleatoria X es

Estos momentos centrales normalizados son cantidades adimensionales , que representan la distribución independientemente de cualquier cambio lineal de escala.

Para una señal eléctrica, el primer momento es su nivel de CC y el segundo momento es proporcional a su potencia promedio.

Oblicuidad

El tercer momento central es la medida del desequilibrio de la distribución; cualquier distribución simétrica tendrá un tercer momento central, si se define, de cero. El tercer momento central normalizado se llama asimetría , a menudo γ . Una distribución que está sesgada hacia la izquierda (la cola de la distribución es más larga a la izquierda) tendrá una asimetría negativa. Una distribución que está sesgada hacia la derecha (la cola de la distribución es más larga a la derecha) tendrá una asimetría positiva.

Para distribuciones que no son muy diferentes de la distribución normal , la mediana estará cerca de μ - γσ / 6 ; el modo sobre μ - γσ / 2 .

Curtosis

El cuarto momento central es una medida de la pesadez de la cola de la distribución, en comparación con la distribución normal de la misma varianza. Dado que es la expectativa de una cuarta potencia, el cuarto momento central, cuando se define, es siempre no negativo; y excepto por una distribución de puntos , siempre es estrictamente positivo. El cuarto momento central de una distribución normal es 3 σ 4 .

La curtosis κ se define como el cuarto momento central estandarizado (de manera equivalente, como en la siguiente sección, el exceso de curtosis es el cuarto acumulativo dividido por el cuadrado del segundo acumulativo ). Si una distribución tiene colas pesadas, la curtosis será alta ( a veces llamado leptocurtico); a la inversa, las distribuciones de cola clara (por ejemplo, distribuciones limitadas como el uniforme) tienen una baja curtosis (a veces llamada platicúrtica).

La curtosis puede ser positiva sin límite, pero κ debe ser mayor o igual que γ 2 + 1 ; la igualdad solo es válida para distribuciones binarias . Para distribuciones de sesgo ilimitadas no muy alejadas de lo normal, κ tiende a estar en algún lugar en el área de γ 2 y 2 γ 2 .

La desigualdad se puede probar considerando

donde T = ( X - μ ) / σ . Esta es la expectativa de un cuadrado, por lo que no es negativo para todo a ; sin embargo, también es un polinomio cuadrático en a . Su discriminante debe ser no positivo, lo que da la relación requerida.

Momentos mixtos

Los momentos mixtos son momentos que involucran múltiples variables.

Algunos ejemplos son la covarianza , la asimetría y la cokurtosis . Si bien existe una covarianza única, existen múltiples co-asimetrías y co-curtosis.

Momentos superiores

Los momentos de alto orden son momentos más allá de los momentos de cuarto orden. Al igual que con la varianza, la asimetría y la curtosis, se trata de estadísticas de orden superior que implican combinaciones no lineales de los datos y se pueden utilizar para la descripción o estimación de otros parámetros de forma . Cuanto mayor es el momento, más difícil es estimar, en el sentido de que se requieren muestras más grandes para obtener estimaciones de calidad similar. Esto se debe al exceso de grados de libertad consumidos por los órdenes superiores. Además, pueden ser sutiles de interpretar, y a menudo se entienden más fácilmente en términos de momentos de orden inferior; compare las derivadas más altas de sacudidas y brincos en física . Por ejemplo, así como el momento de cuarto orden (curtosis) se puede interpretar como "importancia relativa de las colas frente a los hombros para causar dispersión" (para una dispersión dada, la curtosis alta corresponde a colas pesadas, mientras que la curtosis baja corresponde a hombros anchos), el momento de quinto orden se puede interpretar como una medición de la "importancia relativa de las colas en comparación con el centro (modo, hombros) para causar un sesgo" (para un sesgo dado, el quinto momento alto corresponde a una cola pesada y poco movimiento de modo, mientras que el quinto momento bajo corresponde a más cambio de hombros).

Propiedades de los momentos

Transformación de centro

Ya que

donde es el coeficiente binomial , se deduce que los momentos alrededor de b se pueden calcular a partir de los momentos alrededor de a mediante:

El momento de una convolución de funciones.

El momento de una convolución se lee

donde denota el momento de la función dada entre paréntesis. Esta identidad sigue el teorema de convolución para la función generadora de momentos y la aplicación de la regla de la cadena para diferenciar un producto.

Acumulantes

El primer momento crudo y el segundo y tercer momento central no normalizado son aditivos en el sentido de que si X e Y son variables aleatorias independientes , entonces

(Estos también pueden ser válidos para variables que satisfacen condiciones más débiles que la independencia. La primera siempre se cumple; si se cumple la segunda, las variables se denominan no correlacionadas ).

De hecho, estos son los tres primeros acumulados y todos los acumulados comparten esta propiedad de aditividad.

Momentos de muestra

Para todo k , el k -ésimo momento bruto de una población se puede estimar utilizando el k -ésimo momento muestral bruto

aplicado a una muestra X 1 ,…, X n extraída de la población.

Se puede demostrar que el valor esperado del momento muestral bruto es igual al k -ésimo momento bruto de la población, si ese momento existe, para cualquier tamaño muestral n . Por tanto, es un estimador insesgado. Esto contrasta con la situación de los momentos centrales, cuyo cálculo consume un grado de libertad utilizando la media muestral. Entonces, por ejemplo, una estimación insesgada de la varianza de la población (el segundo momento central) viene dada por

en el que el denominador anterior n ha sido reemplazado por los grados de libertad n - 1 , y en el que se refiere a la media muestral. Esta estimación del momento poblacional es mayor que el momento muestral observado no ajustado en un factor de y se denomina "varianza muestral ajustada" o, a veces, simplemente "varianza muestral".

Problema de momentos

El problema de los momentos busca caracterizaciones de sucesiones { μn  : n = 1, 2, 3, ...} que son sucesiones de momentos de alguna función f .

Momentos parciales

Los momentos parciales a veces se denominan "momentos unilaterales". Los momentos parciales inferior y superior de orden n con respecto a un punto de referencia r pueden expresarse como

Los momentos parciales se normalizan al elevarse a la potencia 1 / n . La relación de potencial alcista puede expresarse como una relación entre un momento parcial superior de primer orden y un momento parcial inferior normalizado de segundo orden. Se han utilizado en la definición de algunas métricas financieras, como el ratio de Sortino , ya que se centran únicamente en el alza o la baja.

Momentos centrales en espacios métricos

Deje que ( M , d ) sea un espacio métrico , y sea B ( M ) sea el Borel σ -álgebra de M , la σ -álgebra generada por el d - subconjuntos abiertos de M . (Por razones técnicas, también es conveniente asumir que M es un espacio separable con respecto a la métrica d ). Sea 1 ≤ p ≤ ∞ .

El p- ésimo momento central de una medida μ en el espacio medible ( M , B ( M )) alrededor de un punto dado x 0M se define como

μ se dice que tiene finita p -ésimo momento central si el p -ésimo momento central de μ sobre x 0 es finito para algunos x 0M .

Esta terminología para medidas se traslada a las variables aleatorias de la manera habitual: si (Ω, Σ, P ) es un espacio de probabilidad y X  : Ω → M es una variable aleatoria, entonces el p -ésimo momento central de X alrededor de x 0M se define como

y X tiene finito p -ésimo momento central si el p -ésimo momento central de X sobre x 0 es finito para algunos x 0M .

Ver también

Referencias

Otras lecturas

enlaces externos