Análisis factorial - Factor analysis

El análisis factorial es un método estadístico utilizado para describir la variabilidad entre las variables correlacionadas observadas en términos de un número potencialmente menor de variables no observadas llamadas factores . Por ejemplo, es posible que las variaciones en seis variables observadas reflejen principalmente las variaciones en dos variables no observadas (subyacentes). El análisis factorial busca tales variaciones conjuntas en respuesta a variables latentes no observadas . Las variables observadas se modelan como combinaciones lineales de los factores potenciales, más términos de " error ".

En pocas palabras, la carga factorial de una variable cuantifica el grado en que la variable está relacionada con un factor dado.

Un razonamiento común detrás de los métodos analíticos de factores es que la información obtenida sobre las interdependencias entre las variables observadas se puede utilizar más adelante para reducir el conjunto de variables en un conjunto de datos. El análisis factorial se usa comúnmente en psicometría , teorías de la personalidad , biología, marketing , gestión de productos , investigación de operaciones , finanzas y aprendizaje automático . Puede ser útil tratar con conjuntos de datos en los que hay un gran número de variables observadas que se cree que reflejan un número menor de variables subyacentes / latentes. Es una de las técnicas de interdependencia más utilizadas y se utiliza cuando el conjunto de variables relevantes muestra una interdependencia sistemática y el objetivo es descubrir los factores latentes que crean una comunidad.

Modelo estadístico

Definición

El modelo intenta explicar un conjunto de observaciones en cada uno de los individuos con un conjunto de factores comunes ( ) donde hay menos factores por unidad que observaciones por unidad ( ). Cada individuo tiene sus propios factores comunes, y estos se relacionan con las observaciones a través de la matriz de carga factorial ( ), para una sola observación, según

por lo cual

  • es el valor de la observación del th individuo,
  • es la media de observación para la ésima observación,
  • es la carga para la ésima observación del factor ésimo,
  • es el valor del factor ésimo del individuo ésimo, y
  • es el º término de error estocástico no observada con media cero y varianza finita.


En notación matricial

donde la matriz de observación , la matriz de factores , la matriz de términos de error y la matriz media donde el elemento th es simplemente .

También impondremos los siguientes supuestos sobre :

  1. y son independientes.
  2. ; donde esta la expectativa
  3. donde es la matriz de covarianza , para asegurarse de que los factores no estén correlacionados, y es la matriz de identidad .

Supongamos . Luego

y por tanto, a partir de las condiciones impuestas anteriormente,

o, entorno ,

Tenga en cuenta que para cualquier matriz ortogonal , si establecemos y , los criterios para ser factores y cargas factoriales siguen siendo válidos. Por lo tanto, un conjunto de factores y cargas factoriales es único solo hasta una transformación ortogonal .

Ejemplo

Suponga que un psicólogo tiene la hipótesis de que hay dos tipos de inteligencia , "inteligencia verbal" e "inteligencia matemática", ninguna de las cuales se observa directamente. La evidencia de la hipótesis se busca en los puntajes de los exámenes de cada uno de los 10 campos académicos diferentes de 1000 estudiantes. Si cada estudiante es elegido al azar de una gran población , entonces los 10 puntajes de cada estudiante son variables aleatorias. La hipótesis del psicólogo puede decir que para cada uno de los 10 campos académicos, la puntuación promediada sobre el grupo de todos los estudiantes que comparten un par de valores comunes para las "inteligencias" verbales y matemáticas es una constante multiplicada por su nivel de inteligencia verbal más otra constante. su nivel de inteligencia matemática, es decir, es una combinación lineal de esos dos "factores". Los números para un tema en particular, por los cuales se multiplican los dos tipos de inteligencia para obtener la puntuación esperada, se postulan por la hipótesis como iguales para todos los pares de niveles de inteligencia y se denominan "carga de factores" para este tema. Por ejemplo, la hipótesis puede sostener que la aptitud del estudiante promedio predicha en el campo de la astronomía es

{10 × la inteligencia verbal del estudiante} + {6 × la inteligencia matemática del estudiante}.

Los números 10 y 6 son los factores de carga asociados con la astronomía. Otras materias académicas pueden tener diferentes cargas de factores.

Se supone que dos estudiantes que tienen grados idénticos de inteligencia verbal y matemática pueden tener diferentes aptitudes medidas en astronomía porque las aptitudes individuales difieren de las aptitudes promedio (predichas anteriormente) y debido al error de medición en sí. Tales diferencias conforman lo que se denomina colectivamente el "error", un término estadístico que significa la cantidad en la que un individuo, medido, difiere de lo que es promedio o predicho por sus niveles de inteligencia (ver errores y residuales en estadísticas ).

Los datos observables que entran en el análisis factorial serían 10 puntajes de cada uno de los 1000 estudiantes, un total de 10,000 números. Las cargas factoriales y los niveles de los dos tipos de inteligencia de cada estudiante deben inferirse de los datos.

Modelo matemático del mismo ejemplo

A continuación, las matrices se indicarán mediante variables indexadas. Índices "sujeto" se indicarán con letras , y , con valores que va desde a que es igual a en el ejemplo anterior. Índices "factor" serán indicadas mediante letras , y , con valores que va desde a que es igual a en el ejemplo anterior. Índices "muestra" "Instancia" o serán indicadas mediante letras , y , con valores que va desde a . En el ejemplo anterior, si una muestra de estudiantes participó en los exámenes, el puntaje del estudiante para el examen viene dado por . El propósito del análisis factorial es caracterizar las correlaciones entre las variables de las cuales son una instancia particular o un conjunto de observaciones. Para que las variables estén en pie de igualdad, se normalizan en puntajes estándar :

donde la media muestral es:

y la varianza muestral viene dada por:

El modelo de análisis factorial para esta muestra en particular es entonces:

o, más sucintamente:

dónde

  • es la "inteligencia verbal" del estudiante,
  • es la "inteligencia matemática" del estudiante,
  • son las cargas factoriales para el th sujeto, para .

En notación matricial , tenemos

Observe que al duplicar la escala en la que se mide la "inteligencia verbal", el primer componente de cada columna de , y al mismo tiempo dividir a la mitad las cargas de los factores para la inteligencia verbal, no hace ninguna diferencia para el modelo. Por lo tanto, no se pierde ninguna generalidad al suponer que la desviación estándar de los factores para la inteligencia verbal es . Lo mismo ocurre con la inteligencia matemática. Además, por razones similares, no se pierde ninguna generalidad si se asume que los dos factores no están correlacionados entre sí. En otras palabras:

donde es el delta de Kronecker ( cuándo y cuándo ) Se supone que los errores son independientes de los factores:

Tenga en cuenta que, dado que cualquier rotación de una solución también es una solución, esto dificulta la interpretación de los factores. Vea las desventajas a continuación. En este ejemplo particular, si no sabemos de antemano que los dos tipos de inteligencia no están correlacionados, entonces no podemos interpretar los dos factores como los dos tipos diferentes de inteligencia. Incluso si no están correlacionados, no podemos decir qué factor corresponde a la inteligencia verbal y cuál corresponde a la inteligencia matemática sin un argumento externo.

Los valores de las cargas , los promedios y las varianzas de los "errores" deben estimarse dados los datos observados y (la suposición sobre los niveles de los factores es fija para un dado ). El "teorema fundamental" puede derivarse de las condiciones anteriores:

El término de la izquierda es el término de la matriz de correlación (una matriz derivada como el producto de la matriz de observaciones estandarizadas con su transposición) de los datos observados, y sus elementos diagonales serán s. El segundo término de la derecha será una matriz diagonal con términos menores que la unidad. El primer término de la derecha es la "matriz de correlación reducida" y será igual a la matriz de correlación excepto por sus valores diagonales que serán menores que la unidad. Estos elementos diagonales de la matriz de correlación reducida se denominan "comunalidades" (que representan la fracción de la varianza en la variable observada que se explica por los factores):

Los datos de la muestra , por supuesto, no obedecerán exactamente la ecuación fundamental dada anteriormente debido a errores de muestreo, insuficiencia del modelo, etc. El objetivo de cualquier análisis del modelo anterior es encontrar los factores y cargas que, en cierto sentido, dar un "mejor ajuste" a los datos. En el análisis factorial, el mejor ajuste se define como el mínimo del error cuadrático medio en los residuos fuera de la diagonal de la matriz de correlación:

Esto equivale a minimizar los componentes fuera de la diagonal de la covarianza del error que, en las ecuaciones del modelo, tienen valores esperados de cero. Esto debe contrastarse con el análisis de componentes principales que busca minimizar el error cuadrático medio de todos los residuos. Antes del advenimiento de las computadoras de alta velocidad, se dedicó un esfuerzo considerable a encontrar soluciones aproximadas al problema, particularmente en la estimación de las comunidades por otros medios, lo que luego simplifica considerablemente el problema al producir una matriz de correlación reducida conocida. Luego se utilizó para estimar los factores y las cargas. Con la llegada de las computadoras de alta velocidad, el problema de minimización se puede resolver de manera iterativa con la velocidad adecuada, y las comunalidades se calculan en el proceso, en lugar de ser necesarias de antemano. El algoritmo MinRes es particularmente adecuado para este problema, pero no es el único medio iterativo de encontrar una solución.

Si se permite que los factores de solución estén correlacionados (como en la rotación 'oblimin', por ejemplo), entonces el modelo matemático correspondiente usa coordenadas sesgadas en lugar de coordenadas ortogonales.

Interpretación geométrica

Interpretación geométrica de los parámetros del análisis factorial para que 3 encuestados preguntaran "a". La "respuesta" está representada por el vector unitario , que se proyecta sobre un plano definido por dos vectores ortonormales y . El vector de proyección es y el error es perpendicular al plano, de modo que . El vector de proyección se puede representar en términos de los vectores de factores como . El cuadrado de la longitud del vector de proyección es la comunalidad: . Si se graficara otro vector de datos , el coseno del ángulo entre y sería  : la entrada en la matriz de correlación. (Adaptado de Harman Fig. 4.3)

A los parámetros y variables del análisis factorial se les puede dar una interpretación geométrica. Los datos ( ), los factores ( ) y los errores ( ) pueden verse como vectores en un espacio euclidiano -dimensional (espacio muestral), representados como , y respectivamente. Dado que los datos están estandarizados, los vectores de datos son de longitud unitaria ( ). Los vectores de factores definen un subespacio lineal dimensional (es decir, un hiperplano) en este espacio, sobre el cual los vectores de datos se proyectan ortogonalmente. Esto se sigue de la ecuación del modelo.

y la independencia de los factores y los errores: . En el ejemplo anterior, el hiperplano es solo un plano bidimensional definido por los dos vectores de factores. La proyección de los vectores de datos sobre el hiperplano está dada por

y los errores son vectores desde ese punto proyectado hasta el punto de datos y son perpendiculares al hiperplano. El objetivo del análisis factorial es encontrar un hiperplano que sea el "mejor ajuste" para los datos en algún sentido, por lo que no importa cómo se elijan los vectores factoriales que definen este hiperplano, siempre que sean independientes y se encuentren en el hiperplano. Somos libres de especificarlos como ortogonales y normales ( ) sin pérdida de generalidad. Después de encontrar un conjunto adecuado de factores, también se pueden rotar arbitrariamente dentro del hiperplano, de modo que cualquier rotación de los vectores de factores definirá el mismo hiperplano y también será una solución. Como resultado, en el ejemplo anterior, en el que el hiperplano de ajuste es bidimensional, si no sabemos de antemano que los dos tipos de inteligencia no están correlacionados, entonces no podemos interpretar los dos factores como los dos tipos diferentes de inteligencia. Incluso si no están correlacionados, no podemos decir qué factor corresponde a la inteligencia verbal y cuál corresponde a la inteligencia matemática, o si los factores son combinaciones lineales de ambos, sin un argumento externo.

Los vectores de datos tienen una longitud unitaria. Las entradas de la matriz de correlación para los datos vienen dadas por . La matriz de correlación se puede interpretar geométricamente como el coseno del ángulo entre los dos vectores de datos y . Los elementos diagonales claramente serán sy los elementos fuera de la diagonal tendrán valores absolutos menores o iguales a la unidad. La "matriz de correlación reducida" se define como

.

El objetivo del análisis factorial es elegir el hiperplano de ajuste de manera que la matriz de correlación reducida reproduzca la matriz de correlación lo más cerca posible, excepto para los elementos diagonales de la matriz de correlación que se sabe que tienen un valor unitario. En otras palabras, el objetivo es reproducir con la mayor precisión posible las correlaciones cruzadas en los datos. Específicamente, para el hiperplano de ajuste, el error cuadrático medio en los componentes fuera de la diagonal

debe minimizarse, y esto se logra minimizándolo con respecto a un conjunto de vectores de factores ortonormales. Puede observarse que

El término de la derecha es solo la covarianza de los errores. En el modelo, se establece que la covarianza del error es una matriz diagonal y, por lo tanto, el problema de minimización anterior de hecho producirá un "mejor ajuste" al modelo: producirá una estimación de muestra de la covarianza del error que tiene sus componentes fuera de la diagonal minimizado en el sentido del cuadrado medio. Puede verse que, dado que son proyecciones ortogonales de los vectores de datos, su longitud será menor o igual que la longitud del vector de datos proyectado, que es la unidad. El cuadrado de estas longitudes son solo los elementos diagonales de la matriz de correlación reducida. Estos elementos diagonales de la matriz de correlación reducida se conocen como "comunalidades":

Los valores grandes de las comunidades indicarán que el hiperplano de ajuste está reproduciendo con bastante precisión la matriz de correlación. Los valores medios de los factores también deben restringirse a cero, de lo cual se deduce que los valores medios de los errores también serán cero.

Implementación práctica

Tipos de análisis factorial

Análisis factorial exploratorio

El análisis factorial exploratorio (EFA) se utiliza para identificar interrelaciones complejas entre elementos y elementos de grupo que forman parte de conceptos unificados. El investigador no hace suposiciones a priori sobre las relaciones entre factores.

Análisis factorial confirmatorio

El análisis factorial confirmatorio (AFC) es un enfoque más complejo que prueba la hipótesis de que los elementos están asociados con factores específicos. CFA utiliza el modelado de ecuaciones estructurales para probar un modelo de medición mediante el cual la carga de los factores permite evaluar las relaciones entre las variables observadas y las variables no observadas. Los enfoques de modelado de ecuaciones estructurales pueden adaptarse al error de medición y son menos restrictivos que la estimación por mínimos cuadrados . Los modelos hipotetizados se prueban contra datos reales, y el análisis demostraría cargas de variables observadas sobre las variables latentes (factores), así como la correlación entre las variables latentes.

Tipos de extracción de factores

El análisis de componentes principales (PCA) es un método ampliamente utilizado para la extracción de factores, que es la primera fase de la EFA. Los pesos de los factores se calculan para extraer la máxima varianza posible, con la factorización sucesiva continuando hasta que no quede más varianza significativa. Luego, el modelo factorial debe rotarse para su análisis.

El análisis factorial canónico, también llamado factorización canónica de Rao, es un método diferente para calcular el mismo modelo que el PCA, que utiliza el método del eje principal. El análisis factorial canónico busca factores que tengan la correlación canónica más alta con las variables observadas. El análisis factorial canónico no se ve afectado por el cambio de escala arbitrario de los datos.

El análisis de factores comunes, también llamado análisis de factores principales (PFA) o factorización del eje principal (PAF), busca la menor cantidad de factores que puedan explicar la varianza común (correlación) de un conjunto de variables.

La factorización de imágenes se basa en la matriz de correlación de las variables predichas en lugar de las variables reales, donde cada variable se predice a partir de las demás mediante regresión múltiple .

La factorización alfa se basa en maximizar la confiabilidad de los factores, asumiendo que las variables se muestrean al azar de un universo de variables. Todos los demás métodos asumen casos a muestrear y variables fijadas.

El modelo de regresión factorial es un modelo combinatorio de modelo factorial y modelo de regresión; o alternativamente, puede verse como el modelo factorial híbrido, cuyos factores se conocen parcialmente.

Terminología

Cargas factoriales: la comunalidad es el cuadrado de la carga exterior estandarizada de un artículo. De manera análoga al r -cuadrado de Pearson , la carga del factor al cuadrado es el porcentaje de varianza en esa variable indicadora explicada por el factor. Para obtener el porcentaje de varianza en todas las variables representadas por cada factor, sume la suma de las cargas de los factores al cuadrado para ese factor (columna) y divida por el número de variables. (Tenga en cuenta que el número de variables es igual a la suma de sus varianzas, ya que la varianza de una variable estandarizada es 1.) Esto es lo mismo que dividir el valor propio del factor por el número de variables.

Interpretación de las cargas factoriales: según una regla empírica en el análisis factorial confirmatorio, las cargas deben ser de .7 o más para confirmar que las variables independientes identificadas a priori están representadas por un factor en particular, sobre la base de que el nivel .7 corresponde aproximadamente a la mitad de la la varianza en el indicador se explica por el factor. Sin embargo, el estándar .7 es alto y es posible que los datos de la vida real no cumplan con este criterio, razón por la cual algunos investigadores, particularmente con fines exploratorios, utilizarán un nivel más bajo, como .4 para el factor central y .25 para el factor central. otros factores. En cualquier caso, las cargas factoriales deben interpretarse a la luz de la teoría, no mediante niveles de corte arbitrarios.

En rotación oblicua , se puede examinar tanto una matriz de patrón como una matriz de estructura. La matriz de estructura es simplemente la matriz de carga de factores como en la rotación ortogonal, que representa la varianza en una variable medida explicada por un factor sobre la base de contribuciones únicas y comunes. La matriz de patrones, por el contrario, contiene coeficientes que solo representan contribuciones únicas. Cuantos más factores, más bajos serán los coeficientes del patrón como regla, ya que se explicarán las contribuciones más comunes a la varianza. Para la rotación oblicua, el investigador observa tanto la estructura como los coeficientes del patrón al atribuir una etiqueta a un factor. Los principios de la rotación oblicua se pueden derivar tanto de la entropía cruzada como de su entropía dual.

Comunalidad: La suma de las cargas de los factores al cuadrado para todos los factores para una variable dada (fila) es la varianza en esa variable explicada por todos los factores. La comunalidad mide el porcentaje de varianza en una variable dada explicada por todos los factores de manera conjunta y puede interpretarse como la confiabilidad del indicador en el contexto de los factores que se postulan.

Soluciones espurias: si la comunalidad excede 1.0, hay una solución espuria, que puede reflejar una muestra demasiado pequeña o la opción de extraer demasiados o muy pocos factores.

Unicidad de una variable: la variabilidad de una variable menos su comunalidad.

Autovalores / raíces características: Los autovalores miden la cantidad de variación en la muestra total contabilizada por cada factor. La razón de autovalores es la razón de importancia explicativa de los factores con respecto a las variables. Si un factor tiene un valor propio bajo, entonces está contribuyendo poco a la explicación de las variaciones en las variables y puede ignorarse como menos importante que los factores con valores propios más altos.

Sumas de extracción de cargas cuadradas: los valores propios iniciales y los valores propios después de la extracción (enumerados por SPSS como "Sumas de extracción de cargas cuadradas") son los mismos para la extracción de PCA, pero para otros métodos de extracción, los valores propios después de la extracción serán más bajos que sus contrapartes iniciales. SPSS también imprime "Sumas de rotación de cargas cuadradas" e incluso para PCA, estos valores propios diferirán de los valores propios iniciales y de extracción, aunque su total será el mismo.

Puntajes de los factores (también llamados puntajes de los componentes en PCA): son los puntajes de cada caso (fila) en cada factor (columna). Para calcular el puntaje del factor para un caso dado para un factor dado, uno toma el puntaje estandarizado del caso en cada variable, lo multiplica por las cargas correspondientes de la variable para el factor dado y suma estos productos. Calcular las puntuaciones de los factores permite buscar valores atípicos de los factores. Además, las puntuaciones de los factores se pueden utilizar como variables en modelos posteriores. (Explicado desde la PCA, no desde la perspectiva del Análisis Factorial).

Criterios para determinar el número de factores

Los investigadores desean evitar criterios subjetivos o arbitrarios para la retención de factores, ya que "tenía sentido para mí". Se han desarrollado varios métodos objetivos para resolver este problema, lo que permite a los usuarios determinar una gama adecuada de soluciones para investigar. Los métodos pueden no coincidir. Por ejemplo, el análisis paralelo puede sugerir 5 factores mientras que el MAP de Velicer sugiere 6, por lo que el investigador puede solicitar soluciones de 5 y 6 factores y discutir cada uno en términos de su relación con los datos externos y la teoría.

Criterios modernos

Análisis paralelo de Horn (PA): método de simulación basado en Montecarlo que compara los valores propios observados con los obtenidos a partir de variables normales no correlacionadas. Un factor o componente se retiene si el valor propio asociado es mayor que el percentil 95 de la distribución de valores propios derivados de los datos aleatorios. La PA se encuentra entre las reglas recomendadas con más frecuencia para determinar la cantidad de componentes que se deben retener, pero muchos programas no incluyen esta opción (una excepción notable es la R ). Sin embargo, Formann proporcionó evidencia tanto teórica como empírica de que su aplicación podría no ser apropiada en muchos casos, ya que su desempeño está considerablemente influenciado por el tamaño de la muestra , la discriminación de los ítems y el tipo de coeficiente de correlación .

La prueba MAP de Velicer (1976) descrita por Courtney (2013) "implica un análisis completo de componentes principales seguido del examen de una serie de matrices de correlaciones parciales" (p. 397 (aunque tenga en cuenta que esta cita no aparece en Velicer (1976) ) y el número de la página citada está fuera de las páginas de la cita). La correlación al cuadrado para el Paso "0" (ver Figura 4) es la correlación al cuadrado promedio fuera de la diagonal para la matriz de correlación no dividida. En el Paso 1, el primer componente principal y sus elementos asociados se separan. A partir de entonces, la correlación cuadrada fuera de la diagonal promedio para la matriz de correlación subsiguiente se calcula para el Paso 1. En el Paso 2, los dos primeros componentes principales se separan y la correlación fuera de la diagonal al cuadrado promedio resultante se calcula de nuevo. Los cálculos se llevan a cabo para k menos un paso (k representa el número total de variables en la matriz). A partir de entonces, todas las correlaciones cuadráticas medias para cada paso son li ned y el número de paso en los análisis que dieron como resultado la correlación parcial cuadrática promedio más baja determina el número de componentes o factores a retener. Mediante este método, los componentes se mantienen siempre que la varianza en la matriz de correlación represente una varianza sistemática, en contraposición a la varianza residual o de error. Aunque metodológicamente similar al análisis de componentes principales, se ha demostrado que la técnica MAP funciona bastante bien para determinar el número de factores a retener en múltiples estudios de simulación. Este procedimiento se pone a disposición a través de la interfaz de usuario de SPSS, así como la psicología de paquetes para el lenguaje de programación R .

Métodos antiguos

Criterio de Kaiser: La regla de Kaiser es eliminar todos los componentes con valores propios por debajo de 1.0, siendo este valor propio igual a la información contabilizada por un solo elemento promedio. El criterio de Kaiser es el predeterminado en SPSS y en la mayoría de los programas estadísticos, pero no se recomienda cuando se utiliza como único criterio de corte para estimar el número de factores, ya que tiende a sobreextraer factores. Se ha creado una variación de este método en la que un investigador calcula los intervalos de confianza para cada valor propio y retiene solo los factores que tienen el intervalo de confianza completo superior a 1,0.

Gráfico de sedimentación : El Cattell scree parcelas de ensayo los componentes como el eje X y los correspondientes valores propios como el eje Y . A medida que uno se mueve hacia la derecha, hacia componentes posteriores, los valores propios disminuyen. Cuando cesa la caída y la curva hace un codo hacia una caída menos pronunciada, la prueba de pantalla de Cattell dice que se caigan todos los componentes adicionales después del que comienza en el codo. Esta regla a veces es criticada por ser susceptible de " falsificación " controlada por el investigador . Es decir, como escoger el "codo" puede ser subjetivo porque la curva tiene múltiples codos o es una curva suave, el investigador puede verse tentado a establecer el límite en el número de factores deseados por su agenda de investigación.

Criterios explicados por la varianza: algunos investigadores simplemente usan la regla de mantener suficientes factores para representar el 90% (a veces el 80%) de la variación. Cuando el objetivo del investigador enfatiza la parsimonia (explicando la varianza con la menor cantidad de factores posible), el criterio podría ser tan bajo como el 50%.

Método bayesiano

Un enfoque bayesiano basado en el proceso de buffet indio devuelve una distribución de probabilidad sobre el número plausible de factores latentes.

Métodos de rotación

La salida sin rotar maximiza la varianza explicada por el primer factor y los siguientes, y fuerza a los factores a ser ortogonales . Esta compresión de datos tiene el costo de que la mayoría de los elementos se carguen en los factores iniciales y, por lo general, de que muchos elementos se carguen sustancialmente en más de un factor. La rotación sirve para hacer más comprensible la salida, al buscar la llamada "Estructura simple": un patrón de cargas en el que cada elemento se carga fuertemente en solo uno de los factores y mucho más débilmente en los otros factores. Las rotaciones pueden ser ortogonales u oblicuas (permitiendo que los factores se correlacionen).

La rotación Varimax es una rotación ortogonal de los ejes de los factores para maximizar la varianza de las cargas cuadradas de un factor (columna) en todas las variables (filas) en una matriz de factores, que tiene el efecto de diferenciar las variables originales por factor extraído. Cada factor tenderá a tener cargas grandes o pequeñas de cualquier variable en particular. Una solución varimax produce resultados que facilitan al máximo la identificación de cada variable con un solo factor. Esta es la opción de rotación más común. Sin embargo, la ortogonalidad (es decir, la independencia) de los factores es a menudo una suposición poco realista. Las rotaciones oblicuas incluyen la rotación ortogonal y, por esa razón, las rotaciones oblicuas son un método preferido. Tener en cuenta los factores que están correlacionados entre sí es especialmente aplicable en la investigación psicométrica, ya que las actitudes, opiniones y habilidades intelectuales tienden a estar correlacionadas, y dado que en muchas situaciones sería poco realista asumir lo contrario.

La rotación Quartimax es una alternativa ortogonal que minimiza el número de factores necesarios para explicar cada variable. Este tipo de rotación suele generar un factor general en el que la mayoría de las variables se cargan en un grado alto o medio. Esta estructura de factores no suele ser útil para el propósito de la investigación.

La rotación Equimax es un compromiso entre los criterios varimax y quartimax.

La rotación oblimin directa es el método estándar cuando se desea una solución no ortogonal (oblicua), es decir, una en la que se permite correlacionar los factores. Esto dará como resultado valores propios más altos pero una menor interpretabilidad de los factores. Vea abajo.

La rotación de Promax es un método de rotación no ortogonal (oblicuo) alternativo que es computacionalmente más rápido que el método de oblimin directo y, por lo tanto, a veces se usa para conjuntos de datos muy grandes .

Análisis factorial de orden superior

El análisis factorial de orden superior es un método estadístico que consiste en repetir el análisis factorial de pasos - rotación oblicua - análisis factorial de factores rotados. Su mérito es permitir al investigador ver la estructura jerárquica de los fenómenos estudiados. Para interpretar los resultados, se procede a multiplicar posteriormente la matriz de patrones de factores primarios por las matrices de patrones de factores de orden superior (Gorsuch, 1983) y quizás aplicar una rotación Varimax al resultado (Thompson, 1990) o mediante el uso de un método de Schmidt. Solución de Leiman (SLS, Schmid & Leiman, 1957, también conocida como transformación de Schmid-Leiman) que atribuye la variación de los factores primarios a los de segundo orden.

En psicometria

Historia

Charles Spearman fue el primer psicólogo en discutir el análisis de factores comunes y lo hizo en su artículo de 1904. Brindaba pocos detalles sobre sus métodos y se refería a modelos de un solo factor. Descubrió las puntuaciones de que los escolares en una amplia variedad de temas aparentemente no relacionados se correlacionaron positivamente, lo que le llevó a postular que una única capacidad mental general, o g , subyace y da forma a rendimiento cognitivo humano.

Louis Thurstone dio el desarrollo inicial del análisis de factores comunes con factores múltiples en dos artículos a principios de la década de 1930, resumidos en su libro de 1935, El vector de la mente . Thurstone introdujo varios conceptos importantes de análisis de factores, incluida la comunalidad, la singularidad y la rotación. Abogó por una "estructura simple" y desarrolló métodos de rotación que podrían utilizarse como una forma de lograr dicha estructura.

En la metodología Q , Stephenson, alumno de Spearman, distingue entre análisis factorial R , orientado al estudio de las diferencias interindividuales, y análisis factorial Q orientado a diferencias intraindividuales subjetivas.

Raymond Cattell fue un firme defensor del análisis factorial y la psicometría y utilizó la teoría multifactorial de Thurstone para explicar la inteligencia. Cattell también desarrolló la prueba "scree" y los coeficientes de similitud.

Aplicaciones en psicología

El análisis factorial se utiliza para identificar "factores" que explican una variedad de resultados en diferentes pruebas. Por ejemplo, la investigación de inteligencia encontró que las personas que obtienen una puntuación alta en una prueba de habilidad verbal también son buenas en otras pruebas que requieren habilidades verbales. Los investigadores explicaron esto mediante el uso del análisis factorial para aislar un factor, a menudo llamado inteligencia verbal, que representa el grado en que alguien es capaz de resolver problemas que involucran habilidades verbales.

El análisis de factores en psicología se asocia con mayor frecuencia con la investigación de la inteligencia. Sin embargo, también se ha utilizado para encontrar factores en una amplia gama de dominios tales como la personalidad, actitudes, creencias, etc. Está vinculado a la psicometría , ya que puede evaluar la validez de un instrumento mediante la búsqueda de si el instrumento mide realmente el postulado factores.

El análisis factorial es una técnica de uso frecuente en la investigación transcultural. Sirve para extraer dimensiones culturales . Los modelos de dimensiones culturales más conocidos son los elaborados por Geert Hofstede , Ronald Inglehart , Christian Welzel , Shalom Schwartz y Michael Minkov.

Ventajas

  • Reducción del número de variables, al combinar dos o más variables en un solo factor. Por ejemplo, el rendimiento al correr, lanzar una pelota, batear, saltar y levantar pesas podría combinarse en un solo factor, como la capacidad atlética general. Por lo general, en una matriz de elementos por personas, los factores se seleccionan agrupando elementos relacionados. En la técnica de análisis del factor Q, la matriz se transpone y los factores se crean agrupando personas relacionadas. Por ejemplo, los liberales, libertarios, conservadores y socialistas pueden formar grupos separados.
  • Identificación de grupos de variables interrelacionadas, para ver cómo se relacionan entre sí. Por ejemplo, Carroll usó el análisis factorial para construir su teoría de los tres estratos . Encontró que un factor llamado "percepción visual amplia" se relaciona con lo bueno que es un individuo en las tareas visuales. También encontró un factor de "percepción auditiva amplia", relacionado con la capacidad de la tarea auditiva. Además, encontró un factor global, llamado "g" o inteligencia general, que se relaciona tanto con la "percepción visual amplia" como con la "percepción auditiva amplia". Esto significa que es probable que alguien con una "g" alta tenga una alta capacidad de "percepción visual" y una alta capacidad de "percepción auditiva", y que, por lo tanto, la "g" explica una buena parte de por qué alguien es bueno o malo en ambos aspectos. esos dominios.

Desventajas

  • "... cada orientación es igualmente aceptable matemáticamente. Pero diferentes teorías factoriales demostraron diferir tanto en términos de las orientaciones de los ejes factoriales para una solución dada como en términos de cualquier otra cosa, por lo que el ajuste del modelo no resultó ser útil en distinguir entre teorías ". (Sternberg, 1977). Esto significa que todas las rotaciones representan diferentes procesos subyacentes, pero todas las rotaciones son resultados igualmente válidos de la optimización del análisis factorial estándar. Por lo tanto, es imposible elegir la rotación adecuada utilizando solo el análisis factorial.
  • El análisis factorial solo puede ser tan bueno como lo permitan los datos. En psicología, donde los investigadores a menudo tienen que depender de medidas menos válidas y confiables, como los autoinformes, esto puede ser problemático.
  • La interpretación del análisis factorial se basa en el uso de una "heurística", que es una solución que es "conveniente aunque no sea absolutamente cierta". Se puede hacer más de una interpretación de los mismos datos factorizados de la misma manera, y el análisis factorial no puede identificar la causalidad.

Análisis factorial exploratorio (EFA) versus análisis de componentes principales (PCA)

El análisis factorial está relacionado con el análisis de componentes principales (PCA), pero los dos no son idénticos. Ha habido una gran controversia en el campo sobre las diferencias entre las dos técnicas. El PCA puede considerarse como una versión más básica del análisis factorial exploratorio (EFA) que se desarrolló en los primeros días antes de la llegada de las computadoras de alta velocidad. Tanto el PCA como el análisis factorial tienen como objetivo reducir la dimensionalidad de un conjunto de datos, pero los enfoques adoptados para hacerlo son diferentes para las dos técnicas. El análisis factorial está claramente diseñado con el objetivo de identificar ciertos factores no observables de las variables observadas, mientras que el PCA no aborda directamente este objetivo; en el mejor de los casos, PCA proporciona una aproximación a los factores requeridos. Desde el punto de vista del análisis exploratorio, los valores propios de PCA son cargas de componentes infladas, es decir, contaminados con varianza de error.

Aunque EFA y PCA se tratan como técnicas sinónimos en algunos campos de la estadística, esto ha sido criticado. El análisis factorial "se ocupa del supuesto de una estructura causal subyacente : [as] asume que la covariación en las variables observadas se debe a la presencia de una o más variables latentes (factores) que ejercen una influencia causal sobre estas variables observadas". Por el contrario, PCA ni asume ni depende de tal relación causal subyacente. Los investigadores han argumentado que las distinciones entre las dos técnicas pueden significar que existen beneficios objetivos por preferir una sobre la otra en función del objetivo analítico. Si el modelo factorial se formula incorrectamente o no se cumplen los supuestos, el análisis factorial dará resultados erróneos. El análisis factorial se ha utilizado con éxito cuando la comprensión adecuada del sistema permite buenas formulaciones de modelos iniciales. PCA emplea una transformación matemática de los datos originales sin suposiciones sobre la forma de la matriz de covarianza. El objetivo de PCA es determinar combinaciones lineales de las variables originales y seleccionar algunas que puedan usarse para resumir el conjunto de datos sin perder mucha información.

Argumentos que contrastan PCA y EFA

Fabrigar y col. (1999) abordan una serie de razones utilizadas para sugerir que el PCA no es equivalente al análisis factorial:

  1. A veces se sugiere que la PCA es computacionalmente más rápida y requiere menos recursos que el análisis factorial. Fabrigar y col. sugieren que los recursos informáticos fácilmente disponibles han hecho que esta preocupación práctica sea irrelevante.
  2. El PCA y el análisis factorial pueden producir resultados similares. Este punto también es abordado por Fabrigar et al .; en ciertos casos, en los que las comunalidades son bajas (por ejemplo, 0,4), las dos técnicas producen resultados divergentes. De hecho, Fabrigar et al. argumentan que en los casos en que los datos corresponden a supuestos del modelo de factor común, los resultados del PCA son resultados inexactos.
  3. Hay ciertos casos en los que el análisis factorial conduce a 'casos Heywood'. Estos abarcan situaciones en las que se estima que el modelo tiene en cuenta el 100% o más de la varianza en una variable medida. Fabrigar y col. sugieren que estos casos son realmente informativos para el investigador, indicando un modelo incorrectamente especificado o una violación del modelo de factor común. La falta de casos de Heywood en el enfoque de PCA puede significar que tales problemas pasen desapercibidos.
  4. Los investigadores obtienen información adicional de un enfoque de PCA, como la puntuación de un individuo en un determinado componente; dicha información no se obtiene del análisis factorial. Sin embargo, como Fabrigar et al. En mi opinión, el objetivo típico del análisis factorial, es decir, determinar los factores que dan cuenta de la estructura de las correlaciones entre las variables medidas, no requiere el conocimiento de las puntuaciones de los factores y, por lo tanto, esta ventaja se niega. También es posible calcular puntuaciones de factores a partir de un análisis de factores.

Varianza versus covarianza

El análisis factorial tiene en cuenta el error aleatorio inherente a la medición, mientras que el PCA no lo hace. Este punto es ejemplificado por Brown (2009), quien indicó que, con respecto a las matrices de correlación involucradas en los cálculos:

"En PCA, 1,00 se coloca en la diagonal, lo que significa que se debe tener en cuenta toda la varianza en la matriz (incluida la varianza única para cada variable, la varianza común entre las variables y la varianza del error). Eso, por lo tanto, por definición , incluyen toda la varianza en las variables. Por el contrario, en EFA, las comunalidades se colocan en la diagonal, lo que significa que solo se debe tener en cuenta la varianza compartida con otras variables (excluyendo la varianza única de cada variable y la varianza del error). por lo tanto, por definición, incluiría sólo la varianza que sea común entre las variables ".

-  Brown (2009), Análisis de componentes principales y análisis factorial exploratorio - Definiciones, diferencias y opciones

Por esta razón, Brown (2009) recomienda utilizar el análisis factorial cuando existen ideas teóricas sobre las relaciones entre variables, mientras que el PCA debería utilizarse si el objetivo del investigador es explorar patrones en sus datos.

Diferencias en procedimiento y resultados.

Las diferencias entre el PCA y el análisis factorial (FA) se ilustran con más detalle en Suhr (2009):

  • El PCA da como resultado componentes principales que representan una cantidad máxima de varianza para las variables observadas; FA da cuenta de la variación común en los datos.
  • PCA inserta unos en las diagonales de la matriz de correlación; FA ajusta las diagonales de la matriz de correlación con los factores únicos.
  • PCA minimiza la suma de la distancia perpendicular al cuadrado al eje del componente; FA estima los factores que influyen en las respuestas sobre las variables observadas.
  • Los puntajes de los componentes en PCA representan una combinación lineal de las variables observadas ponderadas por autovectores ; las variables observadas en FA son combinaciones lineales de los factores subyacentes y únicos.
  • En PCA, los componentes producidos no son interpretables, es decir, no representan 'constructos' subyacentes; en FA, las construcciones subyacentes se pueden etiquetar e interpretar fácilmente, dada una especificación precisa del modelo.


En marketing

Los pasos básicos son:

  • Identifique los atributos destacados que utilizan los consumidores para evaluar los productos de esta categoría.
  • Utilice técnicas cuantitativas de investigación de mercados (como encuestas ) para recopilar datos de una muestra de clientes potenciales sobre sus calificaciones de todos los atributos del producto.
  • Ingrese los datos en un programa estadístico y ejecute el procedimiento de análisis factorial. La computadora producirá un conjunto de atributos (o factores) subyacentes.
  • Utilice estos factores para construir mapas de percepción y otros dispositivos de posicionamiento de productos .

Recopilación de información

La etapa de recopilación de datos generalmente la realizan profesionales de la investigación de mercados. Las preguntas de la encuesta le piden al encuestado que califique una muestra de producto o descripciones de conceptos de producto en una variedad de atributos. Se eligen entre cinco y veinte atributos. Podrían incluir cosas como: facilidad de uso, peso, precisión, durabilidad, colorido, precio o tamaño. Los atributos elegidos variarán en función del producto en estudio. Se hace la misma pregunta sobre todos los productos del estudio. Los datos de varios productos se codifican y se ingresan en un programa estadístico como R , SPSS , SAS , Stata , STATISTICA , JMP y SYSTAT.

Análisis

El análisis aislará los factores subyacentes que explican los datos utilizando una matriz de asociaciones. El análisis factorial es una técnica de interdependencia. Se examina el conjunto completo de relaciones interdependientes. No hay especificación de variables dependientes, variables independientes o causalidad. El análisis factorial supone que todos los datos de calificación de diferentes atributos se pueden reducir a unas pocas dimensiones importantes. Esta reducción es posible porque algunos atributos pueden estar relacionados entre sí. La calificación otorgada a cualquier atributo es en parte el resultado de la influencia de otros atributos. El algoritmo estadístico deconstruye la calificación (denominada puntuación bruta) en sus diversos componentes y reconstruye las puntuaciones parciales en puntuaciones de factores subyacentes. El grado de correlación entre la puntuación bruta inicial y la puntuación final del factor se denomina carga factorial .

Ventajas

  • Se pueden utilizar atributos tanto objetivos como subjetivos siempre que los atributos subjetivos se puedan convertir en puntuaciones.
  • El análisis factorial puede identificar dimensiones latentes o constructos que el análisis directo puede que no.
  • Es fácil y económico.

Desventajas

  • La utilidad depende de la capacidad de los investigadores para recopilar un conjunto suficiente de atributos del producto. Si se excluyen o descuidan atributos importantes, se reduce el valor del procedimiento.
  • Si los conjuntos de variables observadas son muy similares entre sí y distintos de otros elementos, el análisis factorial les asignará un solo factor. Esto puede ocultar factores que representan relaciones más interesantes.
  • Los factores de denominación pueden requerir conocimiento de la teoría porque los atributos aparentemente diferentes pueden correlacionarse fuertemente por razones desconocidas.

En ciencias físicas y biológicas

El análisis factorial también se ha utilizado ampliamente en ciencias físicas como geoquímica , hidroquímica , astrofísica y cosmología , así como en ciencias biológicas, como ecología , biología molecular , neurociencia y bioquímica .

En la gestión de la calidad del agua subterránea, es importante relacionar la distribución espacial de diferentes parámetros químicos con diferentes fuentes posibles, que tienen diferentes firmas químicas. Por ejemplo, es probable que una mina de sulfuro esté asociada con altos niveles de acidez, sulfatos disueltos y metales de transición. Estas firmas se pueden identificar como factores a través del análisis factorial en modo R, y se puede sugerir la ubicación de las posibles fuentes mediante el contorno de las puntuaciones de los factores.

En geoquímica , diferentes factores pueden corresponder a diferentes asociaciones minerales y, por lo tanto, a la mineralización.

En análisis de microarrays

El análisis factorial se puede utilizar para resumir datos de microarreglos de ADN de oligonucleótidos de alta densidad a nivel de sonda para Affymetrix GeneChips. En este caso, la variable latente corresponde a la concentración de ARN en una muestra.

Implementación

El análisis factorial se ha implementado en varios programas de análisis estadístico desde la década de 1980:

Ver también

Referencias

Otras lecturas

enlaces externos