Análisis factorial. Una explicación concentrada

análisis factorial

Cuando tenemos un conjunto de datos, puede ser muy ventajoso realizar un análisis factorial para conocer cómo las variables con que contamos están relacionadas o no.

Por una cuestión lógica, si podemos agrupar en grupos o factores las diferentes variables que tenemos, nos será a la larga más fácil su análisis y comprensión, para estar en posición de tomar decisiones a partir de los datos, que es de lo en que definitiva se trata.

Existen entre los análisis estadísticos, diversas herramientas que se emplean en esta labor, en este caso me refiero al análisis factorial, comúnmente empleado, por su capacidad para agrupar en factores las variables, y analizar su implicación en el conjunto de datos.

El análisis factorial, al que llamaré, muchas veces en este post, simplemente AF; posee diferentes pasos o fases, que intentaré explicar.

Supongamos que tenemos un set de datos, por ejemplo: una encuesta, que ha sido elaborada por profesionales, siguiendo las técnicas adecuadas o no, eso no lo sabemos.

La estructura de un Análisis factorial

Lo primero necesario, seria saber si es posible y oportuno realizar un análisis factorial.

La base de un análisis de este tipo es que existan relaciones entre las variables que permitan justifiquen su agrupación.

En caso una ausencia evidente de relación entre estas, este carece de sentido, entonces para determinar si esta correlación esta presente, se realizan varias pruebas que constituyen la primera parte del AF.

Crear la matriz de correlaciones.

Todo comienza creando la matriz de correlaciones, que es una tabla de doble entrada, que muestra el valor de r (coeficiente de correlación), en cada celda que relaciona ambas variables, con un valor de que va de 0 a 1.

Lo que intenta esta, es expresar el nivel de interdependencia entre cada variable y todas al mismo tiempo.

Existen diferentes métodos, para analizar la matriz de correlación, que se utilizan de modo combinado, para determinar la conveniencia de su uso.

El índice de Kaiser-Meyer-Olkin (KMO)

Conocido por sus siglas KMO, es una medida de adecuación muestral que se emplea para comparar las magnitudes de los coeficientes de correlación general (simple), con las magnitudes de los coeficientes de correlación parcial.

Digamos que los coeficientes de correlación parcial miden o indican la fuerza de la relación existente entre dos variables, sin tener en cuenta la influencia de otras variables.

El KMO expresa que:

Si la sumatoria de los coeficientes de correlación parcial elevados al cuadrado entre todos los pares de variables, es bajo en comparación, con la suma de los coeficientes de correlación al cuadrado, entonces el índice KMO estará próximo a 1.

Los valores aceptados para el son:

KMO > 0.6 = alta correlación y es útil un análisis factorial.

KMO entre 0.5 y 0.6 = correlación media y se acepta un análisis factorial, pero es menos útil.

KMO < 0.5 no es conveniente el AF.

Que el valor sea cercano a la unidad, se considerará positivo, porque indica que las correlaciones que existen entre los pares de variables pueden ser explicadas por el resto, o dicho de otro modo, comparten factores.

En cambio, si sus valores son bajos, no sucede así, y no resulta interesante un AF.

El test de esfericidad de Bartlett

Es una prueba estadística, cuya hipótesis nula es que las variables no están correlacionadas en la población.

Por tanto, intenta comprobar que la matriz de correlaciones es una matriz de identidad, o sea que las intercorrelaciones entre las variables son cero.

Se realiza a partir de una estimación de Chi2, transformando el determinante de la matriz de correlaciones.

Si las variables no están intercorrelacionadas, entonces el test de esfericidad debe presentar un valor (p) superior al límite de 0.05; y en ese caso se rechaza la Hipótesis Nula y se continúa con el AF

El determinante de la matriz de correlaciones.

Es un índice, que mide el tamaño de las correlaciones; por tanto, si el valor del determinante es alto, indica que hay bajas correlaciones dentro de la matriz, mientras que un valor bajo indica correlaciones altas, que justifican un AF.

Para entenderlo mejor, debemos saber que las correlaciones parciales, tienen la tarea de.  representar estimaciones entre factores de carácter único, que deben estar relacionados entre si; y mientras más relacionados estén deben tender a ser próximos a cero o lo que es lo mismo si las variables independientes de nuestro estudio, poseen factores comunes, el coeficiente de correlación parcial entre los pares de variables, debe ser bajo.

Coeficiente de correlación anti-imagen.

Este es un coeficiente de correlación parcial negativo, cuya presencia indica un elevado número de coeficientes altos.

La condición para realizar el AF,  es que se observen pocos valores elevados en términos absolutos y pocos coeficientes con valor cero.

Diagonal de la matriz de correlación anti-imagen.

El rango de sus valores va de 0 a 1, siendo más favorable en la medida que se acercan a 1.

Estos valores son conocidos como MSA por sus siglas (Measure of Sampling Adecuacy), y no son más que las medidas de adecuación que presenta cada variable. Esta medida de adecuación es el resultado de comprobar, variable por variable, si es adecuado realizar el análisis factorial.

Un valor superior a 0,5 es aceptado, para continuar con el AF.

análisis factorial
análisis factorial

Una vez realizados estos tests, teniendo claro su viabilidad podemos a ejecutar el AF.

Este se compone de los siguientes pasos:

Extracción de los Factores Iniciales

Se puede hacer por varios métodos.  El más utilizado y conocido es el llamado de “Componentes Principales”.

Lo que hace, el método de “Componentes Principales” es buscar el factor que explique la mayor cantidad de la varianza en la matriz de correlación, al que se denomina  “factor principal”.

Esta varianza explicada, será luego restada de la matriz inicial lo que da lugar a una matriz residual, de la cual se extraerá a su vez un segundo factor, y así sucesivamente hasta que quede poca o ninguna varianza sin ser explicada.

Estos factores no están relacionados entre ellos y se les denomina ortogonales (perpendiculares) por esa razón.

Si obtenemos la tabla de varianza total explicada, podremos observar el total porcentual de varianza que explican los valores obtenidos, sobre nuestro problema original.

Matriz de factores o de cargas factoriales.

Esta matriz contiene la carga de los factores, es decir, la correlación o correspondencia que existe entre cada variable y dicho factor, por lo que las cargas altas indican que dicha variable es representativa del factor correspondiente.

Un punto a aclarar es que lo adecuado o ideal, sería que cada variable apareciera reflejada en un solo factor, con un valor entre 0.5 y 1, y en el resto de los factores se acercara a 0, pero  no siempre sucede y podríamos en dependencia de la estructura de nuestros datos, tener que  considerar aceptables valores inferiores.

Rotación de los Factores Iniciales

La extracción inicial de factores puede ser rotada, para intentar facilitar su interpretación.

Esto puede hacerse por dos vías, una rotación ortogonal que mantiene la independencia entre los factores rotados (equamax, quartimax y varimax) y una rotación no ortogonal, la cual ofrece nuevos factores que si se relacionan.  

La esencia de la rotación de los factores, es reducir ambigüedades en las cargas factoriales de las variables, buscando una solución nítida de lo que estamos viendo.

Es muy común que tengamos variables ambiguas que no definen bien a que factor pertenecen pues su carga es alta (<0,5) en varios de ellos.

Al aplicar la rotación, los ejes de referencia de los factores son girados alrededor del origen, hasta que alcanzan una nueva posición, donde simplifican filas o columnas de la matriz de factores.

VARIMAX, por ejemplo, redistribuye la varianza a lo largo de todos los componentes en la matriz de carga y esto aproxima las cargas altas a 1 o -1 y las cargas bajas de la matriz no rotada a 0.

De esta forma desambigua los resultados de la matriz no rotada

Denominación a los factores encontrados

El otro paso es renombrar los factores con un nombre nuevo que nos ayude a reconocer su composición (por ejemplo, las variables que lo forman)

Puntuaciones Factoriales

Finalmente toca explicar, las puntuaciones que obtienen individualmente las variables en cada uno de los factores.

Y hasta aquí

Espero modestamente que este artículo, sirva de ayuda a alguien.

Gracias

“Todo como el diamante, antes que luz es carbon”

JMartí

Translate »