Análisis de la Varianza (ANOVA) con R

Francisco García García (2014-12-01)


0. Introducción

1. Organización de los datos

2. ANOVA y pruebas post-hoc

3. Validación del modelo ANOVA

4. Kruskal-Wallis y pruebas post-hoc

5. Bibliografía y enlaces de interés





0. Introducción

Los procedimientos t de dos muestras permiten comparar las medias de dos poblaciones o las respuestas medias a dos tratamientos de un experimento. Sin embargo, en ocasiones necesitamos comparar más de 2 grupos. El modelo del Análisis de la Varianza (ANOVA), nos permitirá abordar este tipo de situaciones. Lo vemos con un ejemplo:

Estamos interesados en conocer si hay colores más atractivos para los insectos. Para ello se diseñaron trampas con los siguientes colores: amarillo, azul, blanco y verde. Se cuantificó el número de insectos que quedaban atrapados:

Azul: 16 11 20 21 14 7

Verde: 37 32 15 25 39 41

Blanco: 21 12 14 17 13 17

Amarillo: 45 59 48 46 38 47


1. Organización de los datos

Generamos dos variables: insectos es la variable respuesta y colores es la variable factor (establece los grupos de interés):

insectos <- c(16,11,20,21,14,7,37,32,15,25,39,41,21,12,14,17,13,17,45,59,48,46,38,47)
colores <- as.factor(c(rep(c("azul", "verde", "blanco", "amarillo"), each =6)))

Exploramos los datos de la muestra:

boxplot(insectos ~ colores, col = c("yellow", "blue", "white","green"), ylab = "Número de insectos atrapados")

plot of chunk unnamed-chunk-2

tapply(insectos, colores, mean)
#> amarillo     azul   blanco    verde 
#> 47.16667 14.83333 15.66667 31.50000


2. ANOVA y pruebas post-hoc

Esta es la forma de pedir un ANOVA en R:

fm = aov( lm(insectos ~ colores) )

Pedimos un resumen de la tabla del ANOVA

summary(fm)
#>             Df Sum Sq Mean Sq F value   Pr(>F)    
#> colores      3   4218    1406   30.55 1.15e-07 ***
#> Residuals   20    921      46                     
#> ---
#> Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Elementos generados en el ANOVA:

names(fm)
#>  [1] "coefficients"  "residuals"     "effects"       "rank"         
#>  [5] "fitted.values" "assign"        "qr"            "df.residual"  
#>  [9] "contrasts"     "xlevels"       "call"          "terms"        
#> [13] "model"

Identifica en la tabla ANOVA los grados de libertad del factor, los grados de libertad residuales, la suma de cuadrados de los grupos, la suma de cuadrados del error, las medias correspondientes de las sumas de cuadrados de los grupos y del error, el valor del estadístico F. Describe cómo obtenemos cada uno de ellos.

¿Cuál es el valor crítico de F bajo la hipótesis nula con un nivel de significación alfa = 0.05? (Este valor nos delimitará la región de aceptación y rechazo)

Bajo la Ho el estadístico de contraste F se distribuye como una F de grados de libertad (I-1), (n-I) donde I es el número de grupos que disponemos y n el tamaño total de la muestral. Así obtenemos el cuantil buscado:

qf(0.05, 3-1, 18-3, lower.tail = F)
#> [1] 3.68232

Valores del estadístico > 3.68232 estarán incluidos en la región de rechazo. En nuetro caso 30.55 es mucho mayor que el valor crítico obtenido.

¿Qué valor de la tabla ANOVA nos proporciona la varianza muestral común (pooled variance en inglés)? ¿Para qué es útil?

La raíz cuadrada de la media de los cuadrados del error, además de proporcionarnos una estimación de la varianza muestral de todos los datos, se utiliza en la obtención de los intervalos de confianza de las medias en cada uno de los grupos de interés.

Por ejemplo, este sería el intervalo de confianza de la media de los insectos capturados para las trampas amarillas, con un nivel de confianza del 95%:

media <- mean(insectos[colores =="amarillo"]) 
valor_t <- pt(0.05/2, 18 - 3) 
sp <- sqrt(46)  #desviación típica de la varianza muestral común
ee  <- valor_t * (sp/ sqrt(6))  #error de estimación 
media
#> [1] 47.16667

límite superior del intervalo de confianza de la media de insectos capturados para las trampas amarillas

media + ee 
#> [1] 48.57826

límite inferior del intervalo de confianza de la media de insectos capturados para las trampas amarillas

media - ee 
#> [1] 45.75507

Si hemos detectado diferencias significativas entre las medias de las poblaciones. ¿Sería posible saber cuáles son los grupos que generan estas diferencias?

intervals = TukeyHSD(fm)
intervals
#>   Tukey multiple comparisons of means
#>     95% family-wise confidence level
#> 
#> Fit: aov(formula = lm(insectos ~ colores))
#> 
#> $colores
#>                        diff        lwr       upr     p adj
#> azul-amarillo   -32.3333333 -43.296330 -21.37034 0.0000004
#> blanco-amarillo -31.5000000 -42.462996 -20.53700 0.0000006
#> verde-amarillo  -15.6666667 -26.629663  -4.70367 0.0036170
#> blanco-azul       0.8333333 -10.129663  11.79633 0.9964823
#> verde-azul       16.6666667   5.703670  27.62966 0.0020222
#> verde-blanco     15.8333333   4.870337  26.79633 0.0032835
plot(intervals)

plot of chunk unnamed-chunk-10

Explica las diferencias existentes por parejas de trampas según el color. ¿Algunas de estas diferencias son significativas? Si el objetivo es atrapar un mayor número de insectos, ¿con qué tipo de trampas te quedarías?


3. Validación del modelo ANOVA

A partir de los residuos del modelo comprobaremos si el modelo ANOVA es adecuado. Los supuestos que se deben cumplir son tres: independencia, homocedasticidad y normalidad.

3.1. Independencia

plot(fm$residuals)

plot of chunk unnamed-chunk-11

3.2.normalidad

Los gráficos y descriptivos nos informan si se verifica la igualdad de varianzas en los grupos descritos:

summary(fm$residuals)
#>     Min.  1st Qu.   Median     Mean  3rd Qu.     Max. 
#> -16.5000  -2.9170   0.1667   0.0000   5.2080  11.8300
boxplot(fm$residuals)

plot of chunk unnamed-chunk-12

hist(fm$residuals)

plot of chunk unnamed-chunk-12

qqnorm(fm$residuals) 
qqline(fm$residuals)

plot of chunk unnamed-chunk-12

El test de Shapiro-Wilk indica que no tenemos evidencia suficiente para rechazar la hipótesis nula (normalidad de los residuos)

shapiro.test(fm$residuals)
#> 
#>  Shapiro-Wilk normality test
#> 
#> data:  fm$residuals
#> W = 0.9734, p-value = 0.75

3.3.homocedasticidad

Los gráficos y descriptivos nos informan si se verifica la igualdad de varianzas en los grupos descritos:

boxplot(fm$residuals~colores, col = c("yellow", "blue", "white","green"))  

plot of chunk unnamed-chunk-14

desviaciones <- tapply(fm$residuals, colores, sd)

Comparando la desviación máxima con la mínima obtenemos una orientación sobre la falta de homocedasticidad (>2 aproximadamente)

max(desviaciones) / min(desviaciones)    
#> [1] 2.980357

El test de Bartlett indica que no tenemos evidencia suficiente para rechazar la hipótesis nula (las varianzas son iguales)

bartlett.test(fm$residuals ~ colores)
#> 
#>  Bartlett test of homogeneity of variances
#> 
#> data:  fm$residuals by colores
#> Bartlett's K-squared = 5.2628, df = 3, p-value = 0.1535


4. Kruskal-Wallis y pruebas post-hoc

¿Qué hipótesis contrasta el test ANOVA?

Ho: las medias son iguales en todas las poblaciones

Ha: hay alguna media distinta

¿Qué hipótesis contrasta la prueba de Kruskal-Wallis?

Ho: la variable respuesta es la misma en todas las poblaciones valoradas

Ha: la variable respuesta es mayor en alguna de las poblaciones

Cuando no se cumplen las hipótesis exigidas por el modelo ANOVA, es posible utilizar la prueba no paramétrica Kruskal-Wallis: ¿hay diferencias significativas entre las poblaciones?

kruskal.test(insectos, colores)
#> 
#>  Kruskal-Wallis rank sum test
#> 
#> data:  insectos and colores
#> Kruskal-Wallis chi-squared = 16.9755, df = 3, p-value = 0.000715

Indica cuál es el estadístico de contraste, los grados de libertad, el p-valor correspondiente y cuál sería el valor crítico que definiría las regiones de aceptación y rechazo con un nivel de significación alfa = 0.05.

Bajo la Ho el estadístico de contraste H del test de Kruskal-Wallis se distribuye como una Chi-cuadrado de grados de libertad (I-1) (donde I es el número de grupos que disponemos). Así obtenemos el cuantil buscado:

qchisq(0.05, 3-1, lower.tail = F)
#> [1] 5.991465

Valores del estadístico > 5.991465 estarán incluidos en la región de rechazo. En nuetro caso 16.9755 es mucho mayor que el valor crítico obtenido.

Si transformáramos los datos de la variable respuesta, utilizando logaritmos y después aplicáramos el test de KrusKal-Wallis al logaritmo del número de insectos atrapados, ¿variarían los resultados del test estadístico?

kruskal.test(log(insectos), colores) 
#> 
#>  Kruskal-Wallis rank sum test
#> 
#> data:  log(insectos) and colores
#> Kruskal-Wallis chi-squared = 16.9755, df = 3, p-value = 0.000715

Los resultados son exactamente los mismos. No se producen variaciones porque el test de Kruskal-Wallis trabaja sobre rangos, es decir, sobre ordenaciones de los valores de la variable en cada uno de los grupos. Aunque realicemos una transformación logarítmica, el orden entre los valores de la variable se mantiene y por lo tanto la transformación no afecta a los resultados del test.

Si hemos detectado diferencias significativas en la variable respuesta para las distintas poblaciones. ¿Sería posible saber cuáles son los grupos que generan estas diferencias?

library(PMCMR)
posthoc.kruskal.nemenyi.test(insectos, colores, method = "Chisq")
#> Warning in posthoc.kruskal.nemenyi.test(insectos, colores, method =
#> "Chisq"): Ties are present. Chi-sq was corrected for ties.
#> 
#>  Pairwise comparisons using Nemenyi-test with Chi-squared    
#>                        approximation for independent samples 
#> 
#> data:  insectos and colores 
#> 
#>        amarillo azul   blanco
#> azul   0.0056   -      -     
#> blanco 0.0095   0.9989 -     
#> verde  0.4930   0.2618 0.3379
#> 
#> P value adjustment method: none
#otra opción:
#library(pgirmess)
#kruskalmc(insectos, colores)



5. Bibliografía y enlaces de interés: