Si está en un campo que utiliza el análisis de la varianza, seguramente habrá oído que los valores p por sí solos no indican el tamaño de un efecto. También es necesario dar algún tipo de medida del tamaño del efecto.
¿Por qué? Porque con un tamaño de muestra suficientemente grande, cualquier diferencia de medias, por pequeña que sea, puede ser estadísticamente significativa. Los valores P están diseñados para decirle si su resultado es una casualidad, no si es grande.
En realidad, la medida del tamaño del efecto más simple y directa es la diferencia entre dos medias. Y probablemente ya esté informando de ello. Pero la limitación de esta medida como tamaño del efecto no es la inexactitud. Simplemente es difícil de evaluar.
Si está familiarizado con un área de investigación y las variables utilizadas en esa área, debería saber si una diferencia de 3 puntos es grande o pequeña, aunque sus lectores no lo sepan. Y si está evaluando un nuevo tipo de variable, puede ser difícil saberlo.
Los tamaños de efecto estandarizados están diseñados para facilitar la evaluación. Eliminan las unidades de medida, por lo que no tiene que estar familiarizado con la escala de las variables.
La d de Cohen es un buen ejemplo de una medida de tamaño de efecto estandarizado. Es equivalente en muchos aspectos a un coeficiente de regresión estandarizado (etiquetado como beta en algunos programas informáticos). Ambas son medidas estandarizadas: dividen el tamaño del efecto por las desviaciones estándar relevantes. Así que en lugar de estar en términos de las unidades originales de X e Y, tanto la d de Cohen como los coeficientes de regresión estandarizados están en términos de desviaciones estándar.
Hay algunas propiedades buenas de las medidas de tamaño del efecto estandarizado. La principal es que se pueden comparar entre variables. Y en muchas situaciones, ver las diferencias en términos de número de desviaciones estándar es muy útil.
Pero son más útiles si también puede reconocer sus limitaciones. A diferencia de los coeficientes de correlación, tanto la d de Cohen como la beta pueden ser mayores que uno. Por lo tanto, aunque se pueden comparar entre sí, no se puede mirar uno y decir de inmediato qué es grande o pequeño. Usted sólo está mirando el efecto de la variable independiente en términos de desviaciones estándar.
Esto es especialmente importante tener en cuenta para la d de Cohen, porque en su libro original, especificó ciertos valores de d como indicación de efectos pequeños, medianos y grandes en la investigación del comportamiento. Si bien la estadística en sí es buena, debe tomar estas recomendaciones de tamaño con un grano de sal (o tal vez un tazón muy grande de sal). Lo que es un efecto grande o pequeño depende en gran medida de su campo de estudio específico, e incluso un efecto pequeño puede ser teóricamente significativo.
Otro conjunto de medidas del tamaño del efecto para variables independientes categóricas tienen una interpretación más intuitiva, y son más fáciles de evaluar. Incluyen Eta Cuadrado, Eta Cuadrado Parcial y Omega Cuadrado. Al igual que el estadístico R Cuadrado, todos tienen la interpretación intuitiva de la proporción de la varianza explicada.
Eta Cuadrado se calcula de la misma manera que R Cuadrado, y tiene la interpretación más equivalente: de la variación total en Y, la proporción que puede atribuirse a una X específica.
Eta Cuadrado, sin embargo, se utiliza específicamente en los modelos ANOVA. Cada efecto categórico en el modelo tiene su propio Eta Cuadrado, por lo que se obtiene una medida específica e intuitiva del efecto de esa variable.
Eta Cuadrado tiene dos inconvenientes, sin embargo. Uno es que, a medida que se añaden más variables al modelo, la proporción explicada por cualquier variable disminuirá automáticamente. Esto hace que sea difícil comparar el efecto de una sola variable en diferentes estudios.
El Eta Cuadrado Parcial resuelve este problema, pero tiene una interpretación menos intuitiva. En este caso, el denominador no es la variación total de Y, sino la variación no explicada de Y más la variación explicada sólo por esa X. Así, cualquier variación explicada por otras X se elimina del denominador. Esto permite a un investigador comparar el efecto de la misma variable en dos estudios diferentes, que contienen diferentes covariables u otros factores.
En un ANOVA de una vía, Eta Cuadrado y Eta Cuadrado Parcial serán iguales, pero esto no es cierto en modelos con más de una variable independiente.
El inconveniente de Eta Cuadrado es que es una medida sesgada de la varianza de la población explicada (aunque es precisa para la muestra). Siempre la sobreestima.
Este sesgo se hace muy pequeño a medida que aumenta el tamaño de la muestra, pero para muestras pequeñas una medida del tamaño del efecto no sesgada es el Omega al cuadrado. El Omega Cuadrado tiene la misma interpretación básica, pero utiliza medidas insesgadas de los componentes de la varianza. Because it is an unbiased estimate of population variances, Omega Squared is always smaller than Eta Squared.
Other recent posts contain equations of all these effect size measures and a list of great references for further reading on effect sizes.