A Comparação de Estatísticas de Tamanho de Efeito

Se você está em um campo que usa Análise de Variância, você certamente já ouviu dizer que os valores de p por si só não indicam o tamanho de um efeito. Você também precisa dar algum tipo de medida de tamanho de efeito.

Por quê? Porque com um tamanho de amostra suficientemente grande, qualquer diferença nos meios, não importa o quão pequeno, pode ser estatisticamente significativo. Os valores P são desenhados para lhe dizer se o seu resultado é uma casualidade, não se é grande.

A mais simples e mais directa medida do tamanho do efeito é a diferença entre dois meios. E você provavelmente já está relatando isso. Mas a limitação desta medida como um tamanho de efeito não é imprecisa. É apenas difícil de avaliar.

Se você está familiarizado com uma área de pesquisa e as variáveis usadas nessa área, você deve saber se uma diferença de 3 pontos é grande ou pequena, embora seus leitores possam não saber. E se você estiver avaliando um novo tipo de variável, pode ser difícil dizer.

Tamanhos de efeito padronizados são projetados para facilitar a avaliação. Eles removem as unidades de medida, assim você não precisa estar familiarizado com a escala das variáveis.

Cohen’s d é um bom exemplo de uma medida de tamanho de efeito padronizado. É equivalente de muitas maneiras a um coeficiente de regressão padronizado (rotulado beta em algum software). Ambas são medidas padronizadas – elas dividem o tamanho do efeito pelos desvios padrão relevantes. Portanto, ao invés de serem em termos das unidades originais de X e Y, tanto os coeficientes d de Cohen quanto os coeficientes de regressão padronizados são em termos de desvios padrão.

Existem algumas boas propriedades de medidas padronizadas de tamanho de efeito. A principal delas é que você pode compará-las entre as variáveis. E em muitas situações, ver diferenças em termos de número de desvios padrão é muito útil.

Mas eles são mais úteis se você também puder reconhecer suas limitações. Ao contrário dos coeficientes de correlação, tanto o d de Cohen quanto o beta podem ser maiores que um. Assim, enquanto você pode compará-los entre si, você não pode simplesmente olhar para um e dizer imediatamente o que é grande ou pequeno. Você está apenas olhando para o efeito da variável independente em termos de desvios padrão.

Isso é especialmente importante para o d de Cohen, porque em seu livro original, ele especificou certos valores d como indicando pequenos, médios e grandes efeitos na pesquisa comportamental. Embora a estatística em si seja boa, deve-se tomar estas recomendações de tamanho com um grão de sal (ou talvez uma tigela muito grande de sal). O que é um efeito grande ou pequeno é altamente dependente do seu campo de estudo específico, e mesmo um efeito pequeno pode ser teoricamente significativo.

Um outro conjunto de medidas de tamanho de efeito para variáveis categóricas independentes tem uma interpretação mais intuitiva, e são mais fáceis de avaliar. Elas incluem Eta Squared, Parcial Eta Squared, e Omega Squared. Assim como a estatística R Squared, todas elas têm a interpretação intuitiva da proporção da variância contabilizada.

Eta Squared é calculada da mesma forma que R Squared, e tem a interpretação mais equivalente: da variação total em Y, a proporção que pode ser atribuída a um X.

Eta Squared específico, entretanto, é utilizada especificamente nos modelos ANOVA. Cada efeito categórico no modelo tem o seu próprio Eta Squared, pelo que se obtém uma medida específica e intuitiva do efeito dessa variável.

Eta Squared tem dois inconvenientes, no entanto. Uma é que à medida que você adiciona mais variáveis ao modelo, a proporção explicada por qualquer variável irá diminuir automaticamente. Isto torna difícil comparar o efeito de uma única variável em diferentes estudos.

Eta Squared parcial resolve este problema, mas tem uma interpretação menos intuitiva. Lá, o denominador não é a variação total em Y, mas a variação inexplicada em Y mais a variação explicada apenas por aquele X. Então qualquer variação explicada por outros Xs é removida do denominador. Isto permite a um pesquisador comparar o efeito da mesma variável em dois estudos diferentes, que contêm covariáveis diferentes ou outros fatores.

Em uma ANOVA unidirecional, Eta Squared e Eta Squared Parcial será igual, mas isto não é verdade em modelos com mais de uma variável independente.

O inconveniente para Eta Squared é que é uma medida tendenciosa de variância populacional explicada (embora seja precisa para a amostra). Ele sempre superestima.

Este viés fica muito pequeno conforme o tamanho da amostra aumenta, mas para amostras pequenas uma medida de tamanho de efeito imparcial é Omega Squared. O Omega Squared tem a mesma interpretação básica, mas usa medidas imparciais dos componentes da variância. Because it is an unbiased estimate of population variances, Omega Squared is always smaller than Eta Squared.

Other recent posts contain equations of all these effect size measures and a list of great references for further reading on effect sizes.

Bookmark and Share

Effect Size Statistics
Statistical software doesn’t always give us the effect sizes we need. Learn some of the common effect size statistics and the ways to calculate them yourself.

Deixe uma resposta

O seu endereço de email não será publicado.