Dacă lucrați într-un domeniu care utilizează analiza varianței, ați auzit cu siguranță că valorile p nu indică singure mărimea unui efect. Trebuie, de asemenea, să dați un fel de măsură a mărimii efectului.
De ce? Pentru că, cu o dimensiune suficient de mare a eșantionului, orice diferență între medii, indiferent cât de mică, poate fi semnificativă din punct de vedere statistic. Valorile P sunt concepute pentru a vă spune dacă rezultatul dumneavoastră este o întâmplare, nu dacă este mare.
Într-adevăr, cea mai simplă și mai directă măsură a mărimii efectului este diferența dintre două medii. Și probabil că deja raportați acest lucru. Dar limitarea acestei măsuri ca mărime a efectului nu este inexactitatea. Este pur și simplu greu de evaluat.
Dacă sunteți familiarizat cu un domeniu de cercetare și cu variabilele utilizate în acel domeniu, ar trebui să știți dacă o diferență de 3 puncte este mare sau mică, deși cititorii dvs. s-ar putea să nu știe. Și dacă evaluați un nou tip de variabilă, poate fi greu de spus.
Dimensiunile standardizate ale efectului sunt concepute pentru o evaluare mai ușoară. Ele elimină unitățile de măsură, astfel încât nu trebuie să fiți familiarizat cu scalarea variabilelor.
D-ul lui Cohen este un bun exemplu de măsurare standardizată a mărimii efectului. Este echivalent în multe feluri cu un coeficient de regresie standardizat (etichetat beta în unele programe informatice). Ambele sunt măsuri standardizate – ele împart mărimea efectului cu abaterile standard relevante. Astfel, în loc să fie în termenii unităților originale ale lui X și Y, atât d-ul lui Cohen, cât și coeficienții de regresie standardizați sunt în termeni de deviații standard.
Există câteva proprietăți frumoase ale măsurilor standardizate ale mărimii efectului. Cea dintâi este că le puteți compara între variabile. Și, în multe situații, a vedea diferențele în termeni de număr de abateri standard este foarte util.
Dar sunt mai utile dacă le puteți recunoaște și limitările. Spre deosebire de coeficienții de corelație, atât d-ul lui Cohen, cât și beta pot fi mai mari decât unu. Astfel, deși le puteți compara între ele, nu vă puteți uita la unul dintre ele și spune imediat ce este mare sau mic. Vă uitați doar la efectul variabilei independente în termeni de deviații standard.
Acest lucru este deosebit de important de remarcat pentru d lui Cohen, deoarece în cartea sa originală, el a specificat anumite valori d ca indicând efecte mici, medii și mari în cercetarea comportamentală. Deși statistica în sine este una bună, ar trebui să luați aceste recomandări de mărime cu un grăunte de sare (sau poate un castron foarte mare de sare). Ceea ce este un efect mare sau mic depinde foarte mult de domeniul dvs. specific de studiu, și chiar și un efect mic poate fi semnificativ din punct de vedere teoretic.
Un alt set de măsuri ale mărimii efectului pentru variabilele independente categorice au o interpretare mai intuitivă și sunt mai ușor de evaluat. Acestea includ Eta pătrat, Eta pătrat parțial și Omega pătrat. Ca și statistica R pătrat, toate au interpretarea intuitivă a proporției de varianță reprezentată.
Eta pătrat se calculează în același mod ca și R pătrat și are cea mai echivalentă interpretare: din variația totală a lui Y, proporția care poate fi atribuită unui anumit X.
Eta pătrat, totuși, este utilizată în mod specific în modelele ANOVA. Fiecare efect categoric din model are propriul Eta pătrat, astfel încât obțineți o măsură specifică și intuitivă a efectului acelei variabile.
Eta pătrat are totuși două dezavantaje. Unul este că, pe măsură ce adăugați mai multe variabile la model, proporția explicată de oricare dintre variabile va scădea automat. Acest lucru face dificilă compararea efectului unei singure variabile în diferite studii.
Parțial Eta Squared rezolvă această problemă, dar are o interpretare mai puțin intuitivă. Acolo, numitorul nu este variația totală a lui Y, ci variația neexplicată a lui Y plus variația explicată doar de acel X. Astfel, orice variație explicată de alți X este eliminată din numitor. Acest lucru permite unui cercetător să compare efectul aceleiași variabile în două studii diferite, care conțin covariate diferite sau alți factori.
Într-o ANOVA cu o singură cale, Eta pătrat și Eta pătrat parțial vor fi egale, dar acest lucru nu este adevărat în modelele cu mai mult de o variabilă independentă.
Inconvenientul pentru Eta pătrat este că este o măsură distorsionată a varianței explicate a populației (deși este precisă pentru eșantion). Întotdeauna o supraestimează.
Acest bias devine foarte mic pe măsură ce dimensiunea eșantionului crește, dar pentru eșantioane mici o măsură de mărime a efectului lipsită de bias este Omega pătrat. Omega pătrat are aceeași interpretare de bază, dar utilizează măsuri nepărtinitoare ale componentelor varianței. Because it is an unbiased estimate of population variances, Omega Squared is always smaller than Eta Squared.
Other recent posts contain equations of all these effect size measures and a list of great references for further reading on effect sizes.