Analisi della varianza (ANOVA)

Questo articolo si occuperà dell'applicazione dell'analisi della varianza al problema importante e spesso riscontrato di determinare il significato della differenza tra i mezzi.

La varianza, nel senso comune, è una misura della dispersione di un insieme di punteggi. Descrive la misura in cui i punteggi differiscono l'uno dall'altro. È definita come la media della deviazione quadrata dei punteggi individuali presi dalla media.

dove x = X - M o deviazione del punteggio dalla media, cioè varianza = quadrato di SD

o, varianza = σ 2 quindi σ =

Una misura della varianza ci dà un'idea dell'omogeneità del gruppo. La varianza dell'insieme di punteggi sarà inferiore se il gruppo è omogeneo nel raggiungimento. D'altra parte la varianza dell'insieme di punteggi sarà più, se il gruppo è eterogeneo nel raggiungimento.

L'analisi della varianza è un dispositivo molto utile per analizzare i risultati di indagini scientifiche, ricerche in scienze sociali e fisiche. Per ottenere risposte alle domande di ricerca in studi sperimentali o per testare le ipotesi, la varianza viene analizzata in diverse componenti e si confrontano le varianze da diverse fonti. Nella ricerca ci imbattiamo in diversi progetti sperimentali e formuliamo ipotesi nulla.

Utilizziamo la tecnica di "analisi della varianza" (ANOVA o ANOVAR) per studiare se il rapporto di varianza (F) è significativo o meno, e basando su di esso l'ipotesi nulla è accettata o respinta.

Il concetto di varianza e ANOVA è chiarito attraverso un esempio.

Esempio 1:

Calcola la varianza della seguente distribuzione dei punteggi 4, 6, 3, 7, 5.

Qui l'espressione Zx 2 è chiamata "Somma dei quadrati di deviazione dei punteggi dalla media" (in breve SS). Quando SS è diviso per il numero totale di punteggi (N) otteniamo "Mean square" o MS. Quindi la varianza è anche chiamata quadrato medio. simbolicamente,

V = MS o V = SS / N

Una varianza nella terminologia di ANOVA è spesso chiamata "Mean square" (o MS). In Analisi della varianza (ANOVA), il quadrato medio o la varianza è calcolato dividendo SS per df . così

Componenti della varianza:

Prima di passare a calcoli dettagliati della varianza è necessario dare un'occhiata a due dei suoi componenti:

(a) varianza sistematica, e

(b) Errore varianza.

(a) Varianza sistematica:

La varianza sistematica, in una configurazione sperimentale, è quella parte della varianza che può essere attribuita alla manipolazione della variabile sperimentale, cioè variabile indipendente.

Ad esempio, un investigatore vuole studiare l'effetto della motivazione, cioè la ricompensa verbale e il riconoscimento sul rendimento scolastico di due gruppi uguali. Seleziona due gruppi omogenei e manipola la ricompensa verbale a un gruppo e il riconoscimento a un altro gruppo. Quindi amministra un test per entrambi i gruppi e ottiene i loro punteggi.

(Qui, 'Motivazione' è la variabile indipendente e 'punteggio ottenuto' è la variabile dipendente). Quando viene calcolata la varianza di tutti i punteggi di due gruppi, viene definita come varianza totale (V t ). La parte della varianza totale attribuibile solo alla "manipolazione della motivazione" può essere indicata come "Varianza sistematica". Questa è la varianza tra i gruppi (o V b ).

(b) Errore Varianza:

Oltre all'effetto delle variabili sperimentali, esistono anche altre fonti di variazione dovute a variabili estranee che possono influenzare la variabile dipendente.

Quindi la varianza dell'errore è quella parte della varianza totale che può essere attribuita ad altre fonti di variazione incontrollate in un esperimento.

Errore varianza deriva da fonti diverse:

1. Fonti di variazione incontrollate derivanti da variabili estranee.

2. Variabilità intrinseca nelle unità sperimentali.

3. Fluttuazioni casuali nell'esperimento.

4. Errori di misura dovuti alla mancanza di

(a) tecniche sperimentali standard;

(b) uniformità nell'amministrazione;

(c) condotta fisica dell'esperimento;

(d) Stato emotivo transitorio dei soggetti, ecc.

Simbolicamente la varianza dell'errore è espressa come V e . Nell'esempio sopra ci occupiamo principalmente di due variabili, vale a dire la motivazione come variabile indipendente e il punteggio di conseguimento come variabile dipendente.

Oltre a queste due variabili, l'investigatore incontra altre variabili che influenzano la variabile dipendente. Tali altre variabili possono essere come sesso, livello di intelligenza, stato socio-economico, età, istruzione ecc. Di cui l'investigatore non si è preso cura.

Tali variabili che non sono controllate in una configurazione sperimentale e influenzano il verificarsi di variabili dipendenti sono chiamate "variabili estranee" o "variabili irrilevanti".

Quando queste variabili sono controllate in un esperimento, l'errore sperimentale può essere ridotto al minimo. Se queste variabili estranee non sono controllate, formeranno la parte della varianza dell'errore. "La funzione principale del design sperimentale è di massimizzare la varianza sistematica, controllare le fonti di varianza estranee e minimizzare la varianza dell'errore." Così ogni investigatore vuole ridurre l'errore sperimentale.

Per ridurre al minimo la varianza dell'errore, è possibile utilizzare i seguenti modi:

1. Le variabili estranee possono essere controllate da:

un. randomizzazione,

b. Eliminazione,

c. Matching,

d. Introducendo variabili o variabili indipendenti aggiuntive e

e. Con controllo statistico.

2. Gli errori di misurazione possono essere controllati da :

un. Usando tecniche sperimentali standardizzate,

b. Utilizzando strumenti di misura affidabili,

c. Assicurare l'uniformità nell'amministrazione o la conduzione dell'esperimento,

d. Aumentare l'affidabilità della misurazione fornendo istruzioni chiare e inequivocabili, ecc.

Sopra la discussione ci conferma di concludere che la varianza totale costituisce in due parti, cioè,

V t = V b + V e

dove V t = varianza totale

V b = varianza tra gruppi (o varianza sistematica)

V e = varianza dell'errore.

In ANOVA, la varianza sistematica è studiata contro la varianza dell'errore mediante F-test.

Più grande è il valore di F, maggiore è la probabilità che la varianza sistematica sia maggiore dell'errore sperimentale (all'interno della varianza di gruppo o delle variazioni individuali).

Un esempio numerico può distinguere tra varianza sistematica e varianza dell'errore.

Esempio 2:

Un ricercatore assegna dieci studenti a caso a due gruppi (cinque in ciascun gruppo) e manipola due trattamenti di motivazione a questi due gruppi a caso.

Quindi l'investigatore amministra un test e prende nota dei punteggi di dieci studenti come indicato di seguito:

Ora si osserva che i mezzi di due gruppi sono diversi. Cioè, troviamo la varianza tra i gruppi. La varianza tra i gruppi (V b ) può essere calcolata come segue. Prendiamo i mezzi 5 e 7 come due punteggi e calcoliamo la varianza di questi due punteggi.

Calcoleremo la varianza totale (V t ) prendendo tutti i dieci punteggi di entrambi i gruppi in una colonna.

V t contiene tutte le fonti di variazione nei punteggi. In precedenza abbiamo calcolato V b (o varianza tra i gruppi) a 1.00.

Cerchiamo ora di calcolare ancora un'altra varianza calcolando la varianza di ogni gruppo separatamente e poi calcolandone la mediazione.

Dal momento che abbiamo calcolato le varianze separatamente e poi la media, chiamiamo questa varianza come "all'interno della varianza di gruppi" o V w .

Nel nostro esempio V w = 3 .8

Quindi 4.8 (V t ) = 1.00 (V b ) + 3.8 (V w )

o V f = V b + V w [Varianza totale = tra varianza di gruppo + varianza all'interno del gruppo].

Concetti di base incontrati con ANOVA:

Prima di affrontare problemi numerici per verificare l'ipotesi nulla utilizzando l'ANOVA, dovremmo conoscere due concetti: (a) Somma dei quadrati (SS) e (b) Grado di libertà ( df ) che incontreremmo spesso in ANOVA.

(a) Calcolo di SS (somma dei quadrati):

In ANOVA calcoliamo "varianza tra i gruppi" (V b ) e la "varianza all'interno dei gruppi" (V w ). Calcoliamo V b e V w come segue:

dove SS b = somma tra gruppi di quadrati

e SS W = somma di quadrati all'interno dei gruppi.

Confrontiamo queste due varianze per un rapporto chiamato F dove F = dove

Vediamo ora come calcolare la somma dei quadrati (SS) con due metodi.

Esempio 3:

Calcola la somma dei quadrati della seguente distribuzione di punteggi.

7, 9, 10, 6, 8

Media = 40/5 = 8

Metodo II (metodo corto):

Le SS possono essere calcolate direttamente dai punteggi senza calcolare media e deviazione. Questo è noto come metodo corto e SS viene calcolato utilizzando la formula,

Qui non dobbiamo calcolare la media e le deviazioni del punteggio individuale dalla media. Il secondo metodo è preferito quando vi è un numero elevato di punteggi e la media comprende i decimali.

Quindi in ANOVA la somma dei quadrati può essere calcolata usando la formula.

Calcolo dei gruppi tra somma di quadrati (SS b ) e Entro gruppi somma di quadrati (SS W )

Seguendo due metodi possono essere impiegati per calcolare SS t, SS b e SS w .

Esempio 4:

Due diversi trattamenti sono manipolati su due gruppi di cinque soggetti ciascuno.

E i punteggi ottenuti sono i seguenti:

Lascia che il "Grand Mean" (cioè la media di tutti i dieci punteggi) sia designato come M

Ora M = 35 + 25/10 = 60/10 = 6

Calcolo di SS t, SS b e SS w (Metodo lungo):

Calcolo di SS t :

Per calcolare SS t dovremo scoprire la somma dei quadrati della deviazione di ciascuno dei dieci punteggi sopra dalla media grande (cioè 6)

Calcolo di SS b :

Per calcolare SS b, presumiamo che ciascun elemento del gruppo sia uguale alla sua media di gruppo e quindi studi la varianza tra diversi gruppi. Qui calcoleremo la somma del quadrato della deviazione dei mezzi di vari gruppi dalla grande media.

Il valore di ciascun elemento nel gruppo-I è considerato 7 e il valore di ciascun elemento del gruppo II è considerato come 5 e la somma dei quadrati di questi valori dalla media generale (M = 6) verrà calcolata.

Possiamo calcolare SS b in forma tabellare come segue:

Calcolo di SS w :

Per il calcolo di SS W troveremo la somma dei quadrati della deviazione di vari punteggi in un gruppo dalla media dei rispettivi gruppi.

Il calcolo di SS W è presentato in forma tabellare:

Somma totale dei quadrati o SS W = 10 + 6 = 16

Nel calcolo sopra abbiamo trovato SS t, = 26, SS b, = 10 e SS W = 16

Quindi SS t = SS b + SS w

Calcolo di SS t, SS b e SS w (metodo corto):

In breve, possiamo calcolare SS SS SS e SS W direttamente dai punteggi utilizzando le tre seguenti formule.

In questo breve metodo non dobbiamo calcolare la media e le deviazioni. Possiamo calcolare diverse varianze direttamente dai punteggi. In ANOVA, SS t e SS b vengono calcolati solitamente con il metodo breve.

Mentre si affrontano problemi su ANOVA, calcoleremo SS e SS con questo breve metodo.

(b) Gradi di libertà (df):

Ogni SS diventa una varianza quando divisa per i gradi di libertà ( df ) assegnati ad esso. In ANOVA avremmo incontrato gradi di libertà ( df ). Il numero di gradi di libertà per ogni varianza è uno in meno della V su cui è basato.

Se N = Numero di punteggi in tutti e K = numero di categorie o gruppi, abbiamo nel caso generale che:

df per totale SS = (N - 1)

df tra i gruppi SS = (K - 1)

df per i gruppi SS = (N - K)

Anche:

(N - 1) = (N - K) + (K - 1)

Analisi della varianza (One Way):

Separatamente abbiamo discusso sui test di significatività della differenza tra i mezzi. Solitamente il test t viene utilizzato quando vogliamo determinare se i due mezzi campione differiscono in modo significativo.

Quando ci occupiamo degli esperimenti che coinvolgono due gruppi, possiamo verificare se i due mezzi differiscono in modo significativo utilizzando il test t.

Ma il t-test non è adeguato quando si devono confrontare più di due mezzi. Per esempio ci sono quattro mezzi di quattro gruppi. Per verificare se questi quattro mezzi differiscono in modo significativo l'uno dall'altro, dobbiamo fare sei test t.

Se i quattro mezzi sono M 1, M 2, M 3, M 4 dobbiamo confrontare la differenza tra M 1 e M 2 cioè (M 1 - M 2 ), tra M 1 e M 3 cioè (M 1 - M 3 ), tra M 1 e M 4 cioè (M 1 - M 4 ), tra M 2 e M 3 cioè (M 2 - M 3 ), tra M 2 e M 4 cioè (M 2 - M 4 ), tra M 3 e M 4 cioè, (M 3 - M 4 ). Allo stesso modo per 10 significa che dobbiamo fare 45 test t.

Per K significa che dobbiamo fare K (K - 1) / 2 t-test e questo implicherebbe più computazione e manodopera. Ma utilizzando il test F attraverso ANOVA possiamo valutare il significato della differenza di tre o più di tre mezzi contemporaneamente.

I presupposti su cui si basa il test F:

Come al solito, una decisione statistica è valida nella misura in cui determinati presupposti sono stati soddisfatti nei dati utilizzati.

In ANOVA ci sono solitamente quattro requisiti dichiarati:

1. Il campionamento all'interno dei set dovrebbe essere casuale. I vari gruppi di trattamento sono selezionati a caso dalla popolazione.

2. Le varianze all'interno dei vari set devono essere approssimativamente uguali. Questo si riferisce all'assunzione di omogeneità della varianza, ovvero i gruppi sono omogenei nella variabilità.

3. Le osservazioni all'interno di insiemi sperimentalmente omogenei dovrebbero provenire dalla popolazione normalmente distribuita.

4. I contributi alla varianza totale devono essere additivi.

R. Prendiamo alcuni esempi e vediamo come viene analizzata la varianza quando i gruppi sono indipendenti:

Esempio 5:

In una configurazione sperimentale 16 soggetti sono assegnati a caso a due gruppi di 8 soggetti ciascuno. Questi due gruppi sono stati trattati con due diversi metodi di insegnamento. Testare il significato della differenza tra i mezzi campione.

Soluzione:

Grand Totale (cioè totale di tutti i 16 punteggi) = 104 o ΣX = 104

Media grande (M), ovvero media di tutti i 16 punteggi = ΣX / N = 104/16 = 6, 5

Per il calcolo del rapporto F dovremo seguire i passaggi indicati di seguito:

Passo 1:

La somma di tutti i 16 punteggi è 44 + 60 o 104; e la correzione (C) è, di conseguenza,

Passo 2:

Quando ogni punteggio di entrambi i gruppi è quadrato e sommato, il ΣX 2 diventa (ΣX 1 2 + ΣX 2 2 = 260 + 460) 720.

Quindi la correzione 676 viene sottratta dal totale usando la formula:

Totale SS o SS 1 = ΣX 2 - C = 720 - 676 ​​= 44.

oppure, SS t = 3 2 + 4 2 + 5 2 + ...... .. + 9 2 - 676 ​​= 44

Passaggio 3:

La somma dei quadrati tra SS significa che si trova quadrando la somma di ogni colonna, dividendo il primo e il secondo per 8 separatamente e sottraendo C.

Tra gruppo SS o SS b

Passaggio 4:

La SS all'interno (o SS W ) è la differenza tra SS e SS b . Quindi SS W = 44 - 16 = 28.

Passaggio 5:

Dal momento che ci sono 16 punteggi in tutto

Interpretazione del rapporto F:

Il rapporto di varianza o F è 16/2 o 8. Il df per mezzo è 1 e il df per i gruppi è 14. Entrando nella Tabella F con questi df si legge nella colonna 1 e nella riga 14 che il livello 0, 05 è 4.60 e il livello .01 è 8.86. La nostra F calcolata è significativa a livello .05.

Ma non è significativo a livello .01. In altre parole, il valore osservato di F è maggiore del valore di livello 0, 05 ma inferiore al valore di livello 01. Quindi concludiamo che la differenza media è significativa a livello di 0, 05 ma non significativa al livello di significatività di 0, 01.

Esempio 6:

(Quando le dimensioni dei gruppi non sono uguali) viene somministrato un test di interesse a 6 ragazzi in una classe di formazione professionale ea 10 ragazzi in una classe latina.

La differenza media tra i due gruppi è significativa a livello di 0, 05? Prova il significato della differenza attraverso ANOVA.

Interpretazione del rapporto F:

Il rapporto di scostamento o F è 135/33 o 4, 09. Il df per mezzo è 1 e il df per i gruppi è 14. Entrando nella Tabella F con questi df leggiamo nella colonna 1 e nella riga 14 che il livello 0, 05 è 4, 60 e il livello 0, 01 è 8, 86. La nostra F calcolata di 4, 09 non raggiunge abbastanza il livello .05, quindi la nostra differenza media di 6 punti deve essere considerata non significativa. Quindi l'ipotesi nulla è accettata.

Quando ci sono solo due mezzi per essere confrontati, come qui; F = t 2 or t = = √F e i due test (F e t) danno esattamente lo stesso risultato. Per l'esempio sopra √F = √4.09 = 2.02. Dalla tabella D abbiamo trovato che per 14 df il livello di significatività di 0, 05 per questo t è 2, 14.

Il nostro t di 2.02 non raggiunge abbastanza questo livello e quindi (come F) non è significativo.

Esempio 7:

(Più di due gruppi)

Applicare ANOVA per verificare se i mezzi di quattro gruppi differiscono in modo significativo:

Poiché ci sono 20 punteggi in quattro gruppi:

df per SS totale (o SS 1 ) = (N - 1) o 20 - 1 = 19

df per SS b = (K - 1) o 4 - 1 = 3

df per SS w = (N - K) o 20 - 4 = 16

F = 33, 33 / 3, 5 = 9, 52

T = √F = 3, 08

Interpretazione del rapporto F:

Il rapporto di scostamento o F è 9, 52. Il df per mezzo è 3 e il df per i gruppi è 16. Entrando nella Tabella F con questi df si legge la colonna 3 e la riga 16 che il livello .05 è 3.24 e il livello .01 è 5.29.

La nostra F calcolata di 9, 52 è superiore a 5, 29. Quindi F è significativo. L'ipotesi nulla viene respinta con la conclusione che i quattro mezzi differiscono significativamente a livello 01.

(B) Prenderemo un altro esempio nell'analisi della varianza quando lo stesso gruppo viene misurato più di una volta, cioè in caso di gruppi correlati:

Quando viene dato un test e poi ripetuto, l'analisi della varianza può essere utilizzata per determinare se il cambiamento medio è significativo (cioè il significato della differenza tra i mezzi ottenuti da gruppi correlati).

Esempio 8:

(Per gruppi correlati)

Cinque soggetti ricevono 4 prove successive su un test con simboli numerici di cui sono mostrati solo i punteggi per le prove 1 e 4. Il guadagno medio dalla fase iniziale a quella finale è significativo.

Le procedure per l'analisi della varianza attualmente differiscono in almeno due modi dai metodi discussi sopra.

Innanzitutto, poiché esiste una possibilità di correlazione tra i punteggi ottenuti dai 5 soggetti sulla prima e sulla quarta prova, i due gruppi di punteggi non dovrebbero essere considerati come campioni (casuali) indipendenti.

In secondo luogo, la classificazione è ora in termini di due criteri: (a) prove e (b) soggetti.

A causa di questi due criteri, il totale SS deve essere suddiviso in tre parti:

(a) SS attribuibili a prove;

(b) SS attribuibili a soggetti; e

(c) Una SS residua di solito chiamata "interazione"

I passaggi nel calcolo di queste tre varianti possono essere riassunti come segue:

Passo 1:

Correzione (C). Come nella procedura precedente, C = (ΣX) 2 / N. Nell'esempio sopra C è 90 2/10 o 810.

Passo 2:

Somma totale di quadrati. Anche in questo caso il calcolo ripete la procedura utilizzata nell'Esempio 1, 2 e 3.

Totale SS o SS t = 7 2 + 8 2 + 4 2 + 6 2 + 5 2 + 10 2 + 15 2 + 5 2 + 20 2 + 10 2 - C

= 1040 - 810 o 230.

Passaggio 3:

SS tra i mezzi di prova. Ci sono due prove di 5 punteggi ciascuna.

Perciò,

Passaggio 4:

SS tra i mezzi di soggetti. Un secondo "tra mezzi" SS è necessario per occuparsi del secondo criterio di classificazione. Ci sono 5 studenti / soggetti e ognuno ha due prove. I punteggi di 1a e 4a prova di ogni soggetto / studente vengono aggiunti per ottenere 17, 23, 9, 26, 15.

Quindi,

Passaggio 5:

Interazione SS. La variazione o interazione residua è ciò che rimane quando gli effetti sistematici delle differenze di prova e delle differenze tra soggetti sono stati rimossi dal totale SS.

L'interazione misura la tendenza delle prestazioni del soggetto a variare insieme alle prove: misura i fattori non attribuibili né ai soggetti né alle prove che agiscono da soli, ma piuttosto ad agire insieme.

L'interazione si ottiene semplicemente sottraendo le prove SS più i soggetti SS dal totale SS.

Così,

Interazione SS = SS t - ( Soggetti SS + prove SS) = 230 - (90 + 90) = 50.

Passaggio 6:

Dal momento che ci sono 10 punteggi in tutto abbiamo (10 - 1) o 9 df per il totale SS. Due studi ricevono 1 df e 5 soggetti, 4. I restanti 4 df sono assegnati all'interazione. La regola è che il df per l'interazione è il prodotto del df per le due variabili interagenti, qui 1 x 4 = 4. In generale, N = numero totale di punteggi, r = righe e K = colonne.

Interpretazione dei rapporti F:

La F per le prove è 7.2. Il valore calcolato di F per le prove è inferiore a 7, 71 che leggiamo nella Tabella F per il punto 0, 05 quando df 1 = 1 e df 2 = 4.

Ciò significa che l'ipotesi nulla rispetto alle prove è sostenibile e deve essere accettata. La prova è forte che nessun miglioramento significativo ha avuto luogo dal processo 1 al processo 4.

La F per i soggetti è 1.8 ed è molto più piccola del punto .05 di 6.39 nella Tabella F per df 1 = 4 e df 2 = 4. È ovvio che i soggetti non sono costantemente migliori degli altri.

Ciò significa che l'ipotesi nulla rispetto ai soggetti è sostenibile e deve essere accettata.

ANOVA bidirezionale:

Per insegnare un determinato concetto geometrico se vengono applicati diversi metodi di insegnamento a due o più di due gruppi di studenti, la chiamiamo come una variabile sperimentale.

Nell'ANOVA a una via viene studiato solo un fattore (cioè una variabile indipendente). Per esempio, quando vogliamo testare se i metodi di insegnamento hanno qualche effetto sul rendimento, studiamo l'effetto di una variabile indipendente (cioè l'insegnamento dei metodi) sulla variabile dipendente (cioè la realizzazione).

Le serie di dati sono differenziate sulla base di una sola variazione sperimentale. C'è solo un principio di classificazione, una ragione per separare i dati in insiemi.

Per questo, selezioniamo tre gruppi a caso e assegniamo tre diversi trattamenti, metodo-1, metodo-2 e metodo-3 a caso a questi tre gruppi.

Alla fine, i punteggi di conseguimento dei soggetti dei tre diversi gruppi possono essere ottenuti attraverso un test appropriato.

Quindi, utilizzando ANOVA, possiamo verificare se i mezzi di questi tre gruppi differiscono in modo significativo.

In una classificazione a due vie o ANOVA a due vie, ci sono due distinte basi di classificazione. Due condizioni sperimentali possono variare da un gruppo all'altro. Nei laboratori psicologici, diverse strisce di atterraggio artificiale per l'aeroporto, ognuna con un diverso schema di marcature, possono essere visualizzate attraverso uno schermo di diffusione per stimolare la visione attraverso la nebbia a diversi livelli di opacità.

In un problema educativo, quattro diversi metodi di insegnamento di un determinato concetto geometrico possono essere applicati da cinque insegnanti diversi, ognuno dei quali utilizza ognuno dei quattro metodi. Ci sarebbero quindi 20 combinazioni di insegnante e metodo.

La seguente tabella può precedere ulteriormente:

In un esempio citato di seguito, vengono studiati gli effetti di tre metodi di istruzione sui punteggi di conseguimento. Ma si prevede che i metodi di insegnamento avranno effetti diversi a seconda del livello di status socio-economico (SES) dei soggetti.

Quindi, possiamo progettare uno studio in cui l'effetto di due variabili, cioè l'effetto dei metodi di istruzione e l'effetto dei livelli di status socio-economico (SES), può essere studiato simultaneamente. In questo disegno possiamo anche studiare l'effetto dell'interazione. Per tali progetti vengono utilizzate le tecniche dell'ANOVA a due vie.

Esempio 9:

Sei gruppi di studenti (cinque studenti in ciascuno) sono stati selezionati a caso per sei condizioni di trattamento. Studiare l'effetto di due fattori, vale a dire, fattore A (stato socio-economico) e fattore B (metodi di istruzione) per l'esempio seguente.

Soluzione:

Nell'esempio sopra abbiamo preso due livelli di SES viz., High SES in A 1 categoria e Low SES in A 2 categoria e tre metodi di istruzione viz., B 1 (lezione), B 2 (discussione) e B 3 ( modo di giocare).

Il numero totale di trattamenti nell'esperimento sarà 2 x 3 = 6. Qui n = 5 e il numero totale di osservazioni N = 5 x 6 = 30.

Totale generale, ΣX = 30 + 50 + 40 + 25 + 45 + 35 = 225.

Sei diversi gruppi di trattamento possono essere presentati in una "Tabella di interazione", come indicato di seguito:

Per tre metodi di istruzione ci sono tre colonne (... c = 3). I totali di riga vengono utilizzati per il calcolo di SS per A (SES). I totali delle colonne sono utilizzati per il calcolo di SS per B (metodi di istruzione).

I passaggi nel calcolo delle varianze possono essere riassunti come segue:

Passo 1:

Passo 2:

Totale SS o SS t = ΣX 2 - C. Qui tutti i trenta punteggi sono quadrati e aggiunti e C viene sottratto.

SS t = 5 2 + 7 2 + ......... + 10 2 + 7 2 - 1687, 5 = 1919 - 1687, 5 = 231, 5

Passaggio 3:

Tra il gruppo SS o SS b = Totale di (ΣX) 2 / n per tutte le sei condizioni di trattamento - C.

Passaggio 4:

All'interno dei gruppi SS o SS W = SS t - SS b = 231, 5 - 87, 5 = 144

Passaggio 5:

Ora "Between Group SS" o SS b di 87.5 può essere diviso in tre parti cioè, SS A, SS B e SS AB cioè SS b = SS A + SS B + SS AB

Dove SS A = SS del fattore A (SES) generando dalla deviazione di A 1 e A 2 significa dalla media dei punteggi totali.

SS B = SS del fattore B (metodi) generato dalle deviazioni di B 1, B 2 e B 3 significa dalla media dei punteggi totali.

Passaggio 6:

Gradi di libertà per diversi SS

Nel nostro problema abbiamo 6 gruppi

.˙. K = 6

n = 5 e N = 6 xn = 6 x 5 = 30.

Nella tabella di interazione ci sono due righe e tre colonne

.˙. r = 2 e C = 3.

Il partizionamento di df può essere effettuato come segue:

df per SS t = N - 1 = 30 - 1 o 29

df per SS b = K - 1 = 6 - 1 o 5

df per SS W = K (n - 1) = 6 x 4 o 24

Il df fox SS b, può essere suddiviso in tre parti:

(i) df per SSA = r - 1 = 2 - 1 o 1

(ii) df per SSB = c - 1 = 3 - 1 o 2

(iii) df per SS AB = (r - 1) (C - 1) = 1 x 2 o 2

Ora possiamo inserire il calcolo sopra in una tabella di riepilogo ANOVA a due vie:

Interpretazione del rapporto F:

(a) F per SES o F per A

F = MS A / MS W = 7, 5 / 6, 0 = 1, 25

(.052 è inferiore a uno)

Come F di 1, 25 <4, 26 a 0, 05 manteniamo l'ipotesi nulla che i due gruppi selezionati a caso non differiscano sui punteggi di conseguimento sulla base dello status socio-economico.

Come F di 6, 67> 5, 6 a livello .01, rifiutiamo l'ipotesi nulla. Concludiamo che i tre metodi di istruzione influenzano in modo diverso i punteggi ottenuti.

Come F di 0, 00 <1, manteniamo l'ipotesi nulla. Accettiamo l'ipotesi nulla di nessuna interazione. Concludiamo che l'efficacia dei metodi non dipende dal livello di status socio-economico.