Probabilità: significato, concetto e importanza

Dopo aver letto questo articolo imparerai a conoscere: - 1. Significato della probabilità 2. Diverse scuole di pensiero sul concetto di probabilità 3. Importante terminologia 4. Importanza 5. Principi.

Significato della probabilità:

Nella nostra vita quotidiana la "probabilità" o "caso" è termine molto usato. A volte, diciamo "Probabilmente domani potrebbe piovere", "Probabilmente il signor X potrebbe venire oggi a prendere la sua classe", "Probabilmente hai ragione". Tutti questi termini, possibilità e probabilità trasmettono lo stesso significato. Ma nella statistica la probabilità ha una connotazione particolare, a differenza di quella di Layman.

La teoria della probabilità è stata sviluppata nel 17 ° secolo. Ha avuto origine da giochi, lancio di monete, lancio di un dado, estrazione di una carta da un mazzo. Nel 1954 Antoine Gornband aveva intrapreso un'iniziazione e un interesse per questa zona.

Dopo di lui molti autori di statistiche avevano cercato di rimodellare l'idea data dal primo. La "probabilità" è diventata uno degli strumenti di base della statistica. A volte l'analisi statistica diventa paralizzata senza il teorema della probabilità. "La probabilità di un determinato evento è definita come la frequenza prevista di occorrenza dell'evento tra eventi di tipo analogo." (Garrett)

La teoria della probabilità fornisce un mezzo per ottenere un'idea della probabilità di accadimento di diversi eventi derivanti da un esperimento casuale in termini di misure quantitative che vanno da zero a uno. La probabilità è zero per un evento impossibile e uno per un evento che è certo che si verifichi.

Esempio:

La probabilità che il cielo cada è di .00.

Un individuo che ora vive muoverà un giorno a 1, 00.

Cerchiamo di chiarire il significato della probabilità con un esempio di disegno di una carta da gioco. Ci sono 4 varietà di carte in un mazzo e se queste carte saranno mescolate casualmente la probabilità di pescare una vanga è 13/52 = 1/4. Se una moneta imparziale viene lanciata, la probabilità di occorrenza di Testa (H) è 1/2.

Probabilità come rapporto:

La probabilità di un evento dichiarato o espresso matematicamente chiamato come un rapporto. La probabilità di una moneta imparziale, la testa che cade è 1/2, e la probabilità che un dado mostri un due punti è 1/6. Questi rapporti, detti rapporti di probabilità, sono definiti da quella frazione, il cui numeratore equivale al risultato desiderato o ai risultati, e il denominatore di cui è uguale al totale dei risultati possibili.

Più semplicemente, la probabilità dell'aspetto di qualsiasi faccia su un 6 faccia (per esempio 4 punti) è 1/6 o il

Probabilità = esito desiderato / numero totale di risultati

Quindi, una probabilità è un numero o un rapporto che va da 0 a 1. Zero per un evento che non può verificarsi e 1 per un evento, certo che si verificherà.

Diverse scuole di pensiero sul concetto di probabilità:

Ci sono diverse scuole di pensiero sul concetto di probabilità:

1. Probabilità classica:

L'approccio classico alla probabilità è una delle più antiche e semplici scuole di pensiero. È stato originato nel 18 ° secolo che spiega la probabilità di giochi di possibilità come lanciare monete, dadi, carte da disegno ecc.

La definizione di probabilità è stata data da un matematico francese di nome "Laplace". Secondo lui la probabilità è il rapporto tra il numero di casi favorevoli tra il numero di casi altrettanto probabili.

O in altre parole, la proporzione suggerita dall'approccio classico è:

Pr. = Numero di casi favorevoli / Numero di casi ugualmente probabili

Per esempio, se una moneta viene lanciata, e se viene chiesto qual è la probabilità del verificarsi della testa, allora il numero del caso favorevole = 1, il numero dei casi altrettanto probabili = 2.

Pr. di testa = 1/2

Simbolicamente può essere espresso come:

P = Pr. (A) = a / n, q = Pr. (B) o (non A) = b / n

1 - a / n = b / n = (o) a + b = 1 e anche p + q = 1

p = 1 - q, e q = 1 - p e se a + b = 1 quindi anche a / n + b / n = 1

In questo approccio la probabilità varia da 0 a 1. Quando la probabilità è zero, indica che è impossibile che si verifichi.

Se la probabilità è 1, allora c'è certezza per l'evento, cioè l'evento è destinato a verificarsi.

Esempio:

Da una borsa contenente 20 palline nere e 25 bianche, una palla viene estratta casualmente. Qual è la probabilità che sia nero.

Pr. di una palla nera = 20/45 = 4/9 = p, 25 Pr. di una palla bianca = 25/45 = 5/9 = q

p = 4/9 e q = 5/9 (p + q = 4/9 + 5/9 = 1)

demeriti:

(1) L'approccio classico è limitato solo con monete, dadi, carte, ecc .;

(2) Questo potrebbe non spiegare il risultato reale in alcuni casi;

(3) Se il numero dei casi altrettanto probabili è più, allora è difficile trovare i valori del rapporto di probabilità e

(4) Se il numero di casi ugualmente probabili è 00, allora questo approccio è inadeguato.

2. Teoria della probabilità relativa:

Questo approccio alla probabilità è una protesta contro l'approccio classico. Indica il fatto che se n è aumentato fino a ∞, possiamo scoprire la probabilità di p o q.

Esempio:

Se n è ∞, quindi il Pr. di A = a / n = .5, Pr. di B = b / n = 5

Se un evento si verifica a volte fuori da n la sua frequenza relativa è a / n. Quando n diventa ∞, viene chiamato il limite della frequenza relativa.

Pr. (A) = limite a / n

dove n → ∞

Pr. (B) = limite bl.t. qui → ∞.

Se ci sono due tipi di oggetti tra gli oggetti di natura simile o altra, allora la probabilità di un oggetto vale a dire il Pr. di A = .5, quindi il Pr. di B = 0, 5.

demeriti:

1. Questo approccio non è affatto un approccio autentico e scientifico.

2. Questo approccio di probabilità è un concetto indefinito.

3. Questo tipo di approccio probabilistico, sebbene applicato in ambito economico e commerciale, non è ancora affidabile.

Terminologia importante nella probabilità:

1. Eventi mutuamente esclusivi:

Si dice che gli eventi si escludono a vicenda quando non si verificano simultaneamente. Tra gli eventi, se un evento rimarrà presente in una prova, non verranno visualizzati altri eventi. In altre parole, il verificarsi di uno preclude il verificarsi di tutti gli altri.

Per esempio:

Se una ragazza è bella, non può essere brutta. Se una palla è bianca, non può essere rossa. Se prendiamo altri eventi come vivi e morti, si può dire che una persona può essere viva o morta in un punto del tempo.

Ma la menzogna non può essere contemporaneamente viva e morta. Se una moneta viene lanciata, la testa apparirà o apparirà la coda. Ma entrambi non possono apparire nello stesso tempo. Si riferisce che nel lancio di una moneta l'occorrenza di testa e coda rientra in eventi che si escludono a vicenda.

Simbolicamente, se gli eventi "A" e "B" si escludono a vicenda, la probabilità di eventi può essere stimata in P (A) o P (B). In eventi mutuamente esclusivi P (AB) = 0.

2. Eventi indipendenti e dipendenti:

Due o più eventi sono considerati indipendenti quando l'occorrenza di una prova non ha effetto sull'altra. Indica il fatto che se il processo viene eseguito uno per uno, un processo non viene influenzato dall'altro processo. E anche una prova non descrive mai nulla delle altre prove.

Esempio:

Gli eventi nel lancio di una moneta sono eventi indipendenti. Se una moneta viene lanciata una per una, allora una prova non viene influenzata dall'altra. In una prova la testa o la coda possono conica che non descrive mai nulla di quale evento arriverà in seconda prova. Quindi il secondo processo è completamente indipendente da quello del primo processo.

Gli eventi dipendenti sono quelli in cui l'evento e il non verificarsi di un evento in una sperimentazione possono influire sul verificarsi degli altri studi. Qui gli eventi sono reciprocamente dipendenti l'uno dall'altro.

Esempio:

Se una carta viene pescata da un mazzo di carte da gioco e non viene sostituita, allora nella 2a prova la probabilità verrà modificata.

3. Eventi altrettanto favorevoli:

Si dice che gli eventi siano ugualmente probabili, quando c'è la stessa possibilità di accadere. Se un evento non si verifica come altri eventi, allora gli eventi non sono considerati altrettanto probabili. In altre parole, si dice che gli eventi siano ugualmente probabili quando un evento non si verifica più spesso degli altri.

Esempio:

Se si lancia una moneta o un dado imparziale, ci si può aspettare che ogni faccia si verifichi a numeri uguali nel lungo periodo. In un altro esempio, in un mazzo di carte da gioco ci aspettiamo che ogni carta appaia allo stesso modo. Se una moneta o un dado è parziale, non ci si aspetta che ogni faccia appaia allo stesso modo.

4. Eventi semplici e composti:

Eventi semplici Nei semplici eventi pensiamo alla probabilità di accadere o di non accadere ai semplici eventi. Ogni volta che stiamo lanciando la moneta stiamo considerando il verificarsi degli eventi di testa e coda. In un altro esempio, se in una borsa ci sono 10 palline bianche e 6 palline rosse e ogni volta che stiamo cercando di scoprire la probabilità di disegnare una palla rossa, è incluso in eventi semplici.

Eventi composti:

Ma d'altra parte quando consideriamo l'occorrenza congiunta di due o più eventi, diventa eventi composti. A differenza degli eventi semplici qui vengono presi in considerazione più di un evento.

Per esempio:

Se ci sono 10 palline bianche e 6 rosse in una borsa e se vengono pescate successive di 3 palline e quando stiamo cercando di scoprire la probabilità di 3 palline come le palline bianche. Questo esempio indica il fatto che gli eventi sono considerati in più di due casi.

Importanza della probabilità:

Il concetto di probabilità è di grande importanza nella vita di tutti i giorni. L'analisi statistica si basa su questo prezioso concetto. In effetti, il ruolo giocato dalla probabilità nella scienza moderna è quello di un sostituto della certezza.

La seguente discussione lo spiega ulteriormente:

io. La teoria della probabilità è molto utile per fare previsioni. Le stime e le previsioni costituiscono una parte importante dell'indagine di ricerca. Con l'aiuto di metodi statistici, facciamo stime per l'ulteriore analisi. Pertanto, i metodi statistici dipendono in gran parte dalla teoria della probabilità.

ii. Ha anche un'importanza immensa nel processo decisionale.

iii. Si occupa della pianificazione e del controllo e del verificarsi di incidenti di ogni tipo.

iv. È uno degli strumenti inseparabili per tutti i tipi di studi formali che coinvolgono l'incertezza.

v. Il concetto di probabilità non si applica solo nelle linee commerciali e commerciali, piuttosto che si applica anche a tutte le indagini scientifiche e alla vita di tutti i giorni.

VI. Prima di conoscere le procedure decisionali statistiche, è necessario conoscere la teoria della probabilità.

vii. Le caratteristiche della probabilità normale. La curva si basa sulla teoria della probabilità.

La distribuzione normale è di gran lunga la distribuzione più utilizzata per trarre inferenze dai dati statistici a causa dei seguenti motivi:

1. Il numero di evidenze è accumulato per mostrare che la distribuzione normale fornisce una buona corrispondenza o descrive le frequenze di occorrenza di molte variabili e fatti in (i) statistiche biologiche, ad esempio il rapporto tra i sessi in un paese per un certo numero di anni, (ii) i dati antropometrici, per esempio altezza, peso, (iii) salari e produzione di un gran numero di lavoratori nella stessa occupazione in condizioni comparabili, (iv) misurazioni psicologiche quali intelligenza, tempo di reazione, regolazione, ansia e (v) errori di osservazione in Fisica, Chimica e altre scienze fisiche.

2. La distribuzione normale è di grande valore nella valutazione e nella ricerca sia nella psicologia che nell'educazione, quando usiamo la misurazione mentale. Si può notare che la distribuzione normale non è una distribuzione effettiva dei punteggi su alcun test di abilità o rendimento accademico, ma è invece un modello matematico.

La distribuzione dei punteggi dei test si avvicina alla distribuzione teorica normale come limite, ma l'adattamento è raramente ideale e perfetto.

Principi di probabilità e curva di probabilità normale:

Quando lanciamo una moneta imparziale, potrebbe cadere a testa o coda. Quindi, la probabilità di caduta della testa è del 50% o 1/2 e la coda che cade è anche del 50% o 1/2. Se lanciamo due monete imparziale, possono cadere in molti modi come HH (due teste) HT (1a testa della moneta e 2a coda della moneta), TH (1a coda della moneta e 2a testa della moneta) o TT (due code).

Quindi ci sono quattro possibili accordi se gettiamo due monete, (a) e (b), allo stesso tempo:

Abbiamo due monete (H + T) 2 ; e squadratura, il binomio (H + T) 2 = H 2 + 2HT + T 2 .

1 H 2 1 possibilità in 4 di 2 teste; rapporto di probabilità = 1/4

2 possibilità di HT 2 in 4 di 1 testa e 1 coda; rapporto di probabilità = 1/2

1 T 2 1 possibilità in 4 di 2 code; rapporto di probabilità = 1/4

Totale = 4

Se lanciamo tre monete (a), (b) e (c) contemporaneamente, ci sono 8 possibili risultati:

Espressi come rapporti, la probabilità di tre teste è 1/8 (combinazione 1); di due teste e una coda 3/8 (combinazioni 2, 3 e 4); di una testa e due coda 3/8 (combinazioni 5, 6 e 7); e di tre code 1/8 (combinazione 8). La somma di questi rapporti di probabilità è 1/8 + 3/8 + 3/8 + 1/8 o 1.00.

Se operiamo tre fattori indipendenti, l'espressione (p + q) n diventa per tre monete (H + T) 3 . Espandendo questo binomio, otteniamo H 3 + 3H 2 T + 3HT 2 + T 3, che può essere scritto,

1 H 3 1 possibilità in 8 di 3 teste; rapporto di probabilità = 1/8

3 possibilità di H 2 T 3 in 8 di 2 teste e 1 coda; rapporto di probabilità = 3/8

3 probabilità di HT 2 3 in 8 di 1 testa e 2 code; rapporto di probabilità = 3/8

1 T 3 1 possibilità in 8 di 3 code; rapporto di probabilità Totale = 1/8

In modo simile se lanciamo dieci monete e sostituiremo 10 per n, l'espansione binomiale sarà

(H + T) 10 = H 10 + 10 H 9 T + 45 H 8 T 2 + 120 H 7 T 3 + 210 H 6 T 4 + 252 H 5 T 5 + 210 H 4 T 6 + 120 H 3 T 7 + 45 H 2 T 8 + 10HT 9 + T 10 .

L'espansione ha undici combinazioni e la probabilità di occorrenza di ciascuna combinazione rispetto al totale possibile è espressa dal coefficiente di ciascuna combinazione.

Possiamo rappresentare gli 11 precedenti dell'espansione lungo l'asse X ad uguale distanza come:

Possiamo rappresentare la possibilità di occorrenza di ciascuna combinazione di H e T come frequenze lungo l'asse Y. Se tracciamo tutti questi punti e li uniamo otterremo un poligono di frequenza simmetrico.

Se nel binomio (H + T) n il valore di n è piuttosto grande (diciamo infinito) avremmo un numero molto grande di punti sul grafico e unendoli otterremmo una curva simmetrica perfettamente levigata. Una curva così liscia e simmetrica è conosciuta come "curva di probabilità normale".

Osserva attentamente la seguente distribuzione di frequenza, che un insegnante ha ottenuto dopo aver esaminato 150 studenti della classe IX in un test di rendimento matematico (vedi Tabella 6.1):

Sei in grado di trovare qualche tendenza speciale nelle frequenze mostrate nella colonna 3 della tabella sopra? Probabilmente sì! La concentrazione della frequenza massima ( f = 30) è al valore centrale di distribuzione e le frequenze gradualmente si assottigliano simmetricamente su entrambi i lati di questo valore. Se disegniamo un poligono di frequenza con l'aiuto della distribuzione sopra, avremo una curva come mostrato in Fig. 6.1.

La forma della curva nella figura è simile a una "campana" ed è simmetrica su entrambi i lati. Se calcoli i valori di Media, Mediana e Modalità, scoprirai che questi tre sono approssimativamente uguali (Media = Media = Modalità = 52).

La curva a forma di campana tecnicamente nota come curva di probabilità normale o semplicemente curva normale e la corrispondente distribuzione di frequenza dei punteggi, con valori uguali di tutte e tre le misure di tendenza centrale, è nota come distribuzione normale.

Questa curva normale ha un grande significato nella misurazione psicologica ed educativa. Nella misurazione degli aspetti comportamentali, la curva di probabilità normale è stata spesso utilizzata come curva di riferimento.

Pertanto, la curva di probabilità normale è una curva a forma di campana simmetrica. In alcune distribuzioni, le misure o i punteggi tendono a essere distribuiti simmetricamente sui loro mezzi. Cioè, la maggior parte dei casi giace al centro della distribuzione e pochissimi casi giacciono alle estremità estreme (estremità inferiore e superiore e).

In altre parole, la maggior parte delle misure (punteggi) si concentra nella parte centrale della distribuzione e altre misure (punteggi) iniziano a declinare sia a destra che a sinistra in proporzioni uguali. Questo è spesso il caso di molti fenomeni naturali e di molti tratti mentali e sociali.

Se disegniamo una curva che meglio si adatta a tale distribuzione simmetrica assumerà la forma di una curva a forma di campana simmetrica su entrambi i lati del suo centro.