Condurre ricerche quantitative di comportamento organizzativo (OB)

Prima di condurre una ricerca OB quantitativa, è essenziale comprendere i seguenti aspetti.

Disegnare un piano di ricerca:

Il piano di ricerca dovrebbe essere sviluppato prima di iniziare la ricerca. Questo diventa la stampa blu per la ricerca e aiuta a fornire indicazioni per la ricerca e la valutazione della ricerca.

I componenti di un piano di ricerca specifico sono come sotto:

Introduzione:

Qui, introduciamo il problema, sviluppando una dichiarazione adeguata. Per fare ciò è importante concentrarsi sulla rilevanza del problema (es. Vendere il problema). Viene anche fatta una revisione della letteratura esistente per stabilire la premessa della ricerca e, infine, la parte introduttiva termina con una dichiarazione di ipotesi.

Metodo:

In questa parte, spieghiamo come viene condotta la ricerca, descrivendo in dettaglio le materie (campioni), gli strumenti e il design della ricerca.

Analisi dei dati:

Qui, citiamo come vengono analizzate le risposte raccolte, le osservazioni, ecc., Usando vari strumenti e tecniche statistiche.

Orario:

Il programma temporale fissa la scadenza per il completamento della ricerca e elenca anche le varie attività coinvolte nelle varie fasi di una ricerca. Ciò garantisce anche il controllo in diverse fasi, in particolare nelle organizzazioni. Poiché la maggior parte delle ricerche relative agli OB sono destinate ad adottare decisioni strategiche, la ricerca legata al tempo è molto essenziale.

budget:

Per la ricerca di OB nelle organizzazioni, è importante stilare un preventivo provvisorio che specifichi tutte le spese coinvolte e ottenere l'approvazione per garantire che le ricerche non vengano influenzate in nessuna fase per la scarsità di allocazione del fondo. Per la ricerca accademica, tale budget potrebbe essere necessario, nei casi in cui le agenzie di finanziamento sono pronte a fornire risorse per la ricerca.

Esistono tre modi principali per raccogliere dati quantitativi:

(1) Amministrare uno strumento standardizzato,

(2) Amministrare uno strumento auto-sviluppato, e

(3) Registrare i dati naturalmente disponibili.

Gli strumenti standardizzati possono essere alcuni strumenti validati esistenti, come FIRO-B, Belbin Team Role Self-Perception Inventory Change Management Survey di Rosabeth Moss Kanter ecc. Gli strumenti auto-sviluppati sono progettati dai ricercatori per affrontare i problemi di ricerca. Mentre i dati disponibili naturalmente possono essere record delle prestazioni, dati sull'assenteismo, ecc.

Test di affidabilità e validità:

I due aspetti più importanti della precisione nella ricerca OB sono l'affidabilità e la validità. L'affidabilità si riferisce alla riproducibilità di una misurazione. Quantificiamo l'affidabilità semplicemente prendendo diverse misurazioni sugli stessi soggetti. Scarsa affidabilità mette in discussione il livello di precisione della misurazione e riduce la nostra capacità di tenere traccia dei cambiamenti nelle misurazioni successive in studi futuri.

La validità si riferisce all'accordo tra il valore di una misurazione e il suo valore reale. Quantificiamo la validità confrontando le nostre misurazioni con valori che sono il più vicino possibile ai valori reali. Scarsa validità degrada anche la precisione di una singola misurazione e riduce la nostra capacità di caratterizzare le relazioni tra variabili negli studi descrittivi.

I concetti di affidabilità e validità sono correlati. Tuttavia, poiché è difficile mettere assieme due concetti matematicamente, la maggior parte dei ricercatori studia questi concetti separatamente. Qualunque sia la via per la raccolta dei dati, è sempre consigliabile testarne validità e affidabilità. Validità indica il grado in cui un test misura ciò che intende misurare e consente quindi un'interpretazione appropriata dei risultati.

Progettiamo una misura di prova tenendo conto degli scopi specifici. Pertanto, la validità può essere valutata solo in termini di scopo del test. Ad esempio, potremmo essere interessati a sapere in che modo le misure sui campioni sono valide per la popolazione su un problema specifico.

O come i punteggi predicono il successo in un compito futuro o come un particolare strumento misura una caratteristica. Questi sono esempi di validità del contenuto, di previsione e di costruzione. A parte questo, abbiamo anche validità concorrente. Spiegheremo tutto questo con i seguenti esempi specifici.

La validità dei contenuti:

La validità del contenuto è il grado in cui un test misura un'area di contenuto prevista. Ha due aree: validità dell'articolo e validità del campionamento. Le misure di validità dell'articolo hanno riguardato l'area del contenuto e i campioni di prove di validità del campionamento nell'area di contenuto totale. La validità del contenuto è determinata dal giudizio di esperti, mentre la validità del campionamento viene valutata nel contesto di test statistici.

Per illustrare, supponiamo che per misurare i livelli di soddisfazione dei dipendenti, abbiamo sviluppato un questionario strutturato e chiuso. Il test di validità dell'articolo determinerà fino a che punto gli articoli del questionario sono validi per misurare i livelli di soddisfazione dei dipendenti. In altre parole, stabilirà se gli articoli del questionario sono validi per comprendere la soddisfazione dei dipendenti o meno. Allo stesso modo, per la validità del campionamento, dobbiamo capire se i campioni disegnati rappresentano correttamente la popolazione o se abbiamo qualche errore di campionamento.

Validità di costruzione:

Costruisci validità valuta il grado di un test nel contesto di un costrutto ipotetico. Per elaborare un test di validità del costrutto, è necessario effettuare una serie di studi indipendenti per stabilire la credibilità. Il processo è, ovviamente, non così semplice.

Richiede una conoscenza approfondita dei vari test statistici e la corrispondenza dei test nel contesto dei costrutti di ipotesi. Supponiamo di voler misurare se i campioni sono indifferenti ai sistemi di incentivi. Se formuliamo di conseguenza la nostra ipotesi, potremmo voler misurare il grado di concordanza usando il test di concordanza di Kendall. Allo stesso modo potremmo essere interessati a misurare il grado di indifferenza nel contesto di AN OVA (analisi della varianza), che misura il grado con riferimento alle caratteristiche biografiche dei campioni.

Validità concorrente:

Misura la validità simultanea per capire come il grado di un punteggio di un test si riferisce a un altro. Gli altri punteggi del test possono essere già stabiliti o possono essere i punteggi ottenuti su test somministrati contemporaneamente o possono essere un criterio valido esistente. È accertato determinando un coefficiente di validità.

Quando il coefficiente di validità è elevato, diciamo che il test ha una buona validità concorrente. Ad esempio, potremmo essere interessati a misurare come un particolare programma di formazione accresce le capacità tecniche e anche le abilità di relazione umana.

Mentre il miglioramento delle competenze tecniche viene tradotto in un aumento delle prestazioni sul lavoro, l'abilità delle relazioni umane sviluppa migliori relazioni interpersonali. In questa situazione misuriamo simultaneamente entrambe le variabili dipendenti, cioè il potenziamento delle abilità tecniche e il cambiamento nelle relazioni interpersonali in relazione alla formazione.

Validità predittiva:

La validità predittiva misura il grado di una misura di prova nel predire il successo di singoli campioni in una situazione futura. È determinato con un coefficiente di validità stabilendo la relazione tra i punteggi dei test e alcune misure di successo in alcune situazioni di interesse per il futuro. Quando il coefficiente di validità è elevato, diciamo che la validità predittiva è buona. Ad esempio, potremmo valutare la capacità generale dei dipendenti di imparare a prevedere il loro successo in termini di prestazioni sul posto di lavoro.

Affidabilità:

Misura l'affidabilità o l'affidabilità di uno strumento di valutazione. È il grado in cui un test misura costantemente ciò che intende misurare. L'affidabilità è espressa numericamente in termini di coefficiente. Un alto coefficiente indica alta affidabilità. Alta affidabilità indica una varianza minima dell'errore. L'affidabilità è più semplice della valutazione di validità.

Test-retest, forme equivalenti e affidabilità della metà divisa sono tutti determinati attraverso la correlazione. L'affidabilità test-retest è il grado in cui i punteggi sono coerenti nel tempo. L'affidabilità può anche essere espressa in termini di errore standard di misurazione. Errore standard di misura (grado di varianza) è una stima di quanto spesso possiamo aspettarci errori di una determinata dimensione.

Un piccolo errore standard di misurazione indica un'elevata affidabilità e un ampio errore standard di misurazione indica una bassa affidabilità. Il modo in cui i punteggi delle prestazioni dei dipendenti sono influenzati dalla presenza di un team di revisione delle risorse umane, che non si riferisce alle caratteristiche, è misurato dall'affidabilità test-retest.

Allo stesso modo, in un sistema multivalore, il modo in cui i diversi valutatori assegnano il punteggio alle prestazioni dei dipendenti è determinato dall'affidabilità degli scorer o dall'affidabilità tra valutatori. Infine, il modo in cui le diverse parti di un singolo strumento di valutazione portano a conclusioni simili sul rendimento dei dipendenti sono misurate dall'affidabilità della coerenza interna.