L'analisi di regressione esamina la relazione lineare tra una o più variabili esplicative (indipendente) e una variabile criterio (dipendente).
Questo studio può avere un duplice scopo:
- esplicativo: capire e ponderare gli effetti delle variabili indipendenti (VI) sulla variabile dipendente (VD) in funzione di un determinato modello teorico.
- predittivo: individuare una combinazione lineare di variabili indipendenti per predire in modo ottimale il valore assunto dalla variabile dipendente.
I coefficientdi di correlazione di pearson esprimono l'entità e la direzione della relazione lineare tra due variabili quantitative, la relazione che viene misurata tra le variabili è di tipo simmetrico, cioè le due variabili correlate sono della stessa natura, nessuna influenza l'altra ma al variare dell'una c'è una co-variazione dell'altra.
Le informazioni finali della regressione lineare sono:
- un insieme di parametri che riassumono la relazione tra la variabile dipendente e le variabili indipendenti.
- una statistica e un valore di probabilità associato alle relazioni trovate, che consentono di condurre la verifica delle ipotesi.
- due valori che assumono la correlazione tra la variabile dipendente e le indipendenti e l'impatto complessivo delle variabili indipendenti sulla variabile dipendente in termini di varianza spiegata (R2) e un indice (F) che consente di condurre la verifica delle ipotesi sui coefficienti R e R2.
Piaciuto l'articolo? Lascia un commento!
EmoticonEmoticon