Regressione lineare

La regressione lineare per descrivere il modello matematico e fare previsioni a partire da dati sperimentali

La regressione lineare è una tecnica di modellazione statistica usata per descrivere una variabile di risposta continua in funzione di una o più variabili esplicative (predittori). Può contribuire a capire e a prevedere il comportamento di sistemi complessi, nonché ad analizzare dati sperimentali, finanziari e biologici.

Le tecniche di regressione lineare vengono usate per creare un modello lineare. Il modello descrive la relazione fra una variabile dipendente \(y\) (chiamata anche "la risposta") come funzione di una o più variabili indipendenti \(X_i\) (chiamate "i predittori"). L'equazione generale per un modello di regressione lineare è:

\[y = \beta_0 + \sum \ \beta_i X_i + \epsilon_i\]

dove \(\beta\) rappresenta le stime per i parametri lineari da calcolare e \(\epsilon\) rappresenta i termini di errore.

Esistono vari tipi di modelli di regressione lineare:

  • semplice: modello con un solo predittore;

  • multiplo: modello con predittori multipli;

  • multivariato: modello con variabili di risposta multiple.

La regressione lineare semplice viene eseguita comunemente in MATLAB. Per la regressione multipla e multivariata, vedi lo Statistics and Machine Learning Toolbox. Sono disponibili regressioni multiple, a gradino (stepwise), robuste e multivariate per:

  • generare previsioni;
  • confrontare adattamenti di modelli lineari;
  • creare un grafico dei residui;
  • valutare la bontà del fitting;
  • rilevare gli outlier.

Per creare un modello lineare per il fitting di curve e superfici ai tuoi dati, vedere il Curve Fitting Toolbox.

Vedere anche: Statistics and Machine Learning Toolbox, MATLAB, Statistics and Machine Learning Toolbox, Curve Fitting Toolbox, apprendimento automatico, fitting dei dati, analisi dei dati, modellazione matematica, regressione di serie storiche