[MUSICA] [MUSICA] Ciao, il problema che vorrei affrontare riguarda il miglioramento della predizione della variabile y con n+1 che viene prevista o predetta attraverso y barra ossia la media aritmetica degli n valori a nostra disposizione per la variabile di interesse y. Immaginiamo quindi di avere a disposizione non solo le n misurazioni della variabile y ma di avere informazioni anche su un'altra variabile che immaginiamo possa essere associata alla nostra variabile di interesse. Denotiamo questa variabile, per esempio, con x e indichiamo le osservazioni corrispondenti a y1, y2 e yn con x1, x2 e xn. Quindi abbiamo una variabile indipendente x che è chiamata anche covariata regressore o predittore e quindi coerentemente la variabile y verrà , pertanto, chiamata variabile dipendente. Il nostro problema quindi adesso diventa un problema di previsione della variabile y n+1 non più sulla base delle sole n osservazioni y1, y2, yn ma anche sulla base delle variabili x1, x2, xn e della corrispondente osservazione xn + 1. Quindi l'obiettivo della regressione lineare semplice, in ottica di predizione numerica è quello di riuscire su un campione, che a questo punto viene chiamato campione di addestramento, o in inglese, training sample, formato dall'insieme delle osservazioni x1, x2, xn e delle corrispondenti osservazioni della variabile dipendente y1, yn che sia quindi in grado di farci prevedere il valore futuro di una variabile yn + 1 osservata in corrispondenza di un predittore che chiamiamo xn +1. Per semplicità , spesso xn +1 viene anche denotato con x0 e y n +1 viene denotato con y0. È necessario quindi ipotizzare un legame, un modello che porti in dote il modo in cui la variabile indipendente influenzi la variabile dipendente. L'esempio più semplice per tale tipo di modello è il legame lineare, quindi potremmo immaginare di avere un modello del fenomeno che sia lineare ossia che in generale la y, scritta in modo del tutto generico, sia legata alla x tramite un modello di questo tipo in cui c'è un coefficiente che chiamiamo beta 0 ed un coefficiente beta 1xX quindi possiamo immaginare di poter applicare, riga per riga, questo modello ai nostri dati sperimentali in modo da avere quello che viene chiamato modello sperimentale che quindi possiamo scrivere come y1 uguale beta 0 + beta 1 x1, y2 uguale beta 0 + beta 1 x2, yn = beta 0 +beta 1 xn. Chiaramente beta 0 e beta 1 sono due costanti incognite da stimare sulla base dei dati osservati. Un po' come facevamo per la media mu, se vi ricordate nel nostro primo esempio di previsione, avevamo scelto y barra come stima di mu. Dobbiamo fare lo stesso e quindi trovare degli stimatori, nel nostro caso, delle quantità , o meglio dei parametri beta 0 e beta 1 che sono quindi, lo ribadiamo qui, dei numeri reali. Utilizziamo, per fare questo, il metodo dei minimi quadrati immaginando che tra y1 e x1 esista questo modello, ma che questo modello non sia perfetto e dunque ci sia la necessità di associare ad ogni osservazione l'errore commesso, che chiamiamo Epsilon 1, Epsilon 2, Epsilon n nel sostituire ad ogni y il corrispondente valore ottenuto come beta 0 + beta 1x. Quindi, implicitamente l'ipotesi che stiamo facendo è che le y non siano più delle normali di media mu ma che la media sia dipendente da x secondo una legge lineare e che quindi la sua varianza non sia più σ quadro ma sia σ quadro con Epsilon ossia la varianza dell'errore e si può dimostrare che, ipotizzando un modello di questo tipo σ quadro con Epsilon è minore o, al più, uguale a σ quadro. Ci può tornare utile denotare beta 0 + beta 1x con il simbolo mu di y dato x. Per poter ottenere un modello previsionale dobbiamo quindi stabilire una tecnica per poter stimare beta 0 e beta 1. Così come abbiamo stimato mu attraverso y barra, dobbiamo adesso stimare beta 0 attraverso una quantità che chiameremo beta 0 cappello e stimare beta 1 attraverso una quantità che chiameremo beta 1 cappello. Senza entrare nei dettagli in quanto potremo utilizzare direttamente R per fare questo, voglio solo farti capire che queste due quantità , quindi sia beta 0 che beta 1 cappello vengono ottenute minimizzando lo scostamento tra la vera osservazione e quella eventualmente prevista attraverso beta 0 + beta1 x con i al quadrato dove, ovviamente, sia beta 0 che beta 1 sono dei numeri reali. R ci fornirà queste due quantità . Siamo quindi in grado di ottenere dal modello sperimentale quello che viene chiamato modello previsionale. Il modello previsionale è quello che otteniamo quando, in corrispondenza di un determinato valore x0 voglio prevedere y0 e lo faccio indicando la previsione con y0 cappello e questa previsione sarà proprio pari a beta 0 cappello più beta 1 cappello x0. Bene facciamo chiarezza su alcuni termini. Abbiamo chiamato errore la differenza tra y e il modello beta 0 + beta con 1x e lo abbiamo indicato con Epsilon. In particolare abbiamo chiamato Epsilon con i con i che variava da 1 a n, le differenze tra yi e beta 0 + beta 1 xi e abbiamo immaginato che Epsilon fosse una fonte di incertezza con una media nulla e una varianza σ Epsllon al quadrato in modo tale da immaginare che la y sia uguale ad un termine che abbiamo denotato con mu di y dato x più termine di errore e quindi, implicitamente, abbiamo sommato mu con y dato x alla variabile aleatoria normale di media zero e varianza σ quadro con Epsilon in modo da avere, in definitiva per le y, un modello normale con una media mu con y dato x e la varianza σ quadro con Epsilon. Facciamo attenzione, perché chiameremo, invece, residuo o meglio al plurale, residui, le differenze tra yi osservato e la quantità stimata dal modello beta 0 cappello più beta 1 cappello xi e indichiamo questa quantità con Epsilon cappello con i. È molto importante non confondere le Epsilon con i con le Epsilon cappello con i. In aggiunta, chiameremo errore previsionale o errore di previsione o di predizione, che è lo stesso, la quantità y0 meno la previsione y cappello con 0. La differenza tra i residui e l'errore di previsione è legata al fatto che nei primi gli scostamenti sono calcolati sugli n valori su cui è basata la stima di beta cappello 0 e beta cappello 1 mentre l'errore di previsione è basato su un valore futuro, y0, osservato in corrispondenza di un valore futuro di covariata x0 e la sua stima y cappello con 0. I residui vengono calcolati quindi sulla base del campione di addestramento o training sample. Con questo video ho cercato di fornirti gli elementi intuitivi per convincerti del fatto che introdurre informazioni aggiuntive in una predizione numerica in questo caso basata sul modello di regressione lineare semplice possa migliorare l'adattamento del modello ai dati sperimentali. Nel prossimo video ti tradurrò questi concetti graficamente.