[MÚSICA] [MÚSICA] Nesta aula, nós vamos discutir o método de MÃnimos Quadrados Ordinários, ou método de MQO; podemos, também, usar a sigla OLS, que vem do inglês "Ordinary Least Squares". Vimos, na aula anterior, que, a partir dos estimadores, conseguimos estimar a reta de regressão da amostra. Essa reta é o valor estimado para "y" considerando os estimadores e não os parâmetros verdadeiros. Além disso, consideramos também os valores de "x". O próximo gráfico mostra a diferença entre a reta de regressão da população e a reta de regressão da amostra para um exemplo de dados. Os pontos azuis do gráfico são pontos referentes à amostra que coletamos da nossa população. Assim, a nossa reta de regressão será aquela que se ajusta melhor aos dados, que não necessariamente é igual à reta de regressão da população, porque nós não conhecemos todas as observações da população, nem a relação de "y" e "x" na população. A diferença entre o "y" do indivÃduo "i" que tem "xi" anos de escolaridade e a reta de regressão é o que chamamos de resÃduo da regressão. Nós temos resÃduo para cada observação da nossa amostra, por isso colocamos o Ãndice "izinho" para cada um deles e identificamos o nosso resÃduo por um "chapeuzinho" em cima do "u", para diferenciá-lo do erro verdadeiro do modelo. Note que o resÃduo não é igual ao erro verdadeiro do modelo. Então o nosso resÃduo será a diferença entre o "y izinho" e o "y chapéu izinho". Se substituirmos o "y chapéu" pela reta de regressão amostral, nós temos que o "u chapéu i" vai ser igual ao "yi", menos o "Beta chapéu zero", menos o "Beta chapéu 1" "xi". Então conseguimos escrever o resÃduo também em função de "y" e "x", que são observados da amostra, e dos nossos estimadores. Quanto mais ajustada for a reta de regressão amostral aos dados, menores serão os valores dos resÃduos, e essa é a ideia do estimador de mÃnimos quadrados ordinários. Ou seja, o objetivo será encontrar a reta de regressão que minimiza a soma dos resÃduos. Na verdade, nós não podemos minimizar a soma dos resÃduos porque sempre temos resÃduos positivos e resÃduos negativos. Nesse caso, a gente poderia ter ajuste perfeito, ou seja, uma soma zero, mesmo com um modelo não perfeito, não bem ajustado à reta de regressão. Por esse motivo, o estimador de mÃnimos quadrados ordinários vai minimizar não a soma dos resÃduos, mas a soma dos resÃduos ao quadrado, pois, assim, tanto os resÃduos positivos quanto negativos vão ter o mesmo sinal. Além disso, elevar os resÃduos ao quadrado penaliza aquelas observações que estão muito distantes da nossa reta de regressão. O estimador de mÃnimos quadrados ordinários, portanto, será o resultado da minimização da soma dos quadrados dos resÃduos, como podemos ver nesse slide. Ou seja, o "Beta chapéu 0" de MQO e o "Beta chapéu 1" de MQO serão o argumento mÃnimo dessa função objetivo, que é a soma dos quadrados dos resÃduos. Como conseguimos escrever os resÃduos em função de "y", "x", "Beta chapéu 0" e "Beta chapéu 1" e nós observamos "yi" e "xi" em uma amostra de dados, conseguimos resolver esse problema de otimização a partir das condições de primeira ordem e de segunda ordem dessa otimização. O "Beta chapéu 0" e o "Beta chapéu 1" que resolvem esse problema de otimização são aqueles em que a primeira derivada da soma dos quadrados dos resÃduos em "Beta chapéu 0" vai ser igual a zero, e a primeira derivada da soma dos quadrados dos resÃduos em função do nosso "Beta chapéu 1" também vai ser igual a zero. Note, que, novamente, nós temos duas condições de primeira ordem e duas incógnitas, assim, conseguimos resolver esse sistema exatamente identificado. Mas também precisamos calcular as condições de segunda ordem, para verificar se os pontos que encontramos para o "Beta chapéu 0" e para o "Beta chapéu 1" são realmente pontos de mÃnimo. Nesse slide, nós mostramos as duas condições de primeira ordem para "Beta chapéu 0" e "Beta chapéu 1". Note que essas duas equações são equivalentes à s condições de momento amostral que vimos no método dos momentos. Ou seja, a resolução desse sistema vai gerar o mesmo resultado do estimador pelo método dos momentos. Nesse exemplo que estamos vendo do modelo de regressão simples, nós temos a equivalência desses dois estimadores. Como já resolvemos na aula passada essas duas equações, eu vou simplesmente colocar aqui os resultados e deixar para vocês fazerem casa. Assim, o nosso "Beta chapéu 0" de MQO, vai ser igual ao "y-barra", menos o "Beta chapéu 1" vezes "x-barra" e o nosso estimador "Beta chapéu 1" de MQO vai ser o somatório de "yi", menos "y-barra" vezes "xi" menos "x-barra", dividido pelo somatório de "xi" menos "x-barra" ao quadrado. Vamos agora checar as condições de segunda ordem no próximo slide. Aqui, nós temos a matriz das segundas derivadas da nossa função objetivo, que é a soma dos quadrados dos resÃduos. Essa função será positiva se o determinante dela for positivo. Resolvendo esse determinante, nós temos a seguinte equação: 4 "n" vezes o somatório de "xi" menos "x-barra" ao quadrado, que tem que ser positivo. Note que como "n", que é o número de observações, é sempre positivo, o sinal desse termo é dado pela segunda parte dele, ou seja, o somatório de "xi", menos "x-barra" ao quadrado. Mas nós vimos que, para calcular o nosso Beta chapéu a gente já precisou impor essa hipótese e aquela hipótese, que, como como discutimos na aula passada, só será quebrada quando todos os indivÃduos da amostra tiverem o mesmo "x", o que não faz sentido quando estamos falando de um modelo de regressão. Assim, podemos garantir que os nossos estimadores de MQO para esse modelo de regressão simples existem e são realmente o ponto que minimiza a soma dos quadrados dos resÃduos. [MÚSICA] [MÚSICA] [MÚSICA]