[MÚSICA] [MÚSICA] O nosso objetivo, aqui, será estimar o efeito de uma variável "x" sobre "y", ou seja, estimar os "Betas" da regressão simples, mantendo os outros fatores constantes (que é, como vimos, a condição de "ceteris paribus"), fundamental para termos causalidade entre essas variáveis. Vamos relembrar, então, o nosso modelo de regressão simples, que é dado por "y" igual a "Beta 0", mais "Beta 1" "x" mais "u". Vimos, no módulo 1, que o "Beta 1" será igual à variação de "y" sobre a variação de "x", quando a variação do termo de erro for igual a 0, ou seja, quando todos os outros fatores que explicam "y" são mantidos constantes. Outra forma da enxergarmos essa hipótese seria usando o conceito de independência entre essas variáveis. Há dois principais conceitos de independência a serem usados neste curso. Nós temos o conceito de independência linear, em que a correlação entre "x" e "u" é igual a 0 (uma variação dessa hipótese seria que a esperança de "xu" é igual a 0. Conseguimos, facilmente, verificar essa relação a partir da fórmula da covariância, porque a covariância de "x" e "u" será igual à esperança de "xu" menos a esperança de "x", vezes a esperança de "u". O segundo conceito de independência é o que a chamamos de independência na média condicional, em que a esperança de "u" dado "x", ou seja, a esperança condicional do termo de erro a valores de "x", será igual à esperança não condicional, que é a esperança de "u". E ambos esses termos são iguais a 0. Esse conceito de independência é mais forte do que o conceito de independência linear. Isso porque nós dizemos que todos os primeiros momentos da amostra são iguais. Isso porque todos os primeiros momentos da distribuição, condicionais a "x" são também iguais aos momentos não condicionais. Outra forma de enxergarmos essas hipóteses seria assumindo dois momentos populacionais iguais a 0: a esperança de "u" igual a 0, e a esperança de "x" vezes "u" igual a 0. Se essas duas condições valem, dizemos que temos independência linear entre "x" e "u", condição essa que é importantÃssima para a obtenção do efeito causal. O método dos momentos vai se utilizar dessas duas condições para poder derivar os estimadores. Antes de entrarmos na forma como vamos calcular esses estimadores, veremos a consequência da hipótese de esperança de "u" condicional a "x" igual a 0 no nosso modelo de regressão simples. Vejam, nesse slide, que, quando a esperança de "u" dado "x" é igual a 0, podemos passar a esperança condicional no nosso modelo, o que resulta no que chamamos de "modelo de regressão da população". Na verdade, o modelo de regressão da população vai ser a reta da população que exprime a relação entre "y" e "x". Podemos ver aqui no gráfico. Por exemplo, a esperança de "y" dado "x" será igual a "Beta 0", mais "Beta 1" "x". Ou seja, temos uma reta. Não temos mais o nosso termo aleatório. No gráfico, todos os pontos que temos aqui são observações da nossa população. A reta, então, será a reta da população, que é desconhecida, porque nós não conhecemos nem o "Beta 0", nem o "Beta 1". A distância de cada pontinho da nossa população até a reta é o que chamamos de nosso termo "u", o nosso termo de erro. O nosso objetivo, aqui, então, será encontrar uma amostra que seja boa o suficiente para essa população, ou seja, uma amostra aleatória, ou representativa, e, a partir dessa amostra, tentar encontrar a melhor reta que se aproxima da reta da população. Como eu falei para vocês, o método dos momentos parte de dois momentos populacionais, esperança de "u" igual a 0 e a esperança de "x" vezes "u" igual a 0. Como sabemos que o "u", o nosso termo de erro, vai ser uma função de "y", de "x" e dos "Betas" e nós observamos uma amostra de "x" e "y". Ou seja, no nosso exemplo de salário e educação, quando retiramos uma amostra da nossa população, observamos os anos de escolaridade de cada indivÃduo da amostra e o respectivo salário daquele indivÃduo. Então, quando temos uma amostra, temos observações de "y" e de "x". As nossas incógnitas, aqui, serão tanto "Beta 0", quanto "Beta 1". A ideia do método dos momentos é, então, a partir das hipóteses sobre o erro, encontrar estimadores para as nossas incógnitas, que são o "Beta 0" e o "Beta 1". Veja que nós temos dois momentos e duas incógnitas, então, temos um sistema que é exatamente identificado, o que nos permite encontrar os nossos estimadores. A partir da observação dos "y" e "x" da nossa amostra, vamos, então, encontrar os momentos amostrais respectivos a esses momentos populacionais. Veja que o primeiro momento da distribuição seriam os valores esperados. Na nossa amostra, a gente poderia aproximar o valor esperado, por exemplo, pela média simples, e é isso que faremos com o método dos momentos. Nós vamos aplicar a média simples para explicar esses dois momentos que vimos. O primeiro momento amostral, que podemos ver aqui no slide, será a somatória do "ui", que é o termo de erro para cada indivÃduo da nossa amostra, dividido por "n". Esse momento amostral terá que ser igual a 0, assim como o momento populacional a que ele se refere. O segundo momento amostral será o somatório de "xi" vezes o "ui" dividido por "n". Esse momento também tem que ser igual a 0, porque ele se refere à esperança de "xu" igual a 0. Então se substituirmos o nosso "ui", que é uma função de "y", "x" e dos "Betas", nessas duas fórmulas do momento amostral, teremos duas equações e duas incógnitas. Vamos, então, resolver a primeira equação. Vamos escrever uma das incógnitas, o "Beta 0", função do "Beta 1". Como falamos, a solução desse sistema será o nosso estimador. Então, a partir de agora, vamos usar o "chapeuzinho" em cima dos parâmetros para diferenciá-los do estimador, porque, quando esses dois momentos valem, nós temos o estimador do método dos momentos. Então, da primeira equação, nós temos o seguinte: somatório de "yi" dividido por "n", menos o somatório do "Beta chapéu 0" dividido por "n", menos o somatório do "Beta chapéu 1", "xi" dividido por "n" -- tudo isso tem que ser igual a 0. Veja que o somatório de "yi" dividido por "n" é a média amostral do "y", então podemos usar o "y-barra" para denotar esse termo. Já o somatório de "Beta chapéu 0" dividido por "n" é uma soma de "i" indo de 1 até "n", do "Beta chapéu 0", que não depende de "i", ou seja, estamos somando "n" vezes uma constante. Somando "n" vezes uma constante, temos "n" vezes essa constante como resultado. Então esse termo (somatório do "Beta chapéu 0" dividido por "n") vai ser: "n" "Beta chapéu 0" dividido por "n", que será simplesmente igual ao "Beta chapéu 0". Já para o terceiro termo, nós temos o somatório do "Beta chapéu 1", vezes "xi" dividido por "n". Nós podemos tirar o "Beta chapéu 1" desse somatório, porque ele não está indexado ao "i". Assim, teremos o "Beta chapéu 1" vezes o somatório de "xi" dividido por "n". Note que o somatório de "xi" dividido por "n" é igual à média amostral de "x", então nós podemos substituÃ-la por "x-barra". Todo esse termo tem que ser igual a 0. Se isolarmos o nosso "Beta chapéu 0", para resolvê-lo em função do "Beta chapéu 1", nós temos que o estimador pelo método dos momentos do "Beta 0", ou seja, o "Beta chapéu 0" --- em que a gente vai colocar dois "m" pequenos para diferenciá-los dos estimadores de outros métodos -- será igual a "y-barra" menos o "Beta chapéu 1", "x-barra". Agora, a partir dessa relação, nós podemos substituÃ-la na segunda equação que vimos, o nosso segundo momento amostral. O somatório de "xi" dividido por "n" vezes, abre parênteses, "yi" menos "y-barra", mais "Beta chapéu 1" "x-barra", menos "Beta chapéu 1" "xi". Aqui, nós vamos agrupar os termos que têm "Beta chapéu 1" e os termos que não têm, para poder fazer a distributiva dessa relação. Assim, a gente tem a seguinte equação: o somatório de "xi" vezes, abre parênteses, "yi" menos "y-barra", tudo isso dividido por "n", menos "Beta chapéu 1" vezes o somatório de "xi" vezes "xi" menos "x-barra" dividido por "n", tudo isso tem que ser igual a 0. Se isolarmos agora o nosso "Beta chapéu 1", teremos a seguinte expressão: O "Beta chapéu 1", pelo método dos momentos, será igual ao somatório de "xi" vezes "yi" menos "y-barra", dividido pelo somatório de "xi" vezes "xi" menos "x-barra". Esse termo é exatamente equivalente ao que está escrito aqui no lado direito da equação. Você pode ver mais detalhes em livros de Econometria, como aqueles que citamos na bibliografia. Uma coisa importante que temos da fórmula do nosso "Beta chapéu 1", ou seja, o estimador do "Beta 1" do nosso modelo de regressão simples, é que ele só será calculável quando o somatório de "xi" menos "x-barra" ao quadrado for maior que 0, que é exatamente o denominador do nosso estimador. Veja que essa condição faz bastante sentido na nossa amostra, porque só não vamos ter somatório de "xi" menos "x-barra" ao quadrado maior que 0 quando todos os "x" da nossa amostra forem iguais à média amostral; ou seja, no nosso exemplo de efeito da educação sobre os salários, só teremos esse caso quando todos os indivÃduos da nossa amostra tiverem a mesma escolaridade, por exemplo, 9 anos de escolaridade. Se coletamos uma amostra em que todos os indivÃduos têm 9 anos de escolaridade -- ou seja, com média amostral 9 --, nós não conseguiremos estimar o nosso "Beta chapéu 1"; porque não temos variação no "x" para poder identificar o efeito de uma variação de "x" sobre "y". Outra questão interessante da fórmula do "Beta chapéu 1" é quando dividimos os termos de cima e de baixo por "n" menos 1. Veja que o termo de cima é igual à covariância amostral entre "x" e "y", enquanto o termo de baixo será, exatamente, a variância amostral de "x". Essa questão é importante porque temos que o sinal do nosso "Beta chapéu 1" será dado pelo sinal da correlação, ou da covariância, entre "x" e "y". Ou seja, se, na nossa amostra "educação" e "salário" têm uma correlação positiva, temos que o nosso estimador pelo método dos momentos, do modelo de regressão simples, será também positivo. Outra questão interessante que podemos observar quando temos os nossos estimadores é que podemos escrever o valor previsto de "y", que vamos identificar por "y chapeuzinho". Então, o "y chapéu" vai ser a reta de regressão da amostra, ou seja, vai ser a reta de regressão utilizando os estimadores ao invés dos parâmetros. Lembre-se de que a reta utilizando os parâmetros é o que a gente chama de função de regressão populacional, que só pode ser derivada quando a esperança de "u" dado "x" é igual a 0. Além do valor previsto de "y", podemos, também, calcular o que nós chamamos de "resÃduo da regressão". O resÃduo da regressão vai ser a diferença entre o "y" observado e o "y" previsto. Veremos mais detalhes sobre o resÃduo da regressão na próxima aula. [MÚSICA] [MÚSICA] [MÚSICA]